有 3G 的 mysql 要搬家,如何方便快速?

2017-08-11 09:52:51 +08:00
 lixuda

新手 本来用帝国备份,基本后面卡住。然后直接复制 mysql 文件过去,会出现小问题。 原 mysql 版本:5.5.28 目的 mysql 版本 5.5.56 ,环境 php

4514 次点击
所在节点    MySQL
20 条回复
shapl
2017-08-11 10:03:57 +08:00
联系服务提供商,提交工单备份。
wdd2007
2017-08-11 10:35:20 +08:00
mysqldump 导出。
iyaozhen
2017-08-11 10:38:18 +08:00
MySQLdump 简单粗暴,几百 g 的都搬家过
vus520
2017-08-11 10:40:03 +08:00
人家是主机,是主机
fanne
2017-08-11 10:55:03 +08:00
@iyaozhen #3 然后怎么导到新库?直接 mysql xxx < xxx.sql ?这么导几百 G 的数据?还是有其他什么方法?
lixuda
2017-08-11 11:13:03 +08:00
@iyaozhen 感谢,版本不同,不会引起问题吧
pqee
2017-08-11 11:17:21 +08:00
mysqlsump 简单粗暴,没有兼容问题
loveCoding
2017-08-11 11:22:34 +08:00
mysqlsump +1 ,官方的东西还是靠谱的,即使出错了也容易找到解决方案.
ivmm
2017-08-11 11:27:08 +08:00
阿里云的 DTS,现在貌似还不用花钱,超方便还是可视化的
xuezher
2017-08-11 11:46:38 +08:00
雇一辆卡车,学谷歌
ETiV
2017-08-11 11:48:15 +08:00
mysql dump 慢

可以考虑用更快的 load data infile
maskerTUI
2017-08-11 11:48:52 +08:00
mysqldump 十几秒就导出了
mchl
2017-08-11 14:49:57 +08:00
mysqldump -u username -p --databases your_database_name > path/to/filename.db

恢复: mysql -u username -p < path/to/filename.db
cxbig
2017-08-11 15:05:43 +08:00
3G 太小了,导入导出都花不了多少时间,mysqldump 足以应付。加上压缩应该才 3~500M。
lixuda
2017-08-11 15:12:42 +08:00
@xuezher 新手,其他专业,用不着这么调侃哈
LoliconInside
2017-08-11 15:13:00 +08:00
我们 500G 的数据库都硬是 rsync 过去了……
直接拷贝文件是可以的,前提是两边版本一致。
Sanko
2017-08-11 15:23:01 +08:00
@xuezhet 什么梗
zjyd
2017-08-11 20:50:19 +08:00
@xuezher 才 3G 犯不着卡车吧,我骑摩拜承包了 😂
robertgenius
2017-08-11 23:11:11 +08:00
mysqldump 尝试 1T 数据转移的路过
Legendzhan
2019-09-20 16:59:19 +08:00
@mchl
备份导入的时候最好要加上--default-character-set=utf8

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/382109

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX