用BigDump导入巨大的MYSQL数据库

2007-09-22 – 4:24 上午 --- 5,167 次阅读

如果以前我知道这个脚本,可能我以前的数据就不会丢得那么冤枉了。由于以前用数据库保存了一些数据文件,所以数据库非常大(50+M),本地导入都长期超时。而BigDump就是用来解决这个问题的。

使用:

  1. 下载解压出bigdump.php,用你的编辑器编辑数据库连接参数,就是用户名,密码,表那些;
  2. 删除目标数据库的旧表,或者在用phpMyAdmin导出数据时选‘Add DROP TABLE’, ‘Add IF NOT EXISTS’,这样在导入数据时就会覆盖目标表;
  3. 在服务器上建立一个工作目录,例如:dump;
  4. 如果你想通过服务器的HTTP方式上传数据库,请把dump目录的权限设为777(基于Linux的服务器 chmod 777),不过这样通常会受到PHP配置上传文件大小的限制,最好还是用FTP上传;
  5. 上传bigdump.php和你的数据库文件(*.sql或者*.gz)到dump目录,记得如果是.gz后缀的数据库要用BINARY模式上传;
  6. 在浏览器运行bigdump.php脚本,例如:http://www.yourdomain.com/dump/bigdump.php,这时会有列表让你选择dump目录下的数据库文件;
  7. BigDump会自动更新显示导入的过程,只要你没关闭浏览器的Javascript支持,给点耐心等待导入的完成,不要关闭当前窗口!
  8. 导入成功后,记得删除bigdump.php文件和你的数据库!

中文用户可能需要调整 bigdump.php 文件中的 $db_connection_char_set 参数符合自己的数据库,不至于导入后乱码。

BigDump的作者是Alexey Ozerov,您可以去官方下载这个PHP脚本的最新版本,也可以在本地下载0.28版。

点击显示引用框
引用本文,复制粘贴...

点击可把本文加入多个网络分享站点

上下文导读:

前一页: ACDSee Pro 2 v2.0.219 Final最近流行的三个微软彩蛋 :下一页

您必须 登录 才能发表评论.