全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
楼主: StudyOverseas

求数据库大神帮忙

[复制链接]
 楼主| 发表于 2019-1-1 21:04:07 | 显示全部楼层
欧阳逍遥 发表于 2019-1-1 20:34
python 生成 csv  然后 mysqldump 导入

Python生成csv也是要吃io的啊,而且相当于两次读取:
首先读60万个gz文件,生成csv
然后再sqldump进去60万个文件
 楼主| 发表于 2019-1-1 21:15:08 | 显示全部楼层
ibmall 发表于 2019-1-1 21:03
现在一般电脑的性能都不会太差,I/O是瓶颈的不多,更多的瓶颈可能在数据库方面。
具体问题需要具体分析 ...

数据库是本地自建的,远程腾讯云的数据库更慢
发表于 2019-1-1 21:42:25 | 显示全部楼层
StudyOverseas 发表于 2019-1-1 21:15
数据库是本地自建的,远程腾讯云的数据库更慢

数据库慢一般在于,创建索引/索引变更/复杂索引/关联关系/异常 等等,你找数据库/开发论坛发帖求助吧,另外,把数据格式/关键点 说清除,否则,没人会费心去猜测
发表于 2019-1-1 21:46:49 来自手机 | 显示全部楼层
对每个文件开启事务,而不是缺省插入,可能会快些。
发表于 2019-1-1 21:51:04 | 显示全部楼层
是不是一行一行读入导致的?
我记得insert和insertmany好像是有一点差距的,更别说commit的位置了。
你给的细节有点少,代码亮出来才知道问题。mysqldump是一个好的选择
发表于 2019-1-1 23:14:47 | 显示全部楼层
如果每行字符串是一条sql命令的话,那快不了多少,根据数据库表设计来定
如果只是纯字符串,直接存或者分割下的话,快10倍以上应该是可以的。
程序没写好,io部分要异步的,再加上多线程,跑满硬盘io再说。
你一个文件才2m左右,4秒处理1个怎么能说io跑满了,目前瓶颈肯定不在这里。
发表于 2019-1-1 23:16:21 | 显示全部楼层
StudyOverseas 发表于 2019-1-1 20:35
一个任务已经io占满了....

多租2个高IO的VPS是否可行?
发表于 2019-1-1 23:21:36 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2019-1-2 00:47:14 来自手机 | 显示全部楼层
用loaddata的方式,批量导入会比直接写入快非常多,另外索引先不要加,写入完了再加
发表于 2019-1-2 02:30:47 来自手机 | 显示全部楼层
我就想问一下70万的gz数据库文件有多大?
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2026-4-8 23:21 , Processed in 0.068422 second(s), 9 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表