日期:2014-05-17  浏览次数:20601 次

更新大量数据的问题~~
有一个大的数据库,1200万条数据,之前用批量更新一次更新100万条,3个小时更新一次。那计算更新完需要36个小时。时间关系,我就放弃了。

然后我就不批量更新了,一次全部更新完毕。没用批量更新的。现在已经过了19个小时了,日志文件已经到达10G 左右了。目前还在更新日志文件,也不知道什么时候是个头~~~~~

大家看现在应该怎么做?如果用批量更新的话,每次更新多少是合适呢?  100,1000,1W,10W,100W?这个是怎么决定的?

------解决方案--------------------
引用:
引用:只能建议lz 小事务(行数少,需要lz具体情况具体看,10000行也不算多),多次处理即可。

另外,注意日志的增长,如果当前没有插入和查询的需求,可暂时先去掉不必要的索引。
现在的日志文件也有10G 了,你估计还有多久才能更新好,现在时间不多了啊。我必须要找一个方法。唉。害死我了


目前lz的情况,只能等待,相信很快就会结束。另外,注意磁盘空间余量即可。别的,确实也没什么特别好做的。都等了10几个小时了。耐心等待吧.