找回密码
 加入
搜索
查看: 1979|回复: 3

[效率算法] 再求一个大数据量问题[当sqlite遇到100万条数据]

[复制链接]
发表于 2012-7-24 16:31:25 | 显示全部楼层 |阅读模式
大概 100万条数据, select 感觉OK
  但是 insert update 频繁时,速度很慢且伤偶的宝贝硬盘,
  求高手指点,有什么办法么?
 楼主| 发表于 2012-7-24 16:34:51 | 显示全部楼层
能不能把1000万条数据放到array呀
发表于 2012-7-24 21:57:30 | 显示全部楼层
回复 2# d39hg


    搞笑吧,放在array里就全部放内存里了。 机器不死才怪。 这样的大数据要靠算法的。
 楼主| 发表于 2012-7-25 13:47:55 | 显示全部楼层
回复 3# MicroBlue


    呵呵 ,看来要研究 算法了
您需要登录后才可以回帖 登录 | 加入

本版积分规则

QQ|手机版|小黑屋|AUTOIT CN ( 鲁ICP备19019924号-1 )谷歌 百度

GMT+8, 2024-11-18 22:24 , Processed in 0.090536 second(s), 19 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表