Python快速读取超大文件

àì夳堔傛蜴生んèń 2022-04-24 00:42 322阅读 0赞

方法一:
测试文件共6862646行,79.3M大小,耗时6.7秒。
缺点:每一行数据内容不能大于内存大小(一般不会),否则就会造成MemoryError。

  1. import time
  2. print("开始处理...")
  3. start = time.time()
  4. file = r'e:\Python\mypy\搜狗词库\sogou_jianhua_new.txt'
  5. with open(file, 'rb') as f: #rb方式最快
  6. for line in f:
  7. li = line.strip()
  8. lin = str(li).lstrip("b")
  9. end = time.time()
  10. shi = end - start
  11. print("已完成!总耗时%s秒!" % shi)

方法二:
使用yield:简单理解,yield就是return,返回一个值,并记住返回的位置,下次迭代就从这个位置后(下一行)开始。
正常情况使用上面的方式就可以了,但是,如果遇到整个文件只有一行,
而且按照特定的字符进行分割,上面的方式则不行了,这时候yield就非常有用了。
举个例子,log的形式是以{|}做为分割符的:
2018-06-18 16:12:08,289 - main - DEBUG - Do something{|}……
优点:不再限制每行数据的大小,即使整个大文件只有一行。
缺点:速度比上面的方式要慢。

  1. def read_line(filename, split, size):
  2. with open(filename, 'r+') as f:
  3. buff = '' #定义缓冲区
  4. while True:
  5. while split in buff: #若split分割符在缓冲区
  6. position = buff.index(split) #查找分割符第一次出现的位置
  7. yield buff[:position] #返回一个值,并记住返回的位置,下次从此开始
  8. buff = buff[(position + len(split)):] #更新buff,继续下一步
  9. chunk = f.read(size) #若split不在缓冲区,则读取size个字符
  10. if not chunk: #若chunk为空
  11. yield buff
  12. break #跳出循环
  13. buff = buff + chunk #若chunk不为空,则更新buff,继续下一步

发表评论

表情:
评论列表 (有 0 条评论,322人围观)

还没有评论,来说两句吧...

相关阅读