yamakawa
发表于 2017-7-4 19:54:31
回复 30# chzj589
卧槽。。你太坏了。我都忘了你特意拿出来
chzj589
发表于 2017-7-4 20:24:48
回复 31# yamakawa
卧槽。。有这种可能吗?
你太......,
向你学习
joint
发表于 2017-7-13 08:22:31
本帖最后由 joint 于 2017-7-13 09:02 编辑
回复joint
第二列文字的首字是空格导致的?那去掉空格试试
第一个\h后面加个+试试
yamakawa 发表于 2017-7-4 13:39 http://www.autoitx.com/images/common/back.gif
因为问题还没有解决,就没有及时恢复,但你写的正则应该是没有问题的。
情况是这样的:
每次提取的数据实际上是有重复的片段数据,需要把这些片段数据在时间维度上进行叠加去重,然后再进行处理。但我对au3的数组操作不熟悉,所以,就把数据以pandas格式引入到了python里,然后再以追加写入的方式写入到一个csv文件里,这些好像都没有什么问题。
with open('csv.csv','a') as f:
dz.to_csv(f,encoding="UTF-8",index=False,header=False)
注:dz为已经打开的片段数据。
但当再用pandas去读这个文件的时候,错误信息为:
UnicodeDecodeError: 'utf-8' codec can't decode byte 0xa1 in position 0: invalid start byte
查了很多资料,问题还是没有解决。
看来曲线救国也是挺麻烦的,可能还得直接用au3的数组方法来按时间叠加去重后再存为csv文件,也就是说,除了原来存的片段数据外,还要另存一个动态的叠加去重的合并数据,麻烦你再试试看这样好不好搞。谢谢。
yamakawa
发表于 2017-7-13 09:39:59
回复 33# joint
这个应该是编码错误。。。你保存的csv文件是什么编码?UTF-8?还是其他?打开的时候要用相应的编码打开
joint
发表于 2017-7-13 10:29:53
回复joint
这个应该是编码错误。。。你保存的csv文件是什么编码?UTF-8?还是其他?打开的时候 ...
yamakawa 发表于 2017-7-13 09:39 http://www.autoitx.com/images/common/back.gif
保存时已经指定格式了:dz.to_csv(f,encoding="UTF-8",index=False)
读取的时候也是指定的"UTF-8"。