这几天在做一个东西研究PHP读取行数较多的文件(大概上百万行)考虑到效率问题进行了简单的研究总结如下
第一条file()函数的效率问题
file()函数的效率很底下 如果是有规律的文件比如每行一条相应数据那么尽量不要是用file()函数
可以使用file_get_contents()然后用explode切割这样效率会快三分之一
举个例子:
文件样式如下:
n
n
n
n
n
n
nnnnnnnnnnnn
如果用file($file)读入的话耗时很长
可以用如下方法explode("n"file_get_contents($file));效率会快很多
第二条数组的遍历方式
数据已经被读入数组了下面就是遍历了
我所需要的是确定数组中有无一个值的存在比如说是否在数组中首先想到的是in_array()
不过实验了下发现效率很低下于是参考别人的代码想到一个办法把数组翻转过来变成所有值都为原来的值变成了索引那么只要我在if里写($arr[索引]==)去判断果然效率高出很多
在数组的遍历过程中如果数组个头非常大并且数组中的数据并不是全能用到的话最好把用来遍历的数组抽出来这样会提高很多效率
第三条数组的存储
把计算过后的数据保存起来存在一个文件中考虑了三种方法一种是直接写成php文件一种是serialize一种是json串
第一种方式
直接写入文件保存成PHP
需要的时候直接require进来
第二种方式把变量serialize然后file_put_contents()进入文件使用的时候unserialize就ok
第三种方式和第二种类似只不过写成了json串
经过测试发现第二种效率最高第三种其次和第二种效率不相上下第一种最慢和我预想的差距很大真是大跌眼镜