我有一个相当大的 CSV 文件,有 400 万条记录和 375 个字段,需要处理。我正在使用 RUBY CSV 库来读取这个文件,而且速度很慢。我认为 PHP CSV 文件处理速度很慢,但比较两个读取 PHP 的速度要快 100 倍以上。我不确定我是否在做一些愚蠢的事情,或者这只是 RUBY 没有针对这种类型的批处理进行优化的现实。我设置了简单的测试 pgms 以获得 RUBY 和 PHP 的比较时间。我所做的只是读取,不写入,不构建大数组,并在处理 50,000 条记录后打破 CSV 读取循环。有没有其他人遇到过这个性能问题?
我在具有 4gig 内存的 MAC 上本地运行,运行 OS X 10.6.8 和 Ruby 1.8.7。
Ruby 进程读取 50,000 条记录需要 497 秒,PHP 进程在 4 秒内运行,这不是拼写错误,它快了 100 倍以上。仅供参考 - 我在循环中有代码来打印数据值,以确保每个进程实际上都在读取文件并带回数据。
这是红宝石代码:
require('time')
require('csv')
x=0
t1=Time.new
CSV.foreach(pathfile) do |row|
x += 1
if x > 50000 then break end
end
t2 = Time.new
puts " Time to read the file was #{t2-t1} seconds"
这是PHP代码:
$t1=time();
$fpiData = fopen($pathdile,'r') or die("can not open input file ");
$seqno=0;
while($inrec = fgetcsv($fpiData,0,',','"')) {
if ($seqno > 50000) break;
$seqno++;
}
fclose($fpiData) or die("can not close input data file");
$t2=time();
$t3=$t2-$t1;
echo "Start time is $t1 - end time is $t2 - Time to Process was " . $t3 . "\n";