2

我是一名学生,正在准备暑期实习。我的任务是处理从 excel 到 SQL Server 数据库的数据输入,以进行多年的调查。任务概述如下:

共有三张桌子,一个主赛事,一个个人赛事和一个个人。一个事件有很多个体事件,一个个体事件有很多个体。我的代码只涉及最后两个表。

我读了两个文件,一个文件中所有个人事件的列表,另一个文件中所有个人的列表。个人的数据告诉我它与什么个人事件相关联。

我的代码基本上读取一个单独的事件,然后在第二个文件中查找任何相关的个人。对于个人文件中的每一行,如果它是关联的,则将其插入到正确的表中,否则将其写入新文件。遍历整个文件后,将新文件复制到旧文件中,从而删除已输入数据库的数据。

这种复制已经减少了 3 分钟的执行时间,只需一次又一次地重新读取完整的个人文件。但是有没有更好的方法呢?我的示例数据的执行时间约为 47 秒……理想情况下,我希望这个时间更低。

任何建议,无论多么微不足道,都会受到赞赏。

编辑:这是我正在使用的代码的精简版本

<?php
//not shown:
//connect to database 
//input event data
//get the id of the event
//open files
$s_handle = fopen($_FILES['surveyfile']['tmp_name'],'r');//open survey file
copy($_FILES['cocklefile']['tmp_name'],'file1.csv');//make copy of the cockle file
//read files
$s_csv = fgetcsv($s_handle,'0',',');

//read lines and print lines
// then input data via sql

while (! feof($s_handle))
{
    $max_index = count($s_csv);
    $s_csv[$max_index]='';
    foreach($s_csv as $val)
    {
        if(!isset($val))
        $val = '';
    }
    $grid_no = $s_csv[0];
    $sub_loc = $s_csv[1];
    /*
    .define more variables
    .*/
    

    $sql = "INSERT INTO indipendant_event" 
        ."(parent_id,grid_number,sub_location,....)"
        ."VALUES ("
        ."'{$event_id}',"
        ."'{$grid_no}',"
        //...
        .");";

    if (!odbc_exec($con,$sql))
    {
        echo "WARNING: SQL INSERT INTO fssbur.cockle_quadrat FAILED. PHP.";
    }
    //get ID
    $sql = "SELECT MAX(ind_event_id)"
    ."FROM independant_event";
    $return =  odbc_exec($con,$sql);
    $ind_event_id = odbc_result($return, 1);
    
    //insert individuals
    $c_2 = fopen('file2.csv','w');//create file c_2 to write to 
    $c_1 = fopen('file1.csv','r');//open the data to read
    $c_csv = fgetcsv($c_1,'0',',');//get the first line of data
    while(! feof($c_1))
    {
        
        for($i=0;$i<9;$i++)//make sure theres a value in each column
        {
            if(!isset($c_csv[$i]))
            $c_csv[$i] = '';
        }
        //give values meaningful names
        $stat_no = $c_csv[0];
        $sample_method = $c_csv[1];
        //....
        
        //check whether the current line corresponds to the current station
        if (strcmp(strtolower($stat_no),strtolower($grid_no))==0)
        {
            $sql = "INSERT INTO fssbur2.cockle"
                ."(parent_id,sampling_method,shell_height,shell_width,age,weight,alive,discarded,damage)"
                ."VALUES("
                ."'{$ind_event_id}',"
                ."'{$sample_method}',"
                //...
                ."'{$damage}');";
            //write data if it corresponds
            if (!odbc_exec($con,$sql))
            {
                echo "WARNING: SQL INSERT INTO fssbur.cockle FAILED. PHP.";
            }     
            $c_csv = fgetcsv($c_1,'0',',');  
        }
        else//no correspondance
        {
            fputcsv($c_2,$c_csv);//write line to the new file
            $c_csv = fgetcsv($c_1,'0',',');//get new line
            continue;//rinse and repeat
        }
    }//end while, now gone through all individuals, and filled c_2 with the unused data
    fclose($c_1);//close files
    fclose($c_2);
    copy('file2.csv','file1.csv');//copy new file to old, removing used data
    $s_csv = fgetcsv($s_handle,'0',',');
}//end while

//close file
fclose($s_handle);
?>
4

2 回答 2

3

我可能还没有完全理解这个过程,但为什么不将整个 CSV 插入到您的数据库表中。这似乎是浪费的工作,但它可能会得到回报。完成初始导入后,查找与事件关联的任何个人应该会更快,因为 DBMS 将能够使用索引来加速这些查找(与基于文件的线性遍历相比)。准确地说:您的“个人”表可能会有一个外键进入您的“个人事件”表。只要您在此外键上创建索引,查找速度就会显着加快(简单地将此字段声明为外键可能会导致 SQL Server 自动为其编制索引,但我不能肯定地说,我不这样做' t真的使用MSSQL)。

顺便说一句,我们在谈论多少条记录?如果我们正在处理 1000 条记录,那么期望这种类型的东西在几秒钟内运行绝对是合理的。

于 2011-07-04T09:40:22.793 回答
2

您可以使用文件中的数据创建一个临时数据库,然后使用临时数据库/表将数据带入新表单。这可能会更快,特别是如果您需要进行查找并且需要将条目标记为已处理。

于 2011-07-04T09:32:10.347 回答