使用PHP& MySQL ...我如何释放内存?

时间:2018-02-15 04:50:48

标签: php mysql performance memory-leaks database-performance

要求:

我们在两台服务器上有两个相似的表。服务器中的第一个表具有唯一的键列A,B,C,并且我们将Table1行插入到具有唯一键列B,C,D的Table2中。

表1具有大约5百万行,并且由于不同的唯一键列约束,Table2将插入大约3百万行。

这里的要求是从Table1中获取所有行,如果表2中没有相同的记录,则插入表2中,如果记录匹配,则增加计数并更新' cron_modified_date'表2中的列。

此版本的PHP版本为5.5,MySQL版本为5.7,而DB服务器的内存为6 GB。

执行下面的脚本时,处理2百万条记录并且RAM没有释放后处理速度变得非常慢,并且在某段时间之后所有RAM都被脚本占用并且在该脚本完全没有处理之后。

正如您所看到的,我正在重置变量并关闭数据库连接,但它不会释放数据库服务器RAM。经过一番阅读,我才知道,可能是PHP垃圾收集需要手动调用以释放资源,但它也没有释放RAM。

我在这里做错了以及如何使用PHP,MYSQL处理数百万条记录?

在执行脚本时释放RAM的任何其他方法,以便脚本应该与执行竞争?

/* Fetch records count for batch insert*/

$queryCount = "SELECT count(*) as totalRecords FROM TABLE1 where created_date > = '2018-02-10'";
$rowsCount = $GLOBALS['db']->execRaw( $queryCount)->fetchAll();

$recordsPerIteration = 50000 ;
$totalCount = $rowsCount[0]['totalRecords']; 
$start = 0;

gc_disable() ;
if ( $totalCount > 0 ) {
    while ( $totalCount > 0 ) {
    $query = "SELECT *  FROM TABLE1
                WHERE where created_date > = '2018-02-10'
                ORDER BY suggestion_id DESC 
                LIMIT ".$start.",".$recordsPerIteration;

    print "sql is $query" ;

    $getAllRows = $GLOBALS['db']->execRaw( $query )->fetchAll();
    $GLOBALS['db']->queryString = null;
    $GLOBALS['db']->close() ;

    foreach ($getAllRows as  $getRow) {

        $insertRow  = " INSERT INTO TABLE2 (
                            Name,
                            Company,
                            ProductName,
                            Status,
                            cron_modified_date)
                VALUE (   
                            ".$GLOBALS['db_ab']->quote($getRow['Name']).", 
                            ".$GLOBALS['db_ab']->quote($getRow['Company']).", 
                            ".$GLOBALS['db_ab']->quote($getRow['ProductName']).",
                            ".$getRow['Status'].",
                            ".$GLOBALS['db_ab']->quote($getRow['created_date'])."
                        )
                    ON DUPLICATE KEY UPDATE count = (count + 1) , cron_modified_date =  '".$getRow['created_date']."'" ;

                $GLOBALS['db_ab']->execRaw( $insertRow ) ;
                $GLOBALS['db_ab']->queryString = null;
                $getRow = null;
                $insertRow = null;
                $GLOBALS['db_ab']->close() ;
           }
          gc_enable() ;
          $totalCount   = $totalCount- $recordsPerIteration;
          $start        += $recordsPerIteration ;
          $getAllRows = null;
          gc_collect_cycles() ;
    }

}

解决方案

在@ABelikov提供的建议之后,很少有人发现跟踪方法...最后,下面的代码工作得非常好,每插入50K记录后释放RAM。

以下是主要发现

  • 在涉及大数据操作的每个主要操作之后释放数据库连接变量,并重新连接数据库,以便刷新数据库缓冲区。
  • 对插入语句进行处理并一次执行插入操作。不要在循环中执行单个记录插入。

    感谢大家提出有价值的建议和帮助。

    /* Fetch records count for batch insert*/
    
    
    $queryCount = "SELECT count(*) as totalRecords FROM TABLE1 where created_date > = '2018-02-10'";
    $rowsCount = $GLOBALS['db']->execRaw( $queryCount)->fetchAll();
    
    $recordsPerIteration = 50000 ;
    $totalCount = $rowsCount[0]['totalRecords']; 
    $start = 0;
    
    if ( $totalCount > 0 ) {
       while ( $totalCount > 0 ) {
           $query = "SELECT *  FROM TABLE1
                WHERE where created_date > = '2018-02-10'
                ORDER BY suggestion_id DESC 
                LIMIT ".$start.",".$recordsPerIteration;
    
    print "sql is $query" ;
    
    $getAllRows = $GLOBALS['db']->execRaw( $query )->fetchAll();
    $GLOBALS['db']->queryString = null;
    $GLOBALS['db']->close() ;
    
    $insertRow  = " INSERT INTO TABLE2 (
                            Name,
                            Company,
                            ProductName,
                            Status,
                            cron_modified_date)
                VALUE (  " ;
    
    
    foreach ($getAllRows as  $getRow) {
    
    
            $insertRow  .= (".$GLOBALS['db_ab']->quote($getRow['Name']).", 
                            ".$GLOBALS['db_ab']->quote($getRow['Company']).", 
                            ".$GLOBALS['db_ab']->quote($getRow['ProductName']).",
                            ".$getRow['Status'].",
                            ".$GLOBALS['db_ab']->quote($getRow['created_date'])."),";
            }
    
    $insertRow=rtrim($insertRow,','); // Remove last ','
    $insertRow.= " ON DUPLICATE KEY UPDATE count = (count + 1) , cron_modified_date =  '".$getRow['created_date']."'" ;
    
    $GLOBALS['db_ab']->execRaw( $insertRow ) ;              
    //Flushing all data to freeup RAM
    $GLOBALS['db_ab'] = null ;
    $GLOBALS['db'] = null ;
    $insertRow = null;
    
    $totalCount = $totalCount- $recordsPerIteration;
    $start      += $recordsPerIteration ;
    $getAllRows = array();
    $getAllRows = null;
    print " \n Records needs to process ".$totalCount."\n";
    
    }
    
    }
    

2 个答案:

答案 0 :(得分:1)

1。插入多行解决方案

您可以使用“插入多行”加快脚本速度,请参阅此处https://dev.mysql.com/doc/refman/5.5/en/insert.html

  

INSERT INTO tbl_name(a,b,c)VALUES(1,2,3),(4,5,6),(7,8,9);

你只需要在你的foreach中保留VALUES部分并移出所有其他

#\31 id {
  border: 2px solid currentcolor;
}

.\32 class {
  text-decoration: underline;
}

.\33 class {
  font-style: italic;
}

.\34 class {
  font-weight: bold;
}

只有当您的foreach“body”通常运行一次以上时才有用

2. MySQL服务器端解决方案

尝试使用TRANSACTION https://dev.mysql.com/doc/refman/5.7/en/commit.html http://php.net/manual/en/pdo.begintransaction.php

在脚本开始时开始一个并在结束时提交。 依靠你的服务器它可以真正帮助。 不过要小心!它取决于您的MySQL服务器配置集。需要测试。

答案 1 :(得分:0)

  • PHP对内存没有实际限制; MySQL确实。
  • 大部分时间都是在MySQL和PHP之间传输数据。

除非我误解了这项任务,否则你的工作太过努力了。只需将其转到MySQL即可完成所有工作。没有数组,没有分块,只有一个SQL:

VALUES()

请注意,可能需要在某些更新中使用伪函数{{1}}。

这可以避免将所有(甚至5000)行提取到PHP中,这可能是内存问题的来源。 PHP中的一个简单变量需要40个字节。 MySQL可以在不中断RAM的情况下处理任意数量的行。