Notepad++Good Luck To You!

php导入大批量csv
浏览: 1016    评论: 0

很多时候,因为数据统计,我们需要将数据库的数据导出到Excel等文件中,以供数据人员进行查看,如果数据集不大,其实很容易;但是如果对于大数集的导出,将要考虑各种性能的问题,这里以导出数据库一百万条数据为例,导出时间不过20秒,值得学习的一种大数据导出...


很多时候,因为数据统计,我们需要将数据库的数据导出到Excel等文件中,以供数据人员进行查看,如果数据集不大,其实很容易;但是如果对于大数集的导出,将要考虑各种性能的问题,这里以导出数据库一百万条数据为例, 导出时间不过20秒,值得学习的一种大数据导出方式。

导出思路

需要考虑服务器内存

需要考虑程序运行的最大时间

缺少BOM头导致乱码的处理

如果导出数量过大,推荐使用循环导出,每次循环这里以导出一万条为例,循环100次即可全部导出

 <?php
    //让程序一直运行
    set_time_limit(0);
    //设置程序运行内存
    ini_set('memory_limit', '128M');

    $fileName = '测试导出数据';
    header('Content-Encoding: UTF-8');
    header("Content-type:application/vnd.ms-excel;charset=UTF-8");
    header('Content-Disposition: attachment;filename="' . $fileName . '.csv"');

    //打开php标准输出流
    $fp = fopen('php://output', 'a');

    //添加BOM头,以UTF8编码导出CSV文件,如果文件头未添加BOM头,打开会出现乱码。
    fwrite($fp, chr(0xEF).chr(0xBB).chr(0xBF));
    //添加导出标题
    fputcsv($fp, ['姓名', '年龄', '地区']);

    //链接数据库
    $dsn = "mysql:host=127.0.0.1;port=3306;dbname=db_www;charset=utf8";
    $pdo = new PDO($dsn, 'root', '');

    $step = 100; //循环次数
    $nums = 10000; //每次导出数量

    for($i = 0; $i < $step; $i++) {
        $start = $i * 10000;
        $sql = "SELECT uname,age,city FROM `hd_test` ORDER BY `id` LIMIT {$start},{$nums}";
        $pdostatement = $pdo->query($sql);
        $result = $pdostatement->fetchAll(PDO::FETCH_ASSOC);
        foreach ($result as $item) {
            fputcsv($fp, $item);
        }
        //每1万条数据就刷新缓冲区
        ob_flush();
        flush();
    }


全文详见:http://xpxw.com/?id=168

TOP


«    2024年10月    »
123456
78910111213
14151617181920
21222324252627
28293031
TOP 搜索
TOP 控制面板
您好,欢迎到访网站!
  查看权限
TOP 最新留言
    TOP 作者列表
    TOP 站点信息
    • 文章总数:163
    • 页面总数:0
    • 分类总数:6
    • 标签总数:20
    • 评论总数:0
    • 浏览总数:361552