加入收藏 | 设为首页 | 会员中心 | 我要投稿 拼字网 - 核心网 (https://www.hexinwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长学院 > PHP教程 > 正文

php curl完成多线程抓取网页并同时下载图片

发布时间:2022-02-24 14:01:05 所属栏目:PHP教程 来源:互联网
导读:php语言本身不支持多线程,所以开发爬虫程序效率并不高,借助Curl Multi 它可以实现并发多线程的访问多个url地址。用 Curl Multi 多线程下载文件代码: 代码1:将获得的代码直接写入某个文件 ?php $urls =array( http://www.Cuoxin.com/, http://www.baidu.c
  php语言本身不支持多线程,所以开发爬虫程序效率并不高,借助Curl Multi 它可以实现并发多线程的访问多个url地址。用 Curl Multi 多线程下载文件代码:
 
  代码1:将获得的代码直接写入某个文件
 
  <?php
  $urls =array(   
   'http://www.Cuoxin.com/',   
   'http://www.baidu.com/',   
  );// 设置要抓取的页面URL   
        
  $save_to='test.txt';  // 把抓取的代码写入该文件    
      
  $st =fopen($save_to,"a");   
  $mh = curl_multi_init();    
      
  foreach ($urls as $i =>$url) {   
    $conn[$i] = curl_init($url);   
    curl_setopt($conn[$i], CURLOPT_USERAGENT,"Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0)");   
    curl_setopt($conn[$i], CURLOPT_HEADER ,0);   
    curl_setopt($conn[$i], CURLOPT_CONNECTTIMEOUT,60);   
    curl_setopt($conn[$i], CURLOPT_FILE,$st);// 设置将爬取的代码写入文件   
    curl_multi_add_handle ($mh,$conn[$i]);   
  }// 初始化   
        
  do {   
    curl_multi_exec($mh,$active);   
  }while ($active); // 执行   
        
  foreach ($urls as $i =>$url) {   
    curl_multi_remove_handle($mh,$conn[$i]);   
    curl_close($conn[$i]);   
  }// 结束清理   
        
  curl_multi_close($mh);   
  fclose($st);
  ?>
  代码2:将获得的代码先放入变量,再写入某个文件
 
  <?php
  $urls =array(   
   'http://m.Cuoxin.com/',   
   'http://www.Cuoxin.com/',   
   'http://www.163.com/'  
  );   
      
  $save_to='/test.txt';  // 把抓取的代码写入该文件   
  $st =fopen($save_to,"a");   
      
  $mh = curl_multi_init();   
  foreach ($urls as $i =>$url) {   
    $conn[$i] = curl_init($url);   
    curl_setopt($conn[$i], CURLOPT_USERAGENT,"Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0)");   
    curl_setopt($conn[$i], CURLOPT_HEADER ,0);   
    curl_setopt($conn[$i], CURLOPT_CONNECTTIMEOUT,60);   
    curl_setopt($conn[$i],CURLOPT_RETURNTRANSFER,true); // 设置不将爬取代码写到浏览器,而是转化为字符串   
    curl_multi_add_handle ($mh,$conn[$i]);   
  }   
      
  do {   
    curl_multi_exec($mh,$active);   
  }while ($active);   
        
  foreach ($urls as $i =>$url) {   
    $data = curl_multi_getcontent($conn[$i]);// 获得爬取的代码字符串   
    fwrite($st,$data); // 将字符串写入文件。当然,也可以不写入文件,比如存入数据库   
  }// 获得数据变量,并写入文件   
      
  foreach ($urls as $i =>$url) {   
    curl_multi_remove_handle($mh,$conn[$i]);   
    curl_close($conn[$i]);   
  }   
      
  curl_multi_close($mh);   
  fclose($st);  
  ?>
  curl抓取网页中文乱码的解决方法
 
  function ppost($url,$data,$ref){ // 模拟提交数据函数
 
  $curl = curl_init(); // 启动一个CURL会话
 
  curl_setopt($curl, CURLOPT_URL, $url); // 要访问的地址
 
  curl_setopt($curl, CURLOPT_SSL_VERIFYPEER, 0); // 对认证证书来源的检查
 
  curl_setopt($curl, CURLOPT_SSL_VERIFYHOST, 1); // 从证书中检查SSL加密算法是否存在
 
  curl_setopt($curl, CURLOPT_USERAGENT, $_SERVER['HTTP_USER_AGENT']); // 模拟用户使用的浏览器
 
 
  curl_setopt($curl, CURLOPT_RETURNTRANSFER, 1); // 获取的信息以文件流的形式返回
 
  $tmpInfo = curl_exec($curl); // 执行操作
 
  if (curl_errno($curl)) {
  echo 'Errno'.curl_error($curl);
  }
  curl_close($curl); // 关键CURL会话
  return $tmpInfo; // 返回数据
  }

(编辑:拼字网 - 核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!