日期:2014-05-16  浏览次数:20454 次

php远程抓取网站图片并保存

以前看到网上别人说写程序抓取网页图片的,感觉挺神奇,心想什么时候我自己也写一个抓取图片的方法!

?

刚好这两天没什么事,就参考了网上一个php抓取图片代码,重点借鉴了 匹配img标签和其src属性正则的写法,

封装了一个php远程抓取图片的类,测试了一下,速度还凑合, 两分钟从 艾妮 ini.iteye.com 抓取了 110多张图片

?

代码如下:

<?php

/**
 * 一个用于抓取图片的类
 *
 * @package default
 * @author  WuJunwei
*  keleyi.com
 */
class download_image 
{
    
    public $save_path;                  //抓取图片的保存地址

    //抓取图片的大小限制(单位:字节) 只抓比size比这个限制大的图片
    public $img_size=0; 

    //定义一个静态数组,用于记录曾经抓取过的的超链接地址,避免重复抓取       
    public static $a_url_arr=array();   
    
    /**
     * @param String $save_path    抓取图片的保存地址
     * @param Int    $img_size     抓取图片的保存地址
     */
    public function __construct($save_path,$img_size)
    {
        $this->save_path=$save_path;
        $this->img_size=$img_size;
    }
    
    
    /**
     * 递归下载抓取首页及其子页面图片的方法  ( recursive 递归)
     *
     * @param   String  $capture_url  用于抓取图片的网址
     * 
     */
    public function recursive_download_images($capture_url)
    {
        if (!in_array($capture_url,self::$a_url_arr))   //没抓取过
        {                         
            self::$a_url_arr[]=$capture_url;   //计入静态数组
        } else   //抓取过,直接退出函数
        {
            return;
        }        
        
        $this->download_current_page_images($capture_url);  //下载当前页面的所有图片
        
        //用@屏蔽掉因为抓取地址无法读取导致的warning错误
        $content=@file_get_contents($capture_url); 
        
        //匹配a标签href属性中?之前部分的正则
        $a_pattern = "|<a[^>]+href=['\" ]?([^ '\"?]+)['\" >]|U";   
        preg_match_all($a_pattern, $content, $a_out, PREG_SET_ORDER);
        
        $tmp_arr=array();  //定义一个数组,用于存放当前循环下抓取图片的超链接地址
        foreach ($a_out as $k => $v) 
        {
            /**
             * 去除超链接中的 空'','#','/'和重复值  
             * 1: 超链接地址的值 不能等于当前抓取页面的url, 否则会陷入死循环
             * 2: 超链接为''或'#','/'也是本页面,这样也会陷入死循环,  
             * 3: 有时一个超连接地址在一个网页中会重复出现多次,如果不去除,会对一个子页面进行重复下载)
             */
            if ( $v[1] && !in_array($v[1],self::$a_url_arr) &&!in_array($v[1],array('#','/',$capture_url) ) ) 
            {
                $tmp_arr[]=$v[1];
            }
        }
  
        foreach ($tmp_arr as $k => $v) 
        {            
            //超链接路径地址
            if ( strpos($v, 'http://')!==false ) //如果url包含http://,可以直接访问
            {
                $a_url = $v;
            }else   //否则证明是相对地址, 需要重新拼凑超链接的访问地址
            {
                $domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1);
                $a_url=$domain_url.$v;
            }

            $this->recursive_download_images($a_url);

        }
        
    }  
    
      
    /**
     * 下载当前网页下的所有图片 
     *
     * @param   String  $capture_url  用于抓取图片的网页地址
     * @return  Array   当前网页上所有图片img标签url地址的一个数组
     */
    public function download_current_page_images($capture_url)
    {
        $content=@file_get_contents($capture_url);   //屏蔽warning错误

		//匹配img标签src属性中?之前部分的正则
		$img_pattern = "|<img[^>]+src=['\" ]?([^ '\"?]+)['\" >]|U";   
        preg_match_all($img_pattern, $content, $img_out, PREG_SET_ORDER);

		$photo_num = count($img_out);
        //匹配到的图片数量
        echo '<h1>'.$capture_url . "共找到 " . $photo_num . " 张图片</h1>";
        foreach ($img_out as $k => $v) 
        {
            $this->save_one_img($capture_url,$v[1]);
        }
    }


    /**
     * 保存单个图片的方法 
     *
     * @param String $capture_url   用于抓取图片的网页地址
     * @param String $img_url       需要保存的图片的url
     * 
     */
    public function save_one_img($capture_url,$img_url)
    {        
        //图片路径地址
        if ( strpos($img_url, 'http://')!==false ) 
        {
            // $img_url = $img_url;
        }else   
        {
            $domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1);
            $img_url=$domain_url.$img_url;
        }