日期:2010-07-15  浏览次数:20423 次

  远程获取网页内容.经过一定的处理和灵活应用,可以开发成成体系网站内容采集系统.通常也叫做"新闻小偷"一般来说.做内容采集分为如下几个大致的步骤:

  1.远程获取页面的全部Html源文本.

  2.通过过滤处理,分析有效内容文本.(通常用正则表达式来截取有效数据)

  3.将格式有效的数据,根据自己的数据库结构分标题,内容....一些其他属性保存到自己的本地数据库.

  ok整个采集过程如此简单.原理也不难.下面我们看看实现的具体基础代码!

  首先我们来写一个获取远程Html源的方法.

public string GetHttpData(string Url)
        {
            string sException=null;
            string sRslt=null;
            WebResponse oWebRps=null;
            WebRequest oWebRqst=WebRequest.Create(Url);
            oWebRqst.Timeout=50000;
            try
            {
                oWebRps=oWebRqst.GetResponse();
            }
            catch(WebException e)
            {
                    sException=e.Message.ToString();
                    EYResponse.Write(sException);
            }
            catch(Exception e)
            {
                    sException=e.ToString();
                    EYResponse.Write(sException);
            }
            finally
            {
                if(oWebRps!=null)
                {
                    StreamReader oStreamRd=new StreamReader(oWebRps.GetResponseStream(),Encoding.GetEncoding("GB2312"));
                    sRslt=oStreamRd.ReadToEnd();
                    oStreamRd.Close();
                    oWebRps.Close();
                }
            }
            return sRslt;
        }

  以上代码为获取远程Html源的一个方法.参数仅一个.就是你要获取的目标页面的完整Url路径.返回一个string类型的Html源数据.

  下面我们再来继续第二个步骤.分析自己需要的有效数据!这里我假设某个页面来做分析...

public string [] GetData(string Html)
{
String [ ] rS=new String[2];               
string s = Html;
       &n