日期:2010-07-15 浏览次数:20423 次
远程获取网页内容.经过一定的处理和灵活应用,可以开发成成体系网站内容采集系统.通常也叫做"新闻小偷"一般来说.做内容采集分为如下几个大致的步骤:
1.远程获取页面的全部Html源文本.
2.通过过滤处理,分析有效内容文本.(通常用正则表达式来截取有效数据)
3.将格式有效的数据,根据自己的数据库结构分标题,内容....一些其他属性保存到自己的本地数据库.
ok整个采集过程如此简单.原理也不难.下面我们看看实现的具体基础代码!
首先我们来写一个获取远程Html源的方法.
public string GetHttpData(string Url)
{
string sException=null;
string sRslt=null;
WebResponse oWebRps=null;
WebRequest oWebRqst=WebRequest.Create(Url);
oWebRqst.Timeout=50000;
try
{
oWebRps=oWebRqst.GetResponse();
}
catch(WebException e)
{
sException=e.Message.ToString();
EYResponse.Write(sException);
}
catch(Exception e)
{
sException=e.ToString();
EYResponse.Write(sException);
}
finally
{
if(oWebRps!=null)
{
StreamReader oStreamRd=new StreamReader(oWebRps.GetResponseStream(),Encoding.GetEncoding("GB2312"));
sRslt=oStreamRd.ReadToEnd();
oStreamRd.Close();
oWebRps.Close();
}
}
return sRslt;
}
以上代码为获取远程Html源的一个方法.参数仅一个.就是你要获取的目标页面的完整Url路径.返回一个string类型的Html源数据.
下面我们再来继续第二个步骤.分析自己需要的有效数据!这里我假设某个页面来做分析...
public string [] GetData(string Html)
{
String [ ] rS=new String[2];
string s = Html;
&n