日期:2014-05-20  浏览次数:20544 次

关于提取html网页为纯文本内容的问题
在网上搜了个程序
/**
* 获取纯文本信息

* @param str
* @return
*/
  public static String getPlainText(String str) {
  try {
  Parser parser = new Parser();
  parser.setInputHTML(str);
  StringBean sb = new StringBean();
  // 设置不需要得到页面所包含的链接信息
  sb.setLinks(false);
  // 设置将不间断空格由正规空格所替代
  sb.setReplaceNonBreakingSpaces(true);
  // 设置将一序列空格由一个单一空格所代替
  sb.setCollapse(true);
  parser.visitAllNodesWith(sb);
  str = sb.getStrings();
  } catch (ParserException e) {
  log.error(e);
  }
  return str;
 }
也下载了htmlparser.jar,
文件头import导入import org.htmlparser.*;
import org.htmlparser.beans.*;
import org.htmlparser.util.*;
问题如下:
1:log.error(e)处log依旧报错,不知道该导入那个包
2:参数str我输入url可以吗?
3:return处返回的str应该是纯文本信息吧,跟参数那个str应该是不一样吧?
求解答

------解决方案--------------------
1.
可以用如下组合:
slf4j-api-1.6.1.jar
+
1)log4j-1.2.8.jar
或者
2)logback-classic-0.9.28.jar
logback-core-0.9.28.jar


import org.slf4j.Logger;
import org.slf4j.LoggerFactory;


protected static Logger log = LoggerFactory.getLogger(ActionSupport.class);

2.显然str是HTML内容而不是网址。

3.返回的str是 sb.getStrings();,过滤后的文本。