关于提取html网页为纯文本内容的问题
在网上搜了个程序
/**
* 获取纯文本信息
*
* @param str
* @return
*/
public static String getPlainText(String str) {
try {
Parser parser = new Parser();
parser.setInputHTML(str);
StringBean sb = new StringBean();
// 设置不需要得到页面所包含的链接信息
sb.setLinks(false);
// 设置将不间断空格由正规空格所替代
sb.setReplaceNonBreakingSpaces(true);
// 设置将一序列空格由一个单一空格所代替
sb.setCollapse(true);
parser.visitAllNodesWith(sb);
str = sb.getStrings();
} catch (ParserException e) {
log.error(e);
}
return str;
}
也下载了htmlparser.jar,
文件头import导入import org.htmlparser.*;
import org.htmlparser.beans.*;
import org.htmlparser.util.*;
问题如下:
1:log.error(e)处log依旧报错,不知道该导入那个包
2:参数str我输入url可以吗?
3:return处返回的str应该是纯文本信息吧,跟参数那个str应该是不一样吧?
求解答
------解决方案--------------------
1.
可以用如下组合:
slf4j-api-1.6.1.jar
+
1)log4j-1.2.8.jar
或者
2)logback-classic-0.9.28.jar
logback-core-0.9.28.jar
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
protected static Logger log = LoggerFactory.getLogger(ActionSupport.class);
2.显然str是HTML内容而不是网址。
3.返回的str是 sb.getStrings();,过滤后的文本。