高效率提取大字符串数据, 在线等
请教:
有一非常大字符串, (几百K)
要频繁从中提取 一定长度的子串, 怎么做会非常高效?
"几百K的大字符串 " 来自于 XML 文档
要求循环每次取一定长度的 字串 进行解析,
我想如果每次用 substring(index, length) 应该会效率很低.
在线等!
谢谢!
------解决方案--------------------string[] Str=Str_big.split( 'separate_ ')
------解决方案--------------------既然是XML,可不可以读进XMLDOCUMENT处理呢?
或者试试正则匹配取子串
------解决方案--------------------Substring效率不低!
------解决方案--------------------效率低的原因恐怕是用到了虚存,频繁从硬盘上倒来倒去浪费资源
但是你为什么要创建这么大的字符串呢?一开始就放到字符串数组不可以吗?