高效率提取大字符串数据, 在线等
请教:   
 有一非常大字符串,   (几百K)   
 要频繁从中提取   一定长度的子串,   怎么做会非常高效?   
  "几百K的大字符串 "      来自于   XML   文档 
 要求循环每次取一定长度的   字串   进行解析,    
 我想如果每次用   substring(index,   length)   应该会效率很低.   
 在线等!   
 谢谢!
------解决方案--------------------string[] Str=Str_big.split( 'separate_ ')
------解决方案--------------------既然是XML,可不可以读进XMLDOCUMENT处理呢?   
 或者试试正则匹配取子串
------解决方案--------------------Substring效率不低!
------解决方案--------------------效率低的原因恐怕是用到了虚存,频繁从硬盘上倒来倒去浪费资源   
 但是你为什么要创建这么大的字符串呢?一开始就放到字符串数组不可以吗?