各位牛人帮忙啦!!!!
我们现在面临个这样问题,我们有好多不同的系统,都是web形式的。各个系统都有自己的数据,报表等。我们现在有个这样需求,每天要手工从各个系统查询出来报表,然后再整理到一块,工作重复,而且繁重。现在我们有个这样想法,一个是把所有系统的数据都集成到同一个数据库中,然后从这里出报表。另个个想法是有没有这么一种工具,能自动执行一些写好的url(包括登录各个系统user,password,还有其他参数),然后把执行结果放到一块。
希望提供第二种方法的思路
------解决方案--------------------除非所有的系统都用同一个库,那么只能重新作每个系统的数据库表了,把他们都放到一个数据库里。否则必须手动整理;如果有更好的方法,同样关注。。。
------解决方案--------------------做一个存储过程,设定定时执行
------解决方案--------------------那你用Quartz好了
------解决方案--------------------linux下有wget可以直接获取网页内容并保存,定时执行即可。
windows下好像没有,去找找看有没有获取网页的工具,如果没有,那自己写一个吧,应给非常简单,然后定时执行。
------解决方案--------------------第二个方法其实更不好操作,获取html并不难,但需要解析数据并保存,这在编码上需要很大的工作量,或许能否让这些WEB程序提供Soap接口,然后调用soap来实现数据的获取。
------解决方案--------------------建立一个报表数据库(或表空间),每天手工或运行脚本把各个数据库的数据导入这个单独的数据库(或表空间),第二种思路实现起来可能比较困难