如何隐藏真实的URL?
有这么个需求:
就是在开发中不把真实的url暴露出来,比如我的登陆的url是 http://192.168.1.20/login.do,用户看到的是 http://192.168.1.20/432543254325.do 或 一组毫不相干的字符数字的组合 等等 !
有人知道怎么实现吗(J2EE开发中)?
先谢了!!
------解决方案--------------------URL重写
看看这个
------解决方案--------------------servlet + forward()
------解决方案--------------------在Struts中,你可以在forward的时候更改它的path,比如:
String path = mapping.findForward("user.login").getPath();
path = path + "?r="+type+"&userid="+userid;
ActionForward forward= new ActionForward(path);
forward.setRedirect(true);
return forward;
不知道你要的是不是这个效果!???
------解决方案--------------------
------解决方案--------------------你可以随机取个字符串,432543254325,把它放到url中,http://192.168.1.20/432543254325.do
然后在服务里配置http://192.168.1.20/.*.do到http://192.168.1.20/login.do
------解决方案--------------------
------解决方案--------------------Robots.txt 协议标准Robots.txt 是存放在站点根目录下的一个纯文本文件。虽然它的设置很简单,但是作用却很强大。它可以指定搜索引擎蜘蛛只抓取指定的内容,或者是禁止搜索引擎蜘蛛抓取网站的部分或全部内容。
下面来详细介绍一下它的使用方法:
Robots.txt 文件应该放在网站根目录下,并且该文件是可以通过互联网进行访问的。
例如:
如果您的网站地址是 http://www.yourdomain.com
那么,该文件必须能够通过 http://www.yourdomain.com/robots.txt 打开并看到里面的内容。
格式:
User-agent
用于描述搜索引擎蜘蛛的名字,在 Robots.txt 文件中,如果有多条User-agent记录说明有多个搜索引擎蜘蛛会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为,则该协议对任何搜索引擎蜘蛛均有效,在 Robots.txt 文件中,User-agent这样的记录只能有一条。
Disallow
用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被Robot访问到。
举例:
例一:Disallowhelp
是指help.html 和helpindex.html都不允许搜索引擎蜘蛛抓取。
例二:Disallowhelp
是指允许搜索引擎蜘蛛抓取help.html,而不能抓取helpindex.html。
例三:Disallow记录为空
说明该网站的所有页面都允许被搜索引擎抓取,在robots.txt文件中,至少要有一条Disallow记录。如果robots.txt是一个空文件,则对于所有的搜索引擎蜘蛛,该网站都是开放的可以被抓取的。
#
Robots.txt 协议中的注释符。
举例:
例一:通过robots.txt禁止所有搜索引擎蜘蛛抓取bincgi目录,以及 tmp目录和 foo.html 文件,设置方法如下:
User-agent
Disallow bincgi
Disallow tmp
Disallow foo.html
例二:通过robots.txt只允许某个搜索引擎抓取,而禁止其他的搜索引擎抓取。
如:只允许名为slurp的搜索引擎蜘蛛抓取,而拒绝其他的搜索引擎蜘蛛抓取 cgi 目录下的内容,设置方法如下:
User-agent
Disallow cgi
User-agent slurp
Disallow
例三:禁止任何搜索引擎抓取我的网站,设置方法如下:
User-agent
Disallow
例四:只禁止某个搜索引擎抓取我的网站
如:只禁止名为“slurp”的搜索引擎蜘蛛抓取,设置方法如下:
User-agent slurp
Disallow
更多,请参见 http://www.robotstxt.org/
------解决方案--------------------伪装URL不能达到你的目的
你要是想保护你页面的内容可以考虑别的方法
比如用AJAX的方式读取你页面的主要内容,这样就是被搜索引擎找到了也抓不出内容来
或者在用其他的方法,因为我只想过搜索引擎的优化,还真没想过不让他抓页面
但你伪装URL应该是绝对没有用的
------解决方案--------------------30楼正解!!
我们以前也是在后台页面的路径下加了这个文件,为了不让爬虫在这里浪费时间
------解决方案--------------------这些都是去年的时候用的方法了,现在好多优化的手段都被搜索引擎干掉了
不断的和搜索引擎斗争中~~~~