日期:2014-05-20  浏览次数:21100 次

如何隐藏真实的URL?
有这么个需求:
就是在开发中不把真实的url暴露出来,比如我的登陆的url是 http://192.168.1.20/login.do,用户看到的是 http://192.168.1.20/432543254325.do 或 一组毫不相干的字符数字的组合 等等 !

有人知道怎么实现吗(J2EE开发中)?

先谢了!!

------解决方案--------------------
URL重写
看看这个
------解决方案--------------------
servlet + forward()
------解决方案--------------------
在Struts中,你可以在forward的时候更改它的path,比如:

String path = mapping.findForward("user.login").getPath(); 
path = path + "?r="+type+"&userid="+userid; 
ActionForward forward= new ActionForward(path); 
forward.setRedirect(true); 
return forward; 

不知道你要的是不是这个效果!???

------解决方案--------------------
探讨
引用:
URL重写
看看这个


URL 重写不是干这个的。

------解决方案--------------------
你可以随机取个字符串,432543254325,把它放到url中,http://192.168.1.20/432543254325.do
然后在服务里配置http://192.168.1.20/.*.do到http://192.168.1.20/login.do

------解决方案--------------------
探讨
我的意思是 比如 有这么一个真实url http://192.168.1.20/jsp/User/UserInfo.do?id=123 我的目的是把 id=123 隐藏起来,比如显示给用户的是 http://192.168.1.20/jsp/User/UserInfo.do?id=ghil 来 防止网络爬虫的 抓取

谢谢

------解决方案--------------------
Robots.txt 协议标准

Robots.txt 是存放在站点根目录下的一个纯文本文件。虽然它的设置很简单,但是作用却很强大。它可以指定搜索引擎蜘蛛只抓取指定的内容,或者是禁止搜索引擎蜘蛛抓取网站的部分或全部内容。

下面来详细介绍一下它的使用方法:

Robots.txt 文件应该放在网站根目录下,并且该文件是可以通过互联网进行访问的。

例如:
如果您的网站地址是 http://www.yourdomain.com
那么,该文件必须能够通过 http://www.yourdomain.com/robots.txt 打开并看到里面的内容。

格式:

User-agent

用于描述搜索引擎蜘蛛的名字,在 Robots.txt 文件中,如果有多条User-agent记录说明有多个搜索引擎蜘蛛会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为,则该协议对任何搜索引擎蜘蛛均有效,在 Robots.txt 文件中,User-agent这样的记录只能有一条。

Disallow

用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被Robot访问到。

举例:
例一:Disallowhelp
是指help.html 和helpindex.html都不允许搜索引擎蜘蛛抓取。
例二:Disallowhelp
是指允许搜索引擎蜘蛛抓取help.html,而不能抓取helpindex.html。
例三:Disallow记录为空

说明该网站的所有页面都允许被搜索引擎抓取,在robots.txt文件中,至少要有一条Disallow记录。如果robots.txt是一个空文件,则对于所有的搜索引擎蜘蛛,该网站都是开放的可以被抓取的。

#
Robots.txt 协议中的注释符。

举例:
例一:通过robots.txt禁止所有搜索引擎蜘蛛抓取bincgi目录,以及 tmp目录和 foo.html 文件,设置方法如下:
User-agent 
Disallow bincgi
Disallow tmp
Disallow foo.html

例二:通过robots.txt只允许某个搜索引擎抓取,而禁止其他的搜索引擎抓取。
如:只允许名为slurp的搜索引擎蜘蛛抓取,而拒绝其他的搜索引擎蜘蛛抓取 cgi 目录下的内容,设置方法如下:
User-agent 
Disallow cgi

User-agent slurp
Disallow

例三:禁止任何搜索引擎抓取我的网站,设置方法如下:
User-agent 
Disallow 

例四:只禁止某个搜索引擎抓取我的网站
如:只禁止名为“slurp”的搜索引擎蜘蛛抓取,设置方法如下:
User-agent slurp
Disallow 

更多,请参见 http://www.robotstxt.org/
------解决方案--------------------
伪装URL不能达到你的目的
你要是想保护你页面的内容可以考虑别的方法

比如用AJAX的方式读取你页面的主要内容,这样就是被搜索引擎找到了也抓不出内容来
或者在用其他的方法,因为我只想过搜索引擎的优化,还真没想过不让他抓页面

但你伪装URL应该是绝对没有用的
------解决方案--------------------
30楼正解!!
我们以前也是在后台页面的路径下加了这个文件,为了不让爬虫在这里浪费时间
------解决方案--------------------
这些都是去年的时候用的方法了,现在好多优化的手段都被搜索引擎干掉了

不断的和搜索引擎斗争中~~~~