如何让浏览器在访问链接时不要带上referer

共被编辑 2 次
function open_without_referrer(link){
document.body.appendChild(document.createElement('iframe')).src='javascript:"&script&top.location.replace(\''+link+'\')&\/script&"';
如果如果是新窗口打开,可以使用如下代码:
function open_new_window(full_link){
window.open('javascript:window.', '&script&location.replace("'+full_link+'")&\/script&');
function open_without_referrer(link){
document.body.appendChild(document.createElement('iframe')).src='javascript:"&script&top.location.replace(\''+link+'\')&\/script&"';
我要该,理由是:如何让浏览器在访问链接时不要带上referer? - 为程序员服务
如何让浏览器在访问链接时不要带上referer?
我们在从一个网站点击链接进入另一个页面时,浏览器会在header里加上Referer值,来标识这次访问的来源页面。但是这种标识有可能会泄漏用户的隐私,有时候我不想让其他人知道我是从哪里点击进来的,能否有手段可以让浏览器不要发送Referer呢?
使用新增的html5的解决方案,使用rel="noreferrer",声明连接的属性为,目前只有chrome4+支持.
使用中间页面,但实际上还是发送referrer的,比如使用Google的连接转向,.
使用javascript协议链接中转,参见下面的说明.
新开一个窗口,相当于target="_blank":
function open_window(link){
var arg = '\u003cscript\u003elocation.replace("'+link+'")\u003c/script\u003e';
window.open('javascript:window.', arg);
转向到一个连接,相当于target="_self":
function redirect(link){
var arg ='\u003cscript\u003etop.location.replace("'+link+'")\u003c/script\u003e';
var iframe = document.createElement('iframe');
iframe.src="javascript:window.";
iframe.name=
document.body.appendChild(iframe);
我在 回答的一个问题.
Notes of Life & Code
原文地址:, 感谢原作者分享。
您可能感兴趣的代码安装thrift步骤:
1、yum install automake libtool flex bison pkgconfig gcc-c++ boost-devel libevent-devel zlib-devel python-devel
最近使用shell写一个工具,因为需要满足自己的电脑(Mac)和公司开发机(Centos)上使用,遇到了批量修改文件名和批量替换文件内容的问题,
咱们先来看修改文件名,如果你的脚本只需要在Linux上使用:
find . -name "class_u...
大家都知道,当1207.me上点击某个链接进入,那么的请求header上会有一个Referer,它的值将是1207.me。今天就遇到一个隐藏Referer发起请求的需求。
这里提供我所使用的几个方法:
1、全浏览器...
之前写过一篇文章,是关于ssh登陆免输密码,见ssh如何不输入密码直接登录远程服务器?
这次就给大家带来我今天刚写的一个expect脚本,主要功能有:
1、自动输入密码
2、多层着陆机登陆
3、登陆远程服务器默认运行命令
当然使用也有些限制,必须要你...
今天写shell的时候,发现有一个能力需要bash4.x版本支持,仔细看了下自己的Mac,瞬间失望。
一直还以为这些东西苹果会提示我们升级,没想到还得靠自己。
1、安装HomeBrew,如果没安装的同学直接去官网看吧,安装特别简单,而且未来你一定会喜...
大家都知道要查看Python工程的环境变量使用sys.path,如果某一天你发现sys.path中没有你需要的那个目录怎么办?
首先得看你是当前工程需要,还是当前服务器上的所有工程都需要,
前者我相信咱们所有Python工程师都知道怎么做:
每次登录远程服务器都需要输入密码,确实麻烦。
今天研究了一下,发现了三种实现方式,这里一一给大家说说:
1、添加服务器信任关系,这种方法是最简单的。
1) 在本地电脑(Linux、Mac OSX)的终端上执行命令:ssh-keygen,然后一路回车,...
看惯了bash,新发突想的记起zsh这么个东西。
将bash切换成zsh:chsh -s /bin/zsh
将zsh还原成bash:chsh -s /bin/bash
每次切换都需要重新启动终端才能看到效果。zsh加载的时候会加载~/.zshrc文件...
首先,在Mac上如果你想要进行抓包,Charles是一把利刃。
下载地址:/
普通HTTP的抓包相信大家都没有问题:
1、启动Charles;并得到你当前电脑的IP地址。
2、配置手...
本月写过两章需要使用到URLSchemes的东西,有些同学私下问我怎么去获取URLSchemes。在这里我就统一的给大家分享一下我写的一个工具。
首先,如果你想知道某款App的URLSchemes是什么,你需要先将这个App的ipa包给捣鼓出来。至于...4565被浏览165449分享邀请回答 ,本广告长期有效。==== 修改几处 spider 拼写错误,感谢 1.3K77 条评论分享收藏感谢收起/subject//」,其中可变部分为后面代表每部电影的数字编号,豆瓣绝不会为了反爬虫将网页 URL 结构替换成淘宝的 URL 那样复杂。同理百度也一定不会要求你每次访问就输入一个验证码,来确认你是人类而不是机器。所以这里首先需要明确一个概念就是:只能尽可能加大爬虫抓取数据的代价,而不可能做到百分之百防止爬虫。----------------那么,如何加大爬虫的抓取难度呢?下面根据自己做 Anti-Spider 的一点经验,胡说几句吧。首先,最简单的方式便是校验 User-Agent。校验 User-Agent 其实并不能起到反爬虫的作用,因为几乎所有写爬虫的人,看到的前三篇教程里,就会有一篇讲到要模拟 User-Agent。除了 User-Agent,所有通过 HTTP 请求传递到服务器的客户端参数都不能完全当做反爬虫的依据,因为模拟和伪造的成本太低了。然后,一个比较常见的反爬虫策略是基于访问数量,爬虫的访问总数会远高于人类,设定一个阈值,超过阈值的就是爬虫。常见使用这样处理方式的网站有 58 同城等,在访问 58 同城较快时,会弹出一个验证码。然而只要有规律的 sleep,就可以轻松绕过这条限制。这种处理方案的升级版是找到人与爬虫访问特征的不一致究竟在哪里。爬虫与人类在访问特征上最大的不一样在于,人不会长时间持续访问一个网站,正常人类在天级的时间周期里访问一个网站的总次数 y 大致满足——我们不关心 k、a 的值具体是什么,但是比较明显的是,一个正常用户访问会在较短时间里完成某一时间周期的总请求数的绝大部分。映射到总用户上,确定的一段时间里,正常用户访问的总页数会在某个量级时开始骤减。而爬虫访问一个网站的总次数 y 与某个时间周期的关系则大致为——其实就是,爬虫的访问数量会随着时间增长而线性增长。于是,根据这样的特点,可以参考人类社会的个人所得税制度或者阶梯电价制度,对于一个较短周期设置比较宽的阈值,而随着时间长度的增加而逐步收紧阈值。当然,具体的阈值设置为多少合适,要根据特定网站的日志分析之后得出具体数据。到这里,很多爬虫已经会开始表现的精力不足了。大部分爬虫会直接命中短时间的策略被封,那些 sleep 一下的爬虫,在爬取一段时间之后,依然会命中中长时间的策略。如果再 sleep,抓取的效率太低,成本与收益不成正比,自然就不会再抓了。对应的,爬虫的开发者会想办法继续反反爬虫。常见的方案是通过代理 IP 和批量注册的账号。那些大规模抓取数据的爬虫,为了能够长时间抓取数据,一般是不会跑在个人电脑上的,而是通过云服务器或者 VPS。再进一步的识别爬虫,则可以根据来访 IP 的风险属性进一步识别。一般需要这样处理的话,都是一些中大型的商业网站了。个人网站一来没必要,二是没有精力,一般不会更进一步反爬虫了。-----------------最后,再最后水一下不再更新的破爬虫相关博客:20510 条评论分享收藏感谢收起查看更多回答

我要回帖

 

随机推荐