免费代理ipp哪来的,我是说:为什么这个Ip能用来进行代理。那为什么后来又不能代理了。

查看:51758|回复:45
本人对网络安全比较感兴趣,看过一些关于IP追踪技术的文章,我觉的有一些道理,但也不全对。
举个例子:比如说“王总”使用了一个美国***代理,***的地址为122.1.1.1,***了某网站。如果想要追查他的真实IP地址,首先可以直接到***供应商那里,通过查看服务器日志等方式找出此人真实IP地址,但如果***供应商和验证服务器都在美国,恐怕用这个方法不太现实。那么有人可能会说,还可以通过国内的ISP运营商查找路由器记录日志,直接找122.1.1.1相关记录。
那么这里小弟有几个问题请教下:
1、如果通过国内ISP运营路由找记录,首先应该确定大体方位,比如确定为某省某市,然后再到这个省市找下级ISP路由器记录,总不能直接到ISP去查全国的数据库吧?那么请问单凭一个美国***地址,有何技术手段能确认大体的方位和省份?
2、如果确实是重要案件的话,一定要动用ISP全国性数据库,海量的数据库,可能有很多国内用友在当天同样登陆过这个***代理122.1.1.1,所以在路由器上会产生很多跟122.1.1.1不相关的记录,那么怎么能揪出“王总”? (貌似在路由器上能看到的有很多有局限性,比如“王总”通过这个美国******的某网站,在这个过程中,一些重要的数据和日志记录,都是通过美国***服务器中转的,日志都存储在美国***服务器上,路由器貌似也捕获不到什么重要信息。)
3、即使“王总”用的不是美国***代理,是国内一些不正规供应商的国内代理,同样在无法到***供应商查服务器日志的情况下,并且这些代理和王总不是一个省份的,通过ISP路由,有什么技术手段确定王总真实的省份?
4、上面三条是我的问题,下面谈谈我的一点看法,在多级代理情况下,A节点韩国-B节点美国-C节点广东,很难确定使用代理者真实省份。在小区网本地连接不用宽带帐号的,并且不通过电话线的,最多只能确定到小区,难确定具体地址,以上是小弟一点拙见,还请大家指教下。
该用户已被禁言
弱弱的问下,楼主是网警不?
能查到的,就是麻烦点而已。
警察叔叔只要铁了心了查,我估计一定能查的到。
欢迎来51CTO***板块:
---------------------------------------------------------
钓鱼岛是中国的,苍井空是世界的!
-------------------------------
网络管理、H3C、华为
还可以用追物的方法查。
比如通过MAC知道厂商,然后查这批网卡买到什么地方,是哪批次的电脑,下一个,就定位了。
初级工程师
你这个问题相对来讲是很难搞定的,假设使用代理的ip是122.1.1.1,你怎么能确定国内的用户也是直接登录到这个ip后依然使用的这个ip来做跳转访问其他网站?假设把那个***代理服务器对用户接入使用的是122.1.1.2,儿对外访问使用122.1.1.1呢?如果你拿不到代理服务器的登录记录和日志,你根本找不到内部的的用户,对你来说那个代理服务器或者***服务器就是个黑箱子,你知道有人从那出来,但是你不晓得谁从那进去后变身了。
初级工程师
MAC只在二层网络内有用,这种跨越广域网的,只能用IP了。
就我的理解,现在很多高级设备都支持基于应用层采取策略(例如网页内容过滤),只需要在连接国外的几个出口做上这些策略,你的***如果没有经过加密,照样可以揪出来。
初级工程师
引用:原帖由 qwsddn 于
12:02 发表
就我的理解,现在很多高级设备都支持基于应用层采取策略(例如网页内容过滤),只需要在连接国外的几个出口做上这些策略,你的***如果没有经过加密,照样可以揪出来。 ... ----------------------------------------------------------------------------------------------------------------------------------------------
& &这就是现在的GFW的思路,不过他们具体工作在哪个层上不知道,似乎还是蛮先进的,否则方大校长也不会被全国人民所唾弃了。
可以打个电话给美国的***代理,就说在某月某日莫时莫分,那个IP地址连接了被***的网站,然后美国的***代理回答说,是一个意大利的IP地址,可惜这个IP地址是跳板,然后打电话给这个跳板的网管,就说在莫月莫日莫时莫分,由那个IP地址连接到这个意大利的IP地址,结果肯定查不到,一般***都会清除痕迹的,除非用特殊设备恢复过来!
以上纯属我的猜想!别人会不会这么配合帮你查也说不定!!
助理工程师
LZ 是w警,一直anonymous的 ... ... 悄悄的飘过
sec && nix
追踪技术是一门艺术,这要花很大的心思了
可不可以这样,比如从中国到美国总共就几个口吧?(我不确定,如果多那我的思路就不好用了)在这几个出口察到美国的***服务器的原ip,然后在察到的这些原ip中筛选(如果量大就难了)。思路不对请喷!
助理工程师
引用:原帖由 wukui 于
19:49 发表
可不可以这样,比如从中国到美国总共就几个口吧?(我不确定,如果多那我的思路就不好用了)在这几个出口察到美国的***服务器的原ip,然后在察到的这些原ip中筛选(如果量大就难了)。思路不对请喷! ... 孩子,你傻啊,你知道这个数据量有多大不 :lol:lol:lol
sec && nix
助理工程师
引用:原帖由 dhqlx 于
11:00 发表
还可以用追物的方法查。
比如通过MAC知道厂商,然后查这批网卡买到什么地方,是哪批次的电脑,下一个,就定位了。 在互联网上只有IP才是唯一的,如果我把MAC改成你电脑的,难道警察叔叔要请你去喝茶? ;P;P;P
sec && nix
网络管理、H3C、华为
引用:原帖由 Vim0x0n 于
22:00 发表
-.- 据说好象是美国方面 拥有直接自动跨6跳板 定位具体目标IP的硬件。真假不知道-。- 应该是可信的。
助理工程师
数据帧封装的时候你电脑的mac只局限于本地,到网关路由器应该就把你原MAC改为路由器的出口mac,不确定的讨论,希望指教。
对于楼主所言的查的时候加一些因素,比如时间戳,
学期下,。。。。。求真理
是的。MAC应用在TCP/IP模型中的第二层,到了第三层,也就是经过了路由器后,MAC会更改。其实MAC本身在源主机上就是可以人为修改的,包括很多网络产品本身支持设置虚拟MAC地址来替换原有的物理MAC地址。
简单的说,MAC地址,在第二层、交换机内、同一个vlan内,是唯一的
IP地址,在第三层,路由器内,是唯一的
但就像之前说过的,MAC地址和IP地址都可以人为修改。方法就是修改数据帧或数据报的header部分
楼主说的这种追踪,到了ISP/***层面后就要依托于该系统的日志记录了,如果没有完整日志,很难查明确切的最初源主机的IP
这方面可以多了解NAT技术原理
可不可以发送特定的数据包到各***来混淆视听啊,导致日志量无数,筛选困难。;P为什么我在自己的电脑上设置了代理IP,以后就上不了网了呢,我是用路由器上网, 怎么设置代理IP呢,
按时间排序
代理IP是在浏览器里设置的,工具--Internet选项--连接--局域网设置--代理服务器+端口号。代理上网前提是你和代理服务器间网络是畅通的,你那样设置是不对的
把漏油器从新启动下,再按步骤连接
1.找到游戏的端口,在代理的软件里面把这个端口设为例外。2.游戏设置里面应该有网络连接,那个地方可以选择是否要代理。3.有些游戏默认按照IE代理来的,可以把IE代理去掉试试。
31、从军行 王昌龄
你好朋友这样的情况应当是代理IP有问题
FAN强的话找个FAN墙软件 代理IP 如果是用IE设置的
那就用IE浏览器
别用其他浏览器
你是通过什么代理方式呢?
感谢您为社区的和谐贡献力量请选择举报类型
经过核实后将会做出处理感谢您为社区和谐做出贡献
确定要取消此次报名,退出该活动?
请输入私信内容:更多频道内容在这里查看
爱奇艺用户将能永久保存播放记录
过滤短视频
暂无长视频(电视剧、纪录片、动漫、综艺、电影)播放记录,
按住视频可进行拖动
&正在加载...
举报视频:
举报原因(必填):
请说明举报原因(300字以内):
请输入您的反馈
举报理由需要输入300字以内
感谢您的反馈~
请勿重复举报~
请刷新重试~
收藏成功,可进入查看所有收藏列表
当前浏览器仅支持手动复制代码
视频地址:
flash地址:
html代码:
通用代码:
通用代码可同时支持电脑和移动设备的分享播放
用爱奇艺APP或微信扫一扫,在手机上继续观看
当前播放时间:
一键下载至手机
限爱奇艺安卓6.0以上版本
使用微信扫一扫,扫描左侧二维码,下载爱奇艺移动APP
其他安装方式:手机浏览器输入短链接http://71.am/udn
下载安装包到本机:
设备搜寻中...
请确保您要连接的设备(仅限安卓)登录了同一爱奇艺账号 且安装并开启不低于V6.0以上版本的爱奇艺客户端
连接失败!
请确保您要连接的设备(仅限安卓)登录了同一爱奇艺账号 且安装并开启不低于V6.0以上版本的爱奇艺客户端
部安卓(Android)设备,请点击进行选择
请您在手机端下载爱奇艺移动APP(仅支持安卓客户端)
使用微信扫一扫,下载爱奇艺移动APP
其他安装方式:手机浏览器输入短链接http://71.am/udn
下载安装包到本机:
爱奇艺云推送
请您在手机端登录爱奇艺移动APP(仅支持安卓客户端)
使用微信扫一扫,下载爱奇艺移动APP
180秒后更新
打开爱奇艺移动APP,点击“我的-扫一扫”,扫描左侧二维码进行登录
没有安装爱奇艺视频最新客户端?
花刺代理ip的使用教程
正在检测客户端...
您尚未安装客户端,正在为您下载...安装完成后点击按钮即可下载
30秒后自动关闭
花刺代理ip的使用教程">花刺代理ip的使用教程
请选择打赏金额:
热门短视频推荐
Copyright (C) 2018 & All Rights Reserved
您使用浏览器不支持直接复制的功能,建议您使用Ctrl+C或右键全选进行地址复制
正在为您下载爱奇艺客户端安装后即可快速下载海量视频
正在为您下载爱奇艺客户端安装后即可免费观看1080P视频
&li data-elem="tabtitle" data-seq="{{seq}}"& &a href="javascript:void(0);"& &span>{{start}}-{{end}}&/span& &/a& &/li&
&li data-downloadSelect-elem="item" data-downloadSelect-selected="false" data-downloadSelect-tvid="{{tvid}}"& &a href="javascript:void(0);"&{{pd}}&/a&
选择您要下载的《
后才可以领取积分哦~
每观看视频30分钟
+{{data.viewScore}}分
{{data.viewCount}}/3
{{if data.viewCount && data.viewCount != "0" && data.viewCount != "1" && data.viewCount != "2" }}
访问泡泡首页
+{{data.rewardScore}}分
{{if data.rewardCount && data.rewardCount != 0 && data.getRewardDayCount != 0}}1{{else}}0{{/if}}/1
{{if data.rewardCount && data.rewardCount != 0 && data.getRewardDayCount != 0}}
+{{data.signScore}}分
{{data.signCount}}/1
{{if data.signCount && data.signCount != 0}}
色情低俗内容
血腥暴力内容
广告或欺诈内容
侵犯了我的权力
还可以输入
您使用浏览器不支持直接复制的功能,建议您使用Ctrl+C或右键全选进行地址复制题目所说的并不是目的,主要是为了更详细的了解网站的反爬机制,如果真的想要提高博客的阅读量,优质的内容必不可少。
了解网站的反爬机制
一般网站从以下几个方面反爬虫:
1. 通过Headers反爬虫
从用户请求的Headers反爬虫是最常见的反爬虫策略。很多网站都会对Headers的User-Agent进行检测,还有一部分网站会对Referer进行检测(一些资源网站的防盗链就是检测Referer)。
如果遇到了这类反爬虫机制,可以直接在爬虫中添加Headers,将浏览器的User-Agent复制到爬虫的Headers中;或者将Referer值修改为目标网站域名。对于检测Headers的反爬虫,在爬虫中修改或者添加Headers就能很好的绕过。
2. 基于用户行为反爬虫
还有一部分网站是通过检测用户行为,例如同一IP短时间内多次访问同一页面,或者同一账户短时间内多次进行相同操作。
大多数网站都是前一种情况,对于这种情况,使用IP代理就可以解决。我们可以将代理IP检测之后保存在文件当中,但这种方法并不可取,代理IP失效的可能性很高,因此从专门的代理IP网站实时抓取,是个不错的选择。
对于第二种情况,可以在每次请求后随机间隔几秒再进行下一次请求。有些有逻辑漏洞的网站,可以通过请求几次,退出登录,重新登录,继续请求来绕过同一账号短时间内不能多次进行相同请求的限制。
还有针对cookies,通过检查cookies来判断用户是否是有效用户,需要登录的网站常采用这种技术。更深入一点的还有,某些网站的登录会动态更新验证,如推酷登录时,会随机分配用于登录验证的authenticity_token,authenticity_token会和用户提交的登录名和密码一起发送回服务器。
3. 基于动态页面的反爬虫
有的时候将目标页面抓取下来,发现关键的信息内容空白一片,只有框架代码,这是因为该网站的信息是通过用户Post的XHR动态返回内容信息,解决这种问题的方法就是通过开发者工具(FireBug等)对网站流进行分析,找到单独的内容信息request(如Json),对内容信息进行抓取,获取所需内容。
更复杂一点的还有对动态请求加密的,参数无法解析,也就无法进行抓取。这种情况下,可以通过Mechanize,selenium RC,调用浏览器内核,就像真实使用浏览器上网那样抓取,可以最大限度的抓取成功,只不过效率上会打些折扣。笔者测试过,用urllib抓取拉勾网招聘信息30页所需时间为三十多秒,而用模拟浏览器内核抓取需要2——3分钟。
4. 限定某些IP访问
免费的代理IP可以从很多网站获取到,既然爬虫可以利用这些代理IP进行网站抓取,网站也可以利用这些代理IP反向限制,通过抓取这些IP保存在服务器上来限制利用代理IP进行抓取的爬虫。
好了,现在实际操作一下,编写一个通过代理IP访问网站的爬虫。
首先获取代理IP,用来抓取。
def Get_proxy_ip():
headers = {
'Host': 'www.xicidaili.com',
'User-Agent':'Mozilla/4.0 ( MSIE 7.0; Windows NT 6.0)',
'Accept': r'application/json, text/javascript, */*; q=0.01',
'Referer': r'http://www.xicidaili.com/',
req = request.Request(r'http://www.xicidaili.com/nn/', headers=headers) #发布代理IP的网站
response = request.urlopen(req)
html = response.read().decode('utf-8')
proxy_list = []
ip_list = re.findall(r'\d+\.\d+\.\d+\.\d+',html)
port_list = re.findall(r'&td&\d+&/td&',html)
for i in range(len(ip_list)):
ip = ip_list[i]
port = re.sub(r'&td&|&/td&', '', port_list[i])
proxy = '%s:%s' %(ip,port)
proxy_list.append(proxy)
return proxy_list
顺带一提,有些网站会通过检查代理IP的真实IP来限制爬虫抓取。这里就要稍微提一下代理IP的知识。
代理IP里的“透明”“匿名”“高匿”分别是指?
透明代理的意思是客户端根本不需要知道有代理服务器的存在,但是它传送的仍然是真实的IP。使用透明IP,就无法绕过通过一定时间内IP访问次数的限制。
普通匿名代理能隐藏客户机的真实IP,但会改变我们的请求信息,服务器端有可能会认为我们使用了代理。不过使用此种代理时,虽然被访问的网站不能知道你的ip地址,但仍然可以知道你在使用代理,这样的IP就会被网站禁止访问。
高匿名代理不改变客户机的请求,这样在服务器看来就像有个真正的客户浏览器在访问它,这时客户的真实IP是隐藏的,网站就不会认为我们使用了代理。
综上所述,爬虫代理IP最好使用“高匿IP”
user_agent_list包含了目前主流浏览器请求的RequestHeaders的user-agent,通过它我们可以模仿各类浏览器的请求。
user_agent_list = [
'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3',
'Mozilla/5.0 (M U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50',
'Mozilla/5.0 (W U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50',
'Mozilla/4.0 ( MSIE 8.0; Windows NT 6.0; Trident/4.0)',
'Mozilla/4.0 ( MSIE 7.0; Windows NT 6.0)',
'Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/ Firefox/4.0.1',
'Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11',
'Mozilla/5.0 (M Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11',
'Mozilla/4.0 ( MSIE 7.0; Windows NT 5.1; Trident/4.0; SE 2.X MetaSr 1.0; SE 2.X MetaSr 1.0; .NET CLR 2.0.50727; SE 2.X MetaSr 1.0)',
'Mozilla/5.0 ( MSIE 9.0; Windows NT 6.1; Trident/5.0',
'Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/ Firefox/4.0.1',
通过设定随机等待时间来访问网站,可以绕过某些网站对于请求间隔的限制。
def Proxy_read(proxy_list, user_agent_list, i):
proxy_ip = proxy_list[i]
print('当前代理ip:%s'%proxy_ip)
user_agent = random.choice(user_agent_list)
print('当前代理user_agent:%s'%user_agent)
sleep_time = random.randint(1,3)
print('等待时间:%s s' %sleep_time)
time.sleep(sleep_time) #设置随机等待时间
print('开始获取')
headers = {
'Host': 's9-im-notify.csdn.net',
'Origin':'http://blog.csdn.net',
'User-Agent': user_agent,
'Accept': r'application/json, text/javascript, */*; q=0.01',
'Referer': r'http://blog.csdn.net/u/article/details/;,
proxy_support = request.ProxyHandler({'http':proxy_ip})
opener = request.build_opener(proxy_support)
request.install_opener(opener)
req = request.Request(r'http://blog.csdn.net/u/article/details/;,headers=headers)
html = request.urlopen(req).read().decode('utf-8')
except Exception as e:
print('******打开失败!******')
global count
print('OK!总计成功%s次!'%count)
以上就是爬虫使用代理的相关知识点,虽然还很浅显,但大部分场景是可以应付的了的。
#! /usr/bin/env python3
from urllib import request
import random
import time
import lxml
user_agent_list = [
'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3',
'Mozilla/5.0 (M U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50',
'Mozilla/5.0 (W U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50',
'Mozilla/4.0 ( MSIE 8.0; Windows NT 6.0; Trident/4.0)',
'Mozilla/4.0 ( MSIE 7.0; Windows NT 6.0)',
'Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/ Firefox/4.0.1',
'Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11',
'Mozilla/5.0 (M Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11',
'Mozilla/4.0 ( MSIE 7.0; Windows NT 5.1; Trident/4.0; SE 2.X MetaSr 1.0; SE 2.X MetaSr 1.0; .NET CLR 2.0.50727; SE 2.X MetaSr 1.0)',
'Mozilla/5.0 ( MSIE 9.0; Windows NT 6.1; Trident/5.0',
'Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/ Firefox/4.0.1',
def Get_proxy_ip():
headers = {
'Host': 'www.xicidaili.com',
'User-Agent':'Mozilla/4.0 ( MSIE 7.0; Windows NT 6.0)',
'Accept': r'application/json, text/javascript, */*; q=0.01',
'Referer': r'http://www.xicidaili.com/',
req = request.Request(r'http://www.xicidaili.com/nn/', headers=headers)
response = request.urlopen(req)
html = response.read().decode('utf-8')
proxy_list = []
ip_list = re.findall(r'\d+\.\d+\.\d+\.\d+',html)
port_list = re.findall(r'&td&\d+&/td&',html)
for i in range(len(ip_list)):
ip = ip_list[i]
port = re.sub(r'&td&|&/td&', '', port_list[i])
proxy = '%s:%s' %(ip,port)
proxy_list.append(proxy)
return proxy_list
def Proxy_read(proxy_list, user_agent_list, i):
proxy_ip = proxy_list[i]
print('当前代理ip:%s'%proxy_ip)
user_agent = random.choice(user_agent_list)
print('当前代理user_agent:%s'%user_agent)
sleep_time = random.randint(1,3)
print('等待时间:%s s' %sleep_time)
time.sleep(sleep_time)
print('开始获取')
headers = {
'Host': 's9-im-notify.csdn.net',
'Origin':'http://blog.csdn.net',
'User-Agent': user_agent,
'Accept': r'application/json, text/javascript, */*; q=0.01',
'Referer': r'http://blog.csdn.net/u/article/details/;,
proxy_support = request.ProxyHandler({'http':proxy_ip})
opener = request.build_opener(proxy_support)
request.install_opener(opener)
req = request.Request(r'http://blog.csdn.net/u/article/details/;,headers=headers)
html = request.urlopen(req).read().decode('utf-8')
except Exception as e:
print('******打开失败!******')
global count
print('OK!总计成功%s次!'%count)
if __name__ == '__main__':
proxy_list = Get_proxy_ip()
for i in range(100):
Proxy_read(proxy_list, user_agent_list, i)
由于代理IP的问题,访问的成功率还是很低,提高访问成功率的关键点在于选择优质的代理源。这里只做抛砖引玉之用,欢迎交流,转载请注明出处~ (^ _ ^)/~~
更多python爬虫实例,请访问:
阅读(...) 评论()代理IP是怎么一回事?有什么做用?_百度知道
代理IP是怎么一回事?有什么做用?
经常碰到代理IP服务等信息,但一直不知道是干吗用的。所以想问问:代理IP是怎么一回事?有什么做用?...
经常碰到代理IP服务等信息,但一直不知道是干吗用的。所以想问问:代理IP是怎么一回事?有什么做用?
答题抽奖
首次认真答题后
即可获得3次抽奖机会,100%中奖。
来自知道合伙人认证行家
软件应用类行家
采纳数:4119
获赞数:31396
从事电子产品开发近十年,现任北京北广网络事业部工程师。
  代理IP即代理服务器(Proxy Server)是一种重要的安全功能,它的工作主要在开放系统互联(OSI)模型的对话层,从而起到防火墙的作用。代理服务器大多被用来连INTERNET(国际互联网)和INTRANET(局域网)。  用处和功能如下:  (1)设置用户验证和记账功能,可按用户进行记账,没有登记的用户无权通过代理服务器访问Internet网。并对用户的访问时间、访问地点、信息流量进行统计。  (2)对用户进行分级管理,设置不同用户的访问权限,对外界或内部的Internet地址进行过滤,设置不同的访问权限。  (3)增加缓冲器(Cache),提高访问速度,对经常访问的地址创建缓冲区,大大提高热门站点的访问效率。通常代理服务器都设置一个较大的硬盘缓冲区(可能高达几个GB或更大),当有外界的信息通过时,同时也将其保存到缓冲区中,当其他用户再访问相同的信息时,则直接由缓冲区中取出信息,传给用户,以提高访问速度。  (4)连接内网与Internet,充当防火墙(Firewall):因为所有内部网的用户通过代理服务器访问外界时,只映射为一个IP地址,所以外界不能直接访问到内部网;同时可以设置IP地址过滤,限制内部网对外部的访问权限。  (5)节省IP开销:代理服务器允许使用大量的伪IP地址,节约网上资源,即用代理服务器可以减少对IP地址的需求,对于使用局域网方式接入Internet ,如果为局域网(LAN)内的每一个用户都申请一个IP地址,其费用可想而知。但使用代理服务器后,只需代理服务器上有一个合法的IP地址,LAN内其他用户可以使用10.*.*.*这样的私有IP地址,这样可以节约大量的IP,降低网络的维护成本。  (6)代理IP 最大的好处可以通过IP管理网络资源,限制部分网络资源进入特定的区域用户!保护资源的地域性。
代理服务器是依靠一种特殊的协议,简单的说,你如果通过代理服务器上网,你与任何人通信都要经过代理服务器,它起到一个中间人的作用,从而你的行踪就被保护了。就像黑客总喜欢用代理服务器攻击别人一样,最受攻击的主机日志中记录的都是代理服务的ip地址,所以行踪就隐蔽了,但是也不是绝对安全的,因为整个过程就是一个递归的过程,所以通过逆流法也是可以找到真凶的,所以又有了多级代理的概念。这样追踪起来就很麻烦了。
本回答被网友采纳
采纳数:29
获赞数:96
主要用代理IP访问一些国外的网站 或者切换到非当前低于的地方 像你在上海登录的 可以用北京的代理IP切换到北京的形式
你好QQ登录框设置选择使用代理HTTP的或SCOKETS的都可以最后找个可以用的代理IP和端口就可以如: 212.153.125.65 端口8080注意,使用代理注意安全,你的数据如聊天记录等有可能被他人截获
代理,英文是:proxy。 代理,有很多种!!比如说:HTTP代理,SOCK4代理,SOCK5代理。 有一种是专业代理,就是说要收费的。代理公司会给你一个用户名和密码。有一种是利用别人的电脑漏洞,而打开远程电脑的端口,从而作代理。还有一种的就是一些网络公司为了打响名堂,而发出免费的代理。 一般我们在网上,或者是用软件找到的代理,都不会使用的很久。置于多久呢??这也很难说,很有可能是一个月,一个星期,甚至是一个小时。所以,很多黑客都是入侵别人的电脑,然后打开服务端口,这样只要远程电脑一直是开著的话,他就可以一直使用。 如果能找到一个快速的IP代理,对我们来说是很有利用价值的。比如说可以加速你的网页浏览速度等等。 正确的使用上代理IP,可以上网隐藏自己真是的IP,这样就可以降低受到攻击的可能。比如说,在IE设置里加入了HTTP的代理,这样你上聊天室,论坛甚麼的都不怕了。因为他们看见你的IP只是代理IP。同样的上QQ也是。 打开IE浏览器,&选项&--&Internet选项&--&连接&---&局域网设置&--&为LAN设置代理服务器&前打勾..然后设置你代理的IP地址..端口设置成8080,然后确定..就OK了.
代理的意思就是通过代理服务器去获得网络服务,比如IP设置了代理服务器,那我们看网页的行为就是通过代理服务器实现的,又比如QQ,MSN等IM软件设置了代理服务器,那我们进行IM沟通的行为就是通过代理服务器实现的。
玩韩国的游戏
其他4条回答
为你推荐:
其他类似问题
您可能关注的内容
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。

我要回帖

更多关于 电脑ip地址查询 的文章

 

随机推荐