使用Python代理'模块

只是一个简短的,简单的关于Python的优秀请求模块。

我似乎在文档中找不到变量“代理”应该包含什么。当我发送一个带有标准“IP: port”的字典时;Value它拒绝了它要求2个值。 所以,我猜(因为这似乎没有被覆盖在文档),第一个值是ip和第二个端口?< / p >

文档只提到了这一点:

代理-(可选)字典映射协议到代理的URL。

所以我尝试了这个…我该怎么办?

proxy = { ip: port}

在把它们放入字典之前,我应该把它们转换成某种类型吗?

r = requests.get(url,headers=headers,proxies=proxy)
543384 次浏览

proxies `字典语法是{"protocol": "scheme://ip:port", ...}。有了它,你可以为使用httphttpsftp协议的请求指定不同(或相同)的代理:

http_proxy  = "http://10.10.1.10:3128"
https_proxy = "https://10.10.1.11:1080"
ftp_proxy   = "ftp://10.10.1.10:3128"


proxies = {
"http"  : http_proxy,
"https" : https_proxy,
"ftp"   : ftp_proxy
}


r = requests.get(url, headers=headers, proxies=proxies)

requests文档推导出:

< p > 参数:
method方法用于新的Request对象。
url -新请求对象的URL。
...
proxies -(可选)字典映射 协议代理的URL
…< / p >

在linux上,你也可以通过HTTP_PROXYHTTPS_PROXYFTP_PROXY环境变量来做到这一点:

export HTTP_PROXY=10.10.1.10:3128
export HTTPS_PROXY=10.10.1.11:1080
export FTP_PROXY=10.10.1.10:3128

在Windows上:

set http_proxy=10.10.1.10:3128
set https_proxy=10.10.1.11:1080
set ftp_proxy=10.10.1.10:3128

这是我的基本类在python请求模块与一些代理配置和秒表!

import requests
import time
class BaseCheck():
def __init__(self, url):
self.http_proxy  = "http://user:pw@proxy:8080"
self.https_proxy = "http://user:pw@proxy:8080"
self.ftp_proxy   = "http://user:pw@proxy:8080"
self.proxyDict = {
"http"  : self.http_proxy,
"https" : self.https_proxy,
"ftp"   : self.ftp_proxy
}
self.url = url
def makearr(tsteps):
global stemps
global steps
stemps = {}
for step in tsteps:
stemps[step] = { 'start': 0, 'end': 0 }
steps = tsteps
makearr(['init','check'])
def starttime(typ = ""):
for stemp in stemps:
if typ == "":
stemps[stemp]['start'] = time.time()
else:
stemps[stemp][typ] = time.time()
starttime()
def __str__(self):
return str(self.url)
def getrequests(self):
g=requests.get(self.url,proxies=self.proxyDict)
print g.status_code
print g.content
print self.url
stemps['init']['end'] = time.time()
#print stemps['init']['end'] - stemps['init']['start']
x= stemps['init']['end'] - stemps['init']['start']
print x




test=BaseCheck(url='http://google.com')
test.getrequests()

你可以参考代理文档在这里

如果你需要使用代理,你可以用代理参数配置单个请求到任何请求方法:

import requests


proxies = {
"http": "http://10.10.1.10:3128",
"https": "https://10.10.1.10:1080",
}


requests.get("http://example.org", proxies=proxies)

要对代理使用HTTP基本认证,请使用http://user:password@host.com/语法:

proxies = {
"http": "http://user:pass@10.10.1.10:3128/"
}

我发现urllib有一些非常好的代码来获取系统的代理设置,而且它们恰好以正确的形式直接使用。你可以这样使用:

import urllib


...
r = requests.get('http://example.org', proxies=urllib.request.getproxies())

它工作得非常好,urllib也知道如何获取Mac OS X和Windows设置。

接受的答案对我来说是一个好的开始,但我一直得到以下错误:

AssertionError: Not supported proxy scheme None

修复这个问题是在代理url中指定http://:

http_proxy  = "http://194.62.145.248:8080"
https_proxy  = "https://194.62.145.248:8080"
ftp_proxy   = "10.10.1.10:3128"


proxyDict = {
"http"  : http_proxy,
"https" : https_proxy,
"ftp"   : ftp_proxy
}

我感兴趣的是,为什么原版对某些人有效,但对我无效。

编辑:我看到主要的答案现在更新了,以反映这一点:)

有点晚了,但是这里有一个包装器类,它简化了抓取代理,然后生成http POST或GET:

ProxyRequests

https://github.com/rootVIII/proxy_requests

如果你想持久化cookie和会话数据,你最好这样做:

import requests


proxies = {
'http': 'http://user:pass@10.10.1.0:3128',
'https': 'https://user:pass@10.10.1.0:3128',
}


# Create the session and set the proxies.
s = requests.Session()
s.proxies = proxies


# Make the HTTP request through the session.
r = s.get('http://www.showmemyip.com/')

我刚刚做了一个代理抓取器,也可以连接到相同的抓取代理没有任何输入 这里是:

#Import Modules


from termcolor import colored
from selenium import webdriver
import requests
import os
import sys
import time


#Proxy Grab


options = webdriver.ChromeOptions()
options.add_argument('headless')
driver = webdriver.Chrome(chrome_options=options)
driver.get("https://www.sslproxies.org/")
tbody = driver.find_element_by_tag_name("tbody")
cell = tbody.find_elements_by_tag_name("tr")
for column in cell:


column = column.text.split(" ")
print(colored(column[0]+":"+column[1],'yellow'))
driver.quit()
print("")


os.system('clear')
os.system('cls')


#Proxy Connection


print(colored('Getting Proxies from graber...','green'))
time.sleep(2)
os.system('clear')
os.system('cls')
proxy = {"http": "http://"+ column[0]+":"+column[1]}
url = 'https://mobile.facebook.com/login'
r = requests.get(url,  proxies=proxy)
print("")
print(colored('Connecting using proxy' ,'green'))
print("")
sts = r.status_code

晚了8年。但我喜欢:

import os
import requests


os.environ['HTTP_PROXY'] = os.environ['http_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['HTTPS_PROXY'] = os.environ['https_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['NO_PROXY'] = os.environ['no_proxy'] = '127.0.0.1,localhost,.local'


r = requests.get('https://example.com')  # , verify=False

我分享一些代码如何获取代理从网站"https://free-proxy-list.net"并将数据存储到与“精英代理交换机”等工具兼容的文件(格式为IP:PORT):

##PROXY_UPDATER -从https://free-proxy-list.net/获取免费代理

from lxml.html import fromstring
import requests
from itertools import cycle
import traceback
import re


######################FIND PROXIES#########################################
def get_proxies():
url = 'https://free-proxy-list.net/'
response = requests.get(url)
parser = fromstring(response.text)
proxies = set()
for i in parser.xpath('//tbody/tr')[:299]:   #299 proxies max
proxy = ":".join([i.xpath('.//td[1]/text()')
[0],i.xpath('.//td[2]/text()')[0]])
proxies.add(proxy)
return proxies






######################write to file in format   IP:PORT######################
try:
proxies = get_proxies()
f=open('proxy_list.txt','w')
for proxy in proxies:
f.write(proxy+'\n')
f.close()
print ("DONE")
except:
print ("MAJOR ERROR")

经过测试,下面的代码可以工作。需要使用HTTPProxyAuth。

import requests
from requests.auth import HTTPProxyAuth




USE_PROXY = True
proxy_user = "aaa"
proxy_password = "bbb"
http_proxy = "http://your_proxy_server:8080"
https_proxy = "http://your_proxy_server:8080"
proxies = {
"http": http_proxy,
"https": https_proxy
}


def test(name):
print(f'Hi, {name}')  # Press Ctrl+F8 to toggle the breakpoint.
# Create the session and set the proxies.
session = requests.Session()
if USE_PROXY:
session.trust_env = False
session.proxies = proxies
session.auth = HTTPProxyAuth(proxy_user, proxy_password)


r = session.get('https://www.stackoverflow.com')
print(r.status_code)


if __name__ == '__main__':
test('aaa')

文档 给出了一个非常清晰的代理使用示例

import requests


proxies = {
'http': 'http://10.10.1.10:3128',
'https': 'http://10.10.1.10:1080',
}


requests.get('http://example.org', proxies=proxies)
然而,没有记录的事实是,即使模式相同,您甚至可以为单个url配置代理! 当你想为你想要抓取的不同网站使用不同的代理时,这很方便
proxies = {
'http://example.org': 'http://10.10.1.10:3128',
'http://something.test': 'http://10.10.1.10:1080',
}


requests.get('http://something.test/some/url', proxies=proxies)

此外,requests.get本质上是在底层使用requests.Session,所以如果你需要更多的控制,可以直接使用它

import requests


proxies = {
'http': 'http://10.10.1.10:3128',
'https': 'http://10.10.1.10:1080',
}
session = requests.Session()
session.proxies.update(proxies)


session.get('http://example.org')

我用它来设置一个回退(默认代理)来处理所有不匹配字典中指定的模式/url的流量

import requests


proxies = {
'http': 'http://10.10.1.10:3128',
'https': 'http://10.10.1.10:1080',
}
session = requests.Session()
session.proxies.setdefault('http', 'http://127.0.0.1:9009')
session.proxies.update(proxies)


session.get('http://example.org')