好的,我需要下载一些使用 Python 的网页,并对我的选项做了一个快速调查。
包括 Python:
Urllib -在我看来,我应该使用 urllib2。Urllib 不支持 cookie,仅支持 HTTP/FTP/本地文件(不支持 SSL)
Urllib2 -完整的 HTTP/FTP 客户端,支持大多数需要的东西,如 cookie,不支持所有 HTTP 动词(只有 GET 和 POST,没有 TRACE 等)
全部特色:
Machize -可以使用/保存 Firefox/IE cookie,采取如 follow second link 等行动,积极维护(2011年3月发布的0.2.5)
PycURL -支持 curl 所做的一切(FTP、 FTPS、 HTTP、 HTTPS、 GOPHER、 TELNET、 DICT、 FILE 和 LDAP) ,坏消息: 自2008年9月9日(7.19.0)以来没有更新
新的可能性:
Urllib3 -支持连接重用/池和文件发送
弃用(也称为使用 urllib/urllib2) :
Httplib -仅 HTTP/HTTPS (无 FTP)
Httplib2 -仅 HTTP/HTTPS (无 FTP)
让我感到震惊的第一件事是 urllib/urllib2/PycURL/機 ize 都是非常成熟的解决方案,运行良好。若干 Linux 发行版(例如 Fedora 13)和 BSD 都附带了機 ize 和 PycURL,所以安装通常是不成问题的(所以这是好事)。
urllib2 looks good but I'm wondering why PycURL and mechanize both seem very popular, is there something I am missing (i.e. if I use urllib2 will I paint myself in to a corner at some point?). I'd really like some feedback on the pros/cons of these things so I can make the best choice for myself.
编辑: 在 urllib2中添加动词支持说明