当使用urllib.request.urlopen打开包含中文的链接时报错:
from urllib import request
url = 'https://baike.baidu.com/item/糖尿病'
response = request.urlopen(url)
提示错误:UnicodeEncodeError: ‘ascii’ codec can’t encode characters in position 10-12: ordinal not in range(128)
参考https://www.zhihu.com/question/22899135得知,
urllib.request.urlopen不支持中英文混合的字符串。
应使用urllib.parse.quote进行转换。
#coding=utf-8
from urllib import request
from urllib.parse import quote
import string
url = 'https://baike.baidu.com/item/糖尿病'
s = quote(url,safe=string.printable)
r
运行正确。
方法quote的参数safe表示可以忽略的字符。
string.printable表示ASCII码第33~126号可打印字符,其中第48~57号为0~9十个阿拉伯数字;65~90号为26个大写英文字母,97~122号为26个小写英文字母,其余的是一些标点符号、运算符号等。
如果不设置这个safe参数,’https://baike.baidu.com/item/糖尿病’会被转换为
‘https%3A//baike.baidu.com/item/%E7%B3%96%E5%B0%BF%E7%97%85’,
而不是’https://baike.baidu.com/item/%E7%B3%96%E5%B0%BF%E7%97%85’
===============================================================
本文实例讲述了python实现中文转换url编码的方法。分享给大家供大家参考,具体如下:
今天要处理百度贴吧的东西。想要做一个关键词的list,每次需要时,直接添加 到list里面就可以了。但是添加到list里面是中文的情况(比如‘丽江’),url的地址编码却是’%E4%B8%BD%E6%B1%9F’,因此需 要做一个转换。这里我们就用到了模块urllib。
1
2
3
4
5
6
7
8
|
>>> import urllib >>> data = '丽江' >>> print data 丽江 >>> data '\xe4\xb8\xbd\xe6\xb1\x9f' >>> urllib.quote(data) '%E4%B8%BD%E6%B1%9F' |
那我们想转回去呢?
1
2
3
4
|
>>> urllib.unquote( '%E4%B8%BD%E6%B1%9F' ) '\xe4\xb8\xbd\xe6\xb1\x9f' >>> print urllib.unquote( '%E4%B8%BD%E6%B1%9F' ) 丽江 |
细心的同学会发现贴吧url中出现的是%C0%F6%BD%AD,而非’%E4%B8%BD%E6%B1%9F’,其实是编码问题。百度的是gbk,其他的一般网站比如google就是utf8的。所以可以用下列语句实现。
1
2
3
4
5
6
7
|
>>> import sys,urllib >>> s = '丽江' >>> urllib.quote(s.decode(sys.stdin.encoding).encode( 'gbk' )) '%C0%F6%BD%AD' >>> urllib.quote(s.decode(sys.stdin.encoding).encode( 'utf8' )) '%E4%B8%BD%E6%B1%9F' >>> |