今日讲一下Python GUI程序编写新项目采用的最后一个物品,网络爬虫,自然并不是没办法的网络爬虫啦。这儿并不会去进行解读的,终究网络爬虫的東西过多,因为启用的是api,回到的全是json文件格式的数据信息,因此也无需学习解析函数,只需学过词典,就可以取下要想的数据信息,api所有是完全免费的,来源于聚合数据网址,大伙儿能够去搜一搜,看是否有想要的api,自然可以买一些免费的api.
那么就先把编码po上去咯,以金山词霸每日一句为例子。
api: http://open.iciba.com/dsapi
在其中*须 一个http要求的库,requests库,沒有组装的家人能够下载一下
import requests url = 'http://open.iciba.com/dsapi' sentence = requests.get(url).json() print(setence) """ {'sid': '3567', 'tts': 'http://news.iciba.com/admin/tts/2019-11-04-day.mp3', 'content': "A man can fail many times, but he isn't a failure until he begins to blame somebody else.", 'note': '一个人能够不成功很数次,可是如果他沒有逐渐指责别人,他还没有一个失败的人。', 'love': '0', 'translation': '我得话:由于一件事的落败,只懂得一味埋怨,不反省的人离取得成功还太远!', 'picture': 'https://img.jupeiedu.com/image/202110/27/wy3kkydxawa29.jpg', 'picture2': 'https://img.jupeiedu.com/image/202110/27/udisq0ev1dv30.jpg', 'caption': '词霸每日一句', 'dateline': '2019-11-04', 's_pv': '0', 'sp_pv': '0', 'tags': [{'id': None, 'name': None}], 'fenxiang_img': 'https://img.jupeiedu.com/image/202110/27/ovhy2gmucq531.jpg'} ""
能够见到'content'相匹配的值是英语句子,'note'相匹配的值是汉语语句,只要把相匹配的值取下来就好了,所有编码见下:
import requests url = 'http://open.iciba.com/dsapi' sentence = requests.get(url).json() content = sentence['content'] #英语句子 ote = sentence['note'] #翻译中文
# 最终把爬取的信息内容载入text控制,表明出去就好了
别的的api爬取內容是一样的编码,只需用自身结构一个URL,传到到requests库的get涵数里边,就可以获得http要求的回应啦。