【MOOC】BeautifulSoup库

Requests库—自动爬取HTML页面,自动网络请求提交 Robots.txt—网络爬虫排除标准 BeautifulSoup库—解析HTML页面,信息标记与提取方法 解析、遍历、维护 “标签树”<> </> 的功能库 一、解析器:根据html文件类型来选择 import requests from
posted @ 2020-02-13 21:35  kuluma  阅读(168)  评论(0编辑  收藏  举报