爬虫之旅(二):爬取b站搜索数据

一、代码

#UA伪装:让爬虫对应的请求载体身份标识伪装成某一款浏览器
#UA检测是否为正常服务器请求

import requests
headers={'User-Agent':
	'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:92.0) Gecko/20100101 Firefox/92.0'
}
url='https://www.bilibili.com/all'
#处理url携带的参数:封装到字典里
kw=input('enter a word:')
#参数
param={
    'keyword':kw
}
#对指定url发起的请求对应的url是携带参数的,并且在此过程中处理了参数
response=requests.get(url=url,params=param,headers=headers)
page_text=response.text
fileName =kw+'html'
with open(fileName,'w',encoding='utf-8')as fp:
    fp.write(page_text)
print(fileName,'保存成功')

二、显示结果

爬虫之旅(二):爬取b站搜索数据

 

上一篇:实现http请求,使用RestTemplate请求参数使用body,请求头加入header信息调用实现


下一篇:python实现post传参