小白爬虫综合项目1

项目1:搜狗知乎,爬取指定存储上一级目录的名字,以及存储爬取的页码

#爬取前三页数据
import requests
import os
file_name=input('请输入一个文件名:')
#创建一个文件夹
if not os.path.exists(f'./{file_name}'):
    os.mkdir(f'./{file_name}')
word=input('enter a search word:')
#动态指定页码的范围
start_pageNum=int(input('enter a start pageNum'))
end_pageNum=int(input('enter a end pageNum'))

#自定义请求头信息
headers={
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'
}
url='https://www.sogou.com/sogou'
for page in range(start_pageNum,end_pageNum+1):
    params={
        'query':word,
        'page':page,
        'ie':'utf-8',
        'insite':'zhihu.com'
    }
    response=requests.get(url=url,params=params,headers=headers)
    #获取响应中的页面数据(指定页码(page))
    page_text=response.text
    
    #进行持久化存储
    fileName=word+str(page)+'.html'
    filePath=f'./{file_name}/'+fileName
    with open(filePath,'w',encoding='utf-8')as fp:
        fp.write(page_text)
        print('第%d页数据写入成功'%page)

 

项目2:

 

上一篇:Python爬虫案例:爬取携程评论


下一篇:React台管理系统-商品管理列表组件