将糗事百科主页的段子标题和作者数据爬取下来,然后进行持久化存储
流程:
1.
爬虫文件爬取到数据后,需要将数据封装到items对象中。
2.
使用
yield
关键字将items对象提交给pipelines管道进行持久化操作。
4.settings
.py配置文件中开启管道。
5.注:可能出错的地方
- 爬虫文件:qiubai.py
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。