scrapy在python爬虫中搭建出错的解决方法
这篇文章主要介绍了scrapy在python爬虫中搭建出错的解决方法,具有一定借鉴价值,需要的朋友可以参考下。希望大家阅读完这篇文章后大有收获。下面让小编带着大家一起了解一下。
网站建设哪家好,找成都创新互联!专注于网页设计、网站建设、微信开发、小程序设计、集团企业网站建设等服务项目。为回馈新老客户创新互联还提供了榆社免费建站欢迎大家使用!
问题描述:
安装位置:
环境变量:
解决办法:
文件命名叫 scrapy.py,明显和scrapy自己的包名冲突了,这里
class StackOverFlowSpider(scrapy.Spider)
会直接找当前文件(scrapy.py)的Spider属性。
说了这么多,其实就是文件命名问题,所以总结一下经验教训哦
平时一定不要使用和包名或者build-in 函数相同的命名。习惯很重要!习惯很重要!习惯很重要! 重要的事情说三遍。
感谢你能够认真阅读完这篇文章,希望小编分享scrapy在python爬虫中搭建出错的解决方法内容对大家有帮助,同时也希望大家多多支持创新互联,关注创新互联行业资讯频道,遇到问题就找创新互联,详细的解决方法等着你来学习!
本文标题:scrapy在python爬虫中搭建出错的解决方法
网址分享:http://scgulin.cn/article/gejhsc.html