scrapy-redis 的 start_urls 添加很多个,怎么做便捷?

2017-05-26 10:05:41 +08:00
 HGladIator
scrapy-redis 的 start_urls 需要去 redis 添加,可是当添加多个 url 的时候很麻烦,有没有方便的做法
4372 次点击
所在节点    Python
11 条回复
PythoneerDev6
2017-05-26 10:09:49 +08:00
麻烦之处 在哪
qsnow6
2017-05-26 10:11:31 +08:00
start_requests
knightdf
2017-05-26 10:19:35 +08:00
同问怎么麻烦?虽然没用 scrapy-redis
HGladIator
2017-05-26 10:34:29 +08:00
@PythoneerDev6 #1
@knightdf #3
需要很长一串啊 一个一个加进去 比如我有 50 个页码怎么加
```
127.0.0.1:6379> lpush yourspider:start_urls https://www.v2ex.com/t/363913
```
这样的 url 不是要写 50 个?
HGladIator
2017-05-26 10:35:10 +08:00
@qsnow6 #2 这个写在 spider 里面吗
knightdf
2017-05-26 10:50:04 +08:00
@HGladIator 循环啊,你是手动加的么?直接写个 py 脚本不一下加进去了
HGladIator
2017-05-26 11:01:02 +08:00
@knightdf #6 我才不会手动呢,我想着应该会有更便捷的高级方法
HGladIator
2017-05-26 11:07:47 +08:00
我还是老老实实写脚本吧
sunchen
2017-05-26 11:19:26 +08:00
start_requests 读文件
shimmerh
2017-05-26 11:44:55 +08:00
大哥,你写个 python 脚本来导入这么难吗?
HGladIator
2017-05-26 11:46:56 +08:00
@shimmerh #10 看这便捷的方法不是找到了吗, start_requests 读文件啊

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/363913

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX