首页   注册   登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python 学习手册
Python Cookbook
Python 基础教程
Python Sites
PyPI - Python Package Index
http://www.simple-is-better.com/
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
DOUWH
V2EX  ›  Python

Python scrapy 怎么做成一个 flask 的接口

  •  
  •   DOUWH · 234 天前 · 1083 次点击
    这是一个创建于 234 天前的主题,其中的信息可能已经有所发展或是发生改变。

    ##我想了想,没想出来,

    #比如:

    调用 flask-api 接收参数,参数有 name:张三,age:30,sex:男。
    
    爬虫程序 scrapy 需要拼接这些参数去完成 url 请求,返回 json,或者入库
    
    思考下:
    
    1.flask 怎么传递这些参数给 scrapy,scrapy 又怎么被 flask 所运行。
    2.项目部署该怎么部署,是部署 flask-api 还是部署 scrapy ?
    3.flask 和 scrapy  如何交互
    4.有没有什么好的办法,把 scrapy 爬虫变成一个 api 接口,方便调用的那种
    
    
    各位大佬,尽情的发表意见,小弟在线等
    												
                                                    
                                                    	--来自 python 小白的呐喊
    
    5 回复  |  直到 2019-06-06 10:32:09 +08:00
    djj510620510
        1
    djj510620510   234 天前
    用 redis 或者数据库呗
    chengxiao
        2
    chengxiao   234 天前
    Scrapyd 了解下 剩下的就是调接口
    111qqz
        3
    111qqz   234 天前
    关键词: scrapyd python-scrapyd-api
    IanPeverell
        5
    IanPeverell   234 天前
    flask 把 url 存进一个 json 文件,然后用 scrapy.crawl 的 CrawlRunner 调爬虫,爬虫通过读 json 来读 url,爬出来的数据直接入库,flask 通过查增量来获取爬去的新数据。这样的话,只需要起一个 flask,然后爬虫跑在 flask 的进程中,通过 json 文件传 url
    关于   ·   FAQ   ·   API   ·   我们的愿景   ·   广告投放   ·   感谢   ·   实用小工具   ·   1127 人在线   最高记录 5168   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.3 · 23ms · UTC 00:19 · PVG 08:19 · LAX 16:19 · JFK 19:19
    ♥ Do have faith in what you're doing.