V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
albusyu
V2EX  ›  外包

[急招] 找程序员帮忙做一个小爬虫软件,自动收集几个网站上的信息,报酬好商量!

  •  
  •   albusyu · 2013-06-19 11:42:14 +08:00 · 2304 次点击
    这是一个创建于 3979 天前的主题,其中的信息可能已经有所发展或是发生改变。
    第一次在V2上发帖..我在帮一个做科技媒体的朋友招人做一个软件,主要的作用是自动爬一些行业内的网站(包括Alexa、几个科技媒体)的信息,然后整合出报告来(比如:新产品上线、Alexa排名上升快、刚获得投资)。他需要这些信息作为平时工作的一个信息来源。详细的需求可以我们详聊来确定,完成方法与展现形式等也最好是我们详聊,非专业人士所以不太会写需求文档.. 最好人是在上海啦,这样我们可以见面聊。

    希望能够尽快有人能够帮忙,报酬好商量,确定好需求之后我们来确定报价就行。希望能够在几周内开发完成。有兴趣的人请联系:albus.yu#gmail.com,邮件里最好能注明一下自己的资历、曾做过的项目等。多谢!!也麻烦大家转给一下身边的有空来赚点零花钱的朋友,谢谢!
    13 条回复    1970-01-01 08:00:00 +08:00
    ahxxm
        1
    ahxxm  
       2013-06-19 12:14:44 +08:00
    才几个科技媒体,rss订阅加个分组就好了啊。信息来源的话,不如(所有媒体的)整站一起抓,存到本地随时搜索关键词。。
    revir
        2
    revir  
       2013-06-29 17:04:55 +08:00
    您好, 我目前正在做一个爬虫, 改一改网站模板即可达到您的要求, 详细信息我发邮件给您!
    luxeco
        3
    luxeco  
       2013-07-03 19:40:42 +08:00
    @revir 麻烦给我也发一个吧,也有这方面的需求。 [email protected] 谢谢!
    revir
        4
    revir  
       2013-07-04 21:35:25 +08:00   ❤️ 1
    @luxeco 好的, 已发, 注意查收。
    yearsaaaa
        5
    yearsaaaa  
       2013-07-05 09:26:06 +08:00
    @revir 可以发一份给我吗,我没有需求只是想参观一下
    revir
        6
    revir  
       2013-07-06 10:03:15 +08:00
    @yearsaaaa
    呃。。。
    colorday
        7
    colorday  
       2013-07-06 10:07:42 +08:00
    @revir 麻烦给我也发一份 有需求 谢谢 colorday # hotmail.com
    xmbaozi
        8
    xmbaozi  
       2013-07-06 10:10:57 +08:00 via Android
    @revir 同求,xmbaozi# qq.com 谢谢
    cosmo
        9
    cosmo  
       2013-07-06 13:49:44 +08:00
    @revir
    烦请发一份,谢谢!
    amouage # qq.com
    yearsaaaa
        10
    yearsaaaa  
       2013-07-06 14:48:37 +08:00
    @revir 忘了发邮箱了,[email protected]
    1005gel
        11
    1005gel  
       2013-07-06 21:12:47 +08:00
    同想参观 麻烦了 1005gel#gmail.com @revir
    sky21
        12
    sky21  
       2013-07-09 13:59:26 +08:00
    好像有很多现成爬虫软件吧 例如ET http://www.zzcity.net
    revir
        13
    revir  
       2013-07-10 22:52:22 +08:00
    @luxeco
    @yearsaaaa
    @1005gel
    @cosmo
    @xmbaozi
    @colorday
    楼上的各位, 我已给你们发了邮件, 但是我不能将软件发给你们哦, 这是我公司的产品, 我还想在这里多混几年呢! LOL

    有需要的话可以联系我, 其实现在有很多开源的爬虫, 比如, 一些简单的需求可以用scrapy定制, scrapy是一个开源的python爬虫, 使用起来还是很简单的。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5373 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 27ms · UTC 09:33 · PVG 17:33 · LAX 02:33 · JFK 05:33
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.