我有个爬虫项目需要外包,有人可以接私活吗?

2014-02-25 13:50:47 +08:00
 niaoren
需求是:采集40+个网站的商品品信息入库

有意者留下联系方式或者联系麻花腾77四7五67。
13170 次点击
所在节点    Python
30 条回复
sohoer
2014-02-25 13:55:11 +08:00
这是个苦力活,你这是一次性,还是增量更新?
tntC4stl3
2014-02-25 14:00:10 +08:00
如果是一次性的话还是比较简单的。
niaoren
2014-02-25 14:02:18 +08:00
@sohoer
@tntC4stl3
一次性
tonic
2014-02-25 14:03:05 +08:00
khowarizmi
2014-02-25 15:26:56 +08:00
木有麻烦的登陆的,应该还行
niaoren
2014-02-25 16:06:06 +08:00
@khowarizmi 木有,价格也是文本的。
xeasy
2014-02-25 16:12:48 +08:00
40個~確實是體力活啊!
抓過60+電影院線,兩個人抓了兩個多星期~
yakczh
2014-02-25 16:25:38 +08:00
多少钱
WhyLiam
2014-02-25 17:01:06 +08:00
爬过微博,封了我十几个小号,新浪后来把学校ip限制。说来都是泪
bcxx
2014-02-25 17:03:07 +08:00
@tonic tony 有那么缺钱么= =
wangxinyu
2014-02-25 17:26:00 +08:00
没有登录的话,很简单、抓到的信息放在那,txt内?
niaoren
2014-02-25 17:26:52 +08:00
@yakczh 加下我QQ详谈?
niaoren
2014-02-25 17:27:48 +08:00
@wangxinyu 存在本地,XML之类的
tonic
2014-02-25 18:34:49 +08:00
@bcxx 当然不啊! 马上想到了嘛!
binux
2014-02-25 18:37:27 +08:00
@tonic 来帮我写爬虫吧。。
tonyseek
2014-02-25 18:41:23 +08:00
@tonic @bcxx 来用 brownant 写爬虫吧
tonic
2014-02-25 18:43:13 +08:00
@binux 并不会写...
@tonyseek 这位资深爬虫...
family
2014-02-25 18:44:01 +08:00
10万 接了
picasso250
2014-02-25 19:08:02 +08:00
cumt.xiaochi#gmail.com 可以谈谈
bcxx
2014-02-25 19:10:22 +08:00
@tonyseek 专注爬虫 20 年……

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/101766

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX