百度的搜索肯定是故意压制排名的,这次的云加速“致歉信” 让我更加肯定

2016-09-18 19:06:07 +08:00
 ivmm

深度结合百度搜索引擎技术,为网站提供更利于搜索引擎爬取的优先策略, 可以让您的网站更快获取百度搜索引擎的抓取,完美提升网站的收录速度。

如果对比一下,谷歌和百度,一个新站,如果全是原创内容,过个大半年,谷歌的 SEO 已经可以做的很好看了,但是百度说不定收录还不会到 100 呢。

百度会根据会为自己产生盈利的项目来放开收录。

例如:

  1. 从内测到全部放开差不多用了 3 年 的 sitemap 提交
  2. BCE 的 CDN 和云加速收费订阅的 CDN 都宣称可以优化收录

这么流氓的搜索引擎让如何劝说身边的朋友不用这个 ** 东西?

2672 次点击
所在节点    分享发现
15 条回复
qcloud
2016-09-18 19:11:57 +08:00
单单靠说我认为不太容易改变他们的习惯,还是自行体验吧。想用什么就用什么吧。
R18
2016-09-18 19:37:39 +08:00
你要是用过也就不会这么说了 宣传的神乎其神 其实也就是一个蜘蛛回源和主动推送 天天推送,抓取也不见收录
JohnLou
2016-09-18 19:49:06 +08:00
有个网站做了 3 年多了,来自百度的流量都是首页的,内页几乎没有,还有一大堆恶心人的东西。现在转行做谷歌的了,谷歌没有那么多恶心的政策。
binux
2016-09-18 19:52:13 +08:00
光加速访问就能「让您的网站更快获取百度搜索引擎的抓取,完美提升网站的收录速度」,你非要认为是「故意压制排名」,你高兴就好咯
wdlth
2016-09-18 19:53:04 +08:00
比较讽刺的是,百度云观测访问次数比百度蜘蛛还多……
ivmm
2016-09-18 19:54:43 +08:00
@JohnLou 如果做技术网站,不对付百度也可以,那些做门户的肯定要靠百度。

@binux 我下面又不是没有举例其他例子
billytom
2016-09-18 20:03:49 +08:00
@ivmm 请原谅我,说一句大实话,你根本不懂 seo

1 、百度云加速,真正 seoer 都知道那是百度云减速,从来不用(还不如用 dnspod 的百度 dns 设置)
2 、百度是否收录内页的关键,根本就不是什么用 1-2 个技术,而是外链,外链,外链!
3 、做了 3 年了,百度流量还是那么一点,我建议不要再从 seo 方面入手获得流量了,那不是你的菜
4 、转作谷歌?如果 3 年了你还不懂 seo ,那你换什么搜索引擎,结果都一样的。因为你重视 seo 的结果,却不明白原理和执行方法。
binux
2016-09-18 20:48:16 +08:00
@ivmm
> 从内测到全部放开差不多用了 3 年 的 sitemap 提交

给你提供一个理解这个事的角度,对于百度来说,链接太少并不是问题,链接太多才是。
每天只有不到 1/20 的新入库链接能够被抓取。
如果是自然发现的链接,还能通过外链来源和数量进行选择,而 sitemap 并没有这样的信息,直接开放的结果就是要么根本轮不到它被抓,要么就是另一个作弊的入口。
JohnLou
2016-09-18 22:13:47 +08:00
@billytom 你估计 @错人了,你也许是 @我的。我现在搞英文网站了,起步还不错。中文网站是我凭兴趣做的,主要靠百度导流,从没做链接单纯靠内容优化最高一天有 3000ip ,现在也有 500 到 1000 以上还活着,我自我觉得还可以了。但说下百度令我恼的几方面,
第一就是大站优先,这个是很明显的,你的位置抢不过别人的大站网站,单靠再优质的内容也抢不到前面;
第二个就是网站更新,百度对于更新很看重,你每天更新大量不是垃圾的内容就能到首页了,这个我测试过几个新网站,对于非竞争激烈的词基本能做到,当然如果不是优质论坛,单靠自己整那么多好的内容是很费精力的;
第三个就是内页排名,这个做了 3 年了都没头绪,估计内页权重竞争不过大网站,第一点说了,只能首页和频道拼一拼;
第四个就是国内政策了,备案,国外的主机便宜不少,以及同行举报,我的网站被百度拦截估计有 10 次以上了。
lgh
2016-09-19 00:23:16 +08:00
亲戚有个网站,主站根目录加两个子目录共三套数据库(同样的程序),其中有个子目录死活只收录了个首页,有没有大神知道为什么?
billytom
2016-09-19 07:12:54 +08:00
@lgh

1 、被高权重站反代了
2 、 robot.txt 设置出错
3 、内容太垃圾,没任何外链,更新频率太低
4 、用了某些作弊的 seo 手法
lgh
2016-09-24 15:08:24 +08:00
@billytom 谢谢!
请问第一点有没有什么办法可以查到?
robots 的设置三个子目录是一样的,按理说同一个域名下不会有如此悬殊的差距。
内容方面,三个子目录其实都是亲戚自己公司的产品,只是分类不一样,亲戚为体现部分产品的专业性特意分出来而已。
至于作弊应该没有,因为 Google 的收录在这三个子目录之间就比较均衡。而且作弊一般也是整个域名降权?
billytom
2016-09-25 10:13:46 +08:00
@lgh

被反代用 Google Webmaster 的链入链接查询是最快查出来的
建议对那个不收录内页的栏目,写 2-3 篇高质量的文章,然后去发发外链,等它们收录后,再在文章里做连接散开同频道其它文章
billytom
2016-09-26 00:43:20 +08:00
国内打算靠百度过日子的还是放弃吧,那些所谓的原创保护,都是假的。

我们 POPPUR 有一篇关于 Macbook Pro 2016 的文章 http://pc.poppur.com/Mac/macbookpro2016.html ,是编辑看了很多资料,用了两天时间写出来的(在现在这个快时代,一篇文章写两天真的是花了很多心血),然后到处推广,积累了一个月,从 8 月 11 日发布后,到 9 月初,终于给排到目标关键词的第一名。然而, 9 月 23 日,某 z 姓大站(百度阿拉丁 member )编辑小手一挥几秒时间,连我们隐藏在文章里的站内链接都一并 copy 了过去。然而这个所谓的百度,居然连这么简单的谁是原创谁是抄袭都判断不出来。我们用了一个月时间才排第一。它前天发布,昨天排第一页第 5 名,今天已经排第一了。

像这种网站,用了我们的高质量内容+他们自身的超级权重,基本上你要想夺回第一是不可能的了。同时,由于他们连标题都原封不动抄了,最恶劣的情况是,连我们的页面都会被百度去掉(因为百度会认为抄袭的是我们),搞笑吧。





这么大一个百度公司,我们的文章 8 月 11 日提交,并且当天收录建立了索引,网络上一堆留存的外链。而对方是 9 月 23 日才提交,并且文章内到处都有我们站的链接和名字,居然都判断不出来原创还是抄袭。更好笑的是,他们最近一直在强调,保护原创!

“在中国,有些事,不是不能,而是不懂,装不懂”
mritd
2016-09-27 19:34:02 +08:00
@billytom 最后一句是亮点

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/307077

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX