被百度收录的网站,加了 robots.txt 禁止搜寻引擎收录的代码后网站还在?

2021-10-28 15:45:48 +08:00
 Sue6080
我有一个被百度收录的网站,加了 robots.txt 禁止搜寻引擎收录的代码,但网站内容不能删除,因为需要给网址让访客直接访问

User-agent:*

Disallow:/

过二个星期后,百度搜寻的结果显示:
由于该网站的 robots.txt 文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述
但网站还能正常点开浏览

因此想问,这样是否只需要时间等百度下架我这网站吗?

还是我可以采取什麽做法?
1175 次点击
所在节点    搜索引擎优化
2 条回复
bug123
2021-10-28 19:08:11 +08:00
加一个鉴权就行了,只有登录账号的人才能访问
Sue6080
2021-11-01 10:16:19 +08:00
@bug123 你是指进入网站前先显示登入画面吗?
但我门需求是整个网站域名都不让所有搜寻引擎收录到,
只让知道网站网址的访客能直接访问

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/811286

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX