主页 > 百度站长工具 > 什么是robots文件

什么是robots文件

百度站长工具 2021-02-24

Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。


本文来源于互联网由网友投稿或第三方发布,内容仅代表作者本人的观点,与本站无关。本站仅提供网络技术服务,对文章的原创性及内容真实性不做任何保证或承诺,请读者仅作参考,并请自行核实相关内容。如因作品内容、知识产权和其他问题需与本网联系的,请与站长联系进行删除。

标签: 无