在做网站SEO优化中robots的写法

发布日期:2022-09-22 08:31:46 热度:
摘要:robots.txt是搜索引擎中的一个协议,当你的网站有一些内容不想给蜘蛛爬取,那可以利用robots.txt来告诉蜘蛛不要去爬取这些页面,不爬取这些页面当然就不收录了。

robots.txt是搜索引擎中的一个协议,当你的网站有一些内容不想给蜘蛛爬取,那可以利用robots.txt来告诉蜘蛛不要去爬取这些页面,不爬取这些页面当然就不收录了。

robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。

robots.txt规则怎么写

新建一个txt文本,命名为robots.txt,比如说你不想给蜘蛛去爬你网站后台这个文件夹,那就就这样写,该文件放在网站根目录

User-agent: *

Disallow: /admin/

解释:

User-agent: * 这个是代表所有搜索引擎

Disallow: /admin/ 禁止爬取admin这个文件夹

Disallow: / 代表根目录所有

Allow: / 代表允许 例子:比如说你禁止webdesgn文件夹 但是你又想让他收录webdesign下的wangzhanjianshe 写法Allow: /webdesign/wangzhanjianshe/*.html 收录webdesign下的wangzhanjianshe下的所有html

如果你只想对百度有效,那就这样写。User-agent: Baiduspider 这样只对百度有效,其它搜索引擎不受限制。

搜索引擎蜘蛛的名字:Baiduspider 百度蜘蛛、Googlebot 谷歌蜘蛛、Bingbot 必应蜘蛛、360Spider 360蜘蛛、Sogouspider 搜狗蜘蛛


你觉得这篇文章怎么样?

34 0
本文标签: 网站SEO优化

我们立足于合肥面向安徽乃至全国全球市场,我们拥有一支经验丰富、创意独到、团结协作的专业技术团队。我们立志把最好的技术通过最有效、最简单的方式提供给客户,为客户提供最佳的解决方案,我们将通过不懈努力成为客户在信息化领域值得信任、有价值的长期合作伙伴,帮助客户在新经济时代下,把握商机和发展空间,并获得绝对的竞争力!我们专注于高端网站定制、系统开发、商城开发、外贸网站建设、公众号开发、小程序开发、网站优化推广、安全运维等技术领域。是高端定制网站领域著名服务商!

本文网址:在做网站SEO优化中robots的写法
免责声明:文章《在做网站SEO优化中robots的写法》来至网络,文章表达观点不代表本站观点,文章版权属于原作者所有,若有侵权,请联系本站站长处理!
关于我们

建站190提供高品质网站建设,电商网站设计开发,外贸网站制作,响应式网页设计,微信小程序等服务.我们的目标是将建站190打造成网站品牌策划、网站品牌形象设计、网络营销传播行业的国际型企业!为客户创造有价值的品牌营销体验,让互联网提升企业的竞争力!我们做的不仅仅是网站系统,更多的是成就您的成功!

我们的优势

十年建站服务经验
服务1800家企业
资深行业分析策划
前沿视觉设计、研发能力
前端代码深度符合SEO优化
千家成功案例

独家源码出售
具有完备的项目管理
完善的售后服务体系
深厚的网络运营经验
时刻新技术领先研发能力
方便二次开发

我们的不同

我们是一个年轻且富有激情的团队,我们沉迷于代码并陶醉在设计之中。我们非设计,不生活;无兄弟,不编程!可年轻并不意味着没有经验。团队成员均来自各顶尖设计公司及软件公司,我们对网站设计及开发驾轻就熟,有着数百个成功案例。我们坚信用心服务,用实力说话!我们的使命:通过我们的努力,让技术改变命运!我们的宗旨:客户第一,品质至上!我们的信念:唯有客户的成功,才是我们的成功!

不忘初心,方得始终
中高端网站定制开发服务商
与我们取得联系

好作品自己会说话,

我们敬畏您给予的点滴信任 !

期待携手合作,请立即咨询我们:
QQ咨询 微信咨询
我们用心,期待您成为我们的客户

微信号:
添加微信好友, 详细咨询相关信息。

复制并跳转微信
19810950281