如何禁止爬取网页中的链接

 时间:2024-10-14 04:12:44

1、首先我们创建一个robots.txt

如何禁止爬取网页中的链接

2、根据Robots协议用来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取;可以屏蔽一些网站中比较大的文件,如:图片,音乐,视频等,节省服务器带宽;可以屏蔽站点的一些死链接。方便搜索引擎抓取网站内容;设置网站地图连接,方便引导蜘蛛爬取页面。

如何禁止爬取网页中的链接

3、在robots.txt文档中加入Disallow: *.htm,保存文件。

如何禁止爬取网页中的链接

4、将保存的文件上传到网站的根目录。

  • 大航海时代4 拉斐尔攻略
  • 太阁立志传5-建筑功能攻略
  • 大航海时代4全宝物攻略
  • 大航海时代4怎么威压
  • 大航海时代4卡斯特路攻略
  • 热门搜索
    肖战图片大全 我的世界怎么做栅栏 金针菇的家常做法 金夫人婚纱摄影怎么样 有颈纹怎么办 牛肉汤怎么做好吃 宝宝湿疹最佳治疗方法 香辣蟹的家常做法 护肤品的正确使用顺序方法 缩句的方法