国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 網站 > 優化推廣 > 正文

拒絕搜索引擎抓取頁面:robots.txt

2024-04-26 13:21:55
字體:
來源:轉載
供稿:網友

有些時候,我們建立的一些網頁,不希望被網友通過搜索引擎找到,該如何做呢?本文介紹了如何使用robots.txt防止搜索引擎抓取頁面的一些技巧。

  robots.txt 文件對抓取網絡的搜索引擎漫游器(稱為漫游器)進行限制。這些漫游器是自動的,在它們訪問網頁前會查看是否存在限制其訪問特定網頁的 robots.txt 文件。如果你想保護網站上的某些內容不被搜索引擎收入的話,robots.txt 是一個簡單有效的工具。這里簡單介紹一下怎么使用它。

 

  如何放置 robots.txt 文件

  robots.txt自身是一個文本文件。它必須位于域名的根目錄中并 被命名為"robots.txt"。位于子目錄中的 robots.txt 文件無效,因為漫游器只在域名的根目錄中查找此文件。例如,http://www.example.com/robots.txt 是有效位置,http://www.example.com/mysite/robots.txt 則不是。

  這里舉一個robots.txt的例子:

  user-agent: *

  disallow: /cgi-bin/

  disallow: /tmp/

  disallow: /~name/

  使用 robots.txt 文件攔截或刪除整個網站

  要從搜索引擎中刪除您的網站,并防止所有漫游器在以后抓取您的網站,請將以下 robots.txt 文件放入您服務器的根目錄:

  user-agent: *

  disallow: /

  要只從 google 中刪除您的網站,并只是防止 googlebot 將來抓取您的網站,請將以下 robots.txt 文件放入您服務器的根目錄:

  user-agent: googlebot

  disallow: /

  每個端口都應有自己的 robots.txt 文件。尤其是您通過 http 和 https 托管內容的時候,這些協議都需要有各自的 robots.txt 文件。例如,要讓 googlebot 只為所有的 http 網頁而不為 https 網頁編制索引,應使用下面的 robots.txt 文件。

  對于 http 協議 (http://yourserver.com/robots.txt):

  user-agent: *

  allow: /

  對于 https 協議 (https://yourserver.com/robots.txt):

  user-agent: *

  disallow: /

  允許所有的漫游器訪問您的網頁

  user-agent: *

  disallow:

  (另一種方法: 建立一個空的 "/robots.txt" 文件, 或者不使用robot.txt。)

  使用 robots.txt 文件攔截或刪除網頁

  您可以使用 robots.txt 文件來阻止 googlebot 抓取您網站上的網頁。 例如,如果您正在手動創建 robots.txt 文件以阻止 googlebot 抓取某一特定目錄下(例如,private)的所有網頁,可使用以下 robots.txt 條目:

  user-agent: googlebot

  disallow: /private

  要阻止 googlebot 抓取特定文件類型(例如,.gif)的所有文件,可使用以下 robots.txt 條目:

  user-agent: googlebot

  disallow: /*.gif$

  要阻止 googlebot 抓取所有包含 ? 的網址(具體地說,這種網址以您的域名開頭,后接任意字符串,然后是問號,而后又是任意字符串),可使用以下條目:

  user-agent: googlebot

  disallow: /*?

  盡管我們不抓取被 robots.txt 攔截的網頁內容或為其編制索引,但如果我們在網絡上的其他網頁中發現這些內容,我們仍然會抓取其網址并編制索引。因此,網頁網址及其他公開的信息,例如指 向該網站的鏈接中的定位文字,有可能會出現在 google 搜索結果中。不過,您網頁上的內容不會被抓取、編制索引和顯示。

  作為網站管理員工具的一部分,google提供了robots.txt分析工具 。它可以按照 googlebot 讀取 robots.txt 文件的相同方式讀取該文件,并且可為 google user-agents(如 googlebot)提供結果。我們強烈建議您使用它。 在創建一個 robots.txt 文件之前,有必要考慮一下哪些內容可以被用戶搜得到,而哪些則不應該被搜得到。 這樣的話,通過合理地使用 robots.txt , 搜索引擎在把用戶帶到您網站的同時,又能保證隱私信息不被收錄。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 禹州市| 车险| 汝州市| 松潘县| 富源县| 曲松县| 西和县| 秭归县| 开封市| 桦甸市| 全椒县| 达孜县| 庄浪县| 中西区| 鄂伦春自治旗| 千阳县| 若羌县| 宜良县| 西安市| 许昌市| 工布江达县| 龙陵县| 霍城县| 土默特右旗| 赤峰市| 马龙县| 榆树市| 桐乡市| 沈丘县| 镇雄县| 萨嘎县| 石阡县| 镇安县| 前郭尔| 莲花县| 文安县| 长沙市| 隆子县| 鹤岗市| 六安市| 德昌县|