国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 網站 > 優化推廣 > 正文

如何使用Robots來處理網站死鏈接

2024-04-26 13:27:46
字體:
來源:轉載
供稿:網友

覺得今天很有必要跟大家分享一下Robots與死鏈的關系,這幾天已經遇到了好幾個er在混淆這兩個概念了,老是把Robot的應用與死鏈的處理,搭配到一起去使用,Seven足足碼字好幾百,聊天記錄都說了兩頁了,回頭還是問了句,“怎么在robot中寫死鏈提交”,我在想一定是我表達的方式不對,下面給大家捋捋思路:

 

Robot的應用:主要用于定義允許/禁止哪些搜索引擎蜘蛛的爬取,允許/禁止蜘蛛可以爬取的網站路徑,允許/禁止蜘蛛爬取URL的規則,告訴某些搜索引擎的URL,例如我的Robot就簡單簡單定義了幾個規則:如何使用Robots來處理網站死鏈接

死鏈的處理:這里針對百度搜索引擎討論,主要還是到站長工具里面,把死鏈提交給百度,告訴百度這個鏈接不存在,請求刪除之前的收錄,這里是以txt或xml形式批量提交死鏈給百度;如何使用Robots來處理網站死鏈接

 

現在談談死鏈與Robot的關系,很多人就把死鏈提交到Robots定義里面,認為用Disallow來禁止的抓取,這個想法是好的,出發點無非是不想讓百度收錄自己網站的死鏈,但是有沒有考慮到快照問題,就是這個鏈接是個死鏈,但是在網站收錄里面還有快照存在,你就會想,是不是百度還能抓取到我的死鏈,所以你就在Robot里面加了N多行的Disallow,來禁止百度收錄你的死鏈,seven一直不太認可這么一個做法,其實這完全是一個本末倒置的做法。

 

需要搞清楚死鏈是如何產生的?死鏈是由于文件刪除或者路徑修改產生的不可訪問的鏈接,那么你需要做的第一步是完全清除死鏈,第二步是提交死鏈,而Robots的禁止收錄,是因為路徑存在,但是你不希望被搜索引擎收錄,比如網站后臺或者用戶中心一類,所以才加的Disallow去禁止收錄,死鏈是訪問不到的鏈接,如果你第一步清除完了,存在這個Disallow的必要嗎?因為你不完全清除死鏈,勢必影響用戶體驗。

 

總結:死鏈是必須清除的,對于搜索引擎而言,網站收錄之前的死鏈一般不會被收錄,因為沒有價值;收錄之后的死鏈,可能用戶會在搜索結果或者站內瀏覽時點擊到,影響用戶體驗,所以必須提交死鏈和投訴快照加快死鏈處理。robots與死鏈的關系很微妙,差別就在于這個死鏈地址是否還存在于網站內鏈當中。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 平远县| 安乡县| 微山县| 鹤壁市| 咸宁市| 含山县| 开化县| 察隅县| 镇赉县| 诸城市| 姚安县| 澎湖县| 安徽省| 宁乡县| 汝阳县| 南城县| 六安市| 吴旗县| 阿瓦提县| 密山市| 永胜县| 浙江省| 宜君县| 武清区| 惠安县| 麟游县| 德江县| 深州市| 宜春市| 堆龙德庆县| 岳普湖县| 盘山县| 济阳县| 肇源县| 彝良县| 桐柏县| 积石山| 南京市| 屯留县| 蒙城县| 瓦房店市|