當(dāng)前位置:首頁 >  站長 >  網(wǎng)站運(yùn)營 >  正文

robots文件編寫秘籍 新手必看

 2020-11-27 17:04  來源: 懶貓seo博客   我來投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競(jìng)價(jià),好“米”不錯(cuò)過

當(dāng)我們的網(wǎng)站上線之后,一定會(huì)有一些不想讓百度抓取的頁面、文件,針對(duì)這種問題,我們就要使用協(xié)議去屏蔽。那么這個(gè)協(xié)議是什么?究竟怎么寫這個(gè)協(xié)議呢?

一、什么是搜索引擎協(xié)議: 搜索引擎協(xié)議也就是我們常說的robots.txt。這是我們網(wǎng)站和搜索引擎之間的協(xié)議。當(dāng)搜索引擎來到我們網(wǎng)站的時(shí)候,會(huì)先看一看有沒有這個(gè)文件,在進(jìn)行下一步的抓取。但是需要注意的是,這個(gè)協(xié)議只是我們單方面的,搜索引擎遵守與否,我們管不了。但是正常情況下搜索引擎會(huì)遵守這個(gè)協(xié)議。

robots.txt語法: 1.基本語法: User-agent 定義協(xié)議的搜索引擎。 Disallow 不允許抓取 Allow 允許抓取 * 通配符,代表所有 $ 結(jié)束符 2.詳情講解: User-agent: * 所有的搜索引擎都要遵守 PS:1.英文的首字母一定要大寫。下同。2.問號(hào)一定是英文狀態(tài)下的。下同。3.問號(hào)之后一定要有一個(gè)空格。下同。 User-agent: Baiduspider 針對(duì)百度的協(xié)議 Disallow: / 屏蔽全站 Disallow: /can/ 屏蔽can文件下的所有文件 Allow: /can/123 屏蔽can文件下的所有文件,但是允許收錄123 Disallow: /*.jpg$ 屏蔽所有的圖片文件。 PS:使用通配符,一定要有結(jié)束符。不然可能導(dǎo)致正常的路徑被屏蔽。

二、那些情況需要使用robots

1.統(tǒng)一路徑 在我們的網(wǎng)站中,指向頁面的路徑一定是有且只有一個(gè)。一旦多途徑指向一個(gè)頁面,會(huì)導(dǎo)致百度不知道收錄那個(gè)頁面。所以我們只要屏蔽了一個(gè),讓百度收錄我們想讓收錄的。 2.搜索路徑 如果我們網(wǎng)站中有搜索框,那么我們就要把搜索結(jié)果頁面給屏蔽掉。目的就是為了防止有人使用這個(gè)搜索框搗亂。 3.標(biāo)簽路徑 如果我們網(wǎng)站有標(biāo)簽頁面,這個(gè)標(biāo)簽頁面就是中文的鏈接,中文鏈接百度不認(rèn)識(shí),所以要屏蔽。 4.js文件 對(duì)于js文件或者其他無意義的文件,我們都可以屏蔽掉。

注意事項(xiàng): 1.基礎(chǔ)語法中PS的點(diǎn)。 2.生效時(shí)間 robots是我們和搜索引擎之間的一個(gè)單方面的協(xié)議,不是我們今天寫上,明天百度就會(huì)遵守。想讓百度遵守是需要一個(gè)過程的,一般情況下是兩個(gè)月。但是也不排除當(dāng)天寫,當(dāng)天生效。所以在更改robots的時(shí)候,一定要小心小心再小心。一旦你的robots錯(cuò)了,對(duì)整個(gè)網(wǎng)站的影響是巨大的。 3.不要隨便的屏蔽整站 一些新手在做網(wǎng)站的時(shí)候,沒有規(guī)劃,隨搭隨建,網(wǎng)站不能一下子做好,經(jīng)常做個(gè)半截,所以很多新手就會(huì)將我們的網(wǎng)站全部屏蔽掉。如果你真的這么做了,那么我要恭喜你,蜘蛛可能在未來的兩個(gè)月中不來訪問你的網(wǎng)站。即便是你去請(qǐng)蜘蛛也不會(huì)來。所以這里給新手的建議就是一定要對(duì)網(wǎng)站規(guī)劃好,一次性搭建完成。等待收錄。

文章來源:懶貓seo博客

來源地址:http://www.lanmaoseo.com/seowzyh/6995.html

申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots文件
robots

相關(guān)文章

  • robots協(xié)議怎么寫 作用是什么?

    robots協(xié)議也叫robots.txt(統(tǒng)一小寫)是一種存放于網(wǎng)站根目錄下的ASCII編碼的文本文件,它通常告訴網(wǎng)絡(luò)搜索引擎的漫游器(又稱網(wǎng)絡(luò)蜘蛛),此網(wǎng)站中的哪些內(nèi)容是不應(yīng)被搜索引擎的漫游器獲取的,哪些是可以被漫游器獲取的。

    標(biāo)簽:
    robots
  • robots具體應(yīng)該禁止些什么文件

    今天大概總結(jié)一下:首先說明一點(diǎn):每天百度派出的蜘蛛是有限的,robots寫出來是為了節(jié)省蜘蛛資源讓蜘蛛能更快的進(jìn)行有效爬取和收錄!

  • robots.txt文件怎么寫才正確呢?

    曾慶平SEO在前面的文章中講過robots.txt概念的時(shí)候,留下一個(gè)問題:為什么曾慶平SEO的robots.txt寫得那么復(fù)雜?曾慶平SEO的robots.txt:http://www.xxx.com/robots.txt這樣做的目的是,讓搜索引擎看來網(wǎng)站更規(guī)范和權(quán)威。

  • 百度站長平臺(tái)檢測(cè)robots.txt 提示301錯(cuò)誤代碼 怎么解決

    如果以上都沒有錯(cuò)誤,那么你就要檢查你的CDN了,很可能是因?yàn)镃DN緩存而造成的,或者是你配置了https,而站長平臺(tái)卻綁定的http,無法訪問,這兩點(diǎn)自己排查,如果以上都做到,那么是不會(huì)提示這類錯(cuò)誤的,當(dāng)然也不排查百度站長平臺(tái)本身的問題,不過這種機(jī)率性很小。

  • 網(wǎng)站robots文件沒做好帶來的影響不可小視

    網(wǎng)站優(yōu)化過程非常容易忽視的一個(gè)就是robots文件,因?yàn)槿绻W(wǎng)站徹底不做robots文件好像也沒有多大影響,但不做好這個(gè)文件,引起的問題可不能小視。

    標(biāo)簽:
    robots文件
    robots

熱門排行

信息推薦