當(dāng)前位置:首頁 >  站長 >  搜索優(yōu)化 >  正文

你不知道的robots文件那些事

 2019-07-25 10:26  來源: A5用戶投稿   我來投稿 撤稿糾錯

  域名預(yù)訂/競價,好“米”不錯過

robots.txt文件,是每一個搜索引擎蜘蛛到你的網(wǎng)站之后要尋找和訪問的第一個文件,robots.txt是你對搜索引擎制定的一個如 何索引你的網(wǎng)站的規(guī)則。通過該文件,搜索引擎就可以知道在你的網(wǎng)站中哪些文件是可以被索引的,哪些文件是被拒絕索引的。我們就可以很方便地控制搜索引擎索引網(wǎng)站內(nèi)容了。 在很多網(wǎng)站中,站長們都忽略了使用robots.txt文件。

因為很多站長都認(rèn)為,自己的網(wǎng)站沒有什么秘密可言,而且自己也不太會使用robots.txt的語法,因此一旦寫錯了會帶來更多的麻煩,還不如不用。 其實這樣的做法是不對的。如果蜘蛛在某個網(wǎng)站*問了一個不存在的URL,那么就會記錄下一條404信息(網(wǎng)頁不存在),而robots.txt作為蜘蛛訪問網(wǎng)站的第一個文件,一旦搜索引擎找不到這個文件,也會在它的索引服務(wù)器上記錄下一條404信息。如果這樣的404信息過多,那么搜索引擎蜘蛛就會認(rèn)為該網(wǎng)站價值較低,從而降低對該網(wǎng)站的“印象分”,這就是我們經(jīng)常會聽到的“降低權(quán)重”。

“權(quán)重”是一個影響網(wǎng)站在搜索引擎排名中非常重要的因素,如果網(wǎng)站的權(quán)重高,那么搜索引擎蜘蛛也會頻繁地訪問該網(wǎng)站,而且網(wǎng)站排名也好。如果權(quán)重低,那么搜索引擎蜘蛛對于網(wǎng)站的訪問次數(shù)也相應(yīng)的要少,同時網(wǎng)站排名較差。而網(wǎng)站的權(quán)重是由很多條件所積累的,404信息就是很重要的一條,因此不得不重視。 雖然在百度的幫助文件中,有這樣的一句話“請注意,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上的所有內(nèi)容,請 勿建立robots.txt文件”。

實際上百度只是擔(dān)心由于網(wǎng)站管理員不懂得robots.txt語法,導(dǎo)致搜索引擎蜘蛛無法正常抓取網(wǎng)站,才這樣寫的。建立robots.txt文件還是必需的,哪怕這個robots.txt文件是一個空白的文本文檔都可以。因為我們的網(wǎng)站畢竟不是僅僅會被百度收錄,同時也會被其他搜索引擎收錄,上傳一個空白的robots.txt文件,至少不會導(dǎo)致一條404信息的產(chǎn)生。

本文來源:裕順網(wǎng)絡(luò)www.ahyushun.com如有轉(zhuǎn)載請注明出處

友情提示:A5官方SEO服務(wù),為您提供權(quán)威網(wǎng)站優(yōu)化解決方案,快速解決網(wǎng)站流量異常,排名異常,網(wǎng)站排名無法突破瓶頸等服務(wù):http://www.admin5.cn/seo/zhenduan/

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots標(biāo)簽
robots

相關(guān)文章

  • robots協(xié)議怎么寫 作用是什么?

    robots協(xié)議也叫robots.txt(統(tǒng)一小寫)是一種存放于網(wǎng)站根目錄下的ASCII編碼的文本文件,它通常告訴網(wǎng)絡(luò)搜索引擎的漫游器(又稱網(wǎng)絡(luò)蜘蛛),此網(wǎng)站中的哪些內(nèi)容是不應(yīng)被搜索引擎的漫游器獲取的,哪些是可以被漫游器獲取的。

    標(biāo)簽:
    robots
  • robots具體應(yīng)該禁止些什么文件

    今天大概總結(jié)一下:首先說明一點(diǎn):每天百度派出的蜘蛛是有限的,robots寫出來是為了節(jié)省蜘蛛資源讓蜘蛛能更快的進(jìn)行有效爬取和收錄!

  • robots文件編寫秘籍 新手必看

    當(dāng)我們的網(wǎng)站上線之后,一定會有一些不想讓百度抓取的頁面、文件,針對這種問題,我們就要使用協(xié)議去屏蔽。那么這個協(xié)議是什么?究竟怎么寫這個協(xié)議呢?

    標(biāo)簽:
    robots文件
    robots
  • robots.txt文件怎么寫才正確呢?

    曾慶平SEO在前面的文章中講過robots.txt概念的時候,留下一個問題:為什么曾慶平SEO的robots.txt寫得那么復(fù)雜?曾慶平SEO的robots.txt:http://www.xxx.com/robots.txt這樣做的目的是,讓搜索引擎看來網(wǎng)站更規(guī)范和權(quán)威。

  • 百度站長平臺檢測robots.txt 提示301錯誤代碼 怎么解決

    如果以上都沒有錯誤,那么你就要檢查你的CDN了,很可能是因為CDN緩存而造成的,或者是你配置了https,而站長平臺卻綁定的http,無法訪問,這兩點(diǎn)自己排查,如果以上都做到,那么是不會提示這類錯誤的,當(dāng)然也不排查百度站長平臺本身的問題,不過這種機(jī)率性很小。

熱門排行

信息推薦