當(dāng)前位置:首頁 >  站長 >  搜索優(yōu)化 >  正文

Robots Meta標(biāo)簽及其用法

 2015-05-13 21:53  來源: 互聯(lián)網(wǎng)   我來投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競價(jià),好“米”不錯(cuò)過

Robots Meta應(yīng)該放置在網(wǎng)頁的什么位置呢?

跟任何一種META標(biāo)簽是一樣的,Robots Meta放置在HTML網(wǎng)頁代碼的HEAD之內(nèi)。

以下為引用的內(nèi)容:

怎么使用Robots Meta標(biāo)簽?

例如:

以下為引用的內(nèi)容:

當(dāng)content需要包含多個(gè)屬性的時(shí)候需要用英文逗號隔離,注意同種屬性正反兩個(gè)方面(例如:index與noindex)不能同時(shí)出現(xiàn)在content之中。

通常content屬性里面的包含的標(biāo)簽有:

NOINDEX -不索引當(dāng)前頁面

NOFOLLOW -不跟蹤當(dāng)前頁面中所有的鏈接

NOARCHIVE -在搜索結(jié)果中不保存當(dāng)前頁面的快照

NOSNIPPET - 在搜索結(jié)果中不采用當(dāng)前頁面的頭部描述信息,且不保存當(dāng)前頁面的快照

NOODP -搜索結(jié)果中不使用

DMOZ中的描述信息,Yahoo、MSN也支持此類標(biāo)簽。

NONE -不索引當(dāng)前頁面以及其中的所有鏈接,跟“NOINDEX, NOFOLLOW” 含義相同

SEO專題推薦:

關(guān)鍵詞優(yōu)化專題:網(wǎng)站關(guān)鍵詞優(yōu)化沒效果?來這里學(xué)習(xí)最實(shí)用的關(guān)鍵詞優(yōu)化技巧!

內(nèi)鏈優(yōu)化專題:最能提升網(wǎng)站權(quán)重的內(nèi)鏈部署優(yōu)化技巧與方法

外鏈建設(shè)專題:高質(zhì)量自然外鏈怎么做?讀完這些你將質(zhì)的飛躍

網(wǎng)站降權(quán)專題:2015年最有用的網(wǎng)站降權(quán)、被K、被黑、被攻擊的解決方法

用戶體驗(yàn)專題:學(xué)習(xí)完這些,作為站長的你可以秒懂如何做網(wǎng)站用戶體驗(yàn)

行業(yè)網(wǎng)站專題:優(yōu)化行業(yè)網(wǎng)站的“葵花寶典”看完后無優(yōu)化壓力

申請創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots標(biāo)簽

相關(guān)文章

  • robots具體應(yīng)該禁止些什么文件

    今天大概總結(jié)一下:首先說明一點(diǎn):每天百度派出的蜘蛛是有限的,robots寫出來是為了節(jié)省蜘蛛資源讓蜘蛛能更快的進(jìn)行有效爬取和收錄!

  • 你不知道的robots文件那些事

    實(shí)際上百度只是擔(dān)心由于網(wǎng)站管理員不懂得robots.txt語法,導(dǎo)致搜索引擎蜘蛛無法正常抓取網(wǎng)站,才這樣寫的。建立robots.txt文件還是必需的,哪怕這個(gè)robots.txt文件是一個(gè)空白的文本文檔都可以。因?yàn)槲覀兊木W(wǎng)站畢竟不是僅僅會(huì)被百度收錄,同時(shí)也會(huì)被其他搜索引擎收錄,上傳一個(gè)空白的robo

    標(biāo)簽:
    robots標(biāo)簽
    robots
  • 解除網(wǎng)站Robots封禁全過程

    obots協(xié)議或者說robots文件對搜索引擎優(yōu)化中非常重要,但設(shè)置出錯(cuò)可能會(huì)導(dǎo)致收錄下降或不能正常收錄。今天,小小課堂SEO自學(xué)網(wǎng)帶來的是《【robots文件協(xié)議】解除Robots封禁全過程》。希望本次的百度SEO優(yōu)化培訓(xùn)對大家有所幫助。

  • 熊掌號必備seo知識(shí)1:robots文件

    最近很多站長咨詢關(guān)于熊掌號的問題,包括熊掌號和傳統(tǒng)seo之間的關(guān)系等,熊掌號在給網(wǎng)站提供更多的品牌特型、內(nèi)容保護(hù)之外,是否會(huì)遵循seo的基礎(chǔ)原理呢?曲曲小姐姐將在以后給大家逐一分享。

  • 網(wǎng)站上線前把robots寫了所有蜘蛛禁止抓取,取消后還是這樣怎么辦

    不知道有沒有其他站長跟我一樣,技術(shù)部把網(wǎng)站后臺(tái)搭建好了,然后網(wǎng)站還是很多東西需要修改的,特別是TDK改了一遍又一遍,但是這時(shí)候我沒有去百度站長申請閉站保護(hù),卻是在網(wǎng)站根目錄上傳了robots文件,里面寫著:User-agent:*Disallow:/這表示我的網(wǎng)站禁止所有蜘蛛來抓取,那么這種情況有什

    標(biāo)簽:
    robots標(biāo)簽
    robots

熱門排行

信息推薦