<bdo id="vljxk"><rt id="vljxk"><noframes id="vljxk"><noframes id="vljxk"><noframes id="vljxk"><rt id="vljxk"></rt><rt id="vljxk"></rt><noframes id="vljxk"><rt id="vljxk"><delect id="vljxk"></delect></rt><noframes id="vljxk"><rt id="vljxk"></rt><noframes id="vljxk"><noframes id="vljxk"><rt id="vljxk"></rt>

當前位置:首頁 >  站長 >  搜索優化 >  正文

robots是什么,robots怎么寫?

 2015-05-13 21:49  來源: 互聯網   我來投稿 撤稿糾錯

  阿里云優惠券 先領券再下單

深入認識robots

搜索引擎使用spider程序自動范文互聯網上的網頁并獲取網頁信息。Spider在訪問一個網站時,會首頁檢查該網站的根域名下是否有一個叫robots.txt的純文本,這個文件用于指定spider在您網站上的抓取范圍。您可以在您的網站上創建一個robots.txt,在文件中聲明改網站中哪些目錄不讓搜索引擎收錄。(robots.txt文件應該放置在網站根目錄下。)

1、robots的用法

User-agent:定義進制搜索引擎名字,比如說:百度(Baiduspider)、谷歌(Googlebot)、360(360Spider)等。*號代表全部搜索引擎

Disallow:不允許收錄

Allow:允許收錄

案例:

User-agent: * (聲明禁止所有的搜索引擎抓取以下內容)

Disallow:/blog/(禁止網站blog欄目下所有的頁面。比如說:/blog/123.html)

Disallow:/api(比如說:/apifsdfds/123.html也會被屏蔽。)

Allow:/blog/12/(一般情況下不需要寫Allow的,而我們在禁止的目錄下面,我們需要讓搜索引擎收錄,那么我們就可以使用Allow,比如說我們前面禁止了blog欄目下所有的頁面,同時我們想/12/欄目下被收錄,這個時候我們就需要通過Allow來允許搜索引擎的收錄。)

Disallow:*?*(只要你的路徑里面帶有問號的路徑,那么這條路徑將會被屏蔽。比如說:將會被屏蔽。)

Disallow:/*.php$(意思是以.php結尾的路徑全部屏蔽掉。)

如何使用Robots提升排名

一、屏蔽死鏈接

許多時候,我們網站會產生死鏈接,比如說:網站改版、文章刪除等,都很有可能會導致網站出現404頁面,那么這個時候我們就需要通過robots來屏蔽這些死鏈接。查看死鏈的方法有以下兩種:

1、)通過網站日志查詢。

我們可以通過下載網站日志來查看我們的404頁面(網站日志可以向空間商要,空間商會提供下載通道),我們用txt打開網站日志,通過搜索“404”,如果你網站有404頁面,并且被訪問到了,那么這個時候就會被網站日志給記錄。

2、)百度站長平臺查詢

我們首先需要驗證百度站長平臺(如何驗證就不說了,最基本的。)驗證以后,我們通過百度站長工具的死鏈工具,可以清楚的看到,我們網站有哪些死鏈接。

二、屏蔽無價值的頁面

許多網站都有一些沒有價值的頁面,比如說SEO指導中心的用戶個人中心頁面,這個個人中心頁面不會對網站產生價值,在百度上面的展現也不會給網站帶來權重。因此我們需要利用robots來屏蔽這樣的頁面。又比如說:一個企業網站的聯系我們頁面,這種頁面不會給網站帶來權重,用戶也不會去搜索“聯系我們”來找他想要的產品。因此我們需要把這種頁面同時屏蔽。

三、屏蔽重復路徑

當你網站出現重復路徑的時候,百度將會對我們的網站進行直接降分,比如說:一個網站做了偽靜態,同時他的動態頁面也可以訪問,這個時候就會出現重復路徑。因此我們需要通過robots屏蔽這些重復路徑。

總結:也許很多人都不知道,許多細節都很有可能是你網站排名不上的原因,而這些小小的細節往往被大家給忽略了。同時希望站長在做網站優化的時候多多關注一些網站細節的問題。

SEO專題推薦:

關鍵詞優化專題:網站關鍵詞優化沒效果?來這里學習最實用的關鍵詞優化技巧!

內鏈優化專題:最能提升網站權重的內鏈部署優化技巧與方法

外鏈建設專題:高質量自然外鏈怎么做?讀完這些你將質的飛躍

網站降權專題:2015年最有用的網站降權、被K、被黑、被攻擊的解決方法

用戶體驗專題:學習完這些,作為站長的你可以秒懂如何做網站用戶體驗

行業網站專題:優化行業網站的“葵花寶典”看完后無優化壓力

申請創業報道,分享創業好點子。點擊此處,共同探討創業新機遇!

相關標簽
robots標簽

相關文章

  • robots具體應該禁止些什么文件

    今天大概總結一下:首先說明一點:每天百度派出的蜘蛛是有限的,robots寫出來是為了節省蜘蛛資源讓蜘蛛能更快的進行有效爬取和收錄!

  • 你不知道的robots文件那些事

    實際上百度只是擔心由于網站管理員不懂得robots.txt語法,導致搜索引擎蜘蛛無法正常抓取網站,才這樣寫的。建立robots.txt文件還是必需的,哪怕這個robots.txt文件是一個空白的文本文檔都可以。因為我們的網站畢竟不是僅僅會被百度收錄,同時也會被其他搜索引擎收錄,上傳一個空白的robo

    標簽:
    robots標簽
    robots
  • 解除網站Robots封禁全過程

    obots協議或者說robots文件對搜索引擎優化中非常重要,但設置出錯可能會導致收錄下降或不能正常收錄。今天,小小課堂SEO自學網帶來的是《【robots文件協議】解除Robots封禁全過程》。希望本次的百度SEO優化培訓對大家有所幫助。

  • 熊掌號必備seo知識1:robots文件

    最近很多站長咨詢關于熊掌號的問題,包括熊掌號和傳統seo之間的關系等,熊掌號在給網站提供更多的品牌特型、內容保護之外,是否會遵循seo的基礎原理呢?曲曲小姐姐將在以后給大家逐一分享。

  • 網站上線前把robots寫了所有蜘蛛禁止抓取,取消后還是這樣怎么辦

    不知道有沒有其他站長跟我一樣,技術部把網站后臺搭建好了,然后網站還是很多東西需要修改的,特別是TDK改了一遍又一遍,但是這時候我沒有去百度站長申請閉站保護,卻是在網站根目錄上傳了robots文件,里面寫著:User-agent:*Disallow:/這表示我的網站禁止所有蜘蛛來抓取,那么這種情況有什

    標簽:
    robots標簽
    robots

熱門排行

信息推薦