<bdo id="vljxk"><rt id="vljxk"><noframes id="vljxk"><noframes id="vljxk"><noframes id="vljxk"><rt id="vljxk"></rt><rt id="vljxk"></rt><noframes id="vljxk"><rt id="vljxk"><delect id="vljxk"></delect></rt><noframes id="vljxk"><rt id="vljxk"></rt><noframes id="vljxk"><noframes id="vljxk"><rt id="vljxk"></rt>

當前位置:首頁 >  站長 >  搜索優化 >  正文

robots具體應該禁止些什么文件

 2020-11-30 17:13  來源: 懶貓seo博客   我來投稿 撤稿糾錯

  阿里云優惠券 先領券再下單

網上robots的寫法,說法一大堆,也不知誰對誰錯,到底robots該禁止那些文件呢?

今天大概總結一下: 首先說明一點:每天百度派出的蜘蛛是有限的,robots寫出來是為了節省蜘蛛資源讓蜘蛛能更快的進行有效爬取和收錄!

針對企業站來說,本身蜘蛛資源不會很多

,所以我們更要珍惜蜘蛛的每次爬取,讓其都有意義,不要去爬取一些無價值的頁面,浪費了蜘蛛資源,從而導致網站遲遲未收錄,沒排名等情況! 下面舉例列出來: 1、模板文件(/template/)可以屏蔽; 2、這個文件/uploads/一般放的是圖片,可以屏蔽; 3、/data/系統數據文件,可以屏蔽; 4、/img/或/images/,如果你不是做的圖片站,也可以屏蔽; 5、/bin/系統文件可以屏蔽; 6、/install/安裝文件可以屏蔽; 7、/member/有會員的可以屏蔽; 8、/logreport/有統計報告的可以屏蔽; 9、/bjk/有加密的文件,可以屏蔽; 10、/js/,/css/可以屏蔽,留著是為了讓蜘蛛更好地了解網站結構,資源少的情況下,可以屏蔽。 11、網站地圖,sitemap要記得放進去,不要屏蔽,讓蜘蛛第一時間去看你的網站地圖,更快了解網站鏈接結構! 總結到此,希望對大家有些幫助!

文章來源:懶貓seo博客

來源地址:http://www.lanmaoseo.com/seowzyh/6978.html

申請創業報道,分享創業好點子。點擊此處,共同探討創業新機遇!

相關文章

  • robots協議怎么寫 作用是什么?

    robots協議也叫robots.txt(統一小寫)是一種存放于網站根目錄下的ASCII編碼的文本文件,它通常告訴網絡搜索引擎的漫游器(又稱網絡蜘蛛),此網站中的哪些內容是不應被搜索引擎的漫游器獲取的,哪些是可以被漫游器獲取的。

    標簽:
    robots
  • dns-prefetch是什么 前端優化:DNS預解析提升頁面速度

    在網頁體驗中我們常會遇到這種情況,即在調用百度聯盟、谷歌聯盟以及當前網頁所在域名外的域名文件時會遇到請求延時非常嚴重的情況。那么有沒有方法去解決這種請求嚴重延時的現象呢

  • robots文件編寫秘籍 新手必看

    當我們的網站上線之后,一定會有一些不想讓百度抓取的頁面、文件,針對這種問題,我們就要使用協議去屏蔽。那么這個協議是什么?究竟怎么寫這個協議呢?

    標簽:
    robots文件
    robots
  • seo優化培訓都教一些什么知識

    只是會前邊簡單的優化還是不夠的,搜索引擎經常會調整它的算法,以更符合搜索用戶的需要,我們要經常到一些論壇、博客去學習,我們應該對搜索引擎新算法保持足夠的敏感。

  • robots.txt文件怎么寫才正確呢?

    曾慶平SEO在前面的文章中講過robots.txt概念的時候,留下一個問題:為什么曾慶平SEO的robots.txt寫得那么復雜?曾慶平SEO的robots.txt:http://www.xxx.com/robots.txt這樣做的目的是,讓搜索引擎看來網站更規范和權威。

熱門排行

信息推薦