天堂网在线观看 I 香蕉av在线 I 明星双性精跪趴灌满h I 国产精品免费观看视频 I 国产片一区二区 I 三级黄色av I 最新中文字幕第一页 I 久久色婷婷 I 日韩三级成人 I 中文字幕第35页 I 一级片免费在线播放 I 日批免费在线观看 I 影音先锋二区 I 欧美一区二区三区视频在线 I 中文字幕第一页亚洲 I 国产精品一区二区精品 I 亚洲精品综合精品自拍 I 日本h漫在线观看 I 黄色美女网站免费看 I 欧美日本一区二区三区四区 I 天天躁狠狠躁狠狠躁夜夜躁68 I 成人片片 I 公妇公侵无伦中文字幕 I 大波妞影院 I 牛牛影视精品一区二区在线看 I 国产成+人+综合+亚洲欧美丁香花 I 欧美日韩第一视频 I 99国产精品9

免費推廣知識

首頁 > 免費 > 免費推廣知識 >

robots文件使用技巧

來源:北京匯仁智杰科技有限公司   時間:2015-06-27   點擊:

  robots文件是一種機器人文件,就是我們給搜索引擎蜘蛛看的一種文件,搜索引擎的蜘蛛在爬行我們網站的時候一把都會先爬行我們的robots文件,然后根據robots文件的要求,進行對我們網站的爬行。那么我們在寫robots文件的時候應該注意哪些技巧呢。

  一般網站中不需要蜘蛛抓取的文件有:后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。這個時候我們就可以通過以下的方法來設置robots文件。

  User-agent: *
  Disallow: /admin/ 后臺管理文件
  Disallow: /require/程序文件
  Disallow: /attachment/ 附件
  Disallow: /images/ 圖片
  Disallow: /data/數據庫文件
  Disallow: /template/ 模板文件
  Disallow: /css/ 樣式表文件
  Disallow: /lang/ 編碼文件
  Disallow: /script/腳本文件
  Disallow: /js/js文件

  如果你想讓你的哪一個文件不被搜索引擎抓取的話,那么你就要按照以上的方法來設置你的robots文件。

  如果你的網站是動態網頁,并且這些動態頁面都做了靜態的版本,為了更好的讓蜘蛛抓取。那么你需要在robots.txt文件里設置避免動態網頁被蜘蛛索引,這樣就能保證這些頁面不被搜索引擎重復的抓取了。

  以上就是匯仁智杰網絡推廣整理的一些robots文件的使用方法,robots文件的使用方法還有很多,在后續的文章中我們還會有更多的說明。

網絡營銷推廣 . 北京匯仁智杰科技有限公司!

地址:北京市昌平區回龍觀龍冠大廈5層
咨詢:13370157521
業務QQ:373002979
E - mail:sales @ huirenzhijie.com
企業網站備案:京ICP備15021091號-1

匯仁智杰與眾不同

  • 有網絡推廣經驗
  • 有網站建站隊伍
  • 有大型網站建設經驗
  • 致力于營銷型網站建設
  • 始終堅持技術和服務同樣重要
查看PC版網站
備案號:京ICP備15021091號-1 版權所有:匯仁智杰