99久久精品久久久久久婷婷-99久久精品毛片免费播放高潮-99久久精品美女高潮喷水-99久久精品免费观看国产-99久久精品免费精品国产-99久久精品免费看国产

當前位置: 首頁 > 網站推廣專題

網站推廣專題

站點頁面不想被搜索引擎收錄該怎么辦

來源: 上海網站制作    發布日期: 2015-08-14 11:41    點擊量: 4933

  很多時候我們網站中的一些頁面不想被搜索引擎收錄,哪些頁面呢?比如自己網站中內部網站,僅供內容員工使用的網站功能模塊,這些模塊是我們在網站建設的時候就要做好規劃的,這部分我們可以使用ROBOTS的方式讓搜索引擎不收錄。


  robots.txt正確寫法

  正如前面提到的,一些頁面我們不想讓百度和google收錄,那怎么辦?我們可以告訴搜索引擎,和搜索引擎達成一個約定,如果我們按約定那樣做了,它們就不要收錄,寫一個robots.txt文件。

這個寫約定的的文件命名為:robots.txt。robots.txt是一個最簡單的.txt文件,用以告訴搜索引擎哪些網頁可以收錄,哪些不允許收錄。

  網站建設時robots.txt需要注意以下幾點:

  如果你的站點對所有搜索引擎公開,則不用做這個文件或者robots.txt為空就行。文件名字必須命名為:robots.txt,都是小寫,并且要注意拼寫的正確性,robot后面加"s"。很多網站制作的朋友比較大意,拼寫錯誤讓工作白做了。


  再就是robots.txt必須放置在一個站點的根目錄下。如:通過http://www.....cn/robots.txt 可以成功訪問到,這就說明我們的文件的位置放置正確。一般情況下,robots.txt里只寫著兩個函數:User-agent和 Disallow。有幾個需要禁止,就得有幾個Disallow函數,并分行描述。至少要有一個Disallow函數,如果都允許收錄,則寫: Disallow: ,如果都不允許收錄,則寫:Disallow: /  (注:只是差一個斜桿)。

  以上是上海網站制作公司總結出來的幾個要點,針對不允許搜索引擎收錄的處理方式,供大家參考。

  本文由上海藝覺網絡科技有限公司(http://m.yookbbs.cn)原創編輯轉載請注明。

相關新聞

CONTACT USCAREERSFOODSERVICEPRESSPRIVACY POLICY
? 2014 yijueweb. All rights reserved.
?
 
主站蜘蛛池模板: 日日摸夜夜搂人人要| 亚洲乱码一二三四区| 天天综合色网| 成人国产精品2021| 日韩黄色大片| 午夜一级毛片免费视频| 国产精品黄网站免费进入| 日日噜噜夜夜狠狠扒开双腿| 伊人网网站| 人人澡人人人人夜夜爽| 一二三四免费观看高清动漫视频| 欧美aaaaaaaaaa| 四虎影院免费视频| 福利体验区| 视频网站免费| 影音先锋2020色资源网| 人人看操| 影音先锋 色天使| 日本视频高清| 亚洲国产福利| 很黄很污小说| 天天舔天天干| 久久精品国产99精品最新| 婷婷综合五月天| 久久精品最新免费国产成人| 天天综合在线视频| 久久不射影院| 亚洲 欧美 动漫| 激情网五月天| 日日夜夜天天久久| seba51久久精品| 色欲麻豆国产福利精品| 国产精品bdsm在线调教| 天天操天天操天天干| 激情 婷婷| 亚洲sss| 欧美八区| 夜夜爽66| 青青久精品观看视频最新| 亚洲va中文va欧美va爽爽| 欧美日操|