全國服務(wù)熱線:400-080-4418

您現(xiàn)在的位置是:首頁 > 新聞資訊 > 網(wǎng)站建設(shè)常識

簡述robot文件的作用2011/8/16 15:42:30 瀏覽:54

大家都知道搜索引擎通過蜘蛛爬行來搜索抓取信息,robot.txt文件就是和蜘蛛交流的文件,很多人都會(huì)說介紹要怎么讓蜘蛛來爬行,卻很少人知道用robot.txt去操控蜘蛛,robot.txt用得好的話蜘蛛可以為你所用。下面上海做網(wǎng)站來介紹一下如何操控蜘蛛。

    . 屏蔽相同頁面

  搜索引擎是個(gè)喜新厭舊的東西,不會(huì)去收錄重復(fù)的也或者已有的頁面,即使收錄了后期也會(huì)被刪掉,所以一開始我們可以打開robots文件,寫入禁止蜘蛛來讀取這個(gè)頁面的代碼,給蜘蛛來下個(gè)好印象,反之印象分會(huì)大大減分,影響將來蜘蛛來爬行網(wǎng)站。

  .維護(hù)網(wǎng)站安全

  利用robots文件可以保護(hù)網(wǎng)站安全,有些人可能會(huì)問如何保護(hù)我的上海網(wǎng)站建設(shè),如果不用robots文件屏蔽掉蜘蛛抓取admin后臺頁面或后臺以下的文件,蜘蛛就會(huì)默認(rèn)收錄這些頁面,讓黑客有機(jī)可趁。

   .盜鏈

  一般盜鏈也就幾個(gè)人,可是一旦被搜索引擎“盜鏈”那家伙你100M寬帶也吃不消,如果你做的不是圖片網(wǎng)站,又不想被搜索引擎“盜鏈”你的網(wǎng)站圖片。

  .網(wǎng)站地圖提交

  Robots文件還支持網(wǎng)站地圖提交功能,提交了網(wǎng)站地圖可以讓蜘蛛更好地爬行網(wǎng)站內(nèi)容,但是一大部分人做了網(wǎng)站卻不去提交網(wǎng)站地圖,雖然是沒有很大的影響建議提交。

  . 禁止二級域名抓取

  一些上海企業(yè)網(wǎng)站建設(shè)網(wǎng)站會(huì)對VIP會(huì)員提供一些特殊服務(wù),卻又不想這個(gè)服務(wù)被搜索引擎檢索到。

服務(wù)網(wǎng)絡(luò)

關(guān)于我們

網(wǎng)至普專注于網(wǎng)站建設(shè)/網(wǎng)站優(yōu)化,始終追求 “您的滿意,我的追求!”。懂您所需、做您所想!我們一直在思考如何為客戶創(chuàng)造更大的價(jià)值,讓客戶更省心!立足上海,服務(wù)全國。服務(wù):上海,北京,廣州,深圳,成都,杭州,南京,蘇州,無錫等地

查看更多 >>

聯(lián)系我們

Copyright 2008 © 上海網(wǎng)至普信息科技有限公司 All rights reserved. 滬ICP備11006570號-13 滬公網(wǎng)安備 31011402007386號


關(guān)于我們 | 聯(lián)系我們 | 網(wǎng)站建設(shè)

返回頂部