亚洲永久精品唐人导航网址,亚洲无码视频在线观看,亚洲精品成人久久av,中文字幕人成乱码在线观看,亚州最新无码在线海量高清,成人国产精品免费视频

合肥做網(wǎng)站,選擇瘋狗科技,專(zhuān)業(yè)、敬業(yè)的合肥網(wǎng)絡(luò )公司
首頁(yè) > 網(wǎng)站技術(shù) > 詳情

解析robots.txt的正確使用方法

2018-05-15 13:47:53   來(lái)源:互聯(lián)網(wǎng)   瀏覽:  次
網(wǎng)上發(fā)現的精典文章,發(fā)出來(lái)與大家分享:網(wǎng)友eleven俊問(wèn):1 robots txt這個(gè)Disallow:后面一半怎么寫(xiě)(請舉例說(shuō)明各種情況,越多越好)2 robots txt怎么指明某個(gè)東西的未知,比如:網(wǎng)站地圖(請將具體的代碼寫(xiě)好)3 robots txt在根目錄下

網(wǎng)上發(fā)現的精典文章,發(fā)出來(lái)與大家分享:

網(wǎng)友eleven俊問(wèn):

1.robots.txt這個(gè)Disallow:后面一半怎么寫(xiě)(請舉例說(shuō)明各種情況,越多越好)

2.robots.txt怎么指明某個(gè)東西的未知,比如:網(wǎng)站地圖(請將具體的代碼寫(xiě)好)

3.robots.txt在根目錄下怎么看?根目錄在管理后臺(發(fā)布跟新文章地方)就可以看,看是空間放源代碼文件得地方,這個(gè)我分不清楚,關(guān)鍵詞排名優(yōu)化,求教?

4.robots還拿哪些問(wèn)題比較重要的,請寫(xiě)下,感謝!

陳中平的回復:

robots.txt是在網(wǎng)站空間根目錄里面. 給樓主提供一篇文章看看:

網(wǎng)站能不能被搜索引擎索引到,除了看有沒(méi)有向搜索引擎入口提交、有否與其他站點(diǎn)交換鏈接等之外,還得看根目錄底下的robots.txt文件有沒(méi)有禁止搜索引擎的收錄,這里摘錄一些關(guān)于robots.txt文件的寫(xiě)法備忘.

什么是robots.txt文件

搜索引擎通過(guò)一種爬蟲(chóng)spider程序(又稱(chēng)搜索蜘蛛、robot、搜索機器人等),自動(dòng)搜集互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取相關(guān)信息.

鑒于網(wǎng)絡(luò )安全與隱私的考慮,搜索引擎遵循robots.txt協(xié)議.通過(guò)在根目錄中創(chuàng )建的純文本文件robots.txt,網(wǎng)站可以聲明不想被robots訪(fǎng)問(wèn)的部分.每個(gè)網(wǎng)站都可以自主控制網(wǎng)站是否愿意被搜索引擎收錄,或者指定搜索引擎只收錄指定的內容.當一個(gè)搜索引擎的爬蟲(chóng)訪(fǎng)問(wèn)一個(gè)站點(diǎn)時(shí),上海SEO,它會(huì )首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果該文件不存在,那么爬蟲(chóng)就沿著(zhù)鏈接抓取,如果存在,爬蟲(chóng)就會(huì )按照該文件中的內容來(lái)確定訪(fǎng)問(wèn)的范圍.

robots.txt必須放置在一個(gè)站點(diǎn)的根目錄下,而且文件名必須全部小寫(xiě).

robots.txt文件的寫(xiě)法

robots.txt文件的格式

User-agent: 定義搜索引擎的類(lèi)型

Disallow: 定義禁止搜索引擎收錄的地址

Allow: 定義允許搜索引擎收錄的地址

我們常用的搜索引擎類(lèi)型有:

google蜘蛛:googlebot

百度蜘蛛:baiduspider

yahoo蜘蛛:slurp

alexa蜘蛛:ia_archiver

msn蜘蛛:msnbot

altavista蜘蛛:scooter

lycos蜘蛛:lycos_spider_(t-rex)

alltheweb蜘蛛:fast-webcrawler

inktomi蜘蛛: slurp

robots.txt文件的寫(xiě)法

User-agent: *    這里的*代表的所有的搜索引擎種類(lèi),*是一個(gè)通配符

Disallow: /admin/ 這里定義是禁止爬尋admin目錄下面的目錄

Disallow: /require/   這里定義是禁止爬尋require目錄下面的目錄

Disallow: /require/ 這里定義是禁止爬尋require目錄下面的目錄

Disallow: /ABC 這里定義是禁止爬尋ABC整個(gè)目錄

Disallow: /cgi-bin/*.htm 禁止訪(fǎng)問(wèn)/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄).

Disallow: /*?* 禁止訪(fǎng)問(wèn)網(wǎng)站中所有的動(dòng)態(tài)頁(yè)面

Disallow: .jpg$ 禁止抓取網(wǎng)頁(yè)所有的.jpg格式的圖片

Disallow:/ab/adc.html 禁止爬尋ab文件夾下面的adc.html所有文件

User-agent: *   這里的*代表的所有的搜索引擎種類(lèi),*是一個(gè)通配符

Allow: /cgi-bin/  這里定義是允許爬尋cgi-bin目錄下面的目錄

Allow: /tmp 這里定義是允許爬尋tmp的整個(gè)目錄

Allow: .htm$ 僅允許訪(fǎng)問(wèn)以".htm"為后綴的URL.

Allow: .gif$ 允許抓取網(wǎng)頁(yè)和gif格式圖片

robots.txt文件用法舉例

例1. 禁止所有搜索引擎訪(fǎng)問(wèn)網(wǎng)站的任何部分

User-agent: *

Disallow: /

實(shí)例分析:淘寶網(wǎng)的 Robots.txt文件

User-agent: Baiduspider

Disallow: /

很顯然淘寶不允許百度的機器人訪(fǎng)問(wèn)其網(wǎng)站下其所有的目錄.

例2. 允許所有的robot訪(fǎng)問(wèn) (或者也可以建一個(gè)空文件 "/robots.txt" file)

User-agent: *

Disallow:

例3. 禁止某個(gè)搜索引擎的訪(fǎng)問(wèn)

User-agent: BadBot

Disallow: /

例4. 允許某個(gè)搜索引擎的訪(fǎng)問(wèn)

User-agent: baiduspider

Disallow: User-agent: *

Disallow: /

例5.一個(gè)簡(jiǎn)單例子

在這個(gè)例子中,該網(wǎng)站有三個(gè)目錄對搜索引擎的訪(fǎng)問(wèn)做了限制,即搜索引擎不會(huì )訪(fǎng)問(wèn)這三個(gè)目錄.

需要注意的是對每一個(gè)目錄必須分開(kāi)聲明,而不要寫(xiě)成 "Disallow: /cgi-bin/ /tmp/".

亚洲永久精品唐人导航网址,亚洲无码视频在线观看,亚洲精品成人久久av,中文字幕人成乱码在线观看,亚州最新无码在线海量高清,成人国产精品免费视频 99av成人精品国语自产拍| 亚洲欧洲国产成人综合在线| 日韩av片无码一区二区不卡| 国产精品午夜福利不卡| 亚洲精品中文字幕无限乱码| 亚洲高清无在码在线电影不卡| 国产熟女AA级毛片www| 亚洲欧洲国产码专区在线观看| 亚洲五码在线播放| 亚洲超碰无码色中文字幕97| 亚洲综合国产一区二区三区| 久久久精品人妻一区二区三区| 中文字幕在线免费网站| 精品人伦一区二区三区蜜桃91| 99国产情在线视频| 国产经典无码在线免费看| 亚洲Va中文字幕无码毛片下载| 亚洲精品久久久久| 国产一区男女男无遮挡| 亚洲AV无码乱码在线观看裸奔| 中文字幕乱码一区av久久| 久久久橹橹橹久久久久高清| 国产69永久免费视频| 亚洲综合色区无码一| 亚洲国产精品久久久天堂| 国产午夜精品AV一区二区| 亚洲欧美日韩一区二区在线观看| 伊人久久大香线蕉av色婷婷色| 亚洲va国产va天堂va久久| 中文字幕v亚洲日本在线电影| 亚洲天天影音先锋综合在线| 在线免费视频一区二区| 在线观看亚洲一区二区| 亚洲中文无码亚洲人成视二区| 久久精品夜夜夜夜夜| 日韩中文字幕在线免费观看| 无码人妻精一区二区三区| 亚洲国产中文精品手机在线观看| 亚洲午夜福利精品| 国产美女视频在线精品| 亚洲成片观看四虎永久| http://bupaisofa.com http://sxfangche.com http://btzhiaoxing.com http://hstianqiao.com http://zwsh88.com http://xiaoqingyi.com