多多色-多人伦交性欧美在线观看-多人伦精品一区二区三区视频-多色视频-免费黄色视屏网站-免费黄色在线

國內最全IT社區平臺 聯系我們 | 收藏本站
阿里云優惠2
您當前位置:首頁 > web前端 > 網絡優化 > robots.txt和meta name robots的使用與區別

robots.txt和meta name robots的使用與區別

來源:程序員人生   發布時間:2013-11-24 01:47:47 閱讀次數:2259次

搜索引擎和robots.txt到底是什么關系,meta name robots的設定又如何,他們對網站的優化又有什么好處呢?

1.介紹robots.txt。

robots.txt是一個純文本文件,在這個文件中seo可以聲明該網站中不想被robots訪問的部分,

或者指定搜索引擎只收錄指定的內容。

當一個搜索機器人(有的叫搜索蜘蛛)訪問一個站點時,它首先爬行該站點根目錄下是否存在

robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,

那么搜索機器人就沿著鏈接抓取。

其次,robots.txt必須放置在一個站點的根目錄下,而且文件名必須全部小寫。

2.robots.txt寫作語法

首先,我們來看一個robots.txt范例:/robots.txt

訪問以上具體地址,我們可以看到robots.txt的具體內容如下:

# Robots.txt file from
# All robots will spider the domain

User-agent: *
Disallow:

以上文本表達的意思是允許所有的搜索機器人訪問www.wfuwu.com站點下的所有文件。

具體語法分析:其中#后面文字為說明信息;User-agent:后面為搜索機器人的名稱,后面如果是*,則泛指所有的搜索機器人;Disallow:后面為不允許訪問的文件目錄。

下面,我將列舉一些robots.txt的具體用法:

允許所有的robot訪問

User-agent: *
Disallow:

或者也可以建一個空文件 “/robots.txt” file

禁止所有搜索引擎訪問網站的任何部分

User-agent: *
Disallow: /

禁止所有搜索引擎訪問網站的幾個部分(下例中的01、02、03目錄)

User-agent: *
Disallow: /01/
Disallow: /02/
Disallow: /03/

禁止某個搜索引擎的訪問(下例中的BadBot)

User-agent: BadBot
Disallow: /

只允許某個搜索引擎的訪問(下例中的Crawler)

User-agent: Crawler
Disallow:

User-agent: *
Disallow: /

生活不易,碼農辛苦
如果您覺得本網站對您的學習有所幫助,可以手機掃描二維碼進行捐贈
程序員人生
------分隔線----------------------------
分享到:
------分隔線----------------------------
關閉
程序員人生
主站蜘蛛池模板: 亚洲成人黄色网 | 欧美黑人巨大最猛性xxxxx | 国产免费亚洲 | 亚洲最大福利视频 | 日本护士xxxx0000 | 欧美videofree高清杂交 | 日韩一区二区三区四区不卡 | 最近中文字幕最新在线视频 | 伊人久久精品 | 韩国三级午夜理伦三级99 | 国产精品亚洲精品一区二区三区 | 国产一区二区三区久久精品 | 国产成人久久久精品毛片 | 黄色网址大全免费 | 91久久人澡人人添人人爽 | 亚洲日韩精品欧美一区二区 | 亚洲xxxxxx | 国产午夜精品不卡观看 | 日本网络视频www色高清免费 | 一级做a爰全过程免费视频毛片 | 午夜亚洲国产理论秋霞 | 欧美异族性hdsex在线播放 | 图片区小说区欧洲区 | 国产欧美亚洲专区第一页 | 又硬又大又湿又紧a视频 | 2020久久国产最新免费观看 | 看欧美毛片一级毛片 | 日韩欧美视频一区二区在线观看 | 亚洲成人一级 | 亚洲免费成人 | 亚洲妇人成熟性成熟网站 | 一区二区三区免费视频 www | 最好看的最新中文字幕2018免费视频 | 日韩国产精品99久久久久久 | 女人天堂网在线观看2019 | 性刺激欧美三级在线观看 | 亚洲一区二区三区四区在线观看 | 亚洲精品456在线播放 | a级片毛片 | 欧美激情福利 | 亚洲人人爱 |