999国产精品欧美一区二区 ,无码人妻精品一区二区蜜桃色欲,成码无人AV片在线电影网站 ,成人AV在线天堂一区二区三区

學(xué)而時習(xí)之 ● 不亦說乎

讓價(jià)值共享,策劃與設(shè)計(jì),讓品質(zhì)從網(wǎng)站開始被認(rèn)同

在做網(wǎng)站SEO優(yōu)化中robots的寫法
日期:2021-07-13編輯:繁落信息技術(shù)閱讀:4661次標(biāo)簽:robots.txt的寫法,怎么寫robots.txt,生成robots.txt文件,上傳robots.txt文件
robots.txt是搜索引擎中的一個協(xié)議,當(dāng)你的網(wǎng)站有一些內(nèi)容不想給蜘蛛爬取,那可以利用robots.txt來告訴蜘蛛不要去爬取這些頁面,不爬取這些頁面當(dāng)然就不收錄了。
robots.txt是搜索引擎中訪問網(wǎng)站的時候要查看的第一個文件。當(dāng)一個搜索蜘蛛訪問一個站點(diǎn)時,它會首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會按照該文件中的內(nèi)容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網(wǎng)站上所有沒有被口令保護(hù)的頁面。
robots.txt規(guī)則怎么寫
新建一個txt文本,命名為robots.txt,比如說你不想給蜘蛛去爬你網(wǎng)站后臺這個文件夾,那就就這樣寫,該文件放在網(wǎng)站根目錄
 User-agent: *
 Disallow: /admin/
解釋:
 User-agent: * 這個是代表所有搜索引擎
 Disallow: /admin/ 禁止爬取admin這個文件夾
 Disallow: / 代表根目錄所有
 Allow: / 代表允許 例子:比如說你禁止webdesgn文件夾 但是你又想讓他收錄webdesign下的wangzhanjianshe 寫法Allow: /webdesign/wangzhanjianshe/*.html 收錄webdesign下的wangzhanjianshe下的所有html
如果你只想對百度有效,那就這樣寫。User-agent: Baiduspider 這樣只對百度有效,其它搜索引擎不受限制。
搜索引擎蜘蛛的名字:Baiduspider 百度蜘蛛、Googlebot 谷歌蜘蛛、Bingbot 必應(yīng)蜘蛛、360Spider 360蜘蛛、Sogouspider 搜狗蜘蛛
熱點(diǎn)文章
  • 隨著2021年全國渠道盛典的落幕,天津運(yùn)營中心繁落信息技術(shù)斬獲眾多榮譽(yù)及獎項(xiàng),前來寧波總部參會的管理層團(tuán)隊(duì)1月18日興致勃勃來到中國十大影視基地、國家AAAA級景區(qū)——象山影視城
    日期:2021-01-20 瀏覽次數(shù):4661
  • 天津運(yùn)營中心繁落信息技術(shù)在此次盛典斬獲:2020年度【卓越貢獻(xiàn)獎】即全國區(qū)團(tuán)隊(duì)銷售冠軍、在全國130多個運(yùn)營中心中拿下【星級運(yùn)營中心】【服務(wù)之星獎】【2020年度全國區(qū)個人銷售冠軍獎】等眾多榮譽(yù)以及現(xiàn)...
    日期:2021-01-19 瀏覽次數(shù):4661
聯(lián)系我們
CONTACT US
24小時銷售專線:18126531247
24小時投訴專線:15566329639
服務(wù)郵箱:3095625459@qq.com
公司地址:天津市北辰區(qū)普東街都市桃源公寓8-4-107
免費(fèi)為您提供網(wǎng)站建設(shè)方案、外貿(mào)谷歌優(yōu)化推廣方案、SNS社交媒體營銷方案、百度關(guān)鍵詞優(yōu)化方案等....