• <em id="6vhwh"><rt id="6vhwh"></rt></em>

    <style id="6vhwh"></style>

    <style id="6vhwh"></style>
    1. <style id="6vhwh"></style>
        <sub id="6vhwh"><p id="6vhwh"></p></sub>
        <p id="6vhwh"></p>
          1. 国产亚洲欧洲av综合一区二区三区 ,色爱综合另类图片av,亚洲av免费成人在线,久久热在线视频精品视频,成在人线av无码免费,国产精品一区二区久久毛片,亚洲精品成人片在线观看精品字幕 ,久久亚洲精品成人av秋霞

            robotstxt

            更新時間:2023-03-02 10:27:47 閱讀: 評論:0

            robots文件是網站和各大搜索引擎建立良好溝通的橋梁,也是網站從搜索引擎獲得流量的開端第一步,因為robots的設置不當,很有可能會失去很大一部分的流量。對于SEO優化的從業者或者是愛好者,必須要知道其中的原理和設置方法,對于網站管理員及相關的開發技術人員,了解robots.txt文件的設置方法是一項額外加分的工作技能。網上也有很多的相關教程,但總是殘缺不全或難以理解,所以決定詳細的梳理一遍。

            robots.txt的作用是什么?

            robots.txt文件只有一個作用:用于屏蔽一個或多個搜索引擎禁止收錄你網站上的內容。默認情況下網站都是允許任何搜索引擎抓取和收錄頁面的,但出于某種目的,你可以屏蔽某個或多個搜索引擎收錄你網站上的頁面,為了達成這一共識,于是robots協議就順利誕生了,所有的搜索引擎都遵循robots協議。

            每個搜索引擎都一個被稱為蜘蛛(spider)或機器人(bot)的程序,我們習慣上稱之為“蜘蛛”,在決定是否抓取你的網站頁面時,蜘蛛會首先檢查你網站的根目錄里面是否存在robots.txt文件,如果沒有robots.txt則說明是允許全部抓取的;如果存在robots.txt文件,蜘蛛會識別里面有沒有自己的名稱在被拒絕之列,然后再判斷你設置的那些內容是不允許抓取的,再進行網頁的抓取和收錄。

            robots.txt文件的寫法

            基本語法

            默認情況下是整個網站全部允許被任何搜索引擎抓取收錄的,robots.txt只用于禁止搜索引擎收錄,所以只需要添加搜索引擎蜘蛛的名稱(Ur-agent)和disallow(禁止收錄的內容)即可,特殊情況下也可以使用allow語法。

            Ur-agent: *Disallow: /Allow: *.html$#o

            需要注意首字母大寫,冒號后面是英文狀態下的一個空格,用“井號”來表示注釋說明,支持 "*" 匹配0或多個任意字符,"$" 匹配行結束符,對大小寫敏感,所以要注意文件或文件夾的名稱精確匹配,為了搜索引擎能更好地識別robots.txt文件,建議保存編碼設置為ANSI編碼,下面舉例說明各種用法及設置。

            robots.txt各種寫作方法

            1、屏蔽所有的搜索引擎收錄任何頁面

            屏蔽搜索引擎的搜索引擎只需要把ur-agent設置為*即可,如下所示,而disallow后面的斜杠則表示根目錄,自根目錄以下的任何內容均不允許收錄,兩行代碼即可。

            Ur-agent: *Disallow: /2、允許所有的搜索引擎收錄所有頁面

            所有的搜索引擎均允許,可以把robots.txt文件里面的內容全部刪除,即保留一個空文件就行,還可以使用下面的代碼來說明。

            Ur-agent: *Allow: /3、僅允許指定的搜索引擎收錄

            需要把搜索引擎蜘蛛的名稱寫在前面,最后使用*來匹配全部,代碼如下。僅允許百度和谷歌收錄,其他搜索引擎全部禁止。

            Ur-agent: baiduspiderAllow: /Ur-agent: googelebotAllow: /Ur-agent: *Disallow: /

            第5、6兩句是禁止所有的,前面允許了指定的蜘蛛名稱,所以除了被允許的百度和谷歌蜘蛛,其他的搜索引擎都不能收錄的網站頁面了。

            4、禁止指定的搜索引擎收錄

            如果只是想有針對性的屏蔽某個或多個搜索引擎,比如禁止百度和谷歌蜘蛛,寫法如下。

            Ur-agent: baiduspiderDisallow: /Ur-agent: googelebotDisallow: /Ur-agent: *Allow: /

            由于默認是allow狀態的,所以第5句、6句一般不寫。只寫disallow的部分。你可能已經發現了,ur-agent后面只能是具體的蜘蛛名稱或星號,而disallow和allow后面的內容是全站時均使用斜杠而不是其他符合,因為他們后面的是指網站的目錄,所以在指向目錄時就不能使用別的符合,比如“disallow:*”這個寫法就錯了。

            禁止抓取和收錄目錄及文件的寫作語法,下面分別舉例說明。

            1、禁止搜索引擎收錄指定的目錄Ur-agent: *Disallow: /asf/Disallow: /2020/

            上的意思是對于所有的搜索引擎,均禁止收錄asf和2020文件夾里面的任何內容。在屏蔽文件夾時最后要加斜杠結束,如果這樣寫“Disallow: /2020”,結尾沒有加斜杠,則表示根目錄下以2020開頭的網址均被禁止,如/2020.html、/2020abc.html、/2020/df.html均被禁止收錄,所以在寫作disallow屏蔽目錄時千萬不要弄錯了。

            2、允許搜索引擎收錄禁止目錄中的特定URL

            如果屏蔽了某個目錄“df”,但是又希望df這個目錄中指定的網頁被收錄怎么辦,使用下面的語法即可。

            Ur-agent: *Allow: /df/111.htmlAllow: /df/*22c.phpDisallow: /df/

            allow要寫在前面,后面再緊跟著寫屏蔽的目錄名稱。這種寫法比較少用,一般都是直接屏蔽目錄就沒有必要再允許其中的某幾個或某一類url還要被收錄了,上面代碼第2句指允許收錄根目錄df文件夾里面的111.html這個頁面,第3句指允許收錄根目錄df目錄下包含“22c.php”的所有url均允許收錄,第4句是禁止收錄df目錄下的全部url,允許收錄的寫在前面。

            3、使用星號來匹配某一類網址

            星號可以匹配一種類型的網址,極大地提高了設置的方便性,在使用過程中要熟練掌握,SEO優化的設置中如果經常會遇到屏蔽某一類型的網址,使用*就非常常見。

            Ur-agent: *Disallow: /abc/Disallow: /*?*Disallow: /rt/jc*Disallow: /*.phpDisallow: /*ps*

            第3句禁止收錄動態網址,第4句禁止收錄rt目錄下以jc開頭的url,第5句禁止收錄包含“.php”的url(包含以.php結尾的url在內,如h.php、as.php?id=2、dd.php23.html均被禁止),第6句禁止收錄網址中含有“ps”的url。

            4、使用$來匹配URL結束

            如果需要屏蔽某類型結尾的url或文件,此時就需要用到結束匹配符號“$”。

            Ur-agent: *Disallow: /abc/*ty.php$Disallow: /*.php$Disallow: /*.jpg$

            上面第2句禁止收錄abc目錄下以ty.php結尾的url,第3句禁止收錄全站以.php結尾的url,第4句禁止收錄全站jpg格式的圖片??梢钥吹饺绻瞧帘尉唧w的某一類后綴名url則需要以$作為結束。

            5、禁止搜索引擎收錄圖片語法

            禁止收錄網站圖片主要用到$和*匹配符,寫法也是很簡單的。

            Ur-agent: *Disallow: /*.jpg$Disallow: /*.jpeg$Disallow: /*.png$Disallow: /*.gif$

            以上分別是禁止收錄全站jpg/jpeg/png/gif格式的圖片。

            6、只允許搜索引擎收錄靜態頁面Ur-agent: *Allow: /*.html$Disallow: /

            配合allow來使用,禁止收錄全站任何url,然后使用allow來允許收錄以“.html”結尾的url即可。

            以上就是全部robots文件的寫法,其中難點是通配符星號的是用和結束符$的使用,要學會靈活的舉一反三,在每寫完一條記錄時都要確保沒有屏蔽錯url,每行一條記錄。對于robots.txt文件,每一次在寫完之后都認真檢查一遍,寫錯了損失就大了。

            本文發布于:2023-02-28 21:05:00,感謝您對本站的認可!

            本文鏈接:http://www.newhan.cn/zhishi/a/167772406798817.html

            版權聲明:本站內容均來自互聯網,僅供演示用,請勿用于商業和其他非法用途。如果侵犯了您的權益請與我們聯系,我們將在24小時內刪除。

            本文word下載地址:robotstxt.doc

            本文 PDF 下載地址:robotstxt.pdf

            標簽:robotstxt
            相關文章
            留言與評論(共有 0 條評論)
               
            驗證碼:
            Copyright ?2019-2022 Comsenz Inc.Powered by ? 實用文體寫作網旗下知識大全大全欄目是一個全百科類寶庫! 優秀范文|法律文書|專利查詢|
            主站蜘蛛池模板: 久久国产色av免费看| 99久久婷婷国产综合精品| 一区二区中文字幕av| 性人久久久久| 成年午夜免费韩国做受视频| 激情亚洲内射一区二区三区| 久久中文字幕一区二区| 日韩精品a片一区二区三区妖精| 久久婷婷大香萑太香蕉av人| 亚洲色欲色欱WWW在线| 亚洲美腿丝袜无码专区| 夜夜偷天天爽夜夜爱| 日韩中文字幕免费在线观看| 亚洲欧美人成人综合在线播放| 成人国产精品一区二区网站公司| chinesemature老熟妇中国| 久久久av男人的天堂| 国产白嫩护士在线播放| 国产精品一区二区久久| 亚洲综合91社区精品福利| 国产一区二区三区小说| 国精产品一二二线精东| 亚洲精品久久久久国色天香| 欧洲美熟女乱又伦AV影片| 五月天香蕉视频国产亚| 唐人社视频呦一区二区| 国产成人福利在线| 国产91麻豆精品成人区| 国精产品自偷自偷ym使用方法| 久久精品国产久精国产| 国产精品久久久久孕妇| 免费国产小视频在线观看| 亚洲av永久无码精品漫画| 120秒试看无码体验区| 桃花岛亚洲成在人线AV| 欧日韩无套内射变态| 亚洲av乱码一区二区| 国产精品成人av电影不卡| 亚洲国产成人久久综合区| 西西大胆午夜人体视频| 国产色婷婷免费视频|