<address id="htblt"></address>

        <form id="htblt"><span id="htblt"><nobr id="htblt"></nobr></span></form>

        ? ? ? ?前面講了許多關于站內優化的相關的內容,今天小編要分享的內容就是文件優化。做網站優化的人應該都知道Robots.txt吧,我們可以通過它直接與搜索引擎蜘蛛對話,告訴蜘蛛哪些內容可以抓取,哪些內容不能抓取。這和我們今天要說的文件優化相關。 ? ? ? ?Robot.txt用法詳解及robot.txt問題匯總? ? ? ????(1)為什么設置Robots.txt?? ? ? ? ?在進行SEO操作的時候,我們需要告訴搜索引擎哪些頁面重要哪些頁面不重要,重要的頁面讓蜘蛛進行抓取,不重要的頁面進行屏蔽可以減少網站服務器的負擔。? ??? ? ??(2)一些常見的問題和知識點? ? ? ? ?蜘蛛在發現一個網站的時候,第一步是抓取網站的Robots.txt文件(當然官方上是這么說的,有時候也會出現不遵守的情況);? ? ? ? ?建議所有的網站都要設置Robots.txt文件,如果你認為網站上所有內容都是重要的,你可以建立一個空的robots.txt文件;? ??? ? ??(3)在robots.txt文件中設置網站地圖? ? ? ? ?你可以在robots.txt中添加網站的地圖,告訴蜘蛛網站地圖所在的地址。? ? ? ????(4)Robots.txt的順序? ? ? ? ?在蜘蛛協議中,Disallow 與 Allow是有順序的,這是一個非常重要的問題,如果設置錯誤可能會導致抓取錯誤。? ? ? ? ?引擎蜘蛛程序會根據第一個匹配成功的Allow或Disallow行確定是否訪問某個URL,一個例子可以讓你更清楚明白:? ? ? ? ?User-agent: * 2.Allow: /seojc/bbs 3.Disallow: /seojc/ 這個情況下,蜘蛛/seojc/bbs目錄可以正常抓取,但/seojc/目錄的文件無法抓取。通過這種方式可以允許蜘蛛訪問特定目錄中的部分url。? ? ? ? ?我們對調下位置觀察一下。? ? ? ? ?User-agent: * 2.Disallow: /根目錄下的文件夾/ 3.Allow: /seojc/bbs /seojc/目錄出現在第一行,禁止抓取目錄下的所有文件,那么第二行的Allow就無效,因為第一行中已經禁止抓取seojc目錄下的所有文件,而bbs目錄正好位于seowhy目錄下。因此匹配不成功。? ? ? ????(5)Robots.txt路徑問題? ? ? ? ?在蜘蛛協議中,Allow和Disallow后面可以跟兩種路徑形式,即絕對鏈接、相對鏈接。絕對鏈接就是完整的URL形式,而相對鏈接只針對根目錄。這是重點記住。? ? ? ? ??(6)斜杠問題? ? ? ? ?Disallow: /seojc表示禁止抓取seoic這個目錄下的所有文件,如:seojc.1.html、seojc/rmjc.php都不允許抓取;? ? ? ? ?Disallow: /seojc/ 表示禁止抓取seojc這個目錄下的文件,即允許抓取seojc.1.html,但是不允許抓取seojc/rmjc.php。? ? ? ? ?綜上所述,上面就是小編要和大家分析的站內優化之文件優化,看完你是不是大吃一驚,不知道原來這其中有這么多奧妙。其實關于站內優化相關知識遠不止這些,下次有機會再給你們分享點其他的。好了,今天就先給大家分享到這里。? 關鍵詞: 站內優化

        首頁
        SEO培訓
        SEO優化
        国产成人亚洲精品无码青-亚洲黄色成人网站-日本真人式72式视频免费-国产免费人成xvideos视频-尤物视频入口-日韩精品视频在线观看_