網(wǎng)站只收錄abc.XXX.com,的二級(jí)目錄類域名,不收錄www.xxx.com的怎么辦?應(yīng)該有不少的朋友會(huì)有這樣的困惑,那么如何屏蔽已收錄的不必要二級(jí)目錄呢?本文將提供屏蔽已被百度收錄的不必要二級(jí)目錄的方法供大家了解,希望對(duì)大家有所幫助和啟發(fā)
通常的robots屏蔽就好了,具體如下所示:
User-agent: *
Disallow: /abc/
但是緊接著方法都被一一放棄了,因?yàn)榻y(tǒng)統(tǒng)行不通。因?yàn)樗麄兊木W(wǎng)站所有二級(jí)目錄和主目錄在ftp中都是在同一文件夾下,然后我又總結(jié)了他們網(wǎng)站出現(xiàn)的問題。
1、網(wǎng)站不帶www的二級(jí)域名已經(jīng)收錄過萬,且每日都有蜘蛛爬取,但帶www的主域名至今只收錄二三十個(gè),且還有下降的趨勢(shì),所以想讓網(wǎng)站收錄帶www的主域名頁面。
2、網(wǎng)站所有頁面在同一個(gè)文件夾下無法利用robots屏蔽路徑方式屏蔽頁面。
雖然我在百度查詢了很久但是卻并未查到過多有用信息,大多都是和我第一次給出的答案一樣,但最后我們還是想出了辦法解決了這個(gè)問題,那關(guān)于屏蔽二級(jí)目錄收錄問題,總結(jié)了以下幾點(diǎn)可供選擇:
1、如果需要屏蔽的頁面和主頁面是在不同的文件夾下我們可以直接采取我上面提到的直接robots文件屏蔽,寫法例如Disallow: /abc/之類的直接robots屏蔽方法。
2、無法利用robots禁止搜索引擎收錄某個(gè)二級(jí)域名的,最好的方法就是301,對(duì)于有用的頁面將所有的二級(jí)目錄類域名重定向,無用的就直接刪除。
3、與目錄分配到不同的空間下利用robots屏蔽。
4、個(gè)判斷程序,讓要屏蔽的二級(jí)域名下面有一個(gè)robots.txt文件。abc.xxx.com/robots.txt,然后在利用robots屏蔽。此方法我沒有試過我是看到夫唯老師很久前給別人的一個(gè)建議,就理論而言是可以行的通的。
對(duì)于在網(wǎng)站建設(shè)中如何避免此類不需要收錄的二級(jí)域名我羅列了一下幾點(diǎn)如果有不完善的歡迎大家補(bǔ)充。
1、虛擬主機(jī)時(shí)空間自帶了二級(jí)域名地址且地址已經(jīng)收錄的話最直接的辦法就是站內(nèi)開放的鏈接上要統(tǒng)一url規(guī)范不要給不想收錄的二級(jí)域名任何的入口。
2、須分二級(jí)目錄時(shí),將主目錄和二級(jí)目錄分開在不同的文件夾。
3、名解析時(shí)候直接采用三W的的域名采用主域名。
以上就是對(duì)屏蔽已被百度收錄的不必要二級(jí)目錄的方法全部內(nèi)容的介紹