【轉貼】建議大家把百度搜尋機器人封鎖,免得浪費頻寬和流量



贊助商連結


頁 : 1 [2]

kyo73113
2006-07-09, 07:49 PM
我.htaccess內容設定成
SetEnvIf User-Agent ^Baidu baidu
Deny from env=baidu

這樣可以嗎

贊助商連結


darwinnis
2006-11-12, 05:14 AM
我在robots.txt禁止了百度.結果他換了許多不同的ip繼續來稍擾我.每天砍我400mb的流量.202.108.22.142

唉~ 真不知該何防堵他..... 若是正常會員瀏覽而超出流量也就算了.我每月只有10G的流量而已阿~

我看到的寫法是這樣的.不知有何差別

SetEnvIf User-Agent ^Baiduspider badrobot

<Files *>
Order allow,deny
Allow from all
Deny from env=badrobot
</Files>

阿 土
2007-01-20, 09:02 PM
我在robots.txt禁止了百度.結果他換了許多不同的ip繼續來稍擾我.每天砍我400mb的流量.202.108.22.142

唉~ 真不知該何防堵他..... 若是正常會員瀏覽而超出流量也就算了.我每月只有10G的流量而已阿~

百度對 robots.txt 是視若無睹的 , 放那個沒用

我的主機持續被百度一直上來瘋狂的抓資料 , 以下這兩個 IP
61.135.145.216
202.108.22.142

用 .htaccess 那招是可以讓它一直 403 deny
不過實在很煩 , 乾脆用防火牆直接 deny 這兩個 IP 與我連線