尋找抓網站的軟體!



贊助商連結


cit0316
2003-01-30, 02:06 AM
有沒有軟體能把整個網站下個檔案全抓回來的!
但每個檔案間都沒做連結,單是單獨的檔案,
Teleport Pro好像是利用連結去抓,沒有連到的就不知道
我只需要抓htm,jpg,gif檔,我知道asp跟cgi需要伺服器的抓不回來!
希望大家幫個忙!

贊助商連結


pobro
2003-01-30, 04:14 PM
應該是沒有辦法像你所說的,全部是獨立的檔案

我目前用的心得是

1.Webdup-
這是對岸的同胞所研發的軟體,可以選擇所要下載的層數(由此可見,是依循連結來作關聯的)
但是他有一個比較特別的地方,就是他可以選擇你想要抓的東西,比如說(exe;jpg;zip...極多)
其他的不用多講,上述的應該是可以"大約"符合你的需求
2.HTTrack Website Copier
這個軟體,到Toget就很好找,是一個作鏡像站的工具軟體,會要求你使用的時候開啟網路
這軟體可以選擇將所下載回來的資料分成"數種"存放格式
如: 依照網站架構(預設);將網頁放在A資料夾,圖片程式放在B資料夾...等數種

不好意思,根據我的使用經驗,似乎沒有可以同時達到你的要求...

pobro
2003-01-30, 04:15 PM
最初由 pobro 發表
應該是沒有辦法像你所說的,全部是獨立的檔案

我目前用的心得是

1.Webdup-
這是對岸的同胞所研發的軟體,可以選擇所要下載的層數(由此可見,是依循連結來作關聯的)
但是他有一個比較特別的地方,就是他可以選擇你想要抓的東西,比如說(exe;jpg;zip...極多)
其他的不用多講,上述的應該是可以"大約"符合你的需求
2.HTTrack Website Copier
這個軟體,到Toget就很好找,是一個作鏡像站的工具軟體,會要求你使用的時候開啟網路
這軟體可以選擇將所下載回來的資料分成"數種"存放格式
如: 依照網站架構(預設);將網頁放在A資料夾,圖片程式放在B資料夾...等數種

不好意思,根據我的使用經驗,似乎沒有可以同時達到你的要求...


唉...一發表完就發現自己錯了

我所說的第二種砍站程式HTTrack Website Copier,就可以達到你的要求,可以單獨下載你所想要的東西...

程式裡面寫的很清楚~~~;)

如果你是要抓圖片的話,就用Webdup吧.

cit0316
2003-01-30, 06:57 PM
謝謝pobro,我過完年後來玩看看!