【求助】請問如何下載整個網站內容



贊助商連結


dennis_hpc
2002-12-08, 09:27 PM
有哪位大大可以告訴小弟
該如何下載整各網站內容?
是使用續傳軟體嗎?
或是FTP或是其他更好用的軟體?
其步驟又為何?有限制嗎?
煩請告知.........thanks a lot

贊助商連結


pobro
2002-12-09, 02:39 AM
你好

你需要的軟體 應該是Teleport pro 這個東西
可以讓你輸入你需要抓下來的網頁
然後設定一下需要的層數 1-65500
按下 -開始-就可以慢慢的等它抓下來了
不過需要注意一下 網頁的起始位置需要確定一下
(這點應該不阻礙你)

就這個啦...到Toget 或是 軟體王都可以下載試用版

Schnaufer
2002-12-09, 02:45 AM
  砍站軟體真的蠻好用的,不過各有各的限制,要去讀讀它們的說明檔才知道。

  一般好像都會設定最大下載檔案為 65535 個,如果該網站所包含的檔案太多,那就要設定多個 job 才能完成整個網站的抓取。

dennis_hpc
2002-12-09, 07:29 AM
:jump: 非常好用
謝謝

pobro
2002-12-12, 11:34 AM
最初由 Schnaufer 發表
  砍站軟體真的蠻好用的,不過各有各的限制,要去讀讀它們的說明檔才知道。

  一般好像都會設定最大下載檔案為 65535 個,如果該網站所包含的檔案太多,那就要設定多個 job 才能完成整個網站的抓取。

請問要怎麼樣設定多個JOB...那又應該從何處分咧??

目前有使用的砍站軟體 像是Teleport Pro ;Offline Explorer ;Webzip
感覺都相當好用,如果交互使用的話,幾乎所有的站點都可以下來
不過軟體都會分成一大堆的來源資料夾...光想要找INDEX都是麻煩事情
(如果忘記了的話).

另外想要請問 Schnaufer網友
這一些軟體都可以更新所抓的資料嗎?那軟體更新的時候,是不是等於又要瀏覽所有的網頁一遍(重新讀取). 降子真的相當慢的說...
謝謝您 Schnaufer :)

Schnaufer
2002-12-12, 07:03 PM
  說真的,我也沒見過所有的砍站軟體,只是微軟的離線瀏覽與 Teleport Pro 真的是只能抓到 65,535 個檔案,如果是要抓龐大的網站,理論上一定會超過的。至於要如何分 job,一部份看經驗吧!另一部份你可以先抓連結但不抓檔案,也就是試抓一下,再來作處理。

  至於各軟體的功能,真的只能去看看他們軟體的說明檔或是公司的產品網頁才知道。更新時還有幾種選擇的樣子。有空自己動動手就會更了解了,許多軟體都有試用版可以下載使用。