dennis_hpc
2002-12-08, 09:27 PM
有哪位大大可以告訴小弟
該如何下載整各網站內容?
是使用續傳軟體嗎?
或是FTP或是其他更好用的軟體?
其步驟又為何?有限制嗎?
煩請告知.........thanks a lot
贊助商連結
該如何下載整各網站內容?
是使用續傳軟體嗎?
或是FTP或是其他更好用的軟體?
其步驟又為何?有限制嗎?
煩請告知.........thanks a lot
贊助商連結
贊助商連結 dennis_hpc 2002-12-08, 09:27 PM 有哪位大大可以告訴小弟 該如何下載整各網站內容? 是使用續傳軟體嗎? 或是FTP或是其他更好用的軟體? 其步驟又為何?有限制嗎? 煩請告知.........thanks a lot 贊助商連結 pobro 2002-12-09, 02:39 AM 你好 你需要的軟體 應該是Teleport pro 這個東西 可以讓你輸入你需要抓下來的網頁 然後設定一下需要的層數 1-65500 按下 -開始-就可以慢慢的等它抓下來了 不過需要注意一下 網頁的起始位置需要確定一下 (這點應該不阻礙你) 就這個啦...到Toget 或是 軟體王都可以下載試用版 Schnaufer 2002-12-09, 02:45 AM 砍站軟體真的蠻好用的,不過各有各的限制,要去讀讀它們的說明檔才知道。 一般好像都會設定最大下載檔案為 65535 個,如果該網站所包含的檔案太多,那就要設定多個 job 才能完成整個網站的抓取。 dennis_hpc 2002-12-09, 07:29 AM :jump: 非常好用 謝謝 pobro 2002-12-12, 11:34 AM 最初由 Schnaufer 發表 砍站軟體真的蠻好用的,不過各有各的限制,要去讀讀它們的說明檔才知道。 一般好像都會設定最大下載檔案為 65535 個,如果該網站所包含的檔案太多,那就要設定多個 job 才能完成整個網站的抓取。 請問要怎麼樣設定多個JOB...那又應該從何處分咧?? 目前有使用的砍站軟體 像是Teleport Pro ;Offline Explorer ;Webzip 感覺都相當好用,如果交互使用的話,幾乎所有的站點都可以下來 不過軟體都會分成一大堆的來源資料夾...光想要找INDEX都是麻煩事情 (如果忘記了的話). 另外想要請問 Schnaufer網友 這一些軟體都可以更新所抓的資料嗎?那軟體更新的時候,是不是等於又要瀏覽所有的網頁一遍(重新讀取). 降子真的相當慢的說... 謝謝您 Schnaufer :) Schnaufer 2002-12-12, 07:03 PM 說真的,我也沒見過所有的砍站軟體,只是微軟的離線瀏覽與 Teleport Pro 真的是只能抓到 65,535 個檔案,如果是要抓龐大的網站,理論上一定會超過的。至於要如何分 job,一部份看經驗吧!另一部份你可以先抓連結但不抓檔案,也就是試抓一下,再來作處理。 至於各軟體的功能,真的只能去看看他們軟體的說明檔或是公司的產品網頁才知道。更新時還有幾種選擇的樣子。有空自己動動手就會更了解了,許多軟體都有試用版可以下載使用。 |
|