scsi to ide橋接器能夠獲得多少的scsi feature??



贊助商連結


頁 : [1] 2

0936010
2001-04-26, 05:16 PM
scsi to ide橋接器能夠獲得多少的scsi feature??

事實上大家說的ide轉scsi卡工作原理不是ide to scsi,正確說法的是scsi to ide,它是利用轉卡上的scsi to ide橋接器﹙設計成單顆積體電路ic﹚,將scsi的資料透過橋接器轉到所連接的ide裝置上,而這個橋接器就負責了scsi介面的傳輸與scsi/ide command的轉換,而轉接後的裝置scsi介面傳輸效能與scsi feature的支援全看這橋接器了,而裝置的壽命、整體效能、穩定性則與機器本身設計有關,是不變的,並不因為轉成是scsi就會較好。

我今天去看了一本scsi的書,文中提到i/o交錯的部分,也就是scsi bus如何達到多工的部分,有兩種方法可以達到bus能夠妥善運用時間,不因周邊忙碌而中斷服務,白白等待。

這兩種方法是﹙1﹚disconnect與reconnect﹙2﹚tagged command queuing,這兩個feature都是ide介面所沒有的,也就是大家說ide多工不佳的原因之一,但是也不是所有的scsi週邊裝置都有這個feature,一些設計較低階的scsi週邊就可能沒有這些feature。我只知道adaptec的ez-scsi軟體可以測出你的scsi裝置是否有支援這些feature。

所以就scsi bus來說,scsi bus的多工是無庸置疑的...實驗呢?利用adaptec的ez-scsi軟體附的scsi-bench可以測出多裝置同時動作的各種讀出效能。

因為我沒有真scsi的周邊裝置,所以想請大家一起測測...還請各位幫忙...測測真scsi的硬碟及光碟機的支援情形。

就我的scsi to ide轉卡用ez-scsi軟體附的scsi explorer看各轉接裝置的scsi feature支援情形,它在接光碟機的部分﹙不管接哪種光碟機都一樣﹚僅支援「同步傳送」,而硬碟部分則支援了「同步傳送」、「tagged command queuing」,其他的linked commands、ralative addressing、soft reset則顯示不支援。

以下是我多次寄e-mail到acard﹙www.acard.com﹚的技術支援部詢問的結果,大家參考參考吧!﹙已整理過﹚

---------------------------------------------------------

Q→請問aec-7720u支不支援﹙1﹚disconnect與reconnect﹙2﹚tagged command queuing
A→都有,但是只有接 HD 才支援tagged command queuing!

Q→我用aec-7720u接任何的光碟機,ez-scsi都回報不支援tagged command queuing、linked commands、ralative addressing、soft reset。
A→通常只有 HD 才支援 Queue。Link Command 不支援,但也很少會使用到。ralative addressing 只要 SCSI command 下過來都能正確轉換。Soft reset 有轉換成對應的 IDE reset。

Q→光碟機不支援 Queue,那是不是就是說用scsi to ide橋接器接光碟機不會獲得scsi bus的多工效益呢?
A→Disconnect與reconnect是一定要支援的! 所以還是有多工,但要看您怎麼用而已。

Q→請問貴公司有沒有打算出其他更高速的scsi to ide轉接卡,例如ultra 2 wide、ultra 160的轉接卡呢?
A→目前已在設計中,會在適當的時機推出,Ultra Wide 在許多時候已夠用了,端看使用者的需求。除非您架 Server,不然有誰每天一直都 40MB/Sec 連續存取呢?對您的幫助應是在可以外接及 CPU loading 比較低方面。

Q→經過aec7720轉接後的HD裝置似乎不支援scsi write cache及read cache?
A→Cache 並不屬於轉卡所負責的部分,HD 自己有 cache 的演算法,OS 也有上層的 cache。轉卡不管這些也管不了,只負責 SCSI 與 IDE 的指令轉換。

Q→aec7720u好像不完全支援部分IDE的DVD裝置是嗎?因為有時怪怪的。
A→我們建議的週邊是 HD 和 光碟機﹙有限定品牌﹚,其他的週邊並不是完全不行,但希望是有代理商配合某款機種來搭售,這種情況請參考網友的使用方式及使用經驗。但我們是不保證這樣的週邊都能正常的,畢竟 SCSI & IDE 特性不同,有些 IDE 週邊並不是能很穩定的轉換過來!如果代理商希望我們支援他們的產品也會跟我們聯繫一起合作,這對使用者才是好的。

Q→不過貴公司似乎並沒有在台灣大量舖貨?也沒有正式的銷售通路,因為一般市面上並沒有看到貴公司的產品販售,我是從網路﹙www.pctoday.com.tw﹚線上購得的,但也沒有單獨賣scsi轉卡,實在可惜。
A→之前都是在日本及歐美大量的出貨,國內一直沒有代理商能適當的配合。

Q→希望scsi轉卡能夠更廣泛的支援燒錄器,尤其近來許多燒錄器廠商都已不出scsi的燒錄器,讓許多支持該廠牌的使用者寒心,希望貴公司能與各大燒錄器代理商聯繫合作,以支援更多的燒錄器可供轉接。
A→這都在進行中,燒錄方面相容性較好的有Easy CD Creator,Nero 較新的版本也解決了一些問題,相信以後轉接卡的相容性會漸漸受到重視,目前只有接 ACARD 的卡有較好的相容性,但只要燒錄軟體能修改一小部份就可能連接 AHA 的卡也能正常燒錄,和我們自行研發的Ha! CD Burner一樣都可以完全支援。

---------------------------------------------------------

就acard工程人員的回答可以知道,scsi to ide橋接器能支援完整常用的scsi feature及scsi指令集,但scsi to ide橋接器接ide裝置真的可以獲得scsi的多工效益嗎?實驗說明了還是有的,我用Adaptec EZ-SCSI 4.0軟體附的scsi bench去測2台轉接後的光碟機對照未轉接時的數據可以知道,轉接scsi後的2台光碟機其隨機讀取效能未因在同一條bus上同時動作而稍有降低,而接在ide時的效能卻因i/o交錯耗用ide bus資源而大幅下降﹙DMA已開啟﹚,不過2台同時作循序讀取時無論是scsi還是ide介面都會因慢速的裝置而降低bus頻寬;而轉接scsi的ide硬碟實測的部分,我在後面一點的文章有說明,一樣還是具有bus的多工效能的。

圖一:ide介面 聯積50x隨機獨測
http://home.pchome.com.tw/internet/0936010/i1.jpg

圖二:ide介面 先鋒16x dvd隨機獨測
http://home.pchome.com.tw/internet/0936010/i2.jpg

圖三:ide介面 聯積50x、先鋒16x dvd同時隨機測試
http://home.pchome.com.tw/internet/0936010/i3.jpg

圖四:ide介面 聯積50x循序獨測
http://home.pchome.com.tw/internet/0936010/i4.jpg

圖五:ide介面 先鋒16x dvd循序獨測
http://home.pchome.com.tw/internet/0936010/i5.jpg

圖六:ide介面 聯積50x、先鋒16x dvd同時循序測試
http://home.pchome.com.tw/internet/0936010/i6.jpg

圖七:轉scsi介面 先鋒16x dvd隨機獨測
http://home.pchome.com.tw/internet/0936010/s1.jpg

圖八:轉scsi介面 聯積50x隨機獨測
http://home.pchome.com.tw/internet/0936010/s2.jpg

圖九:轉scsi介面 聯積50x、先鋒16x dvd同時隨機測試
http://home.pchome.com.tw/internet/0936010/s3.jpg

圖十:轉scsi介面 先鋒16x dvd循序獨測
http://home.pchome.com.tw/internet/0936010/s4.jpg

圖十一:轉scsi介面 聯積50x循序獨測
http://home.pchome.com.tw/internet/0936010/s5.jpg

圖十二:轉scsi介面 聯積50x、先鋒16x dvd同時循序測試
http://home.pchome.com.tw/internet/0936010/s6.jpg

贊助商連結


DS
2001-04-26, 09:47 PM
看來你買電腦硬體時都是以雜誌上的測試數據為方向吧?
我還是覺得這麼測試沒什麼意義...:rolleyes:

>>scsi to ide橋接器能支援完整常用的scsi feature及scsi指令集
倒是這項比較有參考價值...
抓圖給你參考看看好了....
軟體為EZ-SCSI 5.0

http://home.kimo.com.tw/ds00001/For_Idiot/1-1.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/1-2.jpg
這裡記錄了你的HDD出場時被廠商"暗坎"了多少壞軌,另一項則是後來"產生"的壞軌..
不曉得你用了那"scsi to ide橋接器"後,此一項目是否能顯示...
http://home.kimo.com.tw/ds00001/For_Idiot/1-3.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/1-4.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/2-1.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/2-2.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/2-3.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/2-4.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/3-1.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/3-2.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/4-1.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/4-2.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/5-1.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/5-2.jpg


還有這項...
Disk Cache部份...
是否能開啟或關閉...
http://home.kimo.com.tw/ds00001/For_Idiot/6-1.jpg
http://home.kimo.com.tw/ds00001/For_Idiot/6-2.jpg

TIM
2001-04-26, 11:55 PM
兩位大大辛苦了..雖然說小弟一看到那麼多文字與圖片.就.@_@.昏了..但是還是要感謝兩位大大對硬體的執著與耐心..才能使身在這裡的人們獲得無遠佛屆的知識..謝謝你們對pczone的灌溉..謝謝..

p.s..很討厭那些無故淺水的人~~~不然就是都不貢獻..來這只想拿的人

0936010
2001-04-27, 09:16 AM
接著我們換到IDE的角度來看多工處理的問題,有網友提到某些ide擴充卡具有tagged command queuing,但是ide有了tagged command queuing,能在2台裝置同通道同時作繁多的搜尋、讀取的i/o時,不會拖累效能嗎?

答案是tagged command queuing並無太大效果...真正的多工切換效率取決於SCSI的disconnect與reconnect功能,實測如下:

﹙★實驗使用支援tagged command queuing的HIGH POINT-HPT370 IDE ATA100卡與2台IDE IBM DTLA 7200RPM硬碟 ,並已開啟通道的DMA功能﹚

ide裝置同通道2台硬碟裝置獨自讀取時
http://home.pchome.com.tw/internet/0936010/ud1.jpg
http://home.pchome.com.tw/internet/0936010/ud2.jpg
ide裝置同通道2台硬碟裝置作繁多的搜尋、讀取時
http://home.pchome.com.tw/internet/0936010/ud3.jpg
轉scsi裝置同通道2台硬碟裝置獨自讀取時
http://home.pchome.com.tw/internet/0936010/sd1.jpg
http://home.pchome.com.tw/internet/0936010/sd2.jpg
轉scsi裝置同通道2台硬碟裝置作繁多的搜尋、讀取時
http://home.pchome.com.tw/internet/0936010/sd3.jpg

可以明顯看出ide裝置同通道2台硬碟裝置作繁多的搜尋、讀取時的效能是獨自運作的一半左右,而轉scsi裝置同通道2台硬碟裝置作繁多的搜尋、讀取時的效能是獨自運作的9成以上,明顯看出一樣的硬體裝置於scsi/ide bus動作的優劣,這是由於scsi bus的disconnect的作用,scsi bus會將忙碌中的裝置暫時離線,空出傳輸權讓其他裝置先行動作,待該裝置恢復提出要求傳輸時,bus再給予reconnect上線動作,這個做法有效的讓bus能達到不等待週邊的狀態。
但ide bus上的裝置既然無法擁有disconnect的優點,那有何方法與在scsi bus上的裝置一樣享有較好的多工效能呢?有的,雖不是直接的方法,但也能使ide裝置在多裝置運作時,不因作繁多的搜尋、讀取而大大的減低效能,那就是一個ide通道只接一個裝置,以多個ide通道來連接多個裝置,並開啟通道的DMA功能,以降低傳輸時CPU的使用率,且這個100MB/S的ULTRA DMA-100 IDE BUS頻寬是一個裝置獨享,不會有其他裝置互搶,就算是一條bus因裝置忙碌而癱瘓,其他的裝置也因是裝在其他的bus上而不會影響,各裝置的總和最大頻寬是PCI BUS的133MB/S,但缺點就是需要很多組ide port。

ide裝置不同通道2台硬碟裝置獨自讀取時
http://home.pchome.com.tw/internet/0936010/ud5.jpg
http://home.pchome.com.tw/internet/0936010/ud6.jpg
ide裝置不同通道2台硬碟裝置作繁多的搜尋、讀取時
http://home.pchome.com.tw/internet/0936010/ud4.jpg

由上圖可知不同通道2台硬碟裝置作繁多的搜尋、讀取時不互相干擾,會將各機的性能發揮到最大,而同時的循序讀取,也是不互相干擾的,也就不列圖說明了。

但一般的個人電腦只有2個ide port,就算是外加ide擴充卡也只有總共4個port,這整台電腦就只能接4個獨立裝置了,不合玩家們的需要,光燒錄器、CD光碟機、DVD光碟機就已用去3個port,那硬碟只能接一台了,根本不夠!
問題的解決就是插多張ide擴充卡,可不可以同時插上2張以上的同廠牌ata100卡呢?或是同時插上2張以上不同廠牌的ata100卡呢?有沒有人試過呢??下次的實測會說明這點。不過值得一提的是PROMISE公司已作出單卡6-IDE通道的陣列卡了,卡上還內建16MB CACHE RAM及66MHz的I960RD RISC CPU呢!

timas
2001-04-27, 03:54 PM
0936010 兄
就是我在另一個主題裡跟你回應多次的 跟你說 IDE有 Device support tag queue command. 還有 D isconnect / Reconnect 的 Timas.
看來你真的很有心 做了不少實驗 不知道你從事哪中工作
有興趣的話 我們還可以討論一下如何從系統的規劃中來增進系統效能 當然是依照各項規格中去找的 而不是憑感覺 各說各話

0936010
2001-04-29, 03:00 PM
原始作者是 : timas
0936010 兄
就是我在另一個主題裡跟你回應多次的 跟你說 IDE有 Device support tag queue command. 還有 D isconnect / Reconnect 的 Timas.
看來你真的很有心 做了不少實驗 不知道你從事哪中工作
有興趣的話 我們還可以討論一下如何從系統的規劃中來增進系統效能 當然是依照各項規格中去找的 而不是憑感覺 各說各話



但是我還想實驗ide除了可以使用多通道來達成同時多裝置存取...是否還可以在前景再執行程式而不失效能,因為大多數人還是認為ide的工作還是依賴cpu,但ide也引進了如scsi一般的dma的存取技術,將資料傳送交給dma控制器處理,難道ide還是會依賴cpu做工作嗎?...不過不知有何軟體可以測試...

timas
2001-04-29, 09:04 PM
但是我還想實驗ide除了可以使用多通道來達成同時多裝置存取...是否還可以在前景再執行程式而不失效能,因為大多數人還是認為ide的工作還是依賴cpu,但ide也引進了如scsi一般的dma的存取技術,將資料傳送交給dma控制器處理,難道ide還是會依賴cpu做工作嗎?...不過不知有何軟體可以測試... [/B][/QUOTE]

PIO Mode - 這種模式 需要CPU的全程參與 沒辦法作別的事情
當從硬碟讀取資料時 硬碟會發出一個中斷 告訴系統資料已經準備好 系統就一筆一筆的讀進來
DMA Mode - CPU 不需要參與資料傳輸
當從硬碟讀資料時 Controller 會把資料讀進系統記憶體 然後再發一個中斷 告訴系統資料已經準備好 CPU可以在等待的時喉 繼續做其他的工作 系統表現的比較順暢
影響效能的因素 不外就是 傳輸區塊大小 和系統反應速度
重整過的硬碟 傳輸區塊大小可以接近最大 傳送的次數減少 加上SEEK TIME也都減少 假設有一檔案五百K 硬碟的CLUSTER 是32K 一次傳輸最大是128K 最好的情況下是 一次SEEK 四次傳輸 最差就是 16次SEEK 16次傳輸
另外就是 系統反應速度 每次傳輸 都需要做一些設定 所以既使是DMA 也是要消耗CPU 的 Win2k的ACPI 會把大部分中斷都設定成同一個 當中斷發生時 系統會讓每一個驅動程式去決定 這個中斷是誰的 而IDE固定是用14和15 驅動程式不需要判斷 因為一定不會分享 有中斷就一定是他的 所以如果你的SCSI或是IDE RAID 和許多的裝置共享同一個中斷 那效能就很糟糕了 (低速裝置比較沒差) 所以我就把系統的省電模式設成APM 挑一個不和人共享中斷的PCI SLOT 這樣 我的IDE RAID 才發揮了應有的效能
我的測試如下 (一個600MB的AVI FILE 從RAID 拷貝到 IDE 上)
1. 100 Sec (USB SMBUS AC97 SCSI RAID 1394Card LAN 共用中斷 )
2. 40 Sec (Disable USB AC97 SCSI 1394Card LAN ,只留RAID SMBUS)
3. 23 Sec (APM RAID 獨享一個中斷 )

0936010
2001-04-29, 09:29 PM
我也做了一個小小的測試...

用adaptec的thread-MARK測試多硬碟裝置同時動作的cpu佔用率...

scsi與ide raid卡都是共用irq-11、dma開啟、os為winme、ide裝置為不同通道、scsi裝置為同一通道...

結果cpu佔用率分別是ide單機是33%、scsi單機是24%,ide雙機是54%、scsi雙機是33%,若是用板上獨立使用irq的2個ide port各接一顆硬碟作測試的話,即使打開dma還是有60.4%的cpu佔用率...

不過一但多裝置的話,似乎scsi還是較佔優勢?為何呢?是由於scsi的控制晶片有內建risc的微處理器嗎﹙scsi卡的說明書都會說bulid in 32-bit risc processror﹚?

timas
2001-04-30, 08:58 AM
我也做了一個小小的測試...用adaptec的thread-MARK測試多硬碟裝置同時動作的cpu佔用率...scsi與ide raid卡都是共用irq11、dma開啟、os為winme、ide裝置為不同通道、scsi裝置為同一通道...結果cpu佔用率分別是ide單機是33%、scsi單機是24%,ide雙機是50%、scsi雙機是33%,下次再試試更多的裝置囉...不過一但多裝置的話,似乎scsi還是較佔優勢??為何呢?? [/B][/QUOTE]

IDE HDD 的最大傳輸區塊是128K 我不知道是不是每個廠牌都一樣支援到
SCSI HDD 可以允許較大的區塊傳輸
如果以同一個大小的資料做傳輸測試 以較大區塊傳輸 IDE可能需要較多次的準備工作 CPU的使用率便會提高
當然 SCSI 和IDE 的工作的執行碼不一樣 使用率也會有差別的
要知道這些差別 你可以去找計算系統中斷數量的程式 這樣你就可以知道 數量的差異 和每次中斷的執行時間

0936010
2001-04-30, 01:57 PM
最新發現...timas不知你有沒有發現我的測cpu使用率的測試有一個不公平的地方...ultra scsi的頻寬為20mb、ultra dma-100/66/33為100/66/33mb,ultra scsi都比ultra dma的頻寬要低許多,自然資料的傳輸量就不大,既然傳輸量不高,自然cpu的使用率也低呀!難怪ide-dma方面的cpu的使用率一直高過scsi,所以我將ide卡上的傳輸模式降低與ultra scsi接近的值再試試的結果是...有相當大的改善...

新測試值:

1.hpt370卡-umda mode5﹙100mb/s﹚,單台硬碟測試,所以硬碟的可使用頻寬為100mb/s
Data Transfer Rate (MB/sec) was 9.86.
Average CPU Utilization was 31.41 percent.

2.ultra scsi﹙20mb/s﹚,單台硬碟測試,所以硬碟的可使用頻寬為20mb/s
Data Transfer Rate (MB/sec) was 6.83.
Average CPU Utilization was 24.07 percent.

3.hpt370卡-umda mode5﹙100mb/s﹚雙硬碟測試,因是接不同的通道,所以每台硬碟的同時可使用頻寬各為100mb/s
Data Transfer Rate (MB/sec) was 20.65.
Average CPU Utilization was 54.69 percent.

4.via-686-umda mode4﹙66mb/s﹚雙硬碟測試,因是接不同的通道,所以每台硬碟的同時可使用頻寬各為66mb/s
Data Transfer Rate (MB/sec) was 23.67.
Average CPU Utilization was 60.06 percent.

5.ultra scsi﹙20mb/s﹚雙硬碟測試,因是接相同的通道,所以每台硬碟的平均同時可使用頻寬各為10mb/s
Data Transfer Rate (MB/sec) was 8.42.
Average CPU Utilization was 33.81 percent.

6.hpt370卡-umda mode0﹙16.6mb/s﹚雙硬碟測試,因是接不同的通道,所以每台硬碟的同時可使用頻寬各為16.6mb/s
Data Transfer Rate (MB/sec) was 13.4.
Average CPU Utilization was 43.7 percent.

7.hpt370卡-multi-word mda mode1﹙13.3mb/s﹚雙硬碟測試,因是接不同的通道,所以每台硬碟的同時可使用頻寬各為13.3mb/s
Data Transfer Rate (MB/sec) was 8.03.
Average CPU Utilization was 30.54 percent.

8.hpt370卡-multi-word mda mode0﹙4.2mb/s﹚雙硬碟測試,因是接不同的通道,所以每台硬碟的同時可使用頻寬各為4.2mb/s
Data Transfer Rate (MB/sec) was 4.07.
Average CPU Utilization was 22.37 percent.

由第7與第5項的比對,可知ide在開啟dma後且相同的傳輸量下,在cpu loading方面與scsi是差不多的。

再由以上8項可以明顯看出當傳輸量越大,自然cpu的使用率就會上升,無論scsi/ide都一樣...由前幾次的多裝置動作測試及這次的cpu loading測試,可知ide啟動dma再加上獨立通道設置後,無論裝置多工、cpu的使用率都似乎接近一般中低階的純scsi設備,只差一樣產品壽命及穩定度,不知大家覺得呢?