Yamaha Rivage PM系列控台上,Neve的Silk技術是一個很大的亮點。使用Red、Blue兩種模式來強化輸入訊號的泛音列,分別賦予訊號擁有明亮或飽滿的特色,讓訊號能快速在混音中脫穎而出。之前就有聽過業界幾位Engineer曾經試圖量測Silk處理後的訊號,希望能在頻譜上驗證其效果,但卻得不出明顯的結果來。前幾天公司同事馬頭也問過我相同的問題,而這已不是第一次被問這個疑問,讓筆者思考是否自己也來量測看看呢? 筆者其實很早以前在Nuendo上進行混音執行時,就用過好幾套Saturator或Harmonics Enhancer的Plug-in。這次就在不動用Rivage PM的狀況下,試著利用筆電上的Nuendo與量測軟體,建立一個量測系統架構來測試看看。 兩套軟體間、透過Dante Via來進行虛擬串接、以便Systune能夠以單通道或甚至雙通道來量測分析其處理結果。 首先在Nuendo上播放SineWave 400Hz的測試訊號。 Test Tone 首先選用Waves的Saphira Plug-in來擔任Harminics Enhance的工作。原因是因為Saphira可以選擇接近PM上的Silk泛音強化的模式、只強化泛音列2與3、奇數/偶數各一個泛音的方式來進行。 利用Systune來分析,主要也是因為Systune可以設定以下列方式來顯示量測結果,針對泛音列分析非常管用。在高解析的1/96 oct設定下標定400Hz當參考點,並選擇以百分比%來顯示Harmonics,讓比對到基礎音的能量能夠更清楚顯示出來。如下圖,當Saphira在bypass不做動時,泛音列2~7能量非常的低,約基礎音的0.001~0.002%。這是因為SineWave本身是種純音、單一簡單波型的關係。 當Saphira打開、使用Full Reset預設、設定成泛音2、3的Return相同方式時,量測結果如下: 泛音2為0.2%、放大100倍,泛音3為0.08%、放大80倍。基礎音能量增加0.3dB、約1.07倍 調整讓2、3泛音等比例增強(僅能猜想Rivage PM的Silk可能的設定、來模擬Red模式),量測結果也會強化,但泛音3強化比例較大。 泛音2放大350倍、泛音3為700倍。 如果讓泛音3的比例大於泛音2(試圖模擬Rivage PM Silk的Blue模式), 則強化時,除了泛音3能量放大之外,也會影響到基礎音、以及基礎音周遭的頻率。基礎音能量增加2.6dB、約1.82倍、旁邊的頻率也都一樣放大1.82倍。 如果按此比例、強化再增大,則也會連帶其他的泛音也強化。 此時如果將泛音2的強化功能開/關來做比對,會發覺僅影響到泛音2的能量而已,對基礎音或其他泛音絲毫無作用。因此關鍵還是在奇數泛音的強化。 到這裡,可以得出一個結論,由於對泛音2的強化(偶數泛音)、僅影響泛音2、剛好是強化基礎音的倍頻(較高的頻率),因此使用Silk的Red模式,可以讓處理的音色有較清亮的感覺。而泛音3的強化(奇數泛音),還會回頭影響基礎音、及其周遭頻率,也就是利用類似處理的Silk的Blue模式,會讓音色有較渾厚的感覺。 再測試另一款Plug-in,業界很知名的Aphex Exciter,掛進同樣的迴路裡來測試。 Plug-in bypass或開啟Systune內的顯示幾乎不變,泛音2僅提升至0.02%,強化20倍。 但是Exciter如果掛在一般的訊號上,其實效果是很明顯的。 例如以下的測試,把測試訊號改為一段Vocal的錄音、讓它loop播放並通過Exciter,Aphex選用同一種設定,並將Systune的量測平均化功能改為Inf.、無限長平均,以求取整段錄音的均化頻譜。 可以觀察到經過Exciter強化後的淺藍虛線在與Vocal相關的1k~8kHz頻段都有能量提升的現象,聽覺上可以很清楚辨識出。 這邊推測是因為如果測試訊號使用純音的SineWave、幾乎沒有泛音成份,Aphex Exciter運算法則或許僅專注在可用的泛音上,這樣的環境讓Plug-in變的無從下手了。而換到一般訊號的Vocal上,則Exciter便能完整發揮。 這也是業界的Engineer、馬頭提問的、以SineWave來測試PM Silk功能、量測不到成效的原因吧,或許Rivage PM的Silk功能跟Aphex Exciter具有類似的運算法則。 另一套筆者常用的Plug-in、Waves Vitamin,是以Multi-Band的方式來調控。 猜測運算法則類似前一套Exciter,當原本訊號的泛音微弱時,強化的效果也會較低弱,因此用SineWave當測試訊號、將泛音強化力度推上來時,會出現Direct Source外的訊號輸出時有時無,不是原本運算法理想的處理方式。 從下圖量測的頻譜上,是可以看到泛音3有強化、大約30倍能量,不過力度同樣會時增時減,不是穩定的能量輸出。 再測另一套Plug-in,Omni Channel,僅使用它的Saturation功能來進行Harmonics的強化。 使用奇數泛音強化、力度開到12點鐘,量測結果如下 果然泛音3、5、7、9都出現力度強化,基礎音與周遭頻率也增加約2dB、加大1.6倍。而泛音3變為基礎音的0.2%、強化200倍。 同樣的強化力度下、啟用EVEN偶數泛音功能,則明顯地泛音2、4出現強化,基礎音與周遭頻率也增加約3dB、加大2倍。 如果使用Heavy功能,則僅針對奇數的泛音3做強化,泛音3能量為基礎音的1.5%,約強化了1500倍。 如果將強化力度加到80、則除了泛音3外,連帶泛音5也強化,甚至泛音3周遭的頻率也受影響。基礎音及其周遭頻率增強6.5dB,約4.47倍能量。 筆者猜想這也是Neve Silk專注在泛音2、3的強化的原因,主要在泛音3的影響幅度可以有出人意表的成效。 下圖是同樣是loop播放Vocal的錄音、通過4套Plug-in處理、Systune量測在inf無限長平均化的頻譜。 藍色是bypass不處理的頻譜,淺藍代表Aphex Mix2 mode、粉紅代表Saphira、綠色代表Omni Channel、紅色代表Vitamin的量測結果。 Aphex的處理結果是相對較〝含蓄〞的,較誇張的是Saphia、Omni Channel(可以從上述測試,對純音的SineWave之泛音列、產生的能量放大倍數就可猜想到),而對音色雕塑性較大的是Vitamin,應該是Plug-in可以透過Multi-Band的頻段調整進行操控的因素。 前述僅使用簡單波型、純音的SineWave來測試4套不同類型泛音強化的Plug-in,僅為實驗目的,不會有人真的在混音時、想強化SineWave的泛音列的。不過由於各自的處理運算法則明顯的不同,大致可以歸類成僅專注於現存的泛音來強化者(如Aphex Exciter、Vitamin,還有Neve Silk)、以及可大幅度強化泛音列能量者(如Saphira、Omni Channel)兩類。可想而知,如果要量測Silk的結果,選用SineWave當測試訊號並不適合。還是要使用真實的樂音、Vocal訊號,才能讓這些Harmonics Enhancer處理器真的發揮其長才。 Humphrey T

在筆者任職的九太音響,Yamaha的DXR15、DXS15是我們常用的喇叭系統,外出的機率相當高。但這樣的喇叭系統擺放好後,你會習慣性量測、發掘問題來解決嗎? 如果你找時間針對這兩個喇叭去做量測,相信結果會讓你驚訝,原來這兩支喇叭在交集頻率帶上的相位差異問題、絕對需要我們做delay補償來解決的。 筆者使用近距離的貼地量測方式,盡可能在環境最佳、直射音絕對宰制的條件來求取兩支喇叭的基本參數。亦即是量測兩支喇叭在盡可能無反射音干擾下的正常聲波投射類型。 下圖是兩支喇叭的基礎量測。綠色曲線是DXR15、藍色曲線是Sub DXS15。 系統使用Lake LM做為電子分音系統,設定24dB/oct、分頻點80Hz的Filter。 從Phase曲線可以看到,明顯的兩條曲線在約52Hz到125Hz頻率帶,會有120°到230°不等的Phase差異。 如果透過公式計算,可以得知phase差異大於120°的兩個波型、能量疊加時其實得不到增易、並會開始不增反減。如下圖,綠色、藍色兩個能量相同波型以120°的phase差異疊合,得到的能量增易是0dB(紅色波型)、與原本單一波型能量相同。 而且在80Hz附近,兩者的phase誤差甚至來到180°左右,對於能量是抵銷、完全不利的情形。 雖然電子分音的分頻點也剛好80Hz,但即使我們改變分頻點、移高到90Hz,重新量測的phase曲線有些改變,不過仍舊在十字標的80Hz左右產生180° phase差異。 這種不利的狀態下,讓兩者能量Sum時,產生如下圖的能量不增反減,深紅色曲線是疊加後的結果,在十字標80Hz頻率附近產生最大抵銷,讓Sub在此處的能量還比原本減少3dB以上。 我們將原本量測的相位曲線,抓80.6Hz位置,圖上可以得出兩者phase差異184.4°,加以計算後,約為6.19ms的phase時間差,將之補償到到達時間稍快的DXR15的迴路上。 再重新量測,delay補償後、DXR15的phase曲線,可以看到DXR15的淺綠色phase曲線在十字標80Hz左右完全貼合到DXS15的藍色曲線上,而且一路到140Hz左右、兩者的phase誤差都維持在60°內,對於交集頻率帶的能量疊加,兩者回到正向有利的狀態。 再量測Sum的曲線,深紅色為delay補償後的疊加曲線,我們把能量要回來了! 由於80Hz附近的頻率帶phase曲線完全貼合,所以可以看到十字標的80Hz附近,能量疊加維持穩定飽滿的狀態。 由於頻率交集區能量一來一往差異達6dB,因此聽覺上非常清楚,比較delay補償前後,聽起來就像Sub多擺了一支呢。 Yamaha DXS是屬於Band Pass類型的超低音設計,我們聽到的聲音其實都不是直射音,而是箱體反射多次後的聲響,好處是音壓增大,但延遲是其中一個附帶缺點。 使用這種設計的Sub喇叭,現場量測上就需要特別注意。 如果搭配像DXR喇叭一起使用、一旦產生足以抵銷能量的相位誤差,不做適當補償就會讓能量平白無故地損耗掉,消失在空間裡了。 原廠手冊上沒提到上述這些兩者一起使用時的注意事項吧? Humphrey T

趁年底剛好有同行想要一台入門級處理器的機會,筆者任職的公司九太把原有Yamaha MTX3處理掉、換購一台再高階的處理器:QSC Core110f。藉此文將個人到目前為止的經驗,分享給各位。 大部分同業對於QSC品牌的印象應該是業界知名的擴大器、喇叭、小型數位混音座的製造商,是吧?的確,這幾個產品類別QSC是很有名,但大家比較不熟悉的可能有幾個: 1. QSC在1981年即開始OEM Dolby實驗室的擴大器,進而踏入電影院的市場。在業界來說,非常早就在電影院市場奠下基礎。 2. 1992年即開始發展自家的網路Audio平台,1996年成為網路Audio先驅的CobraNet第一家授權生產商。 3. 2006年延攬了CobraNet的研發團隊,並在2009年推出Q-SYS這個Audio / Video / Control三合一的網路通訊協定,在ProAV領域訂立里程碑。 4. 2015年推出處理器系統Core110f與會議室整合系統。 雖然QSC在處理器的發展比較晚,不過因為他們在網路AV、控制整合上擁有的良好基礎搭配下,這幾年進展非常快速。個人對於QSC的處理器算是滿期待的。 筆者在這幾年陸續通過、並拿到QSC的兩張系統設計國際證照,因此在一確認九太會採購他們家的處理器後,便著手開始做系統的規劃,試著把九太做外場時在處理器上可能的運用需求、在Core110f上模擬出來,也好與其他同事共同討論修飾。 首先簡單瞭解一下Core110f與九太原本的處理器的異同處。 第一眼印象應該是Core110f像是Lake LM與DME24的綜合體,是吧? 的確,Core110f具有Lake獨特的FIR線性相位分頻處理、與DME的客製化迴路架構。 Core110f其實在輸出入迴路上更加彈性,類比輸出入標配是8 + 8,但是因為多了一組所謂的Flex I/O 8迴路,可以指定為輸入或輸出,所以暫時先假定具有12 + 12的類比輸出入吧! 另外還配置有8 + 8的Dante迴路,對於需要的輸出系統處理配置上相信會更靈活。 如果把Flex I/O全設定成輸出的話,Core110f可以進行16類比 + 8 Dante、共24路輸出的處理! 如下圖,Core110f輸出入配置的是小的Euro Block裸線接頭,跟Yamaha MTX3用的不同。 Core110f雖然與DME同樣是客製化的迴路架構,但處理器運算法則應該是與DME不同掛的。舉例,DME24無法使用64x64的Matrix Mixer、但可以開啟3組32x32的Matrix,系統資源會佔掉86%。 而Core110f上可以開啟到128x128的Matrix,佔掉資源69%,筆者相信,單純以處理能力來說,Core110f是勝出許多的。 而且DME的運算法則無法執行FIR模式、因此需要另外添購FIR的運算器擴充卡(不便宜)才能執行,在Core110f上直接就可以進行。 唯一可惜的是,Core110f僅支援到24bit / 48kHz,無法像DME或Lake LM一樣達96kHz。 對比Lake LM,Core110f同樣具有Linear Phase的FIR Filter,也同樣有Lake的Raise-Cosine與類似Mesa 的非對稱式運算PEQ可使用,當然也有All-Pass-Filter與自動迴授抑制功能的Notch Feedback Filter。 DME上絕大部分的處理元件在Core110f上都能找到類似功能的元件,而Core110f還具有很多特殊功能的元件,這邊僅談一些與外場執行上較相關的部分 : Time Code產生與讀取元件,可以搭配Program、燈光、視訊連動控制使用 A或C加權的SPL / LEQ表頭,如果搭配多支量測Mic輸入,在控場時直接可以監控每個點的音壓變化。 True Peak或RMS的表頭,這在一般數位混音座上比較少見。尤其使用RMS表頭,可以讓我們更容易瞭解系統的平均能量。 甚至,Core110f還擁有LKFS的響度表頭,對於執行OB、直播錄存等情形、需要搭配各種節目播出系統的需求時,可以有更客觀的參考。 多軌的USB Audio播放元件,最多可以開啟兩組USB audio的元件、各8個CH,讓電腦接上USB線、可以擁有16個CH直通Core110f,如果Program的電腦在Core110f旁,一條USB線就搞定多軌的Program訊號播放,而且這個USB audio的驅動程式內建在Core110f上、電腦不用另外安裝,隨插即用。 另外,Core110f內建有約1.5G的記憶體,可以直接將歌曲檔透過電腦上傳到記憶體內,如下圖,還可以用資料夾方式、編排不同播放清單來管理,在執行外場時、播放一些常用的歌曲、開場襯底音樂等更加容易。 Core110f還內建有執行外場常用的標準雙通道量測元件。即使元件的功能僅是入門款,搭配剛剛提到的A或C加權的SPL / LEQ表頭,在外場的監控上也滿不錯的。 使用過DME系統設計、看了下圖應該會很熟悉,的確,Core110f也是使用各種功能元件、加上元件間的配線來完成整個系統的設計。比較特殊的是,Core110f具有所謂的信號標籤與多軌Snake Cable的配接方式。 上圖的紅色方框就是信號標籤,每個端點註記標籤後,對應端點就直接從標籤清單中挑選想要的信號即可連結,中間不用再配線,概念有點像無線傳輸系統的傳送器與接收器概念。右側紅色原框就是Snake Cable、多個端點匯總成一個大端點、再以單一線路連接出去即可。同樣也可再註記上標籤,用“無線傳輸”方式連接到對應端點。整個系統設計圖面上會更清楚、更易編排。 Core110f還具備有很方便的HoverMon刺探式監聽功能。如下圖,只要把滑鼠指標指到想監聽的端點位置、會即時出現該端點的小頻譜,在進行系統除錯、監控時真的非常方便,即時抓出信號在那個路徑位置出了錯,或是如下圖,即時瞭解過了這個分頻處理元件後,信號是否被處理妥善了。 收到機器的前三天,筆者也做了無數次系統規劃模擬測試,希望在外場上手操控時,能先有一個基礎架構出來,再慢慢在實做中修改出最終版本來。筆者將九太常用的系統架構分類成三種:LRFS輸入/走傳統分頻方式輸出、LRFS輸入/走線性分頻加多個Sub Array控制迴路、特殊用途8 in/8out系統。 基本上是把每種架構理想的處理方式全部做成一個大系統、這樣使用上就不需要每次Load檔案。原本的理想是希望每個處理路徑上都配置類似Lake的Mesa PEQ,不過,這種在Core110f上稱之為FlatTop PEQ的元件很耗資源、就算僅在主要通路上配上這種元件後,整個系統會把Core110f的系統資源操到96%。因此筆者改成僅在系統Main迴路上使用FlatTop PEQ、Sub系統就用傳統PEQ處理。留一點系統資源做日後系統修改預備。 Core110f的元件種類遠比DME24N來的廣泛,由於QSC的專屬網路Q-SYS是個Audio / Video / Control三合一的網路架構,因此它還擁有視訊處理的元件、還有很多控制功能的元件。像下圖,Core110f背板具有HDMI端子,以及標準有線電話端子,如果有Call-In的需求,這個功能或許能應用上。 還有像下圖這個在最近加入的新元件Time-Line時間軸,可以事先編排、在接收到Timecode時、系統要如何因應(何時切換Snapshot、播放什麼歌曲、音量如何變化等)。 Core110f對筆者而言,是個全新的處理器領域,不僅是因為多了更多、更廣的元件,它還具備了在Yamaha處理器上、或甚至大部分業界的處理器所沒有的領域,就是邏輯控制功能。大部分的處理器上無法執行像“IF………… , Then Go…………..”的邏輯判斷處理。筆者曾經在DME-N上做過幾個工程系統的設計、執行簡單邏輯判斷的功能,但那是用自己編排的數個Audio元件硬湊出來的,很陽春的簡單判斷而已。 Core110f上可以用兩種程式語言來寫想要執行的功能,讓這種邏輯控制變成可行。 一種是Blcok Controller用非常多種已編寫好的指令方塊、自己編排組成想要的功能。 如果很習慣寫程式的人,便可以直接使用第二種的Lua指令程式,來編寫自己想要的功能。 透過這兩種方式,讓處理器的設計規劃方向變得非常靈活。 Core110f的使用者控制介面設計也是個人滿欣賞的,它是目前筆者知道的處理器系統、唯一具備如同PhotoShop美編軟體多Layer概念的介面設計系統。因此可以利用不同疊層來讓使用者控制介面變的更直觀、好用。 下圖是筆者在幾年前考QSC的國際認證期間、利用疊層來設計的一個餐廳空間分割/合併的控制介面。 不過,上述的程式編寫與使用者控制介面設計功能,在Core110f上是需要另外付費的,但至少在設計上可以有更多樣的選擇來完成案件規劃。 來談談筆者這次規劃的內容: Core110f的系統規劃可以採用獨立頁面的方式來區隔不同的系統架構,因此筆者把三個不同的系統操控架構放在個別的頁面裡,再將系統總成的輸出處理、最後輸出的處理、與輸入/輸出配置部分放在最後三頁,所以打開設計檔會看到如下圖6個頁面。 操控頁面分別是: LRFS走線性分頻輸出控制頁面 LRFS走傳統分頻輸出控制頁面 特殊用途控制頁面 基本上三者的頁面編排都近似,左邊上面是迴路區塊、輸出入表頭控制,左邊下方是場景控制與OSC測試訊號控制,右邊則是三個量測用大圖形,包括Mag /相位量測圖、現場音壓SPL量測、LEQ長時音壓量測圖等。 要調整某個迴路端點的參數,直接雙點該元件即可打開控制畫面,筆者還設計了兩個訊號探棒如下圖一的紅虛線框處,分別是量測通道探棒(紅色)與參考通道探棒(綠色),如果點開整串Array的FlatTop PEQ、修飾EQ參數,並把量測通道探棒置放在遠端喇叭輸出迴路上,如下圖二 ,接著便可以在量測圖上看到探棒放置的端點的信號之Magnitude差異曲線與相位曲線的態勢,如下圖三。 探棒可以方便我們偵測迴路上任意端點的訊號狀態,而且直接連結量測功能整合一起,相當靈活。 兩個探棒可以隨意偵測任兩個端點的信號,如下圖一,即可隨時比對信號經過兩個端點、將之間變化顯示在量測圖上,如下圖二。 量測區還附上了現場SPL量測與長時LEQ量測,如上圖右側,這個部分,筆者預設了量測Mic的通道,在Flex I/O的第一迴路接上量測Mic、便可以即時把數據顯示於此。 這個部分在現場監控應該是相當方便的功能吧。 如果將來有需要,可以試著多放幾個音壓量測元件、配合多支量測Mic,就可隨時偵測現場多個點即時與長時的音壓變化。 相信Core110f應用在Live現場或是在工程系統上,應該都會是不錯的訊號處理系統。 各位認為呢? Humphrey T

PA系統可以容許多長的延遲而不被聆聽者察覺? 不同的應用場合可以容許多少延遲率? 延遲率低一定比較好嗎?打從數位音頻技術第一次被運用,延遲率就一直是被討論的話題了。 如同一般Audio器材上的參數多可量化,延遲率反倒被過多不明確的行銷術語所包裝,比如low、ultra-low、imperceptible無法察覺、near-zero等。為了揭開這層神秘面紗,我們回頭來看看延遲率的數字、從文字上來理解它。 Latency延遲率代表一個器材從輸入訊號、處理、輸出訊號所需要的時間,換句話說,就是訊號通過這個器材或系統所需要的時間。如果器材本身具有類比輸出入介面,這通常包括輸入端會有的類比-數位轉換、訊號路徑上執行的處理程序、還有輸出端會有的數位-類比轉換等。 如果器材具有數位輸出入介面則會稍稍複雜些,雖然省卻了類比介面需要的前後端AD/DA轉換步驟與延遲,多出的是數位格式間傳輸的延遲率。器材的延遲通常以ms毫秒來表示,亦即1/1000秒為單位(在Audio處理用的Plugin則通常以sample來當成延遲率的單位)。不喜歡數學的人也請放心,只要使用簡單的加法,我們就能計算出信號路徑上的延遲率總和。 筆者也利用了Excel軟體,把在任職公司九太常使用的器材之Latency列表、以便能快速地加總,得出參考數據來,讓使用者能即時獲知系統的訊號路徑是否有過度延遲的問題。 公式內、每個環節都設計了下拉選單,並會自動導出器材的基本延遲率,操作上很容易。 不同的情境 不同的情境下我們可以容許到多少的延遲率? 為求瞭解,我們需要討論一下聲波於空間傳導上,會產生的延遲 -- 也就是聲波在空氣間傳導所需的時間。聲波是以大約340公尺/每秒的速度在空氣中傳導、或是34公分/每ms(溫度15℃下),這速率會稍稍受到空間的溫、濕度所影響。 因此,在典型的中型場地,套鼓或樂器擴大器的直射音、要跨過舞台前緣進入觀眾區,約需要15 - 20ms的時間。這代表我們進行FOH系統混音、並透過PA器材輸出訊號、系統通過信號路徑所產生延遲率,應該有一定程度是可以被接受的。 反觀舞台上的樂手,他們泰半與演奏的樂器距離很近,能接受的延遲率相對低很多。歌手則因為歌聲透過骨傳導、本人幾乎是即時就聽到了,延遲率的容許度更是嚴苛。 衡量監聽系統的延遲率,通常來說,從輸入端點、經過控台、處理器、再傳送到舞台上地板監聽或是IEM,一般都會建議不要超過5ms。 數位無線系統、即使是備受推崇的品牌,也會產生令人驚訝的延遲率。Shure的SLX-D無線Mic系統會產生3.2ms的延遲,也就是說,同在監聽系統路徑上的其他器材、為了不超出5ms的總和、可容許的延遲率空間變得非常的小。就算改採用Shure旗艦級的Axient數位系統,仍舊會產生2ms的延遲,因此花更多的錢換高階的系統,或許能有更好的延遲率表現,但並非能為你爭取多很多的時間。 如上列公式的試算,在Monitor系統上使用SLX-D無線系統後,如果控台也使用數位控台的CL,後端的器材不管怎麼節省、搭配,其實多半都會超過5ms的延遲率,讓系統的選擇變得很侷限。 如上,若改用Axient無線系統、加上控台改採PM10跑96kHz,則的確可以空出一些空間、讓後端器材能有選擇。傳輸直接使用PM10的TwinLANe系統,擴大器使用Nexo的NXAmp4x4等。只是系統的整體預算就會提高非常多。這也是大部分吉他手的無線傳輸系統、或是IEM系統上,類比的無線傳輸仍舊被大量採用的原因,CP值罷。 如果使用單純使用IEM(假定是Shure的PSM1000),則延遲率上仍可以符合5ms的建議值。但如果再搭配Aviom、並採用D800採Dante迴路,就會稍稍超出0.5ms的延遲率了。 從最基本的系統骨幹--傳輸系統來看,由於類比訊號透過銅導線傳導,而電氣訊號的速度約為光速的2/3,換句話說,類比傳輸系統是以Zero Latency的延遲率在傳輸。也就是說,整個訊號傳輸的路徑上,類比的程序完全沒問題,它們並不帶來延遲率。 一旦移動到數位傳輸系統上則變複雜的多。不同的數位編碼方式有自己獨特的〝資料打包〞方式、延遲率也各自不同。 舉例而言,Midas / Behringer品牌使用的AES50傳輸系統,基本延遲率是0.063ms,這在數位傳輸系統上是相當低的。而利用IP模式的數位傳輸系統則延遲率相對稍高,因為必須依照電腦網路的規範來進行。以Dante為例,系統的預設延遲率是1ms,但可以依應用的方式加以調整(可調範圍為0.15ms到5ms)。 接收、處理、傳送 我們已經理解類比、數位傳輸系統本身的速度非常快,我們進一步來探討其間連結的器材,包括接收、處理、傳送的單元。 類比的控台、外接處理器、擴大器、或甚至無線傳輸系統,可以即時的執行它們被賦予的工作,不過一旦改用數位系統後,這句話就變的不一定了。例如,看似萬能的平價數位控台Behringer X32,會產生0.83ms的延遲率(從類比IN到類比OUT、48kHz下)。如果採用Allen&Heath的SQ或是Avantis的控台,則會有0.7ms的延遲。 如果再附加上控台與Stage I/O間的傳輸,絕大部分現代的數位控台系統應該都可以維持2ms以下的整體延遲率。這代表我們應該都可以在不使用其他外掛處理器、Plug-in情形下,維持夠低的延遲率來應付任何的混音需求,即使是用入門款的混音控台。 但如果你想用的不只是控台跟Stage I/O呢? 類比的外掛處理器在今日仍被很多Engineer所愛用,如果以Insert I/O的方式來掛載到數位控台系統,想當然會需要通過額外的D/A與A/D轉換。Waves的外掛處理系統也是很多人喜歡採用的,一般數位控台透過SoundGrid I/O連接到Waves Server的迴路會帶來約1ms的延遲,但問題比較大的,通常是裡面使用的Plugin,其延遲率往往會加倍、或更大。 除了SoundGrid I/O系統,還有幾個路徑上可能需考慮的轉換機制會帶來甚至更長的延遲率。很多Engineer會使用輸出處理器,譬如很多人愛用的Lake LM處理器,像LM44則會添加1ms的延遲。更甚者,很多新一代的喇叭系統或是擴大器都配置有原廠的處理元件,這些也都會提升數個ms的延遲於路徑上。 一般來說,FOH系統可以容許的路徑延遲率、遠比監聽系統來的長許多。可以這樣說,只要不慢於音源直射音通過舞台前緣的時間就可以了(假定你的PA喇叭系統是置於舞台前緣)。我們無法在音源直射音加delay、拖慢它,只能想辦法讓PA喇叭輸出訊號與它差不多時間了。 假定演出場地的溫度是24℃、而表演是在一個稍深的舞台上進行,大部分直射音壓稍大的音源(套鼓、樂器音箱)離舞台前緣約10米,則計算出來直射音的延遲約28.95ms。 這就給予FOH系統有較大的容許路徑延遲率了。假定我們使用了SLX-D的無線系統,還用了CL5控台、加掛Waves與內建的Plugin(假定產生5ms的延遲率),並使用了LM44處理器、Dante系統傳輸,擴大器用Yamaha新款的PC-D等。計算下來的路徑延遲率約15.4ms,離預估的音源直射音延遲還有一段距離,我們可能還需要在輸出加delay來配合直射音的到達時間呢! 到此,我們可以下一個有用的結論:市場上有聲譽品牌的Audio器材泰半都能有可接受的低延遲率,在簡單路徑的使用狀況下基本上不會遇到問題。在大型場地執行FOH的混音,即便使用較複雜的信號串接路徑,執行上也不太會導致大問題。然而在監聽系統應用上,則要盡可能避免太複雜的串接路徑。 如果系統的延遲率有問題,降低在路徑上的串接器材數量、採用較適當的工具遠比花錢升級到更高階的器材,要來的有成本效益些呢! Humphrey T

是時候拋棄你的類比信號線了嗎? 筆者在2019年的Infocomm秀展上,參訪Audinate攤位首次公開發表Dante As Software的理念,會場上並且有三個品牌為這個理念撐腰:QSC、Analogue Device、Zoom。這個發表最重要的觀念就是希望能打破廠商原本要加入到Dante的世界、必須藉由硬體(晶片)的藩籬。 經過幾年的推展,在去年2021年陸續有廠商的量產產品推出,包括像前幾篇文章內介紹到的QSC Core110f就是其中的代表。 Dante系統能夠快速地竄起、掌握整個市場,主要就是憑借系統容易操控、就連加盟廠商也一樣很容易生產相容硬體。藉由Audinate提供不同的晶片,廠商可以據其所需的ch數量來挑選適當晶片,加上其他的搭配硬體、電路、外殼,便可以很快地推出相容產品,Dante系統就在這種簡單而極具效率的架構下,快速地累積、建立起一個無人能敵的生態系統。 Audinate原本就推出的Dante軟體,像Dante Virtual Soundcard與Dante Via,也在業界有一定的口碑,不過這兩套系統與現在的Dante As Software,在層面上有所不同。 DVS與Via屬於系統層的軟體。掛載在電腦作業系統下,讓電腦可以透過軟體來虛擬成Dante的器材。因此電腦作業系統僅會有一個DVS或Via來執行Dante信號的傳遞接收,甚至一台電腦上DVS與Via是無法同時運作的。 Dante As Software包括兩種新的軟體概念: 1. Dante Application Library。這是屬於應用層的軟體。讓Dante系統變成是與應用程式緊密結合、專屬的軟體型界面,多個應用程式可以各自擁有獨立的Dante傳輸界面、彼此不相互干擾。雖然固定為48kHz取樣頻率,但其優勢仍舊突出。 特性: a. 相容於Win、Mac OSX b. 最多32 x 32 ch雙向傳輸、48kHz c. 最小5ms Latency d. 可以在同一電腦上允許多個Dante軟體界面存在 e. 與所有Dante系統的軟硬體相容,包括DVS、Via、Controller等 Zoom Video Communications將採用Dante Application Library應用在視訊會議系統上 2. Dante Embedded Platform。主要是嵌入式系統,能夠結合在輕便架構ARM處理器、執行Linux的硬體或甚至是強大的x86處理器的硬體上。這讓AV產業裡原本以低成本、便捷取向的產品,不用像從前因為加計了以傳輸Dante ch數來計算的硬體晶片成本、因而造成生產成本的大幅提昇。嵌入式系統讓生產廠商更容易在預算內整合到原本的、小型ARM架構到大型x86架構的產品上,設計上也能整合大量的傳輸ch、或是可控制的低延遲系統。 特性: a. 最多128 x 128 ch雙向傳輸 b. 預設48kHz、最高192kHz c. 最低1ms Latency(Reference Design)、典型採用SDK的設計為5ms d. 支援PTP精準時脈系統 e. 支援Redundant網路系統 f. 與所有Dante系統的軟硬體相容,包括DVS、Via、Controller等 目前QSC已經整合Dante Embedded Platform到Q-Sys產品上。 Analog Device ADI將採用Reference Design的Dante Embedded Platform在ADSP-SC589 DSP + ARM處理器上。 只能說Dante系統在數位音頻網路的領域上,再上一層樓,它的王座更不容易被撼動了! Humphrey T

1
2
3
4
5
6