在筆者任職的九太音響,Yamaha的DXR15、DXS15是我們常用的喇叭系統,外出的機率相當高。但這樣的喇叭系統擺放好後,你會習慣性量測、發掘問題來解決嗎? 如果你找時間針對這兩個喇叭去做量測,相信結果會讓你驚訝,原來這兩支喇叭在交集頻率帶上的相位差異問題、絕對需要我們做delay補償來解決的。 筆者使用近距離的貼地量測方式,盡可能在環境最佳、直射音絕對宰制的條件來求取兩支喇叭的基本參數。亦即是量測兩支喇叭在盡可能無反射音干擾下的正常聲波投射類型。 下圖是兩支喇叭的基礎量測。綠色曲線是DXR15、藍色曲線是Sub DXS15。 系統使用Lake LM做為電子分音系統,設定24dB/oct、分頻點80Hz的Filter。 從Phase曲線可以看到,明顯的兩條曲線在約52Hz到125Hz頻率帶,會有120°到230°不等的Phase差異。 如果透過公式計算,可以得知phase差異大於120°的兩個波型、能量疊加時其實得不到增易、並會開始不增反減。如下圖,綠色、藍色兩個能量相同波型以120°的phase差異疊合,得到的能量增易是0dB(紅色波型)、與原本單一波型能量相同。 而且在80Hz附近,兩者的phase誤差甚至來到180°左右,對於能量是抵銷、完全不利的情形。 雖然電子分音的分頻點也剛好80Hz,但即使我們改變分頻點、移高到90Hz,重新量測的phase曲線有些改變,不過仍舊在十字標的80Hz左右產生180° phase差異。 這種不利的狀態下,讓兩者能量Sum時,產生如下圖的能量不增反減,深紅色曲線是疊加後的結果,在十字標80Hz頻率附近產生最大抵銷,讓Sub在此處的能量還比原本減少3dB以上。 我們將原本量測的相位曲線,抓80.6Hz位置,圖上可以得出兩者phase差異184.4°,加以計算後,約為6.19ms的phase時間差,將之補償到到達時間稍快的DXR15的迴路上。 再重新量測,delay補償後、DXR15的phase曲線,可以看到DXR15的淺綠色phase曲線在十字標80Hz左右完全貼合到DXS15的藍色曲線上,而且一路到140Hz左右、兩者的phase誤差都維持在60°內,對於交集頻率帶的能量疊加,兩者回到正向有利的狀態。 再量測Sum的曲線,深紅色為delay補償後的疊加曲線,我們把能量要回來了! 由於80Hz附近的頻率帶phase曲線完全貼合,所以可以看到十字標的80Hz附近,能量疊加維持穩定飽滿的狀態。 由於頻率交集區能量一來一往差異達6dB,因此聽覺上非常清楚,比較delay補償前後,聽起來就像Sub多擺了一支呢。 Yamaha DXS是屬於Band Pass類型的超低音設計,我們聽到的聲音其實都不是直射音,而是箱體反射多次後的聲響,好處是音壓增大,但延遲是其中一個附帶缺點。 使用這種設計的Sub喇叭,現場量測上就需要特別注意。 如果搭配像DXR喇叭一起使用、一旦產生足以抵銷能量的相位誤差,不做適當補償就會讓能量平白無故地損耗掉,消失在空間裡了。 原廠手冊上沒提到上述這些兩者一起使用時的注意事項吧? Humphrey T

趁年底剛好有同行想要一台入門級處理器的機會,筆者任職的公司九太把原有Yamaha MTX3處理掉、換購一台再高階的處理器:QSC Core110f。藉此文將個人到目前為止的經驗,分享給各位。 大部分同業對於QSC品牌的印象應該是業界知名的擴大器、喇叭、小型數位混音座的製造商,是吧?的確,這幾個產品類別QSC是很有名,但大家比較不熟悉的可能有幾個: 1. QSC在1981年即開始OEM Dolby實驗室的擴大器,進而踏入電影院的市場。在業界來說,非常早就在電影院市場奠下基礎。 2. 1992年即開始發展自家的網路Audio平台,1996年成為網路Audio先驅的CobraNet第一家授權生產商。 3. 2006年延攬了CobraNet的研發團隊,並在2009年推出Q-SYS這個Audio / Video / Control三合一的網路通訊協定,在ProAV領域訂立里程碑。 4. 2015年推出處理器系統Core110f與會議室整合系統。 雖然QSC在處理器的發展比較晚,不過因為他們在網路AV、控制整合上擁有的良好基礎搭配下,這幾年進展非常快速。個人對於QSC的處理器算是滿期待的。 筆者在這幾年陸續通過、並拿到QSC的兩張系統設計國際證照,因此在一確認九太會採購他們家的處理器後,便著手開始做系統的規劃,試著把九太做外場時在處理器上可能的運用需求、在Core110f上模擬出來,也好與其他同事共同討論修飾。 首先簡單瞭解一下Core110f與九太原本的處理器的異同處。 第一眼印象應該是Core110f像是Lake LM與DME24的綜合體,是吧? 的確,Core110f具有Lake獨特的FIR線性相位分頻處理、與DME的客製化迴路架構。 Core110f其實在輸出入迴路上更加彈性,類比輸出入標配是8 + 8,但是因為多了一組所謂的Flex I/O 8迴路,可以指定為輸入或輸出,所以暫時先假定具有12 + 12的類比輸出入吧! 另外還配置有8 + 8的Dante迴路,對於需要的輸出系統處理配置上相信會更靈活。 如果把Flex I/O全設定成輸出的話,Core110f可以進行16類比 + 8 Dante、共24路輸出的處理! 如下圖,Core110f輸出入配置的是小的Euro Block裸線接頭,跟Yamaha MTX3用的不同。 Core110f雖然與DME同樣是客製化的迴路架構,但處理器運算法則應該是與DME不同掛的。舉例,DME24無法使用64x64的Matrix Mixer、但可以開啟3組32x32的Matrix,系統資源會佔掉86%。 而Core110f上可以開啟到128x128的Matrix,佔掉資源69%,筆者相信,單純以處理能力來說,Core110f是勝出許多的。 而且DME的運算法則無法執行FIR模式、因此需要另外添購FIR的運算器擴充卡(不便宜)才能執行,在Core110f上直接就可以進行。 唯一可惜的是,Core110f僅支援到24bit / 48kHz,無法像DME或Lake LM一樣達96kHz。 對比Lake LM,Core110f同樣具有Linear Phase的FIR Filter,也同樣有Lake的Raise-Cosine與類似Mesa 的非對稱式運算PEQ可使用,當然也有All-Pass-Filter與自動迴授抑制功能的Notch Feedback Filter。 DME上絕大部分的處理元件在Core110f上都能找到類似功能的元件,而Core110f還具有很多特殊功能的元件,這邊僅談一些與外場執行上較相關的部分 : Time Code產生與讀取元件,可以搭配Program、燈光、視訊連動控制使用 A或C加權的SPL / LEQ表頭,如果搭配多支量測Mic輸入,在控場時直接可以監控每個點的音壓變化。 True Peak或RMS的表頭,這在一般數位混音座上比較少見。尤其使用RMS表頭,可以讓我們更容易瞭解系統的平均能量。 甚至,Core110f還擁有LKFS的響度表頭,對於執行OB、直播錄存等情形、需要搭配各種節目播出系統的需求時,可以有更客觀的參考。 多軌的USB Audio播放元件,最多可以開啟兩組USB audio的元件、各8個CH,讓電腦接上USB線、可以擁有16個CH直通Core110f,如果Program的電腦在Core110f旁,一條USB線就搞定多軌的Program訊號播放,而且這個USB audio的驅動程式內建在Core110f上、電腦不用另外安裝,隨插即用。 另外,Core110f內建有約1.5G的記憶體,可以直接將歌曲檔透過電腦上傳到記憶體內,如下圖,還可以用資料夾方式、編排不同播放清單來管理,在執行外場時、播放一些常用的歌曲、開場襯底音樂等更加容易。 Core110f還內建有執行外場常用的標準雙通道量測元件。即使元件的功能僅是入門款,搭配剛剛提到的A或C加權的SPL / LEQ表頭,在外場的監控上也滿不錯的。 使用過DME系統設計、看了下圖應該會很熟悉,的確,Core110f也是使用各種功能元件、加上元件間的配線來完成整個系統的設計。比較特殊的是,Core110f具有所謂的信號標籤與多軌Snake Cable的配接方式。 上圖的紅色方框就是信號標籤,每個端點註記標籤後,對應端點就直接從標籤清單中挑選想要的信號即可連結,中間不用再配線,概念有點像無線傳輸系統的傳送器與接收器概念。右側紅色原框就是Snake Cable、多個端點匯總成一個大端點、再以單一線路連接出去即可。同樣也可再註記上標籤,用“無線傳輸”方式連接到對應端點。整個系統設計圖面上會更清楚、更易編排。 Core110f還具備有很方便的HoverMon刺探式監聽功能。如下圖,只要把滑鼠指標指到想監聽的端點位置、會即時出現該端點的小頻譜,在進行系統除錯、監控時真的非常方便,即時抓出信號在那個路徑位置出了錯,或是如下圖,即時瞭解過了這個分頻處理元件後,信號是否被處理妥善了。 收到機器的前三天,筆者也做了無數次系統規劃模擬測試,希望在外場上手操控時,能先有一個基礎架構出來,再慢慢在實做中修改出最終版本來。筆者將九太常用的系統架構分類成三種:LRFS輸入/走傳統分頻方式輸出、LRFS輸入/走線性分頻加多個Sub Array控制迴路、特殊用途8 in/8out系統。 基本上是把每種架構理想的處理方式全部做成一個大系統、這樣使用上就不需要每次Load檔案。原本的理想是希望每個處理路徑上都配置類似Lake的Mesa PEQ,不過,這種在Core110f上稱之為FlatTop PEQ的元件很耗資源、就算僅在主要通路上配上這種元件後,整個系統會把Core110f的系統資源操到96%。因此筆者改成僅在系統Main迴路上使用FlatTop PEQ、Sub系統就用傳統PEQ處理。留一點系統資源做日後系統修改預備。 Core110f的元件種類遠比DME24N來的廣泛,由於QSC的專屬網路Q-SYS是個Audio / Video / Control三合一的網路架構,因此它還擁有視訊處理的元件、還有很多控制功能的元件。像下圖,Core110f背板具有HDMI端子,以及標準有線電話端子,如果有Call-In的需求,這個功能或許能應用上。 還有像下圖這個在最近加入的新元件Time-Line時間軸,可以事先編排、在接收到Timecode時、系統要如何因應(何時切換Snapshot、播放什麼歌曲、音量如何變化等)。 Core110f對筆者而言,是個全新的處理器領域,不僅是因為多了更多、更廣的元件,它還具備了在Yamaha處理器上、或甚至大部分業界的處理器所沒有的領域,就是邏輯控制功能。大部分的處理器上無法執行像“IF………… , Then Go…………..”的邏輯判斷處理。筆者曾經在DME-N上做過幾個工程系統的設計、執行簡單邏輯判斷的功能,但那是用自己編排的數個Audio元件硬湊出來的,很陽春的簡單判斷而已。 Core110f上可以用兩種程式語言來寫想要執行的功能,讓這種邏輯控制變成可行。 一種是Blcok Controller用非常多種已編寫好的指令方塊、自己編排組成想要的功能。 如果很習慣寫程式的人,便可以直接使用第二種的Lua指令程式,來編寫自己想要的功能。 透過這兩種方式,讓處理器的設計規劃方向變得非常靈活。 Core110f的使用者控制介面設計也是個人滿欣賞的,它是目前筆者知道的處理器系統、唯一具備如同PhotoShop美編軟體多Layer概念的介面設計系統。因此可以利用不同疊層來讓使用者控制介面變的更直觀、好用。 下圖是筆者在幾年前考QSC的國際認證期間、利用疊層來設計的一個餐廳空間分割/合併的控制介面。 不過,上述的程式編寫與使用者控制介面設計功能,在Core110f上是需要另外付費的,但至少在設計上可以有更多樣的選擇來完成案件規劃。 來談談筆者這次規劃的內容: Core110f的系統規劃可以採用獨立頁面的方式來區隔不同的系統架構,因此筆者把三個不同的系統操控架構放在個別的頁面裡,再將系統總成的輸出處理、最後輸出的處理、與輸入/輸出配置部分放在最後三頁,所以打開設計檔會看到如下圖6個頁面。 操控頁面分別是: LRFS走線性分頻輸出控制頁面 LRFS走傳統分頻輸出控制頁面 特殊用途控制頁面 基本上三者的頁面編排都近似,左邊上面是迴路區塊、輸出入表頭控制,左邊下方是場景控制與OSC測試訊號控制,右邊則是三個量測用大圖形,包括Mag /相位量測圖、現場音壓SPL量測、LEQ長時音壓量測圖等。 要調整某個迴路端點的參數,直接雙點該元件即可打開控制畫面,筆者還設計了兩個訊號探棒如下圖一的紅虛線框處,分別是量測通道探棒(紅色)與參考通道探棒(綠色),如果點開整串Array的FlatTop PEQ、修飾EQ參數,並把量測通道探棒置放在遠端喇叭輸出迴路上,如下圖二 ,接著便可以在量測圖上看到探棒放置的端點的信號之Magnitude差異曲線與相位曲線的態勢,如下圖三。 探棒可以方便我們偵測迴路上任意端點的訊號狀態,而且直接連結量測功能整合一起,相當靈活。 兩個探棒可以隨意偵測任兩個端點的信號,如下圖一,即可隨時比對信號經過兩個端點、將之間變化顯示在量測圖上,如下圖二。 量測區還附上了現場SPL量測與長時LEQ量測,如上圖右側,這個部分,筆者預設了量測Mic的通道,在Flex I/O的第一迴路接上量測Mic、便可以即時把數據顯示於此。 這個部分在現場監控應該是相當方便的功能吧。 如果將來有需要,可以試著多放幾個音壓量測元件、配合多支量測Mic,就可隨時偵測現場多個點即時與長時的音壓變化。 相信Core110f應用在Live現場或是在工程系統上,應該都會是不錯的訊號處理系統。 各位認為呢? Humphrey T

PA系統可以容許多長的延遲而不被聆聽者察覺? 不同的應用場合可以容許多少延遲率? 延遲率低一定比較好嗎?打從數位音頻技術第一次被運用,延遲率就一直是被討論的話題了。 如同一般Audio器材上的參數多可量化,延遲率反倒被過多不明確的行銷術語所包裝,比如low、ultra-low、imperceptible無法察覺、near-zero等。為了揭開這層神秘面紗,我們回頭來看看延遲率的數字、從文字上來理解它。 Latency延遲率代表一個器材從輸入訊號、處理、輸出訊號所需要的時間,換句話說,就是訊號通過這個器材或系統所需要的時間。如果器材本身具有類比輸出入介面,這通常包括輸入端會有的類比-數位轉換、訊號路徑上執行的處理程序、還有輸出端會有的數位-類比轉換等。 如果器材具有數位輸出入介面則會稍稍複雜些,雖然省卻了類比介面需要的前後端AD/DA轉換步驟與延遲,多出的是數位格式間傳輸的延遲率。器材的延遲通常以ms毫秒來表示,亦即1/1000秒為單位(在Audio處理用的Plugin則通常以sample來當成延遲率的單位)。不喜歡數學的人也請放心,只要使用簡單的加法,我們就能計算出信號路徑上的延遲率總和。 筆者也利用了Excel軟體,把在任職公司九太常使用的器材之Latency列表、以便能快速地加總,得出參考數據來,讓使用者能即時獲知系統的訊號路徑是否有過度延遲的問題。 公式內、每個環節都設計了下拉選單,並會自動導出器材的基本延遲率,操作上很容易。 不同的情境 不同的情境下我們可以容許到多少的延遲率? 為求瞭解,我們需要討論一下聲波於空間傳導上,會產生的延遲 -- 也就是聲波在空氣間傳導所需的時間。聲波是以大約340公尺/每秒的速度在空氣中傳導、或是34公分/每ms(溫度15℃下),這速率會稍稍受到空間的溫、濕度所影響。 因此,在典型的中型場地,套鼓或樂器擴大器的直射音、要跨過舞台前緣進入觀眾區,約需要15 - 20ms的時間。這代表我們進行FOH系統混音、並透過PA器材輸出訊號、系統通過信號路徑所產生延遲率,應該有一定程度是可以被接受的。 反觀舞台上的樂手,他們泰半與演奏的樂器距離很近,能接受的延遲率相對低很多。歌手則因為歌聲透過骨傳導、本人幾乎是即時就聽到了,延遲率的容許度更是嚴苛。 衡量監聽系統的延遲率,通常來說,從輸入端點、經過控台、處理器、再傳送到舞台上地板監聽或是IEM,一般都會建議不要超過5ms。 數位無線系統、即使是備受推崇的品牌,也會產生令人驚訝的延遲率。Shure的SLX-D無線Mic系統會產生3.2ms的延遲,也就是說,同在監聽系統路徑上的其他器材、為了不超出5ms的總和、可容許的延遲率空間變得非常的小。就算改採用Shure旗艦級的Axient數位系統,仍舊會產生2ms的延遲,因此花更多的錢換高階的系統,或許能有更好的延遲率表現,但並非能為你爭取多很多的時間。 如上列公式的試算,在Monitor系統上使用SLX-D無線系統後,如果控台也使用數位控台的CL,後端的器材不管怎麼節省、搭配,其實多半都會超過5ms的延遲率,讓系統的選擇變得很侷限。 如上,若改用Axient無線系統、加上控台改採PM10跑96kHz,則的確可以空出一些空間、讓後端器材能有選擇。傳輸直接使用PM10的TwinLANe系統,擴大器使用Nexo的NXAmp4x4等。只是系統的整體預算就會提高非常多。這也是大部分吉他手的無線傳輸系統、或是IEM系統上,類比的無線傳輸仍舊被大量採用的原因,CP值罷。 如果使用單純使用IEM(假定是Shure的PSM1000),則延遲率上仍可以符合5ms的建議值。但如果再搭配Aviom、並採用D800採Dante迴路,就會稍稍超出0.5ms的延遲率了。 從最基本的系統骨幹--傳輸系統來看,由於類比訊號透過銅導線傳導,而電氣訊號的速度約為光速的2/3,換句話說,類比傳輸系統是以Zero Latency的延遲率在傳輸。也就是說,整個訊號傳輸的路徑上,類比的程序完全沒問題,它們並不帶來延遲率。 一旦移動到數位傳輸系統上則變複雜的多。不同的數位編碼方式有自己獨特的〝資料打包〞方式、延遲率也各自不同。 舉例而言,Midas / Behringer品牌使用的AES50傳輸系統,基本延遲率是0.063ms,這在數位傳輸系統上是相當低的。而利用IP模式的數位傳輸系統則延遲率相對稍高,因為必須依照電腦網路的規範來進行。以Dante為例,系統的預設延遲率是1ms,但可以依應用的方式加以調整(可調範圍為0.15ms到5ms)。 接收、處理、傳送 我們已經理解類比、數位傳輸系統本身的速度非常快,我們進一步來探討其間連結的器材,包括接收、處理、傳送的單元。 類比的控台、外接處理器、擴大器、或甚至無線傳輸系統,可以即時的執行它們被賦予的工作,不過一旦改用數位系統後,這句話就變的不一定了。例如,看似萬能的平價數位控台Behringer X32,會產生0.83ms的延遲率(從類比IN到類比OUT、48kHz下)。如果採用Allen&Heath的SQ或是Avantis的控台,則會有0.7ms的延遲。 如果再附加上控台與Stage I/O間的傳輸,絕大部分現代的數位控台系統應該都可以維持2ms以下的整體延遲率。這代表我們應該都可以在不使用其他外掛處理器、Plug-in情形下,維持夠低的延遲率來應付任何的混音需求,即使是用入門款的混音控台。 但如果你想用的不只是控台跟Stage I/O呢? 類比的外掛處理器在今日仍被很多Engineer所愛用,如果以Insert I/O的方式來掛載到數位控台系統,想當然會需要通過額外的D/A與A/D轉換。Waves的外掛處理系統也是很多人喜歡採用的,一般數位控台透過SoundGrid I/O連接到Waves Server的迴路會帶來約1ms的延遲,但問題比較大的,通常是裡面使用的Plugin,其延遲率往往會加倍、或更大。 除了SoundGrid I/O系統,還有幾個路徑上可能需考慮的轉換機制會帶來甚至更長的延遲率。很多Engineer會使用輸出處理器,譬如很多人愛用的Lake LM處理器,像LM44則會添加1ms的延遲。更甚者,很多新一代的喇叭系統或是擴大器都配置有原廠的處理元件,這些也都會提升數個ms的延遲於路徑上。 一般來說,FOH系統可以容許的路徑延遲率、遠比監聽系統來的長許多。可以這樣說,只要不慢於音源直射音通過舞台前緣的時間就可以了(假定你的PA喇叭系統是置於舞台前緣)。我們無法在音源直射音加delay、拖慢它,只能想辦法讓PA喇叭輸出訊號與它差不多時間了。 假定演出場地的溫度是24℃、而表演是在一個稍深的舞台上進行,大部分直射音壓稍大的音源(套鼓、樂器音箱)離舞台前緣約10米,則計算出來直射音的延遲約28.95ms。 這就給予FOH系統有較大的容許路徑延遲率了。假定我們使用了SLX-D的無線系統,還用了CL5控台、加掛Waves與內建的Plugin(假定產生5ms的延遲率),並使用了LM44處理器、Dante系統傳輸,擴大器用Yamaha新款的PC-D等。計算下來的路徑延遲率約15.4ms,離預估的音源直射音延遲還有一段距離,我們可能還需要在輸出加delay來配合直射音的到達時間呢! 到此,我們可以下一個有用的結論:市場上有聲譽品牌的Audio器材泰半都能有可接受的低延遲率,在簡單路徑的使用狀況下基本上不會遇到問題。在大型場地執行FOH的混音,即便使用較複雜的信號串接路徑,執行上也不太會導致大問題。然而在監聽系統應用上,則要盡可能避免太複雜的串接路徑。 如果系統的延遲率有問題,降低在路徑上的串接器材數量、採用較適當的工具遠比花錢升級到更高階的器材,要來的有成本效益些呢! Humphrey T

是時候拋棄你的類比信號線了嗎? 筆者在2019年的Infocomm秀展上,參訪Audinate攤位首次公開發表Dante As Software的理念,會場上並且有三個品牌為這個理念撐腰:QSC、Analogue Device、Zoom。這個發表最重要的觀念就是希望能打破廠商原本要加入到Dante的世界、必須藉由硬體(晶片)的藩籬。 經過幾年的推展,在去年2021年陸續有廠商的量產產品推出,包括像前幾篇文章內介紹到的QSC Core110f就是其中的代表。 Dante系統能夠快速地竄起、掌握整個市場,主要就是憑借系統容易操控、就連加盟廠商也一樣很容易生產相容硬體。藉由Audinate提供不同的晶片,廠商可以據其所需的ch數量來挑選適當晶片,加上其他的搭配硬體、電路、外殼,便可以很快地推出相容產品,Dante系統就在這種簡單而極具效率的架構下,快速地累積、建立起一個無人能敵的生態系統。 Audinate原本就推出的Dante軟體,像Dante Virtual Soundcard與Dante Via,也在業界有一定的口碑,不過這兩套系統與現在的Dante As Software,在層面上有所不同。 DVS與Via屬於系統層的軟體。掛載在電腦作業系統下,讓電腦可以透過軟體來虛擬成Dante的器材。因此電腦作業系統僅會有一個DVS或Via來執行Dante信號的傳遞接收,甚至一台電腦上DVS與Via是無法同時運作的。 Dante As Software包括兩種新的軟體概念: 1. Dante Application Library。這是屬於應用層的軟體。讓Dante系統變成是與應用程式緊密結合、專屬的軟體型界面,多個應用程式可以各自擁有獨立的Dante傳輸界面、彼此不相互干擾。雖然固定為48kHz取樣頻率,但其優勢仍舊突出。 特性: a. 相容於Win、Mac OSX b. 最多32 x 32 ch雙向傳輸、48kHz c. 最小5ms Latency d. 可以在同一電腦上允許多個Dante軟體界面存在 e. 與所有Dante系統的軟硬體相容,包括DVS、Via、Controller等 Zoom Video Communications將採用Dante Application Library應用在視訊會議系統上 2. Dante Embedded Platform。主要是嵌入式系統,能夠結合在輕便架構ARM處理器、執行Linux的硬體或甚至是強大的x86處理器的硬體上。這讓AV產業裡原本以低成本、便捷取向的產品,不用像從前因為加計了以傳輸Dante ch數來計算的硬體晶片成本、因而造成生產成本的大幅提昇。嵌入式系統讓生產廠商更容易在預算內整合到原本的、小型ARM架構到大型x86架構的產品上,設計上也能整合大量的傳輸ch、或是可控制的低延遲系統。 特性: a. 最多128 x 128 ch雙向傳輸 b. 預設48kHz、最高192kHz c. 最低1ms Latency(Reference Design)、典型採用SDK的設計為5ms d. 支援PTP精準時脈系統 e. 支援Redundant網路系統 f. 與所有Dante系統的軟硬體相容,包括DVS、Via、Controller等 目前QSC已經整合Dante Embedded Platform到Q-Sys產品上。 Analog Device ADI將採用Reference Design的Dante Embedded Platform在ADSP-SC589 DSP + ARM處理器上。 只能說Dante系統在數位音頻網路的領域上,再上一層樓,它的王座更不容易被撼動了! Humphrey T

L-Acoustics 繼原本的SYVA系列柱狀喇叭,L-Acoustics在五月發表了新的SOKA系列柱狀喇叭與更低調的超低音SB6i。這次的Infocomm展會也做了展出。 SOKA為一米長的身形,使用9個3.5吋單體與3個1吋單體,水平140°、垂直26°不對稱涵蓋角度(向上5°、向下21°)。全頻輸出時音壓可達127dB(低頻延展到70Hz),或使用SPL預設值時音壓更可達130dB(低頻延展到100Hz)。 SOKA使用了COLinear Source技術,讓信號的涵蓋指向性不僅在高頻、也延伸到低頻率,可以延展到250Hz。讓聲音的聆聽上更具一致性。 SB6i為雙6吋的超低音,形體相當低調,但最大音壓114dB、低頻延展可達29Hz。 SB6i可使用多種安裝套件,而且套件具有良好的阻絕避震效果,讓安裝面與喇叭隔離,避免共震。 SB6i與SOKA供貨預定時程如下: 另外,還有一個重點商品,L-ISA系統的另一個版本,Ambiance。 Ambiance建構在L-ISA II的處理器上,透過串列的收音Mic,進一步分析場館本身的聲學特性,結合L-ISA系統,讓Immersive的聲音融合場館的音場成一體、並強化其特性。可以說,Ambiance讓L-Acoustics也踏入主動式音場強化的領域,如同業界的兩個領頭羊,Meyersound的Constellation系統、以及Yamaha的AFC系統。 Ambiance可以將收音進DSP的訊號,再以Early、Cluster、Late 初期反射、擴散、殘響三個階段來分別進行調整與強化,讓音控人員獲致一個既能結合場館原有的聲學特性、又能發揮Immersive效果的最佳表演環境。詳細的功能尚待進一步研究。 另外,L-Acoustics也推出了LA7.16i這台標榜是地表上最先進的擴大器。僅有2U高度、14.5公斤重量下,可以提供16個高瓦數擴大通道。 16個擴大通道,每個通道輸出在8Ω下可達1300W,相當於原本LA12X的鋒值電壓,相當驚人。 LA7.16i相當適合大型系統的安裝使用,由於16通道擴大與高瓦數輸出,一台LA7.16i便可以驅動32支的KIVAⅡ整個陣列系統。 或是4支3音路的K2、或8支X15監聽。 對比原本4通道的擴大器,同樣要提供96個擴大輸出時,LA7.16i僅要6台即可,相當於只要了1/4的Rack空間,節省40%的成本、減少52%的熱能擴散、降低20%的電力消耗、減少14%的待機電力。LA7.16i預定今年秋天就會開始供貨。 如往年,L-Acoustics除了一個主攤位外,還包了一個Demo Room做進一步的細節說明與實際聆聽,今年安排了現場吹奏,以便讓參加的人可以透過現場演奏、實地體驗L-ISA Immersive的效果。 今年L-Acoustics最特別的是,多了一個Tech Tour,邀請對L-Acoustics L-ISA系統有興趣的業界人士,直接參訪今年才剛完工、同樣位於Las Vegas、5000個座席的Resort Wolrd Theatre,這也是全球第一個固定安裝式的L-ISA系統,也是甫於今年4月剛拿到葛萊美獎的Carrie Underwood生平第一次擔任常駐藝人的表演場館。 這套由全球知名的PA硬體商Solotech整合安裝的14.1聲道Immersive系統,配置7串各14支橫跨舞台正上方的K2陣列,加上左右各12支的Kara擔任OutFill,還有兩串各8支中央吊掛的KS28超低音系統。除此外,舞台下方還有24支的KS21超低音,以及舞台上16支的5XT擔任Front Fill。另外還有多支的A10i置放於露台下擔任Delay / Surround功能。一共使用超過200支喇叭。 這是非常難得的機會,可以直接在現場聆聽原廠工程師說明整個系統的配置、工作流程,並可以更進一步體認Immersive系統安裝現地的運作與效果,讓筆者不禁扼腕無法參加這次的Infocomm,真的可惜啊! d&b的XSL系列線陣列 這是d&b SL系列最新的線陣列喇叭,雙8吋低音單體、3音路的設計。具備80°、120°水平涵蓋兩種類型可選用。 XSL系列承襲SL系列的Full Bandwidth Directivity 全頻寬指向一致性的特性。 一般而言,線陣列喇叭的指向性是重要的參數,讓使用者能預先規劃涵蓋的區域。高頻段通常沒問題,但限於物理特性,一般都無法控制到較低頻段,導致低頻會往四面八方漫射,影響舞台上演出,甚至在戶外場還會造成鄰居對噪音的抗議。 SL系列採用特殊的Cardioid設計理念來控制低頻的指向。除了原本的雙8吋低音,再於箱體側邊多加了6.5吋低音單體,利用類似End Fire Sub Array的設計,有效地讓前方能量疊加、後方低頻能量抵銷。讓指向性控制也能延伸到較低的頻率段。 另一個設計重點就是更有效率的驅動方式。如下圖、相同音壓/頻率響應各系列喇叭所需驅動功率瓦數比較,對比舉世知名的d&b J系列線陣列,KSL系列在相同音壓下(115dB),僅需要不到一半的功率驅動即可。 另外,XSL系列箱體採用ABS聚合物來製作,一方面減少箱體在大音壓下的共震,也讓XSLs能在如此小的體積下、音壓能極大化。 從第一次接觸到Infocomm展會,筆者就很喜歡參訪Infocomm。一個主要原因就是,在這裡,你可以一次看到整個ProAV生態圈的每一個端點的發展、新趨勢,從頭端(信號端輸入、編碼)、中間端(處理、分配)、到尾端(輸出、解碼),Audio / Video / Lighting / Signage / Control等不同領域,它們又是如何進行各種整合,你獲得的不只是產品的訊息,更多的是系統整合的方案與應用。 期待明年六月能夠再次到訪這個盛會! Humphrey T

1
2
3
4
5
6