IP广播系统,IP网络广播,IP公共广播系统方案设计和技术分析
时间:2018-01-02 阅读:628
IP广播系统,IP网络广播,IP公共广播系统方案设计和技术分析
摘要:本文以音频处理技术和IP网络技术为基础,设计了一个数字IP网络广播系统方案,然后结合该系统方案对阿坝师范高等专科学校的校园广播进行了设计。该方案主要包括模拟音源、语音编码设备、主控服务器、音频终端、网络主机和扬声器模块几个部分。首先通过编码设备将模拟信号转换成数字信号,数字信号经过音频服务器处理后,以IP数据报的形式传送到各个音频终端,音频终端将接收到的数据进行解码还原成原始模拟语音信号,再经过功放放大后推动扬声器发声。该系统*基于在现有计算机网络平台进行建设,无需单独布线,大大简化了广播系统结构,操作更加简单,功能更完善,是公共广播系统必然的发展方向。
IP网络广播系统绪论
广播的和意义
广播系统作为一种zui直接有效的信息传输工具,它被广泛的应用于诸如休闲娱乐、危险报警、应急指挥、信息发布等领域,起着重要作用。因此对于广播系统就要有严格的要求,如具有稳定可靠,功能强大,音质清晰,操作方便,自动播放,分点、分区控制,智能化程度高等一系列特点。
然而传统的广播系统,普遍采用音频或调频方式,受到电压、功率、阻抗等因数影响,传输距离短,频率低,易受干扰,系统扩展性差,以致音质不佳维护管理复杂,互动性能差等问题,已不能很好地满足生活的需要。
随着现代科技的发展,IP网络技术和音频处理技术的结合已经能很好地解决传统模拟广播系统存在的音质不佳、易受干扰、维护管理复杂,缺乏互动性等问题。本文正是基于IP网络技术和音频处理技术来设计和实现一个网络音频广播系统。
公共广播系统的发展
公共广播系统在改革开放以前就已经广泛存在于我国的农村、*、机关、学校以及工厂企业当中,用于转播*及各级政府的新闻、发布通知等。公社广播站管理的广播系统就是当时农村公共广播的一个典型例子,每家每户都安装有一个作为广播终端的“话匣子”;在*、城镇中,各单位都有广播室,到处都挂有扬声号角(俗称“高音喇叭”)[1]。当时中国大陆,几乎每个单位都有广播系统,对于教育、动员群众,发布政令起着十分重要的作用。然而,由于技术水平的限制,当时遍布中国大陆的广播系统基本上都属于“功放+高音喇叭型”,是zui简单的广播系统。
在改革开放以后,随着经济的发展和技术的进步,公共广播有了很大改变。由于信息渠道逐渐增多,以前简单的、统一的公共广播网,逐渐向个性化、多样化和功能化发展。与以前简单的广播系统相比较,改革开放以后的广播系统在结构上有了很大的进步,通过增加分区、定时控制、警报等环节,使广播系统的功能大大加强 [2]。在质量指标方面广播系统也有了规范,以前的广播只要求能听见“话匣子”说什么就可以了,没有其他的标准规范,现在在系统的信噪比、功率、失真等各个方面都有了标准。
随着计算机技术的普及,公共广播系统的各个环节逐渐开始使用计算机进行管理,使得公共广播系统进入了智能化管理阶段,初期主要是采用单片机来进行管理。直到上个世纪末,把整的个公共广播系统全部纳于计算机管理之下的设备基本上还未出现。直到2000年,全部使用计算机管理的产品才开始陆续在市场上出现。大部分智能化公共广播系统都是使用一台通用的 PC 机来进行管理,并由通用的键盘进行操控[3]。一些更加专业的产品,像迪士普的 MAG 智能化系列,则是由一台的主机虚拟了系统中除功放以外的所有环节,直接在主机屏幕上操控。与常规广播系统相比,智能化广播系统的组成大为简单,功能上更加灵活完善。
在传统的公共广播系统中,信息是靠模拟功率信号传输的,控制设备集中于机房。然而模拟功率信号传输线路不仅需要较大的线路截面,而且在多路传输、多点控制及各个终端之间的互动方面存在很大的不便,又很容易受到干扰,不便于远距离传输。随着音频处理技术和网络技术发展,传统公共广播模拟信号传输方式已经能由计算机网络传输取代,通过计算机网络传输广播音频数据不仅解决了模拟信号传输所存在的问题,还大大简化了广播系统布局,只需将数字音频终端接入计算机网络即可构成功能强大的数字化广播系统,每个接入点无需单独布线,*基于现有的计算机网络[4]。正是由于这种系统布局简单、功能强大的特点使得网络广播系统在我国迅速发展起来,而且,随着互联网技术不断的发展和创新,网络广播也将获得更大的发展空间。
IP网络广播的主要内容
本文主要是基于IP网络技术和音频处理技术,完成了一个数字IP网络广播系统方案的设计,并将该方案应用于阿坝师范高等专科学校的校园广播系统的设计中。
本文首先对公共广播系统的发展历程与现状、公共广播系统的类型及组成结构作了介绍。并对对系统设计方案涉及的相关技术及概念作了详细的研究。
其次本文对IP网络广播系统进行了设计。设计方案方案主要包括模拟音源、语音编码设备、主控服务器、音频终端、网络主机和扬声器模块几个部分。系统的工作流程,首先通过编码设备将模拟信号转换成数字信号,数字信号经过音频服务器处理后,以IP数据报的形式传送到各个音频终端,音频终端将接收到的数据进行解码还原成原始模拟语音信号,再经过功放放大后推动扬声器发声。网络主机可以通过登录系统服务器来查看终端状态、进行节目管理等。
zui后,在系统方案设计完成后,将该方案应用到阿坝师范高等专科学校的校园广播系统的设计中,校园广播系统的设计主要侧重于对系统的分区、设备的配置及选用工作。
IP网络广播系统方案相关概念
公共广播系统
公共广播系统(Public Address System简称PA),是指广泛用在现在各种场馆、大厦、小区、酒店、公园、学校等场合,为公众发布实时信息的广播系统。通常用于广播背景音乐,发布信息,广播寻人,以及消防广播等。
公共广播系统的组成
公共广播系统基本可以分为四个部分:节目源设备、信号放大处理设备、传输线路和扬声
器系统。
(1)节目源设备
节目源设备是一种向广播音响系统提供节目源的设备,包括传声器、调频调幅收音机、无线电广播、激光唱机和录音卡座等设备,此外还有传声器、电子乐器等。
(2)信号放大处理设备
作用是对输入的信号进行调节、放大、均衡、混响、压缩、分频、降噪、滤波等处理,以获得理想的信号输出。通常由均衡器、前置放大器、功率放大器和各种控制器材及音响加工设备等等周边设备组成。
(3)传输线路
传输线路是传输广播音响信号的通道,可以根据系统和信号的传输方式进行选择,一般分为模拟音频线路、数字双绞线线路、流媒体(IP)数据网络线路和数控光纤线路四种。
(4)扬声器系统
作为信号的输出设备,由一个或几个扬声器和相应的附件如障板、喇叭、分频网络等组成的,作为驱动电路和周围空气间耦合的设备。目的是为了获得所需频率特性、声场分布以及特殊声音效果等。
公共广播系统的分类
(1)公共广播系统按照信号传输、处理方式大体分可分为:传统公共广播系统、数字可寻址广播系统和媒流体(IP)智能数字广播。
① 传统公共广播系统是通过音频线把模拟功率信号传输到终端扬声器上,系统易受环境干扰,传输距离很短,音质不佳,多路广播时容易产生串音,设备线路固定,而且使用人工管理的工作方式等一系列问题使它在很多方面受到限制。
② 数字可寻址广播系统在传统广播的基础上增加了控制信号,音频信号、控制信号的传输全在数位域进行,具有更远的传输距离和更好的传输效果;实现了分区控制,通过软件可实现多个区域的独立控制和任意组合,也可以实现点对点的控制。
③ 媒流体(IP)智能数字广播将广播的音频信号进行数字编码,并通过网络传输IP数据包,再由终端解码还原为音频信号。它是基于互联网和局域网的纯数字化网络音频广播系统,无需另行布线,可利用现有的校园网或内部局域网。
(2)公共广播系统根据使用性质、建筑规模和功能要求可以分以下三种类型。
① 业务性质的广播系统
学校、办公楼、医院、商业写字楼、铁路客运站、航空港、工厂、银行及车站等建筑物可以设置业务性广播,以便满足以业务及行政管理为主的业务广播要求。
② 服务性质的广播系统
旅馆、宾馆、商场娱乐设施以及大型的公共场合应该设置服务性广播,服务性广播主要内容是背景音乐和客房节目广播, 以服务为主要宗旨,为人们提供娱乐性音乐类广播节目。
③ 火灾事故广播系统
主要用于发生火灾事故时,方便消防人员通过火灾事故广播指引人们快速撤离危险场所。
IP广播系统的单播/组播/广播
(1)单播 (unicast)
单播是在Client和Server之间建立一个一对一的通讯通道,交换机和路由器只对服务器发出的数据包进行转发而不进行复制。这样,有多少个客户对Server点播同一个节目,那么Server就要做多少次同样的发送动作,服务器负荷非常大。优点是服务器针对每个客户不同的请求发送不同的数据,容易实现个性化服务。由于其能够针对每个客户的及时响应,所以现在的网页浏览全部都是采用IP单播协议,比如现在的网页浏览、网页里内嵌的在线播放、在线网络游戏就是这种单播方式。单播可以对Client的暂停/继续,快进/快退,拖进度条等操作做出响应。不过如果网络上广泛应用的IPTV Server做成满足单播的话,要求点播的Client太多服务器就扛不住了。
(2)广播 (broadcast)
广播是将发出的信号无条件地复制并转发,网络中的每一个用户不管是否需要,都可以接收到。这样做显然Server是zui轻松的,只发一份数据出去,让底下的线路自己去复制。但若Internet上不加限制的话,那将会造成很大的宽带资源浪费,所以IP协议里就只允许在同网段里广播,禁止跨网段广播。由于其不用路径选择,所以其网络成本可以很低廉。我们常见的有线电视网实际就是一个广播型网络,电视机实际上是接受到所有频道的信号,但只将一个频道的信号还原成画面。
(3)组播 (multicast,或翻译成“多播”)
组播是将具有相同请求的Client加入同一个组,Server对每一个组只发送一份数据,然后由交换机和路由器复制并转发给各个组员。这样既能一次将数据发送给有需求的Client,又避免将信息强加给不需要它的用户,减少了宽带浪费的同时又减轻了服务器的负担。显然,组播是广播和单播综合体,并且做到了取长补短。
IP网络广播系统体系结构
2.2.1 C/S体系结构
C/S结构,即客户和服务器(Client/Server)结构。C/S结构的工作原理是用前端计算机上安装的专门应用程序来操作后台数据库服务器中的数据。我们通常所说的客户端实质上也就是这里所说的前端应用程序,主要任务是向数据库服务提出请求和接收处理数据的工作,如我们常用的、等聊天工具;后台数据库服务器(Server)主要任务是提供完善的安全保护及对数据的完整性处理等操作,并允许多个客户同时访问同一个数据库,服务器程序被启动后,就随时等待响应客户程序发来的请求。C/S结构可以充分利用两端硬件环境的优势,将任务合理分配到Client端和Server端来实现,从而降低了系统的通讯开销。
如图2-1所示,用户通过客户端进行操作,客户端程序会对这些操作进行相应处理,当需要对数据库中的数据进行存取时,客户端程序会向数据库服务器发送请求,服务器会对这些请求语句进行执行并返回结果,进而客户端对来自服务器的返回结果进行处理,再将结果输出以回应用户的操作。对用户而言,整过过程就好像只在自己的电脑上完成一样,网络和服务器都被隐藏了起来。
服务器经常使用高性能的PC机、小型机或工作站,并且使用大型数据库,如SQL Server、Oracle。在客户端应当安装专门的客户端软件。目前大部分应用软件系统几乎都是采用Client/Server形式的两层结构。传统的C/S体系结构虽然采用的是开放模式,但这只是系统开发一级的开放性,在特定的应用中无论是Client端还是Server端都需要特定的软件支持。由于没能提供用户真正期望的开放环境,C/S结构的软件需要针对不同的操作系统系统开发不同版本的软件。另外,采用c/s架构,要选择适当的数据库平台来实现数据库数据的真正“统一”,使分布于两地的数据同步*交由数据库系统去管理,但逻辑上两地的操作者要直接访问同一个数据库才能有效实现,这时就出现了一个问题,如果需要建立“实时”的数据同步,就必须在两地间建立实时的通讯连接,保持两地的数据库服务器在线运行,网络管理工作人员既要对服务器维护管理,又要对客户端维护和管理,这需要高昂的投资和复杂的,维护成本高,维护任务量也大。
B/S体系结构
B/S(Browser/Server)结构,即浏览器服务器结构,B/S结构示意图如图2-2所示。它是随着Internet技术的兴起,对C/S结构的一种变化或者改进的结构。在这种体系结构下,用户的工作界面通过浏览器来实现,只需要安装有浏览器,像WINDOWS系统自带的Internet Explorer,服务器使用SQL Server、Oracle等数据库[5]。浏览器通过网页浏览器与数据库进行数据交互。比较简单的部分事务在B/S结构前端就可以实现,但是主要事务是在服务器端来实现的,形成所谓3层结构。这样大大简化了客户端电脑的载荷,减轻了系统升级和维护的工作量及成本,在总体上降低了系统的成本。
所谓的3层结构(3-tier ),是在3层结构系统中,将系统整体划分为应用层(商用逻辑)、客户层(用户界面)、数据层(数据库)3层。在客户端只有用户界面,其余都安装在服务器上。客户端用来接收用户的操作及表示来自应用层的处理结果。由于将应用软件与客户端进行分离,以及安装在服务器上的原因,在商用逻辑发生变化的情况下,只须要改变服务器端的应用软件即可,不会牵连到整个系统。
使用B/S体系架构的网络平台不仅可以在内部网络中使用,而且外部也可以使用,如果想要在外部使用,只需要能够上网就行了,对集团式的、大型的公司使用比较适合,尤其是在不同的地点有公司、店面或者需要使用到这个平台的用户。而如果C/S结构需要远端连接,公司就需要在各Site部署IPSec VPN来实现。
目前,软件系统的改进和升级越来越频繁,B/S架构的产品明显体现着更为方便的特性。对一个稍微大一点的单位来说,系统管理人员如果需要在几百甚至上千部电脑之间来回奔跑,效率和工作量是可想而知的,但B/S架构的软件只需要管理服务器就行了,所有的客户端只是运行浏览器,基本不需要做任何的维护。无论用户的规模有多大,有多少分支机构都不会增加任何维护升级的工作量,所有的操作只需要针对服务器进行。所以客户机越来越“瘦”,而服务器越来越“胖”,这也是将来信息化发展的主流方向。今后,软件升级和维护会越来越容易,而使用起来会越来越简单。
2.3 音频信号处理技术
通过麦克风捕获到的信号是模拟信号,它是时间的连续函数。这个模拟信号的振幅就是音量,它的频率就是音调。正常情况下人耳可以感受到的声波范围是从20Hz 的低频声音到20kHz的高频声。我们可以通过两步把种模拟信号转换为计算机和网络能够识别的数字信号。*步是对模拟信号进行采样,是将模拟信号变为时间的周期固定的离散函数。根据奈奎斯特(Harry Nyquist)定理可知,为了以后能够恢复模拟信号的原来的面貌,采样的频率应该大于或等于模拟信号zui高频率的两倍;第二步是对采样后得到的离散信号进行编码,就是使用二进制编码来表示各个离散信号的幅度,也就是所谓的脉冲编码调制(pulse code modulation,PCM)。在硬件主要是使用由模数转换器和采样保持器构成的音频输入设备来实现的[6]。
2.3.2 音频数据压缩
由于采集来的音频数据有着相当巨大的数据量,如果事先不经过压缩,那么保存它们就需要大量的存贮空间,传输起来也比较困难,所以我们先得对其进行压缩。
音频压缩是指在引入损失很小且不损失有用信息量的条件下,对PCM编码(即原始数字音频信号流)使用适当的数字信号处理,降低其码率,也称为压缩编码。它必须具有与它相应的逆变换,称为解码或解压缩。
音频压缩技术分为有损(lossy)无和无损(lossless)压缩压缩两大类,而根据压缩方案的不同,又可将其划分为变换压缩、时域压缩、子带压缩,以及各种技术相融合的混合压缩等。根据压缩技术的不同,其算法的音频质量、复杂程度(包括空间复杂度和时间复杂度)、算法效率(也就是压缩比例),以及编解码延时等均有很大的差异。且因各种压缩技术应用场合的不同,其算法也有所不同。
数字音频压缩技术的应用范围广阔,市场前景良好,一些大公司和的研究机构都不遗余力地开发自己的技术及产品。因此,对音频压缩技术进行标准化管理就显得非常重要了。在这一方面取得成功的主要是MPEG-1音频(ISO/IEC11172-3)。MPEG-1对音频压缩共规定了三种模式,即层Ⅰ(ASPEC)、层Ⅱ(MP2,又称MUSICAM),层Ⅲ(即MP3)。因为在制订标准的时候对多种压缩技术进行了认真的考察,并且充分考虑了算法的可实现性(复杂度)和实际应用条件,因此三种模式应用都很广泛。VCD当中采用的音频压缩技术就是MPEG-1层Ⅰ;MUSICAM因其具有复杂程度的适当和声音质量的特点,被广泛应用在DAB、数字演播室、DVB等数字节目的交换、制作、存储、传送之中;MP3是在综合了ASPEC和MUSICAM的优点的基础上提出的混合压缩技术,MP3在当时的技术条件下,其复杂度相对较高,编码在时性方面存在问题,但MP3因其高水准的声音质量和低码率的特点,使得它深受软解压与网络广播的喜用。
2.3.2.1 MP3概述
MP3是一种音频压缩技术,其全称是动态影像专家压缩标准音频层面3(Moving Picture Experts Group Audio Layer III),简称为MP3。MP3是被设计用来大幅度地减少音频数据量,是在综合了ASPEC和MUSICA的优点的基础上提出的混合压缩技术。由于人耳只对20Hz~20kHz频率范围内的声音信号敏感,MP3因此利用这种特性,将时域波形信号转换成频域信号,并且将频域信号划分成多个频段,对各个频段使用不同的压缩比,在对信号保证不失真的条件下,对低频信号使用小的压缩比,对高频使用大的压缩比(也可能忽略信号)。如此一来就相当于抛弃人耳基本上听不到的高频声音,而只保留人耳能听到的低频部分,从而将信号以1∶10甚至1∶12的压缩比进行压缩。压缩成容量较小的文件,而对于大多数用户来讲重放的音质与zui初的不进行压缩的音频相比没有明显的下降。
虽然MP3对原始信号进行了高压缩处理,但由于其除去的大都是人耳基本听不到的高频成分,所以MP3压缩在音质上听起来几乎没有影响。MP3以它高品质的音质以及开放、免费等特点,不管是在网络上还是现实生活中,都占据了其坚实的地位,各种与MP3相关的软件产品层出不穷,很多的硬件产品也都支持MP3,我们能够买到的VCD/DVD播放机,便携的MP3播放器,手机等等,它已经成为目前zui为普及的音频压缩格式。
2.3.2.2 MP3编码
MP3编码主要由3大功能模块组成,包括混合滤波器组(子带滤波器和MDCT)、心理声学模型、量化编码(比特和比特因子分配和哈夫曼编码)。
(1)混合滤波器组这部分包括子带滤波器组和MDCT(Modified Discrete Cosine Transform,改进型离散余弦变换)两部分。子带滤波器组编码完成样本信号从时域到频域的映射,并将规定的音频信号通过带通滤波器组分解成32个子带输出。子带滤波器组输出的32个子带宽度是相等的,而从心理声学模型得出来的临界带宽却并不是等带宽的,因此为了使得临界频带与进行编码的各个比例因子带相匹配,就需要对各个子带信号做MDCT变换。MDCT滤波器组将子带滤波器组的输出细分为18条频线,32个组共产生576条频线。然后再利用心理声学模型中计算出来的子带信号的信掩比,来决定576条谱线的比特数的分配。
(2)心理声学模型。心理声学模型的原理是利用人耳听觉系统对高频信号的不敏感性,移除大量人耳不能分辨的信号,以达到压缩音频信号的目的。在使用心理声学模型之前要先对信号进行傅立叶变换,使信号有很好的频域解析度,以便于计算。MPEG-I使用了两种心理声学模型,*种在编码比特率高时提供适当精度,计算比较简单;第二种一般在较低比特率编码时使用,模型比较复杂。MP3编码中一般使用第二种心理声学模。计算出各个子带的掩蔽域值是心理声学模型的目的,并以此控制量化的过程。通常用FFT求出信号的频谱特性来实现心理声学模型过程的*步,根据频谱特性找出各频率点上的非音调成分(也称噪音成分)和音调成分(有些称为音乐成分);然后根据掩蔽域曲线确定各个非音调成分和音调成分在其它频率点的掩蔽域值;zui后将求出各频率点的总体掩蔽域折算到编码子带中。原始信号与zui终的压缩数据被解码后的结果是否可以不加区分取决于对于子带滤波器组输出的谱值量化后产生的噪声是否能够被控制于掩蔽域值以下。响度和频率决定了一个给定信号的掩蔽能力,因此心理声学模型的zui后输出是信掩比SMR(signal一to一mask radio),即信号强度和掩蔽阈值的比率。
(3)量化编码。量化编码的比特分配和量化是使用一个三层迭代循环模型来实现的。这三层包括:内层循环、外层循环以及帧循环。内层迭代模型对输入矢量进行量化,通过递增量化步长来使得量化输出能够在一定的比特位数限制之内被编码;外层迭代模型首先使用内层迭代模型,然后再调用外层迭代模型;帧循环复位全部的迭代变量,并计算能够提供给每节数据的zui大比特数。哈夫曼编码对量化的zui大值有限制,如果它的zui大值超过了限制,那么内层迭代循环就需要递增量化步长,重新进行量化,所以就需要事先判断所有的量化的zui大值是否超过限制。然后计算哈夫曼编码的位数,由帧循环计算出的每节编码所能够提供的zui大比特数要大于其所占的比特数,否则也要增加量化步长重新再进行量化。只有当量化满足要求以后,才将zui终的比例银子数值进行存储,然后跳出外层循环,并在帧循环当中计算出存储每节数据所用的比特位数。
2.3.2.3 MP3解码
MP3解码原理:MP3解码得整个过程是先将MP3数据帧进行解包,解出边带信息和帧头信息;然后再使用霍夫曼解码解出比特分配信息;接着在逆变换中利用频谱系数,在综合滤波器当中把32位子带合并成一个宽带信号。18个频谱值执行32位IMDCT(逆改进型离散余弦变换),然后再将生成的576个频谱值转换成长度为32的18个连续的频谱。经过18次的运算,这些频谱将会被多相位综合滤波器转换到时域,完成波形的重构,zui后生成立体声PCM音频码流。MP3解码流程如图2-2所示。
PCM信号进行MP3压缩时,以1152个PCM采样值为单位,封装成长度固定的MP3数据帧,其中帧是MP3文件zui小的组成单位。在解码的时候,利用数据帧里面的信息就可以将1152个PCM采样值恢复出来了。这1152个采样值共被分成两个粒度组,一个粒度组包含了576个采样值。
(1)帧头信息的读取以及数据流的同步。MP3音频解码过程中的*步就是使解码器与输入数据流同步,MP3数据流的同步是以帧为单位,每一帧的帧头都包含同步信息。这个同步信息是由连续的12比特的‘1’组成。在启动解码器后,可以通过搜索数据流中的12比特长的同步字来完成。在同步后面接着的数据就是帧头信息,包括填充位、采样率、比特率等信息。
(2)主数据的读取在MP3编码过程中使用了比特池技术,所以当前帧的主数据不一定全部都在当前帧中,在解码过程中,必须结合主数据开始指针的值来确定主数据的开始位置。主数据包含的数据有缩放因子、哈夫曼数据及附加数据。这些字段在主数据中有固定的格式。
(3)反量化和哈夫曼解码在MP3编码的过程当中,按照心理声学模型的输出,对离散余弦变
换的输出样本的量化和分配是以粒度为单位进行的,然后再对量化的结果进行哈夫曼编码。编码和量化主要是经过循环迭代来完成的,循环模块使用三层来描述,其中zui高层为帧循环,它调用外层迭代循环,而外层迭代循环又调用内层迭代循环。但是在解码得过程中,哈夫曼解码以及反量化过程是分开来实现的。由于都是用不同的哈夫曼表来对每个粒度组的频率线进行编码的,所以在解码的过程中,需要使用不一样的解码方法。反量化频谱过程就是基于所得到的哈夫曼解码数据,根据帧边信息和逆量化全缩放公式,对于不同的窗类型使用不同的公式来恢复576个频率线的真实值。
(4)反混叠和重排序。反量化过程当中得到的频谱值是按照不同顺序排列的。在编码的MDCT过程当中,是先按子带然后按频率来对于长窗产生的频谱值进行排列;对于短窗,是照子带、窗、频率的顺序来对所产生的频谱值进行排列的。为了增加哈夫曼编码效率,短窗中的数据按照子带、频率、窗的顺序被重新进行排列。解码时,重排序及时将短窗中的频谱值重新进行排列。同样,在编码的MDCT过程中,为了得到更好的频域特性,对长窗对应每个子带进行了去混叠处理,为了得到正确的音频信号,在解码时必须对长窗对应的子带进行混叠重建。
(5)逆向离散余弦变换。逆向离散余弦变换主要是使用逆向离散余弦变换的公式,对反量化得出的信号进行变换。逆向离散余弦变换的计算十分复杂,为了提率,可以对计算做一些优化。
(6)频率反转和子带合成频率反转是对逆向离散余弦变换的输出值中的奇数号子带(0到31号子带中的1,3,5,...,31)中的奇数号样本值(每个子带中的 0到17号样本值的1,3,5,...,17号样本值)进行反相处理,用来补偿编码时为提高离散余弦变换效率而进行的频率反转。子带合成滤波器将32个带宽相等的子带中的频域信号反变换成时域信号。子带合成是逆向离散余弦变换后的一个通道中32个子带的样值,经过一系列的计算还原出32个PCM数字音频信号的过程。子带合成过程先将32个子带样值进行逆向离散余弦变换,生成64个中间值,将这64个中间值转入到一个长为1024点的类似*先出FIFO的缓存,再在这1024个值中抽取一半,构成一个512个值的矢量,再进行加窗运算,zui后将加窗结果进行叠加生成32个时域输出。
音频信号传输
由于传输技术、设备或现场条件的限制,对于远距离广播音频传输,声音质量往往难以保证。如何快速而低廉地构建高质量远距离的音频传输平台,满足广播的需要,是我们亟待解决的问题。
传统的广播信号传输方式主要为微波、光纤、调频无线、ISDN(即窄带综合业务数字网)、传输器、普通或GSM等,但这些传输方式都存在不同程度的缺点。
微波、光纤及无线调频传输方式能提供高质量的音频传输,但对于远距离、直播地点不确定时,往往难以达到快速布点及有效保障。ISDN在我国除北京、上海、广州等少数大城市有一些应用外,目前已经逐渐淡出市场。而且对于跨省市的电信局之间,ISDN还存在调试困难、线路不稳定的情况。用普通或GSM,声音质量太差,做短时间的信息播报尚可,作为大时段长时间的直播就不太合适。用传输器传输音频信号是一种相对较好的方式,但也存在设备价格昂贵,实际应用中两台机器连接数率在24 kbps以上时容易出现掉线。所以为保障安全连接,一般都选用9.6 kbps至 21.6 kbps之间的连接速率,故此声音频响只能达到5~12 kHz,从而影响到了节目的传输质量[7]。
2.3.3.1 TCP/UDP
在互联网上要实现高质量实时数据连接,主要应用到传输层协议。根据OSI网络标准定义,网络由物理层、数据链路层、网络层、传输层、会话层、表示层和应用层7层组成。而在实际应用中,网络结构可简化为链路层、网络层、传输层和应用层用户接口,其结构如图2-4所示。
在TCP/IP层结构模型中,传输层的功能是使源端主机和目标端主机上的对等实体可以进行会话。在传输层定义了两种服务质量不同的协议。即:TCP(transmission control protocol)传输控制协议和UDP(user datagram protocol)用户数据报协议[8]。
TCP协议是一种面向连接的协议。能够提供可靠的、全双工的网络通信服务,具有确认、数据流控制、多路复用和数据同步等功能,适合无差错高质量数据的传输。由于TCP协议对数据完整性和正确性的苛刻要求,不得不在协议自身中加入大量控制内容。这些控制内容可以用于检验数据包的时序,完整性,正确性等。由于这些数据的加入,导致发送端和接收端的计算量加大,并且,由于这些控制数据的加入,使得传输数据的体积也加大了很多,加重了对网络的负载。这些问题zui后都指向一个致命的问题:数据的延迟性被增大了。因此TCP协议不适合传输实时音频数据和突发性的大量数据[9]。
UDP协议是一种无连接的传输层协议,提供面向事务的简单不可靠信息传送服务。UDP 并不提供对IP 协议的可靠机制、流控制以及错误恢复功能等。虽然UDP提供的是无连接的、不可靠的数据传送方式,但是相对于TCP协议,UDP协议减少了确认、同步等操作,节省了很大的网络开销,它能够提供高传输效率的数据报服务,能实现数据的实时性传输,在数据的实时传输中应用广泛[10]。
尽管UDP协议延时较小,但在不可靠网络条件下,这仍然是影响传输的重要因素。在这种情况下,通常在客户端设定一个缓冲区来减少网络的延时。接收到的数据包先压入缓冲区,当缓冲区中达到预定数量的包后,开始解码播放。这样可以减少延时变化的影响,这种缓冲区的大小应该是随着网络的变化而变化。选定缓冲区的大小至关重要,因为如果缓冲区过小,一些zui终能到达甚至马上就到到达的数据包可能会被认为丢包而遗弃,增大的丢包的可能性。相反,如果缓冲区设定过大,将有更大延时,而延时的过大将有可能超过人耳能够觉察的门限值。
总结起来,UDP协议被广泛地使用在对网络数据传输实时性很高而对数据准确性要求不是非常高的场合。而当今网络传输物理介质的高速提升(光纤)也降低了数据包丢失的几率。当网络状态很好的时候,UDP协议的这两个缺点又可以很大程度上被克服。因此,UDP协议比较适合作为实时高质量音频数据的传输。所以,只要找到数据传输速度、延时及丢包三者的平衡点,就可实现高质量音频数据的实时可靠传输。
2.3.3.2 RTP/RTCP/RTSP
实时传输协议RTP(Real-Time Transport Protocol)是针对Internet上多媒体数据流的一个传输协议,被定义为在一对一或一对多的传输情况下工作,其目的是提供时间信息和实现流同步。RTP的典型应用建立在UDP上,但也可以在TCP或ATM等其他协议之上工作。RTP本身只保证实时数据的传输,并不能为按顺序传送数据包提供可靠的传送机制,也不提供流量控制或拥塞控制,它依靠RTCP提供这些服务[11]。
流媒体的传输是需要数据的适时的到达用以播放和回放,威胁多媒体数据传输的一个尖锐的问题就是不可预料数据到达时间。RTP协议就是提供了时间标签,序列号以及其它的结构用于控制适时数据的流放。在流的概念中“时间标签”是zui重要的信息。发送端依照即时的采样在数据包里隐蔽的设置了时间标签。在接受端收到数据包后,就依照时间标签按照正确的速率恢复成原始的适时的数据。不同的媒体格式调时属性是不一样的。但是RTP本身并不负责同步,RTP只是传输层协议,为了简化运输层处理,提高该层的效率。将部分运输层协议功能(比如流量控制)上移到应用层完成。同步就是属于应用层协议完成。它没有运输层协议的完整功能,不提供任何机制来保证实时地传输数据,不支持资源预留,也不保证服务质量。RTP报文甚至不包括长度和报文边界的描述。同时RTP协议的数据报文和控制报文的使用相邻的不同端口,这样大大提高了协议的灵活性和处理的简单性。
RTP协议和UDP二者共同完成运输层协议功能。UDP协议只是传输数据包,不管数据包传输的时间顺序。RTP的协议数据单元是用UDP分组来承载的。在承载RTP数据包的时候,有时候一帧数据被分割成几个包具有相同的时间标签,则可以知道时间标签并不是必须的。而UDP的多路复用让RTP协议利用支持显式的多点投递,可以满足多媒体会话的需求。RTP协议虽然是传输层协议但是它没有作为OSI体系结构中单独的一层来实现。RTP协议通常根据一个具体的应用来提供服务,RTP只提供协议框架,可以根据应用的具体要求对协议进行充分的扩展。
实时传输控制协议RTCP(Real-Time Transport Control Protocol)负责管理传输质量在当前应用进程之间交换控制信息。在RTP会话期间,各参与者周期性地传送RTCP包,包中含有已发送的数据包的数量、丢失的数据包的数量等统计资料。因此,服务器可以利用这些信息动态地改变传输速率,甚至改变有效载荷类型。RTP和RTCP配合使用,能以有效的反馈和zui小的开销使传输效率佳化,故特别适合传送网上的实时数据[11]。
当应用程序开始一个RTP会话时将使用两个端口:一个给RTP,一个给RTCP。RTP本身并不能为按顺序传送数据包提供可靠的传送机制,也不提供流量控制或拥塞控制,它依靠RTCP提供这些服务。在RTP的会话之间周期的发放一些RTCP包以用来传监听服务质量和交换会话用户信息等功能。RTCP包中含有已发送的数据包的数量、丢失的数据包的数量等统计资料。因此,服务器可以利用这些信息动态地改变传输速率,甚至改变有效载荷类型。RTP和RTCP配合使用,它们能以有效的反馈和zui小的开销使传输效率佳化,因而特别适合传送网上的实时数据。根据用户间的数据传输反馈信息,可以制定流量控制的策略,而会话用户信息的交互,可以制定会话控制的策略。
RTSP(Real Time Streaming Protocol),实时流传输协议,是TCP/IP协议体系中的一个应用层协议。该协议定义了一对多应用程序如何有效地通过IP网络传送多媒体数据。RTSP在体系结构上位于RTP和RTCP之上,它使用TCP或UDP完成数据传输[10]。HTTP与RTSP相比,HTTP传送HTML,而RTSP传送的是多媒体数据。HTTP请求由客户机发出,服务器做出响应;使用RTSP时,客户机和服务器都可以发出请求,即RTSP可以是双向的。RTSP协议以客户服务器方式工作,它是一个应用层的多媒体播放控制协议,用来使用户在播放从因特网下载的实时数据时能够进行控制,如:暂停、继续、快退、快进等。因此RTSP又称为“因特网录像机遥控协议”。
IP网络广播系统设计方案
系统总体方案
作为一个IP网络广播系统,首先,它应该具有一个或多个能提供音频信号的设备,用于读取音频文件或实时采集声音信号,如CD机、收录音机、卡座、传声器等音源设备;其次,要将上述设备输出的模拟信号转换成数字信号,应在音源设备后面应该连接一套语音编码设备,如声卡、多路采播卡等;再次,由于广播的应用非常广泛,传输的数据量非常大,单纯用扩大存储器容量、增加通信干线的传输速率的办法是不现实的,我们可以利用数据压缩技术来解决这个问题,通过数据压缩,可以把信息数据量压下来,以压缩形式存储、传输,既节约了存储空间,又提高了通信干线的传输效率。对于来自语音编码设备的音频数据的压缩、存储以及对来语音文件库中的音频流进行处理并经网络发送给广播终端等工作,可由音频服务器来完成,由WEB服务器对网络主机的访问提供服务;zui后,应该有用来对服务器进行访问,进行查询、设置、修改、管理节目等工作的一些网络主机,以及一些用来接收网络传来的音频数据并完成将音频数据还原成语音信号的功能的模块。
综上所述,整个IP网络广播系统模型主要由模拟音源、语音编码设备、主控服务器、网络主机和广播终端这几个部分组成,如图 3-1所示。其中,语音编码设备和主控服务器具体实现可以由一台高性能的PC服务器来完成。
(1)主控服务器。按功能可分为音频服务器、WEB服务器和数据库,主要任务是对音频数据进行处理、存储以及发送,并接收、处理客户端发来的请求等。
(2)网络主机。为任意可通过网络访问服务器的主机,用户可以运行网络广播系统客户端软件,通过系统服务器的登录与权限验证,就可以随时随地通过IP局域网或Internet网络对广播系统进行控制。用户可以通过网络主机的声卡进行实时采播,也可以进行本地文件播放,并可以远程编排定时播放任务,上传至服务器后等待服务器自动播放。
(3)广播终端。系统服务器上的播放任务将音频数据文件以IP数据报文方式发送到广播终端,在广播终端上进行解码还原为音频流,再对后级功放或音箱进行驱动。每一台网络广播终端设备拥有独立的IP地址,能够实现单点广播。
3.2 主控服务器
如图2.2所示,主控服务器系统包括音频服务器、WEB服务器和数据库三个部分。在系统构架
上采用客户/服务器(Client/Server)结构来处理音频服务器和广播终端之间的数据传输,采用浏览器/服务器(Brower/Server)结构来处理服务器和网络主机之间的互动[12]。
3.2.1 音频服务器
语音广播内容通常有背景音乐、音乐电铃、广播寻呼、信息宣传、时事政策广播、警示语等,而不同的播放数据,音频服务器的处理方式也有所不同。
对于背景音乐、音乐电铃、警示语等内容比较固定的情况,通常是事先将压缩的录制好的声音文件或硬盘上的音乐文件存储在服务器上,需要播放时可通过网络下载到客户端。音频服务器用于对输入的音频数据进行处理后储存到数据库中以及将来自数据库的音频流经处理后发送出去。对输入数据的处理方式取决于它是否经过压缩:对于已压缩的声音文件,我们首先必须要知道其编码方式,将其进行解码还原成PCM码,然后再按我们需要的格式进行压缩,我们这里使用MP3格式进行压缩,所以,如果是MP3格式的压缩文件可以跳过处理过程直接存入数据库;对于未经压缩的语音数据需经过压缩后存入数据库中。
而对于广播寻呼、信息宣传、时事政策广播等实时音频播放,则不能事先录制好和储存在服务器中,而是在发送方边录制边发送,接收方也要求能连续播放。
WEB服务器
WEB服务器作为B/S构架中的server,其作用是为网络主机的访问提供服务。当服务器收到网络主机发来的HTTP请求后,根据要求向数据库发出SQL数据请求,实现常规的登陆、查询、点播等功能。
数据库
数据库主要是用于存放语音文件和各种管理信息等,并能够提供音频点播、管理员身份验证、查询和节目管理等功能。
广播终端设计
广播终端的结构如图3-3所示,系统服务器上的播放任务将音频数据文件以IP数据报文方式发送到广播终端,广播终端的接收装置从网络中获取网络数据包 ,并拆分数据包 ,后将得到的音频数据经解压缩,还原成原始数字音频数据 ,然后对数字音频数据进行解码得到模拟音频信号,经功放放大后推动扬声器发声。每一台接收解码设备具有独立的IP地址,以实现单点广播。
广播和点播功能
广播功能是服务器按照预先安排的节目列表在数据库中寻找相关音频资源,并通过网络将其输送到广播区域进行播放。系统可设定自动打开或关闭主控设备电源,自动定时播放如背景音乐,报时铃声,转播电台节目等日常节目,编程实现播放全程自动化管理。平时系统通过读取节目列表有序地进行日常播放,当有事故发生需要播放紧急广播时,将暂停日常节目的播放,直到紧急广播播放完毕。需要发布实时信息时,可将外接音频(卡座、CD、收音机、话筒等)接入音频服务器实时压缩成高音质数据流,并通过网络发送广播数据,安装在不同广播终端的数字广播终端可实时接收并通过音箱进行播放。广播过程中客户端处于被动接收状态,无法控制音频流[13]。
与广播功能的被动接收不同,点播是客户端向服务器主动发出请求的过程,如图所示。
(1) 用户通过浏览器点击要看的音频文件的超链,这个超链并没有指向请求的音频文件,而是指向一个包含有实际音频文件统一资源定位符URL的元文件。
(2) WEB服务器把装有元文件的HTTP响应报文发回给浏览器,
(3) 浏览器收到WEB服务器的响应后,把提取出来的元文件传送给广播终端的音频播放器。
(4) 音频播放器使用元文件中的URL接入到音频服务器,请求下载音频文件。音频服务器和播放器之间采用RTSP协议实现实时音频数据播放的暂停、继续、快退、快放等功能,并在UDP上传送,保证音频数据传输的实时性。
3.5 软件系统
软件系统主要由服务器管理系统和客户端管理系统构成。服务器端的管理系统的管理功能有:用户配置管理 ,用于设置广播网络各层次用户分配相对应的操作使用权限、终端配置管理、分组配置管理、资源库节目管理、定时任务设置、用户配置管理、节目实时采播、库节目播放、安全管理等。客户端管理系统的管理功能有:终端状态查询、定时任务设置节目管理、节目实时采播、节目播放等。
第4章 IP网络公共广播系统的应用
程概况
阿坝师范高等专科学校是经批准建立的高等院校,也是目前四川省内*一所省属公办全日制师范高等专科学校。在经过2008年汶川后,阿坝师范高等专科学校新校园于2011年9月在国家4A风景区、长寿之乡汶川县水磨镇完成了重建。
阿坝师范高等专科学校新校园占地约600亩,共有建筑33栋,建筑面积23万平方米,主要包括:教学楼(3栋)、行政楼、学生宿舍(8栋)、实验实训大楼(2栋)、学生食堂、体育馆、美术楼、音乐楼、教师周转房(8栋)、校医院、图文信息中心、学术交流中心。
4.2功能需求分析
(1)广播系统能定时播放学校日常的音乐(如背景音乐、上下课铃声、保健操、英语听力、报铃声等),自动开关机,实现无人值守。
(2)能转播广播电台节目、调频无线广播,可以根据需求进行节目点播。
(3)校园内的背景音乐部分分为固定的几个分区,可以同时收听同一音源,也可分别广播。
(4)采用网络化广播系统,利用现有局域网,减少施工布线。
(5)除主控中心可以控制管理外,任意联网的计算机均可以登录管理系统进行终端状态查询、播放控制、节目安排等操作。
(6)可以在网络覆盖范围内对任意分区进行广播和寻呼。
4.3 系统分析
4.3.1 系统总体规划
由于阿坝师范高等专科学校刚完成灾后重建刚工作,校园的教学资源网、视频网、广播网、计算机通信网等各种网络都有待建设,如果每种网络都自成一体,那么校园各处都会看到许多粗细不一的线缆,严重影响校园的美观,也不符合当地“4A”风景区的建设要求。
为了避免上述问题的出现,阿坝师范高等专科学校的校园广播系统采用目前*的广播系统——IP网络广播系统,系统总体规划如图4-1所示。
该系统*是基于学校现有计算机网络建设,安装时无需单独布线,广播节目通过IP网络传送到各个音频终端,是真正意义上的纯数字化网络广播系统。
广播功放的选用
按照有线广播及火灾事故广播设计安装规范的要求:“有线广播的功放设备宜选用定电压输出。当功放设备容量小或广播范围小时,亦可根据情况选用定阻输出。”
由于教室扬声器有时需要单独进行节目播放,故需要单独的功放和音频终端,但需要的功放设备容量及广播范围都很小,而一般音频终端都内置有一定的功率的功放模块,故可以采用定阻挂壁音箱直接连接到音频终端,不需要功放驱动。
而对区域性广播,一个功放需驱动多个扬声器发声,功放设备容量较大,并且广播线路通常都相当长,须用高压传输才能减小线路损耗。
广播功放的zui重要指标是额定输出功率。应选用多大的额定输出功率,须视广播扬声器的总功率而定。对于广播系统来说,只要广播扬声器的总功率小于或等于功放的额定功率,而且电压参数相同,即可随意配接,但考虑到线路损耗、老化等因素,应适当留有功率余量。
按照有线广播及火灾事故广播设计安装规范的要求,功放设备的容量(相当于额定输出功率)一般应按公式(4-2)计算:
P = K1·K2·ΣP0 (4-2)
式中 P — 功放设备输出总电功率(W);
K1 — 线路衰耗补偿系数:1.26 ~ 1.58;
K2 — 老化系数:1.2 ~ 1.4;
P0 — 每一分路(相当于分区)同时广播时zui大电功率;
P0 = Ki·Pi
Pi — 第i分区扬声器额定容量;
Ki — 第i分区同时需要系数;
服务性广播客房节目,取0.2 ~ 0.4;
背景音乐系统,取0.5 ~ 0.6;
业务性广播,取0.7 ~ 0.8;
火灾事故广播,取1.0。
对于背景音乐系统,根据上述内容可知,广播功放的额定输出功率应是广播扬声器总功率的1.3倍左右。对于紧急广播,根据有线广播及火灾事故广播设计安装规范的要求,紧急广播功放的额定输出功率应是广播扬声器容量zui大的三个分区中扬声器容量总和的1.5倍。
4广播分区
对于学校来说,通常校园的不同区域对广播的需求是不尽相同的,为了便于播放及管理,广播系统需要划分成若干个相对独立的广播分区,由管理人员(或预编程序)决定各个广播分区的广播内容。
阿坝师范高等专科学校的广播区域主要有:教学楼(3栋)、行政楼、学生宿舍(8栋)、实验实训大楼(2栋)、学生食堂、体育馆、美术楼、音乐楼、教师周转房(8栋)、校医院、图文信息中心、学术交流中心。
各个教室经常需要进行单独教学节目播放,必须分别作为一个广播点,同时也可以任意地组合(如按年级、按楼层等)进行区域广播;行政楼、学生宿舍(8栋)、实验实训大楼(2栋)、学生食堂、体育馆、美术楼、音乐楼、教师周转房(8栋)、校医院、图文信息中心、学术交流中心以及绿化带一般没有特殊要求,可以分别划分为一个区域。各个区域可以共同播放一套节目,也可以同时播放不同节目。
广播系统分区的实现主要采用软件来实现。办公楼、学生宿舍、实验实训大楼、学生食堂、操场、教师宿舍、校医院、图书馆、学术交流中心和绿化带分别安置一台语音终端,用来对广播信号进行实时接收及解压,还原后的模拟信号通过功率放大器放大后驱动音响、音柱等发声。每个语音终端具有独立的IP地址,主控服务器可以通过校园网对各个语音终端进行点对点寻址和分组寻址,达到分区广播的目的。各个广播分区设备配置如表4-1所示。
表 4-1 各个广播分区设备配置表
广播分区 | 壁挂音箱 | 天花喇叭 | 室内音柱 | 草地音箱 | 室外音柱 | 功放 | 广播终端 |
教学楼(3栋) | 90只 | 30只 | — | — | — | 1台 | 91台 |
办公楼 | — | 20只 | — | — | — | 1台 | 1台 |
图文信息中心 | — | 40只 | — | — | — | 6台 | 6台 |
学生宿舍(8栋) | — | — | 80只 | — | — | 8台 | 8台 |
食堂 | — | — | 4只 | — | — | 1台 | 1台 |
操场 | — | — | — | — | 6只 | 1台 | 1台 |
校医院 | — | — | 4只 | — | — | 1台 | 1台 |
学术交流中心 | — | 20只 | 6只 | — | — | 4台 | 4台 |
绿化带 | — | — | — | 15只 | — | 1台 | 1台 |
教师周转房(8栋) | — | — | 80只 | — | — | 8台 | 8台 |
实验实训大楼(2栋) | — | 30只 | — | — | — | 2台 | 2台 |
4.4.4 传输线路
在广播系统工程施工过程中,人们往往将注意力集中在相关的器材配套上面,而忽略了对广播传输电缆的选择。其实,对于一个广播系统工程来说,要获得令人满意的音响效果,除了应配备高质量的广播器材(功率放大器、扬声器等)以外,广播传输电缆的好坏在一定程度上也影响着声音的质量。
IP网络广播系统仅在语音源和音箱喇叭两侧采用模拟技术,整个系统的传输平台基于现有计算机网络建设,安装时无需单独布线;系统模拟部分采用有线定压传输方式,铜导线因它具有电阻率较小、价格适中、性价比等特点,是目前广播系统使用zui广泛线材。
广播传输线路除了对线材选取有要求外,对其线径大小也有一定要求。理论上讲,线径愈粗,线路传输损耗愈小,但是随之而来的问题是,工程造价大大增加,施工难度加大了。因此确定线材的同时也要对线材的导体截面积进行选取,一般传输线路的导体截面积大小和导体材料,长度,负载,允许衰耗有关。其计算方法如公式[15]
S=nLP/U2 (mm2) (4-2)
式中 S——为传输线路的导体截面积大小;
L——为传输里程;
P——为负载扬声器功率;
U——为传输线电压;
n的大小同线材的电阻率及允许衰耗有关,常见工程情况下的n的值如表4-2所示。
表4-2不同导体材质和允许衰耗值时系数n的选择
允许损耗γ/dB | 1 | 2 | 3 | 4 | 5 | 6 | |
n | 使用铜导线 | 0.328 | 0.154 | 0.097 | 0.068 | 0.051 | 0.040 |
使用铝导线 | 0.492 | 0.232 | 0.145 | 0.103 | 0.077 | 0.060 |
4.4.5 控制中心设计
广播系统控制中心主要安装模拟音源和主控服务器等相关设备。主控服务器主要提供节目资源库管理、终端设备管理、用户管理与*、定时任务管理等;模拟音源包括卡座、DVD、收音机、调谐器、话筒等,它们输出地模拟信号通过服务器声卡,实时压缩成数字音频信号,以数据流形式在网络上传送。相关设备有数字调音器、电源管理器,以及用于监听各个广播点的监听终端等。
IP广播系统,IP网络广播,IP公共广播系统拓扑图