直播行业大火,大家可以在日常生活中接触到各类直播,例如游戏直播、乐秀、在线教育、发布会等等。无论哪种类型的直播,延时是直播过程中需要关注的一个重要的点。直播实现低延迟,是对大部分直播产品的要求,低延迟也是提升直播产品用户体验最有效的一个方法,特别是对于互动直播、在线教育这一类产品来说。今天简单跟大家介绍下直播如何实现低延迟。
低时延直播(Low Latency Live)是在直播基础上,通过传输协议优化、链路动态优选、超低时延转码等技术手段,将直播时延降低到毫秒级,满足直播延时敏感业务的诉求。
低延迟直播如何实现
直播时选择一条最优的路径
要选择一条最优的路径,有很多方法。目前使用比较多的是网络测速,用户个人连接数据分析,和用户群体连接数据分析等几种方法来选择最优的网络路径。
直播网络测速
推流端在推流之前,向各个路径发送简单的数据包,然后根据数据包响应的时间来推测哪条路径最快。这个方法比较简单,有效然而有限:选出来的路径只是在该测试时间点最快的,而网络状况是随着时间变化的;另外,简单数据包测出来速度比较快,并不代表流媒体传输数据速度也比较快。因此,这个方法得到的结果只能作为一个指标来参考。
直播 大数据 分析
为了回避单个采样时间点测速导致的偏差,可以采取对历史大数据进行分析,预测哪个网络路径最优。对历史大数据进行的分析分为两个维度:用户个人连接数据分析和用户群体连接数据分析。
1. 用户个人连接数据分析
每个主播用户的使用历史数据是有规律可循的。通过分析这些历史数据,可以发现主播用户从哪里接入,在什么时候接入,接入到哪个服务器,走什么路径的效果最优。这些历史数据积累得越丰富,历史数据分析得出来的结论就越靠谱。这个方法能够发现个人主播用户周期性的网络连接情况,能找出大部分时间连接效率最优的网络路径。然而,这个方法的缺点是:数据采样只是基于单个用户,采样点太少,没有全局考虑到该用户所在地区的整体网络连接情况。
2. 用户群体连接数据分析
为了弥补用户个人连接数据分析的不足,这里引入另外一个维度的数据分析:某地区用户群体连接数据的分析。针对某用户所在区域的用户群进行历史数据分析,可以发现这个区域网络连接随着时间变化的规律,找出在不同的时间点,在不同的接入点连接到哪个服务器最好。
单点网络测速,用户个人连接数据分析,再加上用户群体连接数据分析综合得到结论,就能比较有效地预测哪条路径最优。选路这部分需要不断地优化,才能积累丰富的用户数据,同时适应网络的变化。
在这条路径上做到最优
选好最优的路径以后,剩下的就是要在该路径上做到最优。这条路径包括了下面几个环节:采集,编码,推流,转码,分发,拉流,解码和渲染。在一个实时的音视频系统架构里,每个环节都会有一定程度的优化空间。行业内的小伙伴在这条路上已经有过很多探索,这里不想重复讨论别人已经探索过的议题,而只重点讨论下面几个关键点。
直播选择协议
传输协议的选择十分重要。传输协议一定程度上就决定了延迟的范围。选择传输协议的时候要考虑是推流端还是拉流端。推流端的协议有RTMP, WebRTC和基于UDP的私有协议。
CDN支持标准的RTMP协议,但是不支持基于UDP的私有协议。为了吸纳UDP的优点,而避免UDP的缺点,即构科技的互动直播技术采用了基于UDP的私有协议作为补充,在有必要的时候用来弥补RTMP协议的不足。比如说,只有在网络环境比较恶劣或者在跨国互通的情况下,才使用基于UDP的私有协议;比如说,只在推流端到媒体服务器这一段才使用基于UDP的私有协议,而从媒体服务器转推流到CDN网络这一段采用RTMP协议,在这两段之间通过把UDP私有协议转换成RTMP协议来进行适配和衔接。这样一来,即构科技的直播方案既拥有超低延迟的优势,又保留了标准协议普遍被CDN网络支持的好处。
一般来说,前向纠错和丢包重传互补使用,前者属于前验的方法,比较节省时间,但是占用多余的带宽;后者属于后验的方法,比较节省带宽,但是会消耗比较多的时间。在网络比较差情况下,丢包率比较高,那么可以通过前向纠错方法来保证信息完整送达。比如说发送冗余信息,确保在一定丢包率之下,接受方也能准确而完整的还原发送方所要发送的信息。在网络相对比较好的情况下,丢包率比较低,那么可以通过丢包重传的方法来保证信息完整送达。比如说针对丢掉的数据包,通过高效的机制进行重传,确保接受方能够完整的收到发送方所要发送的消息。
缓冲自适应
由于有网络抖动的存在,数据包的到达不是匀速的。
最直接的降低延迟的方法就是把缓冲队列的长度设置为零,接收到什么数据包就直接渲染什么数据包,然而这样做的后果就是播放不流畅,会出现卡顿。
因此,延迟和流畅两者本身就是一对矛盾的因素。我们要做的是寻找低延迟和流畅之间的平衡点,寻找平衡点的有效方法就是建立缓冲队列。在拉流端和混流服务器都需要建立缓冲队列。对于一个实时系统来说,缓冲队列的长度必须不是固定的,而是自适应的:当网络很好的时候,缓冲队列的长度就会变得比较短,接近零,甚至为零;当网络不好的情况下,缓冲队列的长度会变得比较长,但是不能超过能接受的上限,毕竟缓冲队列的长度本质上就是延迟的时间。
另外,还可以把缓冲自适应技术和快播或慢播技术结合起来使用。当网络由差转好的情况下,可以适当的播得快一点,尽快缩短缓冲队列的长度。当网络由好转差的情况下,可以适当的播得慢一点,让缓冲队列适当变长,保持流畅性。快播和慢播是结合观众的心理学模型,在适合快播和慢播的条件下采用,让观众没有觉察出播放速度的变化,同时整体感觉也显得既流畅又低延迟。
码率自适应
由于网络环境的复杂多变,码率要能自动适应网络状况的变化,也就是所谓的码率自适应。 在网络比较差的时候,要降低码率,让直播保持低延迟和流畅性;在网络比较好的时候,要提高码率,让直播保持高清画质。为了做到码率自适应,对协议选择也很考究。RTMP对码率自适应能做的事情比较有限,因为它基于TCP, 而TCP 下层已经做了网络质量控制,当网络出现拥塞的时候,上层应用不会及时得到通知。基于UDP的私有协议更加适合做码率自适应,因为它基于UDP,而UDP只负责发包和收包,把网络质量控制交给应用层来做,这样应用层会有足够的空间来实现码率自适应。
直播实现低延迟保持所有路径优质
那么,为了在直播技术中实现低延迟,要选择一条最优路径,还要在该路径上做到最优。故事讲完了吗?没有,我们忘记了一个前提:整体的道路网络必须要足够好。道路网络不好,怎么选都是烂泥土路,选了烂泥土路,如何能够跑的快呢?因此,要实现低延迟,网络基建必须要足够好。网络基建的质量可以通过以下三个方面来提高:
全网充分覆盖
一般来说,音视频 云服务 的机房会分布在核心的几个枢纽城市,边远地区的用户的访问质量是得不到保障的。另外,在中国国内,各个网络运营商的覆盖面是参错不齐的,有些网络运营商对一些边远地区也是覆盖不足的。为了做到全网充分覆盖,可以采用多节点代理和重定向,来确保全网充分覆盖无盲点。这个需要经过实际充分测试,才能够验证各类网络可以充分连通。
优质的网络节点资源
音视频云服务是跑在网络基建上面的,下层网络基建的质量必须要优质,而且音视频云服务和下层网络基建也要深度结合。为了实现直播技术的低延迟,最好能对接一线的网络运营商,这样部署的网络节点资源无论是数量还是质量上都是有充分的保障。这也是即构团队在过去十多年海量用户运营的过程中总结出来的经验。
版权声明:本文章文字内容来自第三方投稿,版权归原始作者所有。本网站不拥有其版权,也不承担文字内容、信息或资料带来的版权归属问题或争议。如有侵权,请联系contentedit@huawei.com,本网站有权在核实确属侵权后,予以删除文章。