當前位置:首頁 > 芯聞號 > 充電吧
[導讀]2017年12月,微信小程序向開發(fā)者開放了實時音視頻能力,給業(yè)內帶來廣闊的想象空間。連麥直播技術在2016年直播風口中成為視頻直播的標配,然而只有在原生的APP上才能保障良好的用戶體驗。那時候,在微信

2017年12月,微信小程序向開發(fā)者開放了實時音視頻能力,給業(yè)內帶來廣闊的想象空間。連麥直播技術在2016年直播風口中成為視頻直播的標配,然而只有在原生的APP上才能保障良好的用戶體驗。那時候,在微信小程序中無法連麥直播。微信小程序在去年12月宣布開放實時音視頻能力,再加上去年6月蘋果宣布將支持WebRTC,業(yè)內一下子千樹萬樹梨花開,前途一片光明。連麥直播技術和微信小程序以及WebRTC能產生怎么樣的化學作用?開發(fā)者在微信小程序或者瀏覽器WebRTC上實現(xiàn)連麥直播技術的時候,需要知道什么和考慮什么?

連麥直播的技術難點和解決思路

我們先回顧一下連麥互動直播技術,這個要從應用場景說起。

第一類應用場景就是最常見的視頻直播中的多主播連麥場景。從2016年開始,從單向直播發(fā)展到兩人連麥、三人連麥,逐漸到多人連麥。兩人連麥是指視頻直播場景里面的兩個主播進行連麥互動,具體的節(jié)目形式有談話、脫口秀、K歌或者合唱。在視頻直播中,兩個到三個主播連麥是很常見的形式,有時候會允許觀眾進行連麥。多人連麥的應用場景包括狼人殺、多人視頻群聊和組團直播答題等,在移動端同一個房間連麥互動的用戶往往達到十幾二十個。

第二類應用場景是線上抓娃娃,或者叫直播抓娃娃,也是視頻直播的一個產品形態(tài),視頻直播和物聯(lián)網(wǎng)的結合。線上抓娃娃技術除了包含視頻直播以外,還加上了信令的控制,可以實現(xiàn)遠程看著娃娃機并且控制抓娃娃的天車,同時主播和觀眾之間可以通過文字互動,還有語音視頻連麥互動。這是2017年年末的一個風口,把連麥互動直播技術帶到視頻直播和物聯(lián)網(wǎng)結合的場景中,相信今年會有更多視頻直播和物聯(lián)網(wǎng)結合的應用場景涌現(xiàn)。

第三類應用場景是直播答題,這是2018年1月份涌現(xiàn)的一股熱潮,是答題節(jié)目類在視頻直播場景中的探索。在低延遲、流暢和高清的基礎需求上,這個應用場景還要求答題題目和視頻畫面必須要同步。另外,花椒直播的直播答題房間內的用戶數(shù)量一度超過五百萬,因此直播答題技術必須要支持百萬級別的并發(fā)。雖然春節(jié)期間因為監(jiān)管的原因增加了準入門檻,但是我相信后面還會有別的新的玩法出現(xiàn)。行業(yè)里討論的一些新玩法在這里也和大家分享一下:主持人可以邀請嘉賓連麥進行答題,參加直播答題的用戶可以建子房間組團答題。這些創(chuàng)新的玩法在技術上都是可以做到的,本質上這就是直播答題技術和連麥互動直播技術的結合。

這三個應用場景對視頻直播技術有什么要求呢?

第一個是延遲要足夠低。如果單向延遲不能低于500毫秒的話,視頻通話的互動體驗就無法保障。

第二個是回聲消除。因為用戶A和用戶B之間進行視頻通話時,用戶A的聲音在傳到用戶B端時被采集并反饋回來,用戶A在一定的延遲后會聽到回聲,這個對通話的體驗是十分有影響的,因此必須做回聲消除。

第三個是要流暢不卡頓。為什么流暢性很必要呢?因為有超低延遲的要求,流暢和延遲本身就是一對相互矛盾的技術要求,如果延遲足夠低的話就要求抖動緩沖區(qū)足夠的小,這樣網(wǎng)絡抖動就很容易顯現(xiàn)出來,導致出現(xiàn)畫面過快、過慢,或者卡頓的情況。

下面我們來具體看看怎么解決這三個視頻直播的核心技術要求。

一、超低延遲架構

市面上做連麥直播解決方案的系統(tǒng)架構普遍大概這個樣子,左邊是低延遲網(wǎng)絡,為需要低延遲的用戶提供連麥互動直播服務,成本較高。右邊是內容分發(fā)網(wǎng)絡,為圍觀用戶提供視頻直播服務,雖然延遲稍微高一點,但是成本比較低而且支持更高的并發(fā)。中間通過一個旁路服務連接。旁路服務器從低延遲的實時網(wǎng)絡中把音頻流和視頻流拉出來,有選擇地進行混流、格式轉換或者協(xié)議轉換等處理,然后轉推到內容分發(fā)網(wǎng)絡,然后通過內容分發(fā)網(wǎng)絡分發(fā)給圍觀用戶。

要構建超低延遲的實時系統(tǒng)架構,需要考慮以下幾個要點:

1、負載均衡- 超低延遲架構必須要做到負載均衡,也就是說任何一個網(wǎng)絡節(jié)點都必須均衡地負載用戶。如果某一個網(wǎng)絡節(jié)點的用戶訪問量超過了它能夠承載的上限,容易出現(xiàn)大量丟包的情況,這樣會觸發(fā)網(wǎng)絡擁塞,從而引起更多的丟包,導致用戶體驗不好。

2、就近接入- 網(wǎng)絡上的“近”和我們理解的直線上的近是不一樣的。這個可以類比為交通網(wǎng)絡,假設開車的時候看到另外一個點離你近,但實際上可能不一定近,要考慮一下兩點:第一點是連通性,盡管A、B兩點看起來很近,但是從A點到B點是沒有直通的道路,這就相當于網(wǎng)絡的不連通。第二點是擁堵狀況,如果道路很短,但出現(xiàn)擁堵,那也不見得近。比如說,迪拜用戶和北京的用戶連麥,看起來直接從迪拜推流到北京是最近的,可是實際上這個直接的路徑可能是不通的,那么需要繞道香港進行中繼續(xù)傳,走一個彎路,在網(wǎng)絡上的距離可能會“更近”。

3、質量評估- 質量評估中的靜態(tài)方法是事后評估,具體是回顧過去的數(shù)據(jù),分析某一個地區(qū)的用戶在各個時間點推流到某個地區(qū)的數(shù)據(jù),總結出哪個時間點走哪個路徑比較好的方案,然后人為地將相關數(shù)據(jù)配置到實時傳輸?shù)骄W(wǎng)絡,可以提高傳輸質量。

4、動態(tài)路由- 質量評估的另外一個方法是動態(tài)評估,也就是根據(jù)歷史數(shù)據(jù)動態(tài)地進行質量評估。傳輸網(wǎng)絡在運作一段時間后會積累很多用戶數(shù)據(jù),比如說深圳的用戶在早上、中午、晚上不同的網(wǎng)絡情況下推流到北京的最優(yōu)路徑,這些數(shù)據(jù)積累下來,可以為動態(tài)地制定路由策略作依據(jù),這就是動態(tài)路由。

5、算法流控- 在實時傳輸網(wǎng)絡中,我們要選出一條最優(yōu)的路徑進行推流。如果這個最優(yōu)路徑還達不到超低延遲的要求,這個時候我們要在算法上做一些補償,例如信道的保護,通過增加冗余,保護信道里的數(shù)據(jù)。還有在推流時做一些流控策略,上行網(wǎng)絡中,如果檢測到網(wǎng)絡抖動,或者說弱網(wǎng)情況的話,就降低碼率,網(wǎng)絡情況變好的話,就把碼率提高。下行網(wǎng)絡中,可以通過分層編碼為不同網(wǎng)絡環(huán)境的用戶選擇不同碼率的視頻流。

二、回聲消除

什么是回聲?舉個例子,假如你是近端的用戶,接收到遠端用戶的聲音,這個聲音通過喇叭播放出來,會在房間里面發(fā)生傳播,被天花板、地面和窗戶等反射后,連同你的聲音一起被麥克風采集進去,再傳到遠端。遠端用戶在一兩秒的延遲后,會再次聽到自己的聲音,這對遠端用戶來說就是回聲。為了保障用戶體驗,必須要做回聲消除。對于音視頻引擎來講,麥克風采集進來的聲音里包含了遠端用戶的回聲和近端用戶真實的聲音是很難區(qū)分的:這兩個聲波都是從空氣中采集進來的沒有差別的聲音,有點像藍墨水和紅墨水混在一起,很難分開一樣。

那就沒辦法了嗎?其實我們還是有一些辦法的。遠端傳過來的原音是參考信號,它和回聲信號雖然相關,但是并不完全一樣。如果直接把麥克風采集進來的聲音減去原音是不對的。因為回聲是參考信號播放出來以后,在空氣中經(jīng)過反彈和疊加以后形成的,和參考信號有相關性,但不等同。我們可以理解為回聲信號和參考信號有一定函數(shù)關系,而我們需要做的就是把這個函數(shù)關系求解出來。通過參考信號作為函數(shù)的輸入,模擬出回聲信號,再把麥克風采集到的聲音信號減去模擬回聲信號,最終達到回聲消除的目的。我們是通過濾波器來實現(xiàn)這個函數(shù),濾波器會不斷的學習和收斂,模擬回聲信號,使模擬回聲盡量逼近回聲信號,然后將麥克風采集進來的聲音信號減去模擬回聲信號,達到回聲消除的目的。這個步驟也稱為線性處理。

回聲有三種場景類型:靜音,單講和雙講。對于單講(也就是一個人講話)來說,線性處理后抑制的效果會比較好,回聲消除得比較干凈。對于雙講(也就是多人同時講話)來說,線性處理后抑制的效果就不是那么好,這時就需要采取第二個步驟:非線性處理,把剩余的回聲消除干凈。非線性處理沒有太多開源的東西作為參考,要靠各家廠商自己去研究,十分能體現(xiàn)各家廠商的技術積累。

三、抖動緩沖

網(wǎng)絡存在擁塞、丟包、亂序和抖動,因此網(wǎng)絡傳輸會帶來數(shù)據(jù)損傷。特別是使用基于UDP的私有協(xié)議來傳輸語音視頻數(shù)據(jù)的時候,需要做抖動緩沖。以WebRTC為例,對音頻數(shù)據(jù)的抖動緩沖叫NetEQ,對視頻數(shù)據(jù)的緩沖叫做JitterBuffer,都是WebRTC開源項目中十分有價值的部分。抖動緩沖就是對數(shù)據(jù)包進行緩沖排序,對丟包和亂序這些網(wǎng)絡情況進行補償,來保障流暢性。抖動緩沖的隊列長度本質上就是隊列延遲時間,如果太長的話延遲就很大,太短的話抖動就會被顯現(xiàn)出來,用戶體驗就不好。有關抖動緩沖區(qū)長度的設置,每一個廠商做法不一樣,有的是將網(wǎng)絡報文的抖動時間的最大方程作為緩沖隊列的長度。這是一個開放的話題,需要各家廠商自己去思考。

我們在這里做一個階段小結,從推流端到拉流端,整個流程包括了七個環(huán)節(jié):采集、前處理、編碼、推流、拉流、解碼和渲染。那我們一起來看看上面三個技術難點分別在哪些環(huán)節(jié)?

1)低延遲,基本上引入延遲的有三類環(huán)節(jié):采集和渲染、編解碼、網(wǎng)絡傳輸。第一類是采集和渲染環(huán)節(jié),帶來的延遲比較大,尤其是渲染,幾乎沒有任何移動端系統(tǒng)可以保證百分之百做到50毫秒的延遲,這是一些硬件上的限制造成的。第二類是編解碼環(huán)節(jié),特別是音頻編解碼器是往前編碼的,這個本身就會帶來延遲,甚至有些音頻編解碼器能帶來200毫秒的延遲。第三類是網(wǎng)絡傳輸,在即構科技的實時傳輸網(wǎng)絡里,往返的傳輸延遲分別都可以做到50毫秒以下。其中,采集和渲染、編解碼都是在終端實現(xiàn)的。

2)回聲消除,屬于語音前處理3A,需要在前處理環(huán)節(jié)進行,也就是在終端實現(xiàn)的。

3)抖動緩沖,是在接收端實現(xiàn)的,通過接收端的抖動緩沖來決定發(fā)送端要以多大的時間間隔來發(fā)送數(shù)據(jù)包。

綜上所述,剛才說的三個技術難點都是在終端實現(xiàn)的,因此終端非常重要。下面我們重點比較連麥直播技術在各種終端上的實現(xiàn)。

連麥直播在各種終端的比較

連麥直播的終端主要包括:原生APP、瀏覽器H5、瀏覽器WebRTC、微信小程序。瀏覽器上的應用包括H5和WebRTC,前者可以拉流觀看,后者可以實現(xiàn)推流和拉流。

連麥直播移動終端-Native APP

原生APP終端音視頻引擎畫的結構框圖如下,基本包括了音頻引擎、視頻引擎和網(wǎng)絡傳輸,合稱實時語音視頻終端引擎。這里還包含底層的音視頻采集和渲染,還有網(wǎng)絡的輸入輸出能力,這是操作系統(tǒng)開放的能力。

原生APP有個天然的好處,它是直接和操作系統(tǒng)打交道的,操作系統(tǒng)開放的資源和能力它都可以直接用,比如說音視頻的采集渲染,還有網(wǎng)絡的輸入輸出。套用一句時髦的廣告語:“沒有中間商賺差價”,直接和操作系統(tǒng)對接,可以獲得比較好的用戶體驗。

在原生APP上實現(xiàn)連麥直播的優(yōu)勢是,對上面所說的七個環(huán)節(jié)有較好的把控,可以獲得比較低的延遲,能自研實現(xiàn)語音前處理3A算法,包括回聲消除,還有對抖動緩沖策略和碼率自適應的策略都有比較好的把控。另外,可以自主選擇使用RTMP協(xié)議還是基于UDP的私有協(xié)議,對抗弱網(wǎng)環(huán)境更加有保障。

市面上比較流行的前處理技術,比如美顏、掛件、變聲等,原生APP都可以通過開放前處理接口讓開發(fā)者實現(xiàn)或者對接這些技術。為什么要強調這個呢?因為瀏覽器WebRTC和微信小程序都沒有開放前處理接口,開發(fā)者沒有辦法自行實現(xiàn)或者對接第三方的美顏或者掛件等技術模塊。

在原生APP上,開發(fā)者可以得到全面的把控能力,讓用戶可以獲得更好的體驗。主流的視頻直播平臺都有自己的原生APP平臺,而瀏覽器和微信小程序相對來說是輔助的。原生APP的用戶體驗是最好的,而且對開發(fā)者來說也是最可控的。

在原生APP上實現(xiàn)連麥直播的劣勢是什么呢?開發(fā)門檻高,開發(fā)周期長、人力成本高。另外,從獲取用戶和傳播的角度來講,也沒有瀏覽器和微信小程序那么便利。

連麥直播移動終端-瀏覽器(H5)

瀏覽器H5就像一個硬幣有兩面,有好處也有劣勢,好處是開發(fā)成本低,容易傳播,劣勢是只能拉流,不能推流,不能做到多個用戶連麥直播。另外,在瀏覽器H5上延遲也是比較大。如果使用RTMP或者HTTP-FLV,延遲會在1秒到3秒之間,如果用HLS延遲會大于8秒甚至10秒,這么大的延遲就根本就不允許實現(xiàn)連麥直播。

使用這三種協(xié)議都是通過瀏覽器H5中的播放器來播放的。在多主播連麥互動的場景中,一個播放器里面只能播一路視頻流,三個主播就得三個播放器,因此看不到多個主播同框連麥互動的情形。如果要看到多個主播同框互動的畫面,就必須把多路流混合成一路流,在單個播放器里面播放。

另外,瀏覽器H5的源代碼是開放的。如果在瀏覽器上把音視頻終端引擎實現(xiàn)了,相當于對外公開了所有核心的源代碼。因此,還沒有見過哪個廠商在瀏覽器H5上完整地把音視頻引擎真正做出來。即使你愿意做出來,瀏覽器也不會允許你這樣做,開發(fā)者和操作系統(tǒng)之間隔著瀏覽器,如果瀏覽器不把操作系統(tǒng)的核心能力開放給開發(fā)者,開發(fā)者就不能自主采集和渲染,不能掌控網(wǎng)絡輸入輸出,類似流控碼控等功能無法實現(xiàn)。

在瀏覽器H5中也可以通過websocket來傳輸,用jsmpeg來播放,視頻編解碼的格式用mpeg1。mpeg1是一個比較老的媒體格式,所有瀏覽器都支持。在瀏覽器中使用jsmpeg播放器播放mpeg1,所有瀏覽器也可以支持。這么做可以獲得比較低的延遲,但是還是無法推流,沒辦法實現(xiàn)連麥直播。

例子:線上抓娃娃H5版

下面使用即構線上抓娃娃H5版本為例,簡單介紹一下websocket在瀏覽器H5上的應用。從下圖左上角可以看到,在瀏覽器H5終端接入即構實時傳輸網(wǎng)絡時,我們加入了一個視頻接入服務器,右邊是即構實時傳輸網(wǎng)絡,使用基于UDP的私有協(xié)議。通過接入服務器實現(xiàn)協(xié)議的轉換和媒體格式的轉換:websocket和基于UDP的私有協(xié)議的轉換,mpeg1和H.264的轉換。如果原生APP接入就不需要做轉換,雖然有接入服務器,但是不會做轉換。

另外,線上抓娃娃的H5版本是沒有聲音的,除了應用場景的特點要求外,也要用H5實現(xiàn)了音頻引擎才能有聲音。如果在瀏覽器H5上實現(xiàn)了音頻引擎,就相當于把技術開源了,目前還沒有看到哪個廠商這么做。

連麥直播移動終端-瀏覽器(WebRTC)

大家可能會覺得很遺憾,瀏覽器H5雖然很容易傳播,開發(fā)簡單但是體驗欠佳,不能連麥直播。那么在瀏覽器上能不能推流,能不能實現(xiàn)連麥直播呢?答案是可以的,那就要用到WebRTC。

這里說的WebRTC是指已經(jīng)被內嵌到瀏覽器里面,被瀏覽器支持的WebRTC,而不是WebRTC的源代碼。部分主流瀏覽器內嵌了WebRTC,對開發(fā)者開放了瀏覽器的實時音視頻能力。

上圖是WebRTC的結構圖。我們可以看到WebRTC包括了音頻引擎,視頻引擎、傳輸引擎等,最底層的虛線框表示可以重載,也就是說瀏覽器把最底層的音視頻渲染和網(wǎng)絡傳輸?shù)牡讓幽芰﹂_放給開發(fā)者,開發(fā)者可以根據(jù)自己的需求選擇是否進行重載。音頻引擎中,包括了兩個編解碼器:iSAC和iLBC,前者針對寬帶和超寬帶的音頻編解碼,后者針對窄帶音頻編解碼。音頻引擎還包括了音頻抖動緩沖,回聲消除和噪音抑制模塊等。抖動緩沖中的NetEQ算法可以說是WebRTC里面的精華之一。視頻引擎中,包括了VP8和VP9的視頻編解碼器,甚至是即將到來的AV1。視頻引擎還包括視頻抖動緩沖和圖像質量增強等模塊。傳輸引擎,WebRTC使用的是SRTP(Secured Realtime Transport Protocol)安全實時傳輸協(xié)議。最后,WebRTC采取P2P的通信方式,沒有媒體服務器等后端的實現(xiàn)。以上是WebRTC的簡單介紹。

瀏覽器WebRTC一般的優(yōu)勢和劣勢這里就不再重復,請大家自行百度,這里只說重點。瀏覽器WebRTC的好處就是實現(xiàn)了相對完整的音視頻終端引擎,允許在瀏覽器上推流,可以實現(xiàn)連麥直播。然而,瀏覽器WebRTC也有不足:

1)沒有開放前處理接口,美顏和掛件這些模塊沒辦法接入第三方的或者自研方案。

2)媒體服務器后端沒有實現(xiàn),開發(fā)者要實現(xiàn)媒體服務器,然后通過開源WebRTC網(wǎng)關(比如說janus)接入。

3)編解碼器、抖動緩沖和語音前處理3A等能力只能依靠WebRTC,不能自行定制化。

4)部分主流瀏覽器是不支持WebRTC的,特別是蘋果的瀏覽器。雖然說去年蘋果宣布支持WebRTC,但是目前iOS Safari最新版本對WebRTC的支持并不好,iOS Safari的主流版本并不支持WebRTC,在iOS上面微信瀏覽器也是不支持WebRTC的。

如上圖所示,由于WebRTC不提供媒體服務器的實現(xiàn),因此需要把瀏覽器WebRTC接入到媒體服務器后端,這個可以是自研的,也可以是第三方的服務。瀏覽器WebRTC和媒體服務器后端之間的協(xié)議和媒體格式是不一樣的,因此要做協(xié)議和格式的轉換。WebRTC用的基于UDP的SRTP,需要把它轉換成媒體服務器的基于UDP的私有協(xié)議。另外,媒體格式也需要轉換,因為WebRTC中語音視頻格式默認用的是VP8或者VP9。同時實時傳輸網(wǎng)絡中有關信令調度也需要做一些調整。瀏覽器WebRTC和媒體服務器后端之間的接入層也可以采用開源的WebRTC Gateway(比如說janus)來實現(xiàn)。

瀏覽器是類似操作系統(tǒng)的一種超級應用,它坐擁重要的流量入口,然而它也是開發(fā)者和操作系統(tǒng)之間的“中間商”。開發(fā)者通過WebRTC獲得瀏覽器開放的實時音視頻能力,然而也必須要承受WebRTC帶來的痛苦。

連麥直播移動終端-微信小程序

這次演講的標題是《連麥互動直播X微信小程序》, 為什么直到這里才開始討論小程序?請允許我解釋一下原因。微信小程序是什么?是跑在微信上面的輕型應用。微信是什么?是類操作系統(tǒng)的超級應用。這些特征和瀏覽器以及H5是不是很接近?H5是瀏覽器支持的輕型應用,而瀏覽器是類操作系統(tǒng)的超級應用。瀏覽器背后是各大國際科技巨頭,不像微信這樣背后只有騰訊一個互聯(lián)網(wǎng)巨頭。因此,從這個角度來看,微信小程序、瀏覽器WebRTC和H5是有相通之處的。

微信小程序可以類比為瀏覽器H5那樣的客戶端和服務器的結構。其中HTML對應微信小程序的WXML,CSS對應小程序的WXSS,小程序的腳本語言和JS是一樣的,只是框架不一樣。微信小程序提供了兩個標簽,一個是

微信小程序開放了實時音視頻能力,對業(yè)界來說是重大利好。然而,根據(jù)上面的信息和邏輯,我們也看到采用微信小程序實現(xiàn)連麥互動直播的好處和不足。

好處有三點:

1)開發(fā)成本低,開發(fā)周期短,基本和H5的開發(fā)難度差不多;

2)很容易傳播和獲客,充分利用好微信的優(yōu)質流量;

3)可以推流和拉流,允許實現(xiàn)連麥直播和實時語音視頻通話。

不足有四點:

1)你會受制于微信小程序的實時音視頻能力,比如說,如果它的回聲消除有某些問題,你只能等微信團隊按照自己的節(jié)奏來優(yōu)化,而自己沒有任何辦法去優(yōu)化。

2)小程序沒有開放前處理接口,只能使用小程序自帶的美顏或者變聲功能(如果有),不能對接自行研發(fā)或者第三方的美顏或者變聲模塊。

3)通過RTMP協(xié)議推流和拉流,不能和基于UDP的私有協(xié)議互通連麥。如果要實現(xiàn)和基于UDP的私有協(xié)議互通連麥,就必須要增加接入層來轉換協(xié)議格式甚至媒體格式。

4)沒有實現(xiàn)后端媒體服務器,開發(fā)者必須要自行實現(xiàn)媒體服務器,或者把微信小程序接入到第三方的實時通信網(wǎng)絡。

瀏覽器通過WebRTC開放了瀏覽器的實時音視頻能力,而微信通過小程序開放了微信的實時音視頻能力,在兩個類操作系統(tǒng)的平臺上允許開發(fā)者去實現(xiàn)連麥直播和實時音視頻通話。然而,無論WebRTC還是小程序只是在終端上帶你入門,對開發(fā)者來說,要真正實現(xiàn)整套系統(tǒng),還有很多工作需要做的。

下圖展示了微信小程序如何接入到實時音視頻傳輸網(wǎng)絡。微信小程序的音視頻終端引擎也包含了音頻引擎,視頻引擎還有傳輸引擎。音頻引擎要負責采集和渲染,音頻抖動緩沖,語音前處理和編解碼。視頻引擎要負責采集和渲染、視頻抖動緩沖,視頻前處理和編解碼。關于傳輸引擎,微信小程序采用RTMP協(xié)議來推拉流,尚不清楚它的RTMP協(xié)議下層是TCP協(xié)議,還是通過QUIC來使用基于UDP的私有協(xié)議。如果RTMP的下層是基于UDP的私有協(xié)議,那么在弱網(wǎng)環(huán)境下的抗性會相對比較好一些,而TCP協(xié)議是一種面對公平的協(xié)議,對各個環(huán)節(jié)的可控性不強,在弱網(wǎng)環(huán)境下體驗就相對差一些。

如果要將微信小程序接入實時音視頻傳輸網(wǎng)絡,中間得有接入服務器,我們叫接入層。在接入層我們需要做協(xié)議的轉換,比如說,如果實時音視頻傳輸網(wǎng)絡是使用基于UDP的私有協(xié)議,那么要把RTMP協(xié)議轉為基于UDP的私有協(xié)議。還有媒體格式的轉換,如果和實時傳輸網(wǎng)絡的媒體格式不一樣,還需要進行轉換。

連麥直播移動終端-WebRTC通過WebView接入小程序

還有別的方法在小程序上做連麥直播互動嗎?必須要使用微信小程序開放的語音視頻能力嗎?也不一定。下圖展示了我在市面上看過的一個技術方案,它繞過了微信小程序實時語音視頻能力,通過微信小程序WebView組件實現(xiàn)了連麥直播的方案。這里和大家分享一下。

這個方案的基本思路是利用WebView的瀏覽器特點,在WebView內使用WebRTC的Web API,從而在小程序上獲得實時音視頻能力。上圖是這個方案的拓撲圖。最底層是微信小程序的基礎能力。上一層是WebView,WebView是微信小程序的一個控件,可以簡單看作一個類似瀏覽器的組件,提供了瀏覽器的一部分特性,但并不是完整的瀏覽器。微信小程序的WebView類似瀏覽器,那么就可能會支持WebRTC。然而必須要注意到,微信小程序的WebView在安卓平臺上支持WebRTC,但在iOS平臺上面不支持WebRTC。雖然這個方案理論上也能在微信小程序上實現(xiàn)連麥直播,但是它有以下的局限性:

1)在iOS平臺上,微信小程序不支持這個方案,上面已經(jīng)說過。

2)小程序WebView不是完整的瀏覽器,要比普通瀏覽器表現(xiàn)差而且有很多的限制。

3)開發(fā)者和操作系統(tǒng)之間隔了好幾層:微信底層,小程序,WebView,WebRTC,然后才是開發(fā)者的小程序應用。每一層的抽象都會帶來性能上的消耗,都會影響到最終的體驗。

這個方案本質上還是一個基于WebRTC的解決方案,沒有用到微信小程序開放的實時音視頻能力,而是快速地借助WebView組件,劍走偏鋒,十分討巧地在微信小程序里使用了WebRTC。

連麥直播在各種終端的互通

隨著連麥互動直播技術在各種終端上逐步實現(xiàn),那么我們就會面臨一個問題:在各種終端上可以連麥互通嗎?比如說,用戶A在微信小程序上可以和用戶B在原生APP上連麥互通嗎?

我們從上面提到的場景說起。用戶A在微信小程序上推流和拉流使用的是RTMP協(xié)議,如果用戶B在原生APP推流和拉流都是使用RTMP協(xié)議,那么兩者天然就是可以連麥互通的。如果原生APP推流和拉流都是使用基于UDP的私有協(xié)議,那么就不能直接地連麥互通,必須要經(jīng)過接入層進行協(xié)議和格式的轉換才能互動連麥。這個場景還可以延伸:用戶A在微信小程序上可以和用戶C在瀏覽器WebRTC上連麥互通嗎?背后的邏輯是一樣的。

以即構科技的方案為例,即構ZEGO的原生APP SDK有兩個版本:支持RTMP協(xié)議和基于UDP的私有協(xié)議,如果用的是支持RTMP協(xié)議的原生APP SDK,那么直接就可以和小程序互動連麥,如果用了基于UDP的私有協(xié)議的原生APP SDK,那么就要經(jīng)過接入服務器進行協(xié)議和格式的轉換。

基于UDP的私有協(xié)議在弱網(wǎng)環(huán)境下會有更好的表現(xiàn),而RTMP協(xié)議在非弱網(wǎng)的情況下表現(xiàn)也相當好,而且能夠很好地兼容CDN內容分發(fā)網(wǎng)絡。舉個例子,花椒直播的連麥直播方案一直都是使用即構科技提供的RTMP版本的技術方案,在線上運行兩年了,一直都保持良好的用戶體驗。

結語

連麥直播技術逐步在原生APP, 瀏覽器H5,瀏覽器WebRTC,微信小程序上延伸,衍生出更加豐富的生態(tài),提供更加便捷和良好的用戶體驗,對視頻直播平臺和用戶來說是好消息。然而,欲帶皇冠,必承其重。特別是在瀏覽器WebRTC和微信小程序上,開發(fā)者要充分理解這些類型終端的特點和局限,才能更好地在上面利用連麥直播技術進行創(chuàng)新,服務用戶。


本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內容真實性等。需要轉載請聯(lián)系該專欄作者,如若文章內容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或將催生出更大的獨角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉型技術解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術公司SODA.Auto推出其旗艦產品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關鍵字: 汽車 人工智能 智能驅動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產業(yè)博覽會開幕式在貴陽舉行,華為董事、質量流程IT總裁陶景文發(fā)表了演講。

關鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權最終是由生態(tài)的繁榮決定的。

關鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質量發(fā)展策略,塑強核心競爭優(yōu)勢...

關鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術學會聯(lián)合牽頭組建的NVI技術創(chuàng)新聯(lián)盟在BIRTV2024超高清全產業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術創(chuàng)新聯(lián)...

關鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關鍵字: BSP 信息技術
關閉
關閉