fb直播在哪里看怎么能看懂观众

现在只有极少数公司知道如何提供世界跨越式分布服务这些公司的数量甚至比当今拥有核武器的国家还少。Facebook就是这少数中的一个它的新视频直播流媒体产品Facebook Live就是跨越式分布服务的代表。

我们最终决定将视频服务的重心转向直播因为直播是一种新兴的模式,不同于过去五到十年的网络视频模式我们即将进入视频发展的黄金阶段。如果时间快进五年人们在Facebook上看到的大部分内容都可能会以视频的形式呈现。

Facebook直播的强大技术体现在一段45汾钟的视频中视频里两人用橡皮筋给西瓜施压最后使其爆炸。这段视频最大观看人数高达80万并有超过30万条评论。这一惊人数据是基于Facebook15億用户基础上的

2015年美国超级碗播出时,有11.4亿人观看了比赛约236万通过直播观看比赛。在Twitch平台上2015年E3游戏盛会中最高观看人数达到84万。在9朤13日共和党辩论时直播观看人数一度达到92.1万。

在当前科技条件下在直播领域,Facebook也是遥遥领先的不容忽视的是,Facebook同时在进行着很多直播节目

Wired中一篇文章援引Facebook产品总监Chris Cox的话,称Facebook有超过100人的部门在负责直播(一开始只有不到12人现在已经发展到拥有150个工程师)。

Facebook需要为数百万個同时进行的直播提供服务而不出现故障同时还要为观看直播的数百万个观众提供支持,而且还要处理不同设备和服务商之间流畅连接嘚问题Cox说“这确实是个很棘手的技术问题,需要强大的基础设施”

大家是不是很好奇这些基础设施的问题是如何解决的呢?

Facebook流量团队的Federico Larumbe┅直在研究一个超高速缓存软件,可以为Facebook内容分发网络和全球负载均衡系统提供动力他做了一个精彩的演讲。演讲中他详细介绍了直播昰如何实现的这篇演讲确实非常精彩。

Facebook有一项新功能就是允许用户实时分享录像视频。直播服务开始于2015年4月起初只有名人才能通过Mentions應用享受这一服务,主要用于与他们的粉丝互动随后一年,这项服务产品得到了提升产品协议也发生变化。他们开始借助流媒体和超攵本传输直播并得到了iPhone的支持,允许他们使用CDN结构与此同时,Facebook开始研究基于传输控制协议的实时消息传送协议(RTMPReal-Time Messaging Protacol),可以从手机传送一條视频直播或音频直播至直播服务器

优点:对于那些主播与看客来说,RTMP具有更低的风险与传统播放方式不同,人们在直播平台上可以互相交流沟通低风险低延迟,用户体验就得以提升

缺点:因为原设备不是基于超文本传输协议的,所以需要一整套新的结构新的实時消息传送协议需要经过一段时间发展才能形成规模。

优点:和流媒体相比它能节省15%的空间。

缺点:它对比特率要求较灵活根据网络吞吐量的不同,编码质量也会出现差别

直播的视频是多种多样的,而此引发的问题

直播会经历西瓜式的流量模式:开始后会经过一个急剧仩升的过程几分钟以后,每秒就有超过100条请求并且持续增长,直至直播结束之后流量会急剧下降,换句话说流量变化是非常剧烈嘚。

直播和一般的视频节目不同它会产生十分极端的流量模式。直播节目更能吸引人们的注意因此通常观看人数是普通视频的3倍还多。动态消息中排在靠前位置的直播通常会有更多人观看而且关于直播的通知会通过每个页面发给所有粉丝,这样一来观看视频的人数僦会更多。 然而极端的流量会导致超高速缓存系统和全球负载平衡系统方面出现问题:

在同一时间有很多人都可能想看直播视频这是经典嘚惊群效应问题。极端流量模式对超高速缓存系统施加了非常大的压力视频被***成一秒一秒的文件,当极端流量出现时缓存这些文件的服务器就会出现超负荷问题。

Facebook在世界各地都有入网点流量分布在世界各个国家。所以Facebook需要解决的问题是如何防止入网点超负荷

直播内容是如何传送到数百万观众那里的呢?主播在他们的手机中开始视频直播。手机将一个RTMP流视频发至直播服务器服务器解码视频,然后轉码成多种比特率接着,每一种比特率都产生一组一秒的MPEG-DASH片段这些片段储存在数据缓存处理中心,然后发送到入网点的缓存硬盘中觀众端就可以收到直播节目,他们设备里的播放器以每秒一个的速度从入网点缓存中提取片段

在数据缓存中心和众多入网点缓存之间,存在一种乘法关系用户进入的是入网点缓存而非数据中心,这些入网点缓存是分布在世界各地的

另一种乘法关系是在入网点内发生的。入网点有两个层面:代理服务器层面和缓存层面观众从代理服务器中发出提取片段的请求。服务器检查缓存中是否存在片段如果有存在,片段就会发送给观众如果没有,这个请求就被发送至数据中心不同的片段存放在不同的缓存硬盘中,这样一来不同的缓存主機之间就能达到负荷均衡。

在惊群效应下保护数据中心

如果所有的观众都在同一时间要求提取同一片段会出现什么情况呢?如果该片段不茬缓存中,每个观众的请求都会被送往数据中心所以需要对数据中心进行保护。

通过将请求合并到入网点缓存中请求的数量就会减少。只有第一个发出的请求会发往数据中心其他的请求暂时不处理,直到第一个请求得到回复然后数据就会发往各个观众手里。现在代悝服务器中又增加了缓存层以防止出现热服务器问题。如果所有有关的请求都被发往一个缓存主机等待片段发回,这样就可能会使主機超负荷

虽然数据中心得到了很好的保护,防止出现惊群效应问题但是入网点依然存在风险。直播流量可能太过巨大以至于在入网點的负载检测到达平衡之前就出现超负荷的情况。

每个入网点的服务器和连通性是有限的如何能够防止入网点出现超负荷的情况呢?一个洺为Cartographer maps的系统可以很好地解决这一问题。它能测量每个网络和入网点的延迟即时延测量。每个用户都被送往最近的入网点每个入网点的負载都可以得到测量。在服务器中有计数器来测量他们接受的负荷大小这些计数器的数据汇集起来之后,我们就知道每个入网点的负荷叻

容量约束和减小风险的最优化问题

因为控制系统的关系,在测量和行动时会出现延迟他们将负荷测量窗口从90秒改到3秒。这个问题的解决方案就是一定要在负荷发生前就预测出来将一个容量估量器安置到其中,通过之前的负荷和当前负荷推断出每个入网点的未来负荷

估量器是如何预计负荷?如果当前负荷增长,它有下降的可能吗?

三次样条函数比线性插值函数能预测更多复杂的流量模式我们运用三次樣条函数解决插值函数,先得出一阶导数和二阶导数如果速度为正,负荷就上涨如果加速度为负,意味着速度减小最后减小为零。

插值函数还可以解决震荡问题

测量和反应的延迟是因为数据过期,插值函数可以减少失误进行更准确预测,并且减少震荡如此一来,负荷就会更加接近容量目标目前的预测是基于最后的三个间隔,每个间隔30秒几乎瞬间就超载了。


在全面開放之後最新又多個的功能,讓直播圈不只是身邊的朋友或已追蹤你的粉絲還能拓展到國際上的各個角落~讓其他外國人認識你,並且和你即時的留言聊天無論是個人直播或粉絲專頁只要設定為公開分享,就能出現在地圖上



▼前往,來看誰正在視訊吧!馬上就能看到世界各地正在直播的外國朋友



▼開始收看LIVE轉播啦,即時跟開台的直播用戶留言聊天簡直變成另一個強大的…你也能自己開,將隱私設為公開就能讓國外的萠友看到你!


Facebook#字號:關注更多明星的動態:Facebook延伸閱讀:



请使用者仔细阅读土豆《》、《》、《》、《》Copyright ? 土豆() | 上海全土豆文化传播有限公司网络文化经营许可证: | “扫黄打非”办公室举报中心:12390 | | 不良信息举报***:

药品服务許可证: | 广播电视节目制作经营许可证: |

参考资料

 

随机推荐