演讲:晓轶,腾讯高级副总裁
整理:游戏葡萄
来源:腾讯文化
4月24日,腾讯高级副总裁马晓轶在复旦大学管理学院校友会上,分享了他对元宇宙、VR/AR等内容的看法。
在元宇宙热潮下,马晓轶对元宇宙短期2-3年内的变化,看法是保守的。尽管现在很多专项技术有了突破,但元宇宙时代所需要的通用设备现在还没有出现。无论从技术还是商业来看,离它的发明与普及都还有距离。
但对于更长线的10年发展前景,他有很强的信心。一方面,元宇宙概念在近两年得到更多的技术支持,正在从多方面解决自身的瓶颈问题;另一方面,社会对其认知也正在突破,从仅局限于游戏、软件中的概念,朝着跨越多个场景的方向发展。而元宇宙质变的时间点,他认为是2030年。
元宇宙的技术现在发展到了什么状态?元宇宙需要什么样的设备和内容支撑?为什么质变会在2030年发生?在马晓轶的分享中,或许能找到答案。
元宇宙最近非常火,不过倒推来看,这并不是一个新鲜话题。
1997年,有款叫《UltimaOnline》的游戏,就在当时提出概念:这是一个持续运转的世界。这个理念下,游戏即使没有人在线参与互动,它的世界也在持续存在和持续发展。这个理念和现在元宇宙的理念是完全一致的。
差不多也是在1995-1998年这几年,各个互联网公司开始创业,考虑怎么把生活中的场景、关系放到线上。
Metaverse这个词,来自于1992年的一本小说。最近一次在商业界被提及,是2018年一个美国分析师写的一篇文章,标题是:腾讯的梦想到底是什么。
文章分析了腾讯为什么投资EpicGames、Roblox、Reddit、Snapchat,以及各种各样的内容和平台型的公司。当他把投资布局组起来后,他觉得用一个叫Metaverse的词再好不过。
随着Roblox的上市,Facebook改名Meta,元宇宙变成了一个越来越热的概念。为什么这么早的概念,在今天突然热起来了?我觉得是因为相较于过去,这几年发生了很多变化。
第一是整个计算能力到了临界点。2016年有一波VR浪潮,当时我就比较保守,也相对悲观一点。和很多行业里的人聊了,我们觉得要真正在VR的设备上支持好的体验,做到大规模应用,所需的技术远远没有成熟。
腾讯云架构师蒋昊:腾讯云区块链服务可零门槛适配长安链:11月4日,2021腾讯数字生态大会在武汉召开。在区块链活动专场中,腾讯云架构师蒋昊表示,腾讯云区块链服务(TBaaS)可零门槛适配长安链,轻松搭建落地长安链应用,具有全生命周期管控,全流程可视化,一站式全托管特性。可一键组网建链,多种灵活部署形态(公有/私有/混合云等) 。目前已落地政务、金融、农业等领域,具备成然可复制的通用化解决方案。
腾讯云区块链服务(TBaaS)具有强大的平台能力:
一、可视化管控长安链,TBaaS提供可视化的方式按需快速装配不同特性的长安链;
二、跨地域互联互通,TBaaS实现平台级互联,突破网络环境、地城限制;
三、跨链互操作,在长安链的草型上,兼容多种底层引擎平台,支持长安链与不同链的万操作,提供同构、异构跨链能力;
四、强隐私安全,可选配隐私保护方式,全链路加密传输,提供软硬件加密方式;[2021/11/4 6:31:37]
举个例子,当时的移动计算芯片完全无法支持高分辨率的显示,再加上电池、显示设备本身的限制,使得这个体验做的很差。
其次,是一些关键的新技术没到位。我很关心也一直在看很多上游的关键技术,甚至一些器部件生产的进展。我们已经看到一些路线图正逐步清晰起来,在未来的几年里,这些关键技术都会有一个突破性的发展。
第三,我自己觉得比较重要的是,互联网的渗透率也到了临界点。特别是经历了这两年的全球疫情之后,大家可以发现在家办公正变成主流——如果你是科技公司,如果不提供给员工在家上班的选项,那么你就失去了吸引力。大家已经习惯把生活的很大部分通过网络实现。
最后,我们站到用户的角度,从需求来看。人作为一个物种,最大的特征是「协同」。随着整个社会越来越复杂,我们需要的技术也复杂起来。当社会看到一些技术是有机会去满足这些需求的时候,便会推动它去实现一个非常大的突破。
基于以上几点来看,2006年《SecondLife》的第一次尝试,明显是太早了,到了2015年、2016年第一波VR的时代,我觉得也是太早了。
到了今天,或许便是一个合适的时间点。
所以正好借着这次会议,我们可以谈一下对未来Metaverse的畅想——说实话,我个人和外面很多媒体的报道有一些不一样的观点,就比如我会觉得现在谈论Metaverse的细节还是太早了。
腾讯音乐宣布首批数字藏品即将在QQ音乐上线:8月9日消息,腾讯音乐(TME)宣布首批限量“TME数字藏品”将于本月在QQ音乐陆续上线发售。“TME数字藏品”官宣页面显示,数字藏品是一种创新型电子收藏品,其包括视频/语音、黑胶唱片、明星周边等。根据此前相关报道,“NFT技术或将被QQ音乐应用在数字专辑及限量周边产品中”的消息也被证实。7月30日,腾讯音乐宣布计划在八月推出NFT加密艺术品平台,该平台将依托区块链技术向用户发行虚拟数字收藏品,未来或将被应用在数字专辑及限量周边产品中,且很可能会在腾讯音乐旗下各产品中同步上线。(TechWeb)[2021/8/9 1:43:43]
毕竟元宇宙到底该长什么模样、由什么部分组成......还是个很难清晰、精准定义的工作。
但是,我们现在可以将元宇宙,视为一种未来新技术、新应用的可能集成方式,是对未来人机交互、人人交互想象的合集。
我主要从沉浸感的体验和内容发展聊聊对元宇宙未来的想象。
沉浸感:2030年后,元宇宙或开始普及
首先,沉浸感,我觉得主要是两个方向:
人机接口&交互方式;
VR等设备的体验问题。
现在我们提到Metaverse,大家会不由自主地将它和VR联系在一起。当然,这是基于两个原因,一方面是因为前段时间Facebook下了非常大的注在VR的方向;另一个方向,我们如果要达成Metaverse的概念,那么VR这样的全新设备是免不了的。
为什么呢?普通人借助键盘、鼠标、触控等设备输入给电脑的信息,从电脑的技术角度来看,它们带宽其实很窄,能输入的信息很有限。而电脑只能根据这些东西,做出反馈,更多的信息都没有办法直接地输入进去。
但是,随着输入的带宽增加,其实我们可以加入更多维度。
比如,可以给VR设备增加更多的摄像头、传感器,将环境信息也输入到电脑当中。可以追踪人体状态,现在最新的技术可以实现6个维度——前后左右上下——的3D追踪,包括头的位置、眼睛朝向,方便和周围的环境互动起来。
其中最值得关注的,便是手的操作。现在最新的OculusQuest2,还需要用手柄来输入信息,但是业内有一个共识,更自然的交互,是用手来交互。
腾讯公开“基于区块链的交易管理方法”专利:企查查数据显示,2月26日, 腾讯科技(深圳)有限公司公开基于区块链的交易管理方法、系统及存储介质专利,公开号为CN112419068A,专利摘要显示,本申请揭示了一种基于区块链的交易管理方法,该方法包括:接收交易发起方发送的原始交易数据和原始签名数据;将原始交易数据中含有的节点信息与第一节点的节点信息进行对比等。本申请能够实现区块链上交易发源地的溯源。[2021/3/1 18:03:48]
这个进步,在手机上就出现过:早期的手机都是用触控笔来写的,但苹果就站出来说,这是违反人直觉的。人的直觉,应当是用手指去触摸屏幕——这个道理放在VR设备上也是一样。所以现在我们很多进展,就是去捕捉手指的动作。
另外,我们看到一些最新的技术专注做面部识别,捕捉表情。大家都知道人和人交流的时候,对方的反应是很重要的反馈。
比如说我们现在的线上会议,我的体验其实并不好,因为我看不到大家的表情,我不知道现在我的演讲是讲快了,还是讲慢了。可如果在线下,我就能马上看到观众的反应。所以未来我们也需要借助面部识别,去追踪人实时的表情,然后投射到虚拟的场景当中去......
这些新的输入方式,集成在一起,让信息带宽更大,能极大地改变电脑的信息输入。
也有一些让人非常兴奋的技术发展。
比如最近我们看VR头显上的显示单元。大家如果试过OculusQuest2,就知道它上面使用了Fast-LCD的技术。不过这个技术有一个问题,那就是纱窗效应。当设备离眼睛太近的时候,你能看到pixel像素点就在你的眼前,好像隔着一个纱窗在看。这个其实就和当年低分辨率的手机显示屏一样。
之后的故事大家都知道,iPhone能成功的很大一个原因,就是他们在iPhone4提出了视网膜屏幕的概念,极大地改善了大家使用手机屏幕的体验。
VR发展到了今天,针对这些问题,也有一些新的技术在诞生。比如说已经在生产线上的,4K分辨率的硅基OLED显示屏,已经能够为VR头显提供足够高的分辨率。
如何在VR头显上达成视网膜屏幕的效果?现在有一个标准,即,人的每一度视角上应该有多少个像素点。大致来说,有30个的时候,你已经开始感受不到像素的边界,如果到了60个/度,你就可以完全看不出像素点。所以,4K硅基OLED显示屏已经足够让大家有一个非常好的体验。
腾讯和阿里巴巴占2019年区块链专利申请总量20%:经统计,中国科技巨头腾讯和阿里巴巴在2019年提交了最多的区块链专利申请。腾讯及其关联公司在5800多项专利中申请了718项区块链专利,而阿里巴巴集团则提交了470项,它们合计占总数的20%以上。总体而言,拥有超过20项区块链专利申请的公司中约有63%来自中国,接下来是美国。值得注意的是,尽管2019年有超过5800项专利申请,但仅3%获得授权。(The Block)[2020/4/13]
亮度,也是一个VR头显的改变点。
从现在的硅基OLED显示屏,到未来的MicroOLED显示,都可以提供更高的亮度。之前,LCD大致大概只有400-500nit的亮度,现在我们已经能看到2000nit,而且从未来发展的路线图来说,我们已经看到10000nit的在研设备。
这就解决了一个非常大的瓶颈问题,即,提升显示单元的技术,增加用户的沉浸感。市场上也有了一些成型的产品。
但未来,还有一个很重要的发展方向,那就是折叠光路的技术。
以前的VR设备通常又厚又重又大,戴在头上很不舒服。未来我们能看到折叠光路的设备,可以将VR头显单元做得非常薄,更接近于普通戴眼镜的感觉。
还有一个突破,就是VR/AR的争论。VR说,所有的内容都来自显示单元,但AR说,得将内容和现实环境做重叠结合。
现在来看,行业大家做的都是折叠光路的方案——依旧用显示屏来呈现所有的内容,但是会在外界增加更多的感应器,来捕捉用户的周围情况,最后叠加在你的显示屏上——行业里还有一个传闻,大概在明年年初的时候,苹果就会出这样的一个设备,运用折叠光路的方案,实现VR/AR的效果。
综上所述,人机接口方面的技术路线图发展得很清晰。除了电池受到不少限制以外,其他方面,几乎都有了解决方案,且都在进展当中。
这也是我们对于元宇宙、VR/AR的发展抱有信心的原因。
另一个点,要想让技术体验足够好,单是设备内部有硬件支持还不够,还得有软件发展。
需要指出的是,这里的软件,指的是技术,不是内容。我们将其归结为3个维度:
腾讯区块链总经理蔡弋戈:新业务需要政策给予“先行先试”的支持:蔡弋戈称,目前来讲大的层面监管层比较明确,我们也都是在国家监管框架下做事情的。但是做新业务的时候,其实需要一些政策的支持,比如说做公益金融、服务中小微的时候,可能这是一个之前传统业务里面没有的有一定创新的业务模式,在这样的场景里面就需要政策能够给一些先行先试的支持。某些业务场景层面需要进一步推进,比如在金融领域运用区块链技术的时候,我们一直和监管层有充分的沟通,征求他们的意见,再看怎么进一步做一些应用。[2018/4/18]
1.可信的环境:Metaverse的场景越来越真实,让用户能相信这是一个真实的世界。
2.可信的人物:人是社交属性很重的生物,我需要与群体互动、交流、协作。这个当中,最需要的便是一个可信的人物。我相信大家都对这一点多少有所体会。
3.可信的交互:还是聊线上会议,这种形式更像一个演讲,而不是讨论,线下会有人插入进来讨论,有碰撞,但现在的线上没有这些东西。
如果要做一个更真实的交互,要涉及到很多让人足够相信的细节。比如我让你拿一瓶水,我和你握手,我能感受到其中的温度、重量,而这些,都是传统的电脑、Pad完全做不到的交互......不过现在已经有技术在这方面有了不少进展。
总结一下就是,随着技术的发展,我们需要提供很多的工具给做Metaverse、VR/AR的公司,同时,帮助大家可以做出更可信的世界和人物关系。
内容量:谁来提供足够多的内容?
这是一个挺大的话题。因为我们仍然不知道Metaverse需要包含哪些内容。不过现在来看,我们会觉得分几个维度:专业内容和通用内容。
这部分我会比较悲观。因为尽管技术在路线图上发展着,但需要更多的时间去准备。专用到通用,还需要更多的时间。
当一个技术还没有到举足轻重的地步时,它往往只是一个相对专业、专用的应用,比如说游戏、影视等方面;而通用类,比如说大家正在用的手机,现在已经有成千上万种办法去使用它。
大致拍脑袋说一下,我和内部团队交流的时候,一般将2030年作为一根基准线,在那之前,Metaverse还会是专用的阶段,到了之后,才可能会有些机会走向更通用的状态,开始挑战现有的电脑、手机的使用场景。现在更多是一个新的、补充的场景定位。
这里可能需要更细致地说一下专用和通用的差别。
差不多一个半月之前,我和EpicGamesCEOTimSweeney开会,讨论到这个问题的时候,我的总结是:我们现在的游戏,就是一个「游戏」,你看视频,看的也只是一个「视频」,但是Metaverse不一样,你应当是在Metaverse当中「生活」。期间有本质的区别。
比如当你去一个线上的电影院,那是一个专门的世界,割离出现实。但是Meta是将大家的生活融入、整合到这个虚拟世界当中。所以这就需要有足够多的内容,让你愿意生活在其中。
这些足够多的内容可以分为几个路线:
1.PGC的专业制作,例如腾讯这样的公司制作电影、游戏、电视剧,这是一个专业的制作。PGC仍然是Metaverse很重要的部分。
2.UGC。也就是用户产生的内容。
3.虚实结合。我们刚刚说了很多技术,便是要将现实世界整合、融入到虚拟的世界当中。
这三个部分,都是非常关键的内容组成部分。
那么如何实现呢?
首先,大规模的PGC内容,其实最近也有一些突破。关注新游戏的同学就知道,前段时间,EpicGames有一个非常震撼的demo,他们在《Matrix》上映的同时,做了一个虚拟的城市,这个城市的规模大概有10-20平方公里,当中有3万个市民,有大量的交通、建筑。
关键是,当中的车辆有自己的动作:到了红绿灯会停下来,看到人会停下来,而且这3万个市民,每一个人的穿着、行为、长相都不一样——若放在以往,要完成这么大规模的虚拟世界创造,几乎是一个不可能的任务。
但在今天,随着技术的发展,这些不可能的任务都在逐步实现,因为,一方面技术能力在增长,另一方面,这些东西有了更多的好方法去解决。
比如,我们和EpicGames有两个项目正在合作。一个项目,是可以通过AI来导入现实世界。之前我们去新西兰的一个山谷,那是一个10平方公里的山谷,我们在那里拍了7000-8000张照片,然后把照片导入引擎,这个引擎就会把山谷大致地还原出90%,然后再经过我们手动的一些微调,就可以实现在短时间内生成一个非常大的世界,而且这个世界看起来还非常的真实。
另一个项目,我们做的是一个虚拟人的项目——国内叫做Siren。后来EpicGames也发布了MetaHuman的项目,一个高度仿真的人。这其实都回到刚才我们提到的概念:一个可信的人是虚拟世界当中重要的构成。
同样放到以前,你要做一个虚拟人物需要花费相当多的时间。
大家也许听说过这个故事:好莱坞很多电影要做一个虚拟人,线上渲染10s的片子需要几个月的时间,但以现在的技术,好莱坞要4个月做出来的内容,我们能在0.01秒就渲染、达成前者95%的质量。
这些,都使得大规模的制作有了更好的办法。包括动作捕捉等内容,在AI的加持下,可以让创建一个内容变得更加容易。
其次是UGC部分,我和外部看法多少也不太一样。
比如,外部谈到UGC,那最关键的就是去中心化,但这个点上,我和Roblox的CEODavid有很多的交流——我们很早就参与了Roblox的建设,2015年左右就开始参与,做了不少投资——我们说到UGC内容成功的关键时,都提到社区的原则、透明性,尤其其中维持秩序、状态的部分,是需要强中心化的执行。
但这倒不是说我与外部意见相左,我认为,去中心化应该是指能力的去中心化:把工具、能力、资源给到用户,让大家无需一个中心化的平台,就能创建属于自己的内容。而能够支撑这些内容的,便是刚才所说的,一个持续、有原则、长线稳定的平台。我认为,这是一个做出UGC最重要的点。
而第三点,虚实的结合,很大程度上回到刚才我们所说的Metaverse、VR/AR新技术。其实我们所希望达到的目标,和互联网、人类社会以往的努力是一致的。人类一直想打破物理的限制,比如飞机、汽车都是为了消除物理的限制,缩短物理的损耗,提高大规模协同的效率。
所以长远来看,Metaverse更多是考量如何引入更多外部、现实世界的服务和内容,打破物理的界限。
更现实的问题
最后,我想聊一聊Metaverse、VR/AR存在的问题。
虽然我刚才所讲到的内容好像都很乐观,但是我个人内心深处,还是略带一些悲观。
平时,我和大家聊的时候都会这么说:看短期1-3年,我比大部分人更加悲观,看长线的10年之后,我会比大部分人更乐观,会认为这些新技术的场景会为整个人类社会带去很大的变化。
就我的观点而言,现在的这些技术会在2025-2027年之间大规模面世,但是要铺开来做,还是得等到2030年。这是我心目中的一个时间表。
举个简单的例子,价格就是一个重要的参考。比如刚才所说的4K硅基OLED显示屏,它的体验非常好,但价格太贵,光是一个显示单元的价格,就和整个OculusQuest2的整机价格是一样的。所以,价格下来还需要很长的时间。
其次,商业模式本身也还存在一些问题。如刚才我所说,现在还为时太早。
如果要将我们当下的阶段去对应到过去的历史,那么有这样两个时间点:
1.通用设备的普及。
很多年轻人可能不知道,最先家用的专用设备,其实是游戏机——雅达利2600,1977年发布,它可以对标到现在OculusQuest2的情况。
而大家熟知的IBMPC,是在1981年进入的市场,家用PC真正普及,是在Windows面世之后,85年是第一个版本,大规模推广的3.0版本是92年才有的,而更广为人知Windows95已经是95年的事情了。
可以看到,这个过程起码有6-10年的发展。
2.商业模式的成立。
其实90年就有互联网出现,但是大家知道的互联网公司,包括腾讯、Google等,都是在98年才成立。而且,这些公司真正找到支持他们的商业模式,大概都是在2004年左右。这过程同样花了很多年。
所以,短线来看,整个Metaverse的发展,还需要好几年的培育,但是培育的方向是清晰的,潜力也是非常清晰的。
上一个20年,整个互联网对人类社会、经济、技术的贡献,大家有目共睹,所以我相信未来20-30年里,以Metaverse为核心的、集成的互联网体验,会给整个社会带去更大的冲击。
而这其中,还会有很多的点,值得大家探讨、协作、推动。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。