TON:谷歌痛失大将:“AI教父” Geoffrey Hinton离职,只为给人类敲响警钟?

文|Juny??编辑|VickyXiao

进入2023年以来,科技界里彷佛没有了大事,只剩下了人工智能。人人都在谈论ChatGPT、科技圈开卷大模型、OpenAI估值节节攀升、大公司你追我赶硝烟四起……

而这一切繁荣的背后,其实都离不开三位人工智能研究者的工作———曾因提出和发展深度学习神经网络,在2019年获得计算机界最高荣誉“图灵奖”的GeoffreyHinton、YoshuaBengio、YannLeCun。

可以说,没有这三位学者的研究,我们今天根本看不到ChatGPT、Bard的出现,也不会这么快的就能在日常生活中使用语音识别、人脸识别、图片检索、机器翻译、自动驾驶等技术。

其中,GeoffreyHinton是“三巨头”中最核心的人物,被业界誉为“人工智能教父”。他在2013年加入谷歌,把深度学习技术带进了谷歌的多项业务,直接推动谷歌成为了AI技术最出色的公司之一。同时,他还亲自培养了一大批机器学习相关的人才,包括了如今OpenAI的联合创始人和首席科学家IlyaSutskever。

谷歌对“加密”的搜索量降至2020年以来低点:金色财经报道,根据谷歌趋势的数据,“加密”一词目前的热度为17,远低于2021年5月的参考点100。比特币和以太坊也遵循了类似的下行轨迹。

投资者对比特币的兴趣下降之际,比特币已经连续10周稳定在2.8万美元左右。Galaxy Digital首席执行官最近将其描述为“缺乏活力”,因为“目前缺乏机构的兴奋感”。[2023/6/5 21:16:46]

“深度学习三大先驱”,图片来自于推特

而就在加入谷歌的第十年、深度学习迎来爆发式发展的当下,几周前,现年75岁的GeoffreyHinton辞去了他在谷歌的工作。而离职的原因,用他的原话来讲,是想要没有任何负担的给所有人讲一些他关于人工智能发展的“真心话”。

来自“人工智能教父”的担忧和警告

如果说谁最热爱深度学习相关的人工智能研究,GeoffreyHinton一定是最有发言权的那一位。从上个世纪70年代至今,GeoffreyHinton作为计算机神经网络的开拓者,已经在这个领域默默耕耘了近50年。

对于GeoffreyHinton来说,从无到有的创造一个全新概念和技术的过程曾经无比艰难。

从上个世纪80年代他提出神经网络理论开始,一直到本世纪初,长达20多年的时间里,学术界对神经网络理论都充满质疑,同时,受制于当时数据集规模限制以及计算机算力的不足,相关研究的进展也一度非常缓慢。在这个漫长的过程中,一些人放弃了、一些人转了研究方向,但GeoffreyHinton从未放弃过关于深度学习神经网络的研究。

谷歌取消加密广告禁令 允许宣传加密货币兑换及挖矿相关产品:金色财经报道,谷歌已更新其广告政策列表,现允许的广告宣传包括与加密货币挖矿相关的产品和服务,以及加密货币兑换。只有在广告客户是许可提供商,产品和广告符合当地法律要求和业界标准,且帐号得到谷歌认证的情况下,才可以对相关加密货币产品和服务进行广告宣传。此外,不允许在广告中宣传ICO、加密货币代币销售或以其他方式宣传加密货币或相关产品的购买、销售或交易。目前已批准的国家或地区包括日本和美国。此前6月消息,谷歌将于2021年8月更新“金融产品和服务”政策。自8月3日起,对于面向美国提供加密货币交易所和加密货币钱包服务的广告客户,在符合一定要求的情况下,即可宣传此类产品和服务。[2021/8/4 1:33:05]

但如今,深度学习终于守得云开见月明,所有人都开始向深度学习里疯狂砸人力、砸资金,坚守了多年的GeoffreyHinton这时却想要大家都暂停脚步,甚至对自己付出了一生心血的研究感到有些后悔,为什么?

在最近接受纽约时报的专访中,GeoffreyHinton表示,自己此次从谷歌离职并不是因为要批判谷歌,而是他能够在不影响谷歌的情况下,去真实地谈论AI的潜在风险。

在他看来,作为AI技术的领军者,过去这些年谷歌一直扮演着一位“负责任的管家”的角色,小心翼翼地保留和控制着那些可能造成伤害的技术。但由于微软极快的将Bing和ChatGPT结合并向公众发布,挑战了谷歌核心的搜索引擎的业务,所以谷歌也无法像过去那样继续保持着发展节奏,科技巨头陷入了一场可能无法停止的竞争之中。

声音 | BM:谷歌已成为操纵用户想法的工具 时代需要去中心化搜索引擎:今日,BM 转发一篇题为“谷歌生态是一个谎言...”的文章,并附上推文表示: 谷歌不再是一个搜索信息的工具,它变成了一个通过操纵你的想法而控制你的工具。去中心化搜索引擎出场的时候到了。文章中提到:谷歌自动填充数十亿用户的搜索领域,提供虚假消息,主题涉及自然健康到选举,这些信息不是基于客观数据搜索,而是极端偏见的和社会经济议程。[2019/7/1]

在这样的情况下,他需要以一名研究者而不是谷歌员工的身份站出来,给大家发出警告。结合整个采访来看,Hinton主要有以下几个方面的担忧。

一是在人工智能技术的支持下,他认为互联网将很快被各种虚假信息淹没。这些信息包括文字、照片、视频等,而普通人将越来越难分辨这些信息的真假,引发社会的失序。

二是就业市场可能在就业市场还没有准备好的情况下被颠覆,造成失业潮的爆发。虽然目前像ChatGPT这样的聊天机器人还只是对人类工作的补充,但按照人工智能的发展速度,它们将很快可以取代律师助理、翻译、行政助理等其他任何基础的、重复性的工作。“它消除了苦差事,但带走的可能远不止于此。”Hinton表示。

动态 | 谷歌加密禁令宽限期已过 但仍有8个采矿应用保留在谷歌商店中:据Cointelegraph报道,根据Next Web昨日发布的报告显示,尽管谷歌有加密禁令,但是目前仍然有采矿应用保留在谷歌商店中。谷歌为采矿应用程序开发人员提供了30天的宽限期,以修改他们的产品以符合新条款,但是宽限期已经过去,但在谷歌商店中仍发现了8个采矿应用程序,其中3个已被删除。[2018/8/29]

此外,他还担心人工智能技术的接下来的发展会对人类社会构成威胁。他承认,在他们过去的研究之中,人工智能常常能从大量数据中学习进而产生出很多让人意想不到的行为。而当前,包括个人和公司在内的很多使用者们不仅让人工智能自主生成代码,也让人工智能运行和管理着代码。在这种不断的训练之中,很有可能让“自主杀手机器人”真的成为现实。

“很多人都觉着这很遥远,我曾经也是这么认为的,觉得至少还要有30-50年我们才会走到那一天。但就我目前所了解到的信息而言,我已经不这么想了。”Hinton认为,谷歌和微软以及其他大型公司之间的竞争,将很快升级为一场全球性竞争,如果没有某种监管,这场竞争将不会停止,人工智能发展的速度会远超我们的想象,并最终走向失控。

呼吁AI监管的声音越来越强

如果以上这些话从别人口中说出来,大家可能仍然会觉得这些观点带着危言耸听的意味。但当如今世界上人工智能领域最权威的专家、深度学习的奠基人GeoffreyHinton也这么说时,也引发了更多人开始认真思考和关注这个问题。

动态 |谷歌联合创始人谢尔盖布林与他的儿子正一起挖矿:在理查德?布兰森爵士(Sir Richard Branson)的内克尔岛(Necker Island)举行的区块链峰会上,身为谷歌母公司Alphabet总裁的谢尔盖布林透露了这一消息。布林说,他正在和儿子一起采矿,考虑到他的儿子只有10岁,这有点有趣。在福布斯的迈克尔·德尔·卡斯蒂略(Michael del Castillo)的帮助下,这一信息被更广泛的公众知晓。

作为峰会的小组成员,布林谈到了Zcash的零知识证明,这是以太公司运作的一部分,他说这些证明是“令人难以置信的”。“零知识证明”是“基于一种算法,该算法以一些数据作为输入,返回‘真’或‘假’,”隐藏所有其他信息。[2018/7/12]

实际上,在此次GeoffreyHinton发声之前,最近几个月来人工智能领域就已经发起过两波大型的联名,呼吁谨慎地发展人工智能技术。

一次是由马斯克、YoshuaBengio等数千名来自学术界和企业界的大佬呼吁至少暂停6个月比GPT-4更强模型的研究的公开信。另一次则是由拥有40多年历史、人工智能领域最权威学术机构之一的人工智能促进协会的19名现任及前任领导人所发布的联名信,其中也包括了微软现任首席科学家、人工智能研究专家EricHorvitz。

虽然此前马斯克他们暂停模型研发的呼吁在业界受到了争议,包括YannLeCun、吴恩达在内的研究者都对停止研发“一刀切”的做法表示了反对,甚至也有人质疑马斯克等人提出暂停研发是为了私利。但目前看来,关于共同加强AI监管、预防潜在性危险发生的观点,大家的看法几乎都是一致的。

在今天GeoffreyHinton的报道发出后,吴恩达第一时间转发了GeoffreyHinton的推特表示支持,感谢Hinton对于人工智能技术所做出的不可估量的贡献,以及对人工智能在虚假信息、自动机器和劳动力影响方面的发声。

一些AI的投资人、研究者今天也纷纷转发了GeoffreyHinton的访谈,呼吁学界、工业界、政府监管机构应该快速行动起来,趁当前技术还在可控范围内,尽快制定好监管框架和应用方案等。

当然,也有研究者并不认同AI威胁论,其中就包括了GeoffreyHinton曾经的学生、研究的伙伴YannLeCun。他此前多次表示,大语言模型根本不算什么,要想真正通往AGI之路,还需要构建“世界模型”。

对此,很多人也很希望这些对于人工智能发展持有不同观点的研究泰斗们能够很快来一场深度对谈,让人们更多的了解当前人工智能发展前方的机遇和风险。

AI会成为新时代的“原子弹”吗?

在此次的访谈中,一个尤其引人关注的地方在于GeoffreyHinton在谈到AI风险时,多次提及了核武器。从一定程度上来看,GeoffreyHinton或许认为AI对人类社会的潜在危险并不亚于核武器。

他表示,跟核武器研究不同,现在AI研究更危险的地方在于,我们目前几乎没有办法知道有哪些组织或者国家正在秘密研究这项技术。理想的情况下,全球各国组织和科学家们应该共同进行合作和对技术进行控制,但显然现在很难做到这一点。

作为深度学习技术的发起人,GeoffreyHinton坦言自己目前甚至有些后悔进行了这项技术的研究。当潘多拉魔盒被打开,作为研究人员很难去防止不好的人利用这些技术去做不好的事。

而Hinton的这种说法也让人不由地想起了当年“原子弹之父”罗伯特·奥本海默相似的心路历程。当年,美国在广岛长崎投放原子弹两个月之后,奥本海默辞去了职务,之后他在担任美国原子能委员会顾问期间一直致力于游说国际机构对军备进行管制,并运用影响力宣扬控制核武器和核不扩散运动。

GeoffreyHinton说,以前人们问他如何从事具有潜在危险的技术时,他总会会引用奥本海默的话:“当你看到一个东西拥有美妙的技术前景时,就尽管去做吧。”但现在,他已经不会再那样说了。

“人们不应该快速扩大AI研究的规模,直到足够了解自己是否能够控制它,”GeoffreyHinton说道。

*参考资料:

https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金星链

FILORD:veDAO研究院:比特币NFT协议Ordinals生态汇总

NFT作为可以代表独一无二的数字资产或实物资产的加密代币,它在区块链上具有唯一性和不可替代性。NFT在以太坊等智能合约平台上已经发展了多年,诞生了许多著名的项目和应用.

[0:15ms0-1:438ms