《三体》中的降临派、拯救派和幸存派分别代表着不同的观念和立场。借用这三个概念,我们可以将对AI看法的人划分为AI降临派、AI拯救派和AI幸存派。
AI降临派:
这一派的人认为AI的发展将为人类带来巨大的好处,甚至取代人类成为地球的主导力量。他们相信AI可以解决人类的许多问题,如气候变化、资源分配、疾病治疗等。AI降临派的人通常对AI技术非常热衷,支持无限制地发展和应用AI技术,期待AI在未来改变世界。
AI拯救派:
这一派的人认为AI是人类发展的关键,但需要在一定范围内受到监管和引导。他们认为,通过合理的政策制定和伦理道德约束,可以确保AI技术的安全和可持续发展。拯救派关注AI对社会和个人产生的影响,期望在维护人类利益的同时,让AI成为人类的得力助手。
AI幸存派:
这一派的人对AI技术持怀疑甚至担忧的态度。他们认为AI技术的发展将可能导致一系列问题,如失业、隐私侵犯、安全威胁等。幸存派的人认为,人类应该小心应对AI技术的发展,寻求与AI和谐共生的方法。他们强调AI的潜在风险,提倡谨慎和审慎的态度来平衡AI技术的利弊。
这三派的划分并没有严格按照《三体》原著的定义,而是以人们对AI的接受程度以及欲施加的监管力度进行划分。
降临派接受程度最高,拯救派次之,幸存派最保守,以便于我们理解立场。
让我们看看在这一周内,三派有哪些观点碰撞。
ShibaInu测试网区块链Puppynet交易量突破3000万:金色财经报道,根据Puppyscan数据,Shibarium测试网Puppynet自3月11日推出以来已完成3000万笔交易。Puppynet在5月20日达到1000万笔交易,6月11日达到2000万笔交易。同时,Shibarium实用性的增加是另一个里程碑。Shibarium测试网Puppynet处理的区块总数超过1,700,764个,钱包地址数量增加至17,061,835个。区块链保持稳定,平均出块时间为5-7秒,gas费接近1Gwei。然而,连日来日交易笔数从300万多笔下降至260万笔。[2023/7/16 10:57:30]
降临派
吴恩达:暂停AI开发不可行
本周,一封上千人签署的公开信火遍了全网,一家名为未来生命研究所的机构呼吁全球应该至少暂停六个月开发比GPT-4更强大的模型,以让有关的监管手段能够跟上。
人们在该信上看到了许多知名人士的签名,包括图灵奖得主YoshuaBengio、马斯克、史蒂夫·沃兹尼亚克、Skype联合创始人、Pinterest联合创始人、StabilityAICEO等人。
该信爆火后,人们发现部分知名人士的签名实际上是网友冒签的,所谓千人签名的真实性存疑。
不管怎么说,这封公开信还是激起了人们关于是否要封禁AI研究的讨论。
灰度比特币信托负溢价率涨至39.77%:金色财经报道,Coinglass数据显示,当前灰度总持仓量达226.62亿美元,主流币种信托溢价率如下:BTC,-39.77%;ETH,--51.64%;ETC,-61.74%;LTC,-44.89%;BCH,-19.19%。[2023/5/12 14:59:52]
著名计算机科学家、GoogleBrain的联合创始人吴恩达在社交媒体上发表了他对这封信的看法。
他认为,让有关部门暂停他们尚未了解的新兴技术,往好了说是反竞争,往坏了说是开了一个糟糕的先例。
以下是他的观点原文:
要求在6个月禁止开展比GPT-4更进一步的研究是一个可怕的想法。我看到许多新的应用在教育,医疗保健,食品……这将帮助许多人。继续改进GPT-4会对这些领域有所帮助。我们要权衡AI创造的巨大价值和现实的风险。
除非有关部门介入,否则没有切实可行的方法来实施暂停并阻止所有团队扩大LLM。让有关部门暂停他们不了解的新兴技术是反竞争的,树立了一个可怕的先例,是糟糕的创新政策。
负责任的人工智能很重要,而且人工智能有风险。目前主流的媒体报道称,人工智能公司正在疯狂地发送不安全的代码,这种说法是不正确的。绝大多数人工智能团队都认真对待人工智能和安全问题。
暂停6个月不是一个切实可行的建议。为了提高人工智能的安全性,有关透明度和审计的规定应该变得更加切实可行,产生更大的影响。让我们在推进技术进步的同时,在安全方面作更多的投资,而不是扼杀进步。
灰度:已就对SEC拒绝比特币现货ETF的诉讼提交最终简报:2月8日消息,灰度在推特上表示:“上周,灰度在我们的诉讼中提交了我们的最终简报,质疑美国证券交易委员会拒绝将GBTC美元转换为现货比特币ETF的决定。这些与之前提交的其他摘要基本相同,但有额外的引用和参考。准备供 DC 巡回法院法官小组阅读的摘要是必要的要求。我们期待在2023年 3月7日在专家组面前陈述我们的案件。”
此前去年6月份消息,美国SEC拒绝灰度现货比特币ETF申请,同日灰度法律顾问向华盛顿特区巡回上诉法院提交了复审请愿以作为提前诉讼的第一步,提交复核申请后,诉讼过程将涉及简报,法官选择、口头辩论和最终判决。1月24日消息,美国法院加快灰度诉美SEC案的的口头辩论,双方将于3月7日向法院陈述案情。[2023/2/8 11:54:00]
JimFan:我们应该欣赏GPT-4
针对大语言模型的安全性,英伟达AI科学家JimFan提出了一个有意思的观点。
他认为按照AI的行为规范,那么大部份人类也是「不安全」的,许多大语言模型在安全性和公正性上已经表现地很好,我们不应该一味地批评它们。
圆明园首发“创世徽章”“并蒂圆明”两款数字藏品:金色财经报道,圆明园在“星原数艺”平台首发“创世徽章”“并蒂圆明”两款官方数字藏品。“创世徽章”灵感来自宫廷令牌,其中正面为星河照耀的圆明园大水法,圆明之上,以新月合叶翻盖为冠冕,月牙翻开为壮美群山,合为凤凰翎羽。“并蒂圆明”的设计灵感源自圆明园盛开的并蒂莲,并蒂莲一茎两花,象征同心、同根、同福、同生。在七夕节推出,有着格外吉祥美好的寓意。(北京日报)[2022/8/5 12:05:15]
以下是他的观点原文:
按照GPT的「伦理与安全」指导方针,我们大多数人也表现得不理性、有偏见、不科学、不可靠,总的来说——「不安全」。事实上,我们对人工智能的要求更高。这是件好事,我完全支持做更多。但有些事不吐不快。
我指出这一点的原因是为了让大家了解安全校准工作对于整个研究团体来说是多么困难。大多数的训练数据本身就是有偏见的、有的、不安全的等等。实际上,创造一个安全的人工智能助手是违反人类数据分布的。
从某种意义上说,许多生产型LLM在安全性和公正性方面都是「超人」,尽管它们并不完美。对我们来说,下意识地批评失败案例比欣赏挑战更加容易。
拯救派
SamAltman:确保AGI惠及全人类
生命研究所的公开信将OpenAI拉入了舆论的风暴之中,OpenAI的CEOSamAltman在Twitter上却表示他依然很平静,并提出了建立AGI的三个要点。
ArtMeta 与 VP Bank 合作将美术带入元宇宙:金色财经报道,艺术元宇宙ArtMeta与国际银行集团VP Bank合作。与 VP Bank 的合作将扩展他们的服务范围,例如数字化高价值艺术收藏品并在 ArtMeta 虚拟世界中展示这些收藏品。
VP Bank 在瓦杜兹、苏黎世、卢森堡、新加坡、香港和托尔托拉(英属维尔京群岛)设有办事处,为超高净值客户提供服务超过 65 年,并以其银行服务而闻名。(prnewswire)[2022/7/9 2:01:48]
以下是他的观点原文:
我们需要为了AGI美好的未来而付出的努力
1、调整超级智能的技术能力
2、充分协调大多数主要AGI的工作
3、有效的全球监管框架,包括民主治理
此前,SamAltman在LexFridman的采访播客曾表示自己会对OpenAI的技术感到害怕,他表示:
当人们认为这是一个巨大的飞跃时,我会说,我有点害怕,我觉得这很奇怪。
我认为一点都不害怕的话才是疯狂的,我同情那些非常害怕的人。
SamAltman更关心的是「虚假信息问题或经济冲击」,而不是如何用算法制造「超级智能」。他认为有些公司并不会像OpenAI一样设置如此严格的安全栅栏,并担心因此导致AI失控造成不良的社会影响。
马云:ChatGPT只是AI时代的开始
马云回国后来到云谷学校,聊到了ChatGPT对教育领域的影响。马云表示,ChatGPT这一类技术已经对教育带来挑战,但是ChatGPT这一类技术只是AI时代的开始。
以下是他的观点原文:
我们要用人工智能去解决问题,而不是被人工智能所控制,虽然人的体力、脑力比不过机器,但机器只有「芯」,而人有「心」。工业时代是知识驱动,知识的竞争;数字时代,是智慧驱动,是创造力和想象力的竞争,是领导力、担当力、责任的竞争,是独立思考的竞争。
幸存派
GaryMarcus:什么都不做是不对的
纽约大学心理学和神经科学的荣誉退休教授GaryMarcus一直对LLM保持批评的态度。
当生命研究所的公开信发布后,GaryMarcus可以说是该观点最坚定的支持者。
面对该公开信受到的质疑,GaryMarcus做出了一段很长的回应,以下是他的观点原文:
很多针对6个月禁止培训超大型#LLM的攻击都没有抓住要点。
这么多的利害关系,这里有一个Twitter#longgread整理出什么才是真正重要的:
很多对这封信的攻击都集中在赞助人身上,而不是署名人。大多数签名的人与FLI没有任何关系。评判这封信应该看它写了什么,而不是谁写的。这里真正的新闻不是埃隆·马斯克签署了协议,而是这么多不是天生盟友的人出于共同关心而走到了一起。
提出一个不同的选择并没有错,而大多数批评这封信的人也没给出一个恰当的解决办法。
什么都不做是不好的。几乎所有人,甚至包括OpenAI在内,都承认其存在严重的风险,但迄今为止,有关部门或行业都没有采取什么切实措施来减轻这些风险。
并不是所有签署了这封信的人都主要关心长期风险;我们中的许多签署了这封信的人至少同样担心短期风险。
这封信并没有呼吁禁止人工智能。没有要求永久禁止。它没有呼吁禁止GPT-4。它没有呼吁禁止绝大多数人工智能研究,只是在一个非常具体的项目上短暂停顿了一下,该项目的技术已经「知道」存在风险,却没有已知的解决方案。实际上需要更多的研究。有人看过那封信吗?
我个人没有改变;我仍然认为LLM是不可靠的,仍然认为它们表达事实的能力非常糟糕。我不认为它们接近AGI。但这并不意味着他们没有撕裂我们社会结构的潜力ーー特别是考虑到当前的混合情况:难以置信的广泛和快速部署、企业不负责任、缺乏监管以及一直存在的不可靠性。
EliezerYudkowsky:暂停还不够,我们应该把AI永远关闭!
EliezerYudkowsky是著名的人工智能科学家和作家,同时也是机器智能研究所的联合创始人,MIRI致力于确保超人工智能对人类具有友善的价值观。
未来生命研究所的公开信爆火之后,EliezerYudkowsky在《时代》上发表了一篇名为《PausingAIDevelopmentsIsn'tEnough.WeNeedtoShutitAllDown》文章。
在开头提到他并没有在上面签名,因为这封信低估了形势的严重性,提出的要求太少,无法解决问题。
文中提到了当人工智能变得比人类更聪明之后可能造成的危害,EliezerYudkowsky提出了一个相当消极的观点:
我们还没准备好。我们没有在任何合理的时间内做好准备。没有计划。人工智能能力的进步是巨大的,远远领先于人工智能排列的进步,甚至领先于理解这些系统内部到底发生了什么的进步。如果我们真的这么做,我们都会死的。
EliezerYudkowsky在前不久接受LexFridman的采访时再次警告,人类没有第二次校准人工智能的机会,如果人类失败,人类就将灭亡。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。