一组计算机科学家使用理论计算来证明算法无法控制超级智能AI。
他们的研究解决了牛津哲学家尼克·博斯特罗姆所说的控制问题:我们如何确保超智能机器为我们的利益服务?
研究人员构想了一种理论上的遏制算法,该算法可以通过模拟AI的行为并在程序的动作变得有害时停止程序来解决该问题。
中国科学家提出区块链技术新算法:2月11日消息,据中科院软件研究所消息表示,该所研究员张振峰与合作团队在区块链核心技术——拜占庭容错(BFT)共识研究中取得创造性突破。
该成果发表在第27届国际计算机与通信安全大会上。
据悉,研究团队提出了小飞象拜占庭容错算法,解决了异步共识算法设计的理论难题,且在性能上大幅提升并超越了当前工业界采用的蜜獾拜占庭容错算法,可为我国区块链基础设施建设提供新一代技术。(新华社)[2021/2/11 19:33:19]
但是,他们的分析发现,建立一种可以控制这种机器的算法从根本上来说是不可能的,人类与机器中心主任IyadRahwan说:
动态 | 科学家破解迄今最长RSA密钥并对最大整数离散对数进行匹配计算:密码学达到一个新的里程碑,研究人员解开了有史以来人类计算过的最长RSA密钥,并对有史以来最大的整数离散对数进行了匹配计算。这次的突破不是来自硬件性能的提升,而要归功于软件和算法的改进。这次的新记录包括RSA-240的分解。RSA-240密钥有240个十进制位,大小为795 bits。同一组研究人员还计算了同样大小的离散对数。与以前的里程碑相比,这次的里程碑更少地受到摩尔定律的驱动,而更多地受到数域筛选软件改进的驱动。为了证明效率的提高,研究人员在与2016年计算768位离散对数相同的硬件上运行他们的软件。他们发现,使用旧的硬件筛选795-bit大小的记录所需的时间比使用相同的设备执行768-bit DLP计算所需的时间减少了25%。(Arstechnica)[2019/12/7]
如果将问题分解为理论计算机科学的基本规则,就会发现,命令AI不破坏世界的算法可能会无意中止其自身的运行。如果发生这种情况,您将不知道遏制算法是否仍在分析威胁,或者它是否已停止遏制有害的AI。实际上,这使遏制算法无法使用。
斯坦福计算机科学家启动区块链研究中心 V神表示支持:对于斯坦福计算机科学家新近启动的区块链研究中心,V神最近表示十分兴奋并支持。该中心由计算机科学教授Dan Boneh和DavidMazières领导 ,首任教师将包括Alex Aiken、David Dill等人。以太坊基金会也支持该中心。[2018/6/21]
研究发现,由于计算的基本局限性,没有一种算法可以计算出AI是否会危害世界:
假设超级智能将包含一个程序,该程序包含通用图灵机在输入时可能会像世界状况一样复杂地执行的所有程序,那么严格的围堵要求对该程序进行仿真,这在理论上是不可能的。
到目前为止,这种类型的AI仍仅限于幻想领域。但是研究人员指出,这项技术正在朝着科幻小说作家所设想的超级智能系统的类型迈进。
研究的合著者,马克斯·普朗克人类发展研究所的曼努埃尔·塞布里安说:“已经有机器独立执行某些重要任务,而程序员却没有完全了解他们是如何学习的。”
“因此提出了一个问题,在某个时候这是否可能变得不可控制并且对人类构成危险。”
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。