NAI:ChatGPT爆重大漏洞:可能泄露1.2%用户数据 AI安全引人震惊

美国时间3月25日,OpenAI官方发布了3月20日ChatGPT临时中断服务的调查报告,并表示有1.2%的ChatGPT Plus用户可能数据被泄露。

根据OpenAI官网公告表示,3月20日以前,一个名为Redis-py的开源库中的错误造成了缓存问题,该问题会导致用户可能看到其他人聊天记录的片段,甚至会向一些活跃用户显示其他用户信用卡的最后四位数字、到期日期、姓名、电子邮件地址和付款地址。

本来可能还只是零星的用户出现该类BUG,但令人神经大条的是,在20号早上,OpenAI在对服务器进行更改的时候出现失误,导致Redis请求取消激增,问题进一步的加剧,所以出现了这个“1.2%”的可能。

根据OpenAI官方的说法,有两种可能会使这些信息被暴露:

前Ripple顾问Michael Barr获参议院提名为美联储监管副主席:金色财经消息,美国财政部前官员、前Ripple顾问Michael Barr周三获参议院提名为美联储监管副主席。Barr在4月份获得拜登总统提名,参议院周三以66票对28票确认了他的提名。他将负责领导美国主要的银行业监管机构,在传统金融体系如何与加密货币、包括稳定币互动的方面将拥有重要发言权。

Barr目前是密歇根大学法学院的公共政策学院院长,曾在Ripple Labs的顾问委员会任职,他在2015年加入Ripple Labs时表示,“支付创新可以帮助使金融系统更安全,降低成本,并提高消费者和企业的准入和效率”。Barr也对加密货币发表过一些怀疑论调,他在2020年的一篇论文引用了一项研究,称比特币等资产“不仅会产生巨大的采矿成本,而且在长期设计中效率低下”。[2022/7/14 2:11:51]

1. 在特定时间内的付款确认邮件,可能会发给了一些错误的用户,这些邮件上包含信用卡的后四位数字。

数字B2B支付网络CoreChain完成125万美元融资:8月4日消息,基于区块链的数字B2B支付网络CoreChain Technologies宣布完成125万美元Pre种子轮融资,Ulu Ventures、Connecticut Innovations、Bloccelerate VC和New Form Capital等参投。这笔资金将用于加速企业客户的采用,并积极扩展其支付和融资网络。(BusinessWire)[2021/8/4 1:34:12]

2. 在特定时间内,点击“我的账户”-“管理我的订阅”,可能会导致另一个活跃用户的姓名、电子邮箱、付款地址、信用卡后四位被泄露。

OpenAI表示,目前已经联系了这些可能已经泄露信息的用户。

Wolfram Blockchain Labs与IOHK合作,集成Cardano区块链数据:12月17日消息,Wolfram Research的子公司Wolfram Blockchain Labs(WBL)正与IOHK合作,以将Cardano区块链中的数据集成到Wolfram Alpha中,从而使开发人员可以将外部数据集成到Cardano的智能合约中。WBL和IOHK将在2021年推出该功能。(Cointelegraph)[2020/12/17 15:35:56]

网址:https://openai.com/blog/march-20-chatgpt-outage(网页自动翻译,或不准确)

为了防止此类事情再次发生,OpenAI也在博文里说明了他们已经采取的行动:添加“冗余检查”以确保提供的数据与用户匹配;改进修复了其Redis集群在高负载下吐出错误的可能性......而且还强调他们的Redis开源维护者一直是出色的合作者。

多名加密推特大V收到Zeus Capital邀约 发布Chainlink不利信息可获酬金:加密推特的众多大V最近从英国资产管理公司宙斯资本有限公司(Zeus Capital?Limited)收到请求,希望发布对Chainlink不利的信息。Scott Melker、Josh Rager表示都收到该公司的私信,询问其是否愿意以5 BTC的价格发布一个对Chainlink不利的分析报告。此前消息,Zeus Capital曾发表声明称,并未参与有关Chainlink(LINK)是局的有争议的报道。(Cointelegraph)[2020/7/30]

虽然问题已经解决,但还是有大量的网民们依旧质疑OpenAI的安全性,还有网民询问,为什么不能用GPT4检查代码上的错误。

Long Blockchain今日已从纳斯达克下市:今日Long Blockchain已下市纳斯达克。此前该公司表示在4月10日收到了纳斯达克股票市场听证小组的退市决定信,并将于4月12日在纳斯达克交易所暂停交易。[2018/4/13]

可能是为了安抚ChatGPT用户的心绪,OpenAI CEO Sam Altman在当天立刻接受了媒体专访。虽然只字未提此次用户数据泄露事件,却多次强调“AI安全”。

他提到了以下四点:

1.人工智能语言模型(如 GPT)的开发和改进需要一个包含公众反馈的迭代过程,专注于解决偏见,并考虑 AI 安全性和一致性。

2.人工智能的进步,特别是GPT技术的进步,正在改变编程的性质,需要仔细考虑人工智能的安全性、语言输出的监控和解决偏见。

3.人工智能的发展,特别是神经网络,有可能超越人类智能,大大提高生活质量,但也带来了重大的风险和挑战,必须通过不断研究和开发人工智能安全性和一致性来解决。

4.OpenAI是一家营利性公司,致力于强大的AI技术,同时对安全问题保持透明。

OpenAI CTO Mira Murati也在其官网上发出自己的观点,“人工智能系统正在成为日常生活的一部分。关键是要确保这些机器符合人类的意图和价值观。”而如今,他们一手创造的ChatGPT正在挑战着他们所给到公众的承诺。

随着人类工作生活使用人工智能的频次越来越高,AI安全问题也应该成为我们在当下及未来相当长一段时间应该重视的问题,AI技术不能只考虑跑得快,还要考虑不翻车。

根据openAI官方解释,这是由于缓存问题导致用户信息泄漏,然而这种错误,在互联网行业中,并不是第一起。

早在2015年的圣诞节,Steam也因为缓存问题,使34000名左右用户的个人信息被泄露。OpenAI投入巨量的精力和金钱在AI的潜在安全的研究上,却被一个常见的老问题给绊倒。虽说“成大事者,不拘小节”,但“天下难事,必作于易;天下大事,必作于细。”希望未来OpenAI不会再出现此类的问题了。

我们询问了GPT-4,AI安全问题应该如何解决,它回答道:

在人工智能(AI)领域,确保安全性是至关重要的。以下是一些建议和方法,以解决AI安全问题:

可解释性和透明度:AI系统的设计应具备可解释性,以便研究人员、用户和监管机构理解其决策过程。提高透明度有助于确保AI系统的行为符合预期,便于发现潜在的安全隐患。

数据安全和隐私:AI系统通常需要大量数据进行训练。保护这些数据的隐私和安全至关重要。采用加密、数据脱敏和差分隐私等技术,以确保数据在处理、传输和存储过程中得到保护。

鲁棒性和抗攻击能力:AI系统应具备对抗对手的能力,包括识别和抵御对抗性攻击、性输入等。研究鲁棒性训练方法,提高系统的抗干扰能力。

可审计性:建立可审计的AI系统,以记录关键决策过程。这将有助于追踪潜在问题、确保合规性,并为未来纠正错误和不当行为提供依据。

伦理与法规遵循:确保AI系统符合伦理原则和法律法规,遵循公平、透明、可解释等原则。研究AI伦理,制定相应的政策和指导方针。

持续监控和更新:随着技术的进步和新的安全威胁的出现,需要不断监控和更新AI系统,以确保其安全性和有效性。

多学科合作:鼓励不同领域的研究人员、政策制定者、企业家和公众共同参与AI安全问题的讨论。跨学科合作将有助于制定更全面的安全策略。

开放研究和分享:开展开放、合作的研究,分享AI安全相关的知识、技术和最佳实践。这将有助于整个AI领域在安全问题上取得进展。

通过积极采纳这些措施和方法,我们可以降低AI领域的安全风险,推动人工智能的健康、可持续发展。

希望OpenAI在内的人工智能公司,都能为保障AI安全而多上心、多出力,AI行业才能够更加健康地发展。

作者:鹿人 蒹葭 ChatGPT 排版:鹿人

金色财经 善欧巴

金色早8点

白话区块链

Odaily星球日报

深潮TechFlow

欧科云链

Arcane Labs

MarsBit

BTCStudy

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金星链

[0:0ms0-0:999ms