美国时间3月25日,OpenAI官方发布了3月20日ChatGPT临时中断服务的调查报告,并表示有1.2%的ChatGPT Plus用户可能数据被泄露。
根据OpenAI官网公告表示,3月20日以前,一个名为Redis-py的开源库中的错误造成了缓存问题,该问题会导致用户可能看到其他人聊天记录的片段,甚至会向一些活跃用户显示其他用户信用卡的最后四位数字、到期日期、姓名、电子邮件地址和付款地址。
本来可能还只是零星的用户出现该类BUG,但令人神经大条的是,在20号早上,OpenAI在对服务器进行更改的时候出现失误,导致Redis请求取消激增,问题进一步的加剧,所以出现了这个“1.2%”的可能。
根据OpenAI官方的说法,有两种可能会使这些信息被暴露:
Huobi宣布加入BitTorrent Chain生态:金色财经报道,加密货币交易所Huobi在一份公告中透露,将加入BTTC?(BitTorrent Chain)生态系统并支持基于BTTC的Layer 2网络的发展,以促进链上开放金融系统的创建和完善。Huobi表示,火币与 Layer 2 跨链解决方案的集成将通过连接领先的智能合约区块链包括Ethereum、Tron和BNB Chain实现“无缝资产交换”。[2023/3/4 12:41:34]
1. 在特定时间内的付款确认邮件,可能会发给了一些错误的用户,这些邮件上包含信用卡的后四位数字。
2. 在特定时间内,点击“我的账户”-“管理我的订阅”,可能会导致另一个活跃用户的姓名、电子邮箱、付款地址、信用卡后四位被泄露。
OpenAI表示,目前已经联系了这些可能已经泄露信息的用户。
P2E游戏DEEPSPACE在BNB Chain主网集成Chainlink VRF v2:3月12日,据官方消息,Play-to-Earn多元宇宙太空探索战略游戏DEEPSPACE(DPS)已在BNB Chain主网上集成Chainlink可验证随机函数(VRF)。Chainlink VRF v2现在被用于铸造具有可验证随机属性的飞船NFT,并用于确定飞船在质押期间被销毁的概率。Chainlink VRF有助于确保以防篡改的方式在链上生成和提供随机性,从而为用户带来可验证、公平和公正的结果。[2022/3/13 13:53:17]
网址:https://openai.com/blog/march-20-chatgpt-outage(网页自动翻译,或不准确)
为了防止此类事情再次发生,OpenAI也在博文里说明了他们已经采取的行动:添加“冗余检查”以确保提供的数据与用户匹配;改进修复了其Redis集群在高负载下吐出错误的可能性......而且还强调他们的Redis开源维护者一直是出色的合作者。
美股区块链板块涨幅扩大,Riot Blockchain涨超20%:行情显示,美股区块链板块涨幅扩大,Marathon Patent、Riot Blockchain涨超20%,嘉楠科技涨超15%,亿邦国际涨超13%。[2021/6/14 23:36:01]
虽然问题已经解决,但还是有大量的网民们依旧质疑OpenAI的安全性,还有网民询问,为什么不能用GPT4检查代码上的错误。
动态 | TomoChain已激活TomoZ主网:TomoChain现已激活TomoZ主网。据悉,TomoZ一种链上协议,旨在改善人们在发送代币时支付交易费用的方式。代币发行者可以在TomoZ上发行TRC21代币,让用户支付链上费用。TomoZ的另一个目标是简化代币创建和发布的过程。只需要配置几个参数(代币供应量、代币名称和最低交易费用)就可在TomoChain上发行TRC21代币。(cryptoslate)[2019/8/22]
可能是为了安抚ChatGPT用户的心绪,OpenAI CEO Sam Altman在当天立刻接受了媒体专访。虽然只字未提此次用户数据泄露事件,却多次强调“AI安全”。
他提到了以下四点:
1.人工智能语言模型(如 GPT)的开发和改进需要一个包含公众反馈的迭代过程,专注于解决偏见,并考虑 AI 安全性和一致性。
2.人工智能的进步,特别是GPT技术的进步,正在改变编程的性质,需要仔细考虑人工智能的安全性、语言输出的监控和解决偏见。
声音 | 孙宇晨:巴菲特午宴,我们仅向莱特币创始人Charlie Lee,币安,火币三家机构发出过邀请:孙宇晨发微博称,截止目前巴菲特午宴,我们仅向莱特币创始人Charlie Lee,币安,火币三家机构发出过邀请,其他谎称自己被邀请是子,甚至就此索要财物的,请尽快报警,确保财务安全。[2019/7/5]
3.人工智能的发展,特别是神经网络,有可能超越人类智能,大大提高生活质量,但也带来了重大的风险和挑战,必须通过不断研究和开发人工智能安全性和一致性来解决。
4.OpenAI是一家营利性公司,致力于强大的AI技术,同时对安全问题保持透明。
OpenAI CTO Mira Murati也在其官网上发出自己的观点,“人工智能系统正在成为日常生活的一部分。关键是要确保这些机器符合人类的意图和价值观。”而如今,他们一手创造的ChatGPT正在挑战着他们所给到公众的承诺。
随着人类工作生活使用人工智能的频次越来越高,AI安全问题也应该成为我们在当下及未来相当长一段时间应该重视的问题,AI技术不能只考虑跑得快,还要考虑不翻车。
根据openAI官方解释,这是由于缓存问题导致用户信息泄漏,然而这种错误,在互联网行业中,并不是第一起。
早在2015年的圣诞节,Steam也因为缓存问题,使34000名左右用户的个人信息被泄露。OpenAI投入巨量的精力和金钱在AI的潜在安全的研究上,却被一个常见的老问题给绊倒。虽说“成大事者,不拘小节”,但“天下难事,必作于易;天下大事,必作于细。”希望未来OpenAI不会再出现此类的问题了。
我们询问了GPT-4,AI安全问题应该如何解决,它回答道:
在人工智能(AI)领域,确保安全性是至关重要的。以下是一些建议和方法,以解决AI安全问题:
可解释性和透明度:AI系统的设计应具备可解释性,以便研究人员、用户和监管机构理解其决策过程。提高透明度有助于确保AI系统的行为符合预期,便于发现潜在的安全隐患。
数据安全和隐私:AI系统通常需要大量数据进行训练。保护这些数据的隐私和安全至关重要。采用加密、数据脱敏和差分隐私等技术,以确保数据在处理、传输和存储过程中得到保护。
鲁棒性和抗攻击能力:AI系统应具备对抗对手的能力,包括识别和抵御对抗性攻击、性输入等。研究鲁棒性训练方法,提高系统的抗干扰能力。
可审计性:建立可审计的AI系统,以记录关键决策过程。这将有助于追踪潜在问题、确保合规性,并为未来纠正错误和不当行为提供依据。
伦理与法规遵循:确保AI系统符合伦理原则和法律法规,遵循公平、透明、可解释等原则。研究AI伦理,制定相应的政策和指导方针。
持续监控和更新:随着技术的进步和新的安全威胁的出现,需要不断监控和更新AI系统,以确保其安全性和有效性。
多学科合作:鼓励不同领域的研究人员、政策制定者、企业家和公众共同参与AI安全问题的讨论。跨学科合作将有助于制定更全面的安全策略。
开放研究和分享:开展开放、合作的研究,分享AI安全相关的知识、技术和最佳实践。这将有助于整个AI领域在安全问题上取得进展。
通过积极采纳这些措施和方法,我们可以降低AI领域的安全风险,推动人工智能的健康、可持续发展。
希望OpenAI在内的人工智能公司,都能为保障AI安全而多上心、多出力,AI行业才能够更加健康地发展。
作者:鹿人 蒹葭 ChatGPT 排版:鹿人
金色财经 善欧巴
金色早8点
白话区块链
Odaily星球日报
深潮TechFlow
欧科云链
Arcane Labs
MarsBit
BTCStudy
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。