美国时间3月25日,OpenAI官方发布了3月20日ChatGPT临时中断服务的调查报告,并表示有1.2%的ChatGPTPlus用户可能数据被泄露。
根据OpenAI官网公告表示,3月20日以前,一个名为Redis-py的开源库中的错误造成了缓存问题,该问题会导致用户可能看到其他人聊天记录的片段,甚至会向一些活跃用户显示其他用户信用卡的最后四位数字、到期日期、姓名、电子邮件地址和付款地址。
本来可能还只是零星的用户出现该类BUG,但令人神经大条的是,在20号早上,OpenAI在对服务器进行更改的时候出现失误,导致Redis请求取消激增,问题进一步的加剧,所以出现了这个“1.2%”的可能。
根据OpenAI官方的说法,有两种可能会使这些信息被暴露:
Aave发起在BNB Chain上部署V3的ARFC提案:7月14日消息,Snapshot投票页面显示,Marc Zeller发起在BNB Chain上部署Aave V3的ARFC提案,旨在扩大Aave的影响力,并利用BNB Chain不断增长的DeFi生态系统和用户群。[2023/7/14 10:54:29]
1.在特定时间内的付款确认邮件,可能会发给了一些错误的用户,这些邮件上包含信用卡的后四位数字。
2.在特定时间内,点击“我的账户”-“管理我的订阅”,可能会导致另一个活跃用户的姓名、电子邮箱、付款地址、信用卡后四位被泄露。
OpenAI表示,目前已经联系了这些可能已经泄露信息的用户。
Immutable裁员比例约为8%,主要集中在链游“Gods Unchained”:7月27日消息, 据知情人士透露,区块链游戏开发商 Immutable 已经裁减了 20 多名员工,裁员的重点是其旗舰在线战略纸牌游戏“Gods Unchained”,剩余集中在 Immutable 的人才招聘团队。根据 LinkedIn 上的 310 名员工的总人数,Immutable 的裁员人数约为 8%。
此前报道,高级游戏设计师 James Wakeham 透露,Immutable 游戏工作室已经解雇了包括他在内的多名员工。James Wakeham 表示,即使是他被裁员,因与 Immutable 签订的合同包括 6 个月的竞业限制条款(non-compete claus),这意味着在此期间他将无法在 Web3 领域工作。(The Block)[2022/7/27 2:41:26]
网址:https://openai.com/blog/march-20-chatgpt-outage
为了防止此类事情再次发生,OpenAI也在博文里说明了他们已经采取的行动:添加“冗余检查”以确保提供的数据与用户匹配;改进修复了其Redis集群在高负载下吐出错误的可能性......而且还强调他们的Redis开源维护者一直是出色的合作者。
“阅后即焚”社交网络Snapchat推出“阿凡达”滤镜吸引用户体验元宇宙:金色财经报道,“阅后即焚”社交网络巨头Snapchat宣布推出新AR“阿凡达”(Avatar)滤镜,让用户透过使用滤镜,一睹生处于元宇宙的自己,到底是长什么样子。该滤镜可让用家看起来像一个“模拟市民”(The Sims)的角色。用家现时只要开启Snapchat APP中相机,并扫描官网上的二维码,或是在应用程式中搜寻“Avatar”,便可开始使用滤镜。[2021/12/26 8:05:11]
虽然问题已经解决,但还是有大量的网民们依旧质疑OpenAI的安全性,还有网民询问,为什么不能用GPT4检查代码上的错误。
Nord Finance将集成Chainlink:去中心化金融生态系统Nord Finance宣布,其产品生态系统将集成Chainlink。Chainlink确保安全及时地部署用户资金,同时使Nord能够快速扩展支持BSC和Polygon。[2021/4/29 21:11:11]
可能是为了安抚ChatGPT用户的心绪,OpenAICEOSamAltman在当天立刻接受了媒体专访。虽然只字未提此次用户数据泄露事件,却多次强调“AI安全”。
他提到了以下四点:
1.人工智能语言模型的开发和改进需要一个包含公众反馈的迭代过程,专注于解决偏见,并考虑AI安全性和一致性。
2.人工智能的进步,特别是GPT技术的进步,正在改变编程的性质,需要仔细考虑人工智能的安全性、语言输出的监控和解决偏见。
金色财经独家消息:火币将在未来推出公链Huobi chain,火币业务流程以及全球通用积分HT将运行在上面:今晚火币发布公告,即将推出全球通用积分HT(Huobi token),用于火币内部运营以及生态建设。金色财经从火币官方了解到,HT前期会基于以太坊erc20协议开发,但在未来会替换成自己的链,该发言人并表示火币的业务流程会放到链上管理。[2018/1/21]
3.人工智能的发展,特别是神经网络,有可能超越人类智能,大大提高生活质量,但也带来了重大的风险和挑战,必须通过不断研究和开发人工智能安全性和一致性来解决。
4.OpenAI是一家营利性公司,致力于强大的AI技术,同时对安全问题保持透明。
OpenAICTOMiraMurati也在其官网上发出自己的观点,“人工智能系统正在成为日常生活的一部分。关键是要确保这些机器符合人类的意图和价值观。”而如今,他们一手创造的ChatGPT正在挑战着他们所给到公众的承诺。
随着人类工作生活使用人工智能的频次越来越高,AI安全问题也应该成为我们在当下及未来相当长一段时间应该重视的问题,AI技术不能只考虑跑得快,还要考虑不翻车。
根据openAI官方解释,这是由于缓存问题导致用户信息泄漏,然而这种错误,在互联网行业中,并不是第一起。
早在2015年的圣诞节,Steam也因为缓存问题,使34000名左右用户的个人信息被泄露。OpenAI投入巨量的精力和金钱在AI的潜在安全的研究上,却被一个常见的老问题给绊倒。虽说“成大事者,不拘小节”,但“天下难事,必作于易;天下大事,必作于细。”希望未来OpenAI不会再出现此类的问题了。
我们询问了GPT-4,AI安全问题应该如何解决,它回答道:
在人工智能领域,确保安全性是至关重要的。以下是一些建议和方法,以解决AI安全问题:
可解释性和透明度:AI系统的设计应具备可解释性,以便研究人员、用户和监管机构理解其决策过程。提高透明度有助于确保AI系统的行为符合预期,便于发现潜在的安全隐患。
数据安全和隐私:AI系统通常需要大量数据进行训练。保护这些数据的隐私和安全至关重要。采用加密、数据脱敏和差分隐私等技术,以确保数据在处理、传输和存储过程中得到保护。
鲁棒性和抗攻击能力:AI系统应具备对抗对手的能力,包括识别和抵御对抗性攻击、性输入等。研究鲁棒性训练方法,提高系统的抗干扰能力。
可审计性:建立可审计的AI系统,以记录关键决策过程。这将有助于追踪潜在问题、确保合规性,并为未来纠正错误和不当行为提供依据。
伦理与法规遵循:确保AI系统符合伦理原则和法律法规,遵循公平、透明、可解释等原则。研究AI伦理,制定相应的政策和指导方针。
持续监控和更新:随着技术的进步和新的安全威胁的出现,需要不断监控和更新AI系统,以确保其安全性和有效性。
多学科合作:鼓励不同领域的研究人员、政策制定者、企业家和公众共同参与AI安全问题的讨论。跨学科合作将有助于制定更全面的安全策略。
开放研究和分享:开展开放、合作的研究,分享AI安全相关的知识、技术和最佳实践。这将有助于整个AI领域在安全问题上取得进展。
通过积极采纳这些措施和方法,我们可以降低AI领域的安全风险,推动人工智能的健康、可持续发展。
希望OpenAI在内的人工智能公司,都能为保障AI安全而多上心、多出力,AI行业才能够更加健康地发展。
作者:鹿人蒹葭ChatGPT排版:鹿人
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。