撰文:KyleWiggers
来源:TechCrunch
图片来源:由无界AI工具生成
从历史上看,甚至在今天,记忆力差一直是阻碍文本生成式人工智能发挥作用的一个因素。正如《大西洋》杂志最近发表的一篇文章?所说,即使是像ChatGPT这样复杂的生成式文本人工智能,其记忆力也像金鱼一样。每次模型生成响应时,它只考虑到非常有限的文本量,因此它也无法总结一本书或审查一个主要的编码项目。
?Magic Eden将在3月份推出一系列免费的Web3游戏:金色财经报道,NFT市场Magic Eden将在3月份推出一系列免费的Web3游戏,这次发布被称为“Mint Madness”,这是致敬被称为“March Madness”的NCAA大学篮球锦标赛,该平台总共将免费推出13款横跨以太坊、Solana和Polygon区块链的Web3游戏。为了提高参与度,Magic Eden将在其社交媒体渠道上发布Mint Madness系列顶级NFT交易者的排行榜。Polygon系列交易量排名前10位的交易员将进入20,000MATIC(约合25,500美元)的奖池,第一名获胜者将获得4,500MATIC(约合5,400美元)的奖金。[2023/3/2 12:37:24]
但Anthropic正试图改变这种状况。
印尼计划推出加密货币交易所,将移交给金融服务管理局监管:金色财经报道,印度尼西亚将会在今年建立一家加密货币交易平台,目前印度尼西亚的加密资产由商品期货交易监管机构(Bappebti)监管,但在印尼金融改革框架下,加密货币监管权将会移交给印尼金融服务管理局(Financial Services Authority)。
Bappebti代理负责人Didid Noordiatmoko周三表示,“作为更广泛的金融行业改革的一部分,未来两年内的加密资产监管权力将移交至FSA,届时交易所应该成立”。[2023/1/4 9:51:58]
今天,这家人工智能研究初创公司宣布,它已将Claude的上下文窗口从9000个token扩展到了10万个token。上下文窗口指的是模型在生成额外文本之前考虑的文本,而token代表原始文本。
去中心化内容发布平台t2.world完成340万美元融资,Inflection和Archetype领投:10月15日消息,去中心化内容发布平台t2.world(t2)宣布完成340万美元种子轮融资,Inflection和Archetype领投,Metaweb、SevenX Ventures、Seed Club Ventures、Block0、GCR、Generalist Capital和Marc Weinstein参投。
据悉,t2将基于注意力证明(PoA)共识机制构建平台,计划利用这笔新资金发展充满活力、可持续的读者和作者社区,并招聘关键人才。t2目前处于开发阶段,正计划开发Beta产品并引入第一批作者和高质量内容。t2计划在2022年底推出其首版产品。(Cryptodaily)[2022/10/15 14:29:04]
那么,这意味着什么呢?正如前面所提到的,具有小上下文窗口的模型往往会“忘记”即使是最近的对话内容--导致它们偏离主题。在几千字左右之后,小模型也会忘记最初的指示,只根据上下文窗口中的最后的信息来进行响应。
Filecoin宣布推出FVM漏洞赏金计划:金色财经消息,Filecoin宣布Filecoin虚拟机(FVM)漏洞赏金计划。邀请漏洞猎手和社区开发人员在FVM里程碑1代码库中查找漏洞,为5月的Filecoin网络升级v16 Skyr做准备。
据悉,里程碑1计划于2022年5月部署到Filecoin主网。里程碑2将引入EVM兼容性和用户可编程参与者。里程碑2可能会在7月提供漏洞赏金,然后预计在2022年9月部署到主网。[2022/5/7 2:56:09]
鉴于大上下文窗口的好处,找出扩展的方法已成为OpenAI等AI实验室的主要关注点,要知道,OpenAI将整个团队都投入到了这个问题上了。OpenAI的GPT-4在上下文窗口的大小方面保持着之前的领先地位,其规模最高可达32,000个token,而改进后的ClaudeAPI已然超越了这一数字。
有了更强的“记忆力”,Claude应该能够相对连贯地交谈几个小时——甚至几天——而不是几分钟。也许更重要的是,它应该也不太可能偏离轨道。
在博文中,Anthropic对Claude增加上下文窗口的其他好处进行了介绍,包括该模型消化和分析数百页材料的能力。Anthropic称,除了阅读长文本,升级后的Claude可以帮助从多个文件甚至一整本书中检索信息,回答哪些需要跨文本的“综合知识”问题。
Anthropic列出了一些可能的用例:
对财务报表或研究报告等文件进行消化、总结和解释
根据公司的年度报告,分析其风险和机会
评估一项立法的优点和缺点
识别风险、主题和跨法律文件的不同论证形式。
阅读数百页的开发者文档,呈现技术问题的答案
通过将整个代码库放入上下文中并智能地构建或修改它来快速制作原型
“普通人可以在5个小时左右阅读10万个token的文本,然后可能需要大量的时间来消化、记忆和分析这些信息,”Anthropic继续说道。“Claude现在可以在不到一分钟的时间内做到这一点。例如,我们把《了不起的盖茨比》的全部内容输入进了Claude......并修改了其中一行,说Mr.Carraway是‘一个在Anthropic从事机器学习工具的软件工程师’。当我们要求Claude发现有什么不同时,它在22秒内就给出了正确答案。”
此外,Anthropic的合作伙伴AssemblyAI也进行了相关测试。在视频演示中,该团队用Claude-100k将一个长播客转录成58K单词,然后使用Claude进行总结和问答。该团队给出的评价是:insane!太疯狂了!
目前,更长的上下文窗口并不能解决围绕大型语言模型的其他与记忆有关的挑战。Claude,像其同类的大多数模型一样,无法将信息从一个会话保留到下一个会话。而且与人脑不同的是,它把每一条信息都视为同等重要,这使得它并不能成为一个特别可靠的叙述者。一些专家认为,解决这些问题将需要全新的模型架构。
不过,就目前而言,Anthropic似乎走在了前列。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。