来源:中国经营报
4月14日,据外媒援引美国内华达州的一份文件报道,特斯拉、推特、SpaceX的公司CEO埃隆·马斯克已于3月9日注册了一家新的人工智能公司,名称为“X.AI”,马斯克是新公司唯一的董事。马斯克家族办公室主任,同时也是马斯克的神经网络公司Neuralink首席执行官的JaredBirchall则担任秘书之职。在此之前,据美媒报道,马斯克在推特内部启动了一个AI项目,为此已购买了约1万个GPU芯片,而且开始招揽AI人才。
图片来源:由无界AI生成
随后在4月18日,马斯克接受福克斯采访时表示,要开始做一个最大程度寻求真相的人工智能,可能会叫做“TruthGPT”。4月20日,就在微软宣布将推特从其广告平台删除之后,马斯克发布推文回应称,“他们非法使用推特数据进行训练。诉讼时间到。”
马斯克收购推特的提案不再受融资条件限制和尽职调查约束:4月21日消息,特斯拉CEO马斯克表示,根据日期为4月20日的股权承诺函,承诺为推特拟议的交易提供股权融资,目前预计约210亿美元。这意味着马斯克收购推特的提案不再受融资条件限制,不再受尽职调查的约束,据悉马斯克希望用他的一些特斯拉股票满足20%的贷款价值(LTV)比率。据悉,埃隆·马斯克表示截至2022年4月20日,他持有推特9.1%的股份。(金十)[2022/4/21 14:40:01]
马斯克近期的种种举动,引发业界的广泛猜测——马斯克或将亲自入局做AI,以对抗OpenAI的对话机器人ChatGPT及其背后支撑的GPT大模型。针对新公司X.AI的战略定位和业务范围,以及马斯克推文中提及的“诉讼”是否会付诸实施,《中国经营报》记者通过电子邮件向特斯拉和马斯克方面求证核实,截至发稿前暂未获得回复。
值得注意的是,马斯克拥有的几家公司——特斯拉、SpaceX、太阳城、Neuralink、推特,无一不使用甚至依赖AI技术;而另一方面,从2014年至今,马斯克也在持续不断地发声,提醒高度警惕AI、呼吁监管以确保AI的安全可控。尽管宣示与执行往往并不一定是一致的,现在去评判马斯克的发声或动作,显然还为时尚早,但是,人们从马斯克看似“矛盾”的AI观中,或许可以一窥其“野心”,以及探讨当下大火的生成式AI究竟带来了哪些方面的风险与挑战。
高盛:马斯克对推特提出54.20美元/股的收购价格太低:4月15日消息,高盛(GS.N)表示,马斯克对推特(TWTR.N)提出54.20美元/股的收购价格太低。高盛目前对推特的目标价为30美元,评级卖出。(金十)[2022/4/15 14:25:59]
马斯克的X“野心”?
需要注意的是,在注册X.AI公司几乎同一时期里,马斯克还注册了XHoldingsCorp。和XCorp。两家公司,前者意为控股公司,是作为XCorp。的母公司。据外媒4月14日的报道,马斯克于去年10月收购的推特公司已并入XCorp。实体公司中。马斯克在发给推特全体员工的邮件中宣布,推特员工将获得XCorp。的股票。
“X”这一名称与马斯克的渊源颇深。马斯克于1999年3月创立了他的第二家初创公司,命名为X.com。X.com发展与竞争中经历了合并,于2001年6月更名为PayPal,次年被eBay出价15亿美元收购。马斯克在X.com发展中也被解除了CEO职务,直至离开。2017年,马斯克从eBay手中买回了X.com这一域名。到2020年12月,马斯克重申了对X这一名称的支持。2022年10月,随着推特收购案的推进,马斯克在推特上表示,“收购推特是创建X即万能应用的催化剂。”彼时,马斯克并未明确X的目标,只是考虑将推特变成一个“超级微信”。
Gate研究员:马斯克的扩容方案并不能从根本上解决Dogecoin的交易速度问题:5月16日,马斯克发推提出了Dogecoin(狗狗币)扩容方案,随即遭到以太坊创始人V神等人的诸多反对,一周后V神发布博客批评马斯克扩容方案的局限性。Gate研究员认为,马斯克的扩容方案并不能从根本上解决Dogecoin的交易速度问题。如若未来的以太坊2.0能破解自身的拓展性问题,便有可能实现去中心化,可扩展性以及安全性三者之间的平衡。Dogecoin与之合作或有可能“重获新生”。在V神最新的公开言论中,他也表示希望将狗狗币桥接至以太坊以提高性能。[2021/6/9 23:24:06]
谦询智库合伙人龚斌认为,“马斯克的思维武器是第一性原理,即凡事回到本源,回到基本的数学规律、物理学定律、化学原理等去看本质。从他做的事,能够看到他的行事方式是‘如果一件事情在理论上是成立的,理论上能做到最好的,那么就应该想办法把它做出来’。”
美国作家阿什利·万斯撰写的《硅谷钢铁侠:埃隆·马斯克的冒险人生》一书中也提到,“长期以来,他一直想让世界知道,他并不是在顺应潮流,也不是为了发财,他是在追求一个整体的计划。”马斯克向作者表示,“我喜欢把那些对于未来真正重要和有价值的技术,以某些方式变成现实。”
福布斯:马斯克是去年美国收入最高CEO:根据福布斯杂志评估,去年特斯拉公司向马斯克支付了大约110亿美元的特斯拉股票股权。2020年在受益方面马斯克超过了Paycom公司的总裁查德·里奇森和1Life Healthcare总裁阿米尔·丹·鲁宾。里奇森和鲁宾去年的收入分别为2.11亿美元和1.99亿美元。 (金十)[2021/5/7 21:32:53]
由此不难看出,马斯克亲自创办一家AI公司,对抗他所“抨击”的、处在“闭源”“逐利”“被微软掌控”现状的OpenAI。全联并购公会信用管理委员会专家安光勇认为,马斯克下场做AI,按照他的AI观乃至世界观,可能会采取诸如研究和应用AI技术解决人类面临的重大问题、加强内部对AI伦理的监管机制、与相关组织和机构合作等措施,来推动AI技术被人类利用掌控并助力人类社会发展。
“戒心”由来已久
今年4月中旬,马斯克在接受福克斯采访时警告,人工智能可能导致“文明毁灭”,支持“政府对AI进行监管,尽管受到监管并不好玩”,一旦AI“可能处于控制地位,再制定法规可能为时已晚”。
马斯克发推“Doge”,DOGE短时拉升日内涨超50%:刚刚,特斯拉首席执行官Elon Musk再次在其推特上提及狗狗币,火币全球站数据显示,DOGE短时拉升日内涨超50%。
此外,马斯克回复火币全球站官方推特,“娱乐性越大,可能性越大”。[2021/2/4 18:53:34]
就在3月29日,非营利组织“未来生命研究所”发出一封联合署名的公开信,呼吁“所有AI实验室立即暂停对比GPT-4更强大的AI系统的训练至少6个月”。马斯克位列这封公开信署名榜单的第一位。
安光勇指出,马斯克对AI持续多年的警惕与戒心,与其利用AI等新型技术扩张商业版图并不矛盾。他看到了新技术的巨大潜力和价值,同时又意识到AI技术的发展带来的潜在威胁和风险。
事实上,马斯克对AI的“戒心”由来已久。本报记者综合社交媒体、公开演讲、媒体报道、产业及行业会议发言等公开渠道不完全统计,从2014年截止到现在,马斯克公开发表的对AI保持高度警惕、呼吁确保安全的言论高达数十次,持续地表达对AI的担忧。尤其是2018年在接受采访时,马斯克直言“人工智能比核武器更危险”。记者注意到,马斯克持续多年对AI的“戒心”大致可以概括为两个层面:一是担忧人工智能的进化可能脱离人类的控制,从而对人类造成负面影响甚至潜在的危险;二是呼吁加强对人工智能的监管,以确保其安全可控。
需要指出的是,马斯克在担忧AI失控的同时,也并不否认AI技术的优势与对商业、社会的驱动力量。而实际上,被马斯克批评的OpenAI无论是在大模型训练中,还是产品服务中也表出现出了满满的“求生欲”。OpenAI方面表示,目前并没有关于GPT-5的训练计划。在发布GPT-4大模型时也表示“花了6个月时间使GPT-4更安全、更一致”。4月25日,OpenAI在ChatGPT可用市场推出了新控件,允许用户关闭其聊天记录。所有禁用聊天历史记录中发生的任何对话都不会用于训练OpenAI的模型,新对话保留30天。
与此同时,包括意大利、德国等欧洲国家、美国、中国在内的相关监管机构或部门也开始关注并探索对生成式AI的监管路径。4月11日,中国国家互联网信息办公室起草了《生成式人工智能服务管理办法》,即日起至5月10日期间面向社会公开征求意见。
AI威胁论见仁见智
马斯克关于AI可能失控、甚至威胁人类的言论究竟是未雨绸缪,还是杞人忧天?显然,现阶段这还是一个见仁见智的事情。马斯克在全球范围内拥有大批支持者,同时也有反对与质疑的声音。
上海申伦律师事务所夏海龙认为,在人类对自身“意识”尚未有充分科学认识的情况下,显然不可能凭空创造出一个意识,因此生成式AI本质上依然只是对人类语言模式的机械模仿,而不存在进化出类人意识的可能。从当下来看,生成式AI对社会、法律的冲击还只是“类似于车马时代汽车造成的冲击”,监管目前只能在内容合规、网络安全等几个传统维度提出要求,后期更细致的监管措施可能需要生成式AI应用的进一步深化、普及。
毫无疑问的是,生成式AI的热潮正在给个人信息保护带来一些挑战和风险。中国科学院信息工程研究所张逸飞发文《大语言模型中的个人信息保护问题探讨》指出,虽然大语言模型有着巨大的潜力和应用价值,但也带来了一些个人信息保护方面的挑战和风险,主要包括数据来源、数据处理、数据安全、偏见诱导四方面的问题。
文章分析认为,在数据来源方面,LLM通常使用来自互联网的公开文本数据作为预训练数据,这些数据可能包含一些用户的个人信息,如姓名、年龄、性别、职业、兴趣爱好、社交关系等。这些信息可能被LLM无意中学习和记忆,并在后续的应用中泄露出来。而在数据处理方面,LLM在预训练和微调过程中需要对数据进行收集、存储、分析和处理,这些操作可能会侵犯用户的个人信息权利,如知情权、选择权、删除权等。用户可能没有充分的意识和能力来保护自己的个人信息,也没有足够的透明度和监督机制来确保数据处理方遵守相关的法律法规和伦理规范。在安全方面,LLM由于参数量巨大,需要借助分布式计算和云服务等技术来进行训练和部署,这就增加了数据被窃取、篡改、滥用或泄露的风险。LLM的模型参数本身也可能包含一些敏感信息,如果被恶意攻击者获取,可能会导致用户的个人信息被还原或推断出来。此外,LLM在应用场景中可能会对用户的个人信息进行分析、预测或推荐,这些操作可能会影响用户的个人自由、尊严和权益,带来歧视、偏见、诱导等问题,甚至被用于产生违反社会主义核心价值观的有害信息,对社会造成危害。用户可能没有足够的知识和能力来判断LLM的输出结果的可靠性和合理性,也没有有效的途径和机制来纠正或申诉LLM的错误或不公正的决策。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。