人工智能技术的引领者OpenAI已经成为全球科技行业和监管机构关注的最大焦点,科技大佬们围绕OpenAI的争议也一直未平息。

5月16日,“ChatGPT之父”、OpenAI公司CEO萨姆·奥尔特曼(Sam Altman)首次在美国国会发表证词。

对奥尔特曼发难的议员们也动用了ChatGPT的新手段。

美国康涅狄格州民主党参议员理查德·布卢门撒尔(Richard Blumenthal)在听证会开场时播放了一段“他的讲话录音”,后来他透露讲话内容和声音都是由AI生成的。

密苏里州共和党参议员乔希·霍利(Josh Hawley)指出,一年前,人们还无法预见人工智能能以如此强大的方式进入“公众意识”。他设想了生成式AI技术未来在加速信息生产的同时,可能对人类社会造成的挑战。“这就像是原子弹,巨大的技术突破带来的后果也可能是严重且可怕的。”霍利表示。


马斯克:我才是OpenAI存在的原因

最新针对OpenAI发声的还有特斯拉CEO马斯克。马斯克在5月16日最新接受媒体采访时声称自己是“OpenAI存在的原因”,并指责OpenAI在确保AI安全性方面做得不够,他再次反对微软对OpenAI的控制权。他还表示,自己曾在OpenAI招聘关键科学家和工程师方面发挥了重要作用。

马斯克是OpenAI的早期投资者之一,他曾承诺向OpenAI注入10亿美元投资,不过此后因理念不合,他退出了OpenAI,最终的投资大约为5000万美元。

针对马斯克的最新表态,微软CEO纳德拉(Satya Nadella)发出了针锋相对的回应,他表示:“声称微软控制OpenAI的说法是不正确的。”

纳德拉称:“虽然我非常尊重埃隆(马斯克)和他所做的一切,但我只想说这实际上是不正确的,OpenAI非常重视由非营利组织控制。微软在其中拥有非控股权益。”

截至目前,微软对OpenAI的投资已经达到130亿美元。近几个月来,微软一直在其搜索及办公产品和服务中整合OpenAI的技术,例如GPT-4。

为了回应来自微软和谷歌在人工智能领域的竞争,上个月,马斯克自己注册了一家公司,宣称将推出一个人工智能平台TruthGPT。他表示:“TruthGPT是一种试图理解宇宙本质、寻求真相的人工智能。TruthGPT可能是通往安全的最佳途径,不太可能消灭人类。”

马斯克还自曝与谷歌联合创始人拉里·佩奇(Larry Page)关于人工智能的理念不合。他说道:“我们是曾经的密友,会就人工智能的本质进行长时间的对话。不过拉里对人工智能的态度相当傲慢,他似乎并不关心人工智能的安全性。”

他说道,双方“分道扬镳”的“最后一根稻草”是关于人工智能的意识问题。“拉里称我为‘物种主义者’(species-ist),因为我的立场是亲人类意识而不是机器意识。”马斯克表示。佩奇没有对此公开发表回应。

马斯克不是第一次指责OpenAI和谷歌等企业对待人工智能的态度不负责任,他还多次敦促美国政府加强对人工智能的监管。

“人工智能比管理不善的飞机设计或维护糟糕的汽车生产更危险,它有可能破坏文明。”马斯克在上个月接受采访时表示。

有“人工智能教父”之称的计算机科学家杰弗里·辛顿(Geoffrey Hinton)本月宣布离开谷歌。辛顿在过去的十多年里帮助谷歌开发AI技术,但他现在成为了人工智能最新的“末日预言者”。辛顿担心,人工智能技术的“未来版本”会对人类构成威胁,因为“它们经常从分析大量数据中学习到意想不到的行为”。

ChatGPT之父回应AI意识

5月16日,萨姆·奥尔特曼在首次出席美国国会作证时表示,他支持对人工智能技术进行监管,以利用人工智能的益处,同时最大限度地减少危害。

当被问及“如果国会不对技术进行监管,人工智能会多快具有‘自我意识’”时,奥尔特曼强调:“将GPT视为一种工具而不是一种生物很重要,人们不应该试图将人工智能拟人化。”

但他同时强调对AI技术的监管非常重要。“我们认为政府的监管干预对于减轻日益强大的大型语言模型的风险至关重要。”奥尔特曼表示,“对于一项非常新的技术而言,我们需要一个新的框架。”

他建议美国政府可以考虑对AI模型的开发和发布提出许可和测试要求,并建立一套安全标准,特定的测试模型必须通过这些标准才能部署,同时允许独立审计人员在模型启动前进行检查。

奥尔特曼承认,虽然OpenAI正在构建的强大模型工具有朝一日会解决人类面临的一些最大挑战,例如气候变化和治愈癌症,但目前的系统还无法做到这些。

“人工智能有能力改善我们生活的几乎每个方面,但它也会带来严重的风险。”他说道。针对生成式AI技术对就业市场产生的影响,奥尔特曼表示:“它会对就业产生严重的影响。但另一方面,也会创造更多的就业机会。”

一些议员提出了ChatGPT的回答如果被用于AI生成的歌曲、文章或其他作品,内容创作者将如何获得补偿的问题。对此,奥尔特曼表示,OpenAI正在与艺术家和其他机构商讨潜在的经济模式。他还谈到生成式AI对于新闻出版行业的影响。

奥尔特曼对于人工智能的开放态度也赢得了国会议员的赞赏。纽约大学心理学和神经科学名誉教授加里·马库斯(Gary Marcus)也在听证会上发表演讲,呼吁为人工智能技术建立一个新的监管机构。“AI技术复杂且发展迅速,必须有一个全职的机构专门来对此进行监管。”马库斯表示。

不过,听证会上谈及的只是生成式AI技术可能引发的初步问题。比如,议员们还提到生成式AI技术带来的市场垄断问题,少数公司将可能拥有数据和基础设施结合的能力,可以掌控人工智能生成的全链条,这可能使得少数公司收获更大的经济利益。但这一问题尚未得到很好解答。

微软称GPT-4已展现人类逻辑迹象

尽管大部分科学家认为,AI目前并不具有意识,但微软的科学家研究发现,新的AI系统正展现出具备人类逻辑的迹象。在一篇近期发表的论文《通用人工智能的火花》中,研究人员发现,AI系统可能对物理世界“拥有直观的了解”。

微软科学家认为,尽管人们在使用GPT-4大模型的时候,惊讶于它生成文本的能力,但事实上,大模型在分析、整合、评估和判断文本方面的能力要远胜于它的生成能力。

“这是AI系统迈向通用人工智能(AGI)的第一步。”他们表示。

对此有专家表示,尽管GPT-4这类系统非常强大,不过现在还无法证明它生成的文本是否为人类逻辑的结果或是基于常识的结果。

美国加州大学伯克利分校的心理学和哲学教授艾莉森·戈普尼克(Alison Gopnik) 就认为,每当一个复杂的机器或系统问世的时候,都会有人倾向于将它拟人化,但把人工智能和人类进行比较本身就是带有谬误的。

上海交通大学与上海市精神卫生中心双聘研究员林关宁教授对第一财经记者表示:“如果人类逻辑的定义是不带感情色彩的逻辑推理,那么GPT-4确实具备了相当一部分的能力。也就是说给它一定的上文,它可以推理出下文应该说什么。”

微软是首个发表论文提出如此大胆设想的科技巨头。这也引发了科技界的激辩话题:人工智能是否会发展为“人类智能”?如果技术专家们真的造出像人脑那样的机器,甚至还能比人脑更加聪明,那么它是否会激发“自我意识”?如果这一情况真的发生,那么AI在改变世界的同时,也存在危险。

对此,林关宁对第一财经记者表示:“如果认为意识只是一种信息的输入与输出和反馈,那么显然人工智能已经具有某种意义上的‘意识’;但如果认为意识整合了人类的情感、具有伦理和道德反思,那么显然人工智能远未达到此意义上的意识存在。”

他认为,从目前的GPT版本来看,虽然机器变得更加智能,拥有了更加准确地完成目标的能力,但它仍然只是一个先进的基于深度学习完成任务的机器,不存在情绪等主观体验。

“机器只是通过接受人类传达给它的指令后,学习了更像人的表达,看似具有了某种人格,更符合大众的心理预期,但这些还不能说明机器具有意识。”林关宁对第一财经记者表示。

但他同时强调了未来AI自主运行可能对社会造成的潜在风险。“如果不考虑算力的限制,那么让机器用指令操纵一些软硬件,是有可能模拟一个人类社区的。”林关宁说道。

辛顿也表示:“如果AI系统被允许不仅可以生成自己的计算机代码,而且实际上可以自己运行该代码,这就会变得非常可怕。”他担心有一天真正的“自主武器”会成为现实,这些“武器”就好像是战场上的“机器人士兵”。
来源:第一财经