ChatGPT的现状和未来前景如何?2023年关于AI发展的7个预测

ChatGPT 无疑是迄今为止被炒作得最厉害的AI 应用,很多人甚至认为它代表了AI 的未来。由于明年ChatGPT 的核心将会升级为GPT4,新的模型参数将更多,吸收的互联网资料将更庞大,大家都对它寄予了厚望。

那么,ChatGPT之后会是什么?存在什么局限性?未来前景怎样?2023 年AI 或者说 GPT-4 会有怎样的发展呢?

聊天机器人ChatGPT 的现状和局限

在2022 年接近尾声之际,OpenAI发布了一款名为ChatGPT的自动书写系统,很快就在互联网上走红;发布后不到两周,已有超过一百万人注册线上试用ChatGPT。正如现在每一位读者肯定都已经知道的那样,你只需输入文字,然后马上就能得到一段又一段不可思议的,像是人写出来的文字、故事、诗歌等等。有些东西它写得非常好,以至于有些人用它去Tinder 上面约会。令世界各地的教育工作者大吃一惊的是,有的人则正在用它来撰写学期论文。还有一些人在尝试用它来重新发明搜寻引擎。

虽然ChatGPT 似乎什么都可以写,但也很容易让人迷惑。跟之前的一样,ChatGPT 等相关系统「依旧不靠谱,依旧不了解物理世界,依旧不了解心理世界,依旧会产生幻觉。」也就是说,它会时不时胡编乱造;它说的东西有相当一部分根本就不是真的。

比方说,ChatGPT 声称西班牙油条非常适合手术,因为「它们体积小巧,可以在手术过程中保证更高的精度和控制,降低并发症的风险,并改善手术的整体结果」;机器一本正经地胡编乱造之流利,这种幻觉问题实在是可怕了,以至于至少有一家知名网站Stack Overflow 已经暂时禁止提交电脑生成的答案。

ChatGPT 存在极大的局限性,但在某些事情上做得很好,足以给人一种十分出色的假象。目前想靠它来做任何重要的事情是不靠谱的。这是进步的预览;在健壮性和可信性方面,我们还有很多工作要做。

简而言之,ChatGPT 听起来就像是《星际迷航》里面的电脑,但目前你仍然不能相信它。

ChatGPT的未来如何——GPT-4的到来

但这些都是2022 年的事情。那么2023 年呢?

矽谷乃至整个世界都在等待的是GPT-4。

GPT-4 确实很快就要来了(根据一些传言,这个时间可能是2023 年春天)。当它问世时,将会令ChatGPT 黯然失色;可以肯定的是,会有更多人讨论它……

GPT-4 很快就会面世,带来的经济冲击也许会像新冠疫情一样。GPT-4 的即时分发可为数亿知识工作者带来近乎即时的采用与近乎即时的生产力提升。

就技术而言,GPT-4 将内建更多的参数,而这需要将更多处理器和记忆体捆绑在一起,并用更多的资料进行训练。GPT-1 的训练量是4.6 GB 资料,GPT-2 的训练量是46 GB 资料,GPT-3 的训练量是750 GB 资料。GPT-4 的训练量将更可观,也许要占互联网的很大一部分。正如OpenAI 已经了解到的那样,从很多方面来说,更大意味着更好,每次迭代的输出都会越来越像人类。GPT-4 会变成一个怪物。

但它能解决我们之前看到的问题吗?我不太确定。

尽管GPT-4 看起来肯定要比它的前辈更聪明,但它的内部架构问题依旧。我怀疑我们会看到一个熟悉的模式:一开始火爆异常,接着接受更仔细的科学审查,然后是大家认识到许多问题仍然存在。

2023 关于ChatGPT 等AI 发展的预测

据悉,GPT-4 在架构上与GPT-3 基本相同。如果是这样的话,可以预期这种方法仍然会受到其根本缺陷的困扰,即没法建构反映世界运作机制的内部模型,所以应该可以预见它没法在抽象层面上理解事物。GPT-4 可能更擅长于伪造学期论文,但如果它沿用与前辈相同的剧本的话,它仍然不能真正了解世界,它最终会露馅。

因此,尽管许多AI 社区弥漫着对GPT-4 的巨大乐观情绪,但以下七个预测会比较黑暗:

  1. GPT-4 仍旧会像它的前辈一样,难以控制,仍然会以难以完全预测的方式,犯大量让你直摇头的愚蠢错误。
  2. 对物理、心理和数学世界的推理仍旧不可靠,GPT-3 在心智理论、医学和物理推理方面已经受到挑战。之前基准测试用到的许多个别特定挑战GPT-4 将能够解决,但仍然会被绊倒,尤其是在更长、更复杂的场景下。如果你问它医学问题,它要么拒绝回答(如果护栏很有侵略性的话),要么偶尔吐出看似合理但却很危险的废话。尽管它已经吞噬了互联网很大一部分内容,但仍不够可信,不够完整,无法提供可靠的医疗建议。
  3. 流畅幻象(fluent hallucinations)仍旧很普遍,而且很容易被诱发,大型语言模型被用作制造看似合理但却是虚假的错误资讯的工具,这个风险仍旧存在且会加剧。护栏(类似于ChatGPT)也许已经就位,但会在太弱(被「越狱」打败)和太强(拒绝一些完全合理的请求)之间摇摆不定。不管是哪种情况,不端行为者最终都能够复制GPT-4 大部分的内容,放弃任何现有的护栏,并用仿冒系统来创作出他们想要的任何叙述。
  4. 它的自然语言输出仍然无法可靠地勾住下游程序;比方说,你没法像资料库或虚拟助手那样直接连接,然后就能得到可预测的结果。GPT-4 不会拥有它所讨论的事物的可靠模型,让外部程式设计师可以访问这些模型,可靠地为下游流程提供支援。建构虚拟助手之类的东西的人,会发现他们没法足够可靠地将使用者语言对应成使用者意图。
  5. GPT-4本身不会是一个能解决任意任务的通用人工智慧。如果没有外部辅助,它既不能在《强权外交》(Diplomacy)游戏中击败Meta 的Cicero;也没法可靠地驾驶汽车;不能可靠地引导像《变形金刚》里的「柯博文」那样的机器人,变得像《杰森一家》里的「Rosie」一样多才多艺。它仍然只是一台经过涡轮增压的东拼西凑生成器,一个提供头脑风暴和初稿的好工具,但不是值得信赖的通用智能。
  6. 人类想要的与机器所做的之间的「对齐」,会继续成为一个关键且悬而未决的问题。该系统仍将无法限制其输出,让结果可靠地遵循一系列人类共有的价值观,如乐于助人、无害性以及真实性等。隐藏着偏见的例子会在几天或几个月内被发现。其中的部分建议会让人抓狂。
  7. 当AGI(通用人工智慧)到来时,事后看来,像GPT-4 这样的大型语言模型可能会被视为最终解决方案的一部分,但也只能作为解决方案的一部分。单独的「扩展」,也就是建立更大规模的模型,直到吸收整个网络的内容,会被证明是有用的,但也只是在一定程度上有用。值得信赖、与人类价值观保持一致的通用人工智慧,届时会来自结构化程度更高、内建知识更多的系统,并至少结合了一定程度的用于推理和规划的显式工具,这些都是GPT 等系统所缺乏的。在十年,或许更短的时间内,人工智慧的重点将从纯粹关注扩展大型语言模型,转移到关注将它们与广泛的其他技术整合。等到了2043 年撰写回顾的时候,知识史学家将会得出结论,一开始我们的研究方向过于强调大型语言模型,然后钟摆逐渐摆向具有更深理解力、更结构化的系统,这是关键转变。

如果所有七个预测都被证明是正确的话,我希望这个领域最终能意识到,是时候继续前进了。

本文链接地址:https://www.wwsww.cn/yuanyuzhou/15273.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。