编程学习网 > IT圈内 > 人工智能的「玻璃天花板」
2023
06-25

人工智能的「玻璃天花板」


OpenAI的目标是开发和推广一个能够实现人工通用智能的软件系统。为此,该公司发布了基于大型语言模型的系统,这些系统可以对许多主题的提示进行流利的对话。ChatGPT、微软的必应聊天机器人以及其他基于OpenAI的GPT-3和GPT-4模型的新系统确实令人难以置信,并且远远超出了之前实现AGI的尝试。

然而,我要提醒那些认为人工智能可以在没有监督的情况下执行复杂任务的人,要从人工智能的历史中吸取教训。精心制作的智能软件系统原型——尤其是那些大张旗鼓推出的原型——往往会大大超过同类产品,而这是有原因的

最早的聊天机器人——1966年创造的心理治疗师伊丽莎(eliza)——给人的印象是,我们即将实现对话式人工智能。不过,在最初的积极反应之后,人们发现伊丽莎是建立在一个脆弱的模式匹配黑客基础上的,它在一些固定提示上运行良好,但很容易被愚弄。IBM在20世纪80年代的深蓝(Deep Blue)和21世纪头十年的沃森(Watson)似乎都是人工智能技术的重大飞跃。深蓝可以下国际象棋,沃森可以玩《危险边缘》,但事实证明,它们在现实应用中解决更广泛问题的能力较差。
像ChatGPT这样的聊天机器人是运行在深度学习系统上的,这些系统可以检测到语言实例中的复杂模式。如果几十、几百或几千篇文章以不同的方式讨论一个主题,深度学习模型可以在它们之间进行比较,提高相似之处的价值,降低差异的权重。如果一个话题的数据不多,或者数据中充斥着意见或不准确的陈述,那么深度学习模型将很难产生准确的回应。无论哪种情况,聊天机器人都会产生自信、流畅的答案。
但是,交互式解决问题不仅仅是要流畅的散文式回答。如果一个问题需要一个准确的答案,或者需要考虑到对话的前后文,你就不能依靠最可能的文字序列来获得正确的答案。尽管LLMs让我们离真正的对话式人工智能更近了一步,但它们并没有提高我们在计算上表达现实世界知识和逻辑推理的能力
这些模型背后的系统并没有开源(更像是ClosedAI),所以我们不知道它们是如何构建的。但它们似乎是建立在僵化的分类和人类产生的基于规则的系统之上的,是前几代人工智能未能扩展的产物。OpenAI花了数年时间从潜在用户那里收集数据,了解他们会给ChatGPT这样的聊天机器人什么样的提示操作,这表明该系统可能对潜在的查询过拟合,而且不够通用,无法解决更广泛的智能问题
当OpenAI迄今为止最先进的模型GPT-4在3月推出时,该公司的首席执行官兼联合创始人萨姆-奥特曼承认,最新一代的模型和它的前辈一样,"第一次使用时比......在你花更多时间使用它之后更令人印象深刻"。他没有继续解释这一现象,但这与大脑在精心准备的任务中表现更好的假设是一致的。
在使用基于GPT-4的必应(Bing)和基于GPT-3.5版本的ChatGPT进行试验时,我发现,当我询问互联网上经常讨论的常见话题——政治和体育,以及地理和历史——两者都能以温和、流畅的散文(如果我要求的话,也可以是诗歌的形式)作答,而且给出的回答也很准确。然而,当我问他们关于计算语言学的复杂问题时,他们给出了同样温和、流畅的答案,但这些答案在很多层面上都是错误的。当我问一些我不太了解的晦涩话题时,它给出了同样自信的答案——但到那时我怎么能相信它们的答案是准确的呢?
最后一个关于基于深度学习的系统的观察,这些系统试图在复杂的任务中实现类似人类的表现:很有可能我们的大脑不仅仅是我们两耳之间所包含的东西。我们才刚刚开始了解我们不知道的东西,即无论是作为人类还是作为机器,我们是如何认识事物的?例如,量子计算是一门新兴的工程学科,但量子纠缠背后的科学令人困惑,并挑战了我们对物理世界如何运作的看法。
深度学习基于一种智能计算模型,该模型假定,如果你重现人类大脑的物理连接,你就能重现人类智能。这种关键的假设可能是破坏所有基于深度学习的人工智能研究的缺陷,在复杂任务的表现上创造了一个不可逾越的玻璃天花板。

基于所有这些原因,我预计ChatGPT及其同类产品不仅不能实现AGI,甚至不能可靠地解决智能人类仍然被雇用来解决的各种问题。LLMs可能是有用的工具,是计算机研究人员版的数学家的图形计算器,但它们不会取代人。最终,我们会意识到,背诵互联网并不能带来智慧。

以上就是人工智能的「玻璃天花板」”的详细内容,想要了解更多IT圈内资讯欢迎持续关注编程学习网。

扫码二维码 获取免费视频学习资料

Python编程学习

查 看2022高级编程视频教程免费获取