苹果的AI研究:即使是最聪明的机器人也难以应对复杂的难题
苹果的AI研究:即使是最聪明的机器人也难以应对复杂的难题

嘿,朋友,你知道现在大家都对人工智能很兴奋吗?苹果公司最近发布了一些有趣的调查结果,给这种热潮泼了一盆冷水。他们一直在研究先进的人工智能模型——那些超级智能的模型,而不是简单的聊天机器人——如何处理复杂的问题,结果相当令人惊讶。
苹果的研究人员使用了一些巧妙的益智游戏测试,例如汉诺塔(你知道,那个有圆盘和柱子的游戏)和过河难题。他们不仅关注人工智能是否得到了正确的答案;他们还在分析人工智能如何尝试解决问题。他们比较了两种类型的人工智能:标准的大型语言模型 (LLM),例如为许多聊天机器人提供动力的那些模型,以及大型推理模型 (LRM),它们的设计目的是更擅长逻辑思维。
关键在于:在简单的谜题上,LLM 实际上表现更好。它们更快、更高效。但是随着谜题变得越来越难,LRM 最初占据了领先地位,使用了更长、更复杂的推理步骤。然而,当谜题变得非常复杂时,两种类型的人工智能都完全失败了!无论它们拥有多少计算能力,它们的准确率都下降到了零。
更奇怪的是?随着谜题变得更难,即使LRM还有足够的处理能力,它们也开始采取更短的推理捷径。即使给出了正确的解决方案步骤,它们也难以可靠地遵循这些步骤。事实证明,这些超级智能的人工智能并不擅长泛化它们的知识——它们似乎只在与训练期间看到的类似问题上表现良好。
那么,这一切意味着什么?苹果的研究表明,目前的人工智能,即使是最先进的版本,在其像人类一样推理的能力方面也存在根本性的局限性。它们擅长特定任务,但在需要真正理解和灵活思维的真正复杂、抽象的问题上却难以应对。这提醒我们,距离创造出能够真正像我们一样思考的人工智能还有很长的路要走。
Read the English version (阅读英文版)
免责声明:本文内容来自互联网公开信息,请仔细甄别,如有侵权请联系我们删除。