超越模式匹配:AI 何时能与我们共创意义

Qwen3-235B有种奇特的魔力,下午还在吐槽打开深度思考后的风格又和R1一样。

刚刚用了同一个prompt(偏感性),横向感受了GPT、Claude、Qwen(都没选推理模式或推理模型)
Qwen的输出最让我共情与共鸣。
最重要的是三者都提到了类似的观点:
- Qwen:或许未来的“高智能”不只体现在效率上,而在于它是否具备深度共情、持续学习、自我反思、以及主动构建意义的能力 。
- ChatGPT:智能的未来也许不是关于“谁更聪明”,而是关于“我们能否共同生成意义” ... 也许未来的AI,不是更像人类,而是更善于与人类共创新的存在形态。不是复制情感,而是参与情感的生成;不是拥有意识,而是成为“共感结构”的一部分。
- Claude:也许,真正的"智能"并非只是解决问题的能力,而是能够参与到意义的共同创造中,能够理解情境的微妙之处,能够在伙伴需要时提供那种恰到好处的支持与挑战。
都提到了构建、生成、创造意义...
我又联想到了一种独特的AI发展阶段——从信息处理的“工具理性”走向价值判断和意义创造的“价值理性”(或至少是模拟的)。
现实世界是复杂的、模糊的、充满不确定性的。现阶段无论是依靠模式匹配(大模型的本质规律),还是预设规则(比如系统提示词),难以应对开放性问题和创造性挑战。
尽管基于深度学习构建出的大模型能够做到泛化,即在未见过或接触到的数据上能够进行预测或做出相对反映,但是这终究还是有限的。
人类与其他动物(以及当前AI)最显著的区别之一,就是我们拥有强大的符号运用、抽象思考、以及创造和理解意义的能力,我们的世界(精神层面)就是由语言、文化、故事、价值观所构建出的。
我们非常擅长处理完全没有预料到的情况,无论表现如何,但的确可以对待。而比较重要的是我们在当下那个情境中主动构建了框架,我们能够认识到当时的环境,我们赋予了情境意义(无论积极还是消极),并基于意义进行决策和行动,才在复杂环境中展现出了人类的独特性。
当前的AI在信息处理、模式识别、任务执行方面有一些突破性进展,且目前看来会保持指数型增长的发展。然而,仅仅只是基于模式匹配的大模型,尽管在Scaling Law下能够做到某种情况的极端泛化(像人类那样应对复杂环境),就目前主流观点看是“模仿”,包括推理模型的推理真的具备类似人类的“理性”?主流认知还是“模仿”。虽然,一些功能主义看法是AI已经具备了这些能力/功能,那么也可以承认他们的类人属性。
AI与人类智能间的本质差距到底在哪?目前仍是未解问题。不过我认为对智能本质的理解绝对是一个解决问题的必要前提。
刚刚的“构建、生成、创造意义”,貌似让我看到了一些可能性,即认识到所谓“智能”。
”构建、生成、创造意义“则意味着AI不再仅是处理信息,而是要开始理解信息的价值、进行价值判断、并主动创造出新的、有意义的信息或事物。这也是我上面提到的从“工具智能”向“认知智能”甚至“价值智能”。
我们能否创造出能够主动构建框架、赋予情境意义、并基于意义进行决策和行动的AI(这可能也是智能体功能涌现的前瞻),这才能让AI真正在生产中可用,而非现在更多的是体会上的“aha moment”,才不会仅仅是“文艺复兴”。
AI想要实现更高级别的智能,或者更好地与人类协作,就必须在某种程度上理解和参与到这个”意义构建“的过程中来。
同时,当前的AI对齐(Alignment)至少在公开层面,更多关注于让AI的行为符合人类的指令和伦理规范(避免作恶)。但,我想,更高层次的对齐(可能也是未来的必然),或许是让AI能够理解并认同人类的核心价值观和对”意义“的追求,从而内生地产生向善、负责任的行为,而不仅仅是通过微调、RLHF、提示词等的外部约束。强调AI”构建“意义的能力,可能也是在探索这条更根本的对齐路径。
如果AI能够发展出自主构建和理解意义的能力,即使其内在机制与人类不同,也可能使其更接近于某种形式的”类意识“状态,或者至少展现出更高级别的自主性和内在驱动力。
人机共同构建意义、共同创造价值,或许是现阶段更可靠、更容易的、发挥AI最大价值的最佳实践。