如果人工智能只是一个“文字计算器”,为什么它会让人感觉如此人性化?
尝试传达生成人工智能(人工智能)是,它所做的事情产生了一系列的隐喻和类比。
从”黑盒子“ 改为 ”类固醇自动完成“, a ”鹦鹉“,甚至还有一双”球鞋“,目标是通过将复杂技术建立在日常经验的基础上,使对复杂技术的理解变得容易——即使由此产生的比较往往过于简单或具有误导性。
一个越来越普遍的类比将生成式人工智能描述为“单词计算器”。部分由 OpenAI 首席执行官推广,山姆·奥特曼,计算器比较表明,就像我们在数学课上用来处理数字的熟悉塑料物体一样,生成式人工智能工具的目的是帮助我们处理大量语言数据。
计算器的类比是正确批评,因为它可能会掩盖生成式人工智能更令人不安的方面。与聊天机器人不同,计算器没有内置的偏见,不会犯错误,也不会造成根本的道德困境。
然而,完全否定这种类比也存在危险,因为生成式人工智能工具的核心是单词计算器。
然而,重要的不是对象本身,而是计算的实践。生成式人工智能工具中的计算旨在模仿支撑人类日常语言使用的计算。
语言有隐藏的统计数据
大多数语言用户只是间接意识到他们的互动在多大程度上是统计计算的产物。
例如,想想听到有人说“胡椒和盐”而不是“盐和胡椒”的不适感。或者,如果你在咖啡馆点了“浓茶”而不是“浓茶”,你会得到奇怪的表情。
支配我们选择和排序单词的方式的规则,以及语言中的许多其他序列,都来自我们与它们的社交接触的频率。你越经常听到某种方式说某件事,任何替代方案听起来就越不可行。或者更确切地说,任何其他计算序列看起来都不太合理。
在语言学这个致力于语言研究的广阔领域中,这些序列被称为”搭配".它们只是众多现象之一,这些现象表明人类如何根据多词模式是否“感觉正确”来计算多词模式——它们听起来是否合适、自然和人性化。
为什么聊天机器人输出“感觉正确”
大型语言模型 (LLM) 以及聊天机器人的核心成就之一是,它们成功地以现在成功欺骗人类直觉的方式将这种“感觉正确”因素形式化。
事实上,它们是世界上最强大的搭配系统之一。
通过在映射其含义和关系的抽象空间内计算标记(无论是单词、符号还是色点)之间的统计依赖性,人工智能生成的序列不仅在这一点上,在图灵测试中以人类身份通过,但也许更令人不安的是,可以让用户相爱和他们在一起。
这些发展成为可能的一个主要原因与生成式人工智能的语言根源有关,这些根源往往被埋藏在技术发展的叙述中。但人工智能工具既是计算机科学的产物,也是语言学不同分支的产物。
GPT-5 和 Gemini 等当代法学硕士的祖先是冷战时期的机器翻译工具,旨在将俄语翻译成英语。随着语言学的发展,以下数字诺姆·乔姆斯基然而,这种机器的目标从简单的翻译转向了解码自然(即人类)的原理语言处理.
过程LLM开发分阶段发生,从尝试将语言的“规则”(例如语法)机械化,通过基于有限数据集测量词序列频率的统计方法,再到当前使用神经网络生成流体语言的模型。
然而,计算概率的基本做法保持不变。尽管规模和形式发生了不可估量的变化,但当代人工智能工具仍然是模式识别的统计系统。
它们旨在计算我们如何“语言”处理知识、行为或情感等现象,而无需直接访问其中任何一个。如果您提示 ChatGPT 等聊天机器人“透露”这一事实,它会很乐意答应。
人工智能总是在计算
那么,我们为什么不轻易认识到这一点呢?
一个主要原因与公司描述和命名生成式人工智能工具实践的方式有关。生成式AI工具不是“计算”,而是“思考”、“推理”、“搜索”,甚至“”做梦".
这意味着,在破解人类如何使用语言模式的方程式时,生成式人工智能已经获得了我们通过语言传递的价值观。
但至少目前还没有。
它可以计算出“我”和“你”最有可能与“爱”并置,但它既不是“我”(它不是人),也不是“爱”,就此而言,你——编写提示的用户。
生成式人工智能总是在计算。我们不应该把它误认为更多。