<p class="ql-block"><br></p><p class="ql-block">节选自得到听书之万维钢新书《拐点》</p><p class="ql-block">人工智能的出现和应用称之为人类历史上的拐点,就是因为,越来越多曾经被认为只有人类才能胜任的工作,现在人工智能不仅能以更高的效率来完成,而且还打破了人类作为世界规律唯一发现者的垄断地位。</p><p class="ql-block">那么AI的神奇能力是怎么来的?其实是在人类引导的培训练习里,慢慢成长的。</p><p class="ql-block">第一个阶段,就是“小样本学习”,说白了就是你先投喂给懵懂无知的AI一两个例子,让它就能照猫画虎,输出相似的内容。例如我给ChatGPT投喂了一道小学数学例题“小明有3个苹果,妈妈又给了他2个,现在小明有几个苹果?”于是,人工智能马上就给出了5道题,都是这个风格,比如“小李有5支笔,送出去3支,现在他还剩几支?”</p><p class="ql-block">然而,在这种不断重复,大量的小样本练习之后,科学家会发现,AI会突然“开窍”了!这个现象在计算机科学家口中,还有个专门名词,叫“涌现”,意思是,当一个系统丰富到一定程度时,就会发现超越组成元素简单叠加的复杂行为或者现象;而这种现象,在自然界里也常常见到:比如人脑里,单个神经元的信息处理能力非常有限,但当所有神经元集结在一起彼此连接之后,便具备了高大上的认知能力。而现在,类似的情况也在人工智能大模型里出现了,学着学着,模型就开始具备了处理复杂信息,并且输出解决方案的能力。</p><p class="ql-block">具体来说,人工智能模型之所以能在自学过程中诞生新能力,尤其是类似人类思考的能力,是因为模型里有一个关键机制,叫“思维链”,链条的链。为了解释什么叫思维链,就必须来说说ChatGPT里面的最后一个单词(字母)“T”,它指的是一种叫“Transformer”的人工智能架构,这个“Transformer”和大家熟悉的动漫IP“变形金刚”(Transformer)是同一个词。“Transformer”架构诞生的初衷,是为了进行语言处理和生成。用最浅显的话来说,这个架构能够让人工智能在处理比较大段的信息,比如说长句子的时候,能够同时捕捉到几个彼此距离较远的关键词,然后计算、识别它们之间的逻辑关系,同时给它们按照属性和重要程度打上标记,加以记忆。这样一来,在后续处理类似的任务时,就能够依样画葫芦;而这种能够把距离较远,但拥有强关联的因素、概念挑出来,并加以记忆和处理的机制,就叫“思维链”,也算是一种“Transformer”架构的副产品。</p><p class="ql-block">所以,在人工智能眼中,收到的信息并不是人类语言所呈现的形式,而是一种数学模型:如果把人工智能看做一种生命体,那么在它的意识里,万事万物,每一个概念,都是一个立体多维坐标中的某个点。属于相同或者相近范畴的概念,就会靠得比较近,比如汽车,就会和“自动驾驶”相邻不远。所以,随着训练和学习的深入,人工智能模型就会利用这种纯数学的视角和分析方法,来处理收到的信息,并且经常会带给我们出人意料的惊喜。</p><p class="ql-block">举个例子,我曾经问ChatGPT两个问题:第一,棒球棒能不能放进人的耳朵里?以及“为什么金箍棒能被孙悟空放到耳朵里?” 那么AI模型就会调用所有关于四个核心概念,分别是棒球棒、人的耳朵眼儿、金箍棒,以及孙悟空的所有信息,然后梳理它们之间的逻辑关系,最终告诉你,棒球棒由于体积和尺寸,放不进人的耳朵眼儿,但金箍棒和孙悟空都是虚构的,在虚构的神话幻想世界里,现实中的物理法则不起作用。 这就是它的回答。</p>