无限小说网 > 言情 > 重生2008:从助教逆袭为院士 > 第112章 《Attention Is All You Need》

第112章 《Attention Is All You Need》(1 / 2)

第112章 《attention is all you need》

科学发展史上有许多篇章,其诞生便宣告著一个旧时代的终结与新时代的开启。

《自然哲学的数学原理》,牛顿。

他奠定了经典力学的基石,让人类第一次以此丈量宇宙。

《论动体的电动力学》,爱因斯坦。

他重塑了人类的时空观,告诉我们时间与空间並非恆定不变。

而2017年的《attentionisallyouneed》中提出的transforr架构,开启了生成式人工智慧(aigc)与大语言模型(ll)的黄金时代。

可谓没有transforr,人工智慧万古如长夜。

在它之前,自然语言处理(nlp)领域长期处於黑暗的摸索期,採用n或rnn

的方法。

n,即卷积神经网络,好处是计算效率高,可以並行处理,善於捕捉局部特徵。

rnn,即循环神经网络及其变体lst,好处是天生適应序列数据,能按顺序理解上下文。

但它们的坏处也同样明显。

n看不远,它难以捕捉长距离的词语关係。

rnn跑不快,並且必须读完前一个词才能读下一个词,无法並行计算,一旦句子太长,就会出现梯度消失,导致机器阅后即焚,读了后面忘了前面。

总之它们的根本局限在於,信息在序列中必须一步一步地传递。

这种固有的顺序性成为了处理长序列、捕捉全局上下文的瓶颈。

而transforr架构,就是为了解决模型又慢又忘的绝症。

它的原理说复杂,那確实很复杂。

比如多头注意力机制(ulti—headattention)、位置编码(positional

endg)和前馈神经网络(feed—forwardworks)。

但它的核心能力,其实也非常简单。

就是字面意思:

翻译。

把人类的语言,翻译成计算机能读懂的数字,然后计算这些数字之间的关係。

它不再像小学生读书那样一个字一个字地读,而是一眼看完整篇文章,然后把注意力(attention)集中在那些最关键的词与词的联繫上。

它和word2vec的关係,是砖块与建筑的关係。

word2vec负责將人类的语言变化为数字砖。

而transforr负责將这些砖块搭建成有意义的摩天大楼。

最终达成的效果,就是可以精確的计算一个长句子中,每个词与其他词之间的关係。

这里面的重点,是:长句子。

对应的解法,是:长距离依赖。

比如

thecatateafishbecaeiashungry。

翻译:这只猫吃了一条鱼,因为它饿了。

对人类来说,看到“它饿了”这三个字中的它,可以非常轻鬆的知道它指的就是猫。

但对机器来说,这个它指的到底是猫还是鱼,是不明確的。

必须要计算才能得出结果。

而计算的方法,就是transforr中的自注意力机制(self—attention)。

通过计算每个词和其他词之间的关係,就能知道它和谁距离更近。

比如在这里计算出“它”和“猫”离的更近,关注度权重(atttion

weight)更高。

那么机器就知道,这个它指的是猫,而不是鱼。

当然这里面的逻辑计算十分复杂,並非几句话可以说清楚的。

在吴辰疯狂敲击著键盘的时候,閔欣柔也不由自主的看了几眼。

不过很快她就发现自己思考的速度,还跟不上吴辰打字的速度。

一个个矩阵变换公式如流水般从他的指尖下翻涌到了屏幕上。

閔欣柔完全看不懂。

但吴辰写在其中的一段解释,她看懂了。

“只要算力足够,模型就能无限堆叠。只要数据足够,机器就能在数学空间里涌现出智慧。”

“我们不再需要教机器语法。”

最新小说: 神奇尾款在哪里 龙族:斯科特的欢愉业务员日记 游戏王:我只是一名路过的牌佬 东京:手拿开!检察! 斗罗龙王,但是圣主 逆袭成豪,从每日情报开始! 以皇帝特权改变这个世界 方块神通:从炼炁开始长生 诸界星舰在线 海贼:最强大将从五条悟开始!