欢迎光临
我们一直在努力

关于Transformer中Decoder模块是如何预测下一个字符的算法

一是关于FNN层的,就是FNN层是如何升维的。 升维使用的核函数是什么?为何升维能提升语义的表达并产生“记忆”功能?为何将维度升4倍,而不是6倍,8倍?

关于FNN层也有一些文章进行解读,大部分都会以CNN的卷积神经网络进行类比:即一个是Token mixer,关注在L这个维度的表达;一个是Channel mixer,专注于d这个维度的表达。至于为何升维4倍,没有什么理论基础,就像8头注意力一样,可能4倍的实验数据效果最好,是性价比最优的选择。

未经允许不得转载:小健博客 » 关于Transformer中Decoder模块是如何预测下一个字符的算法
分享到: 更多 (0)

大前端WP主题 更专业 更方便

联系我们联系我们