从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)

作者: 王木头学科学

作者简介: 学习永在进行时,累了那就歇一歇

描述:

从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)

推荐视频

Transformer为什么会比CNN好

Transformer为什么会比CNN好

上传者: ReadPaper论文阅读

大白话浅谈【注意力机制】

大白话浅谈【注意力机制】

上传者: 老弓的学习日记