基于PyTorch实现的自注意力机制

自注意力机制的 Python 实现,真挺适合用来理解 Transformer 里那些“看不见摸不着”的东西。整个代码基于PyTorch,模块清晰,注释友好,重点在两个类:SelfAttentionSelfAttentionClassifier,一个管注意力机制,一个搞分类任务。嗯,写法比较标准,新手也能快速看懂。

txt 文件大小:1.35KB