基于PyTorch实现的自注意力机制
自注意力机制的 Python 实现,真挺适合用来理解 Transformer 里那些“看不见摸不着”的东西。整个代码基于PyTorch,模块清晰,注释友好,重点在两个类:SelfAttention
和 SelfAttentionClassifier
,一个管注意力机制,一个搞分类任务。嗯,写法比较标准,新手也能快速看懂。
1.35KB
文件大小:
评论区