基于PyTorch实现的自注意力机制
自注意力机制的 Python 实现,真挺适合用来理解 Transformer 里那些“看不见摸不着”的东西。整个代码基于PyTorch,模块清晰,注释友好,重点在两个类:SelfAttention 和 SelfAttentionClassifier,一个管注意力机制,一个搞分类任务。嗯,写法比较标准,新手也能快速看懂。
文件大小:1.35KB
评论区