python学习-联邦学习个性化模型-深度学习-FedTP-通过Transformer实现个性化联合学习

论文《FedTP: Federated Learning by Transformer Personalization》官方所附代码。该论文提出了FedTP,是一种基于Transformer的新型联邦学习框架,具有个性化自我关注功能,能更好地处理客户间的数据异构性。FedTP为每个客户端学习一个个性化的自我注意层,而其他层的参数则由客户端共享。此外,服务器会学习一个超网络,在自我注意层中生成投影矩阵,以生成客户查询、键和值。这种超网络是在客户端之间共享参数的有效方法,同时还能保持个性化变换器的灵活性。适用于深度学习和联邦学习方面的研究者或爱好者收藏查看。
zip
FedTP-main.zip 预估大小:26个文件
folder
FedTP-main 文件夹
file
utils.py 61KB
folder
optimizer 文件夹
file
optimizer.py 845B
file
main.py 85KB
folder
data 文件夹
folder
shakespeare 文件夹
folder
__init__.py 文件夹
file
generate_data.py 3KB
file
get_data.sh 623B
file
preprocess_shakespeare.py 9KB
file
README.md 1KB
file
LICENSE 1KB
file
requirements.txt 111B
folder
figures 文件夹
file
pipeline.png 204KB
folder
models 文件夹
file
vit.py 6KB
file
cnn.py 6KB
file
Layers.py 4KB
file
lstm.py 2KB
file
language_transformer.py 8KB
file
Hypernetworks.py 7KB
file
datasets.py 11KB
folder
methods 文件夹
file
method.py 28KB
file
constants.py 1KB
file
README.md 7KB
file
datastore.py 2KB
file
config.py 282B
folder
scripts 文件夹
file
cifar100_run.sh 1KB
file
shakes_run.sh 702B
file
cifar10_run.sh 1KB
zip 文件大小:234.55KB