AliceMind是业界领先的预训练语言模型体系。该存储库提供由阿里巴巴MinD(达摩机器智能)实验室开发的预训练编码器-解码器模型及其相关优化技术。
Python 17 次浏览
提供以下预训练模型供选择: SCRFD_10G (shape640×640, shape1280×1280) SCRFD_10G_KPS (shape640×640, shape1280×1280)
PHP 27 次浏览
CLIP ViT-32 是一种基于 Vision Transformer (ViT) 架构的预训练模型,图像编码器部分采用了 ViT-32 结构。该模型在大量的图像-文本对数据集上进行训练,能够学习到图像和文本之间的语义对应关系,可用于图像分类、图像检索、文本到图像生成等多种任务。
Nodejs 20 次浏览
两个BARTpho版本,是第一个为越南语预训练的公共大规模单语序列到序列模型。BARTpho使用序列到序列去噪模型BART的“大型”架构和预训练方案,因此特别适用于生成式NLP任务。越南语文本摘要下游任务的实验表明,在自动和人工评估中,BARTpho的性能优于强大的基线mBART,并提高了最先进的水
Python 20 次浏览
多模态中英双语对话语言模型挺厉害的,结合了文本和图像信息,让中英文对话更加智能,反应也快。你可以想象一下,机器不仅能理解你说的话,还能根据图像内容做出更精准的回应,提升互动体验。这个模型的关键点就是预训练模型、多模态融合、双语,还有一些像注意力机制、微调这样的技术支持。比如,如果你做一个跨语言的聊天
Python 0 次浏览