专为波斯语优化的语言模型ParsBERT,挺适合做波斯语 NLP 项目的。它是基于 Google 的BERT 架构,但训练数据全是波斯语,还覆盖了小说、新闻、科研等多种写作风格,语料够丰富,语感也比较自然。 像文本分类、问答系统、情感这些任务,用ParsBERT都还挺顺手的。你只需要在任务数据上微调
C 0 次浏览
AliceMind是业界领先的预训练语言模型体系。该存储库提供由阿里巴巴MinD(达摩机器智能)实验室开发的预训练编码器-解码器模型及其相关优化技术。
Python 17 次浏览
提供以下预训练模型供选择: SCRFD_10G (shape640×640, shape1280×1280) SCRFD_10G_KPS (shape640×640, shape1280×1280)
PHP 27 次浏览
CLIP ViT-32 是一种基于 Vision Transformer (ViT) 架构的预训练模型,图像编码器部分采用了 ViT-32 结构。该模型在大量的图像-文本对数据集上进行训练,能够学习到图像和文本之间的语义对应关系,可用于图像分类、图像检索、文本到图像生成等多种任务。
Nodejs 20 次浏览
两个BARTpho版本,是第一个为越南语预训练的公共大规模单语序列到序列模型。BARTpho使用序列到序列去噪模型BART的“大型”架构和预训练方案,因此特别适用于生成式NLP任务。越南语文本摘要下游任务的实验表明,在自动和人工评估中,BARTpho的性能优于强大的基线mBART,并提高了最先进的水
Python 20 次浏览