提供以下预训练模型供选择: SCRFD_10G (shape640×640, shape1280×1280) SCRFD_10G_KPS (shape640×640, shape1280×1280)
PHP 27 次浏览
CLIP ViT-32 是一种基于 Vision Transformer (ViT) 架构的预训练模型,图像编码器部分采用了 ViT-32 结构。该模型在大量的图像-文本对数据集上进行训练,能够学习到图像和文本之间的语义对应关系,可用于图像分类、图像检索、文本到图像生成等多种任务。
Nodejs 20 次浏览
两个BARTpho版本,是第一个为越南语预训练的公共大规模单语序列到序列模型。BARTpho使用序列到序列去噪模型BART的“大型”架构和预训练方案,因此特别适用于生成式NLP任务。越南语文本摘要下游任务的实验表明,在自动和人工评估中,BARTpho的性能优于强大的基线mBART,并提高了最先进的水
Python 20 次浏览
AliceMind是业界领先的预训练语言模型体系。该存储库提供由阿里巴巴MinD(达摩机器智能)实验室开发的预训练编码器-解码器模型及其相关优化技术。
Python 17 次浏览
大模型Agent的训练方法是一种通过代理模型来优化和改进大模型的技术。此方法通过在训练过程中利用代理模型进行预测和调整,逐步提高大模型的性能。具体步骤包括数据预处理、模型初始化、代理模型的训练和评估、大模型的优化迭代等。通过反复训练和优化,可以显著提升大模型的预测精度和泛化能力。
Python 17 次浏览
该指南介绍了如何使用 GitHub 项目 styled-neural-painting 训练神经绘画模型。该指南涵盖了数据准备、模型架构和训练过程等关键步骤。
Python 21 次浏览