转载请注明出处: CHATWEB
本文的链接地址: https://chatweb.com.cn/post-107.html
Nvidia 和 Mistral AI 合作发布了一款名为 Mistral-NeMo-Minitron 8B 的小型语言模型。这款模型是在 NeMo 12B 的基础上进行优化的迷你版,参数量从 120 亿减少到了 80 亿,但仍然保持了“最先进”的准确性。通过采用剪枝和蒸馏这两种 AI 优化方法,Minitron 8B 在保证高性能的同时大幅减少了计算成本。
剪枝和蒸馏技术
剪枝:通过移除对模型准确性贡献最小的部分权重,来减小模型规模。
蒸馏:在较小的数据集上重新训练经过剪枝的模型,以恢复剪枝后可能损失的准确性。
这些优化技术使得开发人员能够在原始数据集的一小部分上训练优化后的语言模型,从而节省高达 40 倍的计算资源。
性能与应用
Mistral-NeMo-Minitron 8B 在九项同类规模的语言驱动 AI 基准测试中表现出色。
- 优化后的模型能够在笔记本电脑和工作站 PC 上本地运行,提供更快且更安全的服务。
Nvidia 设计了 Minitron 8B 以适应消费者级计算硬件,并通过定制微服务封装模型,以提高响应速度。
Nvidia 还通过 AI Foundry 服务将 Minitron 8B 适配到低配置设备(如智能手机),虽然性能和准确性略有下降,但仍保持较高的准确性水平。
转载请注明出处: CHATWEB
本文的链接地址: https://chatweb.com.cn/post-107.html