meta 宣布推出其 llama 2 预训练,该模型在 2 万亿个代币上进行训练,上下文长度是 llama 1 的两倍。其模型已经过超过1万个人工注释的训练。如果您有兴趣学习如何微调 meta 的 llama 2 开源大型语言模型以在单个 gpu 上运行。你会很高兴地知道,深度学习ai youtube频道创建了一个60分钟的教程,提供了如何实现这一目标的更多见解,并由piero molino和travis addair介绍。
微调像 meta 的 llama 2 这样的大型语言模型 (llm) 以在单个 gpu 上运行可能是一项艰巨的任务。然而,由piero molino和travis addair提供的深度学习ai youtube频道最近的教程为这一过程提供了宝贵的见解。这个 60 分钟的教程对于希望利用 llm 的强大功能进行项目的机器学习工程师来说是一个信息宝库。
如何微调llama 2
工程师在微调llm时经常面临的第一个障碍是“主机内存不足”错误。在处理需要更高内存容量的 7b 参数 llama-2 模型时,这个问题变得更具挑战性。然而,来自开源路德维希项目的molino和addair为这个问题提供了实用的凯发k8一触即发的解决方案。
在上面的视频中,演示者解释说,优化的llm培训框架(例如 ludwig.ai)可以显着降低主机内存开销。即使在多个 gpu 上训练时,也可以实现这种减少,从而使该过程更加高效和易于管理。
深入研究微调llm的独特挑战。它演示了如何使用开源工具应对这些挑战。研讨会涵盖的主题包括:
- 在单个gpu上微调llm,如llama-2-7b
- 使用参数高效调优和量化等技术
- 在单个 t7 gpu (qlora) 上训练 4b 参数模型
- 将经过调整的模型(如 llama-2)部署到生产环境中
- 在rlhf继续培训
- 使用rag与训练有素的llm进行问答
教程的演示者piero molino和travis addair带来了丰富的经验。predibase的联合创始人兼首席执行官莫利诺是uber ai labs的创始成员。他曾参与多个已部署的 ml 系统,包括用于客户支持的 nlp 模型和 uber eats 优食推荐系统。后来,他在斯坦福大学担任研究科学家,专注于机器学习系统。molino还是 ludwig.ai 的作者,这是一个开源的声明式深度学习框架,在github上有8900颗星。
predibase的联合创始人兼首席技术官travis addair在ai领域做出了重大贡献。他是linux基金会内horovod分布式深度学习框架的首席维护者,也是ludwig声明式深度学习框架的共同维护者。此前,他领导uber的深度学习培训团队,作为米开朗基罗机器学习平台的一部分。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/yun256674.html