我的 IBM 登录 订阅

什么是大型语言模型运维 (LLMOps)?

2023 年 10 月 19 日

什么是 LLMOps?

LLMOps 是“大语言模型运维”(Large Language Model Operations) 的缩写,指的是在 AI 模型的整个生命周期中加快其开发、部署和运营的专门工作流程和实践。

LLMOps 平台可以提高图书馆管理效率,降低运营成本,只需更少的技术人员即可完成任务。这些运营包括数据预处理、语言模型训练、监控、微调和部署。与机器学习运维 (MLOps) 一样,LLMOps 建立在数据科学家、开发运维工程师和 IT 专业人员的合作基础上。

LLMs,例如 OpenAI 的 ChatGPT(使用 GPT-4)和 Google 的 BERT,代表了一类新的、更先进的自然语言处理 (NLP) 模型,可以快速回答自然语言问题、提供摘要并遵循复杂的指令。

LLMOps 平台将数据科学和软件工程带入协作环境,用于数据探索、实时实验跟踪、提示工程以及模型和管道管理。LLMOps 自动执行机器学习生命周期中的操作和监控任务。

小球在轨道上滚动的三维设计

最新的 AI 新闻 + 洞察分析

在每周的 Think 时事通讯中,发现专家精选的有关 AI、云等的洞察分析和新闻。 

llmOps 与 mLOps

由于 LLMOps 属于机器学习运维的范围,因此可能会被忽视,甚至被称为“用于 LLM 的 MLOps”,但 LLMOps 应单独考虑,因为它专门专注于简化 LLM 开发。以下是机器学习 (ML) 工作流程和要求随 LLM 而具体变化的两种方式。

  • 成本节省:通过超参数调整:在机器学习中,超参数调整通常侧重于提高准确性或其他指标。对于 LLM 来说,额外调整对于降低训练和推理的成本和计算能力要求非常重要。这可以通过调整批量大小来完成。由于 LLM 可以从基础模型开始,然后使用新数据进行微调以针对特定领域进行改进,因此可以花更少的钱提供更高性能。

  • 性能指标:机器学习模型通常具有定义明确且易于计算的性能指标,包括准确性、AUC 和 F1 得分。但是,在评估 LLM 时,需要一套不同的标准基准和评分,例如双语评估替补 (BLEU) 和面向召回的摘要评估替补 (ROUGE)。这些都需要在实施过程中额外考虑。

此外,LLMOps 还能提供典型的 MLOps 功能:

  • 数据管理
  • 部署流程
  • 模型测试和训练
  • 监控和可观察性
  • 安全性与合规性支持
AI 学院

为什么说基础模型是 AI 的范式转变

了解灵活、可重复使用的一类全新 AI 模型,这些模型可以带来新收入、降低成本并提高工作效率。还可以参阅我们的指南手册,深入了解这些模型。

用例

LLMOps 可为各种任务提高效率,包括:

  • 构建矢量数据库以检索上下文相关信息。

  • 持续集成和交付 (CI/CD),其中 CI/CD 管道可自动执行模型开发流程,并简化测试和部署。Jenkins GitLab CI/CD 和 GitHub Actions 等工具可帮助管理这些管道,确保工作流程顺畅高效。这实现了无缝的模型更新和回滚,最大限度地减少了对用户的干扰。对模型进行版本管理并采用全面的测试实践有助于尽早发现问题,确保只部署性能良好的模型。

  • 数据收集、准备和提示工程,来自足够多的来源、领域和语言。

  • 通过人工输入进行数据标注和注释,以提供复杂的、特定于领域的判断。

  • 数据存储、组织和版本控制 - 使用合适的数据库和存储解决方案,帮助在整个 LLM 生命周期中进行数据存储、检索和操作。

  • 创建可编辑和可共享的数据集、表格和可视化效果时,可进行探索性数据分析 (EDA) 以深入了解、准备和共享机器学习模型生命周期的特定数据。

  • 模型微调用于优化特定任务或领域的模型。

  • 模型推理和服务可以管理测试和质量保证的生产细节,例如模型更新的频率和推理请求的时间。使用 GPU 加速可启用 REST API 模型端点。

  • 模型审查与治理,用于跟踪模型和管道版本并管理其整个生命周期。这样,就可以使用开源 MLOps 平台(如 MLflow)实现跨 ML 模型协作。

  • 模型监控,包括对 LLM 应用程序的人类反馈。识别潜在的恶意攻击、模型漂移,并确定需要改进的潜在领域。

  • 提示分析、日志记录和检验。

  • 使用工具执行提示工程,以实现上下文学习,而不是使用敏感数据进行微调。
  • 提示执行用于启用模型优化。

  • 一系列功能中的文本创建输出。LLM 可以生成代码,包括用于操作基础设施的脚本和自动化。它们创建文本(例如用于记录代码或流程),并翻译语言。

优势

LLMOps 的主要优势可分为三大类:效率、降低风险和可扩展性。

高效

从团队协作开始,LLMOps 可帮助您的团队以多种方式实现事半功倍。当数据科学家、ML 工程师、DevOps 和利益相关者能在统一平台上更快地开展协作时,即可实现沟通和洞察分享以及模型开发和部署,从而加快交付。

可通过优化模型训练、选择合适的架构以及使用模型修剪和量化等技术来降低计算成本。LLMOps 可以帮助确保访问合适的硬件资源(例如 GPU),以实现高效的微调、监控和优化资源使用情况。此外,当 LLMOps 推广强大的数据管理实践时,可以简化数据管理,以帮助确保获取、清理和用于训练的高质量数据集。

可对超参数(包括学习率和批量大小)进行改进,以提供最佳性能;而与 DataOps 相集成可促进从数据摄取到模型部署的顺畅数据流,并支持数据驱动型决策。

通过自动执行重复任务和实现快速实验,可加快迭代与反馈回路。通过使用模型管理,LLMOps 可简化大型语言模型从开始到完成的各项流程,从而帮助确保以最佳方式来创建、训练、评估和部署模型。

使用高质量且与领域相关的训练数据可提高模型性能。此外,在持续监控和更新模型时,LLMOps 可确保最佳性能。可加快模型与管道开发,以交付更高质量的模型并更快将 LLM 部署到生产环境中。

减轻风险

可以使用先进的企业级 LLMOps 来优先保护敏感信息,以便帮助防止出现漏洞和未经授权的访问,从而提高安全性和隐私性。透明度以及针对监管要求的更快响应有助于确保更好地遵守组织或行业的相关政策。

可扩展性

LLMOP 可更轻松地实现数据的可扩展性和管理,而当需要监督、控制、管理和监控数千个模型以实现持续集成、持续交付和持续部署时,此特性便显得至关重要。LLMOps 可通过改善模型延迟来实现此目标;通过优化模型延迟,可提供响应度更高的用户体验。

在持续集成、交付和部署环境中,通过模型监控可以简化可扩展性。LLM 管道可以鼓励协作、减少冲突并加快发布周期。LLM 管道的可重复性可以使数据团队之间的协作更加紧密,从而减少与 DevOps 和 IT 的冲突,并加快发布速度。

即使工作负载有所波动,也能顺利管理。LLMOps 可以并发处理大量请求,这对于企业应用程序尤其重要。

最佳实践

为了让操作更加顺利,请牢记以下建议。

  • 社区参与:参与开源社区,了解最新进展和最佳实践。变化来得很快。

  • 计算资源管理:LLM 训练涉及对大型数据集的大量计算。专用 GPU 可以实现更快的操作,并加快数据并行操作速度。

  • 持续的模型监控和维护:监控工具可以检测模型性能随时间推移的漂移情况。使用模型输出的真实世界反馈,可以完善和重新训练模型。

  • 数据管理:选择合适的软件来处理大数据量,从而确保在整个 LLM 生命周期中高效进行数据恢复。通过数据版本控制来跟踪数据变更和开发情况。利用传输加密和访问控制措施来保护数据。自动执行数据收集、清理和预处理,从而提供稳定的高质量数据流。确保对数据集进行版本控制,以实现不同数据集版本之间的无缝转换。

  • 数据准备和提示工程:定期转换、汇总和删除重复数据。确保数据可见且可在数据团队之间共享。

  • 部署:为提高成本效益,可针对特定任务定制预训练模型。NVIDIA TensorRT 和 ONNX Runtime 等平台提供深度学习优化工具。

  • 灾难恢复和冗余:定期备份模型、数据和配置,以防灾难发生。借助冗余,可以处理系统故障而不影响模型可用性。

  • 合乎道德的模型开发:预测、发现并纠正训练数据和模型输出中可能会扭曲输出的偏差。

  • 人类反馈:基于人类反馈的强化学习 (RLHF) 可以改进 LLM 训练。由于 LLM 任务通常是开放式的,最终用户的反馈对于评估 LLM 的性能至关重要。

  • LLM 链或管道:在 LangChain 或 Llama Index 等框架的推动下,您可以链接多个 LLM 调用或外部系统交互,以实现回答用户问题等复杂任务。

  • 模型微调:使用 DeepSpeed、Hugging Face Transformers、JAX、PyTorch 和 TensorFlow 等开源库来提高模型性能。优化模型延迟对于提供响应式的用户体验至关重要。

  • 模型监控:创建模型和管道沿袭以及版本的跟踪机制,帮助确保对工件和转换进行高效的生命周期管理。

  • 模型训练:使用分布式训练来管理 LLM 中的庞大数据和参数规模。定期利用新数据对模型进行微调,使其保持最新和有效。

  • 模型安全: 经常检查模型是否存在漏洞,并定期进行安全审计和检验。

  • 隐私与合规性:通过定期合规性检查,验证操作是否遵守 GDPR 和 CCPA 等法规。随着 AI 和 LLM 成为新闻热点,它们将受到严格审查。

  • 提示工程:指令跟踪模型可以跟踪复杂的提示和指令。正确设置这些提示模板对于准确可靠的响应至关重要,并减少模型幻觉或提示黑客攻击的机会。

相关解决方案

相关解决方案

基础模型

深入了解 watsonx 组合中基础模型库,从容自信地为您的业务扩展生成式 AI。

了解 watsonx.ai
人工智能 (AI) 解决方案

借助 IBM 业界领先的人工智能专业知识和解决方案组合,让人工智能在您的业务中发挥作用。

深入了解人工智能解决方案
AI 咨询与服务

通过增加 AI 重塑关键工作流程和运营,最大限度提升体验、实时决策和商业价值。

深入了解人工智能服务
采取后续步骤

深入了解 IBM watsonx 产品组合中的 IBM 基础模型库,满怀信心地为您的业务扩展生成式 AI。

深入了解 watsonx.ai 深入了解人工智能解决方案