Inicio topics Machine Learning Pipeline ¿Qué es el pipeline de aprendizaje automático?
Explore la solución de pipeline de aprendizaje automático de IBM Suscríbase para recibir actualizaciones de IA
Ilustración con collage de pictogramas de nubes, gráfico circular, pictogramas gráficos
¿Qué es el pipeline de aprendizaje automático?

Un pipeline de aprendizaje automático es una serie de pasos interconectados de procesamiento y modelado de datos diseñados para automatizar, estandarizar y optimizar el proceso de creación, entrenamiento, evaluación y despliegue de modelos de aprendizaje automático.

Un pipeline de aprendizaje automático es un componente crucial en el desarrollo y la producción de sistemas de aprendizaje automático, ya que ayuda a los científicos e ingenieros de datos a gestionar la complejidad del proceso de aprendizaje automático de extremo a extremo, y les ayuda a desarrollar soluciones precisas y escalables para una amplia gama de aplicaciones.

IBM es nombrada líder por IDC

Lea por qué IBM fue nombrada líder en el informe IDC MarketScape: Worldwide AI Governance Platforms 2023.

Contenido relacionado

Regístrese para recibir el libro electrónico sobre IA generativa

Beneficios de los pipelines de aprendizaje automático

Los pipelines de aprendizaje automático ofrecen muchos beneficios.

  • Modularización: los pipelines le permiten dividir el proceso de aprendizaje automático en pasos modulares y bien definidos. Cada paso se puede desarrollar, probar y optimizar de forma independiente, lo que facilita la gestión y el mantenimiento del flujo de trabajo.
     

  • Reproducibilidad: los pipelines de aprendizaje automático facilitan la reproducción de experimentos. Al definir la secuencia de pasos y sus parámetros en un pipeline, puede recrear todo el proceso exactamente, asegurando resultados congruentes. Si un paso falla o el rendimiento de un modelo se deteriora, el pipeline se puede configurar para generar alertas o tomar medidas correctivas.
     

  • Eficiencia: los pipelines automatizan muchas tareas rutinarias, como el preprocesamiento de datos, la ingeniería de características y la evaluación del modelo. Esta eficiencia puede ahorrar una cantidad significativa de tiempo y reducir el riesgo de errores.
     

  • Escalabilidad: los pipelines se pueden escalar fácilmente para manejar grandes conjuntos de datos o flujos de trabajo complejos. A medida que crecen los datos y la complejidad del modelo, puede ajustar el pipeline sin tener que reconfigurar todo desde cero, lo que puede llevar mucho tiempo.
     

  • Experimentación: puede experimentar con diferentes técnicas de preprocesamiento de datos, selecciones de características y modelos modificando pasos individuales dentro del pipeline. Esta flexibilidad permite una rápida iteración y optimización.
     

  • Despliegue: los pipelines facilitan el despliegue de modelos de aprendizaje automático en la producción. Una vez que haya establecido un pipeline bien definido para el entrenamiento y evaluación de modelos, puede integrarlo fácilmente en su aplicación o sistema.
     

  • Colaboración: los pipelines facilitan la colaboración de equipos de científicos e ingenieros de datos. Dado que el flujo de trabajo está estructurado y documentado, es más fácil para los miembros del equipo entender y contribuir al proyecto.
     

  • Control de versiones y documentación: puede utilizar sistemas de control de versiones para realizar un seguimiento de los cambios en el código y la configuración de su pipeline, asegurándose de que puede revertir a versiones anteriores si es necesario. Un pipeline bien estructurado fomenta una mejor documentación de cada paso.

Las etapas de un pipeline de aprendizaje automático

La tecnología de aprendizaje automático avanza a un ritmo rápido, pero podemos identificar algunos pasos generales involucrados en el proceso de construcción y despliegue de modelos de aprendizaje automático y aprendizaje profundo. 

  1. Recolección de datos: en esta etapa inicial, se recopilan nuevos datos de diversas fuentes de datos, como bases de datos, API o archivos. Esta ingestión de datos a menudo implica datos sin procesar que pueden requerir un preprocesamiento para ser útiles.
     

  2. Preprocesamiento de datos: esta etapa implica limpiar, transformar y preparar los datos de entrada para el modelado. Los pasos comunes de preprocesamiento incluyen el manejo de valores faltantes, la codificación de variables categóricas, el escalado de características numéricas y la división de los datos en conjuntos de entrenamiento y prueba.
     

  3. Ingeniería de características: la ingeniería de características es el proceso de crear nuevas características o seleccionar características relevantes de los datos que pueden mejorar el poder predictivo del modelo. Este paso a menudo requiere conocimiento del dominio y creatividad.
     

  4. Selección del modelo: en esta etapa, se eligen los algoritmos de aprendizaje automático adecuados en función del tipo de problema (por ejemplo, clasificación, regresión), las características de los datos y los requisitos de rendimiento. También puede considerar el ajuste de hiperparámetros.
     

  5. Entrenamiento del modelo: los modelos seleccionados se entrenan en el conjunto de datos de entrenamiento mediante los algoritmos elegidos. Esto implica aprender los patrones y relaciones subyacentes dentro de los datos de entrenamiento. También se pueden utilizar modelos previamente entrenados, en lugar de entrenar un nuevo modelo.
     

  6. Evaluación del modelo: tras el entrenamiento, el rendimiento del modelo se evalúa con un conjunto de datos de prueba independiente o mediante validación cruzada. Las métricas de evaluación habituales dependen del problema específico, pero pueden incluir la exactitud, la precisión, la recuperación, la puntuación F1, el error cuadrático medio u otras.
     

  7. Despliegue del modelo: una vez que se desarrolla y evalúa un modelo satisfactorio, se puede desplegar en un entorno de producción donde puede hacer predicciones sobre datos nuevos e invisibles. El despliegue puede implicar la creación de API y la integración con otros sistemas.
     

  8. Monitoreo y mantenimiento: después del despliegue, es importante monitorear continuamente el rendimiento del modelo y volver a entrenarlo según sea necesario para adaptarse a los patrones de datos cambiantes. Este paso garantiza que el modelo siga siendo preciso y confiable en un entorno real.

Los ciclos de vida del aprendizaje automático pueden variar en complejidad y pueden implicar pasos adicionales según el caso de uso, como la optimización de hiperparámetros, la validación cruzada y la selección de características. El objetivo de un pipeline de aprendizaje automático es automatizar y estandarizar estos procesos, lo que facilita el desarrollo y el mantenimiento de modelos ML para diversas aplicaciones.

Historia de los pipelines de aprendizaje automático

La historia de los pipelines de aprendizaje automático está estrechamente ligada a la evolución tanto del aprendizaje automático como de la ciencia de datos como campos. Si bien el concepto de flujos de trabajo de procesamiento de datos es anterior al aprendizaje automático, la formalización y el uso generalizado de los pipelines de aprendizaje automático, tal como los conocemos hoy, se han desarrollado más recientemente.

Primeros flujos de trabajo de procesamiento de datos (anteriores a la década de 2000): antes de la adopción generalizada del aprendizaje automático, los flujos de trabajo de procesamiento de datos se utilizaban para tareas, como la limpieza, la transformación y el análisis de datos. Estos flujos de trabajo solían ser manuales e implicaban secuencias de comandos o el uso de herramientas, como hojas de cálculo. Sin embargo, el aprendizaje automático no fue una parte central de estos procesos durante este periodo.

Aparición del aprendizaje automático (década de 2000): el aprendizaje automático ganó prominencia a principios de la década de 2000 con avances en algoritmos, potencia computacional y la disponibilidad de grandes conjuntos de datos. Los investigadores y científicos de datos comenzaron a aplicar el aprendizaje automático a varios dominios, lo que generó una creciente necesidad de flujos de trabajo sistemáticos y automatizados.

Auge de la ciencia de datos (de finales de la década de 2000 a principios de la década de 2010): el término "ciencia de datos" se hizo popular como un campo multidisciplinario que combinaba estadísticas, análisis de datos y aprendizaje automático. Esta era fue testigo de la formalización de los flujos de trabajo de ciencia de datos, incluido el preprocesamiento de datos, la selección y evaluación de modelos, que ahora son partes integrales de los pipelines de aprendizaje automático.

Desarrollo de bibliotecas y herramientas de aprendizaje automático (década de 2010): la década de 2010 trajo el desarrollo de bibliotecas y herramientas de aprendizaje automático que facilitaron la creación de pipelines. Bibliotecas como scikit-learn (para Python) y caret (para R) proporcionaron API estandarizadas para crear y evaluar modelos de aprendizaje automático, lo que facilitó la construcción de pipelines.

Auge de autoML (década de 2010): surgieron herramientas y plataformas de aprendizaje automático automatizado (AutoML) con el objetivo de automatizar el proceso de creación de cadenas de aprendizaje automático. Estas herramientas suelen automatizar tareas, como el ajuste de hiperparámetros, la selección de características y de modelos, y hacen el aprendizaje automático más accesible a los no expertos con visualizaciones y tutoriales. Apache Airflow es un ejemplo de plataforma de gestión de flujos de trabajo de código abierto que puede utilizarse para crear pipelines de datos.

Integración con DevOps (década de 2010): los pipelines de aprendizaje automático comenzaron a integrarse con las prácticas de DevOps para permitir la integración y el despliegue continuos (CI/CD) de los modelos de aprendizaje automático. Esta integración enfatizó la necesidad de reproducibilidad, control de versiones y monitoreo en los pipelines de ML. Esta integración se conoce como operaciones de aprendizaje automático o MLOps, que ayuda a los equipos de ciencia de datos a gestionar eficazmente la complejidad de gestionar la orquestación de ML. En un despliegue en tiempo real, el pipeline responde a una solicitud dentro de los milisegundos posteriores a la solicitud.

Soluciones relacionadas
IBM watsonx

Multiplique el poder de la IA con nuestra plataforma de IA y datos de próxima generación. IBM watsonx es una cartera de herramientas, aplicaciones y soluciones listas para su empresa diseñadas para reducir los costos y los obstáculos de la adopción de la IA, al tiempo que optimiza los resultados y el uso responsable de la IA.

Explore watsonx

Soluciones de IA

Ponga en marcha la IA en todos los ámbitos de su empresa para obtener beneficios de forma rápida y ética  Nuestra amplia cartera de productos de IA y soluciones analíticas de nivel empresarial está diseñada para reducir los obstáculos de la adopción de la IA, establecer el cimiento de datos adecuado y, al mismo tiempo, optimizar los resultados y el uso responsable.

Explore las soluciones de IA de IBM

Servicios de consultoría de IA

Reimagine su forma de trabajar con IA: nuestro equipo global y diverso de más de 20 000 expertos puede ayudarle a diseñar y escalar la IA y la automatización en su empresa con rapidez y confianza, trabajando con nuestra propia tecnología IBM watsonx y un ecosistema abierto de socios para ofrecer cualquier modelo de IA, en cualquier nube, guiado por la ética y la confianza.

Explore nuestros servicios de consultoría sobre IA
Recursos del modelo de IA IBM Research: Inteligencia artificial

Explore nuestro centro para la investigación de IA, desde principios básicos hasta investigaciones emergentes, así como temas y avances destacados.

Diseño del kit de herramientas de pipelines de aprendizaje automático

Creamos el kit de herramientas AutoMLPipeline (AMLP), que facilita la creación y evaluación de estructuras complejas de pipelines de aprendizaje automático mediante expresiones simples.

MLOPs y la evolución de la ciencia de datos

MLOps es la próxima evolución del análisis de datos y el aprendizaje profundo. Avanza en la escalabilidad del ML en aplicaciones del mundo real mediante el uso de algoritmos para mejorar el rendimiento y la reproducibilidad del modelo.

Dé el siguiente paso

Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de aprendizaje automático con IBM® watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.

Explore watsonx.ai Reserve una demostración en vivo