Inicio Topics AutoML ¿Qué es AutoML?
Descubra cómo AutoML le ayuda a crear soluciones de IA repetibles y explicables
Suscríbase al boletín de IBM
Fondo degradado negro y azul
¿Qué es AutoML?

Machine learning automatizado (AutoML) se ha popularizado en el sector y en el ámbito de la investigación académica de inteligencia artificial (IA) en los últimos años. AutoML presenta un gran potencial para proporcionar soluciones para IA en sectores regulados por su capacidad para generar resultados explicables y reproducibles. AutoML permite un mayor acceso al desarrollo de IA para aquellos que no tienen el conocimiento teórico necesario en ciencia de datos

Cada paso del conducto actual de creación de prototipos en ciencia de datos, como el preprocesamiento de datos, la ingeniería de características y la optimización de hiperparámetros, debe ser realizado manualmente por expertos en machine learning. En comparación, la adopción de AutoML facilita un proceso de desarrollo más simple mediante el cual unas pocas líneas de código pueden generar el código necesario para empezar a desarrollar un modelo de machine learning. 

Se puede pensar en AutoML, independientemente de si se crean clasificadores o se entrenan regresiones, como un concepto de búsqueda generalizado, con algoritmos de búsqueda especializados para encontrar las soluciones óptimas para cada componente del conducto de ML. A la hora de crear un sistema que permita la automatización de solo tres piezas clave de automatización —ingeniería de características, optimización de hiperparámetros y búsqueda de arquitectura neuronal—, AutoML promete un futuro donde el machine learning democratizado es una realidad. 

Descubra watsonx.ai

Entrene, valide, ajuste y despliegue fácilmente modelos básicos y de machine learning

Tipos de AutoML

En un conducto de ciencia de datos, hay muchos pasos que debe seguir un equipo de ciencia de datos para crear un modelo predictivo. Incluso los equipos experimentados de científicos de datos e ingenieros de ML se pueden beneficiar de la mayor velocidad y transparencia que ofrece AutoML. Un científico de datos tiene que empezar con una hipótesis, recopilar el conjunto de datos correcto, probar visualización de datos, diseñar características adicionales para aprovechar toda señal disponible, entrenar un modelo con hiperparámetros (enlace externo a IBM), y para deep learning de última generación, tiene que diseñar la arquitectura óptima para una red neuronal profunda, con suerte en una GPU, si se encuentra disponible.

 

Ingeniería de características automatizada


Una característica de datos es una parte de los datos de entrada a un modelo de machine learning, y la ingeniería de características se refiere al proceso transformador donde un científico de datos extrae nueva información a partir de datos existentes. La ingeniería de características es uno de los procesos clave que agregan valor en un flujo de trabajo de ML, y las buenas características marcan la diferencia entre un modelo con un rendimiento aceptable y un modelo de brillante eficiencia. Estas transformaciones matemáticas de datos sin procesar se leen en el modelo y sirven como núcleo del proceso de machine learning. La ingeniería de características automatizada (PDF 1,7 MB) (AFE, por sus siglas en inglés) (enlace externo a IBM) es el proceso de explorar el espacio de las combinaciones viables de características de manera mecánica, en lugar de manual.

La ingeniería de características manual es una alquimia moderna que conlleva un gran coste en términos de tiempo: la creación de una sola característica a menudo puede llevar horas, y el número de características necesarias para una simple puntuación de precesión mínima, y aún más una línea base de precisión a nivel de producción, puede ascender a cientos. Al automatizar la exploración de un espacio de características, AutoML reduce de días a minutos el tiempo que un equipo de ciencia de datos dedica a esta fase.

Reducir las horas de intervención manual de un científico de datos no es la única ventaja que ofrece la ingeniería de características automatizada. Las características generadas a menudo son claramente interpretables. En sectores estrictamente regulados como el financiero o el sanitario, esta explicabilidad es importante porque reduce las barreras para adoptar la IA a través de la interpretabilidad. Además, un científico o analista de datos se beneficia de la claridad de estas características porque hacen que los modelos de alta calidad sean más convincentes y prácticos. Las características generadas automáticamente también tienen el potencial de encontrar nuevos KPI para que una organización los supervise y actúe en consecuencia. Cuando un científico de datos completa la ingeniería de características, debe optimizar sus modelos con una selección estratégica de características.

 

Optimización de hiperparámetros automatizada


Los hiperparámetros son una parte de los algoritmos de machine learning que se puede explicar con una analogía: palancas para ajustar el rendimiento de los modelos, aunque a menudo los ajustes incrementales tienen un gran impacto. En el modelado de ciencia de datos a pequeña escala, los hiperparámetros pueden definirse fácilmente a mano y optimizarse mediante prueba y error.

Para aplicaciones de deep learning, el número de hiperparámetros crece exponencialmente, lo que fuerza su optimización más allá de las capacidades de un equipo de ciencia de datos para lograr sus objetivos de manera manual y oportuna. La optimización de hiperparámetros automatizada (HPO, por sus siglas en inglés) (enlace externo a IBM) libera a los equipos de la intensa responsabilidad de explorar y optimizar todo el espacio de eventos para los hiperparámetros y, en su lugar, permite a los equipos iterar y experimentar con características y modelos.

Otro punto fuerte de la automatización del proceso de machine learning es que ahora los científicos de datos pueden centrarse en el por qué de la creación de modelos, en lugar del cómo.Teniendo en cuenta la enorme cantidad de datos disponibles para muchas empresas y el abrumador número de preguntas que se pueden responder con estos datos, un equipo de análisis puede prestar atención a qué aspectos del modelo debe optimizar, como el clásico problema de minimizar los falsos negativos en pruebas médicas.

Búsqueda de arquitectura neuronal (NAS)


El proceso más complejo y largo en deep learning es la creación de la arquitectura neuronal. Los equipos de ciencia de datos dedican largos períodos de tiempo seleccionando las capas apropiadas y las tasas de aprendizaje que, al final, a menudo son solo para las ponderaciones en el modelo, como en muchos modelos de lenguaje. La búsqueda de arquitectura neuronal (NAS, por sus siglas en inglés) (enlace externo a IBM) se ha descrito como "uso de redes neuronales para diseñar redes neuronales" y es una de las áreas de ML en las que es más obvio el beneficio de la automatización.

Las búsquedas de NAS comienzan con la elección de qué arquitecturas probar. El resultado de NAS está determinado por la métrica contra la cual se evalúa cada arquitectura. Hay varios algoritmos comunes para utilizar en una búsqueda de arquitectura neuronal. Si el número potencial de arquitecturas es pequeño, las elecciones para la prueba se pueden hacer al azar. Los enfoques basados en gradientes, en los que el espacio de búsqueda discreto se convierte en una representación continua, han demostrado ser muy efectivos. Los equipos de ciencia de datos también pueden probar algoritmos evolutivos, en los que las arquitecturas se evalúan aleatoriamente y los cambios se aplican lentamente, propagando arquitecturas secundarias que son más eficientes, mientras se eliminan aquellas que no lo son.

Las búsquedas de arquitectura neuronal son uno de los elementos clave de AutoML que prometen democratizar la IA. Estas búsquedas, sin embargo, a menudo implican una huella de carbono muy alta. Aún no se ha realizado un estudio de estas compensaciones, y la optimización del coste ecológico es un área de atención actual en los enfoques de NAS.

Enlaces relacionados

Ciencia de datos

Machine learning

AutoAI

Estrategias de uso de AutoML

El machine learning automatizado parece una panacea del solucionismo técnico que una organización puede utilizar para reemplazar a los científicos de datos y su elevado coste, pero en realidad su uso requiere estrategias inteligentes. Los científicos de datos cumplen funciones esenciales para diseñar experimentos, rentabilizar resultados y mantener el ciclo de vida completo de sus modelos de machine learning. Entonces, ¿cómo pueden los equipos multidisciplinares utilizar AutoML para optimizar su uso del tiempo y acelerar la generación de valor de sus modelos?

El flujo de trabajo óptimo para incluir las API de AutoML es aquel que lo utiliza para paralelizar cargas de trabajo y acortar el tiempo dedicado a tareas manuales intensivas. En lugar de pasar días ajustando hiperparámetros, un científico de datos podría automatizar este proceso en varios tipos de modelos al mismo tiempo, y luego probar cuál resulta más eficiente.  

Además, hay características de AutoML que permiten a los miembros del equipo con diferentes niveles de experiencia contribuir al conducto de la ciencia de datos. Un analista de datos sin experiencia en Python podría optimizar un kit de herramientas, como AutoAI en Watson Studio, para entrenar un modelo predictivo a partir de los datos que él mismo sea capaz de extraer por su cuenta a través de consultas. Mediante AutoML, un analista de datos ahora puede preprocesar datos, crear un conducto de machine learning y producir un modelo completamente entrenado que pueden utilizar para validar sus propias hipótesis sin requerir la atención completa de un equipo de ciencia de datos.

Investigación de IBM en torno a AutoML

Los investigadores y desarrolladores de IBM contribuyen al crecimiento y el desarrollo de AutoML. El desarrollo continuo de productos con AutoML en IBM Watson y el trabajo de los investigadores de IBM en Lale (enlace externo a IBM), una biblioteca de ciencia de datos automatizada de código abierto, son solo algunas de las formas en que IBM ayuda a crear la siguiente generación de enfoques de IA. Si bien Lale es un proyecto de código abierto, en realidad es el núcleo de muchas de las prestaciones de AutoAI. 

Para los equipos de ciencia de datos que trabajan con Python como núcleo de su pila de ML, Lale ofrece una biblioteca semiautomatizada que se integra fácilmente en conductos de scikit-learn (enlace externo a IBM), diferentes a auto-sklearn (enlace externo a IBM), o una biblioteca como TPOT (enlace externo a IBM). Lale va más allá de scikit-learn con la automatización, las verificaciones de corrección y la interoperatividad. Si bien se basa en el paradigma scikit-learn, tiene un número cada vez mayor de transformadores y operadores de otras bibliotecas de Python y de bibliotecas en lenguajes como Java y R. 

Soluciones relacionadas
AutoAI

Cree y entrene modelos predictivos de alta calidad con rapidez. Simplifique la gestión del ciclo de vida de la IA.

Explore AutoAI
IBM Watson Studio

Cree y escale una IA de confianza en cualquier cloud. Automatice el ciclo de vida de la IA para ModelOps.

Más información sobre IBM® Watson Studio
Dé el siguiente paso

Watson Studio y AutoAI ayudan a los equipos de ciencia de datos a acelerar la automatización en todo el ciclo de vida de IA/ML. Los equipos pueden acortar su tiempo de comercialización con sus prestaciones predictivas comenzando con un conjunto de prototipos para modelos de machine learning. AutoAI en Watson Studio simplifica la automatización del diseño de características, la optimización de hiperparámetros automatizados y la selección de modelos de machine learning. Ayude a sus equipos de análisis y ciencia de datos a valorar sus hipótesis rápidamente, y cuando hayan certificado la validez de sus modelos, ya podrán desplegarlos para su consumo en contextos de producción o control de calidad.  

Más información sobre IBM® Watson Studio