Inicio topics Machine Learning ¿Qué es machine learning (ML)?
Explore la solución de amachine learning de IBM Suscríbase para recibir actualizaciones de IA
Ilustración que muestra los recursos que se introducen en la máquina
¿Qué es machine learning (ML)?

El machine learning (ML) es una rama de la inteligencia artificial (IA) y la informática que se centra en el uso de datos y algoritmos para permitir que la IA imite la forma en que los humanos aprenden, mejorando gradualmente su precisión.

 

¿Cómo funciona machine learning?
 

UC Berkeley (el enlace se encuentra fuera de ibm.com) desglosa el sistema de aprendizaje de un algoritmo de machine learning en tres partes principales.

  1. Un proceso de decisión: en general, los algoritmos de machine learning se utilizan para hacer una predicción o clasificación. Con base en algunos datos de entrada, que pueden estar etiquetados o no etiquetados, su algoritmo producirá una estimación sobre un patrón en los datos.
  2. Una función de error: una función de error evalúa la predicción del modelo. Si hay ejemplos conocidos, una función de error puede hacer una comparación para evaluar la precisión.
  3. Un proceso de optimización del modelo: si el modelo puede ajustarse mejor a los puntos de datos en el conjunto de entrenamiento, entonces los pesos se ajustan para reducir la discrepancia entre el ejemplo conocido y la estimación del modelo. El algoritmo repetirá este proceso iterativo de ''evaluar y optimizar", actualizando pesos de forma autónoma hasta que se haya cumplido un umbral de precisión. 
Machine learning versus aprendizaje profundo versus Neural Networks

Dado que el aprendizaje profundo y machine learning tienden a utilizarse indistintamente, vale la pena notar las diferencias entre los dos. Machine learning, el aprendizaje profundo y las neural networks son subcampos de la inteligencia artificial. Sin embargo, las neural networks son en realidad un subcampo de machine learning y el aprendizaje profundo es un subcampo de las neural networks.

La forma en que difieren el aprendizaje profundo y machine learning es en la forma en que aprende cada algoritmo. Machine learning "profundo" puede usar conjuntos de datos etiquetados, también conocidos como aprendizaje supervisado, para informar su algoritmo, pero no necesariamente requiere un conjunto de datos etiquetado. El proceso de aprendizaje profundo puede ingerir datos no estructurados en su forma sin procesar (por ejemplo, texto o imágenes), y puede determinar automáticamente el conjunto de características que distinguen diferentes categorías entre sí. Esto elimina parte de la intervención humana requerida y permite el uso de grandes cantidades de datos. Puede pensar en el aprendizaje profundo como "machine learning escalable" como notas de Lex Fridman en esta conferencia MIT (el enlace se encuentra fuera de ibm.com).

El machine learning clásico, o "no profundo", depende más de la intervención humana para aprender. Los expertos humanos determinan la jerarquía de características para comprender las diferencias entre las entradas de datos, que generalmente requieren datos más estructurados para aprender.

Las neural networks, o neural networks artificiales (ANN), se componen de capas de nodos, que contienen una capa de entrada, una o más capas ocultas y una capa de salida. Cada nodo, o neurona artificial, se conecta a otro y tiene un peso y un umbral asociados. Si la salida de cualquier nodo individual está por encima del valor del umbral especificado, ese nodo se activa y envía datos a la siguiente capa de la red. De lo contrario, ese nodo no transmitirá datos a la siguiente capa de la red. Lo "profundo" en el aprendizaje profundo se refiere simplemente a la cantidad de capas de las neural networks. Una neural network que consta de más de tres capas (que incluirían la entrada y la salida) puede considerarse un algoritmo de aprendizaje profundo o una neural network profunda. Una neural network que solo tiene tres capas es solo una neural network básica.

Se atribuye al aprendizaje profundo y a las neural networks la aceleración del progreso en áreas como la visión artificial, el procesamiento del lenguaje natural y el reconocimiento de voz.

Consulte la entrada en el blog "IA vs. aprendizaje automático vs. aprendizaje profundo vs. neural networks: ¿cuál es la diferencia?" para ver más de cerca cómo se relacionan los diferentes conceptos.

Contenido relacionado

Explore la demostración interactiva watsonx.ai

Descargar "Aprendizaje automático para Dummies"

Explore Gen AI para desarrolladores

Métodos de machine learning

Los modelos de machine learning se dividen en tres categorías principales.

Machine learning supervisado  
          

El aprendizaje supervisado, también conocido como machine learning supervisado, se define por el uso de conjuntos de datos etiquetados para entrenar algoritmos para clasificar datos o predecir resultados con precisión. A medida que los datos de entrada se introducen en el modelo, éste ajusta sus pesos hasta que se ajustan adecuadamente. Esto ocurre como parte del proceso de validación cruzada para garantizar que el modelo evite el ajuste excedido o el desajuste. El aprendizaje supervisado ayuda a las organizaciones a resolver una variedad de problemas del mundo real a escala, como clasificar el spam en una carpeta separada de la bandeja de entrada. Algunos métodos utilizados en el aprendizaje supervisado incluyen neural networks, bayes ingenuos, regresión lineal, regresión logística, bosque aleatorio y máquina de vectores de soporte (SVM).

Machine learning no supervisado
 

El aprendizaje no supervisado, también conocido como machine learning no supervisado, utiliza algoritmos de machine learning para analizar y agrupar conjuntos de datos sin etiquetar (subconjuntos denominados clústeres). Estos algoritmos descubren patrones ocultos o agrupaciones de datos sin necesidad de intervención humana. La capacidad de este método para descubrir similitudes y diferencias en la información lo hace ideal para el análisis exploratorio de datos, las estrategias de venta cruzada, la segmentación de clientes y el reconocimiento de imágenes y patrones. También se utiliza para reducir el número de características de un modelo a través del proceso de reducción de la dimensionalidad. El análisis de componentes principales (PCA) y la descomposición de valores singulares (SVD) son dos enfoques comunes para esto. Otros algoritmos utilizados en el aprendizaje no supervisado son las neural networks, la agrupación de medios k y los métodos de agrupación probabilística.

Aprendizaje semisupervisado 
 

El aprendizaje semisupervisado ofrece un punto medio entre el aprendizaje supervisado y el no supervisado. Durante el entrenamiento, utiliza un conjunto de datos etiquetados más pequeño para guiar la clasificación y la extracción de características de un conjunto de datos más grande sin etiquetar. El aprendizaje semisupervisado puede resolver el problema de no tener suficientes datos etiquetados para un algoritmo de aprendizaje supervisado. También ayuda si resulta demasiado costoso etiquetar suficientes datos. 

Para profundizar en las diferencias entre estos enfoques, consulte "Aprendizaje supervisado vs. no supervisado: ¿cuál es la diferencia?"

Machine learning por refuerzo

El machine learning por refuerzo es un modelo de aprendizaje automático similar al aprendizaje supervisado, pero el algoritmo no se entrena con datos de muestra. Este modelo aprende sobre la marcha mediante prueba y error. Se reforzará una secuencia de resultados exitosos para desarrollar la mejor recomendación o política para un problema determinado.

El sistema IBM Watson que ganó el desafío de Jeopardy! en 2011 es un buen ejemplo. El sistema utilizaba el aprendizaje por refuerzo para saber cuándo intentar una respuesta (o una pregunta, por así decirlo), qué casilla seleccionar en el tablero y cuánto apostar, especialmente en los dobles diarios.

Más información sobre el aprendizaje por refuerzo      

Algoritmos comunes de machine learning

Se utilizan habitualmente varios algoritmos de machine learning. Estos incluyen:

  • Neural Networks: Las neural networks  simulan la forma en que funciona el cerebro humano, con una enorme cantidad de nodos de procesamiento vinculados. Las neural networks son buenas para reconocer patrones y juegan un papel importante en aplicaciones que incluyen traducción de lenguaje natural, reconocimiento de imágenes, reconocimiento de voz y creación de imágenes.
  • Regresión lineal: este algoritmo se utiliza para predecir valores numéricos, basados en una relación lineal entre diferentes valores. Por ejemplo, la técnica podría utilizarse para predecir los precios de las viviendas en función de los datos históricos de la zona.
  • Regresión logística: Este algoritmo de aprendizaje supervisado hace predicciones para variables de respuesta categórica, como respuestas “sí/no”. Se puede utilizar para aplicaciones como clasificación de spam y control de calidad en una línea de producción.
  • Agrupación: mediante el aprendizaje no supervisado, los algoritmos de agrupación en clústeres pueden identificar patrones en los datos para que puedan agruparse. Los algoritmos pueden ayudar a los científicos de datos a identificar diferencias entre los elementos de datos que los humanos han pasado por alto.
  • Decision Trees: los decision trees se pueden utilizar tanto para predecir valores numéricos (regresión) como para clasificar datos en categorías. Los decision trees utilizan una secuencia ramificada de decisiones vinculadas que se pueden representar con un diagrama de árbol. Una de las ventajas de los decision trees es que son fáciles de validar y auditar, a diferencia de la caja negra de la neural network.
  • Bosques aleatorios: en un bosque aleatorio, el algoritmo de machine learning predice un valor o categoría mediante la combinación de los resultados de varios decision trees.
Ventajas y desventajas de los algoritmos de machine learning

Dependiendo de su presupuesto, necesidad de velocidad y precisión requerida, cada tipo de algoritmo (supervisado), no supervisado, semisupervisado o de refuerzo) tiene sus propias ventajas e inconvenientes. Por ejemplo, los decision trees se utilizan tanto para predecir valores numéricos (problemas de regresión) como para clasificar datos en categorías. Los decision trees utilizan una secuencia ramificada de decisiones vinculadas que pueden representarse con un diagrama de árbol. Una ventaja primordial de los decision trees es que son más fáciles de validar y auditar que una neural network. La mala noticia es que pueden ser más inestables que otros predictores de decisiones. 

En general, machine learning tiene muchas ventajas que las empresas pueden aprovechar para conseguir nuevas eficiencias. Entre ellas se incluye machine learning para identificar patrones y tendencias en volúmenes masivos de datos que los humanos podrían no detectar en absoluto. Y este análisis requiere poca intervención humana: basta con introducir el conjunto de datos de interés y dejar que el sistema de machine learning elabore y perfeccione sus propios algoritmos, que mejorarán continuamente con la introducción de más datos a lo largo del tiempo. Los clientes y usuarios pueden disfrutar de una experiencia más personalizada, ya que el modelo aprende más con cada experiencia con esa persona.

En el lado negativo, machine learning requiere grandes conjuntos de datos de entrenamiento que sean precisos e imparciales. GIGO es el factor operativo: basura dentro / basura fuera. Recopilar datos suficientes y disponer de un sistema lo bastante fuerte para ejecutarlos también puede suponer una merma de recursos. machine learning también puede ser propenso a errores, dependiendo de los datos de entrada. Con una muestra demasiado pequeña, el sistema podría producir un algoritmo perfectamente lógico pero completamente erróneo o engañoso. Para evitar malgastar el presupuesto o disgustar a los clientes, las organizaciones deben actuar en función de las respuestas sólo cuando exista una gran confianza en el resultado.

Casos de uso de machine learning en el mundo real

A continuación, presentamos algunos ejemplos de machine learning que puede encontrar a diario:

Reconocimiento de voz: se conoce como reconocimiento de voz automático (ASR), reconocimiento de voz computarizado o voz a texto, y es una capacidad que utiliza el procesamiento de lenguaje natural (NLP) para traducir el habla humana en un formato escrito. Muchos dispositivos móviles incorporan el reconocimiento de voz en sus sistemas para realizar búsquedas por voz (por ejemplo, Siri) o mejorar la accesibilidad para enviar mensajes de texto.

Atención al cliente: los  chatbots en línea están reemplazando a los agentes humanos a lo largo del proceso del cliente, cambiando la forma en que pensamos sobre la interacción del cliente en todos los sitios web y plataformas de redes sociales. Los chatbots responden preguntas frecuentes (FAQ) sobre temas como el envío, o brindan asesoramiento personalizado, venta cruzada de productos o sugerencias de tallas para los usuarios. Los ejemplos incluyen agentes virtuales en sitios de comercio electrónico; bots de mensajería, utilizando Slack y Facebook Messenger; y tareas que suelen realizar los asistentes virtuales y los asistentes de voz.

Visión artificial: Esta tecnología de IA permite a las computadoras obtener información significativa de imágenes digitales, videos y otras entradas visuales, y luego tomar las medidas adecuadas. Gracias a las neural networks convolucionales, la visión artificial tiene aplicaciones en el etiquetado de fotos en las redes sociales, la obtención de imágenes radiológicas y los coches autónomos en la industria automotriz. 

Motores de recomendación: utilizando datos de comportamiento de consumo anteriores, los algoritmos de IA pueden ayudar a descubrir tendencias de datos que se pueden utilizar para desarrollar estrategias de venta cruzada más eficaces. Los motores de recomendación son utilizados por los minoristas en línea para hacer recomendaciones de productos relevantes a los clientes durante el proceso de pago.

Automatización robótica de procesos (RPA): también conocida como robótica de software, la RPA utiliza tecnologías de automatización inteligentes para realizar tareas manuales repetitivas.

Negociación de acciones automatizada: diseñadas para optimizar las carteras de acciones, las plataformas de negociación de alta frecuencia impulsadas por IA realizan miles o incluso millones de operaciones por día sin intervención humana.

Detección de fraudes: Los bancos y otras instituciones financieras pueden utilizar machine learning para detectar transacciones sospechosas. El aprendizaje supervisado puede entrenar un modelo utilizando información sobre transacciones fraudulentas conocidas. La detección de anomalías puede identificar transacciones que parecen atípicas y merecen una investigación más profunda.

Desafíos de machine learning

A medida que se ha desarrollado la tecnología de aprendizaje automático, ciertamente nos ha facilitado la vida. Sin embargo, la implementación de machine learning en las empresas también ha planteado una serie de preocupaciones éticas sobre las tecnologías de IA. Por ejemplo:

Singularidad tecnológica
 

Si bien este tema atrae mucha atención pública, a muchos investigadores no les preocupa la idea de que la IA supere a la inteligencia humana en un futuro próximo. La singularidad tecnológica también se conoce como IA fuerte o superinteligencia. El filósofo Nick Bostrum define la superinteligencia como “cualquier intelecto que supera ampliamente a los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales”. A pesar de que la superinteligencia no es inminente en la sociedad, su idea plantea algunas preguntas interesantes al considerar el uso de sistemas autónomos, como los automóviles sin conductor. No es realista pensar que un automóvil sin conductor nunca tendría un accidente, pero ¿quién es responsable en esas circunstancias? ¿Deberíamos seguir desarrollando vehículos autónomos, o limitamos esta tecnología a vehículos semiautónomos que ayudan a las personas a conducir de manera segura? Aún está por decidirse, pero estos son los tipos de debates éticos que se están produciendo a medida que se desarrolla una nueva e innovadora tecnología de IA.

Impacto de la IA en los empleos
 

Si bien gran parte de la percepción pública de la inteligencia artificial se centra en la pérdida de empleos, esta preocupación probablemente debería replantearse. Con cada nueva tecnología disruptiva, vemos que la demanda del mercado de roles laborales específicos cambia. Por ejemplo, cuando observamos la industria automotriz, muchos fabricantes, como GM, están cambiando para enfocarse en la producción de vehículos eléctricos para alinearse con iniciativas ecológicas. La industria energética no va a desaparecer, pero la fuente de energía está cambiando de una economía de combustible a una eléctrica.

De manera similar, la inteligencia artificial trasladará la demanda de empleos a otras áreas. Será necesario que haya personas que ayuden a gestionar los sistemas de IA. Todavía será necesario que haya personas para abordar problemas más complejos dentro de las industrias que tienen más probabilidades de verse afectadas por los cambios en la demanda laboral, como el servicio al cliente. El mayor desafío con la inteligencia artificial y su efecto en el mercado laboral será ayudar a las personas a hacer la transición a nuevos roles que tengan demanda.

Privacidad
 

La privacidad tiende a debatirse en el contexto de la privacidad, la protección y la seguridad de los datos. Estas preocupaciones han permitido a los responsables políticos avanzar más en los últimos años. Por ejemplo, en 2016, se creó la legislación GDPR para proteger los datos personales de las personas en la Unión Europea y el Espacio Económico Europeo, dando a los individuos más control sobre sus datos. En Estados Unidos, los estados individuales están desarrollando políticas, como la Ley de Privacidad del Consumidor de California (CCPA), que se introdujo en 2018 y exige a las empresas que informen a los consumidores sobre la recopilación de sus datos. Este tipo de legislación ha obligado a las empresas a replantearse cómo almacenan y utilizan la información personal identificable (IPI). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas, que tratan de eliminar cualquier vulnerabilidad y oportunidad de vigilancia, piratería informática y ciberataques.

Prejuicios y discriminación
 

Los casos de sesgo y discriminación en varios sistemas de machine learning han planteado muchas cuestiones éticas con respecto al uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los propios datos de entrenamiento pueden ser generados por procesos humanos sesgados? Aunque las empresas suelen tener buenas intenciones con su trabajo de automatización, Reuters (el enlace se encuentra fuera de ibm.com) destaca algunas de las consecuencias imprevistas de incorporar la IA en las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon discriminó involuntariamente a los candidatos por género para puestos técnicos y, finalmente, la empresa tuvo que desechar el proyecto. Harvard Business Review (el enlace se encuentra fuera de ibm.com) ha planteado otras preguntas puntuales sobre el uso de la IA en las prácticas de contratación, como qué datos debería poder utilizar al evaluar a un candidato para un puesto.

El sesgo y la discriminación tampoco se limitan a la función de recursos humanos; se pueden encontrar en una serie de aplicaciones, desde software de reconocimiento facial hasta algoritmos de redes sociales.

A medida que las empresas se vuelven más conscientes de los riesgos de la IA, también se vuelven más activas en esta discusión sobre la ética y los valores de la IA. Por ejemplo, IBM ha puesto fin a sus productos de análisis y reconocimiento facial de uso general. El director ejecutivo de IBM, Arvind Krishna, escribió: “IBM se opone firmemente y no tolerará el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para vigilancia masiva, elaboración de perfiles raciales, violaciones de derechos y libertades humanos básicos o cualquier propósito que no sea coherente con nuestros valores y Principios de Confianza y Transparencia”.

Responsabilidad
 

Dado que no existe una legislación significativa para regular las prácticas de IA, no existe un mecanismo real de aplicación para garantizar que se practique una IA ética. Los incentivos actuales para que las empresas sean éticas son las repercusiones negativas de un sistema de IA poco ético en los resultados finales. Para llenar el vacío, han surgido marcos éticos como parte de una colaboración entre especialistas en ética e investigadores para regir la creación y distribución de modelos de IA dentro de la sociedad. Sin embargo, por el momento, estos solo sirven como guía. Algunas investigaciones (el enlace se encuentra fuera de ibm.com) muestran que la combinación de responsabilidad distribuida y la falta de previsión de las posibles consecuencias no conducen a prevenir daños a la sociedad.

Más información sobre la posición de IBM sobre la ética de la IA

Cómo elegir la plataforma de IA adecuada para machine learning

Seleccionar una plataforma puede ser un proceso difícil, ya que un sistema equivocado puede disparar los costos o limitar el uso de otras herramientas o tecnologías valiosas. Al revisar múltiples proveedores para seleccionar una plataforma de IA, a menudo hay una tendencia a pensar que más características equivalen a un mejor sistema. Puede que sí, pero los revisores deberían empezar por pensar qué hará la plataforma de IA por su organización. ¿Qué capacidades de machine learning hay que ofrecer y qué características son importantes de conseguir? Una característica que falte puede condenar la utilidad de todo un sistema. A continuación se mencionan algunas características para tener en cuenta.

  • Capacidades de MLOps El sistema tiene:
    • una interfaz unificada para facilitar la gestión?
    • ¿Herramientas automatizadas de machine learning para una creación de modelos más rápida con funciones de código bajo y sin código?
    • ¿Optimización de decisiones para agilizar la selección y el despliegue de modelos de optimización?
    • ¿Modelado visual para combinar la ciencia visual de datos con bibliotecas de código abierto e interfaces basadas en portátiles en un estudio unificado de datos e IA?
    • ¿Desarrollo automatizado para que los principiantes comiencen rápidamente y los científicos de datos más avanzados experimenten?
    • ¿Generador de datos sintéticos como alternativa o complemento a los datos del mundo real cuando los datos del mundo real no están fácilmente disponibles?
       
  • Capacidades de IA generativa. El sistema tiene:
    • ¿un generador de contenido que pueda generar texto, imágenes y otro contenido basado en los datos con los que fue entrenado?
    • ¿clasificación automatizada para leer y clasificar entradas escritas, como evaluar y clasificar las quejas de los clientes o revisar la retroalimentación de los clientes?
    • ¿un generador de resúmenes que puede transformar texto denso en un resumen de alta calidad, capturar puntos clave de informes financieros y generar transcripciones de reuniones?
    • ¿una capacidad de extracción de datos para clasificar detalles complejos y extraer rápidamente la información necesaria de documentos grandes?
Recursos Aprendizaje práctico y gratuito para tecnologías generativas de IA

Aprenda los conceptos fundamentales de la IA y la IA generativa, incluida la ingeniería rápida, los modelos de lenguaje de gran tamaño y los mejores proyectos de código abierto.

IA en la empresa, 2021: Liberar la oportunidad a través de datos

La tecnología de IA ha evolucionado rápidamente en las últimas dos décadas. Descubra cómo las empresas están implementando la IA en la actualidad.

Cuadrante Mágico de Gartner para plataformas de ciencia de datos y aprendizaje automático

Conozca las herramientas que utilizan las empresas para ejecutar y gestionar de forma eficiente los modelos de IA y capacitar a sus científicos de datos con tecnología que puede ayudar a optimizar la toma de decisiones basada en datos.

Libro electrónico de machine learning para simuladores

Explore cómo machine learning lo ayuda a aprender continuamente de los datos y predecir el futuro.

Cuadrante Mágico para plataformas de IA conversacional empresarial, 2023

IBM fue nombrado líder en Gartner Magic Quadrant™ 2023 en plataformas de IA conversacional empresariales.

Modelos para el aprendizaje automático

Explore las ideas detrás de los modelos de ML y algunos algoritmos clave utilizados para cada uno.

Dé el siguiente paso

Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de aprendizaje automático con IBM® watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.

Explore watsonx.ai Reserve una demostración en vivo