Inicio Topics Algoritmos de machine learning ¿Qué es un algoritmo de machine learning?
Comience su prueba sin coste de watsonx.ai
Una red neuronal

Un algoritmo de machine learning o machine learning es un conjunto de reglas o procesos utilizados por un sistema de IA para realizar tareas. Por lo general, se trata de descubrir nuevos datos y patrones, o de predecir valores de salida a partir de un conjunto determinado de variables de entrada. Gracias a los algoritmos, el machine learning (ML) puede aprender.

Los analistas del sector coinciden en la importancia del machine learning y sus algoritmos subyacentes. Según Forrester, «los avances en los algoritmos de machine learning aportan precisión y profundidad al análisis de los datos de marketing, lo que ayuda a los profesionales del marketing a comprender cómo los detalles de marketing (como la plataforma, la creatividad, la llamada a la acción o los mensajes) afectan al rendimiento del marketing.Por su parte, Gartner afirma que «el machine learning es la base de muchas aplicaciones de IA exitosas, lo que impulsa su enorme tracción en el mercado.2»

Lo más frecuente es que el entrenamiento de los algoritmos de ML (machine learning) con más datos proporcione respuestas más precisas que el entrenamiento con menos datos.Utilizando métodos estadísticos, los algoritmos están capacitados para determinar clasificaciones o hacer predicciones, y para descubrir ideas clave en proyectos de minería de datos. Posteriormente, estos conocimientos pueden mejorar su toma de decisiones para impulsar métricas clave de crecimiento.

Los casos prácticos de los algoritmos de machine learning incluyen la capacidad de analizar datos para identificar tendencias y predecir problemas antes de que se produzcan.3 Una IA más avanzada posibilitará una asistencia más personalizada, reducirá los tiempos de respuesta, proporcionará reconocimiento de voz y mejorará la satisfacción del cliente. Los sectores que se benefician especialmente de los algoritmos de machine learning para crear nuevos contenidos a partir de grandes cantidades de datos son la gestión de la cadena de suministro, el transporte y la logística, el comercio minorista y la fabricación4, todos ellos adoptando la IA generativa, con su capacidad para automatizar tareas, mejorar la eficiencia y proporcionar valiosos conocimientos, incluso a los principiantes.

Ya disponible: watsonx

Multiplique el poder de la IA para su empresa con la plataforma de datos e IA de próxima generación de IBM.

Contenido relacionado

Suscríbase al boletín de IBM

Deep learning

El deep learning o aprendizaje profundo es una aplicación específica de las funciones avanzadas proporcionadas por los algoritmos de machine learning. La distinción está en cómo aprende cada algoritmo. Los modelos de machine learning «profundo» pueden utilizar conjuntos de datos etiquetados, también conocidos como aprendizaje supervisado, para informar su algoritmo, pero no necesariamente requieren datos etiquetados. El deep learning puede consumir datos no estructurados en su formato bruto (como texto o imágenes) y determinar automáticamente el conjunto de características que distinguen unas categorías de datos de otras. Esto elimina parte de la intervención humana requerida y permite el uso de conjuntos de datos más grandes.

La forma más fácil de pensar en la inteligencia artificial, el machine learning, el deep learning y las redes neuronales es considerarlos como una serie de sistemas de IA de mayor a menor, donde cada uno engloba al siguiente. La inteligencia artificial (IA) es el sistema global. El machine learning es un subconjunto de la IA. El deep learning es un subconjunto del machine learning, y las redes neuronales constituyen la columna vertebral de los algoritmos de deep learning. El número de capas de nodos, o profundidad, de las redes neuronales es lo que distingue una red neuronal simple de un algoritmo de deep learning, que debe tener más de tres.

Cómo funcionan los algoritmos de machine learning

Un documento de UC Berkeley divide el sistema de aprendizaje de un algoritmo de machine learning en tres partes principales.5

  1. Un proceso de decisión: en general, los algoritmos de machine learning se utilizan para realizar una predicción o clasificación. Basándose en algunos datos de entrada, que se pueden etiquetar o no, el algoritmo producirá una estimación sobre un patrón en los datos.

  2. Una función de error: una función de error que evalúa la predicción del modelo. Si hay ejemplos conocidos, una función de error puede hacer una comparación para evaluar la precisión del modelo.

3.    Un proceso de optimización del modelo: si el modelo puede ajustarse mejor a los puntos de datos del conjunto de entrenamiento, entonces se ajustan las ponderaciones para reducir la discrepancia entre el ejemplo conocido y la estimación del modelo. El algoritmo repetirá este proceso de «evaluación y optimización», actualizando las ponderaciones de forma autónoma hasta alcanzar un umbral de precisión.  

El aprendizaje supervisado, en particular, utiliza un conjunto de entrenamiento para enseñar a los modelos   a generar el resultado deseado. Este conjunto de datos de entrenamiento incluye entradas y salidas correctas, lo que permite que el modelo aprenda con el tiempo. El algoritmo mide su precisión a través de la función de pérdida, ajustando hasta que el error se haya minimizado lo suficiente.

Tipos de algoritmos de machine learning

Existen cuatro tipos de algoritmos de machine learning: supervisados, no supervisados, semisupervisados y reforzados.  Dependiendo de su presupuesto, la necesidad de velocidad y la precisión requerida, cada tipo y variante tiene sus propias ventajas. Los algoritmos avanzados de machine learning requieren múltiples tecnologías, incluido el deep learning, las redes neuronales y el procesamiento del lenguaje natural, y son capaces de utilizar tanto el aprendizaje no supervisado como el supervisado.6 A continuación se enumeran los algoritmos más populares y utilizados.

Algoritmos de aprendizaje supervisado

El aprendizaje supervisado, o supervised learning, se puede dividir en dos tipos de problemas en la minería de datos: clasificación y regresión.

  • La clasificación utiliza un algoritmo para asignar con precisión los datos de prueba en categorías específicas. Reconoce entidades específicas dentro del conjunto de datos e intenta sacar algunas conclusiones sobre cómo deben etiquetarse o definirse esas entidades. Los algoritmos de clasificación habituales son los clasificadores lineales, las máquinas de vectores de apoyo (SVM), los árboles de decisión, el «k-vecinos más cercanos» y el bosque aleatorio, que se describen con más detalle a continuación.
  • La regresión se usa para entender la relación entre variables dependientes e independientes. Se utiliza habitualmente para hacer proyecciones, como los ingresos por ventas de una empresa determinada. La regresión lineal, la regresión logística y la regresión polinómica son algoritmos de regresión populares.

En los procesos de machine learning supervisado se utilizan diversos algoritmos y técnicas de cálculo, a menudo calculados mediante el uso de programas como Python. Los algoritmos de aprendizaje supervisado incluyen:

  • AdaBoost o refuerzo de gradiente: también llamado refuerzo adaptativo7, esta técnica refuerza un algoritmo de regresión de bajo rendimiento combinándolo con otros más débiles para crear un algoritmo más fuerte que produzca menos errores. El refuerzo combina el poder de previsión de varios estimadores de base.
  • Redes neuronales artificiales: también conocidas como RNA, redes neuronales o redes neuronales simuladas (SNN), son un subconjunto de técnicas de machine learning y están en el corazón de los algoritmos de deep learning. El algoritmo de aprendizaje reconoce patrones en los datos de entrada utilizando bloques de construcción llamados neuronas, que se aproximan a las neuronas del cerebro humano, que se entrenan y modifican con el tiempo. (Más información en «redes neuronales»).
  • Algoritmos de árboles de decisión: Utilizados tanto para predecir valores numéricos (problemas de regresión) como para clasificar datos en categorías, los árboles de decisión utilizan una secuencia ramificada de decisiones enlazadas que pueden representarse con un diagrama de árbol. Una de las ventajas de los árboles de decisión es que son fáciles de validar y auditar, a diferencia de la caja negra de una red neuronal.
  • Reducción de dimensionalidad: cuando un conjunto de datos seleccionado tiene un alto número de entidades7 , tiene una alta dimensionalidad. A continuación, la reducción de la dimensionalidad recorta el número de características, dejando sólo las percepciones o la información más significativas. Un ejemplo es el análisis de componente principal.
  • K-vecinos más cercanos: también conocido como KNN, este algoritmo no paramétrico clasifica los puntos de datos según su proximidad y asociación a otros datos disponibles. Se supone que se pueden encontrar puntos de datos similares entre sí. Como resultado, busca calcular la distancia entre puntos de datos, generalmente a través de la distancia euclidiana, y luego asigna una categoría basada en la categoría o promedio más frecuente. 
  • Regresión lineal: la regresión lineal se utiliza para identificar la relación entre una variable dependiente y una o más variables independientes y, por lo general, se aprovecha para hacer predicciones sobre resultados futuros. Cuando solo hay una variable independiente y una variable dependiente, se conoce como regresión lineal simple.
  • Regresión logística: mientras que la regresión lineal se aprovecha cuando las variables dependientes son continuas, la regresión logística se selecciona cuando la variable dependiente es categórica, lo que significa que hay salidas binarias, como "verdadero" y "falso" o "sí" y "no". Aunque ambos modelos de regresión buscan comprender las relaciones entre las entradas de datos, la regresión logística se utiliza principalmente para resolver problemas de clasificación binaria, como la identificación de spam.
  • Redes neuronales: principalmente aprovechadas para algoritmos de deep learning, las redes neuronales procesan los datos de entrenamiento de entrada al imitar la interconectividad del cerebro humano a través de capas de nodos. Cada nodo se compone de entradas, ponderaciones, un sesgo (umbral) y una salida. Si ese valor de salida supera un umbral determinado, se «dispara» o activa el nodo, pasando los datos a la siguiente capa de la red. Las redes neuronales aprenden a partir de ajustes basados en la función de pérdida mediante el proceso de descenso gradiente. Cuando la función de costes es igual o cercana a cero, puede confiar en la precisión del modelo.
  • Naive Bayes o bayesiano ingenuo: este enfoque adopta el principio de independencia condicional de clase del Teorema de Bayes. Esto significa que la presencia de una característica no influye en la presencia de otra en la probabilidad de un resultado dado, y que cada predictor tiene un efecto igual en ese resultado. Existen tres tipos de clasificadores Naive Bayes: Naive Bayes multinomial, Naive Bayes Bernoulli y Naive Bayes gaussiano. Esta técnica se utiliza principalmente en sistemas de clasificación de textos, identificación de spam y recomendación.
  • Bosques aleatorios: en un bosque aleatorio, el algoritmo de machine learning predice un valor o categoría combinando los resultados de una serie de árboles de decisión. El «bosque» se refiere a árboles de decisión no correlacionados, que se montan para reducir la varianza y permitir predicciones más precisas.
  • Máquinas vectoriales de soporte (SVM): este algoritmo se puede utilizar tanto para la clasificación de datos como para la regresión, pero normalmente se usa para problemas de clasificación, construir un hiperplano donde la distancia entre dos clases de puntos de datos esté en su máximo. Este hiperplano se conoce como la frontera de decisión, que separa las clases de puntos de datos (como naranjas frente a manzanas) a ambos lados del plano.
Algoritmos de aprendizaje no supervisados

A diferencia del aprendizaje supervisado, el aprendizaje no supervisado utiliza datos no etiquetados. A partir de esos datos, el algoritmo descubre patrones que ayudan a resolver problemas de agrupación o asociación. Esto es particularmente útil cuando los expertos en la materia no están seguros de las propiedades comunes dentro de un conjunto de datos. Los algoritmos de agrupación más comunes son los jerárquicos, K-means, los modelos de mezcla gaussiana y los métodos de reducción de la dimensionalidad como PCA y t-SNE.

  • Clustering: estos algoritmos pueden identificar patrones en datos para poder agruparlos. Los algoritmos pueden ayudar a los científicos de datos identificando diferencias entre los datos que los humanos han pasado por alto.
  • Clustering jerárquico: agrupa los datos en un árbol de clústeres8. La agrupación jerárquica comienza tratando cada punto de datos como un clúster independiente. A continuación, ejecuta repetidamente estos pasos: 1) identificar los dos conglomerados que pueden estar más próximos entre sí, y 2) fusionar los dos conglomerados máximamente comparables. Estos pasos continúan hasta que se fusionan todos los clusters.
  • Clustering de K-Means: identifica grupos dentro de datos sin etiquetas9  en clústeres diferentes mediante la búsqueda de grupos de datos similares entre sí. El nombre «K-means» proviene de los $k$ centroides que utiliza para definir los conglomerados. Un punto se asigna a un clúster en particular si está más cerca del centroide de ese clúster que cualquier otro centroide.

Algoritmos de aprendizaje semisupervisados

En este caso, el aprendizaje se produce cuando solo se ha etiquetado una parte de los datos de entrada dados, lo que le da al algoritmo una cierta «ventaja». Este enfoque puede combinar lo mejor de ambos mundos10: la mejora de la precisión asociada con el machine learning supervisado y la capacidad de utilizar datos rentables sin etiquetar, como en el caso del machine learning no supervisado.

Algoritmos de refuerzo

En este caso, los algoritmos se entrenan tal como aprenden los humanos, a través de recompensas y penalizaciones, que son medidas y rastreadas por un agente de aprendizaje por refuerzo11 que tiene una comprensión general de la probabilidad de subir o bajar la puntuación con éxito. A través de la prueba y el error, el agente aprende a tomar medidas que conducen a los resultados más favorables con el tiempo. El aprendizaje de refuerzo suele utilizarse12  en la gestión de recursos, robótica y videojuegos.

Soluciones relacionadas
Deep learning

Diseñar redes neuronales complejas. Experimente a escala para implementar modelos de aprendizaje optimizados en IBM® Watson Studio.

Explorar el deep learning

Análisis predictivos

Analizar datos y crear modelos analíticos y predictivos de resultados futuros. Descubra riesgos y oportunidades para su negocio.

Explorar la analítica predictiva

Cree aplicaciones con procesamiento del lenguaje natural

El PLN es una IA que habla el idioma de su empresa. Cree soluciones que generen un ROI del 383 % en tres años con IBM® Watson Discovery.

Explorar la creación de aplicaciones con NLP
Recursos Aprendizaje práctico y gratuito para tecnologías de IA generativas

Aprenda los conceptos fundamentales para la IA y la IA generativa, incluyendo ingeniería rápida, modelos de lenguaje extensos y los mejores proyectos de código abierto.

Magic Quadrant para plataformas de IA conversacional empresarial, 2023

IBM reconocida de nuevo como líder en el Magic Quadrant™ de Gartner® 2023™ para IA conversacional empresarial.

Cuadrante Mágico de Gartner para plataformas de ciencia de datos y machine learning

Conozca las herramientas que utilizan las empresas para ejecutar y gestionar de forma eficiente los modelos de IA y capacitar a sus científicos de datos con tecnología que puede ayudar a optimizar su toma de decisiones basada en datos.

Machine learning para tontos

Explore cómo el machine learning le permite aprender continuamente de los datos y predecir el futuro.

Cómo crear IA responsable a escala

Cuatro estrategias para escalar la IA con una base de datos sólida.

IA en la empresa, 2021: Cómo liberar oportunidades a través de los datos

La tecnología de IA ha evolucionado rápidamente en las últimas dos décadas. Conozca cómo las empresas están implementando la IA en la actualidad.

Take the next step

Build an AI strategy for your business on one collaborative AI and data platform—IBM watsonx. Train, validate, tune and deploy AI models to help you scale and accelerate the impact of AI with trusted data across your business.

Explore watsonx Book a live demo
Notas a pie de página

Todos los enlaces de notas a pie de página que aparecen a continuación residen fuera de IBM.

1 Forrester: Use Marketing Analytics To Support Your 2023 Marketing Strategy 

2 Gartner: What Is Artificial Intelligence?

3 Gartner Peer Community: How will AI help facilitate desk and IT support teams? 

4 IDC: Generative AI: Exploring Trends and Use Cases Across Asia/Pacific Supply Chains 

5 Berkeley School of information:  What Is Machine Learning (ML)?

6 Glosario de Gartner: Machine Learning

7 TechTarget: What are machine learning algorithms?

8 GeeksforGeeks: Hierarchical Clustering in Data Mining

9 Universidad de Stanford: K Means

10 Booz Allen: How do machines learn?

11 G2: Reinforcement Learning: How Machines Learn From Their Mistakes 

12 TechTarget: What is machine learning and how does it work?