Mi IBM Iniciar sesión Suscríbase

¿Qué es la inteligencia artificial (IA)?

9 de agosto de 2024

Autores

Cole Stryker

Editorial Lead, AI Models

Gather

Eda Kavlakoglu

Program Manager

¿Qué es la IA? 

La inteligencia artificial (IA) es una tecnología que permite a las computadoras y máquinas simular el aprendizaje humano, la comprensión, la resolución de problemas, la toma de decisiones, la creatividad y la autonomía.

Las aplicaciones y dispositivos equipados con IA pueden ver e identificar objetos. Pueden entender y responder al lenguaje humano. Pueden aprender de nueva información y experiencia. Pueden hacer recomendaciones detalladas a usuarios y expertos. Pueden actuar de manera independiente, reemplazando la necesidad de inteligencia o intervención humana (un ejemplo clásico es un automóvil autónomo).

Pero en 2024, la mayoría de los investigadores y profesionales de la IA (y la mayoría de los titulares relacionados con la IA) se centran en los avances en la IA generativa , una tecnología que puede crear texto, imágenes, videos y otros contenidos originales. Para comprender plenamente la IA generativa, es importante entender primero las tecnologías sobre las que se basan las herramientas de IA generativa: machine learning (ML) y aprendizaje profundo.

Las últimas tendencias de IA presentadas por expertos

Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Aprendizaje automático

Una forma sencilla de pensar en la IA es como una serie de conceptos anidados o derivados que surgieron a lo largo de más de 70 años:

Directamente debajo de la IA, tenemos machine learning, que consiste en crear modelos entrenando a un algoritmo para hacer predicciones o tomar decisiones basadas en datos. Abarca una amplia gama de técnicas que permiten a las computadoras aprender y hacer inferencias basadas en datos sin estar programados explícitamente para tareas específicas.

Existen muchos tipos de técnicas o algoritmos de machine learning, como regresión linealregresión logística, árboles de decisión, bosques aleatorios, máquinas de vectores de soporte (SVM), k vecinos más cercanos (KNN), clustering y otros. Cada uno de estos enfoques es adecuado para distintos tipos de problemas y datos.

Pero uno de los tipos más populares de algoritmo de machine learning se llama Neural Networks (o redes neuronales artificiales). Neural Networks se modela a partir de la estructura y función del cerebro humano. Neural Networks consta de capas interconectadas de nodos (análogas a las neuronas) que trabajan juntas para procesar y analizar datos complejos. Neural Networks es adecuado para tareas que implican identificar patrones y relaciones complejos en grandes cantidades de datos.

La forma más sencilla de machine learning es llamada aprendizaje supervisado, que implica el uso de conjuntos de datos etiquetados para capacitar algoritmos a clasificar datos o predecir resultados con precisión. En el aprendizaje supervisado, los humanos emparejan cada ejemplo de entrenamiento con una etiqueta de salida. El objetivo es que el modelo aprenda el mapeo entre entradas y salidas en los datos de entrenamiento, para que pueda predecir las etiquetas de datos nuevos e invisibles.

Aprendizaje profundo

El aprendizaje profundo es un subconjunto de machine learning que utiliza redes neuronales multicapa, llamadas redes neuronales profundas, que simulan más de cerca el complejo poder de toma de decisiones del cerebro humano.

Las redes neuronales profundas incluyen una capa de entrada, al menos tres pero generalmente cientos de capas ocultas, y una capa de salida, a diferencia de Neural Networks utilizados en los modelos clásicos de machine learning, que generalmente tienen solo una o dos capas ocultas.

Estas múltiples capas permiten el aprendizaje no supervisado: pueden automatizar la extracción de características de conjuntos de datos grandes, no etiquetados y no estructurados, y hacer sus propias predicciones sobre lo que representan los datos.

Al no requerir intervención humana, el deep learning permite el machine learning a gran escala. Es muy adecuado para el procesamiento de lenguaje natural (PLN), la visión artificial y otras tareas que requieren identificar rápidamente y con precisión patrones y relaciones complejas en grandes volúmenes de datos. La mayoría de las aplicaciones de inteligencia artificial (IA) que utilizamos hoy en día se basan en algún tipo de aprendizaje profundo.

El aprendizaje profundo también permite:

  • Aprendizaje semisupervisado, que combina el aprendizaje supervisado y no supervisado mediante el uso de datos etiquetados y no etiquetados para capacitar modelos de IA para tareas de clasificación y regresión.

  • Aprendizaje autosupervisado, que genera etiquetas implícitas a partir de datos no estructurados, en lugar de depender de conjuntos de datos etiquetados para obtener señales de supervisión.

  • Aprendizaje por refuerzo, que aprende mediante funciones de prueba y error y recompensa en lugar de extraer información de patrones ocultos.

  • Aprendizaje por transferencia, en el que el conocimiento adquirido a través de una tarea o conjunto de datos se emplea para mejorar el rendimiento del modelo en otra tarea relacionada o conjunto de datos diferente.

IA generativa

La IA generativa, a veces denominada "IA gen", hace referencia a modelos de aprendizaje profundo que pueden crear contenidos originales complejos, como texto extenso, imágenes de alta calidad, video o audio realistas y mucho más, en respuesta a una solicitud o petición del usuario.

En un alto nivel, los modelos generativos codifican una representación simplificada de sus datos de entrenamiento y luego extraen de ella para crear un nuevo trabajo similar, pero no idéntico, a los datos originales.

Los modelos generativos se han utilizado durante años en estadísticas para analizar datos numéricos. Pero en la última década, evolucionaron para analizar y generar tipos de datos más complejos. Esta evolución coincidió con la aparición de tres tipos sofisticados de modelos de aprendizaje profundo:

  • Autocodificadores variacionales o VAE, que se introdujeron en 2013, y habilitaron modelos que podrían generar múltiples variaciones de contenido en respuesta a un indicador o instrucción.

  • Modelos de difusión, vistos por primera vez en 2014, que agregan "ruido" a las imágenes hasta que son irreconocibles y luego eliminan el ruido para generar imágenes originales en respuesta a indicaciones.

  • Transformadores (también llamados modelos de transformadores), que se capacitan con datos secuenciados para generar secuencias extendidas de contenido (como palabras en oraciones, formas en una imagen, fotogramas de un video o comandos en código de software). Los transformadores están en el núcleo de la mayoría de las herramientas de IA generativa que generan titulares en la actualidad, incluidas ChatGPT y GPT-4, Copilot, BERT, Bard y Midjourney.
Mixture of Experts | Podcast

Decodificación de la IA: Resumen semanal de noticias

Únase a nuestro panel de ingenieros, investigadores, responsables de producto y otros profesionales de talla mundial que se abren paso entre el revuelo de la IA para ofrecerle las últimas noticias e insights al respecto.

Cómo funciona la IA generativa

En general, la IA generativa opera en tres fases:

  1. Entrenamiento, para crear un modelo fundacional.
  2. Ajuste, para adaptar el modelo a una aplicación específica.
  3. Generación, evaluación y más ajuste, para mejorar la precisión.

Capacitación

La IA generativa comienza con un modelo "fundacional"; un modelo de aprendizaje profundo que sirve de base para múltiples tipos de aplicaciones de IA generativa.

Los modelos fundacionales más comunes hoy en día son los modelos de lenguaje de gran tamaño (LLM), creados para aplicaciones de generación de texto. Pero también hay modelos fundacionales para la generación de imágenes, videos, sonido o música, y modelos fundacionales multimodales que admiten varios tipos de contenido.

Para crear un modelo fundacional, los profesionales entrenan un algoritmo de aprendizaje profundo en enormes volúmenes de datos relevantes sin procesar, no estructurados y sin etiquetar, como terabytes o petabytes de datos, texto, imágenes o video de Internet. El entrenamiento produce una neural network de miles de millones de parámetros (representaciones codificadas de las entidades, patrones y relaciones en los datos) que pueden generar contenido de forma autónoma en respuesta a instrucciones. Este es el modelo fundacional.

Este proceso de entrenamiento requiere un uso intensivo de recursos informáticos, requiere mucho tiempo y es costoso. Requiere miles de unidades de procesamiento de gráficos en clúster (GPU) y semanas de procesamiento, todo lo cual generalmente cuesta millones de dólares. Los proyectos de modelos fundacionales de código abierto, como Llama-2 de Meta, permiten a los desarrolladores de IA generativa evitar este paso y sus costos.

Ajuste

A continuación, el modelo debe estar ajustado a una tarea específica de generación de contenido. Esto se puede hacer de varias maneras, que incluyen:

  • Ajuste fino, que implica introducir en la aplicación del modelo datos etiquetados específicos (preguntas o instrucciones que es probable que reciba la aplicación y las respuestas correctas correspondientes en el formato deseado).

  • Aprendizaje por refuerzo con feedback humano (RLHF), en el que los usuarios humanos evalúan la precisión o relevancia de los resultados del modelo para que el modelo pueda mejorar a sí mismo. Esto puede ser tan simple como hacer que las personas escriban o respondan las correcciones a un chatbot o asistente virtual.

Generación, evaluación y más ajuste

Los desarrolladores y usuarios evalúan regularmente los resultados de sus aplicaciones de IA generativa y ajustan adicionalmente el modelo, incluso una vez a la semana, para aumentar su precisión o relevancia. En contraste, el modelo fundacional se actualiza con mucha menos frecuencia, quizás cada año o cada 18 meses.

Otra opción para mejorar el rendimiento de una aplicación de IA generativa es la generación aumentada por recuperación (RAG), una técnica para ampliar el modelo fundacional y utilizar fuentes relevantes fuera de los datos de entrenamiento para refinar los parámetros y lograr una mayor precisión o relevancia.

Beneficios de la IA 

La IA ofrece numerosos beneficios en diversas industrias y aplicaciones. Algunos de los beneficios más comúnmente citados incluyen:

  • Automatización de tareas repetitivas.
  • Más insights más rápido a partir de los datos.
  • Toma de decisiones mejorada.
  • Menos errores humanos.
  • Disponibilidad 24x7.
  • Reducción de riesgos físicos.

Automatización de tareas repetitivas

La IA puede automatizar tareas rutinarias, repetitivas y a menudo tediosas, incluidas las tareas digitales como la recopilación de datos, entrada y preprocesamiento, y tareas físicas como la selección de existencias de almacén y los procesos de fabricación. Esta automatización libera para trabajar en trabajos más creativos y de mayor valor.

Toma de decisiones mejorada

Tanto si se utiliza como apoyo a la toma de decisiones como si se trata de una toma de decisiones totalmente automatizada, la IA permite realizar predicciones más rápidas y precisas y tomar decisiones basadas en datos confiables. Combinada con la automatización, la IA permite a las empresas aprovechar las oportunidades y responder a las crisis a medida que surgen, en tiempo real y sin intervención humana.

Menos errores humanos

La IA puede reducir los errores humanos de varias maneras, desde guiar a las personas a través de los pasos adecuados de un proceso, hasta señalar posibles errores antes de que ocurran y automatizar completamente los procesos sin intervención humana. Esto es especialmente importante en industrias como la de la atención médica, donde, por ejemplo, la robótica quirúrgica guiada por IA permite una precisión constante.

Los algoritmos de machine learning pueden mejorar continuamente su precisión y reducir aún más los errores a medida que están expuestos a más datos y "aprender" de la experiencia.

Disponibilidad y consistencia las 24 horas del día

La IA está siempre activa, disponible las 24 horas del día y ofrece un rendimiento constante. Herramientas como los chatbots de IA o los asistentes virtuales pueden reducir la necesidad de personal para el servicio de atención al cliente. En otras aplicaciones, como el procesamiento de materiales o las líneas de producción, la IA puede ayudar a mantener la calidad del trabajo y los niveles de producción al automatizar tareas repetitivas o tediosas.

Reducción del riesgo físico

Al automatizar trabajos peligrosos (como el control de animales, el manejo de explosivos, la realización de tareas en aguas profundas, en grandes altitudes o en el espacio exterior), la IA puede eliminar la necesidad de poner a los trabajadores humanos en riesgo de sufrir lesiones o algo peor. Si bien aún deben perfeccionar, los automóvil y otros vehículos autónomos ofrecen el potencial de reducir el riesgo de lesiones a los pasajeros.

Casos de uso de IA 

Las aplicaciones de la IA en el mundo real son muchas. Aquí hay solo una pequeña muestra de casos de uso en varias industrias para ilustrar su potencial:

Experiencia del cliente, servicio y soporte

Las compañías pueden implementar chatbots y asistentes virtuales impulsados por IA para manejar las consultas de los clientes, los tickets de soporte y más. Estas herramientas emplean el procesamiento de lenguaje natural (PLN) y las capacidades de IA generativa para comprender y responder a las preguntas de los clientes sobre el estado de los pedidos, los detalles del producto y las políticas de devolución.

Los chatbots y los asistentes virtuales permiten una asistencia permanente, ofrecen respuestas más rápidas a las preguntas más frecuentes (FAQ), liberan a los agentes humanos para que puedan centrar en tareas de mayor nivel y ofrecen a los clientes un servicio más rápido y coherente.

Detección de fraude

Los algoritmos de machine learning y aprendizaje profundo pueden analizar patrones de transacción y marcar anomalías, como gastos inusuales o ubicaciones de inicio de sesión, que indican transacciones fraudulentas. Esto permite a las organizaciones responder más rápidamente a posibles fraudes y limitar su impacto, lo que les brinda a ellos y a los clientes una mayor tranquilidad.

Marketing personalizado

Minoristas, bancos y otras compañías de cara al cliente pueden emplear la IA para crear experiencias del cliente personalizadas y campañas de marketing que satisfagan a los clientes, mejoren las ventas y eviten la pérdida de clientes. Basar en los datos del historial de compras y los comportamientos de los clientes, los algoritmos de aprendizaje profundo pueden recomendar productos y servicios que los clientes probablemente deseen, e incluso generar textos personalizados y soluciones especiales para clientes individuales en tiempo real.

Recursos humanos y contratación

Las plataformas de reclutamiento impulsadas por IA pueden agilizar la contratación mediante la selección de currículos, la coincidencia de candidatos con descripciones de puestos e incluso la realización de entrevistas preliminares mediante análisis de video. Estas y otras herramientas pueden reducir significativamente la montaña de papeleo administrativo asociado con la presentación de un gran volumen de candidatos. También puede reducir los tiempos de respuesta y el tiempo de contratación, mejorando la experiencia de los candidatos, ya sea que obtengan el trabajo o no.

Desarrollo y modernización de aplicaciones

Las herramientas de generación de código de IA generativa y las herramientas de automatización pueden agilizar las tareas de programación repetitivas asociadas con el desarrollo de aplicaciones y acelerar la migración y modernización (reformateo y reestructuración) de aplicaciones heredadas a escala. Estas herramientas pueden acelerar las tareas, ayudar a garantizar la coherencia del código y reducir los errores.

Mantenimiento predictivo

Los modelos de machine learning pueden analizar datos de sensores, dispositivos del Internet de las cosas (IoT) y tecnología operativa (OT) para pronosticar cuando será necesario el mantenimiento y predecir fallos en el equipamiento antes de que se produzcan. El mantenimiento preventivo impulsado por IA ayuda a evitar tiempos de inactividad y le permite anticipar a los problemas de la cadena de suministro antes de que afecten a los resultados finales.

Desafíos y riesgos de la IA 

Las organizaciones se apresuran a aprovechar las últimas tecnologías de IA y sacar partido de sus numerosos beneficios. Esta rápida adopción es necesaria, pero adoptar y mantener flujos de trabajo de IA conlleva retos y riesgos.

Riesgos de datos

Los sistemas de IA se basan en conjuntos de datos que podrían ser vulnerables al envenenamiento de datos, la manipulación de datos, el sesgo de datos o ciberataques que pueden conducir a filtraciones de datos. Las organizaciones pueden mitigar estos riesgos protegiendo la integridad de los datos e implementando la seguridad y la disponibilidad a lo largo de todo el ciclo de vida de la IA, desde el desarrollo hasta la formación y el despliegue y post-despliegue.

Riesgos del modelo

Actores de amenazas pueden apuntar a los modelos de IA para robo, ingeniería inversa o manipulación no autorizada. Los atacantes pueden comprometer la integridad de un modelo al alterar su arquitectura, pesos o parámetros; los componentes centrales que determinan el comportamiento, precisión y rendimiento de un modelo.

Riesgos operacionales

Al igual que todas las tecnologías, los modelos son susceptibles a riesgos operativos , como la desviación del modelo, el sesgo y las fallas en la estructura de gobernanza. Si no se abordan, estos riesgos pueden provocar fallas en el sistema y vulnerabilidades de ciberseguridad que los actores de amenazas pueden aprovechar.

Ética y riesgos legales

Si las organizaciones no dan prioridad a la seguridad y la ética a la hora de desarrollar y desplegar sistemas de IA, corren el riesgo de cometer violaciones de la privacidad y producir resultados sesgados. Por ejemplo, los datos de entrenamiento sesgados empleados para las decisiones de contratación podrían reforzar estereotipos de género o raciales y crear modelos de IA que favorezcan a determinados grupos demográficos en detrimento de otros.

Ética y gobierno de IA 

La ética de la IA es un campo multidisciplinario que estudia cómo optimizar el impacto beneficioso de la IA al tiempo que se reducen los riesgos y los resultados adversos. Los principios de la ética de la IA se aplican a través de un sistema de Gobernanza de la IA que consta de barreras de protección que ayudan a garantizar que las herramientas y los sistemas de la IA sigan siendo seguros y éticos.

La gobernanza de la IA abarca mecanismos de supervisión que abordan los riesgos. Un enfoque ético para la gobernanza de la IA requiere la participación de una amplia gama de stakeholders, incluidos los desarrolladores, los usuarios, los responsables de las políticas y los especialistas en ética, para ayudar a garantizar que los sistemas relacionados con la IA se desarrollen y utilicen de acuerdo con los valores de la sociedad.

Estos son los valores comunes asociados con la ética de la IA y la IA responsable:

Explicabilidad e interpretabilidad

A medida que la IA se vuelve más avanzada, los humanos se enfrentan al reto de comprender y repasar cómo el algoritmo llegó a un resultado. La IA explicable es un conjunto de procesos y métodos que permite a los usuarios humanos interpretar, comprender y confiar en los resultados y resultados creados por los algoritmos.

Equidad e inclusión

Aunque machine learning, por su propia naturaleza, es una forma de discriminación estadística, la discriminación se vuelve objetable cuando coloca a los grupos privilegiados en un beneficio sistemático y a ciertos grupos no privilegiados en una desventaja sistemática, lo que puede causar daños diversos. Para fomentar la equidad, los profesionales pueden intentar minimizar el sesgo algorítmico en la recopilación de datos y el diseño de modelos, y crear equipos más diversos e inclusivos.

Robustez y seguridad

Una IA robusta gestiona eficazmente condiciones excepcionales, como anomalías en la entrada o ataques maliciosos, sin causar daños involuntarios. También está diseñado para resistir interferencias intencionales y no intencionales al proteger contra vulnerabilidades expuestas.

Rendición de cuentas y transparencia

Las organizaciones deben implementar responsabilidades claras y gobierno estructuras para el desarrollo, el despliegue y los resultados de los sistemas de IA. Además, los usuarios deben poder ver cómo funciona un servicio de IA, evaluar su funcionalidad y comprender sus fortalezas y limitaciones. Una mayor transparencia proporciona información para IA consumidores para comprender mejor cómo se crearon los modelos de IA o servicio.

Privacidad y cumplimiento

Muchos marcos regulatorios, incluido el RGPD, exigen que las organizaciones cumplan con ciertos principios de privacidad al procesar información personal. Es crucial poder proteger los modelos de IA que pueden contener información personal, controlar qué datos entran en el modelo en primer lugar y crear sistemas adaptables que puedan ajustar a los cambios en la regulación y las actitudes en torno a la ética de la IA.

IA débil frente a IA fuerte 

Para contextualizar el uso de la IA en varios niveles de complejidad y sofisticación, los investigadores definieron varios tipos de IA que se refieren a su nivel de sofisticación:

IA débil: también conocida como "IA estrecha", define los sistemas de IA diseñados para realizar una tarea específica o un conjunto de tareas. Los ejemplos podrían incluir aplicaciones de asistentes de voz "inteligentes", como Alexa de Amazon, Siri de Apple, un chatbot de redes sociales o los vehículos autónomos prometidos por Tesla.

IA sólida: también conocida como “inteligencia artificial general” (AGI) o “IA general”, posee la capacidad de comprender, aprender y aplicar conocimientos en una amplia gama de tareas a un nivel igual o superior a la inteligencia humana. Este nivel de IA es actualmente teórico y ningún sistema de IA conocido se acerca a este nivel de sofisticación. Los investigadores sostienen que, si la IA general fuera posible, sería necesario un gran aumento de la potencia de cálculo. A pesar de los recientes avances en el desarrollo de la IA, los sistemas de IA autoconscientes de la ciencia ficción se mantienen firmemente en ese ámbito.

Historia de la IA 

La idea de "una máquina que piensa" se remonta a la antigua Grecia. Pero desde el surgimiento de la computación electrónica (y en relación con algunos de los temas discutidos en este artículo) los eventos e hitos importantes en la evolución de la IA incluyen los siguientes:

1950 Alan Turing publica Computing Machinery and Intelligence. En este artículo, Turing, famoso por descifrar el código alemán ENIGMA durante la Segunda Guerra Mundial y a menudo considerado el "padre de la informática", se plantea la siguiente pregunta: "¿Pueden pensar las máquinas?"

A partir de ahí, ofrece una prueba, ahora conocida como la "Prueba de Turing", en la que un interrogador humano intentaría distinguir entre una respuesta de texto humana y de una computadora. Si bien esta prueba fue objeto de mucho escrutinio desde que se publicó, sigue siendo una parte importante de la historia de la IA y un concepto vigente dentro de la filosofía, ya que emplea ideas en torno a la lingüística.

1956 John McCarthy acuñó el término "inteligencia artificial" en la primera conferencia sobre IA celebrada en Dartmouth College. (McCarthy inventó el lenguaje Lisp). Más tarde ese año, Allen Newell, J.C. Shaw y Herbert Simon crean el Logic Theorist, el primer programa de computadora de IA en funcionamiento de la historia.

1967 Frank Rosenblatt construye la Mark 1 Perceptron, la primera computadora basada en una red neuronal que "aprendió" a través de prueba y error. Tan solo un año después, Marvin Minsky y Seymour Papert publican un libro titulado Perceptrons, que se convierte en el trabajo emblemático en redes neuronales y, al menos, durante un tiempo, un argumento contra futuras iniciativas de investigación sobre redes neuronales.

1980 Las redes neuronales que utilizan un algoritmo de retropropagación para entrenarse se volvieron ampliamente utilizadas en aplicaciones de IA.

1995 Stuart Russell y Peter Norvig publican Artificial Intelligence: A Modern Approach, que se convierte en uno de los principales libros de texto en el estudio de la IA. En él, profundizan en cuatro posibles objetivos o definiciones de la IA, que diferencia a los sistemas informáticos basados en la racionalidad y el pensamiento frente a la actuación.

1997 Deep Blue de IBM vence al entonces campeón mundial de ajedrez Garry Kasparov, en una partida de ajedrez (y revancha).

2004 John McCarthy escribe un artículo, What Is Artificial Intelligence? (¿Qué es la inteligencia artificial?), y propone una definición de IA que se cita a menudo. En este momento, la era del big data y la computación en la nube está en marcha, lo que permite a las organizaciones gestionar patrimonios de datos cada vez más grandes, que algún día se emplearán para capacitar modelos de IA.

2011 IBM Watson supera a los campeones Ken Jennings y Brad Rutter en Jeopardy! Además, en esta época, la ciencia de datos comienza a surgir como una disciplina popular.

2015 El superordenador Minwa de Baidu utiliza una red neuronal profunda especial denominada red neuronal convolucional para identificar y categorizar imágenes con una tasa de precisión superior a la del ser humano promedio.

2016 El programa AlphaGo de DeepMind, impulsado por una red neuronal profunda, vence a Lee Sodol, campeón del mundo de Go, en un combate a cinco partidas. La victoria es importante dado el enorme número de movimientos posibles a medida que avanza la partida (más de 14,5 billones tras sólo cuatro movimientos). Más tarde, Google compró DeepMind por 400 millones de dólares.

2022 Un aumento en los modelos de lenguaje de gran tamaño, o LLM, como ChatGPT de OpenIA, crea un enorme cambio en el rendimiento de la IA y su potencial para impulsar el valor empresarial. Con estas nuevas prácticas de IA generativa, los modelos de aprendizaje profundo se pueden capacitar previamente en grandes cantidades de datos.

2024 Las últimas tendencias en IA apuntan a un continuo renacimiento de la IA. Los modelos multimodales que pueden tomar varios tipos de datos como entrada proporcionan experiencias más ricas y sólidas. Estos modelos reúnen las capacidades de reconocimiento de imágenes por visión artificial y de reconocimiento del habla por PLN. Los modelos más pequeños también están avanzando en una era de rendimientos decrecientes con modelos masivos que tienen un gran número de parámetros.

Soluciones relacionadas

Soluciones relacionadas

IBM watsonx.ai

Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Diseñe aplicaciones de IA en menos tiempo y con menos datos.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga IBM watsonx a trabajar a escala en su negocio con la experiencia en IA líder del sector y la cartera de soluciones de IBM a su lado.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Conozca los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida del desarrollo de IA. Produzca potentes soluciones de IA con interfaces fáciles de usar, flujos de trabajo y acceso a API y SDK estándar de la industria.

Explore watsonx.ai Reserve una demostración en vivo