Tendencias de la IA en 2025: lo que hemos visto y lo que veremos a continuación

Hombre mayor pensativo con gafas que mezclan paisaje urbano futurista y visualización digital de datos

Autores

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cuando nos acercamos al ecuador de 2025, podemos echar la vista atrás y ver las tendencias de la inteligencia artificial que han prevalecido hasta ahora, así como lo que nos deparará el resto del año.

Dada la amplitud y profundidad del desarrollo de la IA, ningún resumen de las tendencias de la IA puede pretender ser exhaustivo. Este no es una excepción. Hemos reducido la lista a diez: cinco novedades que han marcado la primera mitad del año y cinco más que esperamos que desempeñen un papel importante en los próximos meses.

Lo que hemos visto hasta ahora:
  • Una disminución drástica de los costes de inferencia
  • Modelos de razonamiento más razonables
  • Un agotamiento cada vez mayor de los recursos digitales
  • El retorno de los modelos de mezcla de expertos (ME)
  • La IA va por detrás de la retórica de la IA
Lo que veremos a continuación:
  • Saturación y diversificación de las referencias
  • Transcender los modelos de transformadores
  • IA incorporada, robótica y modelos mundiales
  • Privacidad frente a personalización
  • Compañeros de trabajo de IA y consecuencias emocionales

Las tendencias de la IA están impulsadas no solo por los avances en los propios modelos de IA y algoritmos de IA, sino también por la gama cada vez mayor de casos de uso a los que se aplican las capacidades de IA generativa (IA gen). A medida que los modelos se vuelven más capaces, versátiles y eficientes, también lo hacen las aplicaciones de IA, las herramientas de IA y otros flujos de trabajo con IA que lo hacen posible. Por lo tanto, para entender realmente cómo evoluciona el ecosistema de IA actual se requiere una comprensión contextual de las causas y los efectos de los avances en el machine learning.

Este artículo explora principalmente las tendencias actuales cuyo impacto en el mundo real podría materializarse en un horizonte de meses: en otras palabras, tendencias con un impacto tangible principalmente en el año 2025. Por supuesto, hay otras iniciativas de IA que son más perennes y familiares. Por ejemplo, aunque recientemente se ha producido un movimiento de vehículos totalmente autónomos en focos aislados (se han lanzado pilotos de robotaxi en varias ciudades estadounidenses, con pruebas adicionales en el extranjero en Oslo, Ginebra y 16 ciudades chinas), es probable que aún falten años para que se generalice.

Muchas otras macrotendencias importantes en IA, como la llegada de los agentes de IA, o la disrupción de los comportamientos de búsqueda y el SEO por parte de la IA, son amplias, polifacéticas y ya están bien cubiertas en otros lugares, por lo que se dejaron de lado en favor de desarrollos más centrados que han no ha recibido tanta atención mediática.

Dicho esto, sigamos con la lista.

Diseño 3D de bolas rodando por un circuito

Las últimas noticias + conocimientos de IA 


Descubra ideas y noticias de expertos sobre IA, nube y mucho más en el boletín semanal Think. 

Lo que hemos visto

El progreso no requiere necesariamente una afluencia constante de nuevas ideas. Muchas de las tendencias más importantes de la IA en la primera mitad de 2025 reflejan cambios en la forma en que los sectores están aplicando las ideas existentes, algunas pragmáticas y productivas, otras no tanto.

Disminución drástica de los costes de inferencia

Los modelos actuales no solo son significativamente mejores que los modelos de antaño, sino que también son mucho más baratos de mantener. Considere este gráfico de SemiAnalysis: en menos de dos años, el precio por token para lograr resultados equivalentes en el índice de referencia MMLU se redujo docenas de veces. Esto no es una novedad para nadie que haya estado monitorizando las métricas de rendimiento de cada generación sucesiva de lanzamientos de modelos. Pero visto en conjunto, este ritmo de mejora en constante aceleración ilustra mejor el caso de la IA generativa que las ya impresionantes capacidades de los modelos actuales.

Un estudio estima que el ritmo de mejora algorítmica es de aproximadamente un 400 % anual: en otras palabras, los resultados de hoy se pueden lograr un año después utilizando una cuarta parte de la computación, y eso sin tener en cuenta las mejoras simultáneas en la computación (véase: Ley de Moore) o datos de entrenamiento sintéticos. El GPT-4 original, que se rumoreaba que tenía alrededor de 1,8 billones de parámetros1, logró una puntuación del 6 % en HumanEval, un popular punto de referencia para el rendimiento de la codificación. IBM Granite 3.3 2B Instruct, lanzado dos años después y 900 veces más pequeño, logró una puntuación del 80,5 %2.

Esta expansión exponencial de la economía modelo, más que nada, es lo que potencia la emergente era de los agentes de IA. Los modelos de lenguaje de gran tamaño (LLM) son cada vez más prácticos, incluso más rápido de lo que son más capaces, lo que permite la implementación de sistemas complejos de varios agentes en los que un grupo de modelos puede planificar, ejecutar y coordinar tareas complejas de forma autónoma, sin aumentar los costes de inferencia.

Modelos de razonamiento más razonables

El lanzamiento de o1 de OpenAI introdujo una nueva vía para aumentar el rendimiento de los modelos. Su impresionante mejora con respecto al rendimiento anterior de última generación en referencias matemáticas y de codificación altamente técnicas inició una carrera armamentista en los llamados "modelos de razonamiento". Su mayor rendimiento en tareas que requieren una toma de decisiones lógica parece desempeñar un papel importante en el desarrollo de la IA agéntica. Pero como suele ocurrir con la tecnología de IA, el frenesí inicial por el rendimiento ha dado paso recientemente a la búsqueda de la implementación más práctica.

La intuición detrás de los modelos de razonamiento proviene de investigación que demuestra que ampliar el cálculo en tiempo de prueba (utilizado para generar un output) podría mejorar el rendimiento del modelo tanto como ampliar el cálculo en tiempo de entrenamiento (utilizado para entrenar un modelo). Esta idea se manifestó en técnicas para afinar los modelos de forma que se incentivara la generación de "procesos de pensamiento" más largos y complejos antes de un resultado final: una escuela de técnicas denominada en términos generales escalado de inferencia.

Pero el escalado de inferencias también significa mayores costes de inferencia y latencia. Los usuarios deben pagar (y esperar) por todos los tokens que genera el modelo mientras "piensan" en las respuestas finales, y esos tokens de pensamiento se comen la ventana de contexto disponible. Hay casos de uso que justifican ese tiempo y cálculo extra, pero también hay muchos escenarios en los que es una pérdida de recursos. Sin embargo, cambiar constantemente de un modelo de razonamiento a un modelo "estándar" tarea por tarea e instrucción por instrucción no es práctico.

Por ahora, la solución son los "modelos de razonamiento híbridos". En febrero, IBM Granite 3.2 se convirtió en el primer LLM en ofrecer un modo de "pensamiento" conmutable, lo que permite a los usuarios aprovechar el razonamiento cuando lo necesitan y priorizar la eficiencia cuando no lo necesitan3. El Sonnet Claude 3.7 de Anthropic hizo lo propio ese mismo mes, añadiendo la posibilidad de que los usuarios de la API tuvieran un control preciso sobre el tiempo durante el que el modelo "piensa"4. Google introdujo una función similar de modularidad "pensante" en Gemini 2.5 Flash5. Qwen3 de Alibaba, al igual que IBM Granite, permite activar o desactivar el pensamiento.

La investigación en curso tiene como objetivo aumentar nuestra comprensión de lo que realmente está sucediendo mientras los modelos de razonamiento "piensan", y la medida en que los trazos de razonamiento de la cadena de pensamiento (CoT) extendidos contribuyen realmente a los resultados. Un artículo publicado en abril sugiere que para algunas tareas, los modelos de razonamiento pueden ser efectivos sin generar pensamientos. Mientras tanto, la investigación de Anthropic de principios de ese mes afirmó que los resultados de CoT que se muestran al usuario podrían no reflejar realmente lo que el modelo realmente "piensa".

Una pérdida de recursos digitales

El desarrollo de la IA siempre se ha basado en gran medida en el aprovechamiento de los repositorios de conocimiento de código abierto, como Wikipedia y GitHub. Su importancia no hará sino aumentar en el futuro, especialmente tras las revelaciones de alto nivel de que los principales desarrolladores de IA han estado entrenando modelos con torrents de libros pirateados, lo que presumiblemente desalentará el uso continuado de esas fuentes alternativas. Para las organizaciones que gestionan valiosos recursos de código abierto, la situación ya está causando una gran tensión.

Aunque una serie de demandas han generado conciencia sobre los perjuicios de la recopilación de datos (ya sean legales, ilegales o ambiguos) sobre la propiedad intelectual, se ha prestado menos atención a cómo el hambre de datos de los sistemas de IA perjudica a los repositorios de conocimiento. Como articuló la Fundación Wikimedia en un anuncio de abril sobre el tráfico de bots, "[su] contenido es gratuito, [su] infraestructura no lo es". Wikimedia, en concreto, ha experimentado una avalancha potencialmente insostenible de tráfico web por parte de los bots de scraping que recopilan datos para entrenar modelos de IA generativa. Desde enero de 2024, el ancho de banda utilizado para descargar el contenido multimedia de Wikimedia ha crecido un 50 %.

El aumento del volumen de tráfico en sí mismo es preocupante, pero es la naturaleza de ese tráfico lo que ejerce una presión desproporcionada sobre los recursos finitos. El comportamiento humano en la navegación es predecible: nuestro tráfico se agrupa en las páginas más populares y sigue patrones lógicos, lo que permite automatizar y aplicar estrategias de almacenamiento en caché que asignan eficientemente el ancho de banda. Pero a diferencia de los humanos, los bots rastrean indiscriminadamente páginas oscuras, lo que a menudo obliga a los centros de datos a atenderlas directamente. Esto no solo es costoso e ineficiente en circunstancias normales y potencialmente desastroso en situaciones en las que la infraestructura necesita responder a picos de uso reales.

Como informa Ars Technica, este problema está muy extendido y se ve agravado por lo que muchos consideran un comportamiento deliberadamente depredador por parte de los rastreadores de bots y las empresas que los operan. Varios, como Perplexity, han sido acusados de eludir subrepticiamente robots.txt e incluso eludir los muros de pago para extraer datos. Cuando los sitios web intentan limitar la velocidad de acceso de los bots, los bots se cambian a diferentes IP; cuando su ID se bloquea directamente, cambian a cadenas de ID alternativas. Un administrador de infraestructuras de código abierto, que descubrió que casi el 25 % del tráfico de su red provenía de bots ChatGPT, lo describió como "literalmente un DDoS en todo Internet".

En respuesta, muchos proyectos están aplicando activamente medidas defensivas. Un proyecto de código abierto, Anubis, obliga a los bots a resolver acertijos de cálculo antes de obtener acceso. Otro, Nepenthes, envía a los rastreadores de IA por un "laberinto infinito". Cloudflare, un destacado proveedor de infraestructura web, lanzó recientemente una característica que denominan "Laberinto de IA", que utiliza un enfoque similar (aunque menos agresivo). Wikimedia está organizando una nueva iniciativa, WE5: uso responsable de la infraestructura, dirigida a una solución estructural.

La capacidad del desarrollo comercial de IA y los repositorios de conocimiento abiertos para desarrollar en colaboración un protocolo mutuamente adecuado tendrá un tremendo impacto no solo en el futuro de la IA, sino en el futuro de la propia Internet.

El regreso de los modelos mixtos de expertos

Aunque el concepto detrás de los modelos de mezcla de expertos se remonta a 1991, no se introdujo en el procesamiento del lenguaje natural (PLN) o en la IA generativa hasta que Mistral AI publicó su modelo Mixtral a finales de 20236. Aunque el modelo y su arquitectura recibieron mucha atención, y se rumoreaba (aunque nunca se confirmó) que el GPT-4 de OpenAI sería un MoE tras su lanzamiento, en gran medida no motivó al sector a desviarse de su enfoque en los LLM "densos" convencionales.

Ese enfoque parece haber cambiado tras el lanzamiento de DeepSeek-R1. DeepSeek-R1, y el modelo base DeepSeek-V3 a partir del cual se perfeccionó, demostraron de forma concluyente que los modelos MoE eran perfectamente capaces de ofrecer un rendimiento de vanguardia para complementar su ya probada eficacia computacional.

Este renovado interés por los modelos MoE dispersos se hace evidente en la actual oleada de modelos de nueva generación, entre los que se incluyen Meta Llama 4, Qwen3 de Alibaba y IBM Granite 4.0, que utilizan esta arquitectura. También es posible que algunos de los principales modelos cerrados de OpenAI, Anthropic o Google sean MoE, aunque rara vez se divulga esta información sobre la arquitectura de modelos cerrados.

A medida que la capacidad y el rendimiento impresionantes se mercantilicen cada vez más en los próximos años, es probable que la velocidad de inferencia y la eficiencia que ofrecen los modelos dispersos se conviertan en una prioridad más alta.

La acción va a la zaga de la retórica de la IA

El futuro siempre es difícil de predecir. El ritmo vertiginoso de mejora en las generaciones anteriores de modelos de IA hizo que muchos esperaran que la generación de modelos se lanzara en 2025 para dar pasos significativos hacia la inteligencia artificial general (AGI). Aunque los últimos modelos de OpenAI, Meta y los otros actores más financiados en el espacio de la IA son sin duda impresionantes, ciertamente no son revolucionarios.

En la implementación práctica, el progreso ha sido desigual. Muchos líderes empresariales que se mostraron optimistas con respecto a las perspectivas de adopción de la IA en su organización a finales de 2023 pasaron 2024 dándose cuenta de que la infraestructura de TI de su organización aún no estaba preparada para escalar la IA.

Un refrán común entre los analistas de IA es que la IA se hará cargo de las tareas mundanas y repetitivas y liberará tiempo para que los humanos se centren en el pensamiento creativo y global. Pero hasta ahora, los datos sobre la adopción de la IA no reflejan necesariamente eso en la realidad. Un estudio realizado por el Institute for Business Value (IBV) de IBM descubrió que ocurre lo contrario, al menos en la cadena de suministro del sector de la venta minorista: el 88 % de los minoristas informaron que utilizaban la IA generativa para "idear o crear conceptos creativos" y el 74 % informó que la utilizaba para "crear y editar contenido". Mientras tanto, la mayoría de los trabajos mundanos siguen siendo territorio humano: solo el 23 % de los minoristas utilizan la IA generativa para generar variaciones de contenido por canal y solo el 10 % la utilizan para generar variaciones de contenido por ubicación geográfica.

En general, no es que las organizaciones no estén buscando activamente la adopción de la IA (un nuevo informe del IBV muestra que definitivamente lo están, particularmente con respecto a los agentes de IA), sino que no está sucediendo a un ritmo directo y lineal. La transición de la experimentación a la operacionalización formal rara vez es fluida.

Mixture of Experts | 12 de diciembre, episodio 85

Descifrar la IA: resumen semanal de noticias

Únase a nuestro panel de ingenieros, investigadores, responsables de producto y otros profesionales de talla mundial que se abren paso entre el bullicio de la IA para ofrecerle las últimas noticias y conocimientos al respecto.

Lo que veremos a continuación

En la segunda mitad de 2025 (y hasta principios del próximo año), las piezas estarán listas para una interrupción significativa de algunos aspectos del status quo vigente desde los primeros días de la era de la IA generativa en curso.  

Saturación y diversificación de los índices de referencia de la IA

En un nivel fundamental, no existe un punto de referencia (o conjunto de puntos de referencia) perfecto para el rendimiento de la IA. Cualquier punto de referencia está sujeto a la Ley de Goodhart: "Cuando una medida se convierte en un objetivo, deja de ser una buena medida". Sin embargo, el beneficio del desarrollo de modelos (y a los líderes empresariales encargados de elegir soluciones y modelos de IA específicos) es tener medidas de rendimiento estandarizadas y administradas de forma transparente para facilitar las comparaciones de manzanas con manzanas.

El primer conjunto "estándar" de puntos de referencia en torno al cual se unió el sector fue el utilizado por la Open LLM Leaderboard en Hugging Face. Cuando sus puntos de referencia se saturaron (en otras palabras, cuando la mayoría de los modelos alcanzaban puntuaciones de evaluación tan altas y similares que era difícil diferenciarlos), la tabla de clasificación adoptó evaluaciones nuevas, significativamente más desafiantes, en junio de 2024. Una vez más, tanto los modelos de código abierto como los cerrados se unieron en torno a la evaluación del rendimiento utilizando los puntos de referencia de evaluación de la tabla de clasificación "V2". Pero en marzo de 2025, Hugging Face retiró por completo la Open LLM Leaderboard.

La retirada de la tabla de clasificación y el alejamiento del conjunto estándar de puntos de referencia que defendía ha provocado, y fue causado por, una diversificación de la forma en que utilizamos los modelos y evaluamos su rendimiento.

  • Los modelos especializados en un dominio específico, como la codificación o las matemáticas, quizás se beneficien mejor informando solo sobre evaluaciones relevantes para el dominio e ignorando los puntos de referencia más generalizados o ajenos al dominio.
  • Los modelos de IA multimodal deben demostrar su rendimiento en algo más que las tareas específicas del texto que evalúan los criterios de referencia de Leaderboard. Los desarrolladores de modelos multimodales podrían optar por informar las evaluaciones que consideren más relevantes o favorables, en lugar de abrumar a los lectores con docenas de números.
  • Los conjuntos de datos de referencia específicos se han utilizado durante tanto tiempo que algunas de sus tareas ahora pueden filtrarse, intencionadamente o no, en conjuntos de datos de entrenamiento de modelos. Esto pondría en peligro las propias evaluaciones.
  • En función del uso específico de la IA, algunos puntos de referencia pueden no ser importantes. Por ejemplo, probablemente no importe si un modelo optimizado para su implementación en aplicaciones móviles o simples agentes de IA tiene un bajo rendimiento en GPQA (que mide el conocimiento a nivel de doctorado).

Ha habido cierta tendencia a utilizar métodos de comparación de modelos más cualitativos, como el popular Chatbot Arena, en lugar de evaluaciones cuantitativas. Pero también son imperfectos. Un artículo reciente publicado por una serie de respetados investigadores académicos y de código abierto alegó varias prácticas problemáticas de Chatbot Arena que favorecen en gran medida a los mayores proveedores de modelos. Ese documento se publicó tras las acusaciones de que Meta manipuló el Chatbot Arena durante el lanzamiento de Llama 4.

La realidad es que no existe un punto de referencia ideal. La mejor práctica probablemente sea que las organizaciones desarrollen sus propias referencias que mejor reflejen el rendimiento en las tareas que les interesan. Una empresa no contrataría a un empleado basándose únicamente en un test de inteligencia y tampoco debería elegir un modelo basándose únicamente en pruebas estandarizadas.

Transformadores trascendentes

Presentados por primera vez en 2017, los modelos de transformadores son en gran medida responsables de la era de la IA generativa, y siguen siendo la columna vertebral de todo, desde la generación de imágenes hasta los modelos de series temporales y los LLM. Aunque los transformadores no van a desaparecer pronto, van a tener compañía.

Los transformadores tienen una debilidad crucial: sus necesidades computacionales se escalan cuadráticamente con el contexto. En otras palabras, cada vez que se duplica la longitud de su contexto, la autoatención no solo utiliza el doble de recursos, sino que utiliza el cuádruple de recursos. Este "cuello de botella cuadrático" limita inherentemente la velocidad y la eficiencia de los LLM convencionales, especialmente en secuencias más largas o cuando se incorpora información anterior en un intercambio extenso. La optimización continua de la arquitectura del transformador sigue produciendo modelos de frontera más sólidos, pero se están volviendo extremadamente caros.

Mamba, introducido por primera vez en 2023, es un tipo diferente de arquitectura de modelos, específicamente un modelo de espacio de estados, y está preparado para ofrecer a los transformadores su primera competencia seria en el mundo de los LLM. La arquitectura ha demostrado ser capaz de hacer coincidir los transformadores en la mayoría de las tareas de modelado lingüístico (con la excepción de las tareas de aprendizaje en contexto, como few-shot prompting) y sus necesidades computacionales se escalan linealmente con la longitud del contexto. En pocas palabras, la forma en la que Mamba entiende el contexto es intrínsecamente más eficiente: el mecanismo de autoatención del transformador debe analizar cada token y decidir repetidamente a qué prestar atención; el mecanismo de selectividad de Mamba solo conserva los tokens que determina que son importantes.

Cuando se trata de transformadores o mamba, el futuro de la IA probablemente no sea una situación de “uno u otro”: de hecho, las investigaciones sugieren que un híbrido de los dos es mejor que cualquiera de ellos por separado. En el último año han salido al mercado varios modelos de mamba o mamba híbrida/transformador. La mayoría han sido modelos destinados únicamente a investigación académica, con notables excepciones que incluyen el Codestral Mamba de Mistral IA y la serie híbrida Jamba de AI2I. Dentro de poco, la próxima serie IBM Granite 4.0 utilizará un híbrido de arquitecturas de tranformadores y Mamba-2.

Y lo que es más importante, los reducidos requisitos de hardware de Mamba y los modelos híbridos reducirán significativamente los costes de hardware, lo que a su vez contribuirá a seguir democratizando el acceso a la IA.

IA incorporada y modelos del mundo

La llegada de los modelos de IA marcó la expansión de los LLM más allá del texto, pero la próxima frontera del desarrollo de IA pretende llevar esas capacidades multimodales al mundo físico.

Este campo emergente se engloba en gran medida bajo el epígrafe de "IA incorporada". Las empresas de capital riesgo invierten cada vez más en startups que persiguen una robótica humanoide avanzada basada en la IA generativa, como Skild AI, Physical Intelligence y 1X Technologies.

Otra corriente de investigación se centra en los "modelos del mundo" que pretenden modelar las interacciones del mundo real de forma directa y holística, en lugar de indirecta y discretamente a través de los medios del lenguaje, las imágenes y los datos de vídeo. World Labs, una startup dirigida por Fei-Fei Li de Stanford, famosa, entre otras cosas, por el conjunto de datos ImageNet que ayudó a allanar el camino para la visión artificial moderna,recaudó 230 millones de dólares a finales del año pasado.

Algunos laboratorios de este espacio están realizando experimentos en "mundos virtuales", como los videojuegos: Genie 2 de Google DeepMind, por ejemplo, es "un modelo mundial fundacional capaz de generar una variedad infinita de entornos 3D jugables y controlables por acción. El sector del videojuego podría ser, claramente, el primer beneficiario directo del potencial económico de los modelos mundiales.

Muchos (pero no todos) los principales expertos en IA, incluido Yann LeCun, científico jefe de IA de Meta y uno de los tres "padrinos del deep learning"7, creen que los modelos mundiales, no los LLM, son el verdadero camino hacia la AGI. En comentarios públicos, LeCun alude a menudo a la paradoja de Moravec, la noción contraintuitiva de que, en IA, las habilidades de razonamiento complejas son sencillas, pero no lo son las tareas sensoriomotoras y de percepción simples que un niño puede hacer fácilmente8.

En este sentido, algunos esfuerzos de investigación interesantes tienen como objetivo enseñar a la IA a comprender conceptos, en lugar de solo palabras, incorporando esa IA en un robot y enseñándola de la forma en que enseñamos cosas a los bebés.

Privacidad frente a IA personalizada

La promesa a largo plazo de los agentes de IA es que utilizarán la IA para llevar a cabo tareas complejas y específicas del contexto de forma autónoma con poca o ninguna intervención humana. Para poder personalizar su toma de decisiones en función de las necesidades específicas y contextuales de un lugar de trabajo o una situación determinados, como haría un empleado o asistente competente, un agente de IA necesita aprender en el trabajo. En otras palabras, debe conservar un historial sólido de cada interacción generada por IA y cómo fue.

Pero recopilar y conservar esa memoria permanente de cada interacción puede ser contrario a las nociones básicas de privacidad digital en IA, especialmente cuando se trabaja con modelos cerrados desplegados en la nube (en contraposición a la implementación de modelos de código abierto a nivel local).

Por ejemplo, en abril, OpenAI anunció que ChatGPT ahora recordará automáticamente cada conversación que tenga con él, en cumplimiento del objetivo de OpenAI de desarrollar "sistemas de IA que lleguen a conocerlo a lo largo de su vida". Pero, en particular, la característica no estaba disponible en la UE, el Reino Unido, Suiza, Noruega, Islandia o Liechtenstein, presuntamente porque entra en conflicto con sus leyes de privacidad y regulaciones de IA existentes9.

Queda por ver si el concepto de un modelo no solo guarda todas sus interacciones personalizadas con usted, sino que también las utiliza para su posterior entrenamiento y optimización, es fundamentalmente compatible con conceptos básicos del RGPD como el "derecho al olvido".

Los compañeros de trabajo de la IA y las consecuencias emocionales

De hecho, el futuro de la IA, y especialmente de los agentes de IA, será cada vez más personal, hasta el punto de que el impacto de la IA podría trascender las consideraciones tecnológicas o económicas y cruzar al territorio psicológico.

A finales de 2024, el CEO de IA de Microsoft, Mustafa Suleyman, escribió una entrada de blog en la que declaraba el objetivo de su empresa de "crear un compañero de IA para todos". En una reciente entrevista en un pódcast, el CEO de Meta, Mark Zuckerberg, propuso los "amigos de IA" como solución a la epidemia de soledad del país10. Una creciente variedad de startups está implementando compañeros de trabajo de IA.

Esto conlleva un peligro inherente, derivado principalmente de la predisposición histórica de la humanidad a apegarse emocionalmente incluso a los primeros y rudimentarios chatbots. Con millones de personas interactuando con chatbots personalizados todos los días, los riesgos del apego emocional a los compañeros de trabajo de IA serán complejos, trascendentales y difíciles de evitar.

Hacia adelante

A medida que avanzamos en un año crucial para la inteligencia artificial, comprender y adaptarse a las tendencias emergentes es esencial para maximizar el potencial, minimizar el riesgo y ampliar de forma responsable la adopción de la IA generativa.

Soluciones relacionadas
IBM watsonx.ai

Entrene, valide, ajuste e implemente IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de nueva generación para desarrolladores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.

Explore watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA al servicio de su negocio con la experiencia líder del sector y el portfolio de soluciones de IA de IBM.

Explore las soluciones de IA
Servicios y consultoría de inteligencia artificial (IA)

Los servicios de IA de IBM Consulting ayudan a reinventar la forma de trabajar de las empresas usando IA para la transformación.

Explore los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida de desarrollo de la IA. Produzca potentes soluciones de IA con interfaces intuitivas, flujos de trabajo y acceso a API y SDK estándar del sector.

Explore watsonx.ai Solicite una demo en directo
Notas a pie de página

¹ "GPT-4 architecture, datasets, costs and more leaked". The Decoder. 11 de julio de 2023.
² "IBM Granite 3.3 2B model card"Hugging Face. 16 de abril de 2025.
³  "Bringing reasoning to Granite". IBM. 7 de febrero de 2025.
⁴ "Claude 3.7 Sonnet and Claude Code". Anthropic. 24 de febrero de 2025.
⁵  "Gemini Thinking". Google. 2025.
⁶ "Adaptive Mixtures of Local Experts". Neural Computation. 1 de marzo de 1991.
⁷ "Turing Award 2018: Novel Prize of computing given to 'godfathers of AI'". The Verge. 27 de marzo de 2019.
⁸ @YLeCun en X (anteriormente Twitter). via XCancel. 20 de febrero de 2024.
⁹ "ChatGPT will now remember your old conversations". The Verge. 11 de abril de 2025.
¹⁰ "Meta CEO Mark Zuckerberg Envisions a Future Where Your Friends Are AI Chatbots—But Not Everyone Is Convinced". Entrepreneur. 8 de mayo de 2025.