Tendencias de IA en 2025: lo que hemos visto y lo que veremos a continuación

Hombre mayor pensativo con anteojos que mezcla un paisaje urbano futurista y una visualización digital de datos

Autores

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Al acercarnos a la mitad de 2025, podemos mirar hacia atrás a las tendencias de inteligencia artificial predominantes del año hasta ahora y mirar hacia adelante a lo que podría traer el resto del año.

Dada la amplitud y profundidad del desarrollo de la IA, ningún resumen de las tendencias de la IA puede pretender ser exhaustivo. Este artículo no es una excepción. Redujimos la lista a 10 novedades que marcaron la primera mitad del año y otras 5 que esperamos que desempeñen un papel importante en los próximos meses.

Lo que hemos visto hasta ahora:
  • Una disminución sustancial en los costos de inferencia
  • Modelos de razonamiento más sensatos
  • Un consumo cada vez mayor de recursos digitales
  • El regreso de los modelos de mezcla de expertos (MoE)
  • La IA va por detrás de la retórica
Lo que veremos a continuación:
  • Saturación y diversificación de los puntos de referencia
  • Más allá de los modelos de transformadores
  • IA incorporada, robótica y modelos mundiales
  • Privacidad frente a personalización
  • Compañeros de trabajo de IA y consecuencias emocionales

Las tendencias en IA están impulsadas no solo por los avances en los propios modelos de IA y algoritmos de IA, sino también por la gama cada vez mayor de casos de uso a los que se aplican las capacidades de IA generativa. A medida que los modelos se vuelven más capaces, versátiles y eficientes, también lo hacen las aplicaciones de IA, las herramientas de IA y otros flujos de trabajo impulsados por IA que habilitan. Por lo tanto, una verdadera comprensión de cómo está evolucionando el ecosistema de IA actual requiere una comprensión contextual de las causas y efectos de los avances en el machine learning.

Este artículo explora principalmente las tendencias en curso cuyo impacto en el mundo real podría realizarse en un horizonte de meses: en otras palabras, tendencias con impacto tangible principalmente en el año 2025. Hay, por supuesto, otras iniciativas de IA que son más perennes y familiares. Por ejemplo, aunque hubo movimientos recientes hacia vehículos completamente autónomos en sectores aislados (se lanzaron proyectos piloto de robotaxi en algunas ciudades de Estados Unidos, con pruebas adicionales en el exterior, en Oslo, Ginebra y 16 ciudades chinas), es probable que aún falten años para que se generalicen.

Muchas otras macrotendencias importantes en IA, como la llegada de los agentes de IA, o la interrupción de los comportamientos de búsqueda y SEO por parte de la IA, son amplias, multifacéticas y ya están bien cubiertas en otros lugares, por lo que se quedaron fuera en favor de desarrollos más enfocados que no han recibido tanta atención mediática generalizada.

Dicho esto, sigamos con la lista.

Diseño 3D de pelotas rodando en una pista

Las últimas novedades e insights sobre IA

Descubra insights y noticias de expertos sobre IA, la nube y mucho más en el boletín semanal Think. 

Lo que hemos visto

El progreso no requiere necesariamente una afluencia constante de nuevas ideas. Muchas de las tendencias más importantes de IA en la primera mitad de 2025 reflejan cambios en la forma en que la industria está aplicando las ideas existentes: algunas pragmáticas y productivas, otras menos.

Disminución drástica de los costos de inferencia

Los modelos actuales no solo son mucho mejores que los de antaño, sino también mucho más baratos. Considere este gráfico de SemiAnalysis: en menos de 2 años, el precio por token para lograr resultados equivalentes en el punto de referencia MMLU disminuyó docenas de veces. Esto no es nuevo para nadie que siguió las métricas de rendimiento de cada generación sucesiva de modelos. Pero visto en conjunto, este ritmo de mejora en constante aceleramiento ilustra mejor los argumentos a favor del revuelo publicitario de la IA generativa que las ya impresionantes capacidades de los modelos actuales.

Un estudio estima que el ritmo de mejora algorítmica es de aproximadamente un 400 % anual: en otras palabras, los resultados de hoy se pueden lograr un año después utilizando una cuarta parte del cómputo, y eso sin tener en cuenta las mejoras simultáneas en la computación (consulte: Ley de Moore) o datos de entrenamiento sintéticos. Se rumoreaba que el GPT-4 original tenía alrededor de 1.8 billones de parámetros,1 logró un puntaje del 67 % en HumanEval, un punto de referencia popular para el rendimiento de la programación. IBM Granite 3.3 2B Instruct, lanzado 2 años después y 900 veces más pequeño, logró una puntuación del 80.5 %.2

Esta expansión exponencial de la economía modelo, más que nada, es lo que potencia la era emergente de los agentes de IA. Los modelos de lenguaje grandes (LLM) se están volviendo más prácticos incluso más rápido de lo que se están volviendo más capaces, lo que permite el despliegue de sistemas complejos de múltiples agentes en los que un cuadro de modelos puede planificar, ejecutar y coordinar tareas complejas de forma autónoma, sin inferencias vertiginosas de costos.

Modelos de razonamiento más sensatos

El lanzamiento de o1 de OpenAI introdujo una nueva vía para aumentar el rendimiento del modelo. Su asombrosa mejora sobre el punto de referencia anterior en pruebas matemáticas y de programación muy técnicas inició una carrera armamentística en los llamados "modelos de razonamiento". Su mayor rendimiento en tareas que requieren una toma de decisiones lógica parece desempeñar un papel importante en el desarrollo de la IA agéntica. Pero como suele ocurrir con la tecnología de IA, el frenesí inicial por el rendimiento bruto dio paso más recientemente a la búsqueda de la aplicación más práctica.

La intuición detrás de los modelos de razonamiento proviene de la investigación que demuestra que ampliar el cálculo en tiempo de prueba (utilizado para generar un resultado) podría mejorar el rendimiento del modelo tanto como ampliar el cálculo en tiempo de entrenamiento (utilizado para entrenar un modelo). Esto insight manifiesta en técnicas para afinar los modelos de manera que incentiven la generación de "procesos de pensamiento" más largos y complejos antes de un resultado final, una escuela de técnicas ampliamente llamada escala de inferencia.

Pero el escalado de la inferencia también implica un aumento de los costos de inferencia y de la latencia. Los usuarios deben pagar (y esperar) por todos los tokens que el modelo genera mientras "piensan" en las respuestas finales, y esos tokens de pensamiento consumen la ventana de contexto disponible. Hay casos de uso que justifican ese tiempo y cálculo extra, pero también hay muchos escenarios en los que es una pérdida de recursos. Sin embargo, pasar constantemente de un modelo de razonamiento a un modelo "estándar" tarea por tarea e instrucción por instrucción es poco práctico.

Por ahora, la solución son los "modelos híbridos de razonamiento". En febrero, IBM Granite 3.2 se convirtió en el primer LLM en ofrecer un modo de "pensamiento" conmutable, que permite a los usuarios aprovechar el razonamiento cuando lo necesitan y priorizar la eficiencia cuando no lo necesitan.3 Claude 3.7 Sonnet de Anthropic hizo lo propio ese mismo mes, agregando la posibilidad de que los usuarios de la API controlaran con precisión el tiempo durante el que el modelo "piensa".4 Google introdujo una función similar de modularidad "pensante" para Gemini 2.5 Flash.5 Qwen3 de Alibaba y, al igual que IBM Granite, permite activar o desactivar el pensamiento.

La investigación en curso tiene como objetivo aumentar aún más nuestra comprensión de lo que realmente está sucediendo mientras los modelos de razonamiento “piensan”, y la medida en que los rastros de razonamiento extendidos de la Cadena de Pensamiento (CoT) realmente contribuyen a los resultados. Un documento publicado en abril sugiere que para algunas tareas, los modelos de razonamiento pueden ser efectivos sin dar resultados. En tanto, la investigación antrópica de principios de ese mes aseveró que los resultados de CoT mostrados al usuario podrían no reflejar realmente lo que el modelo realmente está “pensando”.

Un consumo grande de recursos digitales

El desarrollo de la IA siempre ha dependido en gran medida del aprovechamiento de los repositorios de conocimiento de código abierto, como Wikipedia y GitHub. Su importancia solo aumentará, especialmente después de las revelaciones de alto perfil de que los principales desarrolladores de IA han estado entrenando modelos en torrents de libros pirateados,lo que presumiblemente desalentará el uso continuo de esas fuentes alternativas. Para las organizaciones que ejecutan recursos invaluables de código abierto, la situación ya está causando una gran tensión.

Si bien un grupo de demandas ha creado concientización sobre los daños de la recopilación de datos, ya sean legales, ilegales o ambiguos, sobre la propiedad intelectual, se ha prestado menos atención a cómo el hambre de datos de los sistemas de IA daña los repositorios de conocimiento. Como articuló la Fundación Wikimedia en un anuncio de abril sobre el tráfico de bots, "[su] contenido es gratuito, [su] infraestructura no". Wikimedia, en particular, ha experimentado una avalancha potencialmente insostenible de tráfico web por parte de los bots de scraping que recopilan datos para entrenar modelos de IA generativa. Desde enero de 2024, el ancho de banda utilizado para descargar contenido multimedia de Wikimedia ha crecido en un 50 %.

El aumento del volumen de tráfico en sí mismo es preocupante, pero es la naturaleza de ese tráfico lo que ejerce una presión desproporcionada sobre los recursos finitos. El comportamiento de navegación humana es predecible: nuestro tráfico se agrupa en páginas populares y sigue patrones lógicos, lo que permite estrategias de automatización y almacenamiento en caché que asignan ancho de banda de manera eficiente. Pero a diferencia de los humanos, los bots rastrean indiscriminadamente páginas oscuras, lo que a menudo obliga a los centros de datos a atenderlas directamente. Esto no solo es costoso e ineficiente en circunstancias normales, sino potencialmente desastroso en situaciones en las que la infraestructura necesita responder a picos de uso reales.

Como informaArs Technica , este problema está muy extendido y se ve agravado por lo que muchos ven como un comportamiento deliberadamente depredador por parte de los rastreadores de bots y las empresas que los operan. Varios, como Perplexity, fueron acusados de eludir subrepticiamente el archivo robots.txt. e incluso eludir los muros de pago para extraer datos. Cuando los sitios web intentan limitar la velocidad de acceso de los bots, los bots se cambian a diferentes IP; cuando su ID se bloquea directamente, cambian a cadenas de ID alternativas. Un administrador de infraestructura de código abierto, que descubrió que casi el 25 % del tráfico de su red provenía de bots de ChatGPT, lo describió como "literalmente un DDoS en todo Internet".

En respuesta, muchos proyectos están buscando activamente medidas defensivas. Un proyecto de código abierto, Anubis, obliga a los bots a resolver acertijos de cálculo antes de obtener acceso. Otro, Nepenthes, envía rastreadores de IA por un "laberinto infinito". Cloudflare, un destacado proveedor de infraestructura web, lanzó recientemente una característica que llaman "IA Labyrinth", que utiliza un enfoque similar (aunque menos agresivo). Wikimedia está organizando una nueva iniciativa, WE5: Responsible Use of Infrastructure, dirigida a una solución estructural.

La capacidad del desarrollo de IA comercial y los repositorios de conocimiento abiertos para desarrollar en colaboración un protocolo mutuamente adecuado tendrá un tremendo impacto no solo en el futuro de la IA, sino también en el futuro de Internet.

El regreso de la mezcla de modelos expertos

Aunque el concepto detrás de los modelos de mezcla de expertos (MoE) se remonta a 1991, no entró en el procesamiento de lenguaje natural (PLN) convencional ni en la IA generativa hasta el lanzamiento de Mistral AI de su modelo Mixtral a finales de 2023.6 Aunque el modelo y su arquitectura recibieron mucha atención, y se rumoreaba (aunque nunca se confirmó) que el GPT-4 de OpenAI sería un MoE tras su lanzamiento, en gran medida no motivó a la industria a desviarse de su enfoque en los modelos “densos” convencionales. LLM.

Ese enfoque parece haber cambiado después de DeepSeek-R1. DeepSeek-R1, y el modelo base DeepSeek-v3 a partir del cual fue ajustado, demostraron de manera concluyente que los modelos MoE eran perfectamente capaces de ofrecer un rendimiento de vanguardia para complementar su eficiencia computacional ya comprobada.

Ese interés revitalizado en los modelos MoE dispersos es evidente en la ola actual de modelos de próxima generación, incluidos (entre otros) Meta Llama 4, Qwen3 de Alibaba e IBM Granite 4.0,que utilizan la arquitectura. También es posible que algunos de los principales modelos cerrados de OpenAI, Anthropic o Google sean MoE, aunque rara vez se divulga esa información sobre la arquitectura de modelos cerrados.

A medida que la capacidad y el rendimiento impresionantes se comercializan cada vez más en los próximos años, es probable que la velocidad de inferencia y la eficiencia que ofrecen los modelos dispersos se conviertan en una prioridad más alta.

La acción va por detrás de la retórica de la IA

El futuro siempre es difícil de predecir. El vertiginoso ritmo de mejora de las generaciones anteriores de modelos de IA hizo que muchos esperaran que la generación de modelos que se lanzará en 2025 diera pasos significativos hacia la inteligencia general artificial (AGI). Si bien los últimos modelos de OpenAI, Meta y los otros actores más financiados en el espacio de la IA son sin duda impresionantes, ciertamente no son revolucionarios.

Por el lado de la implementación práctica, el progreso ha sido desigual. Muchos líderes empresariales que eran optimistas sobre las perspectivas de adopción de la IA de su organización a finales de 2023 pasaron 2024 dándose cuenta de que la infraestructura de TI de su organización aún no estaba lista para escalar la IA.

Un refrán común entre los analistas de IA es que la IA se hará cargo de tareas mundanas y repetitivas y liberará tiempo para que los humanos se centren en el pensamiento creativo y el panorama general. Pero hasta ahora, los datos sobre la adopción de la IA no necesariamente reflejan eso en la realidad. Un estudio realizado por el Institute for Business Value (IBV) de IBM encontró que ocurría lo contrario, al menos en la cadena de suministro de contenidos de la industria de venta minorista: el 88 % de los minoristas informaron el uso de la IA generativa para la “ideación/concepto creativo” y el 74 % informó usarlo para la “creación y edición de contenido”. Mientras tanto, la mayor parte del trabajo mundano sigue siendo territorio humano: solo el 23 % de los minoristas utilizan IA generativa para generar variaciones de contenido por canal y solo el 10 % la utiliza para generar variaciones de contenido por ubicación geográfica.

En general, no es que las organizaciones no estén buscando activamente la adopción de la IA (un nuevo informe de IBV muestra que definitivamente sí, particularmente con respecto a los agentes de IA), sino que no está sucediendo a un ritmo directo y lineal. La transición de la experimentación a la operacionalización formal rara vez es fluida.

Mixture of Experts | 12 de diciembre, episodio 85

Decodificación de la IA: Resumen semanal de noticias

Únase a nuestro panel de ingenieros, investigadores, responsables de producto y otros profesionales de talla mundial que se abren paso entre el revuelo de la IA para ofrecerle las últimas noticias e insights al respecto.

Lo que veremos a continuación

Para la segunda mitad de 2025 (y hasta principios del próximo año), habrá piezas para una interrupción significativa de algunos aspectos del status quo vigente desde los primeros días de la era de IA generativa en curso.  

Saturación y diversificación de los puntos de referencia de la IA

En un nivel fundamental, no existe un punto de referencia (o conjunto de puntos de referencia) perfecto para el rendimiento de la IA. Cualquier punto de referencia está sujeto a la Ley de Goodhart: "Cuando una medida se convierte en un objetivo, deja de ser una buena medida". Sin embargo, el beneficio del desarrollo de modelos, y de los líderes empresariales encargados de elegir soluciones y modelos de IA específicos, es tener medidas de rendimiento estandarizadas y administradas de forma transparente para facilitar las comparaciones de manzanas con manzanas.

El primer conjunto "estándar" de puntos de referencia en torno a los que se fusionó la industria fueron los utilizados por Open LLM Leaderboard on Hugging Face. Cuando sus puntos de referencia se saturaron, en otras palabras, cuando la mayoría de los modelos lograban puntajes de evaluación tan altos que era difícil diferenciarlos, la tabla de clasificación adoptó nuevas evaluaciones significativamente más desafiantes en junio de 2024. Una vez más, tanto los modelos de código abierto como los cerrados se fusionaron en torno a la evaluación del rendimiento utilizando los puntos de referencia de evaluación de la tabla de clasificación "V2". Pero en marzo de 2025, Hugging Face retiró por completo la tabla de clasificación de Open LLM.

El retiro de la tabla de clasificación y el alejamiento del conjunto estándar de puntos de referencia que defendía ha causado, y fue causado por, una diversificación de la forma en que usamos los modelos y evaluamos su rendimiento.

  • Los modelos especializados en un dominio específico, como la programación o las matemáticas, quizás se sirvan mejor para informar solo sobre evaluaciones relevantes para el dominio e ignorar puntos de referencia más generalizados o no de dominio.
  • Los modelos de IA multimodal deben demostrar rendimiento en algo más que las tareas específicas de texto que evalúan los puntos de referencia de la tabla de clasificación. Los desarrolladores de modelos multimodales pueden optar por informar las evaluaciones que consideren más relevantes o favorables, en lugar de abrumar a los lectores con docenas de números.
  • Los conjuntos de datos de punto de referencia específicos han estado en uso durante tanto tiempo que algunas de sus tareas ahora pueden filtrarse, intencional o involuntariamente, en conjuntos de datos de entrenamiento de modelos. Esto pondría en peligro las propias evaluaciones.
  • Dependiendo del uso específico de la IA, algunos puntos de referencia pueden no ser importantes. Por ejemplo, probablemente no importe si un modelo optimizado para su despliegue en aplicaciones móviles o simples agentes de IA tiene un bajo rendimiento en GPQA (que mide el conocimiento a nivel de doctorado).

Ha habido cierto impulso para utilizar métodos de comparación de modelos más cualitativos, como el popular Chatbot Arena, en lugar de evaluaciones cuantitativas. Pero esos también son imperfectos. Un artículo reciente publicado por una serie de respetados investigadores académicos y de código abierto alegó varias prácticas problemáticas de Chatbot Arena que favorecen en gran medida a los proveedores de modelos más grandes. Ese documento siguió a las acusaciones de que Meta jugó con Chatbot Arena durante el lanzamiento de Llama 4.

La realidad es que no existe el mejor punto de referencia. La mejor práctica es probablemente que las organizaciones desarrollen sus propios puntos de referencia que reflejen mejor el rendimiento en las tareas que les interesan. Una empresa no contrataría a un empleado basándose únicamente en una prueba de coeficiente intelectual y tampoco debería elegir un modelo basado únicamente en pruebas estandarizadas.

Transformadores trascendentes

Introducidos por primera vez en 2017, los modelos transformadores son en gran medida responsables de la era de la IA generativa, y siguen siendo la columna vertebral de todo, desde la generación de imágenes hasta los modelos de series temporales y los LLM. Aunque los transformadores ciertamente no van a ir a ninguna parte en el corto plazo, están a punto de tener empresa.

Los transformadores tienen una debilidad crucial: sus necesidades computacionales se escalan cuadráticamente con el contexto. En otras palabras, cada vez que se duplica la longitud de su contexto , la autoatención no solo utiliza el doble de recursos, sino que utiliza el cuádruple de recursos. Este “cuello de botella cuadrático” limita inherentemente la velocidad y la eficiencia de los LLM convencionales, especialmente en secuencias más largas o cuando se incorpora información anterior en un intercambio prolongado. La optimización continua de la arquitectura del transformador continúa produciendo modelos de frontera más sólidos, pero se están volviendo extremadamente costosos.

Mamba, presentado por primera vez en 2023, es un tipo diferente de arquitectura de modelos, específicamente un modelo de espacio de estado, y está preparado para dar a los transformadores su primera competencia seria en el mundo de los LLM. La arquitectura ha demostrado ser capaz de hacer coincidir los transformadores en la mayoría de las tareas de modelado de lenguaje (con la excepción de las tareas de aprendizaje en contexto, como las instrucciones few-shot) y sus necesidades computacionales se escalan linealmente con la longitud del contexto. En pocas palabras, la forma en que Mamba entiende el contexto es inherentemente más eficiente: el mecanismo de autoatención del transformador debe observar cada token y decidir repetidamente a cuál prestar atención; el mecanismo de selectividad de Mamba solo conserva los tokens que determina que son importantes.

Cuando se trata de transformadores o mamba, el futuro de la IA probablemente no sea una situación de “uno u otro”: de hecho, la investigación sugiere que un híbrido de los dos es mejor que cualquiera por separado. El año pasado se lanzaron varios modelos mamba o híbridos mamba/transformador. La mayoría han sido modelos de investigación académica, con excepciones notables como Codestral Mamba de Mistral IA y la serie híbrida Jamba de AI2I. Más recientemente, la próxima serie IBM Granite 4.0 utilizará un híbrido de arquitecturas de transformador y Mamba-2.

Lo más importante es que los reducidos requisitos de hardware de Mamba y los modelos híbridos reducirán significativamente los costos de hardware, lo que a su vez ayudará a continuar democratizando el acceso a la IA.

IA incorporada y modelos mundiales

El advenimiento de los modelos de IA marcó la expansión de los LLM más allá del texto, pero la próxima frontera del desarrollo de IA tiene como objetivo llevar esas habilidades multimodales al mundo físico.

Este campo emergente se enmarca en gran medida bajo el título de “IA incorporada”. Las empresas de capital de riesgo están invirtiendo cada vez más fondos en nuevas empresas que buscan tecnología humanoide avanzada impulsada por IA generativa, como Skild IA, Physical Intelligence y 1X Technologies.

Otra corriente de investigación se centra en los “modelos mundanos” que tienen como objetivo modelar las interacciones del mundo real de manera directa y holística, en lugar de indirecta y discretamente a través de los medios del lenguaje, la imagen y los datos de video. World Labs, una startup encabezada por Fei-Fei Li de Stanford, famosa por, entre otras cosas, el conjunto de datos ImageNet que ayudó a allanar el camino para la visión artificial moderna,recaudó 230 millones de dólares a fines del año pasado.

Algunos laboratorios en este espacio están realizando experimentos en “mundos virtuales”, como videojuegos: Genie 2 de Google DeepMind, por ejemplo, es “un modelo mundial fundacional capaz de generar una variedad infinita de entornos 3D jugables y controlables por acción. Naturalmente, la industria de los videojuegos podría ser la primera beneficiaria directa del potencial económico de los modelos mundanos.

Muchos de los principales expertos en IA, incluido Yann LeCun, científico jefe de IA de Meta y uno de los tres “padrinos del aprendizaje profundo”, 7 creen que los modelos mundanos, no los LLM, son el verdadero camino hacia la AGI. En comentarios públicos, LeCun alude a menudo a la paradoja de Moravec, la noción contraintuitiva de que en la IA, las habilidades de razonamiento complejas son sencillas, pero simples tareas sensoriomotrices y de percepción que un niño puede hacer fácilmente no lo son.8

En este sentido, algunos esfuerzos de investigación interesantes tienen como objetivo enseñar a la IA a comprender conceptos, en lugar de solo palabras, incorporando esa IA en un robot y enseñándola de la forma en que enseñamos cosas a los bebés.

Privacidad frente a IA personalizada

La promesa a largo plazo de los agentes de IA es que emplearán la IA para llevar a cabo tareas complejas y específicas del contexto de forma autónoma con poca o ninguna intervención humana. Para poder personalizar su toma de decisiones a las necesidades específicas y contextualmente intrincadas de un lugar de trabajo o situación determinados, de la forma en que lo haría un empleado o asistente competente, un agente de IA necesita aprender en el trabajo. En otras palabras, debe conservar un historial estable de cada interacción generada por IA y cómo fue.

Pero recopilar y retener esa memoria permanente de cada interacción puede estar en desacuerdo con las nociones básicas de privacidad digital en IA, especialmente cuando se trabaja con modelos cerrados desplegados en la nube (en lugar de desplegar modelos de código abierto localmente).

Por ejemplo, en abril, OpenAI anunció que ChatGPT ahora recordará automáticamente todas las conversaciones que mantengas con él, en cumplimiento del objetivo de OpenAI de desarrollar "sistemas de IA que lleguen a conocerte a lo largo de tu vida". Pero, en particular, la característica no estuvo disponible en la UE, el Reino Unido, Suiza, Noruega, Islandia o Liechtenstein, presumiblemente porque infringe sus leyes de privacidad y regulaciones de IA existentes.9

Queda por ver si el concepto de un modelo no solo guarda todas sus interacciones personalizadas con usted, sino que también las utiliza para el entrenamiento y la optimización del modelo, es fundamentalmente compatible con conceptos básicos del RGPD como el "derecho al olvido". .”

Compañeros de trabajo de IA y consecuencias emocionales

De hecho, el futuro de la IA, y especialmente de los agentes de IA, será cada vez más personal—hasta el punto de que el impacto de la IA podría trascender las consideraciones tecnológicas o económicas y cruzar al territorio psicológico.

A fines de 2024, el director ejecutivo (CEO) de IA de Microsoft, Mustafa Suleyman, escribió una entrada en el blog en la que declaraba el objetivo de su empresa de "crear un compañero de IA para todos". En una reciente entrevista de podcast, el director ejecutivo (CEO) de Meta, Mark Zuckerberg, propuso "amigos de IA" como una solución a la epidemia de soledad de la nación.10 Una variedad cada vez mayor de empresas emergentes está implementando compañeros de trabajo de IA.

Esto conlleva un peligro inherente, derivado principalmente de la predisposición histórica de la humanidad a apegarse emocionalmente incluso a los primeros chatbots rudimentarios. Con millones de personas interactuando con chatbots personalizados todos los días, los riesgos del vínculo emocional con los compañeros de trabajo de IA serán complejos, consecuentes y difíciles de evitar.

De cara al futuro

A medida que avanzamos en un año crucial para la inteligencia artificial, comprender las tendencias emergentes y adaptarse a ellas es fundamental para maximizar el potencial, minimizar el riesgo y escalar de manera responsable la adopción de la IA generativa.

Soluciones relacionadas
IBM® watsonx.ai

Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Diseñe aplicaciones de IA en menos tiempo y con menos datos.

Explore watsonx.ai
Soluciones de inteligencia artificial

Ponga a trabajar la IA en su negocio con la experiencia en IA líder del sector y la cartera de soluciones de IBM a su lado.

Explore las soluciones de IA
Consultoría y servicios de inteligencia artificial (IA)

Los servicios de IA de IBM Consulting ayudan a reinventar la forma en que las empresas trabajan con IA para la transformación.

Explore los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida del desarrollo de IA. Produzca potentes soluciones de IA con interfaces fáciles de usar, flujos de trabajo y acceso a API y SDK estándar de la industria.

Explore watsonx.ai Reserve una demostración en vivo
Notas de pie de página

¹ “GPT-4 architecture, datasets, costs and more leaked,” The Decoder, 11 de julio de 2023
² “IBM Granite 3.3 2B model card”Hugging Face, 16 de abril de 2025
³  “Bringing reasoning to Granite,” IBM, 7 de febrero de 2025
⁴ “Claude 3.7 Sonnet and Claude Code,” Anthropic, 24 de febrero de 2025
⁵  “Gemini Thinking,” Google, 2025.
⁶ “Adaptive Mixtures of Local Experts,” Neural Computation, 1 de marzo de 1991
⁷ “Turing Award 2018: Novel Prize of computing given to ‘godfathers of AI’,” The Verge, 27 de marzo de 2019
⁸ @YLeCun on X (formerly Twitter), via X, 20 de febrero de 2024
⁹ “ChatGPT will now remember your old conversations,” The Verge, 11 de abril de 2025
¹⁰ “Meta CEO Mark Zuckerberg Envisions a Future Where Your Friends Are AI Chatbots—But Not Everyone Is Convinced,” Entrepreneur, 8 de mayo de 2025