Inteligencia artificial en un año: Logros y predicciones de IBM Research AI

Compartir esta publicación:

Durante más de 70 años, IBM Research ha inventado, explorado e imaginado el futuro. Hemos sido pioneros en el campo de la inteligencia artificial (IA) desde sus inicios. Estuvimos allí cuando se lanzó el campo en el famoso taller de Dartmouth de 1956. Apenas tres años después, el experto de IBM y gran pionero en la computación, Arthur Samuel, acuñó el término aprendizaje automático. Desde entonces, nuestra mirada siempre se ha fijado en lo que sigue para nosotros y cómo llegaremos allí.

Hoy lanzamos una retrospectiva de 2018 que ofrece un vistazo al futuro de la IA. Hemos curado una colección de 100 artículos de IBM Research AI publicados este año y escritos por investigadores y científicos talentosos de nuestros 12 laboratorios globales. Estos avances científicos son fundamentales para nuestra misión de inventar el siguiente conjunto de tecnologías de IA fundamentales que nos llevarán de la IA “limitada” de hoy a una nueva era de IA “amplia”, donde el potencial de la tecnología puede aprovecharse entre los desarrolladores de IA, empresas y usuarios finales. Broad AI se caracterizará por la capacidad de aprender y razonar de manera más amplia en todas las tareas para integrar la información de múltiples modalidades y dominios, todo mientras es más fácil de explicar, seguro, justo, auditable y escalable.

Destacamos parte del trabajo de este año en tres áreas clave: avanzar, escalar y confiar en la inteligencia artificial y, a medida que nos centramos en el futuro, algunas predicciones sobre lo que está por venir.

Avances de la IA

  • AI que realmente escucha lo que estás diciendo: IBM Research AI presentó una nueva capacidad de máquina que comprende lo que escucha para contenido argumentativo. Partiendo de nuestro trabajo en el Project Debater, esta funcionalidad extiende las capacidades actuales de comprensión del habla de la IA más allá de las simples tareas de respuesta a las preguntas, permitiendo a las máquinas comprender mejor cuando las personas están haciendo argumentos.

  • Si ha visto uno, los ha visto todos: los métodos de la IA de hoy en día a menudo requieren miles o millones de imágenes etiquetadas para entrenar con precisión un modelo de reconocimiento visual, IBM Research AI desarrolló un nuevo método de aprendizaje de “pocos tiros” que puede reconocer con precisión nuevos objetos desde un solo ejemplo, sin necesidad de datos adicionales. Esta capacidad extiende la aplicabilidad de la IA a dominios restringidos por datos.
  • El estudiante se convierte en maestro: dos cabezas son a menudo mejores que una y lo mismo se puede decir de los agentes de inteligencia artificial. Este año, los investigadores de IBM presentaron un marco y algoritmo de primera clase para permitir que los agentes de inteligencia artificial aprendan a enseñarse unos a otros y trabajen en equipo. Al intercambiar conocimientos, los agentes pueden aprender significativamente más rápido que los métodos anteriores y, en algunos casos, pueden aprender a coordinar dónde fallan los métodos existentes.
  • Preguntas y respuestas: IBM Research AI ha detallado una mejora significativa en los enfoques de respuesta a preguntas de dominio abierto (QA), con un nuevo método que reordena y agrega evidencia a través de múltiples pasajes para producir respuestas más precisas. El equipo ha logrado mejoras sustanciales con respecto a los anteriores enfoques de vanguardia en conjuntos de datos de control de calidad de dominio abierto públicos.

Confianza en la IA

  • La batalla para eliminar el sesgo: dado que los sistemas de IA se utilizan cada vez más para apoyar la toma de decisiones, es imperativo que los sistemas de IA sean justos e imparciales. Sin embargo, eliminar el sesgo es un desafío, ya que los datos utilizados para entrenar los sistemas de IA a menudo contienen correlaciones institucionales y sociales intrínsecas que los métodos de aprendizaje estadístico capturan y recapitulan. IBM Research AI construyó un nuevo enfoque para combatir el sesgo, en el que los datos de entrenamiento se transforman para minimizarlo, de manera que cualquier algoritmo de IA que luego se aprende, perpetuará la menor inequidad posible. Al aplicar este método a dos grandes conjuntos de datos públicos, nuestro equipo pudo reducir sustancialmente la discriminación, sin una reducción significativa en la precisión del sistema.

  • Desglosando la “caja negra”: las redes neuronales profundas son, en muchos aspectos, cajas negras: incluso cuando una red llega a una decisión correcta, a menudo es difícil entender por qué se tomó esa decisión. Esta falta de explicación inherente presenta una barrera para la confianza del usuario en los sistemas de IA y hace que sea difícil razonar acerca de los modos de falla potencial. Para abordar estos problemas, los científicos de IBM Research AI desarrollaron una nueva metodología de aprendizaje automático llamada ProfWeight, que investiga una red profunda y construye un modelo más simple que puede alcanzar un rendimiento similar al de la red original. En virtud de su complejidad reducida, estos modelos más simples pueden proporcionar información sobre cómo funcionó la red original y por qué tomó una decisión en lugar de otra. Al probar esta metodología en dos conjuntos de datos masivos, el modelo ProfWeight fue capaz de producir decisiones más explicables, al tiempo que mantenía un alto nivel de precisión.
  • Anticipando ataques adversos: los modelos modernos de aprendizaje automático pueden lograr una precisión de predicción sin precedentes, pero también son sorprendentemente vulnerables a ser engañados por insumos maliciosos cuidadosamente diseñados llamados “ejemplos adversos”. Por ejemplo, un hacker puede alterar imperceptiblemente una imagen tal que un modelo de aprendizaje profundo se engaña al clasificarlo en cualquier categoría que el atacante desee. Cada día se desarrollan nuevos ataques de este tipo en una amplia gama de tareas, desde el reconocimiento de voz hasta el procesamiento del lenguaje natural. Como un paso clave para protegerse contra estos ataques, IBM Research AI ha propuesto una nueva medida de robustez certificada y sin agresión de ataques llamada CLEVER, que se puede utilizar para evaluar la robustez de una red neuronal contra ataques. La puntuación de CLEVER calcula la “fuerza” mínima de ataque necesaria para que un ataque pueda engañar a un determinado modelo de red profunda, facilitando el razonamiento acerca de la seguridad de los modelos de IA, y brindando instrucciones para detectar y defenderse contra ataques en sistemas implementados.

Escalando la IA

  • La precisión de 8 bits acelera el entrenamiento: los modelos de aprendizaje profundo son extremadamente poderosos, pero entrenarlos requiere enormes recursos computacionales. En 2015, IBM presentó un documento histórico que describe cómo entrenar modelos de aprendizaje profundo con una precisión de 16 bits (la mitad de la precisión de 32 bits más utilizada normalmente) sin pérdida de precisión. Los investigadores de IBM ahora han demostrado por primera vez la capacidad de entrenar modelos de aprendizaje profundo con solo 8 bits de precisión, al tiempo que conservan completamente la precisión del modelo en todas las categorías principales de conjuntos de datos de IA, incluyendo imagen, voz y texto. Estas técnicas aceleran el tiempo de entrenamiento para redes neuronales profundas de 2 a 4 veces en los sistemas actuales de 16 bits. Aunque anteriormente no se consideraba factible reducir aún más la precisión de la capacitación, esperamos que nuestra plataforma de capacitación de 8 bits se convierta en un estándar industrial ampliamente adoptado en los próximos años.
  • El nuevo enfoque de la red neuronal en Bloque: BlockDrop, una nueva forma de acelerar la inferencia en redes neuronales muy profundas, aprende a elegir qué capas o “bloques” de la red profunda se deben omitir, reduciendo el cálculo total y manteniendo la precisión. Usando BlockDrop, se obtiene un aumento de velocidad de inferencia del 20% en promedio, llegando a un máximo de 36% para algunas entradas, al tiempo que se mantiene la misma precisión de primer nivel en ImageNet.
  • Diseño al alcance: los investigadores de IBM desarrollaron una nueva técnica de búsqueda de arquitectura neuronal que reduce el trabajo pesado requerido para diseñar una red neuronal. El método define la repetición de patrones de arquitectura neuronal denominados “neurocélulas”, que posteriormente se mejoran a través de un proceso evolutivo. Esta evolución puede diseñar arquitecturas neuronales que logran una precisión de predicción de vanguardia en las tareas de clasificación de imágenes, sin intervención humana, en algunos casos alcanzando una aceleración de hasta 50,000 veces en comparación con los métodos anteriores para la búsqueda de arquitectura neuronal.

Por mucho que vimos avances importantes en 2018, sabemos que el próximo año traerá aún más progreso para la industria de inteligencia artificial. Aquí hay tres tendencias por las que estamos esperando:

  1. La causalidad reemplazará cada vez más las correlaciones: todo el mundo sabe que el canto del gallo al amanecer no “causa” que salga el sol, y que a la inversa, al encender un interruptor sí se enciende una luz. Si bien estas intuiciones sobre la estructura causal del mundo son parte integral de nuestras acciones y juicios cotidianos, la mayoría de nuestros métodos de inteligencia artificial actuales se basan fundamentalmente en las correlaciones y carecen de una comprensión profunda de la causalidad. Los métodos de inferencia causal emergentes nos permiten inferir estructuras causales a partir de datos, seleccionar intervenciones de manera eficiente para probar relaciones causales putativas y tomar mejores decisiones aprovechando el conocimiento de la estructura causal. En 2019, se espera que las técnicas de modelado causal emerjan como actores centrales en el mundo de la IA.
  2. IA de confianza ocupará un lugar central: este año, varias organizaciones respondieron a las violaciones de datos y las preocupaciones de privacidad del consumidor mediante el establecimiento de juntas consultivas de ética y hemos visto una mayor inversión en investigación en los “pilares de la confianza” (equidad algorítmica, explicabilidad, solidez , transparencia), junto con mayores esfuerzos en el despliegue de IA para el bien social. En 2019, comenzaremos a ver que estos esfuerzos se vuelven fundamentales para la forma en que las compañías construyen, entrenan y despliegan tecnologías de inteligencia artificial. Esperamos ver un enfoque especial en la transferencia de avances de investigación en este espacio a productos y plataformas reales, junto con un énfasis en fomentar la diversidad y la inclusión en equipos técnicos, para garantizar que muchas voces y perspectivas guíen el progreso tecnológico.
  3. Quantum podría brindar asistencia a la IA: en 2019 veremos una aceleración de la tracción en la investigación y experimentación cuántica, y una nueva investigación sobre cómo la computación cuántica puede potencialmente desempeñar un papel en la capacitación y ejecución de modelos de IA. Un elemento central de los algoritmos cuánticos es la explotación de espacios de estados cuánticos exponencialmente grandes a través de enredos e interferencias controlables. A medida que crece la complejidad de los problemas de la IA, la computación cuántica, a la que miles de organizaciones ya están accediendo a través de los servicios de computación cuántica en la nube de IBM, podría cambiar la forma en que abordamos las tareas computacionales de la IA.

COO and VP of AI and Quantum, IBM Research

More stories

Novis e IBM ayudan a las empresas mexicanas a acelerar su viaje hacia la nube híbrida

Hoy en día, para ser una empresa líder en cualquier sector es fundamental que las organizaciones reconozcan la transformación digital como la clave para impulsar la eficiencia, la innovación y el crecimiento de su negocio. Liderando esa transformación, está la tecnología de nube híbrida. Esto se ha convertido en una ventaja competitiva que las empresas […]

Continuar leyendo

Acelerar el descubrimiento en ciencia para construir un futuro más sostenible

Para abordar con éxito el cambio climático necesitamos una forma nueva y mucho más eficiente de descubrir nuevos materiales, utilizando ciencia y tecnología de vanguardia. El método científico tradicional de prueba y error, con siglos de antigüedad, ha sido muy útil para la sociedad, pero es increíblemente costoso y requiere mucho tiempo. Con el clima, […]

Continuar leyendo

La seguridad primero: 3 avances clave para el futuro de la criptografía

Pocas empresas argumentarían que sus sistemas de TI no se beneficiarían de medidas de seguridad adicionales. Particularmente en América Latina, considerando el aumento de ciberataques en la región, que representó el 9% del total de ataques observados por IBM Security X-Force en 2020, frente al 5% en 2019. La pregunta en torno a las mejoras de seguridad, […]

Continuar leyendo