La inteligencia artificial, o IA, es tecnología que permite que las computadoras simulen la inteligencia humana y las capacidades humanas de resolución de problemas.
Por sí sola o combinada con otras tecnologías (por ejemplo, sensores, geolocalización, robótica), la IA puede realizar tareas que de otro modo requerirían inteligencia o intervención humana. Los asistentes digitales, la guía por GPS, los vehículos autónomos y las herramientas de inteligencia artificial generativa (como Chat GPT de Open AI) son solo algunos ejemplos de inteligencia artificial en las noticias diarias y en nuestra vida cotidiana.
Como campo de la informática, la inteligencia artificial abarca (y a menudo se menciona junto con) el aprendizaje automático y el aprendizaje profundo. Estas disciplinas implican el desarrollo de algoritmos de IA, modelados a partir de los procesos de toma de decisiones del cerebro humano, que pueden "aprender" de los datos disponibles y realizar clasificaciones o predicciones cada vez más precisas con el tiempo.
La inteligencia artificial ha pasado por muchos ciclos de exageración, pero incluso para los escépticos, el lanzamiento de ChatGPT parece marcar un punto de inflexión. La última vez que la IA generativa fue tan importante, los avances se produjeron en la visión por computadora, pero el salto se produce en el procesamiento de lenguaje natural (PLN). Hoy en día, la IA generativa puede aprender y sintetizar no solo el lenguaje humano sino también otros tipos de datos, como imágenes, vídeos, códigos de software e incluso estructuras moleculares.
Las aplicaciones para la IA crecen cada día. Pero a medida que se dispara el revuelo en torno al uso de herramientas de IA en las empresas, las conversaciones sobre la ética de la IA y la IA responsable se vuelven de vital importancia. Para obtener más información sobre la posición de IBM en estos temas, lea Generar confianza en la IA.
Conozca las barreras para la adopción de IA, en particular la falta de soluciones de gobernanza y gestión de riesgos de IA.
Regístrese para obtener la guía sobre modelos fundacionales
Aunque varias definiciones de inteligencia artificial (IA) han surgido durante las últimas décadas, John McCarthy ofrece la siguiente definición en este documento del 2004 (enlace externo a ibm.com), "Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas informáticos inteligentes. Se relaciona con la tarea similar de usar equipos para comprender la inteligencia humana, pero la IA no tiene que ajustarse a los métodos biológicos observables".
Sin embargo, décadas antes de esta definición, el nacimiento de la conversación sobre inteligencia artificial lo marcó el trabajo fundamental de Alan Turing, "Computing Machinery and Intelligence" (enlace externo a ibm.com), que se publicó en 1950. En este artículo, Turing, a menudo referido como el "padre de la informática", hace la siguiente pregunta: "¿Pueden pensar las máquinas?" A partir de ahí, ofrece una prueba, ahora conocida como la "Prueba de Turing", en la que un interrogador humano intentaría distinguir entre una respuesta de texto de computadora y humana. Si bien esta prueba ha sido objeto de mucho escrutinio desde su publicación, sigue siendo una parte importante de la historia de la IA, así como un concepto continuo dentro de la filosofía, ya que utiliza ideas en torno a la lingüística.
Stuart Russell y Peter Norvig procedieron a publicar Inteligencia Artificial: Un Enfoque Moderno (enlace externo a ibm.com), convirtiéndose en uno de los principales libros de texto en el estudio de IA. En él, profundizan en cuatro posibles objetivos o definiciones de la IA, que diferencia los sistemas informáticos en función de la racionalidad y el pensamiento frente a la actuación:
Enfoque humano:
Enfoque ideal:
La definición de Alan Turing habría caído bajo la categoría de "sistemas que actúan como humanos".
En su forma más simple, la inteligencia artificial es un campo que combina la informática y conjuntos de datos robustos para permitir la resolución de problemas. También engloba los subcampos del aprendizaje automático y el aprendizaje profundo, que se mencionan con frecuencia junto con la inteligencia artificial. Estas disciplinas están compuestas por algoritmos de IA que buscan crear sistemas expertos que hagan predicciones o clasificaciones basadas en datos de entrada.
A lo largo de los años, la inteligencia artificial ha pasado por muchos ciclos de exageración, pero incluso para escépticos, el lanzamiento de ChatGPT de OpenAI parece marcar un punto de inflexión. La última vez que la IA generativa fue tan importante, los avances se produjeron en la visión por ordenador, pero ahora el salto adelante se produce en el procesamiento de lenguaje natural. Y no es solo lenguaje: los modelos generativos también pueden aprender la gramática del código de software, moléculas, imágenes naturales y una variedad de otros tipos de datos.
Las aplicaciones para esta tecnología están creciendo cada día, y apenas estamos empezando a explorar las posibilidades. Pero a medida que se extiende el uso de la IA en las empresas, las conversaciones sobre ética adquieren una importancia crítica. Para leer más sobre dónde se encuentra IBM dentro de la conversación en torno a la ética de la IA, lea más aquí.
La IA débil, también llamada IA estrecha o Inteligencia artificial estrecha (ANI), es una IA entrenada y enfocada para realizar tareas específicas. La IA débil impulsa la mayor parte de la IA que nos rodea hoy. "Estrecho" podría ser un descriptor más preciso para este tipo de IA, ya que no tiene nada de débil; permite algunas aplicaciones muy potentes, como Siri de Apple, Alexa de Amazon, IBM Watson y vehículos autónomos.
La IA robusta está conformada por la inteligencia artificial general (IAG) y la superinteligencia artificial (SIA). La inteligencia artificial general (IAG), o la IA general, es una forma teórica de IA en la que una máquina tendría una inteligencia igual a la de los humanos; sería autoconsciente y tendría la capacidad de resolver problemas, aprender y planificar para el futuro. La superinteligencia artificial (SIA), también conocida como superinteligencia, superaría la inteligencia y la capacidad del cerebro humano.
Si bien la IA robusta todavía es completamente teórica y no tiene ejemplos prácticos de uso actualmente, no significa que los investigadores de IA no estén también explorando su desarrollo. Mientras tanto, los mejores ejemplos de la SIA provienen de la ciencia ficción, como HAL, la malévola computadora superhumana en 2001: Odisea del espacio.
Dado que el deep learning y el machine learning tienden a ser utilizados indistintamente, vale la pena señalar sus diferencias. Como se mencionó anteriormente, ambos son subcampos de la inteligencia artificial, y el deep learning es en realidad un subcampo del machine learning.
En realidad, el aprendizaje profundo se compone de redes neuronales. "Profundo" en el deep learning se refiere a una red neuronal compuesta por más de tres capas (que incluirían las entradas y la salida), que se puede considerar un algoritmo de deep learning.
La diferencia entre el deep learning y el machine learning es cómo aprende cada algoritmo.
El deep learning automatiza gran parte de la fase de extracción de características del proceso, lo que elimina parte de la intervención humana manual necesaria y permite el uso de conjuntos de datos más grandes. El deep learning se podría considerar como "machine learning escalable", tal como Lex Fridman señaló en la misma conferencia del MIT mencionada anteriormente.
El machine learning tradicional, o "non-deep", depende más de la intervención humana para aprender. Los expertos humanos determinan la jerarquía de características para comprender las diferencias entre las entradas de datos, lo que por lo general requiere más datos estructurados para aprender.
El "deep" machine learning puede utilizar los conjuntos de datos etiquetados, también conocidos como aprendizaje supervisado, para informar a su algoritmo, pero no requiere necesariamente un conjunto de datos etiquetados. Puede ingerir datos no estructurados en su forma original (como por ejemplo texto o imágenes) y puede determinar automáticamente la jerarquía de características que distinguen diferentes categorías de datos.
A diferencia del machine learning, no requiere intervención humana para procesar datos, lo que permite escalarlo de maneras más interesantes.
La IA generativa se refiere a modelos de aprendizaje profundo que pueden tomar datos sin procesar; digamos, toda Wikipedia o los trabajos recopilados de Rembrandt, y “aprender” a generar resultados estadísticamente probables cuando se le solicite. En un alto nivel, los modelos generativos codifican una representación simplificada de sus datos de capacitación y los extraen para crear un nuevo trabajo similar, pero no idéntico, a los datos originales.
Los modelos generativos se han utilizado durante años en estadísticas para analizar datos numéricos. Sin embargo, el auge del aprendizaje profundo permitió ampliarlos a imágenes, voz y otros tipos de datos complejos. Entre la primera clase de modelos que lograron esta hazaña cruzada se encuentran los autocodificadores variacionales, o VAE, introducidos en el 2013. Los VAE fueron los primeros modelos de aprendizaje profundo que se usaban ampliamente para generar imágenes y discursos realistas.
“Los VAEs abrieron las puertas al modelado generativo profundo haciendo que los modelos sean más fáciles de escalar”, dijo Akash Srivastava, experto en IA generativa del MIT-IBM watsonx AI Lab. “Gran parte de lo que hoy pensamos como IA generativa comenzó aquí”.
Los primeros ejemplos de modelos, como GPT-3, BERT o DALL-E 2, han demostrado lo que es posible. El futuro son modelos capacitados en un amplio conjunto de datos no etiquetados que se pueden utilizar para diferentes tareas, con un ajuste mínimo de precisión. Los sistemas que ejecutan tareas específicas en un solo dominio están dando paso a una IA amplia que aprende de manera más general y funciona en todos los dominios y problemas. Los modelos fundacionales, entrenados en grandes conjuntos de datos sin etiquetar y ajustados para una variedad de aplicaciones, están impulsando este cambio.
Cuando se trata de IA generativa, se predice que el modelo fundacional acelerarán drásticamente la adopción de IA en la empresa. La reducción de los requisitos de etiquetado hará que sea mucho más fácil para las empresas sumergirse en ella, y la automatización altamente precisa y eficiente impulsada por la IA que permiten significará que muchas más empresas podrán desplegar la IA en una gama más amplia de situaciones de misión crítica. Para IBM, la esperanza es que el poder del modelo fundacional pueda eventualmente llevarse a todas las empresas en un entorno de nube híbrida sin fricciones.
Conoza los modelos fundacionales en watsonx.ai
Hoy en día, existen numerosas aplicaciones reales para sistemas de IA A continuación se presentan algunos de los casos de uso más comunes:
También conocido como reconocimiento automático de voz (ASR), reconocimiento de voz por computadora o conversión de voz a texto, el reconocimiento de voz utiliza PLN para procesar el habla humana en un formato escrito. Muchos dispositivos móviles incorporan reconocimiento de voz en sus sistemas para realizar búsquedas por voz (Siri, por ejemplo) o brindar más accesibilidad para enviar mensajes de texto en inglés o en muchos idiomas ampliamente utilizados. Vea cómo Don Johnston utilizó IBM Watson Text to Speech para mejorar la accesibilidad en el aula con nuestro estudio de caso.
Los agentes virtuales en línea y los chatbots están reemplazando a los agentes humanos a lo largo del recorrido del cliente. Responden preguntas frecuentes (FAQ) sobre temas como el envío, o brindan asesoramiento personalizado, venta cruzada de productos o sugerencias de tamaños para los usuarios, cambiando la forma en que pensamos sobre la participación del cliente en sitios web y plataformas de redes sociales. Los ejemplos incluyen bots de mensajería en sitios de comercio electrónico con agentes virtuales, aplicaciones de mensajería, como Slack y Facebook Messenger, y tareas que generalmente realizan asistentes virtuales y asistentes de voz. Vea cómo Autodesk Inc. utilizó IBM watsonx Assistant para acelerar los tiempos de respuesta de los clientes en un 99 % con nuestro estudio de caso.
Esta tecnología de IA permite que las computadoras y los sistemas deriven información significativa a partir de imágenes digitales, videos y otras entradas visuales, y con base en esas entradas, pueden tomar medidas. Esta capacidad de proporcionar recomendaciones la distingue de las tareas de reconocimiento de imágenes. Gracias a las redes neuronales convolucionales, la visión por ordenador tiene aplicaciones en el etiquetado de fotos en las redes sociales, la obtención de imágenes radiológicas en la sanidad y los coches autónomos en la industria automovilística. Vea cómo ProMare utilizó IBM Maximo para marcar un nuevo rumbo en las investigaciones oceánicas con nuestro caso práctico.
La robótica adaptativa actúa sobre la información de los dispositivos de Internet de las cosas (IoT) y sobre datos estructurados y no estructurados para tomar decisiones autónomas. Las herramientas de PLN pueden comprender el habla humana y reaccionar a lo que se les dice. El análisis predictivo se aplica a la capacidad de respuesta a la demanda, la optimización del inventario y la red, el mantenimiento preventivo y la fabricación digital. Los algoritmos de búsqueda y reconocimiento de patrones, que ya no son solo predictivos, sino jerárquicos, analizan datos en tiempo real, ayudando a las cadenas de suministro a reaccionar a la inteligencia aumentada generada por máquinas, al tiempo que brindan visibilidad y transparencia instantáneas. Vea cómo Hendrickson utilizó IBM Sterling para impulsar transacciones en tiempo real con nuestro estudio de caso.
Los modelos meteorológicos en los que confían las emisoras para hacer pronósticos precisos consisten en algoritmos complejos que se ejecutan en supercomputadoras. Las técnicas de aprendizaje automático mejoran estos modelos haciéndolos más aplicables y precisos. Descubra cómo Emnotion utilizó IBM Cloud para capacitar a las empresas susceptibles a las condiciones meteorológicas para que tomaran decisiones más proactivas y basadas en datos con nuestro estudio de caso.
Los modelos de IA pueden analizar grandes cantidades de datos y descubrir puntos de datos atípicos dentro de un conjunto de datos. Estas anomalías pueden generar visibilidad sobre equipos defectuosos, errores humanos o fallos de seguridad. Vea cómo Netox utilizó IBM QRadar para proteger las empresas digitales de las ciberamenazas con nuestro estudio de caso.
La idea de "una máquina que piensa" se remonta a la antigua Grecia. Pero, desde la aparición de la computación electrónica (y en relación con algunos de los temas tratados en este artículo), ha habido acontecimientos importantes e hitos en la evolución de la inteligencia artificial:
Ponga IBM watsonx a trabajar a escala en su negocio con la experiencia en IA líder del sector y la cartera de soluciones de IBM a su lado.
Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.
La IA está revolucionando la ciberseguridad, ya que analiza cantidades masivas de datos de riesgo para acelerar los tiempos de respuesta y aumentar las operaciones de seguridad con recursos insuficientes.
Aprenda a usar el marco de selección de modelos para seleccionar el modelo fundacional adecuado para las necesidades de su negocio.
Acceda a nuestro catálogo completo de más de 100 cursos en línea comprando una suscripción de aprendizaje digital individual o multiusuario, lo que le permitirá ampliar sus habilidades en una gama de nuestros productos a un precio bajo.
IBM watsonx Assistant es reconocido como la elección de los clientes en el informe Gartner Peer Insights Voice of the Customer de 2023 para plataformas de IA conversacional para empresas
Descubra cómo el aprendizaje automático puede predecir la demanda y reducir los costos.