Mi IBM Iniciar sesión Suscríbase

¿Qué es el aprendizaje por transferencia?

12 febrero 2024

Autores

Jacob Murel Ph.D.

Senior Technical Content Creator

Eda Kavlakoglu

Program Manager

El aprendizaje por transferencia utiliza modelos preentrenados de una tarea o conjunto de datos de machine learning para mejorar el rendimiento y la generalizabilidad en una tarea o conjunto de datos relacionados.

El aprendizaje por transferencia es una técnica de machine learning en la que el conocimiento adquirido a través de una tarea o conjunto de datos se utiliza para mejorar el rendimiento del modelo en otra tarea relacionada y/o diferente conjunto de datos.1 En otras palabras, el aprendizaje por transferencia utiliza lo aprendido en un entorno para mejorar la generalización en otro entorno.2 El aprendizaje por transferencia tiene muchas aplicaciones, desde resolver problemas de regresión en ciencia de datos hasta entrenar modelos de aprendizaje profundo. De hecho, resulta especialmente atractivo para estos últimos dada la gran cantidad de datos necesarios para crear redes neuronales profundas.

Los procesos de aprendizaje tradicionales construyen un nuevo modelo para cada nueva tarea, basado en los datos etiquetados disponibles. Esto se debe a que los algoritmos tradicionales de machine learning asumen que los datos de entrenamiento y de prueba proceden del mismo espacio de características, por lo que si la distribución de datos cambia, o el modelo entrenado se aplica a un nuevo conjunto de datos, los usuarios deben volver a entrenar un nuevo modelo desde cero, incluso si se intenta una tarea similar a la del primer modelo (por ej., clasificador de análisis de sentimientos de comentarios de películas frente a comentarios de canciones). Sin embargo, los algoritmos de aprendizaje por transferencia toman como punto de partida modelos o redes ya entrenados. Después aplica los conocimientos del modelo adquiridos en una tarea o datos de origen inicial (p. ej., clasificar los comentarios de películas) en función de una tarea o datos objetivo nuevos, aunque relacionados (p. ej., clasificar comentarios de canciones).3

Diseño 3D de pelotas rodando en una pista

Las últimas novedades e insights sobre IA 


Descubra insights y noticias de expertos sobre IA, la nube y mucho más en el boletín semanal Think. 

Ventajas y desventajas del aprendizaje por transferencia

Ventajas

- Costos computacionales. El aprendizaje por transferencia reduce los costos computacionales necesarios para construir modelos para nuevos problemas. Al reutilizar modelos previamente entrenados o redes preentrenadas para abordar una tarea diferente, los usuarios pueden reducir la cantidad de tiempo de entrenamiento del modelo, los datos de entrenamiento, las unidades de procesador y otros recursos informáticos. Por ejemplo, puede ser necesario un menor número de épocas, es decir, de pasadas por un conjunto de datos, para alcanzar la tasa de aprendizaje deseada. De esta manera, el aprendizaje por transferencia puede acelerar y simplificar los procesos de entrenamiento de modelos.

- Tamaño del conjunto de datos. En particular, el aprendizaje por transferencia ayuda a aliviar las dificultades involucradas en la adquisición de grandes conjuntos de datos. Por ejemplo, los modelos de lenguaje de gran tamaño (LLM) requieren grandes cantidades de datos de entrenamiento para obtener un rendimiento óptimo. Los conjuntos de datos de calidad disponibles públicamente pueden ser limitados, y producir suficientes datos etiquetados manualmente puede llevar mucho tiempo y resultar costoso.

- Generalización. Si bien el aprendizaje por transferencia ayuda a optimizar el modelo, puede aumentar aún más la generalización del modelo. Dado que el aprendizaje por transferencia implica el reentrenamiento de un modelo existente con un nuevo conjunto de datos, el modelo reentrenado constará de conocimientos adquiridos a partir de múltiples conjuntos de datos. Potencialmente mostrará un mejor rendimiento en una variedad más amplia de datos que el modelo base inicial capacitado con un solo tipo de conjunto de datos. De este modo, el aprendizaje por transferencia puede inhibir el sobreajuste.4

Por supuesto, la transferencia de conocimientos de un dominio a otro no puede compensar el impacto negativo de los datos de mala calidad. Las técnicas de preprocesamiento y la ingeniería de características, como el aumento de datos y la extracción de características, siguen siendo necesarias cuando se emplea el aprendizaje por transferencia.

Desventajas

No se trata tanto de que haya desventajas inherentes al aprendizaje por transferencia como de que existan posibles consecuencias negativas derivadas de su aplicación incorrecta. El aprendizaje por transferencia funciona mejor cuando se cumplen tres condiciones:

  • Ambas tareas de aprendizaje son similares
  • Las distribuciones de datos de los conjuntos de datos de origen y destino no varían demasiado
  • Un modelo comparable se puede aplicar a ambas tareas

Cuando no se cumplen estas condiciones, el aprendizaje por transferencia puede afectar negativamente el rendimiento del modelo. La literatura se refiere a esto como transferencia negativa. La investigación en curso propone una variedad de pruebas para determinar si los conjuntos de datos y las tareas cumplen con las condiciones anteriores y, por lo tanto, no darán como resultado una transferencia negativa.5 La transferencia a distancia es un método desarrollado para corregir la transferencia negativa que resulta de una disimilitud demasiado grande en las distribuciones de datos de los conjuntos de datos de origen y destino.6

Tenga en cuenta que no existe una métrica estándar generalizada para determinar la similitud entre las tareas para el aprendizaje por transferencia. Sin embargo, algunos estudios proponen diferentes métodos de evaluación para predecir similitudes entre conjuntos de datos y tareas de machine learning y, por lo tanto, la viabilidad del aprendizaje por transferencia.7

Mixture of Experts | Podcast

Decodificación de la IA: Resumen semanal de noticias

Únase a nuestro panel de ingenieros, investigadores, responsables de producto y otros profesionales de talla mundial que se abren paso entre el revuelo de la IA para ofrecerle las últimas noticias e insights al respecto.

Tipos de aprendizaje por transferencia

Hay tres prácticas adyacentes o subentornos de aprendizaje por transferencia. Su distinción entre sí, así como la transferencia del aprendizaje de manera más amplia, se debe en gran medida a los cambios en la relación entre el dominio de origen, el dominio de destino y las tareas a completar. 8

- Transferencia inductiva. Esto es cuando las tareas de origen y destino son diferentes, independientemente de cualquier diferencia o similitud entre los dominios de destino y de origen (es decir, conjuntos de datos). Esto puede manifestarse en los modelos de visión artificial cuando se adoptan arquitecturas previamente entrenadas para la extracción de características en grandes conjuntos de datos para un entrenamiento adicional en una tarea específica, como la detección de objetos. El aprendizaje multitarea, que consiste en aprender simultáneamente dos tareas diferentes (como la clasificación de imágenes y la detección de objetos) en el mismo conjunto de datos, puede considerar una forma de transferencia inductiva.9

Aprendizaje no supervisado. Esto es similar a la transferencia inductiva, ya que las tareas de destino y origen son diferentes. Pero en la transferencia inductiva, los datos de origen y/o destino a menudo están etiquetados. Por su nombre, el aprendizaje por transferencia no supervisado no está supervisado , lo que significa que no hay datos etiquetados manualmente.10 En comparación, la transferencia inductiva puede considerarse aprendizaje supervisado. Una aplicación común del aprendizaje no supervisado es la detección de fraudes. Al identificar patrones comunes en un conjunto de datos de transacciones sin etiquetar, un modelo puede aprender a identificar comportamientos desviados como posibles fraudes.

- Transferencia transductiva. Esto ocurre cuando las tareas de origen y destino son las mismas, pero los conjuntos de datos (o dominios) son diferentes. Más específicamente, los datos de origen generalmente se etiquetan mientras que los datos de destino no están etiquetados. La adaptación al dominio es una forma de aprendizaje transductivo, ya que aplica los conocimientos adquiridos al realizar una tarea en una distribución de datos hacia la misma tarea en otra distribución de datos.11 Un ejemplo de aprendizaje por transferencia transductiva es la aplicación de un modelo de clasificación de textos entrenado y probado con comentarios de restaurantes para clasificar comentarios de películas.

Aprendizaje por transferencia frente a ajuste

El aprendizaje por transferencia es distinto del ajuste. Es cierto que en ambos casos se reutilizan modelos de machine learning preexistentes en lugar de formar modelos nuevos. Pero las similitudes terminan ahí. El perfeccionamiento se refiere al proceso de entrenamiento adicional de un modelo en un conjunto de datos de una tarea específica para mejorar el rendimiento en la tarea inicial específica para la que se construyó el modelo. Por ejemplo, se puede crear un modelo de detección de objetos de propósito general empleando conjuntos de imágenes masivos como COCO o ImageNet y, a continuación, capacitar el modelo resultante en un conjunto de datos más pequeño y etiquetado específico para la detección de autos. De este modo, el usuario puede ajustar un modelo de detección de objetos para detectar autos. Por el contrario, el aprendizaje por transferencia significa que los usuarios adaptan un modelo a un nuevo problema relacionado y no al mismo problema.

Transferir casos de uso de aprendizaje

Hay muchas aplicaciones del aprendizaje por transferencia en entornos de machine learning e inteligencia artificial del mundo real. Los desarrolladores y científicos de datos pueden emplear el aprendizaje por transferencia para ayudar en una gran variedad de tareas y combinarlo con otros enfoques de aprendizaje, como el aprendizaje de refuerzo.

Procesamiento del lenguaje natural

Un problema destacado que afecta el aprendizaje por transferencia en el NLP es la falta de coincidencia de características. Las características en diferentes dominios pueden tener diferentes significados y, por lo tanto, connotaciones (por ejemplo, luz significa peso y óptica). Esta disparidad en las representaciones de características afecta las tareas de clasificación de sentimientos, los modelos de lenguaje y más. Los modelos basados en el aprendizaje profundo, en particular, las incrustaciones de palabras, son prometedores para corregir esto, ya que pueden capturar adecuadamente las relaciones semánticas y las orientaciones para las tareas de adaptación del dominio.12

Visión artificial

Dada las dificultades para adquirir suficientes datos etiquetados manualmente para diversas tareas de visión artificial, una gran cantidad de investigaciones examinan las aplicaciones del aprendizaje por transferencia con redes neuronales convolucionales (CNN). Un ejemplo notable es ResNet, una arquitectura de modelo previamente capacitada que demuestra un rendimiento mejorado en tareas de clasificación de imágenes y detección de objetos.13 Investigaciones recientes estudian el renombrado conjunto de datos ImageNet para el aprendizaje por transferencia, argumentando que (en contra de la sabiduría popular de la visión por ordenador) solo se necesitan pequeños subconjuntos de este conjunto de datos para entrenar modelos generalizables confiables.14 Muchos tutoriales de aprendizaje por transferencia para la visión artificial emplean ResNet e ImageNet con la biblioteca keras de TensorFlow.

Soluciones relacionadas

Soluciones relacionadas

IBM watsonx.ai

Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Diseñe aplicaciones de IA en menos tiempo y con menos datos.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia en IA líder en la industria y la cartera de soluciones de IBM a su lado.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Conozca los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida del desarrollo de IA. Produzca potentes soluciones de IA con interfaces fáciles de usar, flujos de trabajo y acceso a API y SDK estándar de la industria.

Explore watsonx.ai Reserve una demostración en vivo
Notas de pie de página

Emilio Soria Olivas,Jose David Martin Guerrero,Marcelino Martinez Sober,Jose Rafael Magdalena Benedito,Antonio Jose Serrano Lopez, Handbook of Research on Machine Learning Applications and Trends: Algorithms, Methods, and Techniques, Information Science Reference, 2009.

2 Ian Goodfellow, Yoshua Bengio, y Aaron Courville, Deep Learning, MIT Press, 2016.

3 Jiawei Han, Micheline Kamber, Jian Pei, Data Mining: Concepts and Techniques, 3.a edición, Elsevier, 2012.

4 Jindong Wang y Yiqiang Chen, Introduction to Transfer Learning: Applications and Methods, Springer, 2023.

5 Wen Zhang, Lingfei Deng, Lei Zhang, Dongrui Wu, "A Survey on Negative Transfer," IEEE/CAA Journal of Automatica Sinica, vol. 10, no. 2, 2023, pp. 305-329, https://arxiv.org/abs/2009.00909.

6 Ben Tan, Yangqiu Song, Erheng Zhong, Qiang Yang, "Transitive Transfer Learning," Proceedings of the 21th ACM SIGKDD International conferencia on Knowledge Discovery and Data Mining, 2015, pp.1155-1164, https:\/\/dl.acm.org\/doi\/10.1145\/2783258.2783295. Ben Tan, Yu Zhang, Sinno Jialin Pan, Qiang Yang, "Domain Distant Transfer," Proceedings of the Thirty-First AAAI conferencia on Artificial Intelligence, 2017, pp. 2604-2610, https:\/\/dl.acm.org\/doi\/10.5555\/3298483.3298614.

7 Changjian Shui, Mahdieh Abbasi, Louis-Émile Robitaille1, Boyu Wang, Christian Gagné, "A Principled Approach for Learning Task Similarity in Multitask Learning," Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence, 2019, pp.3446-3452, https://www.ijcai.org/proceedings/2019/0478.pdf. Kshitij Dwivedi and Gemma Roig, "Representation Similarity Analysis
for Efficient Task taxonomy & Transfer Learning," Proceedings of Conference on Computer Vision and Pattern Recognition, 2019, pp.12387-12396, https://openaccess.thecvf.com/content_CVPR_2019/papers/Dwivedi_Representation_Similarity_Analysis_for_Efficient_Task_Taxonomy__Transfer_Learning_CVPR_2019_paper.pdf. Javier García, Álvaro Visús, and Fernando Fernández, "A taxonomy for similarity metrics between Markov decision processes," Machine Learning, vol. 111, 2022, pp. 4217–4247, https://link.springer.com/article/10.1007/s10994-022-06242-4.

8 Asmaul Hosna, Ethel Merry, Jigmey Gyalmo, Zulfikar Alom, Zeyar Aung y Mohammad Abdul Azim, “Aprendizaje de transferencia: una introducción amigable” Revista de Big Data, vol. 9, 2022, https://journalofbigdata.springeropen.com/articles/10.1186/s40537-022-00652-w. Sinno Jialin Pan y Qiang Yang, "Una encuesta sobre el aprendizaje por transferencia," Transacciones IEEE sobre conocimiento e ingeniería de datos, vol. 22, núm. 10, 2010, pp. 1345-1359, https://ieeexplore.ieee.org/document/5288526.

9 Sinno Jialin Pan and Qiang Yang, "A Survey on Transfer Learning," IEEE Transactions on Knowledge and Data Engineering, vol. 22, no. 10, 2010, pp. 1345-1359, https://ieeexplore.ieee.org/document/5288526. Ricardo Vilalta, "Inductive Transfer," Encyclopedia of Machine Learning and Data Mining, Springer, 2017.

10 Sinno Jialin Pan and Qiang Yang, "A Survey on Transfer Learning," IEEE Transactions on Knowledge and Data Engineering, vol. 22, no. 10, 2010, pp. 1345-1359, https://ieeexplore.ieee.org/document/5288526.

11 Sinno Jialin Pan and Qiang Yang, "A Survey on Transfer Learning," IEEE Transactions on Knowledge and Data Engineering, vol. 22, no. 10, 2010, pp. 1345-1359, https://ieeexplore.ieee.org/document/5288526.
Ian Goodfellow, Yoshua Bengio, and Aaron Courville, Deep Learning, MIT Press, 2016.

12 Qiang Yang, Transfer Learning, Cambridge University Press, 2020. Eyal Ben-David, Carmel Rabinovitz, and Roi Reichart, "PERL: Pivot-based Domain Adaptation for Pre-trained Deep Contextualized Embedding Models," Transactions of the Association for Computational Linguistics, vol. 8, 2020, pp. 504–521, https://aclanthology.org/2020.tacl-1.33.pdf.

 13 Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun, "Deep Residual Learning for Image Recognition", conferencia on Computer Vision and Pattern Recognition (CVPR) , 2016, págs.  770-778, https:\/\/ieeexplore.ieee.org\/document\/7780459.

14 Minyoung Huh, Pulkit Agrawal, y Alexei Efros, " ¿Qué hace que ImageNet sea bueno para el aprendizaje por transferencia? " Laboratorio de Investigación de Inteligencia Artificial de Berkeley (BAIR), 2017, https:\/\/people.csail.mit.edu\/minhuh\/papers\/analysis\/.