topics 퓨샷 러닝 퓨샷(few-shot) 러닝이란 무엇인가요?
IBM의 AI 플랫폼 살펴보기 AI 업데이트 구독
구름 픽토그램, 파이 차트, 그래프 픽토그램이 콜라주된 일러스트
퓨샷(few-shot) 러닝이란 무엇인가요?

퓨샷 러닝은 AI 모델이 매우 적은 수의 레이블이 지정된 예제를 학습하여 정확한 예측을 수행하는 방법을 학습하는 머신 러닝 프레임워크입니다. 일반적으로 적절한 학습 데이터가 부족한 경우 분류 작업을 위한 모델을 학습하는 데 사용됩니다.

퓨샷 러닝(FSL)은 일반적으로 n샷 러닝이라고 일컫는 하위 집합으로, 원샷 러닝(학습할 각 클래스에 대해 레이블이 지정된 예제가 하나만 있음) 및 제로샷 러닝(레이블이 지정된 예제가 전혀 없음)도 포함하는 인공 지능 범주입니다. 원샷 러닝은 본질적으로 FSL의 도전적인 변형일 뿐이지만, 제로샷 러닝은 고유한 방법론이 필요한 별개의 학습 문제입니다.

 원칙적으로 FSL은 소수의 사례에서 학습할 수 있는 인간의 능력을 모방하는 것을 목표로 합니다. 이는 일반적으로 여러 번의 훈련에서 수백(또는 수천)의 레이블이 지정된 데이터 포인트를 사용하여 AI 모델이 데이터 클래스를 인식하도록 교육하는 기존의 지도 학습과는 대조적입니다. 강력한 지도 학습은 일부 실제 환경에서는 비실용적입니다. 엄청난 비용, 데이터에 올바르게 주석을 달기 위해 필요한 도메인별 전문 지식, 또는 고유한 필체, 희귀 질병 또는 멸종 위기에 처한 종과 새로 발견된 종과 같은 시나리오에서는 기존 샘플의 부족으로 인해 라벨이 지정된 예제를 얻는 것이 어려운 경우가 많습니다.

특정 알고리즘과 신경망 아키텍처가 FSL 작업에서 주목할 만한 성공을 거두었지만, 퓨샷 학습은 특정 방법이나 모델 구조의 사용보다는 학습 문제의 특성에 의해 정의됩니다. 퓨샷 학습 방법은 사전 학습된 모델을 유사한 작업에 사용하도록 조정하는 것부터 생성 모델을 사용하여 새 샘플을 생성하는 것, 특정 작업을 수행하는 대신 새로운 분류 문제와 다양한 데이터 클래스에 잘 일반화되도록 모델을 훈련하는 메타 학습 방법에 이르기까지 매우 다양합니다.

AI 거버넌스가 엔터프라이즈 AI 확장을 위해 비즈니스에 필수적인 이유

AI 채택을 가로막는 장벽, 특히 AI 거버넌스 및 위험 관리 솔루션의 부족에 대해 알아보세요.

관련 내용

파운데이션 모델에 대한 가이드 등록하기

퓨샷 분류는 어떻게 작동하나요?

퓨샷 러닝은 다양한 알고리즘 또는 신경망 아키텍처를 활용할 수 있지만 대부분의 방법은 전이 학습 또는 메타 학습(또는 이 둘의 조합)을 중심으로 구축됩니다.

퓨샷 러닝은 회귀 작업(또는 강화 학습)에도 적용할 수 있지만, 대부분의 FSL 문헌은 분류 사용 사례에 초점을 맞춥니다. 일부 FSL 방법은 레이블이 지정된 데이터의 부족을 해결하는 다른 솔루션과 함께 사용할 수 있습니다. 사용 가능하면서 제한되고 레이블이 지정된 샘플에 대한 퓨샷 러닝 정보와 함께, 레이블이 지정되지 않은 대량의 데이터 정보를 통합하는 준지도 학습 방법이 예시입니다.1

전이 학습

전이 학습 기반 방법은 사전 학습된 모델을 적용하여 새로운 작업이나 이전에 볼 수 없었던 데이터 클래스를 학습하는 데 중점을 둡니다.

레이블이 지정된 샘플을 거의 사용할 수 없는 경우, 지도 학습을 사용하여 모델을 처음부터 훈련할 수 있습니다. 이때 특히 컴퓨팅 비전에서 일반적으로 사용하는 컨볼루션 신경망(CNN)이나, 자연어 처리(NLP)에서 사용하는 트랜스포머 기반 네트워크처럼 많은 수의 매개변수가 있는 모델을 학습할 때, 종종 과적합 이 발생하여 모델이 테스트 데이터에서는 잘 작동하지만 실제 데이터에서는 제대로 작동하지 않을 수 있습니다. 그러나 과적합을 피하기 위해 충분히 많은 양의 데이터를 수집하는 것은 종종 모델 학습에서 병목 현상을 일으킵니다.

전이 학습은 훈련된 모델이 이미 학습한 유용한 기능과 표현을 활용하는 실용적인 솔루션을 제공합니다. 간단한 접근 방식 하나는 분류 모델을 미세 조정하여 소수의 레이블이 지정된 예제에 대한 지도 학습을 통해 새 클래스에 동일한 작업을 수행하는 것입니다. 보다 복잡한 접근 방식은 자체 지도형 프리텍스트 작업을 통해 사전 학습된 모델에 관련 다운스트림 작업(종종 메타 러닝 작업)을 설계하여 새로운 기술을 가르칩니다. 이는 NLP에서, 특히 파운데이션 모델의 맥락에서 점점 더 일반화되고 있습니다.

보다 복잡한 전이 학습 접근 방식은 네트워크 아키텍처의 변경을 통해 훈련된 신경망을 조정합니다. 예를 들어, 특징 추출이 발생하는 내부 계층은 유지하면서 최종 분류가 발생하는 신경망의 외부 계층을 교체하거나 재훈련합니다. 가장 바깥쪽 레이어를 제외한 모든 레이어에 대해 모델 가중치를 동결(또는 변경 사항을 정규화)하면 후속 업데이트로 인해 이미 학습한 지식이 “치명적인 망각”으로 이어지지 않도록 할 수 있습니다. 이를 통해 퓨샷 컨텍스트로 훨씬 더 빠르게 학습할 수 있습니다.

전이 학습은 모델의 초기 학습이 새 작업과 관련이 있을 때 가장 성공적입니다. 예를 들어, 특정 조류 종에 대해 학습된 모델은 몇 개의 레이블이 지정된 샘플만으로 미세 조정한 후 발견한 적 없는 조류 종도 잘 일반화할 수 있습니다. 이는 CNN이 컨볼루션에 사용하는 필터의 학습 가중치가 이미 조류 분류와 관련된 특징(깃털, 부리, 날개 크기 등)을 캡처하도록 최적화되어 있기 때문입니다. 그러나 퓨샷 러닝을 사용하여 동일한 모델이 차량을 인식하도록 학습시키면 만족스러운 성능을 얻지 못할 수 있습니다.

데이터 수준 접근 방식

레이블 지정되고 제한된 데이터 샘플 문제에 대한 또 다른 해결책은 추가 학습 샘플을 생성하는 것입니다. 이는 희귀 질병이나 외래종을 다룰 때와 같이 주어진 데이터 클래스의 실제 사례가 매우 드문 경우에 특히 유용합니다.

생성적 대립 신경망(GAN) 또는 변분 오토인코더(VAE)와 같은 생성형 모델을 통한 데이터 생성 은 원본 샘플에 과적합을 방지할 수 있는 충분한 다양성이 있는 경우, 기존의 지도 학습을 수행하기 위해 레이블 지정된 원본 샘플과 유사한 샘플을 충분히 생성할 수 있습니다.

데이터 증강은 원래 샘플에 다른 변환을 적용하여 새 샘플을 만드는 프로세스로, 다른 방법과 결합될 수 있습니다. 예를 들어, 대조적 자기 지도 학습과 유사한 프로세스에서 메트릭 메타 학습에 사용할 매칭 샘플을 만드는 데 사용할 수 있습니다.

메타 학습

분류기가 사용될 정확한 작업에 대해 훈련되고, 훈련 세트에 모델이 테스트될 것과 동일한 클래스가 포함되어 있는 지도 학습 또는 미세 조정과 달리, 메타 학습 은 더 광범위하고 간접적인 접근 방식을 취합니다. 전이 학습을 기반으로 구축된 접근 방식은 사전 학습된 모델을 적용하는 반면, 메타 학습 방법은 종종 처음부터 시스템을 엔드투엔드 학습합니다.

Santoro 등에 따르면, "메타 학습"은 단기 및 장기 수준에서 모델을 훈련하기 위해 여러 작업을 사용하는 시나리오를 의미합니다. 각 작업 내에서 모델은 특정 작업의 제한된 도메인과 관련된 예측을 수행하도록 빠르게 학습합니다. 작업 전반에 걸쳐 모델은 대상 도메인에 따라 패턴과 작업 구조가 달라지는 방식을 캡처하여 점진적으로 지식을 축적합니다. 이 2단계 프로세스는 종종 "학습을 위한 학습" 모델로 설명됩니다. 2

예를 들어, 여러 주요 메타 학습 방법의 목표는 여러 훈련 에피소드에 걸쳐 모델 함수를 훈련시켜 모델이 아직 보지 못한 클래스를 포함하여 모든 클래스의 데이터 요소 간의 유사성 정도에 대한 예측을 출력한 다음, 해당 프로세스에서 배운 내용을 사용하여 다운스트림 작업(예: 구체적으로 정의된 분류 문제)을 해결하는 것입니다.

일부 메타 학습 접근 방식은 모델을 쉽게 훈련할 수 있도록 훈련함으로써 보다 추상적인 수준에서 작동합니다. 기존의 지도 학습에서 모델의 매개변수(예: 가중치 및 편향)는 "학습"된 항목인 반면, 학습률 또는 매개변수 초기화 방법과 같은 모델의 하이퍼 매개변수는 학습 프로세스의 일부가 아니라 훈련 전에 구성됩니다. 메타 학습은 이상적인 시작점, 즉 최소한의 훈련 단계에서 다양한 데이터 세트로 일반화되는 매개 변수 초기화 또는 기타 하이퍼 매개변수 선택을 학습하여 전이 학습의 이점을 근사화할 수 있습니다.

N-way-K-shot 분류

퓨샷 러닝에는 다양한 머신러닝 모델 아키텍처를 사용할 수 있지만, FSL 학습 및 평가의 구조는 일반적으로 N-way-K-shot 프레임워크를 따릅니다. 여기서 N 은 클래스 수를 나타내고, K 는 각 클래스에 제공된 예제(또는 "샷")의 수를 나타냅니다.

 N-way-K-shot 분류에서 모델은 여러 에피소드의 훈련을 거칩니다. 각 훈련 에피소드는 하나 이상의 훈련 작업으로 구성됩니다. 모델은 훈련 작업의 구조를 반영하는 테스트 작업을 통해 평가됩니다. 각 훈련 작업(및 테스트 작업)은 다음과 같은 두 개의 데이터 세트로 구성됩니다.

  • 서포트 세트에는 N개의 클래스 각각에 대한 K개의 레이블이 지정된 훈련 샘플이 포함되어 있습니다. 모델은 이러한 서포트 샘플을 사용하여 각 클래스에 대한 일반화된 표현을 학습합니다. 예를 들어, 3-way-2-shot 분류 작업에 대한 데이터 세트에는 3개의 이미지 클래스가 포함되어 있고 각각 2개의 예시가 제공됩니다. K=1일 때 작업은 원샷 러닝 입니다. K=0인 경우 문제는 제로샷 러닝입니다. 이는 일반적으로 고유한 솔루션이 필요합니다.
  • 쿼리 세트 에는 각 N 클래스에 대한 하나 이상의 새 예제가 포함되어 있습니다. 모델은 서포트 세트에서 학습한 표현을 사용하여 쿼리 세트의 각 예제에 대한 분류를 예측합니다. 손실 함수는 모델의 예측과 “올바른” 예측 사이의 차이(“손실”)를 측정합니다. 각 훈련 에피소드 후에 모델 매개변수가 조정(최적화)되어 손실을 최소화합니다. 

메타 학습의 목표는 특정 데이터 클래스를 인식하는 것이 아니라 보이지 않는 데이터를 잘 일반화하도록 모델을 교육하는 것이므로, 각 교육 작업에는 일반적으로 이전 교육 작업에 사용된 데이터 클래스와 다른 데이터 클래스가 포함됩니다.

지금까지 볼 수 없던 클래스에 대해 정확한 유사성 예측을 수행하는 모델의 기능을 테스트하려면, 테스트에 사용되는 서포트 세트 및 쿼리 세트에 모델이 학습 작업에서 아직 노출되지 않은 완전히 새로운 데이터 클래스가 포함되어야 합니다.

메트릭 기반 메타 러닝

메트릭 기반 메타 학습 알고리즘은 K-최근접 이웃과 유사한 원리로 작동합니다. 메트릭 기반 접근 방식은 클래스 간의 결정 경계를 직접 모델링하여 분류를 예측하는 대신, 주어진 데이터 샘플을 나타내는 연속 값(예: 벡터 임베딩)을 생성하고 일부 거리 메트릭을 측정하는 함수를 학습하여 추론합니다. 거리 메트릭은 이 값과 비교되는 다른 샘플 또는 클래스의 값 간의 유사성을 나타냅니다.

메트릭 기반 FSL 알고리즘
샴 네트워크

메트릭 기반 알고리즘에서 비교적 일찍 개발된 샴 네트워크는 대조 학습을 사용하여 이진 분류 문제를 해결합니다. 샴 네트워크는 두 개의 샘플을 보여주면 양(일치) 또는 음(비일치) 쌍인지 예측합니다. 모델의 손실 함수는 양수 쌍의 벡터 임베딩 간 거리를 최소화하고 음수 쌍의 임베딩 간 거리를 최대화하는 데 사용됩니다. 삼중 손실 모델이 매우 유사합니다. 삼중 손실 모델은 '앵커' 샘플과 두 개의 추가 샘플(하나는 일치하는 샘플, 하나는 일치하지 않는 샘플)이 주어지면 이 모델은 어떤 샘플이 양성이고 어떤 샘플이 음성인지 예측합니다.

두 방법 모두 학습 샘플이 서로 구별하기 상대적으로 어려워야 하며, 그렇지 않은 경우 모델이 더 효과적인 임베딩을 생성하는 매개 변수를 학습하도록 강요받지 않아야 합니다. 데이터 증강은 일치하는 샘플이 부족할 때 자주 사용됩니다.

논문 읽기: "Siamese Neural Networks for One-shot Image Recognition"
매칭 네트워크

샴 네트워크는 이진 분류 작업만 해결할 수 있는 반면, 매칭 네트워크는 다방향 분류를 수행할 수 있습니다. 따라서 최초의 퓨샷 러닝 전용 알고리즘 중 하나로 간주됩니다. 

매칭 네트워크는 적절한 신경망(예: 이미지 작업의 경우 CNN 또는 자연어 작업의 경우 LLM)을 사용하여 서포트 및 쿼리 세트의 각 샘플에 대한 임베딩을 출력하고, 쿼리 샘플의 임베딩과 사용 가능한 서포트 샘플의 임베딩 간의 코사인 거리를 측정하여 분류를 예측합니다.

논문 읽기: "Matching Networks for One Shot Learning"
프로토타입 네트워크

프로토타입 네트워크는 각 클래스에 대한 프로토타입 을 계산하기 위해 각 클래스에 사용할 수 있는 모든 샘플의 평균 특징을 계산합니다. 그런 다음 지정된 데이터 포인트의 분류는 각 클래스의 프로토타입에 대한 상대적 근접성에 따라 결정됩니다. 매칭 네트워크와 달리, 프로토타입 네트워크는 코사인 거리가 아닌 유클리드 거리를 사용합니다.

이 접근 방식에 대한 많은 개선이 제안되었습니다. 예를 들어, Zhu와 Koniusz는 프로토타이핑 프로세스를 개선하기 위해 라벨 전파 를 사용할 것을 제안했습니다.3

논문 읽기: "Prototypical Networks for Few-shot Learning"
관계 네트워크

관계 네트워크(RN)는 매칭 및 프로토타입 네트워크와 동일한 일반 원칙에 따라 작동합니다. RN은 또한 입력 이미지와 클래스 프로토타입의 임베딩을 계산하는 방법을 학습하는 임베딩 모듈을 활용합니다. 하지만 임베딩을 비교하는 데 사용되는 거리 함수를 미리 정의하는 두 알고리즘과 달리, RN은 당면한 특정 분류 문제에 가장 적합한 비선형 거리 함수를 학습하는 관계 모듈을 추가합니다.

논문 읽기: "Learning to Compare: Relation Network for Few-Shot Learning"
최적화 기반 메타 학습

딥 러닝은 전통적으로 역전파와 경사하강법을 통해 모델 파라미터를 반복적으로 업데이트해야 하며, 이는 훈련 배치를 채우기 위해 레이블이 지정된 방대한 양의 예제에 의존합니다. 퓨샷 러닝을 위해 신경망을 처음부터 효율적으로 훈련시키려면 몇 가지 업데이트 단계만으로 모델 가중치를 최적화할 수 있는 방법이 필요합니다.

최적화 기반 FSL 방법

경사 기반 메타 학습(GMBL)이라고도 하는 최적화 기반 메타 학습 접근 방식은 관련 작업에 맞게 효율적으로 미세 조정할 수 있는 신경망의 초기 모델 매개변수 또는 하이퍼 매개변수를 학습하는 것을 목표로 합니다. 이는 경사도 하강 프로세스를 최적화함으로써, 즉 최적화 프로세스 자체를 메타 최적화 함으로써 달성할 수 있습니다.

모델에 구애받지 않는 메타 학습(MAML)

MAML은 가장 유명한 최적화 기반 접근법 중 하나이며, 핵심 방법론에서 파생된 여러 접근법의 토대가 되었습니다. 이름에서 알 수 있듯이 모델에 구애받지 않는 메타 학습은 특정 작업이나 AI 모델 아키텍처에 초점을 맞추지 않고 경사하강법을 통해 학습하는 모든 모델에 사용할 수 있습니다.

MAML은 다양한 FSL 학습 작업 집합인 p(T)에서 두 가지 수준의 매개 변수 업데이트를 수반합니다. 각 훈련 에피소드에서 새로운 작업 Tip(T)에서 무작위로 샘플링됩니다. α크기의 K 단계로 수행되는 경사하강법은 각 훈련 작업 후에 작업별 모델 매개변수(θ'i)의 벡터를 최적화하는 데 사용됩니다. 여러 훈련 에피소드에서 메타 매개변수 세트(θ)는 해당 작업별 매개변수 θ'i에 크기 β의 메타 단계로 경사하강법을 적용하여 최적화됩니다. 즉, 일반 경사하강법은 주어진 작업에 대한 모델의 매개변수를 최적화하기 위해 도함수를 계산하는 반면, MAML은 도함수의 도함수(또는 “2차 도함수”)를 계산하여 후속 작업별 최적화를 위해 모델의 초기 매개변수를 최적화합니다.  

원본 논문에 따르면, 그 목표는 "작업의 변화에 민감한 모델 매개변수를 찾아 매개변수의 작은 변화가 p(T)에서 도출된 모든 작업의 손실 함수를 크게 향상시키는 것"입니다. 이렇게 하면 사전 훈련을 위해 대량의 레이블이 지정된 데이터가 필요하지 않으면서도 전이 학습과 유사한 이점을 얻을 수 있습니다.

MAML에 대한 제안된 조정 사항은 다음과 같습니다.

  • 1차 MAML(FOMAML): MAML의 2차 도함수에 대한 의존도는 계산 비용이 많이 들고 많은 메모리가 필요합니다. FOMAML은 1차 도함수만 사용하여 메타 최적화를 허용하는 일련의 가정을 통해 프로세스를 단순화합니다.

  • Reptile: Reptile은 MAML의 정교함과 FOMAML의 단순함 사이의 중간 지점을 제시합니다. 즉, 1차 도함수를 사용하지만 매개변수가 업데이트되는 방식에 대한 고유한 규칙을 구현합니다.4

  • 단계 크기 최적화: Meta-SGD5 및 Alpha MAML6과 같은 변형에는 αβ에 대한 단계 크기와 방향을 최적화하는 기능이 추가되었습니다. 마찬가지로 MAML++7 은 안정성과 계산 효율성을 높이기 위해 여러 가지 수정 사항을 도입했습니다.

논문 읽기: "Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks"
LTSM 메타 학습기

메타 러닝 접근 방식은 RNN 기반 장단기 기억(LSTM) 네트워크를 사용하여 메타 학습자 모델을 훈련시켜 각 훈련 과제의 단기 지식과 각 과제에 공통적인 장기 지식을 모두 캡처할 수 있습니다. 그런 다음 이 메타 학습자를 사용하여 신경망 분류기를 훈련합니다.

논문 읽기: "Optimization as a Model for Few-Shot Learning"
잠재 임베딩 최적화(LEO)

고유한 모델 메타 매개변수 θ 세트를 명시적으로 인스턴스화하고 업데이트하는 대신, 잠재 임베딩 최적화는 동일한 용도로 사용되는 변이 오토인코더(VAE)와 유사한 방식으로 작업별 모델 매개변수의 생성적 분포를 학습합니다. 그런 다음 학습된 저차원 임베딩 공간 내에서 그래디언트 최적화를 수행할 수 있습니다.

논문 읽기: "Meta-Learning with Latent Embedding Optimization"
퓨샷 러닝 사용 사례

퓨샷 러닝 기법은 다양한 응용 분야를 가지고 있으며, 많은 산업 및 연구 분야에서 비교적 적은 수의 사례로 빠르고 효과적으로 학습할 수 있는 능력의 이점을 누릴 수 있습니다.

컴퓨팅 비전

많은 저명한 FSL 알고리즘이 원래 이미지 분류 작업을 위해 개발되었거나 입증되었지만, FSL은 더 복잡한 컴퓨팅 비전 문제에도 사용할 수 있습니다.

물체 감지는 이미지 분류보다 훨씬 더 복잡한 문제이지만, 물체를 분류할 뿐만 아니라 정확한 위치를 파악해야 하기 때문에 일반적으로 이미지 분류를 전제 조건으로 삼습니다. 따라서 분류에 사용되는 많은 아이디어가 퓨샷 물체 감지에 채택될 수 있습니다.8  

마찬가지로, 퓨샷 의미론적 분할을 위해 많은 모델 아키텍처가 제안되었습니다.9

로봇 공학

FSL은 로봇이 퓨샷 분류 작업10과  강화 학습을 통해 새로운 환경과 새로운 작업에 빠르게 적응할 수 있도록 합니다.11

자연어 처리

FSL은 특히 전이 학습을 통해 자연어 처리(NLP)에 대한 유망한 결과를 보여주었습니다. 이는 레이블이 지정되지 않은 대량의 데이터를 기반으로 사전 훈련된 대규모 언어 모델(LLM)을 특정 상황에 대한 이해가 필요할 수 있는 텍스트 분류 및 감정 분석과 같은 특정 작업에 적용할 수 있는 직관적인 방법입니다.

의료

FSL의 희귀하고 보이지 않는 데이터 클래스에 모델을 빠르게 적응시키는 잠재력은 의료 분야에서 특히 유망합니다. 특정 조건의 희귀성이나 의료 데이터(예: MRI 또는 심초음파)에 정확하게 주석을 다는 데 필요한 전문 지식으로 인해 레이블이 지정된 대량의 샘플을 수집하기가 매우 어려울 수 있기 때문입니다.

관련 솔루션
AI 컨설팅 서비스

AI로 작업하는 방식을 새롭게 상상해 보세요. 20,000여 명의 다양한 글로벌 AI 전문가로 구성된 IBM 팀은 비즈니스 전반에 걸쳐 AI 및 자동화를 신속하고 자신 있게 설계하고 확장할 수 있도록 지원합니다. 자체 IBM watsonx 기술과 파트너사의 개방형 에코시스템을 통해 모든 클라우드에서 모든 AI 모델을 윤리와 신뢰에 기반하여 제공합니다.

IBM AI 컨설팅 서비스 살펴보기
IBM watsonx Assistant

대화형 AI로 모든 채널과 접점에서 일관되고 지능적인 고객 상담을 지원합니다.

IBM watsonx Assistant 살펴보기

IBM watsonx.ai

생성형 AI, 파운데이션 모델, 머신 러닝 모델을 쉽게 훈련, 검증, 조정 및 배포할 수 있으며 적은 데이터로 짧은 시간 내에 AI 애플리케이션을 구축할 수 있습니다.

watsonx.ai 살펴보기
퓨샷 러닝 리소스 퓨샷 러닝 및 생성형 AI

생성형 AI의 부상과 미래, 그리고 퓨샷 러닝이 더 큰 그림에 어떻게 부합하는지 자세히 알아보세요.

다중 시맨틱을 사용한 퓨샷 러닝

추가 의미 체계 정보를 사용한 퓨샷 러닝의 최근 발전을 기반으로 여러 개의 풍부한 의미 체계(범주 레이블, 속성 및 자연어 설명)를 결합하여 추가 개선이 가능하다는 것을 보여줍니다.

파운데이션 모델 프롬프트 작성을 위한 팁

파운데이션 모델용 퓨샷 및 원샷 프롬프트에 대한 프롬프트 엔지니어링 팁의 간략한 개요입니다.

다음 단계 안내

AI 빌더를 위한 차세대 엔터프라이즈 스튜디오인 IBM watsonx.ai로 생성형 AI, 파운데이션 모델 및 머신 러닝 기능을 학습, 검증, 조정 및 배포하세요. 적은 데이터로 짧은 시간 내에 AI 애플리케이션을 구축하세요.

watsonx.ai 살펴보기 라이브 데모 예약하기
각주

모든 링크는 ibm.com 외부에 있습니다.

1 "An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning," arXiv, 2022년 9월 28일
2 "Meta-Learning with Memory-Augmented Neural Networks," Proceedings of the 33rd International Conference on Machine Learning, 2016년 6월 19일
3 "Transductive Few-shot Learning with Prototype-based Label Propagation by Iterative Graph Refinement," Computer Vision Foundation, 2023년 4월 23일
4 "Reptile: A scalable meta-learning algorithm," OpenAI, 2018년 3월 7일
5 "Meta-SGD: Learning to Learn Quickly for Few-Shot Learning," arXiv, 2017년 9월 28일
6 "Alpha MAML: Adaptive Model-Agnostic Meta-Learning," arXiv, 2019년 5월 17일
7 "How to train your MAML," arXiv, 2019년 3월 5일
8 "Few-Shot Object Detection: A Comprehensive Survey," arXiv, 2022년 9월 15일
9 "Leaderboard: Few-Shot Semantic Segmentation on PASCAL-5i (1-Shot)," PapersWithCode, 액세스 2024년 1월 3일
10 "Few-Shot Continual Active Learning by a Robot," arXiv, 2022년 10월 12일
11 "Few-Shot Preference Learning for Human-in-the-Loop RL," Proceedings of the 6th Conference on Robot Learning, 2023년