게시일: 2024년 4월 8일
기고자: Matt Kosinski
EU 인공 지능법(EU AI Act)은 유럽연합(EU)에서 인공 지능의 개발 및 사용을 규제하는 법률입니다. 이 법은 규제에 대한 위험 기반 접근 방식을 취하여 인간의 건강, 안전 및 권리에 대한 위협에 따라 AI 시스템에 다른 규칙을 적용합니다.
AI 애플리케이션에 대한 세계 최초의 포괄적인 규제 프레임워크로 간주되는 EU AI 법은 일부 AI 사용을 완전히 금지하고 다른 AI 사용에 대해 엄격한 안전 및 투명성 표준을 시행합니다.
이 법은 또한 ChatGPT 및 Google Gemini를 구동하는 파운데이션 모델과 같은 범용 인공 지능 모델을 설계, 훈련 및 배포하기 위한 대상 규칙을 만듭니다.
규정 미준수에 대한 벌금은 35,000,000유로 또는 회사의 연간 전 세계 매출의 7% 중 더 높은 금액에 달할 수 있습니다.
EU의 일반 데이터 보호 규정(GDPR)이 다른 국가에서 데이터 개인 정보 보호법을 채택하도록 영감을 준 것과 마찬가지로 전문가들은 EU AI 법이 전 세계적으로 더 강력한 AI 거버넌스 및 윤리 표준 개발에 박차를 가할 것으로 예상합니다.
IDC 보고서 신청
EU AI 법은 EU의 AI 시스템 및 모델 제공자, 배포자, 수입업자 및 유통업체에 적용됩니다.
이 법은 AI 시스템을 일정 수준의 자율성을 가지고 입력을 처리하여 사람과 환경에 영향을 미치는 출력을 생성할 수 있는 시스템으로 정의합니다. 이러한 영향력 있는 결과에는 예측, 의사 결정, 콘텐츠 등이 포함됩니다.
이 법에서 말하는 AI 모델은 주로 다양한 AI 시스템 구축에 적용할 수 있는 범용 AI(GPAI)를 의미합니다. 예를 들어, GPT-4 대규모 언어 모델은 AI 모델입니다. GPT-4를 기반으로 구축된 ChatGPT 챗봇은 AI 시스템입니다.
이 법의 다른 중요한 용어:
EU AI 법은 AI 도구 또는 해당 도구의 결과물이 EU에서 사용되는 경우 유럽 외부의 사람과 조직에 적용됩니다.
예를 들어, EU에 있는 회사가 고객 데이터를 EU 외부의 제3자에게 보내고, 해당 제3자가 AI를 사용하여 고객 데이터를 처리하고 그 결과를 다시 회사로 보낸다고 가정해 보겠습니다. 회사는 EU 내에서 제3자의 AI 시스템 결과물을 사용하기 때문에 제3자는 EU AI 법의 적용을 받습니다.
EU에서 AI 서비스를 제공하는 EU 외부의 제공업체는 EU 내에서 승인된 담당자를 지정하여 규정 준수 노력을 조정해야 합니다.
이 법은 광범위한 적용 범위를 가지고 있지만, 일부 AI 사용은 예외입니다. 여기에는 다음이 포함됩니다.
EU AI 법에는 AI의 책임 있는 사용 및 개발을 지원하기 위한 여러 규칙이 포함되어 있습니다. 가장 중요한 조항에는 위험한 AI에 대한 금지, 고위험 AI 개발 및 배포에 대한 표준, 투명성 의무, 범용 모델에 대한 규칙 등이 있습니다.
EU AI 법의 시행과 관련된 세부 사항 중 상당수가 아직 다듬어지고 있다는 점에 주목할 필요가 있습니다. 예를 들어, 이 법은 유럽위원회가 시판 후 모니터링 계획 및 교육 데이터 요약과 같은 요구 사항에 대한 추가 지침을 발표할 것이라고 명시하고 있습니다.
EU AI 법은 위험도에 따라 AI 시스템을 여러 범주로 분류합니다. 여기서 위험이란 AI가 건강, 안전 또는 인권에 미칠 수 있는 잠재적 피해의 가능성과 심각성을 의미합니다.
이 법은 크게 네 가지 범주의 AI 위험을 다룹니다.
· 허용할 수 없는 위험
· 고위험
· 제한적 위험
· 최소한의 위험
허용할 수 없는 수준의 위험을 초래하는 AI 애플리케이션은 금지됩니다. EU AI 법에는 다음을 포함하여 금지된 모든 AI 관행이 명시되어 있습니다.
유럽위원회는 이 목록을 재검토하고 수정할 권리가 있으므로 앞으로 더 많은 AI 사용이 금지될 가능성이 있습니다.
이 법의 대부분은 고위험 AI 시스템을 다룹니다. EU AI 법에 따라 시스템이 고위험으로 간주되는 방법에는 두 가지가 있습니다. 규제 대상 제품에 사용되거나 명시적으로 고위험으로 명명되는 경우입니다.
장난감, 무선 장비 및 의료 기기와 같은 일부 부문의 제품은 이미 기존 EU 법률의 규제를 받고 있습니다. 이러한 규제 대상 제품의 안전 구성 요소 역할을 하거나 규제 대상 제품 자체의 역할을 하는 모든 AI 시스템은 자동으로 고위험으로 간주됩니다.
또한 이 법에는 항상 고위험으로 간주되는 특정 AI 사용도 나열되어 있습니다. 여기에는 다음이 포함됩니다.
금지된 AI 목록과 마찬가지로, 유럽위원회는 향후 이 목록을 업데이트할 수 있습니다.
고위험 시스템 제공업체는 다음 규칙을 따라야 합니다.
AI 시스템이 고위험 범주 중 하나에 속하지만 건강, 안전 또는 권리에 심각한 위협이 되지 않는 경우 공급자는 이러한 요구 사항을 면제할 수 있습니다. 제공업체는 시스템이 위험하지 않다는 증거를 문서화해야 하며, 규제 기관은 시스템을 잘못 분류한 조직에 불이익을 줄 수 있습니다.
제한적 위험 AI 시스템은 특정 투명성 의무를충족하는 시스템으로, 위험 수준에 관계없이 특정 유형의 AI가 따라야 하는 규칙입니다. 이러한 규칙에는 다음이 포함됩니다.
최소 위험 범주('최소 또는 위험 없음 범주'라고도 함)에는 사람과 직접 상호 작용하지 않거나 상호 작용할 때 실질적인 영향이 거의 없는 AI 도구가 포함됩니다. 이메일 스팸 필터와 비디오 게임의 AI를 예로 들 수 있습니다. 오늘날 많은 일반적인 AI 사용이 이 범주에 속합니다.
AI 법의 규칙 대부분은 위험이 최소화된 AI에는 적용되지 않습니다(일부는 위에 나열된 투명성 의무를 충족해야 할 수 있음).
GPAI 모델은 적응력이 뛰어나기 때문에 위험 수준에 따라 분류하기 어려울 수 있습니다. 이러한 이유로 EU AI 법은 GPAI에 대해 명시적으로 별도의 규칙 세트를 만듭니다.
GPAI 모델의 모든 제공업체는 다음을 수행해야 합니다.
대부분의 무료 오픈 소스 GPAI 모델은 처음 두 가지 요구 사항에서 제외됩니다. 저작권법을 준수하고 훈련 데이터 요약을 공유하기만 하면 됩니다.
EU AI 법에서는 일부 GPAI 모델을 시스템적 위험을 초래하는 것으로 간주합니다. 시스템적 위험은 모델이 공중 보건, 안전 또는 기본권에 심각하고 광범위한 피해를 입힐 수 있는 잠재력을 의미합니다.
이 법에 따르면, 모델이 "영향력이 큰 능력"을 가지고 있는 경우 시스템적 위험을 초래한다고 합니다. 기본적으로 이는 모델의 기능이 당시 사용 가능한 가장 진보된 GPAI의 기능과 일치하거나 이를 능가한다는 것을 의미합니다.
이 법은 교육 리소스를 시스템적 위험을 식별하는 주요 기준으로 사용합니다. 모델을 훈련하는 데 사용되는 누적 컴퓨팅 성능이 1,025개의 부동 소수점 연산(FLOP)을 초과하면 영향력이 큰 기능으로 간주되어 시스템적 위험이 발생할 수 있습니다.
또한 유럽위원회는 해당 모델이 FLOPs 임계값을 충족하지 않더라도 고위험 기능에 상응하는 영향을 미친다고 판단하는 경우 해당 모델을 시스템적 위험으로 분류할 수 있습니다.
무료 오픈 소스 모델을 포함하여 시스템적 위험을 초래하는 GPAI 모델은 위의 모든 요구 사항과 몇 가지 추가 의무를 충족해야 합니다.
GPAI 모델 제공업체는 EU AI 사무소가 현재 작성 중인 자발적 실행 강령을 채택하여 규정을 준수할 수 있습니다. 이 강령은 법 시행 후 9개월 이내에 완료될 예정입니다. 이러한 규정을 채택하지 않는 제공업체는 다른 방법으로 규정 준수를 입증해야 합니다.
제공업체, 배포업체, 수입업체 및 유통업체는 일반적으로 자신이 제조, 사용 또는 유통하는 AI 제품이 규정을 준수하는지 확인할 책임이 있습니다. 이들은 규정 준수에 대한 증거를 문서화하고 요청 시 당국과 공유해야 합니다. 또한 AI 공급망의 모든 조직이 EU AI 법을 준수할 수 있도록 정보를 공유하고 서로 협력해야 합니다.
또한 공급자와 배포자는 조직을 대신하여 AI를 사용하는 직원 또는 기타 당사자가 AI를 책임감 있게 처리하는 데 필요한 AI 리터러시를 갖추도록 해야 합니다.
이러한 광범위한 요구 사항 외에도 각 당사자에게는 고유한 의무가 있습니다.
수입업체와 유통업체는 유통하는 AI 시스템과 모델이 EU AI 법을 준수하는지 확인해야 합니다.
수입업체 또는 유통업체가 제품에 자체 이름이나 상표를 부착하거나 제품을 크게 변경하는 경우 AI 제공업체로 간주됩니다. 이 경우 수입업체 또는 유통업체는 법에 명시된 모든 제공업체 책임을 부담해야 합니다.
이 법의 집행은 몇 개의 다른 기관에서 나누어 담당합니다.
EU 차원에서 유럽위원회는 회원국 전체에 걸쳐 일관된 법 적용을 조율하기 위해 AI 사무소를 설립했습니다. AI 사무소는 또한 GPAI 규칙을 직접 시행하여 조직에 벌금을 부과하고 시정 조치를 집행할 수 있습니다.
개별 회원국은 모든 비GPAI 규정을 시행할 국가 관할 당국을 지정합니다. 이 법은 각 주마다 시장 감시 당국과 신고 당국이라는 두 개의 다른 당국을 설립하도록 규정하고 있습니다.
시장 감시 당국은 조직이 EU AI 법을 준수하는지 확인합니다. 소비자의 불만 사항을 듣고 위반 사항을 조사하며 조직에 벌금을 부과할 수 있습니다.
신고 당국은 새로운 고위험 AI 제품에 대한 적합성 평가를 수행하는 제3자를 감독합니다.
금지된 AI 관행을 사용하는 조직은 최대 35,000,000유로 또는 전 세계 매출의 7% 중 더 높은 금액의 벌금을 부과받을 수 있습니다.
GPAI 규칙 위반을 포함한 기타 위반의 경우 조직은 최대 15,000,000유로 또는 전 세계 매출액의 3% 중 더 높은 금액의 벌금을 부과받을 수 있습니다.
부정확하거나 오해의 소지가 있는 정보를 당국에 제공하는 조직은 최대 7,500,000유로 또는 매출액의 1% 중 더 높은 금액의 벌금을 부과받을 수 있습니다.
특히 EU AI 법은 스타트업 및 기타 소규모 조직에 대한 벌금에 대해 서로 다른 규칙을 가지고 있습니다. 이러한 비즈니스의 경우 벌금은 두 가지 가능한 금액 중 낮은 금액이 적용됩니다. 이는 중소기업이 AI 시장에서 제외될 정도로 요구 사항이 까다롭지 않도록 하려는 법안의 일반적인 노력입니다.
유럽 의회는 2024년 3월 13일에 EU AI 법을 승인했습니다. 유럽 이사회는 최종 점검을 완료하고 법은 유럽연합 관보에 게재된 후 20일 후에 발효됩니다. 관측통들은 2024년 5월에 이러한 상황이 발생할 것으로 예상하고 있습니다.
법의 전체 내용은 2026년에야 시행되며, 시간이 지남에 따라 여러 조항이 단계적으로 적용될 예정입니다.
최신 eBook은 AI 거버넌스의 주요 구성 요소를 간략하게 설명하고 조직에 적용할 수 있는 상세한 AI 거버넌스 프레임워크를 공유합니다.
조직을 위한 책임감 있는 AI의 혁신적 잠재력을 살펴보고 윤리적 AI 관행을 채택하는 데 있어 중요한 동인에 대해 알아보세요.
책임감 있는 AI를 배포하기 위해 기업이 AI 거버넌스를 우선시해야 하는 이유에 대한 토론에 참여하세요.
데이터 거버넌스를 통해 기업이 데이터 자산을 최대한 활용할 수 있는 방법을 알아보세요.
설명 가능한 AI는 조직이 AI 모델을 생산에 투입할 때 신뢰와 확신을 구축하는 데 매우 중요한 역할을 합니다.
AI 윤리는 위험과 부정적인 결과를 줄이면서 AI의 유익한 영향을 최적화하는 방법을 연구하는 다학문 분야입니다. AI 윤리에 대한 IBM의 접근 방식을 자세히 알아보세요.