ホーム Topics EU AI法 EU(欧州連合)AI規則とは
IBMのAIガバナンス・ソリューションの詳細はこちら AI関連の最新情報を購読する
デシジョン・ツリーの抽象図

公開日:2024年4月8日
寄稿者:Matt Kosinski

EU AI規則とは

EU AI規則は、欧州連合 (EU) における人工知能の開発と使用を規定する法律です。 EU AI規則は、規制に対してリスクベースのアプローチを採用しており、AIシステムが人間の健康、安全、権利にもたらす脅威に応じてさまざまなルールを適用したものです。

AIの応用に対する世界初の包括的な規制フレームワークと考えられているEU AI規則は、一部のAIの使用を完全に禁止し、その他のAIの使用に対して、厳格な安全性と透明性の基準を定めています。

EU AI規則では、ChatGPTやGoogle Geminiの土台となっている基盤モデルなど、汎用人工知能モデルの設計、トレーニング、展開に特化したルールも制定されています。

規則違反に対する罰金は、3,500万ユーロ、または企業の全世界での年間収益の7%のいずれか高い方に達する可能性があります。

EUの一般データ保護規則(GDPR)が各国にデータ・プライバシー法の導入を促したのと同じように、専門家はEU AI規則が世界中でより強力なAIガバナンスおよび倫理基準の開発が促進されると予想しています。

EU AI規則が適用される意味とそれに備える方法
関連コンテンツ

IDCレポートを読む

EU AI規則の対象

EU AI規則は、EU圏内のAIシステムおよびモデルのプロバイダー、デプロイヤー、輸入者、および販売者に適用されます。

同規則では、AIシステムを、一定の自律性をもって、入力を処理して、人や環境に影響を与える出力を生成できるシステムと定義しています。 ここで、影響を与える出力には、予測、決定、コンテンツなどが含まれています。

同規則の言葉でAIモデルとは、主に、さまざまなAIシステムを構築するうえで適応可能な汎用AI(GPAI)を指しています。たとえば、GPT-4大規模言語モデルは、AIモデルに該当します。GPT-4上に構築されたChatGPTのチャットボットは、AIシステムになります。

EU AI規則におけるその他の重要な用語:

  • プロバイダーとは、AIシステムやモデルを構築する個人および組織です。

  • デプロイヤーとは、AIツールを使用する個人および組織です。たとえば、AIチャットボットを購入して使用し、カスタマー・サービスへの問い合わせに対応する組織は、デプロイヤーになります。

  • 輸入者とは、欧州圏外のAIシステムやモデルをEU市場に持ち込む個人および組織です。
EU圏外での使用

EU AI規則は、AIツールまたはその出力がEU圏内で使用される場合に、欧州圏外の個人および組織に適用されます。

たとえば、EU圏内の企業が顧客データをEU圏外の第三者に送信し、その第三者がAIを使用して顧客データを処理し、その結果を企業に送り返したとします。 この場合、同社はEU圏内で第三者のAIシステムの出力を使用しているため、この第三者にはEU AI規則が適用されます。

EU圏内でAIサービスを提供するEU圏外のプロバイダーは、自社に代わってコンプライアンス調整を行う、EU圏内の正当な権限が与えられた代理人を指名する必要があります。

例外

EU AI規則は、適用範囲が広いですが、一部のAIの使用には適用されません。その一例を以下に挙げます。

  • 純粋に個人的な使用

  • 軍事および国防のために特化した開発されたモデルおよびシステム

  • 研究開発にのみ使用されるモデルおよびシステム

  • パラメータとアーキテクチャを一般に公開している、無料のオープンソースで低リスクのAIモデルは、ほとんどのAI規則の対象から免除されますが、すべてではありません。 (詳細については、下記の「汎用AI(GAI)の規則」を参照してください。)
IBM® watsonxのAI およびデータ・プラットフォームが、組織が責任ある、コンプライアンスに準拠したAIアプリケーションを構築するのにどのように役立つかをご覧ください。
IBM® watsonxのAI およびデータ・プラットフォームが、組織が責任ある、コンプライアンスに準拠したAIアプリケーションを構築するのにどのように役立つかをご覧ください。
EU AI規則が課す要件

EU AI規則には、AIの責任ある使用と開発を支援することを目的とした多くの規定が含まれています。 最も重要な規定には、危険なAIの禁止、リスクの高いAIの開発と展開に関する基準、透明性に関する義務、汎用モデルの規制などがあります。

EU AI規則の実際の適用に関する詳細なルールの多くはまだ検討中となっています。たとえば、同規則では、欧州委員会が市販後のモニタリング計画やトレーニングデータの概要などの要件に関して、さらなるガイダンスを発表すると述べられています。

リスクベースのAI規制

EU AI規則では、AIシステムがリスクレベルに応じてさまざまなカテゴリーに分類されています。ここでいうリスクは、AIが健康、安全、人権に対してもたらす可能性のある危害の可能性と重大性を指しています。

同規則は、大きく次の4つのカテゴリーのAIリスクに対応しています。

·       許容できないリスク

·      高リスク

·      限定的なリスク

·      最小限のリスク

許容できないリスク

許容できないレベルのリスクをもたらすAIの使用は禁止されています。 EU AI規則には、禁止されているすべてのAIの使用が明示的にリストされています。これには次が含まれます。

  • 人々を意図的に操作して、そうでなければしないような有害な選択をさせるシステム。

  • 年齢、障がい、社会的・経済的地位を利用して、その人の行動に重大な影響を与えるシステム。

  • 生体認証データを使用して、人種、性的指向、政治的意見などの機密性の高い個人情報を推測する生体認証分類システム

  • 関連性のない、または取るに足らない行動や特性を使用して、人々の有害な扱いを促進する社会的スコアリングシステム。

  • 法執行目的で公共の場で使用されるリアルタイムでの遠隔生体認証システム。 特定の重大犯罪の被害者を対象とした捜索にこれらのツールを使用するなど、いくつかの狭い例外があります。

  • 犯罪を犯す可能性を評価するために人々をプロファイリングする予測型ポリシングシステム

  • インターネットやCCTVの画像をターゲットを絞らずにスクレイピングする顔認識データベース

  • 学校や職場で使用される感情認識ツール(ただし、医療や安全のために使用される場合は除く)。

欧州委員会はこのリストを再検討して、修正する権利を留保しているため、将来的にはさらに多くのAI使用が禁止される可能性があります。

高リスク

EU AI規則の大部分は、高リスクのAIシステムを対象としています。同規則の下で、AIシステムが高リスクであるとみなされるのは、2通りあります。規制されている製品で使用されている場合と、高リスクとして明示的に指定されている場合です。

玩具、無線機器、医療機器などの一部の分野の製品は、既存のEU法によってすでに規制されています。 これらの規制対象製品の安全コンポーネントとして機能するAIシステム、または規制対象製品自体として機能するAIシステムは、自動的に高リスクとみなされます。

同規則には、常に高リスクとみなされる特定のAIの使用も挙げられています。その一例を以下に挙げます。

  • EU AI規則、その他のEU法、または加盟国の法律で明示的に禁止されていない生体認証システム(ただし、指紋スキャナーを使用して銀行アプリへのアクセスを許可するシステムなど、個人の身元を確認するシステムは除く)。

  • 水道、ガス、電気などの 重要インフラの安全コンポーネントとして使用されるシステム。

  • 教育訓練や職業訓練で使用されるシステム(生徒のパフォーマンスをモニタリングし、不正行為を検出し、入学を管理するシステムなど)。

  • 人材の採用、応募者の評価、昇進の決定など、 雇用環境で使用されるシステム。

  • 公的給付の受給資格を評価し、クレジットスコアを評価するシステムを含む、重要な民間または公共サービスへのアクセスを決定するために使用されるシステム(金融詐欺を検出するために使用されるシステムは含まれない)

  • AI対応のポリグラフや証拠分析など、 法執行機関により使用されるシステム。

  • ビザ申請を処理するシステムなど、移民や国境管理に使用されるシステム。 これには渡航書類を検証するシステムは含まれませ

  • 選挙結果に直接影響するシステムなど、 司法および民主的プロセスで使用されるシステム。

  • プロファイリング(商品の好みなど、その人の生活のある側面を評価または予測するために個人データを自動的に処理すること)は、常にリスクが高いとみなされます。

禁止されたAI使用のリストと同様に、欧州委員会は将来的にこのリストを更新する可能性があります。

高リスクシステムのプロバイダーは、次の規則に従う必要があります。

  • AIを監視し、ライフサイクル全体にわたってコンプライアンスを確保するための継続的なリスク管理システムを実装すること。プロバイダーは、システムの意図された使用と予測可能な誤用の両方によってもたらされるリスクを軽減することが期待されています。

  • 厳格なデータ・ガバナンス基準を採用して、トレーニングとテストのデータが適切に収集、処理、保護されるようにすること。また、データは高品質で、システムの目的に関連しており、適度に偏りがないものである必要があります。

  • システム設計の仕様、機能、制限、および規制コンプライアンスの取り組みに関する包括的な技術文書を維持すること。

  • AIツールに自動イベントログを実装して、システム運用の追跡、結果の追跡、リスクと重大なインシデントの特定を支援すること。

  • システムの使用方法、出力の解釈、リスクの軽減方法に関する明確な指示など、規制を遵守するために必要な情報をAIシステムのデプロイヤーに提供すること。

  • ユーザーがシステム操作を監視、上書き、介入できるようにするインターフェイスを提供するなど、人間による監視をサポートおよび可能にするシステムを設計すること。

  • AIシステムの正確性、ロバスト性、安全性を確保すること (これには、バックアップ システムの作成、偏りを避けるためのアルゴリズムの設計、適切なサイバーセキュリティー制御の実装などが含まれる)。

AIシステムが高リスクのカテゴリーの1つに該当するものの、健康、安全、または人権に重大な脅威を及ぼさない場合、プロバイダーはこれらの要件の対象から免除されます。 プロバイダーは、システムがリスクを引き起こさないことを証明する文書を作成する必要があり、規制当局はシステムを誤って分類した組織に罰則を科すことができます。

watsonx.governanceがどのように企業のリスク軽減、ポリシー管理、説明可能な AIワークフローによるコンプライアンス要件の遵守を支援できるかをご覧ください。
限定的なリスク

限定的なリスクのAIシステムは、特定の透明性に関する義務(特定の種類のAIがそのリスクレベルにかかわらず、従わなければならない規制)を満たすシステムを指します。これらの規制には次が含まれます。

  • AIシステムは、ユーザーが人工知能と対話しているときに、ユーザーに明確に知らせる必要があります。 たとえば、チャットボットは、それがチャットボットであることをユーザーに伝える必要があります。

  • 組織は、感情認識やバイオメトリクス分類システムを使用する際に、必ずユーザーに知らせる必要があります。これらのシステムを通じて収集された個人データは、GDPRに従って処理する必要があります。

  • テキスト、画像、その他のコンテンツを作成する生成AIシステムは、ウォーターマークやその他の機械可読シグナルを使用して、そのコンテンツがAIにより生成されたものとして、示す必要があります

  • デプロイヤーは、ディープフェイク明確なラベルを付けて、その事実をユーザーに伝える必要があります。

  • AIを使用して、ニュース記事のような公共の関心事に関する文章を作成する場合、人間の編集者がその文章を確認し、責任を負わない限り、AIが作成した文章であることを示す必要があります
最小限のリスク

最小限のリスクのカテゴリー(「最小限またはリスクなしのカテゴリー」とも呼ばれる)には、人と直接やり取りしないAIツール、もしくは、やり取りをしても実質的な影響がほとんどないAIツールが含まれます。 例としては、EメールのスパムフィルターやビデオゲームのAIなどが挙げられます。 今日の一般的なAI使用の多くは、このカテゴリーに分類されます。

AI規則のほとんどの規制は、リスクが最小限のAIには適用されません(ただし、一部は上記の透明性に関する義務を果たす必要がある場合があります)。

watsonx.governanceがどのように企業のリスク軽減、ポリシー管理、説明可能な AIワークフローによるコンプライアンス要件の遵守を支援できるかをご覧ください。
汎用AI(GAI)の規制

汎用AIモデルは適応性が高いため、リスクレベルに応じて分類することが難しい場合があります。 このため、EU AI規則では、汎用AIに対して明示的に個別の規定を設けています。

汎用AIモデルのすべてのプロバイダーは、次の要件を満たす必要があります。

  • 特にモデルの設計、テスト、およびトレーニングのプロセスについて説明した最新の技術文書を維持すること。

  • モデルの上にAIシステムを構築する組織など、モデルのデプロイヤーに、責任を持ってモデルを使用するために必要な情報を提供すること(これには、モデルの能力、制限、意図された目的などが含まれます)。

  • EUの著作権法を遵守するためのポリシーを確立すること。

  • トレーニングデータセットの詳細な要約を作成して、一般に公開すること。

無料のオープンソース汎用AIモデルのほとんどは、上記の最初の2つの要件が免除されます。 必要とされるのは、著作権法に従い、トレーニングデータの概要を共有することのみです。

システミック・リスクをもたらす汎用AIモデルの規制

EU AI規則では、一部の汎用AIモデルがシステミック・リスクを引き起こすとみなされています。 システミック・リスクとは、あるモデルが、公衆の健康、安全、基本的権利に深刻な損害を広範囲にを与える可能性のことです。

同規則では、モデルが「大きな影響を与える能力」を備えている場合、そのモデルはシステミック・リスクを引き起こすとみなされます。これには、原則として、モデルの能力がその時点で利用可能な最も先進的な汎用AIの機能と同等か、それを上回っている場合が該当します。

同規則では、システミック・リスクを特定するための主な基準として、トレーニング・リソースが用いられます。モデルのトレーニングに使用されるコンピューティング能力の累積量が 1025 FLOP(浮動小数点演算)を超える場合、大きな影響を与える能力があり、システミック・リスクがあると見なされます。

欧州委員会は、FLOPのしきい値に達していない場合でも、モデルが高リスクと同等の影響を与えると判断した場合に、システミック・リスクとして分類することができます。

システミック・リスクがある汎用AIモデル (無料のオープンソース・モデルを含む)は、上記のすべての要件に加えて、いくつかの追加の義務を果たす必要があります。

  • 敵対的テストを含む、標準化されたモデル評価を実施し、システミック・リスクを特定して軽減すること。

  • 重大なインシデントを文書化し、EU AIオフィスおよび関連する州レベルの規制当局に報告すること。

  • 適切なセキュリティ管理を実施して、モデルとその物理インフラストラクチャーを保護すること。

汎用AIモデルのプロバイダーは、EU AIオフィスが現在策定中の自主的なプラクティス基準を採用することで、コンプライアンス遵守を達成できます。 EU AIオフィスによる基準の策定は、同規則の施行後、9か月以内に完了する見通しです。 これらの基準を採用していないプロバイダーは、他の方法により、コンプライアンス遵守を証明する必要があります。

追加の要件

プロバイダー、デプロイヤー、輸入者、および販売者は基本的に、開発、使用、または流通させるAI製品がコンプライアンス遵守していることを確認する責任があります。 遵守の証拠を文書化して、要求に応じて当局と共有する必要があります。 また、AIサプライチェーン内のすべての組織がEU AI規則を遵守できるようにするために、情報を共有し、相互に協力する必要があります。

また、プロバイダーとデプロイヤーは、組織に代わってAIを扱う従業員やその他の関係者が、責任を持ってAIを扱うために必要なAIリテラシーを身につけていることを確認する必要があります。

これらの広範な要件以外にも、すべての当事者に、各自が果たさなければ義務があります。

プロバイダーの義務
  • 該当する要件に準拠するAIシステム及びモデルを設計すること。

  • 新しい高リスクのAI製品を市場に出す前に、適合性評価のために、適切な当局に届け出を行うこと。適合性評価は、EU AI規則に対する製品の適合性を第三者が評価するものです。

  • プロバイダーがAI製品に大幅な変更を加え、その目的が変更された場合、またはそのコンプライアンへの適合状況に影響が生じた場合、プロバイダーは評価のために、再度届け出を行うこと。

  • 高リスクのAI製品をEUレベルのデータベースに登録すること。

  • 市販後のモニタリング計画を実施して、AIのパフォーマンスを追跡し、システムのライフサイクル全体にわたって継続的なコンプライアンスを確保すること。

  • 死亡、重要なインフラストラクチャーの混乱、基本的権利の侵害などの重大なAIインシデントが生じた場合は、加盟国の当局に報告し、必要に応じて是正措置を講じること。
デプロイヤーの義務
  • AIシステムを本来の目的に使用し、プロバイダーの指示に従うこと。

  • 高リスクのシステムには、人間による適切な監視を行うこと。

  • 重大なAIインシデントが発生した場合は、プロバイダー、販売者、当局、その他の関係者に報告すること。

  • AIシステムのログを、加盟国の法律に従って、少なくとも6ヶ月以上保持すること。

  • 金融機関、政府機関、法執行機関など、重要なサービスを提供するために高リスクのAIシステムを使用するデプロイヤーは、AIを初めて使用する前に、基本的権利に対する影響評価を実施すること。
輸入者および販売者の義務

輸入者および販売者は、流通させるAIシステムおよびモデルが EU AI規則に準拠していることを確認する必要があります。

輸入者または販売者は、製品に独自の名称や商標を付けたり、製品に大幅な変更を加えたりする場合には、AIのプロバイダーとみなされます。 この場合、輸入者または販売者は、規則によってプロバイダーに課せられるすべての責任を負います。

IBM OpenPagesにより、データ・ガバナンスと規制遵守をどのように簡素化できるかをご覧ください。
EU AI規則の施行

EU Ai規則は、複数の異なる機関によって施行されます。

EUレベルでは、欧州委員会は加盟国全体での同規則の一貫した適用を調整するために、AIオフィスを設立しました。 AIオフィスはまた、汎用AIに関する規制を直接施行し、組織に罰金を課し、是正措置を強制することができます。

個々の加盟国は、汎用AI以外のすべての規制を施行する国内管轄当局を指定します。 同規則は、各州に市場の監視を行う当局と通知を行う当局の2つの異なる当局を設立することを義務付けています。

市場監視当局は、組織がEU AI規則を遵守していることを確認します。 消費者からの苦情を聞き、違反を調査し、組織に罰金を課すことができます。

通知当局は、新しい高リスクAI製品の適合性評価を実施する第三者を監督します。

EU AI規則の罰則

禁止されているAI慣行を行なった組織には、最大で3,500万ユーロ、もしくは世界中の売上高の7%のいずれか高い方の罰金が科される可能性があります。

汎用AIに関する規制違反を含むその他の違反については、最大で1,500万ユーロ、もしくは世界中の売上高の3%のいずれか高い方の罰金が科せられる可能性があります。

当局に不正確な情報や誤解を招く情報を提供した組織は、最大で750万ユーロ、もしくは売上高の1%のいずれか高い方の罰金が科せられる可能性があります。

注目すべきは、EU AI規則では、スタートアップ企業やその他の小規模組織に対して課せられる罰金が異なります。 これらの企業の場合、罰金はいずれかの金額のうち、低い方となります。 これは、要件があまりに煩わしくなり、中小企業が AI 市場から締め出されないようにするための、法律の一般的な狙いと一致しています。

EU AI規則の発効

欧州議会は、2024年3月13日にEU AI規則の法案を承認しました。 欧州理事会が最終審査を完了し、欧州連合官報に掲載されてから20日後に発効します。一部の専門家は、2024年5月ごろになると予想しています。

同規則は2026年までは全面的には発効されず、時間の経過とともにさまざまな規定が段階的に施行されていきます。

  • 6か月後には、許容できないリスクに分類されるシステムの禁止が発効します。

  • 12か月後には、汎用AIに関する規定が新しい汎用AIに適用されます。すでに市場に出回っているGPAIモデルについては、24か月以内に対応する必要があります。

  • 24か月後には、高リスクのAIシステムに対する規定が適用されます。
関連ソリューション
watsonx

1つのプラットフォーム上で、ビジネス全体に簡単にAIを導入し、すべてのデータ・ソースを管理し、責任あるAIワークフローを推進します。

watsonxの詳細はこちら

IBM OpenPages

拡張性が高く、AI を活用した統合 GRC プラットフォームである IBM OpenPages を使用して、データ・ガバナンス、リスク管理、法規制へのコンプライアンスを簡素化します。

OpenPagesの詳細はこちら

参考情報 責任あるAIワークフローの構築

最新の電子ブックでは、AIガバナンスの主要な構成要素を概説し、組織に適用できる詳細なAIガバナンスのフレームワークを共有します。

組織が責任あるAIを必要とする3つの主要な理由

組織にとっての責任あるAIのトランスフォーメーションの可能性を探り、倫理的なAI実践の導入の背後にある重要な推進力について詳細をご覧ください。

貴社のAIは信頼できますか

責任あるAIをデプロイするために企業がAIガバナンスを重視すべき理由についてのディスカッションにご参加ください。

データ・ガバナンスとは

データ・ガバナンスによって企業がデータ資産を最大限に活用できるようにする方法をご覧ください。

説明可能なAIとは

AIモデルを本番環境で稼働する際に、説明可能なAIは組織の信頼と信用の構築に不可欠となります。

AI倫理とは

AI倫理は、リスクや不利な結果を軽減しながら、AIの有益な影響を最適化する方法を研究する学際的な分野です。AI倫理へのIBMの取り組みを紹介します。

次のステップ

生成モデルと機械学習モデルの両方のライフサイクル全体にわたって、責任があり、透明性があり、説明可能な AI ワークフローを加速します。組織のAI活動を指揮、管理、監視し、拡大するAI規制をより適切に管理し、リスクを検出、軽減します。

watsonx.governanceの詳細はこちら ライブ・デモを予約する