EU AI規制法への準備:ガバナンスを正しく行う

オフィスの机に座りながらノートPCで議論する女性同僚を見下ろした写真

欧州人工知能規制法(EU AI規制法)は、欧州連合内の人工知能(AI)に対する人間による新たなレベルの監視と規制遵守を推進しています。プライバシーに関するGDPRと同様に、EU AI規制法は、世界中で今後のAI規制の方向性を決める可能性を秘めています。

2024年初め、27の加盟国で構成される欧州議会は、EU AI法を全会一致で承認しました。この法律は現在、立法プロセスの最終段階を経ており、2024年後半に段階的に施行される予定です。EU AI規制法の規定を理解し、コンプライアンスに備えることは、AIを開発、導入、または使用している、あるいは計画している組織にとって不可欠です。

AI規制法の目的は、「研究室から市場に至るまで卓越したAIの世界的ハブとしての欧州の地位を強化し、定められた価値観とルールを欧州のAIが遵守し、AIの可能性を産業利用に活用することを保証する」ことです。

欧州議会ニュース

EU AI規制法の概要

EU AI法の主な焦点は、リスク管理、データ保護、品質管理システム、透明性、人的監視、正確性、堅牢性、サイバーセキュリティの分野での規制コンプライアンスを強化することです。これは、AIシステムの開発と展開の方法に透明性と説明責任を推進し、市場に投入されるAI製品が個人にとって安全に使用できることを保証することを目的としています。

EU AI法は、ヘルスケア、金融、エネルギーなど、規制の厳しい業種を含め、責任を持ってAIを開発・デプロイするという課題に対応することを目的としています。保険、銀行、小売など、クライアントに不可欠なサービスを提供する業種では、AIの使用が顧客の権利にどのように影響するかを詳述した基本的権利アセスメントの使用が法律で義務付けられています。

EU AI規制法の基盤:許容できないリスクを防ぐための保護措置

EU AI規制法では、大規模言語(LLM)などの生成AIシステムや基盤モデルを含む汎用AIモデルが、体系的なリスク階層に基づく分類システムに従うことが義務付けられています。リスク階層が高いほど、モデルの評価、文書化、報告などの透明性が要求されます。また、システム・リスクの評価と軽減、重大なインシデントの報告、サイバーセキュリティーからの保護の提供も含まれます。さらに、これらの透明性要件には、最新の技術文書の維持、モデル・トレーニングに使用されるコンテンツの概要の提供、欧州著作権法の遵守が含まれます。

EU AI規制法は、リスクベースのアプローチに従っており、 AIシステムが個人の健康、安全、または基本的権利にもたらすリスク・レベルを階層化して分類しています。次の3つのレベルがあります。

  • スパム・フィルターやテレビゲームなどの低リスクのシステムには、透明性の義務以外、法律上の要件はほとんどありません。
  • 自律走行車、医療機器、重要なインフラ(水道、ガス、電気など)などのリスクの高いAIシステムは、開発者や利用者が次のような追加の規制要件に従う必要があります。
    • リスク管理を実施し、正確性、堅牢性、および人間による監視を含む説明責任の枠組みを提供する
    • ユーザー、記録管理、技術文書に規定された透明性要件を満たす
  • ほぼ例外なく禁止されているシステムは、ソーシャル・スコアリング、顔認識、感情認識、公共スペースでのリモート生体認証システムなど、容認できないリスクをもたらすシステムです。

また、EU AI規制法では、チャットボットの使用時や感情認識システムの使用時に、顧客に通知する方法についても規則が定められています。ディープフェイクにラベルを付け、メディアにおける生成AIコンテンツの使用時期を特定することを目的とした、追加の要件があります。

EU AI法を遵守しない場合、費用負担が発生する可能性があります

誤った情報を提供すると、750万ユーロまたは企業の世界年間総売上高の1.5%(いずれか高い方)が科せられます。EU AI規制法の義務違反には、1,500万ユーロまたは企業の世界年間総売上高の3%(いずれか高い方))が科せられます。

— VentureBeat

欧州のAI規制法は現在、AI規制の最も包括的な法的枠組みです。世界中の政府が注目し、市民、企業、政府機関が潜在的なリスクから確実に保護されるように、AIテクノロジーを規制する方法について活発に議論しています。さらに、企業の取締役会から消費者までの利害関係者が、AIに関しては信頼性、透明性、公平性、説明責任を優先し始めています。

IBMと共に今後の規制に備える

IBM watsonx.governanceが責任ある、透明性の高い、説明可能なAIワークフローを加速

IBM® watsonx.governance™により、AIガバナンス、つまり組織のAI活動の指示、管理、監視を加速できます。ソフトウェア自動化を採用して、リスクを軽減し、ポリシー要件を管理し、生成AIモデルと予測機械学習(ML)モデルの両方のライフサイクルを管理する能力を強化します。

Watsonx.governanceを使用すると、次の3つの主要な領域でモデルの透明性、説明可能性、文書化を推進できます。

  • コンプライアンスAIの透明性を管理し、ポリシーと標準へのコンプライアンスに対処できるようにする。データを主要なリスク管理に結び付け、ファクトシートを使用して、調査や監査をサポートするモデルのメタデータの取得とレポート作成を自動化する。
  • リスク管理リスクしきい値を事前設定し、AIモデルのリスクを先見的に検出して軽減できる。公平性、動向、バイアス、評価指標に対するパフォーマンス、有害な言葉の事例、および個人を特定できる情報(PII)の保護を監視する。ユーザーベースのダッシュボードとレポートを使用して、組織のリスクに関する知見を取得する。
  • ライフサイクル・ガバナンス—統合されたワークフローと承認を使用して、ライフサイクル全体にわたって生成AIと予測機械学習モデルの両方を管理する際に役立つ。ユースケース、処理中の変更要求、課題、問題、割り当てられたタスクのステータスを監視する。

お客様は関連法規の遵守において、自ら責任を負うものとします。IBMは法律上の助言を提供することはなく、また、IBMのサービスまたは製品が、いかなる法規もしくは規則をお客様が遵守していることの裏付けを、表明ならびに保証するものでもありません。

 

著者

Heather Gentile

Director of Product, watsonx.governance Risk and Compliance

IBM

関連ソリューション
IBM® watsonx.governance

IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。

watsonx.governanceについて
AIガバナンス・ソリューション

AIガバナンスが、どのように従業員のAIに対する信頼向上や、導入とイノベーションの加速、顧客からの信頼向上に役立つかをご覧ください。

AIガバナンス・ソリューションの詳細はこちら
AIガバナンス・コンサルティング・サービス

IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。

AIガバナンス・サービスの詳細はこちら
次のステップ

AIを単一のポートフォリオで統括・管理・監視することで、透明性を高め、責任ある説明可能なAIの導入を加速させます。

watsonx.governanceの詳細はこちら デモの予約