法務・倫理

EU AI Act(EU AI規制法)

イーユーエーアイアクト

一文定義

EUが2024年に成立させた世界初の包括的AI規制法。AIシステムをリスクレベルで分類し、高リスクAIには厳格な要件を課す。世界の規制議論に大きな影響を与えている。

詳細解説

EU AI Act(Artificial Intelligence Act)とは、欧州連合(EU)が2024年3月に欧州議会で採択し、同年8月に発効した世界初の包括的なAI規制法です。AIシステムをリスクレベルで分類し、それぞれのリスクカテゴリに応じた義務を開発者・利用者に課す枠組みで、GDPRがデータ保護の世界標準となったように、AI規制の国際的なベンチマークとなることが期待されています。

リスクベースの4段階分類として、(1)禁止されるAI(Unacceptable Risk):社会信用スコアリング・リアルタイム遠隔生体認証(法執行の限定的例外あり)・無意識の行動操作等、基本的人権を侵害するAIは全面禁止、(2)高リスクAI(High Risk):採用選考・信用審査・教育評価・法執行・重要インフラ等に使用されるAI。適合性評価・リスク管理・データガバナンス・人間による監視・透明性の義務を課す、(3)限定リスクAI(Limited Risk):チャットボット・ディープフェイク等。ユーザーへの透明性義務(AI生成コンテンツである旨の開示等)、(4)最小リスクAI(Minimal Risk):スパムフィルター・ゲームAI等。特段の規制なしで自由に利用可能、と分類されています。

汎用AIモデル(GPAI)規制として、LLMを含む汎用AIモデルの提供者には、(1)技術文書の作成・公開、(2)EU著作権法の遵守、(3)学習データの要約公開が義務付けられます。さらにシステミックリスクを持つGPAI(計算量が10^25 FLOPsを超えるモデル等)には、レッドチーミング・サイバーセキュリティ評価・インシデント報告等の追加義務が課されます。

施行スケジュールとして、2025年2月に禁止AI規定が施行開始、2025年8月にGPAI規制が適用開始、2026年8月に高リスクAI規制が全面適用される段階的な施行が進められています。EU域内でサービスを提供する全企業(EU外の企業を含む)に適用されるため、日本企業にも影響があります。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る