欧州連合(EU)は、人工知能(AI)規制の競争をリードしています。 本日未明、欧州理事会と欧州議会は、AI規制に関する世界初の包括的合意となる暫定合意に達するための3日間の交渉を終了しました。
スペインのカルメ・アルティガス(Carme Artigas)デジタル化・人工知能担当国務長官はプレスリリースで、この合意を「歴史的な成果」と呼んだ。 Artigas氏は、この規則は、EU全体で安全でセキュアなAIのイノベーションと採用を促進することと、市民の「基本的権利」を保護することの間で「非常に微妙なバランス」をとっていると述べました。
この法案である人工知能法は、2021年4月に欧州委員会によって初めて提出されました。 議会とEU加盟国は来年、法案を承認する投票を行う予定だが、この規則は2025年まで発効しない。
リスクベースのAI規制アプローチ
AI法はリスクベースのアプローチで設計されており、AIシステムがもたらすリスクが高いほど、ルールは厳しくなります。 これを実現するために、規制はAIを分類して「高リスク」をもたらすものを特定します。
脅威がなく、リスクが低いと見なされるAIには、「非常に軽い透明性義務」が課せられます。 例えば、このようなAIシステムは、ユーザーが十分な情報に基づいた意思決定を行えるように、コンテンツがAIによって生成されたものであることを開示することが求められます。
リスクの高い認定機関については、この法律により、次のような多くの義務と要件が追加されます。
人間による監視:この法案は、人間中心のアプローチを求めており、リスクの高いAIシステムに対する明確で効果的な人間による監視メカニズムを強調しています。 これは、AIシステムの動作を積極的に監視および監督するために人間を関与させることを意味します。 彼らの役割には、システムが意図したとおりに機能していることを確認し、潜在的な危険や意図しない結果を特定して対処し、最終的に決定と行動に責任を持つことが含まれます。
透明性と説明可能性: リスクの高い AI システムの内部動作をわかりやすく説明することは、信頼を構築し、説明責任を確保するために重要です。 開発者は、システムがどのように意思決定を行うかについて、明確でアクセス可能な情報を提供する必要があります。 これには、基になるアルゴリズム、トレーニング データ、およびシステムの出力に影響を与える可能性のある潜在的なバイアスに関する詳細が含まれます。
データガバナンス:人工知能法は、責任あるデータ慣行を強調し、差別、偏見、プライバシー侵害の防止を目的としています。 開発者は、リスクの高い AI システムのトレーニングと運用に使用されるデータが正確で、完全で、代表的であることを確認する必要があります。 データの最小化の原則は、システムの機能に必要な情報のみを収集し、誤用や破壊のリスクを最小限に抑えるために重要です。 さらに、個人は、AIシステムで使用されるデータにアクセス、修正、削除する明確な権利を持ち、自分の情報を管理し、倫理的に使用されるようにする必要があります。
リスク管理: リスクを事前に特定して軽減することは、リスクの高い AI の重要な要件です。 開発者は、潜在的な危害、脆弱性、および意図しない結果についてシステムを体系的に評価する堅牢なリスク管理フレームワークを実装する必要があります。
人工知能の特定の使用は禁止されています
この規制は、リスクが「容認できない」と見なされる特定のAIシステムの使用を完全に禁止します。 例えば、公共の場での顔認識AIの使用は、法執行機関での使用を除き、禁止されます。
また、この規制は、AIが人間の行動を操作したり、ソーシャルスコアリングシステムを使用したり、脆弱なグループを搾取したりすることを禁じています。 また、学校やオフィスなどでの感情認識システムの使用や、監視カメラの映像やインターネットからの画像の撮影も禁止されます。
イノベーションを誘致するための罰則と規制
AI法は、法律に違反した企業にも罰則を科します。 例えば、AIの適用を禁止する法律に違反した場合、その企業のグローバル収益の7%の罰金が科せられ、義務や要件に違反した企業にはグローバル収益の3%の罰金が科せられます。
イノベーションを促進するために、この規制により、革新的なAIシステムを実際の条件下で適切な保護措置を講じてテストできるようになります。
欧州連合(EU)はすでにこの競争をリードしていますが、米国、英国、日本も独自のAI法を導入しようとしています。 欧州連合(EU)のAI法は、AIの規制を模索する国々にとって、世界標準となる可能性があります。
20.96K 人気度
6.3K 人気度
5.05K 人気度
3.19K 人気度
89.96K 人気度
欧州連合(EU)は、公共の場での顔認識を禁止する世界初のAI法案を可決します
欧州連合(EU)は、人工知能(AI)規制の競争をリードしています。 本日未明、欧州理事会と欧州議会は、AI規制に関する世界初の包括的合意となる暫定合意に達するための3日間の交渉を終了しました。
スペインのカルメ・アルティガス(Carme Artigas)デジタル化・人工知能担当国務長官はプレスリリースで、この合意を「歴史的な成果」と呼んだ。 Artigas氏は、この規則は、EU全体で安全でセキュアなAIのイノベーションと採用を促進することと、市民の「基本的権利」を保護することの間で「非常に微妙なバランス」をとっていると述べました。
この法案である人工知能法は、2021年4月に欧州委員会によって初めて提出されました。 議会とEU加盟国は来年、法案を承認する投票を行う予定だが、この規則は2025年まで発効しない。
リスクベースのAI規制アプローチ
AI法はリスクベースのアプローチで設計されており、AIシステムがもたらすリスクが高いほど、ルールは厳しくなります。 これを実現するために、規制はAIを分類して「高リスク」をもたらすものを特定します。
脅威がなく、リスクが低いと見なされるAIには、「非常に軽い透明性義務」が課せられます。 例えば、このようなAIシステムは、ユーザーが十分な情報に基づいた意思決定を行えるように、コンテンツがAIによって生成されたものであることを開示することが求められます。
リスクの高い認定機関については、この法律により、次のような多くの義務と要件が追加されます。
人間による監視:この法案は、人間中心のアプローチを求めており、リスクの高いAIシステムに対する明確で効果的な人間による監視メカニズムを強調しています。 これは、AIシステムの動作を積極的に監視および監督するために人間を関与させることを意味します。 彼らの役割には、システムが意図したとおりに機能していることを確認し、潜在的な危険や意図しない結果を特定して対処し、最終的に決定と行動に責任を持つことが含まれます。
透明性と説明可能性: リスクの高い AI システムの内部動作をわかりやすく説明することは、信頼を構築し、説明責任を確保するために重要です。 開発者は、システムがどのように意思決定を行うかについて、明確でアクセス可能な情報を提供する必要があります。 これには、基になるアルゴリズム、トレーニング データ、およびシステムの出力に影響を与える可能性のある潜在的なバイアスに関する詳細が含まれます。
データガバナンス:人工知能法は、責任あるデータ慣行を強調し、差別、偏見、プライバシー侵害の防止を目的としています。 開発者は、リスクの高い AI システムのトレーニングと運用に使用されるデータが正確で、完全で、代表的であることを確認する必要があります。 データの最小化の原則は、システムの機能に必要な情報のみを収集し、誤用や破壊のリスクを最小限に抑えるために重要です。 さらに、個人は、AIシステムで使用されるデータにアクセス、修正、削除する明確な権利を持ち、自分の情報を管理し、倫理的に使用されるようにする必要があります。
リスク管理: リスクを事前に特定して軽減することは、リスクの高い AI の重要な要件です。 開発者は、潜在的な危害、脆弱性、および意図しない結果についてシステムを体系的に評価する堅牢なリスク管理フレームワークを実装する必要があります。
人工知能の特定の使用は禁止されています
この規制は、リスクが「容認できない」と見なされる特定のAIシステムの使用を完全に禁止します。 例えば、公共の場での顔認識AIの使用は、法執行機関での使用を除き、禁止されます。
また、この規制は、AIが人間の行動を操作したり、ソーシャルスコアリングシステムを使用したり、脆弱なグループを搾取したりすることを禁じています。 また、学校やオフィスなどでの感情認識システムの使用や、監視カメラの映像やインターネットからの画像の撮影も禁止されます。
イノベーションを誘致するための罰則と規制
AI法は、法律に違反した企業にも罰則を科します。 例えば、AIの適用を禁止する法律に違反した場合、その企業のグローバル収益の7%の罰金が科せられ、義務や要件に違反した企業にはグローバル収益の3%の罰金が科せられます。
イノベーションを促進するために、この規制により、革新的なAIシステムを実際の条件下で適切な保護措置を講じてテストできるようになります。
欧州連合(EU)はすでにこの競争をリードしていますが、米国、英国、日本も独自のAI法を導入しようとしています。 欧州連合(EU)のAI法は、AIの規制を模索する国々にとって、世界標準となる可能性があります。