AI 法が EU で人工知能をどのように規制するのか、またそれがどのような影響を与えるのか

25/01/24

結果が発表されると、イ・セドルの目には涙があふれた。 Google の DeepMind が開発した人工知能 (AI) AlphaGo が、囲碁ゲームで 4 対 1 の勝利を収めたところです。それは 2016 年 XNUMX 月のことです。XNUMX 年前、チェスのグランドマスター、ガルリ カスパロフはマシン Deep Blue に敗れていましたが、今では人間だけが直感と戦略的思考を駆使して行うと信じられていた複雑なゲームで、コンピュータプログラムが第XNUMX代世界チャンピオンのイ・セドルに勝利したのだ。コンピューターは、プログラマーによって与えられたルールに従うことでではなく、過去の何百万もの囲碁対局に基づいた機械学習と、コンピューター自身との対局によって勝利しました。この場合、プログラマーはデータセットを準備してアルゴリズムを作成しますが、プログラムがどのような手を提案するのかはわかりません。人工知能は自ら学習します。一連の異常かつ驚くべき行動の後、リー氏は辞任しなければならなかった。」

ベルギーの哲学者であり技術者であるマーク・コッケルバーグの著書『AI Ethics』からのこの抜粋は、人間とその限界との出会いを明示的かつ暗示的な方法で思い出させます。 Sedol が一定数勝利した後、AlphaGo が勝ちます。このようなことが起こったのはこれが初めてではありませんが (引用されている例はディープ ブルーの例です)、それでも、一連の異常で驚くべき手を経た後、AlphaGo はその設計どおりの動作を行います。こちらです。

そしてここで、私たちは人工知能 (AI) 現象の総合を理解します。 こんなことは初めてだ.

すべてのメディアが人工知能への競争について、特に「esplosioneChatGPT。私たちはこれについてオンライン ディフェンスの文脈でも何度も話し、これらのソリューションがその歴史の中で前例のない進化の推進に直面していることを強調しました。

しかし、類似した現象があり、これは推測的であり、最初の現象と関連していますが、見過ごされる危険があります。これらのシステムの標準化について.

人工知能を規制することは決して簡単な課題ではなく、専門的なことに立ち入ることなく(また、このテーマに関してアジア諸国や米国で進行中の数多くの立法議論も)、欧州連合はこれまでの長年の取り組みを経て、技術的な議論とコミュニティの承認手続きが完了すると、欧州初の人工知能に関する規制である AI ACT の半決定版が 2023 年 XNUMX 月に施行されます。

これは何ですか。

「AI 法」は、人工知能の使用を規制し、それに伴う潜在的なリスクを軽減することを目的とした、世界レベルで最初の最も構造化された立法文書の 1 つです。法律の最終条文は引き続き有能な専門家によって作成され、最終改正が行われる必要があります。すべてが障害なく進めば、発効は今後 2 年以内に行われることが予想されます。

この規制は主に個人の権利と自由を保護することに焦点を当てており、AI ソリューションを開発する企業に対し、自社の製品とその開発プロセスが人々を危険にさらしたり、誠実さを損なったりしないことを証明する義務を定めています。この規制法は、人工知能の応用分野をいくつかカバーしていますが、主要な点には、生体認証システムに対する制限や、人工知能に使用される技術システムに関する透明性の義務などが含まれます。 チャットボット ChatGPT のように。

この規制の基本的な要素は、他の同様の規制 (とりわけ GDPR) ですでに採用されているリスク分類システムです。このシステムでは、特定の特性を持つ特定の AI システムを「高リスク」として識別し、厳格なコンプライアンス措置の対象となります。この規定は、そのようなシステムの作成、試運転、または使用に関わる企業や機関にとって大きな課題となります。

この規制に含まれる高リスクシステムの例には、医療、運輸、司法、公安などの重要な分野で使用されるシステムが含まれます。このようなシステムには、セキュリティ、透明性、信頼性の点で高い基準が要求されます。特に、高リスク システムについては、AI 法により次のような多くの厳しい要件が定められています。

  • リスク評価とコンプライアンス:AIシステムは徹底したリスク評価を考慮して設計・開発する必要があります。これには、これらのリスクを管理し、最小限に抑えるための対策の導入が含まれます。
  • 透明性とユーザー情報: AI システムは透明である必要があります。ユーザーは、AI システムと対話するときに通知を受け、システムがどのように動作し、意思決定を行うかについて十分な情報を提供される必要があります。
  • 人間による監視:AI法は、AIシステム、特にリスクの高いシステムにおける人間による監視の重要性を強調しています。これは、重要な状況での自動化された意思決定が制限されたり、人間による明示的な監督が必要となる可能性がある AI の軍事利用に重大な影響を与える可能性があります。
  • データ品質: AI 法では、AI システムで使用されるデータを最高の品質を確保して管理し、偏見のリスクを軽減し、行われた意思決定が正確で信頼できるものであることを保証することが求められています。
  • 安全性と堅牢性: AI システムは、操作や悪用の試みに対して安全かつ堅牢でなければなりません (控えめに言っても、軍事分野では特に重要な側面です)。

特に興味深いさらなる要件は、倫理的な観点から導入された要件です。AI 法では、高リスク システムに対して実際の「倫理的評価」(基本的権利影響評価、FRIA) を実施することが求められています。また、個人データ処理のセキュリティのトピックとのやり取りも数多くあり、規則の本文では、これらのシステムの運用に関与する自然人へのリスクと影響、および個人データ処理のリスクの分析に関して何度も言及されています。彼らのデータ。

また、 禁止行為もございます。たとえば、性的指向、民族、宗教、政治的思想などの特徴に基づいて人を認識するなど、機密の生体データの分析に AI を使用することは禁止されます。この規定は、差別や虐待を防止することを目的としています。人々のプライバシーを保護し、大規模な監視を防ぐために、顔認識システムを訓練するためにインターネットや監視カメラから撮影した画像を無差別に使用することも禁止される。

法執行機関は、以下の場合に限り、生体認証システム(クリアビュー事件の後、EU 内で重要な争いが繰り広げられた)の使用を許可されることになる。 特別な事情差し迫ったテロ攻撃の脅威や、重大な犯罪の疑いのある人物や重大な犯罪の被害者の捜索など。

AI法は、個人の感情的な自由を守るため、職場や学校で人の感情を認識するためのAIの使用を禁止している。さらに、以下の行為を禁止します。 ソーシャルスコアリング、またはAIを使用して人々の行動や特性に基づいてスコアを割り当て、その結果公民権の制限や付与が行われます。この措置は、人々の行動が明示的または暗黙的に操作されるのを防ぐことを目的としています。

この規則は、OpenAI の GPT-4 などの高いコンピューティング能力を備えた影響力の高い AI システムは、トレーニング プロセスの透明性を保証し、市場に投入される前に使用されるマテリアルの技術文書を共有する必要があることを定めています。これらのモデルは、詐欺や偽情報を防止し、作成された作品の著作権を保護するために、生成するコンテンツを認識できるようにする必要があります。

制裁に関しては、これらの規則を遵守しない企業には、世界売上高の最大 7% の罰金が科せられる可能性があります。

間違いなく非常に興味深いのは、軍事分野での人工知能システムの使用に関する現在の文書で予測されていることです。

実際、本文(第 2 条第 3 項)には、軍事分野への影響という観点から AI 法が明示的に規定されています。 軍事目的で開発または使用される人工知能システムには直接適用されません。。ただし、AI 法によって設定された基準と規制は、EU 加盟国やヨーロッパで活動する企業が軍事用途向けの AI システムを開発および展開する方法に間接的に影響を与える可能性があります。これには、透明性、人間による監視、システムのセキュリティなどの側面が含まれる可能性があります。さらに、AI法は、EUレベルと世界レベルの両方で、将来の軍事特有の規制(または基準)のモデルとして機能する可能性があります。

防衛への人工知能の統合が進むにつれて、イノベーションと倫理的責任およびセキュリティのバランスをとる規制の枠組みが必要になります。 AI の軍事利用が人道法の国際原則に従って責任を持って展開されるようにするには、国、機関、業界間の協力が鍵となります。

AI法はいくつかの適用フェーズを経る予定で、そのうち最も大規模な適用フェーズは現実的には2026年後半に予想されています。準拠するAIを設計するには、現在開発中のシステムの設計にかなりの準備をする必要があります。この意味で欧州連合が提案した要件と一致します。

アンドレア・プリゲッドゥ (弁護士、法律と新技術の専門家)

ノート: この記事には必然的に有益な側面があり、AI 法の開発と適用に関連して議題となっている数多くの (そして複雑な) 問題については掘り下げていません。私宛: Puligeddu@studiolegaleprivacy.com

(www.studiolegaleprivacy.com)