間もなくロボット裁判官が来るというのは本当ですか?

(へ エンリカ・プリオロ)
21/02/22

人と機械。 今では慣れ親しんでいて、発音されるたびに怖がるコンビネーション。 基本的なジレンマは、人間が機械を操作するためのスペースをどの程度与えなければならないかを理解することです。

より多くの議論がある知識の分野のXNUMXつは、間違いなく法律の分野、特にいわゆる自動化された司法決定の分野です。

ロボット裁判官がすぐに来るのは事実です? 答えるには、まず、一般的に、予測と予測が何を意味するのかを特定します。

それらは少なくとも存在します XNUMXつの状況 法律と運営者(法律家と立法者)は、「予測」または将来何が起こるかを事前に見て評価する必要性/能力で自分自身を測定します。 それらを見てみましょう。

1)規範的規定。 法律家の用語集では、「規範的予測」という表現は、立法者が想像し、その存在に特定の結果の発生が再接続されている抽象的な状況を示すように見えることがよくあります。 特定の状況では、それはいわゆる「抽象的ケース」と一致します。

したがって、予測の概念は標準の概念に固有のものです。後者のタスクは、将来起こりうる状況を事前に予測することです。 私たちが規範的な文を解釈するとき、一方ではそれが適用できる実際の状況を想像し、他方ではその規定の理由を自問し、立法者を促した理由を特定しようとします特定の選択をするかしないか。

2)法制度対応の予測可能性/予測可能性:法的確実性。

論争の結果の予測は、今言われたことに関連した視点に置かれます。

この文は、抽象的な「規範的規定」から、その規定が適用される個々の事件の正義への移行を示しています。 それは、三段論法の推論モデルに従って、具体的なケースが抽象的なケースに完全に適応する瞬間です。 「計算可能な権利」の考え方は、紛争の結果は「予測可能」でなければならないという信念に基づいています。 正確に言えば、この仮定は、私たちの司法文明の柱のXNUMXつである「法的確実性」に実質を与えます。 与えられた問題に関連する義務的な法制度は、常に同じ答えを提供しなければなりません。 確かなのは予測可能なものだけだからです。 

3)規制の影響の予測。

規制当局/立法者(およびそれらと協力する法律家)の視点を想定すると、ここ数年、規則や規制の影響を「予測」する必要性がますます強調されてきたことを覚えておく必要があります。適切な調査の結果、それらが望ましい期待される効果をもたらすことが合理的に確実である場合にのみ発行します。

したがって、合理的に「予測」できる必要があります。

a)アソシエイトが新しいルールにどのように反応するか(彼らが望ましいおよび/または課された行動を維持するかどうか)。

b)新しい規則によって生み出される効果が本当に望ましい目的の達成につながるかどうか。

4)人工知能の予測/予測性。

新しいフロンティアは、人工知能の予測機能によって表されます。 「データサイエンス」 との "データマイニング" 法の世界に適用されます(「法的分析」)。 よく知られている米国のルーミスのケース(COMPASソフトウェアがルーミス氏の再犯の適性を予測する能力を委任されているように見えた)は別として、ここでは、によって実行される確率的計算によって予測を詳しく説明する能力を意味します。単純に統計ベースまたは論理ベースで動作するアルゴリズム。

法的分析は、判断の結果を予測するために使用できます。 

たとえば、2016年には、自然言語処理と機械学習の進歩のおかげで、司法上の決定を導くパターンを解明するのに役立つ予測モデルを構築することを目的とした調査が実施されました。 この作業では、テキストの内容に基づいて欧州人権裁判所によって分析されたケースの結果を予測しました。予測は、ケースの79%で成功しました。 そして、より一般的には、法制度におけるすべての関係者の行動を予測するために使用できます。 レックスマキナ、の発散 レクシスネクシスは、データとソフトウェアを組み合わせて、裁判官、弁護士、当事者、訴訟の主題に関するデータセットを作成し、数百万ページの紛争情報を分析します。 このデータを使用して、弁護士は、考えられるさまざまな法的戦略が生み出す行動と結果を予測できます。

La 「法的分析」 プロセスの結果を予測することを目的としています。厳密で機械的な法的推論に基づくのではなく、膨大な量のデータの高度なアルゴリズム/統計分析に照らして(ビッグデータ).

裁判所、裁判官、運営者の考えられる方向性を仮定することはXNUMXつのことです。 単一の判断の結果を確実に予測することはまったく別のことです。 これを達成するには、不確実性と予測不可能性を管理できるアルゴリズムが必要です。 そして、いずれにせよ、このタイプのアルゴリズムに法的決定を委ねることの正当性に関する倫理的問題が残るでしょう。

この最後の側面に関して、によって行われた作業を思い出す必要があります 正義の効率のための欧州委員会 (CEPEJ)は、司法制度および関連分野での人工知能の使用に関するいわゆる欧州倫理憲章を採用しています。 2018年に発行された憲章は、「正義」システムにおける人工知能の使用に関するXNUMXつの主要な原則を確立しました。

一方、人工知能によってヨーロッパが何を意味するかを見てください

機械によって人間の認知能力を再現することを目的とした一連の科学的方法、理論、および技術。 現在の開発は、以前は人間が行っていた複雑なタスクを機械に実行させることを目的としています。 ただし、「人工知能」という表現は、「強力な」人工知能(さまざまな種類の特殊な問題を完全に自律的にコンテキスト化できる)と「弱い」または「中程度の」人工知能(高性能彼らのトレーニングエリア)。 一部の専門家は、「強力な」人工知能は、世界全体をモデル化できるようにするために、既存のシステムのパフォーマンスの単純な改善だけでなく、基礎研究の大幅な進歩を必要とするだろうと主張しています。 このドキュメントで言及されているツールは、機械学習手法、つまり「弱い」人工知能を使用して開発されています。

そしてそれはどういう意味ですか 予測的正義 (予測的正義)

予測的正義とは、特定の種類の専門家の紛争(たとえば、退職金や維持費に関連するもの)の結果に関する予測を策定するために、人工知能技術を使用して多数の司法決定を分析することを意味します。 の企業が使用する「予測」という用語 法的技術 帰納的分析のおかげで将来の結果を予測することを可能にする科学の分野(主に統計)から取得されます。 司法上の決定は、入力データ(法律によって確立された基準、事件の事実、動機)と出力データ(たとえば、補償額に関連する正式な決定)の間の相関関係を発見するために処理されます。 関連性があると見なされる相関関係により、モデルの作成が可能になります。このモデルは、新しい入力データ(契約関係の期間など、パラメーターの形式で導入された新しい事実または説明)とともに使用すると、開発者によると、決断。

一部の著者は、このアプローチを形式的かつ実質的に批判し、一般に、特定の社会現象の数学的モデリングは、他のより簡単に定量化できる活動に匹敵するタスクではないと主張しています(司法決定の真の原因となる要因を分離することは 無限に複雑なタスク たとえば、囲碁のゲームをプレイしたり、画像を認識したりする場合):誤った相関関係のリスクははるかに高くなります。 さらに、教義では、法的な推論が十分に立証されている場合、XNUMXつの矛盾する決定が有効であることが証明される可能性があります。 その結果、予測の策定は、純粋に指標的な性質の行使を構成し、規範的な主張はありません。

期限が設定されたら、CEPEJによって確立された基本原則は何であるかを調べましょう

1)基本的権利の尊重の原則:

基本的権利と互換性のある人工知能ツールとサービスの開発と実装を確実にします。 人工知能ツールを使用して紛争を解決したり、司法の意思決定を支援したり、一般の人々を方向付けたりする場合、裁判官へのアクセス権と公正な裁判(武器の平等と敵対者への敬意)。

これは、開発と学習の段階から、超国家的な条約によって保護されている基本的な価値の直接的または間接的な違反を禁止する完全な規定がなければならないことを意味します。

設計による人権。

2)非差別の原則:

特に、個人または個人のグループ間の差別の進展または強化を防止します。 個人または人々のグループに関連するデータのグループ化または分類を通じて、既存の差別を明らかにするこれらの処理方法の能力を考えると、公的および私的アクターは、方法論がそのような差別を再現または悪化させないこと、およびそれらが決定論的分析または使用。

メソッドは非差別的でなければなりません。

3)品質と安全の原則:

司法上の決定とデータの処理に関しては、安全な技術環境で、学際的に開発されたモデルで認定されたソースと無形のデータを使用します。 機械学習モデルの作成者は、法と社会科学の分野で関連する司法制度の専門家や研究者の専門知識を幅広く活用できる必要があります。 機能モデルを作成するために、短い処理サイクルで混合プロジェクトチームを設立することは、この学際的なアプローチから最高のものを得ることができる組織的な方法のXNUMXつです。

デザインが多ければ多いほど良いです。

4)透明性、公平性、公平性の原則:

データ処理方法をアクセス可能で理解しやすいものにし、外部監査を承認します。 いくつかの処理方法論の知的財産と、透明性(創造的プロセスへのアクセス)、公平性(偏見の欠如)、公平性、知的完全性(正義の利益を優先する)の必要性との間でバランスをとる必要があります。法的な結果をもたらす、またはそれは人々の生活に重大な影響を与える可能性があります。 選択方法とデータの品質と構成が学習フェーズに直接影響するため、このような対策は、運用チェーンだけでなく、創造的なプロセス全体にも適用されることを理解する必要があります。

人工知能は、サードパーティによって検証できる必要があります。

5)「ユーザーによる管理」の原則:

規範的なアプローチを排除し、ユーザーが情報に基づいたアクターであり、選択を制御できるようにします。 人工知能のツールとサービスの使用は、ユーザーの自律性を強化するものであり、制限するものではありません。 ユーザーは、拘束力のある性質について、または人工知能ツールによって提案された解決策について、利用可能なさまざまな可能性について、および法的支援を受けて裁判所にアクセスする権利について、明確で理解しやすい言葉で知らされなければなりません。 また、司法手続きの前または最中に、人工知能を使用した事件の以前の取り扱いについて明確に通知され、法廷によって直接判決を受けるために、異議を申し立てる権利を持っている必要があります。 ECHRの第6条へ。

選択を確認するために適切に通知されます。

結論:

綿密な調査で、CEPEJによって指示された原則は、自律型兵器に関する国連内で開発された国際的な議論の間に開発された概念で要約できる(司法の文脈に適応させる)方法を示しています。 人工知能ツールの計算状態を決定することが不可能であり、したがって、予測アルゴリズムの実行を完全に制御して、「当事者間および当事者と裁判官の間の紛争の正しさと平等」の変更を是正することは不可能です。 「予測の決定は、その達成が常に十分に検証可能であるとは限らないという理由だけでなく、得られた純粋に確率的な結果のみを使用せずに行われるという要求を強化する必要があります。

私たちは、法廷での機械の使用は、以下の本質的な条件によって表される重要な人間の管理の対象となることを認めるべきであるという教義上の提案を参照します。

1)その運用が公開され、以下の基準に従って評価されていること ピアレビュー;

2)潜在的なエラー率がわかっていること。

3)適切な説明が、アルゴリズムを構成する「技術式」を法的な規則に変換し、裁判官、当事者、およびその擁護者が読みやすく理解できるようにすること。

4)アーカイブされた要素の選択、それらのグループ化、および人工知能装置によって処理されたデータの相関に関する相互検査が、特に紛争の主題に関して保護されていること。

5)裁判官による彼らの受け入れは、法廷で明らかになったものと、自由な有罪判決の原則に従って評価された実際の状況に照らして正当化されること。

   

シトグラフィー:

https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348

https://teseo.unitn.it/biolaw/article/view/1353

https://www.agendadigitale.eu/cultura-digitale/predire-il-futuro-fra-machine-learning-e-magia/

https://archiviodpc.dirittopenaleuomo.org/d/6735-sistema-penale-e-intelligenza-artificiale-molte-speranze-e-qualche-equivoco

S. QUATTROCOLO、イタリア人権条約に照らした刑事裁判と自動証拠の公平性、italo-españolader牧師。 proc。、2019、利用可能 http://www.revistasmarcialpons.es/rivitsproc/

https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf

https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf

https://archiviodpc.dirittopenaleuomo.org/upload/3089-basile2019.pdf

参考文献:

人工知能。 現代的なアプローチ、ラッセルとノーヴィグ、ピアソン。

ユヴァル・ノア・ハラリ、ホモ・デウス:明日の簡単な歴史、ヴィンテージ出版。

GWFヘーゲル、法哲学の概要、1821年、トランス。 it。、Bari、1996。

G. ROMANO、法、ロボット工学、ゲーム理論:相乗効果についての考察、G。Alpa(編集)、法と人工知能、ピサ、2020年

G. TAMBURRINI、機械の倫理。 ロボット工学と人工知能の道徳的ジレンマ、ローマ、2020年

U. RUFFOLO-A。AMIDEI、人工知能、人間拡張、人権、人工知能。 法、権利、倫理、すでにU. RUFFOLOで期待されている-A。AMIDEI、人工知能と人権:「トランスヒューマニズム」のフロンティア、Giur。It。、2019

J.LASSÈGUE、デジタル正義。 Révolutiongraphiqueetruptureanthropologique、パリ、2018年

J. NIEVA-FENOLL、人工知能とプロセス、2018年、トランス。 それ、トリノ、2019

S. SIGNORATO、刑事正義と人工知能。 Rivでの予測アルゴリズムの主題に関する考慮事項。 dir。 手続き、2020

写真: www.golegal.co.za