「人工知能は法的主体の地位を有するべきかどうか」についての倫理的考察
著者:Eve Cole
更新時間:2024-11-22 14:06:01
大規模な言語モデルの適用の普及に伴い、生成人工知能はますます強力な自律性を示すようになり、人々は強力な人工知能の可能性を知ることができるだけでなく、この人間の創造物の主体的状況について人々が議論することを再び刺激されています。 。最近、光明日報は人工知能を法的主題にするべきかどうかを議論する理論ページに多数の記事を掲載し、学術界の主な見解を包括的に提示した。その中で、「人工知能が法的主体となるのに理論的な障害はない」と「限定された法的主体: 人工知能の法的地位の合理的な選択」という 2 つの論文は、哲学と倫理の観点から実証し、次のように提案しています。人工知能は法的主体となり、哲学の分野と人間の主観性の要素の理解は矛盾せず、人間の主体的地位を低下させず、人間中心の主体体系を損なうことはない。この点において、著者は、これらの議論は、なぜ主体が主体であるのか、なぜ人格が人格であるのかという存在論的本質を捉えていないと考えている。ヒューマニズムの根底から見ても、人間は万物の霊長として、万物とは異なる個人の尊厳と主観的地位を持っています。人工知能に主体の地位を与えることは、人間の尊厳と主体の地位を損なうだけでなく、現実的な責任の帰属や引き受けにも役立たない。人間の存在は「主体」を構成するための基本的な条件であるが、人工知能は客体としてのみ使用され得る。人工知能が法的主体の地位を有するかどうかを議論する前提条件は、人工知能が主体となり得るかどうか、あるいは人工知能が主体となり得るかどうかである。知性には主観性がある。主体は、特定の参照を伴う哲学的概念です。人工知能が主体を哲学的に証明できない場合、法的関係から主体の資格を付与することは困難になります。しかし、強い自律性と独立性を持ち、ある程度の感情認識を示す生成型人工知能であっても、主体の地位を有するにはまだ程遠い。主体と主観性は哲学者によって異なる含意を持っていますが、アリストテレスは主体を受信者とみなし、デカルトは主体を自己認識を持つ思想家とみなし、カントは主体を理性的存在と定義しています。複数人。マルクスは、主体は人間であり、客体は自然であり、「人間は常に主体である」と直接指摘しました。人々、そして世界を意図的かつ意識的に理解または変革する人々だけが主体を構成していることがわかります。人から派生する主体は、個人でも、集団でも、組織でも、あるいは社会全体でもよいが、そこには具体的で実践的な人の存在と存在感がなければならない。主体としての人間の最も本質的な規定は主観性であり、主観性の最も重要な内容は人間の創造性と実践性、すなわち主観的な自発性や自己認識である。これは人間と人間の主体の最も基本的な特徴です。これまでのところ、生成人工知能を含む人工知能はますます強力な学習能力とある程度の自律的な行動を示していますが、それが解決する問題は依然として閉じたシナリオでの計算と解決の問題にすぎず、外部環境に対して目標を設定することはできません。あるいは、計画的で自律的かつ能動的なフィードバックは、自己認識や主体性から「進化」するものではないため、人工知能は人間に特有の主観性を持たず、主体を構成することはできません。さらに、人工知能は法的主体または限定された法的主体を構成することはできません。 「限定された法的主体: 人工知能の法的地位の合理的な選択」では、「人は人間でなくてもよい」から「人間でなくても人間でありうる」への民事主体の歴史的進化は、民事主体の汚損と非倫理化を反映していると提案している。しかし、あらゆるフィクションの主題の基礎は、人間の存在や存在にまで遡ることができます。これは、人間だけが主体になり得るという理論と矛盾しないだけでなく、人間だけが主体になり得るという考えを実際に強化します。一方で、会社や団体などの法人の構成は、法的主体としての法人の中核要素は依然として権利と義務を享受し、一定の責任を負う個人であると考えることができます。一方、法的主体を構成する非人間的組織の哲学 財団は強い人間中心主義を主張せず、ヒューマニズムの根本、つまり人間の存在または存在を強調するだけです。完全に自動化され、人間から切り離され、または人間から独立して存在する人工知能に法的主体の地位を与えることは、この哲学的目的から根本的に逸脱します。人工知能は本質的に人類に奉仕するためのツールであり、「人格」の概念は根本的に手段的価値を否定します。主体理論レベルでの議論や反論と比較して、人工知能が法的主体としての地位を有するかどうかをめぐる議論は、より人格理論レベルに焦点を当てています。肯定的な見解を持つ学者は主に、法的人格、電子的人格、手段的人格、限定的人格の拡張などの見解を提案することによって、人工知能の新しい人格タイプを構築し、それによって人工知能の法的主体の地位を証明します。しかし、「個性」も「主体」と同様、特別な意味合いと価値を持った概念です。人工知能は人間の尊厳を享受していません。人工知能に対応する人格を与えることは、人間の尊厳の保護と実現を脅かす可能性があります。人格と尊厳の概念は、啓蒙主義以来、人間の本性を促進し、文明と進歩を追求してきた近代的な産物であり、超越的、抽象的、普遍的な観点から、動物や他のものからの人間の独自性を示します。カントが言ったように、ある存在は、その存在が人間の意志ではなく自然に基づいているにもかかわらず、それが非合理な存在であれば、手段としての相対的な価値しか持たないので、逆に非合理な存在であれば、物と呼ばれます。それらは物と呼ばれ、理性的な存在は人格と呼ばれ、一般にあらゆる理性的な存在は目的として存在し、その存在自体に絶対的な価値があります。人格と尊厳の概念は、他の目的のための手段や道具ではなく、それ自体が目的としての人間の固有の価値と絶対的な価値を示すものであるため、人間社会における最も重要な価値の源泉となっているだけではありません。は人権の重要な基盤を構成し、「国連憲章および世界中のさまざまな国の憲法の法的根拠」となっています。しかし、人間の創造物である人工知能は、それ自体が目的として存在し、本質的な価値を持つ個性を享受できないだけでなく、誤った使用や不適切な使用によって人間の尊厳を脅かしたり傷つけたりし始めています。一方で、人工知能は本質的に、人間の自由を拡大し、人間の能力と効率を向上させるために人間によって発明され作成された複雑なツールであるため、誕生から稼働、死に至るまでのライフサイクル全体が人間に役立つだけです。道具は人間のような絶対的な価値を持つことはできず、たとえ将来現れたとしても人間の尊厳を享受することはできません。自己認識を備えた強力な人工知能は依然としてツールの価値の位置付けを放棄することができません。その一方で、人工知能の制御されない開発は、人々の身体、アイデンティティ、行動データの大規模な収集と計算を通じて、プライバシーの侵害につながります。精神性、誘導的な消費、詐欺や欺瞞などの道徳的逸脱の問題は、ある程度、人々の主体的地位と個人の尊厳を脅かしてきました。 「人格」は根本的に道具的価値を否定するものであるため、「限定された法的主題:人工知能の法的地位の合理的選択」という論文では、人格を道具や有限といった言葉で束ねる言葉形成法も提案されていない。それは、本質的には人工知能に与えられた単なる経済的所有権であり、真の人格権とは程遠いものです。個人の尊厳は、人間の独自性を示すものであり、人工知能に個人の尊厳を与え、人間以外の存在を人間と同じくらい重要な存在に変えることは、人権の保護や人工知能の善良な発展にはつながりません。最終的な結果は、人間の独自性とそれに基づいて形成された個人の尊厳の絶え間ない溶解です。法的な主体となることは、人工知能に対する責任のジレンマを解決するのには役立ちませんが、人工知能の主体の地位を付与するもう 1 つの非常に擁護可能な理由は、実際の開発の必要性から来ています。人工知能の大規模な応用と自律性の度合いの増大により、既存の法的枠組みの実施プロセスにおいて、法的主題を見つけることができない、責任を帰属させることができない、または法的責任を帰属させることができないなどの実際的なジレンマが生じています。人々に責任を負わせる。例えば、契約法の分野では、知能ロボットが人間に代わって契約に署名するのが一般的であるが、知能ロボットと締結する売買契約において誰の「意思の自律性」が表現されるのかについては、法的メカニズムはまだ不明である。プログラム。もう一つの例は、不法行為責任法の分野です。自動運転車が運転中に事故を起こし、人身事故や不法行為を起こした場合、その責任をどのように帰すかが、知的なプログラマーなのか、自動車メーカーなのか、それともユーザーなのか、という難しい問題になります。現在の法制度では有効な判断を下すのは困難です。たとえば、生成型人工知能は重大な知的財産権の問題につながる可能性がありますが、ロボットに知的財産権を与えることは、イノベーションを保護するという法律の本来の目的に根本的に違反します。このため、一部の学者は、実務上の必要性の観点から、人工知能主体に地位や法人格を付与し、人工知能に対する責任分担の仕組みを明確化・確立することが急務であると主張している。 「人工知能が法的主体となるのに理論的な障害はない」では、「人工知能の責任財産は、法人の資本制度を参照して工場で設定された強制賠償責任保険によって保護できる」と述べられており、「限定された法的主体」 「選択」の記事では、人工知能が民事法的関係の担い手として参加できるように、「人工知能に対応する信託口座の開設、保険の購入などの方法を統一する」ことも提案されている。特別な権利と義務を規定し、実際に必要とされる責任の帰属と帰属のジレンマを解決します。ただし、これらの財産権の設計は、人工知能主体に地位や人格権を与えるレベルにまで上昇する必要はなく、人工知能に関連する自然人または法人の財産制度を適切に補完および調整するだけで済みます。人工知能に法的主体の地位を与えることは、人工知能によって引き起こされる責任のジレンマから抜け出すのに役立たないだけでなく、新たな不必要な「法的主体」を導入することにより、より複雑な責任状況を生み出すことになります。実際、人工知能技術はもはや農業時代の道具や工業時代の機械のような単純なものではなく、アメリカの学者マンフォードの言うような「巨大な機械」、あるいはハイデッガーの言うような「フレーム」のような複雑なものです。人間と深く結びついたシステムでは、人々は異なるアイデンティティと異なるメカニズムによる異なるリンクで役割を果たし、人工知能テクノロジーの機能の実現を促進し、複数の責任主体と複雑なインタラクティブな行動による「責任分散」状況を形成します。しかし、責任の分散は、行動間の因果関係を長くし、責任の割り当てを難しくするだけで、責任の消滅や移転にはつながりません。人工知能の作成者または使用者として、人々は複雑なシステムの各リンクにおけるさまざまなメカニズムの責任配分を整理し、責任の帰属を明確にする責任があります。 「アルゴリズムのブラックボックス」や、ある程度の自律性を備えた生成型人工知能の予期せぬ形での動作によって不透明性が生じたとしても、それは連帯責任または無過失責任の形で帰属する可能性があります。いずれにせよ、人工知能は特定の目的のために人間によって作成されるため、主体の地位や人格資格を持たない人間以外の者に責任を転嫁するのではなく、その作成または使用の全体的な行動に対して責任を負わなければなりません。そうしないと、人工知能が人間に代わって責任の一部またはすべてを引き受けることを許可すると、必然的に相互バックパッシングやデッドロックなどのより複雑な状況が発生し、さらには誰も責任をとらないために責任の消滅につながる可能性があります。厳密に言えば、人工知能のさまざまな自律的または知的な動作は、依然として人間の過去の経験やデータに基づく確率的な選択にすぎず、それ自体が人間の意志と価値の延長であり、そのため、作成または使用に明確に責任を帰する必要があります。このアーティファクトの特定の単数または複数の人物により、人工知能をより慎重かつ合理的に使用できるように、より多くの人が制御が難しい複雑な集団行動に責任を負うことができます。