Réflexion éthique sur « la question de savoir si l'intelligence artificielle doit avoir un statut de sujet de droit »
Auteur:Eve Cole
Date de mise à jour:2024-11-22 14:06:01
Avec la vulgarisation de l'application de grands modèles de langage, l'intelligence artificielle générative a fait preuve d'une autonomie de plus en plus forte, ce qui non seulement permet aux gens de voir la possibilité d'une intelligence artificielle forte, mais stimule également une fois de plus les gens à discuter du statut sujet de cette création humaine. . Récemment, le Guangming Daily a publié un certain nombre d'articles sur la page théorique pour discuter de la question de savoir si l'intelligence artificielle devrait devenir un sujet juridique, qui présentaient de manière exhaustive les principaux points de vue de la communauté universitaire. Parmi eux, deux articles, « Il n'y a aucun obstacle théorique pour que l'intelligence artificielle devienne un sujet juridique » et « Sujet juridique limité : choix raisonnable du statut juridique de l'intelligence artificielle », démontrent du point de vue de la philosophie et de l'éthique, et proposent que L'intelligence artificielle devient un sujet juridique et le conflit entre le domaine de la philosophie et la compréhension des éléments de la subjectivité humaine n'est pas contradictoire, ne dévalorisera pas le statut de sujet des êtres humains et n'endommagera pas le système sujet centré sur l'humain. À cet égard, l’auteur estime que ces arguments ne saisissent pas l’essence ontologique de pourquoi un sujet est un sujet et pourquoi une personnalité est une personnalité. Même à la base de l’humanisme, les êtres humains, en tant que primats de toutes choses, ont une dignité personnelle et un statut subjectif qui sont différents de toutes choses. Donner à l’intelligence artificielle le statut de sujet porte non seulement atteinte à la dignité humaine et au statut de sujet, mais n’est pas non plus propice à l’attribution et à la prise en charge de responsabilités réalistes. La présence d'êtres humains est la condition fondamentale pour constituer un « sujet », alors que l'intelligence artificielle ne peut être utilisée que comme un objet. La condition préalable pour discuter de la question de savoir si l'intelligence artificielle doit avoir le statut de sujet juridique est de savoir si l'intelligence artificielle peut constituer un sujet ou si elle est artificielle. l'intelligence a de la subjectivité. Le sujet est un concept philosophique avec une référence spécifique. Si l’intelligence artificielle ne peut pas prouver philosophiquement le sujet, il sera alors difficile de lui conférer des qualifications de sujet à partir d’une relation juridique. Cependant, même l’intelligence artificielle générative, dotée d’une forte autonomie et indépendance et faisant preuve d’un certain degré de conscience émotionnelle, est encore loin de posséder le statut de sujet. Bien que sujet et subjectivité aient des connotations différentes selon les philosophes : Aristote considère le sujet comme un destinataire, Descartes considère le sujet comme un penseur conscient de lui-même, et Kant définit le sujet comme un être rationnel. plusieurs personnes. Marx l’a même souligné directement : le sujet, ce sont les êtres humains, l’objet, c’est la nature, et « les êtres humains sont toujours le sujet ». On peut voir que seules les personnes, et celles qui comprennent ou transforment le monde délibérément et consciemment, constituent le sujet. Le sujet dérivé des personnes peut être un individu, un groupe, une organisation ou même la société entière, mais il doit avoir l'existence et la présence de personnes concrètes et pratiques. La stipulation la plus essentielle des êtres humains en tant que sujets est la subjectivité, et le contenu le plus important de la subjectivité est la créativité humaine et le sens pratique, c'est-à-dire l'initiative subjective ou la conscience de soi. C’est la caractéristique la plus fondamentale des êtres humains et des sujets humains. Jusqu'à présent, bien que l'intelligence artificielle, y compris l'intelligence artificielle générative, ait montré des capacités d'apprentissage de plus en plus puissantes et un certain degré de comportement autonome, les problèmes qu'elle résout ne sont encore que des problèmes de calcul et de solution dans des scénarios fermés, et elle ne peut pas fixer d'objectifs pour l'environnement extérieur. Or, la planification, la rétroaction autonome et active sont loin de « évoluer » à partir de la conscience de soi ou de l'action. Par conséquent, l'intelligence artificielle ne possède pas le type de subjectivité propre aux humains et ne peut pas constituer un sujet. Par ailleurs, l’intelligence artificielle ne peut constituer un sujet de droit ou un sujet de droit limité. "Sujets juridiques limités : choix raisonnable du statut juridique de l'intelligence artificielle" propose que l'évolution historique des sujets civils de "les personnes peuvent être non humaines" à "les non-humains peuvent être humains" reflète la dégradation et la déséthique des sujets civils. Mais le fondement de tout sujet de fiction remonte à l’existence ou à la présence humaine. Non seulement cela ne contredit pas la théorie selon laquelle seules les personnes peuvent être le sujet, mais cela renforce en fait l’idée selon laquelle seules les personnes peuvent être le sujet. D'une part, la construction de personnes morales telles que les sociétés et les associations peut être considérée comme un ensemble de personnes plurielles. L'élément central d'une personne morale en tant que sujet juridique reste une personne qui jouit de droits et d'obligations et assume certaines responsabilités ; d'autre part, la philosophie des organisations non humaines constituant des sujets de droit. La fondation ne prône pas un anthropocentrisme fort, mais met seulement l'accent sur l'essentiel de l'humanisme, c'est-à-dire l'existence ou la présence de personnes. Accorder le statut de sujet juridique à une intelligence artificielle entièrement automatisée, détachée ou existant indépendamment des humains s’écarte fondamentalement de cet objectif philosophique. L'intelligence artificielle est essentiellement un outil au service de l'humanité. Le concept de « personnalité » rejette fondamentalement la valeur instrumentale. Par rapport aux arguments ou aux réfutations au niveau de la théorie du sujet, le débat autour de la question de savoir si l'intelligence artificielle a un statut de sujet juridique se concentre davantage sur le niveau de la théorie de la personnalité. Les chercheurs qui ont une vision positive construisent principalement de nouveaux types de personnalité pour l'intelligence artificielle en proposant des vues telles que l'expansion de la personnalité juridique, de la personnalité électronique, de la personnalité instrumentale et de la personnalité limitée, prouvant ainsi le statut de sujet juridique de l'intelligence artificielle. Cependant, comme le « sujet », la « personnalité » est également un concept ayant une connotation et une valeur particulières. L’intelligence artificielle ne jouit pas de la dignité humaine. Donner à l’intelligence artificielle une personnalité correspondante peut menacer la protection et la réalisation de la dignité humaine. Le concept de personnalité et de dignité est un produit moderne qui a promu la nature humaine et poursuivi la civilisation et le progrès depuis le siècle des Lumières. Il marque le caractère unique de l'être humain par rapport aux animaux ou à d'autres choses dans une perspective transcendantale, abstraite et universelle. Comme le disait Kant, certaines entités, bien que leur existence ne soit pas basée sur notre volonté mais sur la nature, si ce sont des entités irrationnelles, elles n'ont qu'une valeur relative en tant que moyen, c'est pourquoi elles sont appelées choses. Au contraire, si ce sont des entités irrationnelles, on les appelle choses, les êtres rationnels sont appelés personnalités ; les gens, et généralement tout être rationnel, existent en tant que but, et leur existence elle-même a une valeur absolue. Le concept de personnalité et de dignité démontre la valeur inhérente et la valeur absolue de l'être humain en tant que fin en soi plutôt que moyen ou outil à d'autres fins. Par conséquent, il est non seulement devenu la source de valeur la plus importante dans la société humaine, mais également. constitue une base importante pour les droits de l'homme et est devenu la « base législative de la Charte des Nations Unies et des constitutions de divers pays à travers le monde. Cependant, en tant que création humaine, l'intelligence artificielle non seulement ne jouit pas de la personnalité qui existe comme une fin en soi et a une valeur intrinsèque, mais commence également à menacer ou à porter atteinte à la dignité humaine en raison d'une utilisation erronée ou inappropriée. D'une part, l'intelligence artificielle est essentiellement un outil complexe inventé et créé par les humains pour étendre la liberté humaine et améliorer les capacités et l'efficacité humaines. Son cycle de vie complet, de la naissance à l'exploitation jusqu'à la mort, sert les gens, il n'a donc que la valeur relative de. les outils ne peuvent pas avoir la valeur absolue des êtres humains, et ils ne jouiront pas de la dignité humaine, même si elle apparaît dans le futur. Une intelligence artificielle forte et consciente de soi ne peut toujours pas abandonner le positionnement de la valeur de l'outil ; d'autre part, le développement incontrôlé de l'intelligence artificielle, par la collecte et le calcul à grande échelle de données corporelles, d'identité et de comportement, conduit à une invasion de la vie privée. Les questions d’aberration morale telles que la spiritualité, la consommation induite, la fraude et la tromperie ont, dans une certaine mesure, menacé le statut de sujet et la dignité personnelle des personnes. Puisque la « personnalité » rejette fondamentalement la valeur instrumentale, l'article « Sujet juridique limité : choix raisonnable du statut juridique de l'intelligence artificielle » propose une proposition de personnalité instrumentale limitée. La méthode de formation des mots qui regroupe la personnalité avec des mots tels que outil et fini n'est ni l'une ni l'autre. Il n'y a aucun avantage à être rigoureux. Ce n'est rien d'autre que l'imagination excessive du posthumanisme à travers des mécanismes littéraires tels que les analogies et les métaphores. Il s'agit essentiellement d'un simple droit de propriété économique accordé à l'intelligence artificielle, qui est loin des véritables droits de la personnalité. La dignité personnelle démontre le caractère unique des êtres humains. Donner une dignité personnelle à l’intelligence artificielle et transformer des entités ou des existences non humaines en existences aussi importantes que les êtres humains n’est pas propice à la protection des droits de l’homme ou au développement de l’intelligence artificielle pour le bien. Le résultat final C'est la dissolution constante de l'unicité de l'être humain et de la dignité personnelle formée sur cette base. Devenir un sujet juridique n’aidera pas à résoudre le dilemme de la responsabilité de l’intelligence artificielle, mais créera une situation plus complexe. Une autre raison tout à fait défendable pour accorder le statut de sujet à l’intelligence artificielle vient des besoins du développement réel, c’est-à-dire du fait de la nécessité d’un développement réel. l'application à grande échelle de l'intelligence artificielle et le degré croissant d'autonomie et d'intelligence ont conduit à des dilemmes pratiques dans le processus de mise en œuvre du cadre juridique existant, tels que l'incapacité de trouver des sujets de droit, l'incapacité d'attribuer des responsabilités ou l'incapacité de tenir les gens pour responsables. Par exemple, dans le domaine du droit des contrats, il est courant que des robots intelligents signent des contrats au nom de personnes. Cependant, le mécanisme juridique reste flou quant à savoir quelle « autonomie de volonté » s'exprime dans un contrat de vente conclu avec un intelligent. programme. Un autre exemple concerne le droit de la responsabilité délictuelle. Si une voiture autonome provoque un accident pendant la conduite, causant des blessures ou un délit, la manière d'attribuer la responsabilité devient un problème difficile. ou la victime ? Il est difficile pour le système juridique actuel de porter un jugement efficace. Par exemple, l’intelligence artificielle générative entraînera d’importants problèmes de propriété intellectuelle, mais accorder des droits de propriété intellectuelle aux robots viole fondamentalement l’intention initiale de la législation de protéger l’innovation. Par conséquent, certains chercheurs ont proposé, du point de vue des besoins pratiques, qu’il est urgent de donner un statut de sujet à l’intelligence artificielle ou une personnalité juridique, ainsi que de clarifier et d’établir un mécanisme de partage des responsabilités pour l’intelligence artificielle. "Il n'y a aucun obstacle théorique à ce que l'intelligence artificielle devienne un sujet juridique" stipule que "la propriété de responsabilité de l'intelligence artificielle peut être protégée par une assurance responsabilité obligatoire établie en usine en référence au système de capital des personnes morales", "Sujet juridique limité : Statut juridique raisonnable de l'intelligence artificielle" L'article "Choix" propose également "d'unifier les modalités d'ouverture de comptes fiduciaires correspondants, de souscription d'assurance, etc. pour l'intelligence artificielle", afin que l'intelligence artificielle puisse participer aux relations juridiques civiles en tant que porteuse de droits et obligations spéciaux, et résoudre le dilemme de l’attribution et de l’imputation des responsabilités requis dans la pratique. Cependant, la conception de ces droits de propriété n'a pas besoin d'aller jusqu'à conférer un statut de sujet d'intelligence artificielle ou des droits de personnalité. Il suffit de compléter et d'ajuster de manière appropriée le système de propriété des personnes physiques ou morales liées à l'intelligence artificielle. Donner à l'intelligence artificielle le statut de sujet juridique non seulement n'aidera pas à sortir du dilemme de responsabilité provoqué par l'intelligence artificielle, mais créera également une situation de responsabilité plus complexe en introduisant de nouveaux « sujets juridiques » inutiles. En effet, la technologie de l'intelligence artificielle n'est plus aussi simple qu'un outil à l'ère agricole ou une machine à l'ère industrielle, mais une « machine géante » comme le disait l'universitaire américain Mumford ou un « cadre » comme le disait Heidegger. Dans un système profondément couplé aux personnes, les personnes jouent des rôles dans différentes identités et dans différents liens avec différents mécanismes et favorisent la réalisation des fonctions technologiques de l'intelligence artificielle, formant une situation de « responsabilité distribuée » avec de multiples sujets responsables et des comportements interactifs complexes. Cependant, la responsabilité distribuée ne fait qu'allonger la chaîne causale entre les comportements et rend plus difficile l'attribution des responsabilités, mais n'entraînera pas la disparition ou le transfert de responsabilité. En tant que créateurs ou utilisateurs de l’intelligence artificielle, les individus ont la responsabilité de trier la répartition des responsabilités des différents mécanismes dans chaque maillon d’un système complexe et d’établir clairement les attributions de responsabilités. Même s'il existe une opacité causée par la « boîte noire algorithmique » ou le comportement inattendu d'une intelligence artificielle générative dotée d'un certain degré d'autonomie, elle peut toujours être attribuée sous la forme d'une responsabilité solidaire ou d'une responsabilité stricte. Dans tous les cas, l'intelligence artificielle est créée par des personnes dans un certain but, elle doit donc assumer la responsabilité du comportement global de sa création ou de son utilisation, plutôt que de transférer la responsabilité à des êtres non humains sans statut de sujet ni qualifications de personnalité. Dans le cas contraire, permettre à l’intelligence artificielle d’assumer tout ou partie des responsabilités au nom des humains conduira inévitablement à des situations plus compliquées telles que des rejets mutuels de responsabilités et des impasses, et pourrait même conduire à la disparition des responsabilités parce que personne ne les assume. À proprement parler, divers comportements autonomes ou intelligents de l'intelligence artificielle ne sont encore que des choix probabilistes basés sur l'expérience ou les données passées de l'homme. Ils sont eux-mêmes une extension et une projection de la volonté et de la valeur humaines. Nous devons donc clairement attribuer la responsabilité à la création ou à l'utilisation. La personne spécifique, singulière ou plurielle, de cet artefact permet à davantage de personnes d'assumer la responsabilité de ces comportements collectifs complexes et difficiles à contrôler, afin d'utiliser l'intelligence artificielle de manière plus prudente et rationnelle.