Avec l'application généralisée de la technologie de l'intelligence artificielle sur les plateformes des entreprises technologiques, le modèle consistant à utiliser les commentaires des utilisateurs pour générer des réponses IA est devenu de plus en plus courant, ce qui a entraîné de nouveaux risques juridiques pour des géants tels que Google et Meta, notamment en termes de diffamation. Des affaires judiciaires en Australie ont montré que les plateformes peuvent être tenues légalement responsables de l’hébergement de commentaires diffamatoires, ce qui rend le modèle de réponses générées par l’IA confronté à de sérieux défis. L’éditeur de Downcodes vous fournira une analyse approfondie de cette problématique.
Avec le développement de la technologie de l’intelligence artificielle, les entreprises technologiques telles que Google et Meta utilisent les commentaires ou avis des utilisateurs pour générer des réponses IA sur leurs plateformes, ce qui peut entraîner de nouveaux risques juridiques en matière de diffamation.
Les experts juridiques australiens soulignent que lorsque les utilisateurs publient des commentaires prétendument diffamatoires sur Google ou Facebook, ce sont généralement les utilisateurs eux-mêmes qui encourent la responsabilité juridique. Cependant, en 2021, une décision importante de la Haute Cour australienne dans l'affaire Dylan Waller a statué que les plateformes qui hébergent des commentaires diffamatoires, telles que les pages de réseaux sociaux, peuvent également être tenues légalement responsables de ces commentaires.
Au cours de la période écoulée, ces entreprises technologiques ont été poursuivies à plusieurs reprises pour diffamation. Par exemple, Google a été contraint de payer plus de 700 000 AU$ à l’ancien gouverneur adjoint de la Nouvelle-Galles du Sud, John Barilaro, en 2022, après que l’entreprise a diffusé une vidéo diffamatoire. De plus, Google a été condamné à payer 40 000 $ de dommages et intérêts en 2020 après que ses résultats de recherche aient été liés à un article de presse concernant un avocat de Melbourne, bien que le jugement ait ensuite été annulé par la Haute Cour.
La semaine dernière, Google a commencé à lancer une fonction cartographique basée sur sa nouvelle technologie d'IA Gemini aux États-Unis. Les utilisateurs peuvent utiliser cette fonction pour interroger des lieux ou des activités et résumer les avis des utilisateurs sur des restaurants ou des lieux. Dans le même temps, Google a également lancé la fonction d'aperçu de l'IA dans les résultats de recherche pour les utilisateurs australiens, fournissant aux utilisateurs un bref résumé des résultats de recherche. Meta a commencé à fournir des services de génération d'IA pour les résumés de commentaires sur sa plateforme Facebook, en particulier les commentaires publiés par les agences de presse.
L'expert juridique Michael Douglas a déclaré qu'à mesure que ces technologies sont promues, certaines affaires pourraient être portées devant les tribunaux. Il estime que si Meta absorbe les commentaires et génère des réponses, et que ces réponses contiennent un contenu diffamatoire, Meta sera considérée comme un éditeur et pourrait être tenue responsable pour diffamation. Il a noté que même si les entreprises peuvent invoquer une « communication innocente », cette défense a peu de chances de succès.
David Rolfe, maître de conférences en droit à l'Université de Sydney, a déclaré que le phénomène de répétition de commentaires diffamatoires par l'IA pourrait causer des problèmes aux entreprises technologiques, même si les récentes réformes des lois sur la diffamation auraient pu réduire ce risque. Il a noté que les nouvelles réformes juridiques ont été mises en œuvre avant que la technologie de l’IA ne soit largement disponible et n’ont donc pas réussi à relever pleinement les défis posés par la nouvelle technologie.
En réponse à ces risques juridiques, Miriam Daniel, vice-présidente de Google Maps, a déclaré que son équipe travaillait dur pour supprimer les faux avis et que la technologie de l'IA était conçue pour fournir une « vue équilibrée ». Meta a également déclaré que son IA est toujours en cours d'amélioration et peut produire des résultats inexacts ou inappropriés.
La bataille entre la technologie de l’IA et les risques juridiques s’intensifie. Si les entreprises technologiques bénéficient de la commodité apportée par l’IA, elles doivent également faire face et réagir activement aux responsabilités juridiques potentielles qu’elle entraîne. Comment concilier innovation technologique et conformité juridique deviendra un problème difficile auquel seront confrontés ces géants de la technologie. À l'avenir, nous continuerons à prêter attention au développement dynamique de ce domaine.