Récemment, Google a apporté des ajustements majeurs à ses principes d'IA et a annulé son engagement précédent à ne pas développer l'IA pour les armes ou la surveillance, ce qui a provoqué une controverse généralisée. Cette décision provient de la page des principes publiques mises à jour de Google, qui a supprimé la section "Applications que nous ne poursuivrons pas", ce qui a déclenché des doutes des médias et du public sur la direction de son application d'IA. Après que cette décision a signé un contrat de service cloud avec les États-Unis et les militaires israéliens, cette décision a exacerbé les préoccupations des gens concernant le rôle des entreprises technologiques dans le domaine des militaires et de la surveillance.
Récemment, Google a discrètement supprimé une promesse de son site Web officiel pour ne pas développer l'intelligence artificielle (IA) pour les armes ou la surveillance. Le changement a été signalé pour la première fois par Bloomberg, et cette décision a suscité une attention généralisée et une discussion du monde extérieur. Google a récemment mis à jour sa page de principe d'IA publique et ses pièces supprimées appelées "Nous ne poursuivons pas", et cette partie est toujours visible la semaine dernière.
Face aux demandes des médias, Google a fourni un article de blog nouvellement publié sur "l'IA responsable" à "Tech Crunch". Dans cet article, Google a déclaré: "Nous pensons que les entreprises, les gouvernements et les organisations devraient travailler ensemble pour créer une IA qui peut protéger les êtres humains, promouvoir le développement mondial et soutenir la sécurité nationale."
Le principe de l'IA mis à jour de Google a souligné que l'entreprise sera déterminée à "réduire les accidents ou des résultats nuisibles, en évitant les préjugés injustes" et en veillant à ce que le développement de l'entreprise soit conforme aux "principes d'acceptation générale du droit international et des droits de l'homme". Cela suggère que la position de Google sur les applications d'IA pourrait changer.
Ces dernières années, les contrats de service cloud de Google ont signé avec les États-Unis et les militaires israéliens ont déclenché des manifestations des employés internes. Bien que Google ait souligné à plusieurs reprises que sa technologie d'IA n'utilise pas pour nuire aux humains, le chef d'IA du ministère américain de la Défense a récemment déclaré dans une interview avec "Crunch Technology" que les modèles d'IA de certaines entreprises ont réellement accéléré la décision de combat de combat - processus de l'armée américaine. Cette remarque est pleine de doutes sur la future application de Google AI.
Ce changement dans Google a déclenché les réflexions sur le rôle des entreprises technologiques dans le domaine de l'armée et de la surveillance. Dans le contexte de l'attention croissante des questions éthiques de la technologie de l'intelligence artificielle, cette nouvelle mesure de Google semble particulièrement visible. Le public et les employés accordent une attention particulière à la façon dont l'entreprise maintient son image responsable dans ce domaine sensible et comment équilibrer la relation entre les intérêts commerciaux et la responsabilité morale.
Avec les progrès et l'application continus de la technologie de l'IA, les changements de position de Google peuvent avoir un impact profond sur l'ensemble de l'industrie, et il réexaminera également l'éthique scientifique et technologique future et le sens des responsabilités.
La décision de Google a suscité une discussion généralisée sur la responsabilité sociale des entreprises technologiques et l'éthique de l'IA. La formulation et la supervision des normes éthiques du développement et de l'application de la technologie de l'IA sont également plus urgentes.