Google a récemment supprimé sa page officielle des principes d'IA, à l'exception du contenu lié à l'IA qui avait précédemment promis de ne pas développer d'armes ou de surveillance, ce qui a provoqué une controverse et des préoccupations généralisées. Cette décision marque un changement majeur dans la stratégie de développement d'IA de Google, et les raisons et les orientations futures qui le derrière méritent une discussion approfondie. Cette décision a non seulement déclenché des discussions sur l'éthique scientifique et technologique, mais a également impliqué des questions complexes telles que la sécurité nationale et la coopération internationale. Cet article effectuera une analyse détaillée de cet incident et interprétera l'impact potentiel de la décision de Google.
Récemment, Google a supprimé le contenu pertinent de l'intelligence artificielle (IA) qui avait précédemment promis de ne pas développer l'intelligence artificielle (IA) qui avait précédemment promis de ne pas développer d'armes ou de surveillance, ce qui a provoqué une discussion et une attention généralisées. Selon le rapport de Bloomberg, lorsque ce changement est apparu lorsque Google a mis à jour sa page de principe d'IA publique, "l'application que nous ne poursuivrons pas" dans la page a été complètement supprimée, ce qui est surprenant.
Interrogé sur les modifications de ce changement, Google a souligné un nouvel article de blog sur "l'IA responsable" de "Crunch technologique". L'article a mentionné que Google estime que les entreprises, les gouvernements et les organisations devraient travailler ensemble pour créer une IA qui protège l'humanité, favorise la croissance mondiale et soutient la sécurité nationale. Une telle déclaration montre la transformation de Google dans le sens du développement de l'IA et semble souligner l'intégration avec les intérêts nationaux.
Dans le principe de l'IA mis à jour, Google promet de s'engager à "réduire les résultats des accidents ou de nocive et éviter les préjugés injustes" et en même temps souligner la cohérence avec le "principe d'acceptation générale du droit international et des droits de l'homme". Ces dernières années, les contrats de service cloud de Google avec les États-Unis et les militaires israéliens ont déclenché des manifestations des employés internes, beaucoup craignaient que la technologie de l'entreprise ne soit utilisée à des fins militaires. Bien que Google ait souligné à plusieurs reprises que son IA n'est pas utilisée pour nuire aux humains, le chef de l'IA du ministère américain de la Défense a déclaré que certains des modèles d'IA de Google accélèrent la chaîne d'attaque de l'armée américaine. Les applications d'IA sont des doutes.
La suppression de la promesse semble indiquer que la position de Google dans le domaine de l'intelligence artificielle change et peut fonctionner plus ouvertement avec des projets militaires et de surveillance dans les futurs développements technologiques. Ce nouveau développement de Google continuera sans aucun doute de déclencher des discussions approfondies sur l'éthique technologique et la sécurité nationale.
Points:
Google a supprimé la promesse de ne pas développer d'armes et de surveillance de l'IA, attirant l'attention du public.
La société met l'accent sur la combinaison avec la sécurité nationale et les défense de la coopération entre toutes les parties pour développer une IA.
Le nouveau principe met l'accent sur l'atténuation des résultats indésirables et le respect des droits juridiques internationaux et la pression de la coopération militaire.
La décision de Google a suscité de nombreuses discussions sur l'équilibre entre l'éthique de l'intelligence artificielle et la sécurité nationale, et sa direction de développement futur sera surveillée de près. Cela ne concerne pas seulement Google lui-même, mais a également un impact profond sur le développement de toute l'industrie de l'IA. Comment équilibrer les progrès technologiques et la responsabilité sociale deviendra un problème clé face à toutes les entreprises technologiques.