In jüngster Zeit hat Google große Anpassungen an seinen KI -Prinzipien vorgenommen und sein früheres Engagement für die Entwicklung von KI für Waffen oder Überwachung abgesagt, was eine weit verbreitete Kontroverse verursacht hat. Dieser Schritt stammt aus der Seite mit den aktualisierten öffentlichen KI -Prinzipien von Google, auf der der Abschnitt "Apps, die wir nicht verfolgen werden" gelöscht wurden, was Zweifel aus den Medien und der Öffentlichkeit über die Richtung seiner AI -Anwendung auslöste. Nachdem der Umzug einen Cloud -Service -Vertrag mit dem US -amerikanischen und israelischen Militär unterzeichnet hatte, verschärfte dieser Schritt die Bedenken der Menschen über die Rolle von Technologieunternehmen im Bereich Militär und Überwachung.
Vor kurzem hat Google stillschweigend ein Versprechen von seiner offiziellen Website entfernt, keine künstliche Intelligenz (KI) für Waffen oder Überwachung zu entwickeln. Die Veränderung wurde zuerst von Bloomberg berichtet, und dieser Schritt hat weit verbreitete Aufmerksamkeit und Diskussion aus der Außenwelt erregt. Google hat kürzlich seine öffentliche KI -Prinzipseite aktualisiert und Teile gelöscht, die als "Wir werden nicht verfolgen" gelöscht, und dieser Teil ist letzte Woche noch sichtbar.
Angesichts der Medienanfragen stellte Google einen neu veröffentlichten Blog -Beitrag über "verantwortungsbewusste KI" für "Tech Crunch" zur Verfügung. In diesem Artikel sagte Google: "Wir glauben, dass Unternehmen, Regierungen und Organisationen zusammenarbeiten sollten, um KI zu schaffen, die Menschen schützen, die globale Entwicklung fördern und die nationale Sicherheit unterstützen können."
Das aktualisierte KI -Prinzip von Google betonte, dass das Unternehmen "Verringerung von Unfällen oder schädlichen Ergebnissen, die Vermeidung unlauterer Vorurteile" verpflichtet und sicherstellt, dass die Entwicklung des Unternehmens mit den "Grundsätzen der allgemeinen Akzeptanz des Völkerrechts und der Menschenrechte" übereinstimmt. Dies deutet darauf hin, dass sich die Position von Google zu KI -Anwendungen ändern kann.
In den letzten Jahren haben Googles Cloud -Service -Verträge mit den US -amerikanischen und israelischen Militärs Proteste von internen Mitarbeitern ausgelöst. Obwohl Google wiederholt betont hat, dass seine KI -Technologie nicht zur Schädigung von Menschen verwendet wird, sagte der KI -Leiter des US -Verteidigungsministeriums kürzlich in einem Interview mit "Technology Crunch", dass die KI -Modelle einiger Unternehmen tatsächlich die Kampfentscheidung beschleunigt haben -die Entscheidungsentscheidung -das Erstellen Prozess des US -Militärs. Diese Bemerkung ist voller Zweifel an der zukünftigen Anwendung von Google AI.
Diese Änderung in Google hat die Gedanken über die Rolle von Technologieunternehmen im Bereich Militär und Überwachung ausgelöst. Im Kontext der zunehmenden Aufmerksamkeit der ethischen Themen der Technologie für künstliche Intelligenz scheint dieses neue Maß von Google besonders auffällig zu sein. Die Öffentlichkeit und die Mitarbeiter achten genau darauf, wie das Unternehmen sein verantwortungsbewusstes Image in diesem sensiblen Bereich beibehält und wie die Beziehung zwischen Geschäftsinteressen und moralischer Verantwortung in Einklang gebracht werden kann.
Mit dem kontinuierlichen Fortschritt und der Anwendung der KI -Technologie können sich die Positionsänderungen von Google tiefgreifend auf die gesamte Branche auswirken, und dies wird auch die zukünftige wissenschaftliche und technologische Ethik und das zukünftige Verantwortungsbewusstsein überprüfen.
Der Schritt von Google hat eine weit verbreitete Diskussion über die soziale Verantwortung von Technologieunternehmen und die KE -Ethik erhoben. Die Formulierung und Überwachung der ethischen Normen der Entwicklung und Anwendung von AI -Technologie ist ebenfalls dringlicher.