Apples neue KI-Funktion zur Zusammenfassung von Nachrichten hat aufgrund häufiger Fehlinformationen große Kontroversen ausgelöst. Diese Funktion soll Benutzern praktische Nachrichteninformationen bieten, wurde jedoch häufig dafür kritisiert, dass sie Berichte der BBC und der New York Times falsch zusammenfasst. Die internationale Pressefreiheitsorganisation Reporter ohne Grenzen forderte Apple sogar öffentlich auf, diese Funktion sofort zurückzuziehen, da sie glaubte, dass sie falsche Informationen verbreitet, die Glaubwürdigkeit der Medien schädigt und das Recht der Öffentlichkeit auf verlässliche Informationen gefährdet. Dieser Vorfall verdeutlicht auch die Herausforderungen und Risiken, mit denen neue KI-Technologien im Bereich der Nachrichtenkommunikation konfrontiert sind, sowie die Schwierigkeiten, mit denen Medienorganisationen angesichts der sich schnell entwickelnden Technologien konfrontiert sind.
Die kürzlich von Apple eingeführten Funktionen für künstliche Intelligenz haben große Aufmerksamkeit und Kontroversen erregt. Die Funktion sollte den Benutzern eine Zusammenfassung der Nachrichten bieten, wurde jedoch wegen Fehlinformationen kritisiert. Die internationale Pressefreiheitsorganisation Reporter ohne Grenzen hat Apple öffentlich aufgefordert, die Funktion sofort zurückzuziehen, nachdem sie einen BBC-Bericht in einer Benachrichtigung an Benutzer falsch zusammengefasst hatte.
Insbesondere gab das KI-System von Apple fälschlicherweise an, dass Luigi Manchione, der Verdächtige, der verdächtigt wird, den CEO von UnitedHealthcare getötet zu haben, Selbstmord begangen hat. Die BBC erwähnte dies jedoch in ihrem ursprünglichen Bericht nicht. Die BBC gab an, dass sie Apple bezüglich dieses Problems kontaktiert hat und hofft, die Angelegenheit so schnell wie möglich zu lösen. Sie hat jedoch nicht bestätigt, ob Apple darauf reagiert hat.
Vincent Bertier, Direktor für Technologie und Nachrichtenangelegenheiten bei Reporter ohne Grenzen, sagte, dass Apple für den Vorfall verantwortlich sein und diese Funktion rechtzeitig zurückziehen sollte. Er wies darauf hin, dass künstliche Intelligenz nur eine Wahrscheinlichkeitsmaschine sei und Fakten nicht einfach durch Zufallsauswahl beurteilen könne. Er betonte, dass automatisch generierte Fehlinformationen nicht nur die Glaubwürdigkeit der Medien schädigen, sondern auch das Recht der Öffentlichkeit auf verlässliche Informationen gefährden.
Darüber hinaus äußerte die Organisation Bedenken hinsichtlich der Risiken, die neue Tools der künstlichen Intelligenz für die Medien darstellen, und vertrat die Ansicht, dass die derzeitige KI-Technologie noch unausgereift sei und nicht für die Verbreitung öffentlicher Informationen eingesetzt werden dürfe.
Als Reaktion darauf antwortete die BBC, dass es von entscheidender Bedeutung sei, sicherzustellen, dass die Öffentlichkeit den von ihr veröffentlichten Informationen und Nachrichten vertraut und dass alle Inhalte, einschließlich Push-Benachrichtigungen, wahr und vertrauenswürdig sein müssen.
Apple hat das generative KI-Tool im Juni dieses Jahres in den USA auf den Markt gebracht und damit seine Fähigkeit gepriesen, bestimmte Inhalte in prägnanten Absätzen, Aufzählungspunkten oder Tabellen zusammenzufassen. Diese Funktion soll Benutzern helfen, Nachrichteninformationen bequemer zu erhalten. Benutzer können sich dafür entscheiden, solche zentralisierten Push-Benachrichtigungen auf iPhone-, iPad- und Mac-Geräten zu erhalten. Seit die Funktion Ende Oktober offiziell gestartet wurde, haben Benutzer jedoch herausgefunden, dass darin auch ein Bericht der New York Times falsch zusammengefasst wurde, in dem behauptet wurde, der israelische Premierminister Benjamin Netanyahu sei verhaftet worden, obwohl in Wirklichkeit nur der Internationale Strafgerichtshof einen Haftbefehl gegen ihn erlassen hatte ihn machen.
Die Herausforderung bei diesem Vorfall besteht darin, dass Nachrichtenorganisationen keine Kontrolle über den zusammenfassenden Inhalt von Apple AI haben. Während sich einige Verlage dafür entschieden haben, KI zur Unterstützung beim Schreiben von Artikeln einzusetzen, liegt dies in ihrem Ermessen. Allerdings wurde die Zusammenfassung von Apple AI im Namen einer Verlagsorganisation veröffentlicht, was nicht nur potenzielle Fehlinformationen verbreitet, sondern auch die Glaubwürdigkeit der Medien gefährdet.
Apple reagierte nicht auf den Vorfall, und die Kontroverse um die KI-Fähigkeiten spiegelt auch die Herausforderungen wider, denen sich die Nachrichtenbranche in einem sich schnell verändernden technologischen Umfeld gegenübersieht. Seit der Einführung von ChatGPT haben mehrere Technologiegiganten ihre eigenen großen Sprachmodelle auf den Markt gebracht, und vielen Modellen wurde vorgeworfen, während des Trainings urheberrechtlich geschützte Inhalte, einschließlich Nachrichtenberichte, verwendet zu haben. Obwohl einige Medienunternehmen rechtliche Schritte eingeleitet haben, haben sich andere, wie beispielsweise Axel Springer, dafür entschieden, Lizenzvereinbarungen mit relevanten Entwicklern abzuschließen.
Highlight:
Die neue KI-Funktion von Apple wurde vielfach wegen Fehlalarmen kritisiert.
Reporter ohne Grenzen forderte Apple auf, diese Funktion zurückzuziehen, und betonte, dass KI-Technologie nicht für die Zusammenfassung von Nachrichten verwendet werden dürfe.
Die BBC sagte, es sei von entscheidender Bedeutung, die Glaubwürdigkeit der Informationen sicherzustellen und habe Apple zu diesem Thema kontaktiert.
Dieser Vorfall löste umfangreiche Diskussionen über die Ethik- und Sicherheitsfragen der künstlichen Intelligenz im Bereich der Nachrichtenkommunikation aus. Er warnte Technologieunternehmen auch davor, bei der Entwicklung und Anwendung von KI-Technologie vorsichtig zu sein, um die Verbreitung falscher Informationen zu vermeiden und öffentliche Interessen zu schützen. Die Reaktion von Apple auf diesen Vorfall und die Art und Weise, wie das Unternehmen seine KI-Fähigkeiten in Zukunft verbessert, werden genau beobachtet.