Kürzlich sorgten zwei Aufsätze zur generativen künstlichen Intelligenz (KI) für heftige Diskussionen und wiesen darauf hin, dass durch KI generierte Texte oft „Unsinn“ seien. Diese beiden Papiere liefern eine eingehende Analyse des potenziellen Schadens für die Gesellschaft, der durch durch KI erzeugte Fehlinformationen verursacht wird, aus der Perspektive der wesentlichen Merkmale von KI und der Mängel aktueller Gesetze und Vorschriften und fordern wirksamere Maßnahmen zur Risikovermeidung. Die Autoren des Papiers sind der Ansicht, dass es irreführend ist, KI-Fehler einfach „Illusionen“ zuzuschreiben, und dass zur Beschreibung dieses Phänomens genauere Begriffe verwendet werden sollten, um so das Bewusstsein und Verständnis der Öffentlichkeit für KI-Technologie zu verbessern und die Umsetzung relevanter Gesetze und Gesetze zu fördern Vorschriften. Vollständig.
Kürzlich haben zwei Forschungsteams weithin beachtete Arbeiten veröffentlicht, in denen sie unverblümt darlegen, dass der Inhalt von Produkten der generativen künstlichen Intelligenz (KI) grundsätzlich als „Unsinn“ angesehen werden kann. Das Papier mit dem Titel „ChatGPT ist Unsinn“ weist darauf hin, dass die Missachtung der Genauigkeit bei der Erstellung von Informationen durch generative KI viele Herausforderungen für Beamte darstellt, insbesondere für Beamte, die gesetzlich verpflichtet sind, die Wahrheit zu sagen.
Die Autoren Michael Townsen Hicks, James Humphries und Joe Slater betonen, dass die durch generative KI erzeugten Fehlinformationen nicht einfach als „Lügen“ oder „Illusionen“ beschrieben werden können. Im Gegensatz zu Lügen, die absichtlich täuschen, bezieht sich Bullshit auf eine Ausdrucksform, die sich nicht um die Wahrheit kümmert und versucht, einen bestimmten Eindruck zu vermitteln. Sie argumentieren, dass die Bezeichnung von KI-Fehlern als „Halluzinationen“ die Öffentlichkeit nur zu der Annahme verleitet, dass diese Maschinen immer noch irgendwie versuchen, zu kommunizieren, was sie „glauben“.
„Diese Fehler als ‚Bullshit‘ statt als ‚Illusionen‘ zu bezeichnen, wäre nicht nur zutreffender, sondern würde auch dazu beitragen, das öffentliche Verständnis der Technologie zu verbessern“, sagten sie. Diese Passage unterstreicht, wie wichtig es ist, präzisere Begriffe zur Beschreibung von KI-Fehlern zu verwenden. insbesondere im aktuellen Kontext, in dem die wissenschaftliche und technologische Kommunikation dringend verbessert werden muss.
Unterdessen konzentriert sich ein weiterer Forschungsbericht zu Large Language Models (LLMs) auf das rechtliche und ethische Umfeld der EU zu diesem Thema. Die Schlussfolgerung des Papiers ist, dass die aktuellen Gesetze und Vorschriften zu KI immer noch nicht perfekt genug sind, um den Schaden, der durch den von diesen KIs erzeugten „Unsinn“ entsteht, wirksam zu verhindern. Die Autoren Sandra Wachter, Brent Mittelstadt und Chris Russell schlagen die Einführung ähnlicher Vorschriften wie im Verlagswesen vor, wobei der Schwerpunkt auf der Vermeidung von „beiläufiger Rede“ liegt, die gesellschaftlichen Schaden anrichten könnte.
Sie stellen fest, dass diese Verpflichtung betont, dass kein einzelnes Unternehmen, weder öffentlich noch privat, der alleinige Schiedsrichter über die Wahrheit sein sollte. Sie schlagen auch vor, dass die „zufällige Rede“ der generativen KI die Wahrheit eher zu einer Frage der Häufigkeit und Mehrheitsmeinung als zu tatsächlichen Fakten machen könnte.
Alles in allem zeigen diese beiden Papiere gemeinsam die potenziellen Risiken der generativen KI auf und fordern alle Bereiche der Gesellschaft auf, aufmerksam zu sein und Maßnahmen zu ergreifen, um relevante Gesetze und Vorschriften zu verbessern, die Entwicklung der KI-Technologie zu standardisieren und sicherzustellen, dass die KI-Technologie einen besseren Nutzen bringt menschliche Gesellschaft.