Der Herausgeber von Downcodes erfuhr, dass Microsoft kürzlich einen Patentantrag eingereicht hat, der darauf abzielt, das Problem der durch künstliche Intelligenz erzeugten Falschinformationen zu lösen. Der Patentantrag mit dem Titel „Using External Knowledge and Feedback to Interact with Language Models“ wurde letztes Jahr beim US-amerikanischen Patent- und Markenamt (USPTO) eingereicht und am 31. Oktober veröffentlicht. Das Patent schlägt ein „Response Augmentation System“ (RAS) vor, das darauf abzielt, die Genauigkeit und Zuverlässigkeit der Antworten des KI-Modells zu verbessern und das Auftreten von KI-„Halluzinationen“ zu reduzieren. Diese Technologie erfordert keine komplexen Anpassungen bestehender Modelle und verbessert effektiv die Qualität von KI-Antworten durch die Kombination externer Informationsquellen und Benutzerfeedback, wodurch die Generierung falscher Informationen reduziert wird.
Kürzlich hat Microsoft einen Patentantrag eingereicht, der darauf abzielt, durch künstliche Intelligenz erzeugte Falschinformationen durch ein technisches Verfahren zu reduzieren oder zu beseitigen. Das Patent mit dem Titel „Interacting with Language Models Using External Knowledge and Feedback“ wurde letztes Jahr beim US-Patent- und Markenamt (USPTO) eingereicht und am 31. Oktober veröffentlicht.
Der Kern dieses Vorschlags besteht darin, KI-Modelle mit einem „Response Augmentation System“ (RAS) auszustatten, das automatisch mehr Informationen basierend auf Benutzeranfragen extrahieren und die „Gültigkeit“ ihrer Antworten überprüfen kann.
Das Antwortverbesserungssystem kann insbesondere erkennen, ob Informationen aus einer „externen Quelle“ die Frage des Benutzers besser beantworten könnten. Wenn die Antwort der KI diese Informationen nicht enthält, beurteilt das System sie als nicht nützlich genug. Darüber hinaus kann RAS den Nutzer auch darauf hinweisen, wenn seine Antworten Mängel aufweisen, und der Nutzer kann hierzu auch Feedback geben. Der Vorteil dieses Ansatzes besteht darin, dass Entwickler oder Unternehmen keine detaillierten Anpassungen an bestehenden Modellen vornehmen müssen.
Derzeit wird auf der USPTO-Website noch keine Patentnummer für die Anmeldung angezeigt, was bedeutet, dass das Patent noch geprüft wird. Wir haben uns an Microsoft gewandt, um mehr zu erfahren, unter anderem, ob das Patent mit dem zuvor angekündigten Tool von Microsoft zur Reduzierung von KI-Illusionen zusammenhängt – dem Azure AI Content Security Tool. Dieses Tool bietet eine KI-gesteuerte Verifizierung für KI-Chatbots in Unternehmen. Es kann im Hintergrund eine Faktenprüfung durchführen, um festzustellen, ob die Antworten der KI „unbegründet“ oder „begründet“ sind, und liefert nur Antworten, die durch tatsächliche Daten gestützt werden, bevor es den Benutzern Antworten gibt. Antwort.
Das Problem der KI-Illusion ist eine der größten Herausforderungen für generative KI, die die Glaubwürdigkeit von KI-Chatbots ernsthaft beeinträchtigt. In dieser Hinsicht haben sowohl die KI-Systeme von Google als auch Twitter schwerwiegende Fehler begangen, indem sie den Nutzern beispielsweise vorschlugen, Kleber auf Pizza zu streichen oder Steine zu essen, und sogar Desinformation über Wahlen verbreiteten. Auch Apple-Chef Tim Cook gab zu, dass die intelligente Technologie von Apple auch das Problem der Halluzinationen nicht umgehen kann. Kürzlich wurde auch festgestellt, dass das Audiotranskriptionstool „Whisper“ von OpenAI häufig zu Halluzinationen führt, was auf seinen Einsatz in US-Krankenhäusern aufmerksam macht.
Trotz des prominenten Problems der KI-Halluzinationen haben Technologiegiganten immer noch eine starke Nachfrage nach KI-Rechenzentren, und Unternehmen wie Google, Microsoft und Meta erwägen Kernenergie als mögliche Lösung, um den hohen Energieverbrauchsbedarf der KI zu decken.
Der Schritt von Microsoft soll die Zuverlässigkeit von KI-Modellen verbessern und die Verbreitung falscher Informationen verringern, was für die Entwicklung und Anwendung der KI-Technologie von großer Bedeutung ist. Wir freuen uns darauf, dass dieses Patent in Zukunft die Prüfung erfolgreich besteht und schließlich in tatsächlichen Produkten eingesetzt wird, um Benutzern ein sichereres und zuverlässigeres KI-Erlebnis zu bieten.