Anthropic hat kürzlich die Systemaufforderungen für seine Modelle der Claude-Serie veröffentlicht, die jedoch aufgrund der fehlenden Beschreibung der neuesten Feature-Artefakte für Kontroversen sorgten. Die Forscher stellen fest, dass dieser Mangel das vollständige Verständnis des Verhaltens des Modells beeinträchtigt. Anthropic antwortete, dass die Artefaktfunktion später als die Systemaufforderung gestartet wurde und daher nicht enthalten sei, und versprach, in den nächsten Wochen vollständige Informationen hinzuzufügen. Dieser Vorfall unterstreicht die Bedeutung der Offenlegung von Eingabeaufforderungen für KI-Modellsysteme und die Herausforderungen, denen sich Entwickler in Bezug auf Transparenz gegenübersehen.
Letzte Woche hat Anthropic die Systemaufforderungen für seine Modelle der Claude-Serie veröffentlicht, bei denen es sich um die Bedienungsanleitungen der Modelle handelt, diese Veröffentlichung ist jedoch unvollständig. Als Reaktion auf dieses Problem hat Anthropic versprochen, in den kommenden Wochen Systemaufforderungen für seine neueste Funktion, Artifacts, anzukündigen. Zuvor hatten Forscher darauf hingewiesen, dass Hinweise zu Artefakten in der neuesten Version nicht enthalten seien.
Ein Anthropic-Sprecher bestätigte, dass sie „in den kommenden Wochen weitere Details zu Systemaufforderungen, einschließlich Informationen zu Artefakten, hinzufügen werden“. Erwähnenswert ist, dass die Artefakte-Funktion erst letzte Woche für alle Claude-Benutzer geöffnet wurde und es Benutzern ermöglicht, Codeschnipsel neben Claudes Chat-Oberfläche auszuführen.
Die Veröffentlichung des Claude-Systemprompts durch Anthropic wurde von den Medien als Unternehmen gelobt, das in puncto Transparenz Vorreiter ist. Forscher wie Mohammed Sahli glauben jedoch, dass die Aussage des Unternehmens nicht vollständig ist, vor allem weil Artifacts' Systemprompt ausgeschlossen wurde.
Anthropic erklärte, dass die Systemaufforderung für Artefakte in der Veröffentlichung der letzten Woche nicht angezeigt wurde, hauptsächlich weil die Funktion vor letzter Woche nicht für alle Claude-Benutzer verfügbar war. Tatsächlich wurde Artifacts veröffentlicht, nachdem das System eine Ankündigung veranlasst hatte.
Wie wichtig sind Systemaufforderungen?
Obwohl KI-Modellentwickler nicht verpflichtet sind, Systemaufforderungen für große Sprachmodelle zu veröffentlichen, ist die Offenlegung dieser Bedienungsanleitungen für viele KI-Enthusiasten zum „Spaß“ geworden. Dies hilft Entwicklern nicht nur, das erwartete Verhalten des Modells besser zu verstehen, sondern ermöglicht es Benutzern auch zu verstehen, warum das Modell bestimmte Anfragen ablehnt.
Laut der von Anthropic veröffentlichten System-Eingabeaufforderungsdatei ist Claude3.5Sonnet die fortschrittlichste Version der Serie und legt Wert auf Genauigkeit und Einfachheit bei der Beantwortung von Fragen. Das Modell kennzeichnet Informationen nicht ausdrücklich als vertraulich und vermeidet die Verwendung redundanter Füllwörter oder Entschuldigungen.
Claude3Opus ist ein größeres Modell mit einer bis August 2023 aktualisierten Wissensdatenbank, das die Diskussion kontroverser Themen ermöglicht und mehrere Perspektiven bietet, aber Stereotypen vermeidet und eine Ausgewogenheit der Perspektiven gewährleistet. Die kleinste Version, Claude3Haiku, konzentriert sich auf Geschwindigkeit und verfügt nicht über eine Verhaltensanleitung wie Claude3.5Sonnet.
Was die Systemaufforderung von Artifacts betrifft, ist der spezifische Inhalt noch nicht bekannt. Sahli erwähnte in seinem Medium-Beitrag, dass die Funktion darauf ausgerichtet sein könnte, komplexe Probleme systematisch zu lösen und sich auf prägnante Antworten zu konzentrieren.
Highlight:
- ? Anthropic verspricht, in den nächsten Wochen eine Artifacts-Systemaufforderung für das Claude-Modell zu veröffentlichen, um auf die Fragen der Forscher zu antworten.
- ? Die Artefaktfunktion, die es Benutzern ermöglicht, Codeausschnitte neben Claudes Chat-Oberfläche auszuführen, wurde erst letzte Woche für alle Benutzer verfügbar gemacht.
- ? Die Offenlegung von Systemaufforderungen hilft Benutzern, das Verhalten des Modells zu verstehen und ermutigt KI-Entwickler, transparent zu sein.
Alles in allem spiegelt dieser Vorfall die Bedeutung der Offenlegung umfangreicher Eingabeaufforderungen für Sprachmodellsysteme wider und spiegelt auch die Fragen der Transparenz und Verantwortung im Bereich der KI-Forschung und -Entwicklung wider. Die weiteren Maßnahmen von Anthropic werden einen erheblichen Einfluss auf seinen Ruf und das Vertrauen der Nutzer haben. Wir freuen uns darauf, dass das Unternehmen die Informationen so schnell wie möglich vervollständigt und seine führende Position in Sachen Transparenz im KI-Bereich weiterhin behauptet.