Anthropic hat eine neue Funktion namens "Zitate" für ihre Modelsfamilie Claude AI gestartet, um die Transparenz und Rückverfolgbarkeit von Antworten zu verbessern. "Zitate" können automatisch die Quelle der KI -Antworten liefern, einschließlich präziser Sätze und Absatzzitate, wodurch die Glaubwürdigkeit von Antworten verbessert und das Phänomen der KI -Modelle "Illusion" verringert wird. Diese neue Funktion wurde auf der API von Anthropic und der Vertex AI -Plattform von Google gestartet, um Entwicklern zuverlässigere KI -Tools zu bieten.
Um die Transparenz und Rückverfolgbarkeit seines KI -Modells zu verbessern, kündigte Anthropic am Donnerstag eine neue Funktion, Zitate, an. Diese Funktion soll Entwicklern helfen, genaue Referenzen aus Quelldokumenten, einschließlich Sätzen und Absätzen, in Antworten zu liefern, die über die Claude AI -Serie generiert werden. Diese innovative Funktion war nach dem ersten Start sofort auf der API von Anthropic und Google AI erhältlich.
Zitate Merkmal: Verbesserung der Dokumente Transparenz und Genauigkeit
Laut Anthropic kann die Funktion der Zitate Entwicklern automatisch die Quelle von Antworten bieten, die von KI -Modellen generiert werden, unter Berufung auf die genauen Sätze und Absätze im Quelldokument. Diese Funktion eignet sich besonders für die Zusammenfassung der Dokumente, die Q & A -Systeme und die Kundensupport -Anwendungen und kann die Glaubwürdigkeit und Transparenz Ihrer Antworten verbessern. Durch die Einführung der Quellliteratur können Entwickler ein klareres Verständnis des Argumentationsprozesses von AI -Modellen haben und "Illusions" -Phänomene (d. H. Unbegründetes oder von AI erzeugter Fehlinformationen) reduzieren.
Anwendungsbereich und Preisgestaltung
Obwohl die Einführung von Zitaten die Aufmerksamkeit auf sich gezogen hat, beschränkt sich dies derzeit auf die Modelle Claude3.5Sonnet und Claude3.5Haiku von Anthropic. Darüber hinaus ist diese Funktion nicht kostenlos und anthropisch wird eine entsprechende Gebühr berechnet, die auf der Länge und Menge des Quelldokuments basiert. Ein Quelldokument mit etwa 100 Seiten kostet beispielsweise etwa 0,30 USD bei der Verwendung von Claude3.5Sonnet und 0,08 USD, wenn Sie Claude3.5Haiku verwenden. Dies kann eine Option sein, die es wert ist, für Entwickler zu investieren, die die Fehler bei der Erzeugung von KI und den ungenauen Inhalt reduzieren möchten.
Zitate: Ein effektives Instrument zum Umgang mit KI -Halluzinationen und Fehlern
Der Start von Zitaten hat zweifellos die Wettbewerbsfähigkeit von Anthropic auf dem Gebiet des AI-generierten Inhalts verbessert, insbesondere bei der Lösung des "Illusion" -Problems von KI-Modellen. Die Illusion von KI war schon immer eine der Herausforderungen für Entwickler und Benutzer, und die Funktionen der Zitate bieten mehr Garantien für die Zuverlässigkeit von Inhalten mit AI-generierter A-generierter, sodass Entwickler deutlich die Quelle von AI-generierten Inhalten erkennen können. Auf diese Weise verbessert Anthropic nicht nur die Produkttransparenz, sondern bietet Entwicklern auch mehr Tools, um sicherzustellen, dass der generierte Inhalt genauer und überprüfbar ist.
Zusammenfassen
Mit der kontinuierlichen Entwicklung der KI -Technologie werden Transparenz und Rückverfolgbarkeit immer mehr im Mittelpunkt der Benutzer und Entwickler. Die von Anthropic gestarteten Zitate reagieren auf diese Nachfrage und bieten Entwicklern ein höheres Maß an Kontrolle und die Fähigkeit, die Richtigkeit des KI -Inhalts sicherzustellen. In Zukunft kann diese Funktion zur Standardkonfiguration in KI -Entwicklungstools werden und die gesamte Branche dazu drängen, sich in vertrauenswürdiger Richtung zu entwickeln.
Insgesamt ist die Zitate von Anthropic ein wichtiger Schritt zur Verbesserung der Transparenz und Zuverlässigkeit von KI -Modellen, wodurch AI -Illusionen reduziert und Entwicklern zuverlässigere Werkzeuge zur Verfügung gestellt werden. Dies wird dazu beitragen, die gesunde Entwicklung der KI -Technologie zu fördern.