META hat einen neuen Rahmen für das modernste KI-Risiko-Richtlinien veröffentlicht, in dem das Risiko von hochmodernen KI-Modellen verringert und entsprechende Kontrollmaßnahmen basierend auf dem Risikoniveau ergriffen werden. Das Framework unterteilt KI-Modelle in zwei Kategorien: Hochrisiko- und Schlüsselrisiko und formuliert entsprechende Strategien für verschiedene Ebenen, z. B. die Beendigung der Entwicklung, die Einschränkung der Zugriffsrechte usw. Dieser Schritt zielt darauf ab, die Sicherheit und Transparenz der KI -Entwicklung zu verbessern und potenzielle Bedrohungen wie die Verbreitung biologischer Waffen und Wirtschaftsbetrug zu verhindern.
META hat kürzlich einen neuen Rahmen für die Risikopolitik veröffentlicht, das darauf abzielt, die Risiken zu bewerten und zu verringern, die durch hochmoderne KI-Modelle ausgestattet sind und die Freisetzung dieser Systeme bei Bedarf nicht mehr entwickeln oder einschränken. Der Framework, der als Frontier AI-Framework bezeichnet wird, erläutert, wie Meta AI-Modelle in zwei Kategorien unterteilt: Hochrisiko- und kritische Risiken und entsprechende Maßnahmen entsprechend, um Risiken auf "tolerierbare Ebenen" zu reduzieren.
In diesem Rahmen sind kritische Risiken definiert als in der Lage, die Ausführung spezifischer Bedrohungsszenarien eindeutig zu erleichtern. Ein hohes Risiko bedeutet, dass das Modell die Möglichkeit, Bedrohungsszenarien zu erreichen, erheblich erhöhen kann, aber die Ausführung nicht direkt erleichtert. Zu den Bedrohungsszenarien gehört die Verbreitung biologischer Waffen, deren Fähigkeiten mit bekannten biologischen Wirkstoffen vergleichbar sind, und die weit verbreitete wirtschaftliche Schädigung eines Individuums oder eines Unternehmens, das durch groß angelegte Betrug und Betrug verursacht wird.
Bei Modellen, die kritische Risikoschwellen erfüllen, wird Meta die Entwicklung und den offenen Zugang zum Modell nur wenige Experten einstellen und gleichzeitig Sicherheitsschutz implementieren, um Hacker oder Datenverletzungen zu verhindern, wenn sie technisch und kommerziell machbar sind. Bei Modellen mit hohem Risiko schränkt Meta den Zugriff ein und führt Risikominderungsmaßnahmen ein, um die Risiken auf ein moderates Niveau zu reduzieren, um sicherzustellen, dass das Modell die Ausführungsfähigkeiten von Bedrohungsszenarien nicht signifikant verbessert.
META sagte, dass sein Risikobewertungsprozess multidisziplinäre Experten und interne Unternehmensleiter beinhalten wird, um sicherzustellen, dass die Meinungen zu allen Aspekten vollständig berücksichtigt werden. Dieser neue Rahmen gilt nur für die hochmodernen Modelle und Systeme des Unternehmens, deren Funktionen übereinstimmen oder die aktuellen technischen Ebenen überschreiten.
Meta hofft, dass durch die Weitergabe seiner fortgeschrittenen KI -Systementwicklungsmethoden die Transparenz verbessern und externe Diskussionen und Forschungen zu KI -Bewertung und quantitativen Wissenschaft fördern können. Gleichzeitig betonte das Unternehmen, dass sich der Entscheidungsprozess für die AI-Bewertung weiterentwickelt und sich mit der Entwicklung der Technologie verbessern wird, einschließlich der Sicherstellung, dass die Ergebnisse seiner Testumgebung die Leistung des Modells im tatsächlichen Betrieb wirklich widerspiegeln können.
Schlüsselpunkte:
Meta startet einen neuen Rahmen für Risikorichtlinien, um Risiken von hochmodernen KI-Modellen zu bewerten und zu reduzieren.
Wichtige Risikomodelle werden abgesetzt und der Expertenzugriff wird eingeschränkt.
Der Risikobewertungsprozess wird multidisziplinäre Experten umfassen, die sich um die Verbesserung der Transparenz und Wissenschaft bemühen.
Der neue Framework von Meta enthält höhere Sicherheitsstandards für die Entwicklung und den Einsatz zukünftiger KI -Modelle, was ihr Engagement für die verantwortungsvolle KI -Entwicklung widerspiegelt. Dies hilft nicht nur, die potenziellen Risiken der KI -Technologie zu verringern, sondern bietet auch wertvolle Erfahrung und Referenz für die Branche.