Avec le développement rapide de la technologie de l’intelligence artificielle, les grands modèles linguistiques (LLM) ont un impact de plus en plus profond sur la société. Comment garantir que ces outils puissants sont cohérents avec les valeurs humaines est devenu une direction de recherche importante. Cet article présente une nouvelle méthode appelée OPO, capable d'aligner dynamiquement les valeurs de grands modèles en temps réel sans recycler le modèle. La méthode est simple et facile à utiliser, adaptée aux grands modèles de sources fermées et open source, et permet des progrès révolutionnaires dans l’alignement des normes juridiques et éthiques.
Avec le développement de la technologie de l’intelligence artificielle, les grands modèles linguistiques représentés par GPT-4 ont un impact profond sur la société grâce à leurs puissantes capacités. La nouvelle méthode OPO ne nécessite pas de recyclage du modèle, d'alignement dynamique des valeurs en temps réel, et la méthode d'alignement est pratique et rapide. Les chercheurs utilisent la méthode OPO pour aligner les grands modèles sur les normes juridiques et éthiques. La question de la sécurité du grand modèle lui-même est devenue importante. Des progrès révolutionnaires ont été réalisés dans l'alignement dynamique des valeurs en temps réel. En conséquence, la méthode OPO ne nécessite pas de formation et est applicable à la fois aux grands modèles fermés et open source. modèles. Le code OPO a été rendu public sur GitHub et les chercheurs ont construit trois benchmarks de test annotés par des humains et deux benchmarks de test générés automatiquement par le modèle.
L'émergence de la méthode OPO fournit une nouvelle idée pour résoudre le problème d'alignement des valeurs des grands modèles de langage, et son efficacité et son applicabilité méritent qu'on s'y intéresse. À l’avenir, des méthodes telles que l’OPO pourraient devenir un outil important pour garantir le développement sûr et fiable de l’IA. L’open source de cette méthode favorise également la coopération entre le monde universitaire et l’industrie pour promouvoir conjointement le développement sain de la technologie de l’IA.