Anthropic a annoncé un plan ambitieux pour financer le développement de nouveaux modèles de référence en matière d'IA. Le programme vise à améliorer l’évaluation des performances et de l’impact des modèles d’IA, en accordant une attention particulière à des aspects importants tels que la sécurité de l’IA et son impact social. Cette décision vise à combler les lacunes des références existantes, telles que leur incapacité à capturer efficacement des scénarios d'application du monde réel et leur incapacité à mesurer avec précision ce qu'ils prétendent mesurer. Anthropic appelle au développement de tests de référence plus exigeants pour évaluer les capacités des modèles d'IA en matière de cyberattaques, d'amélioration des armes, de manipulation de l'information, etc., et pour explorer le potentiel de l'IA dans la recherche scientifique, la communication multilingue et d'autres domaines. Cela contribuera à fournir une compréhension plus complète des capacités et des risques de l’IA et à promouvoir le développement du domaine de la sécurité de l’IA.
Anthropic apportera un soutien financier à des organisations tierces pour les encourager à développer des méthodes d'évaluation plus efficaces. Ce programme reflète l’engagement d’Anthropic à améliorer le domaine global de la sécurité de l’IA et à promouvoir une évaluation complète de l’IA comme norme de l’industrie. Cependant, compte tenu des intérêts commerciaux d'Anthropic, l'objectivité et l'équité de son plan doivent encore être examinées plus en détail. À l’avenir, le succès du programme dépendra de l’investissement financier et humain, ainsi que du degré de coopération avec d’autres organisations concernées.