Palantir, Anthropic et Amazon Web Services (AWS) travaillent ensemble pour créer une plate-forme cloud basée sur Claude pour les services de défense et de renseignement du gouvernement américain. Cette décision intègre les Claude 3 et 3.5 dans la plate-forme d'IA de Palantir, qui sera hébergée sur AWS et profitera des certifications de traitement des données et de stockage les plus confidentielles de niveau confidentiel que les trois sociétés ont déjà obtenu. Cette décision vise à améliorer l'efficacité du traitement des données, à aider à la reconnaissance des modèles et à l'analyse des tendances, à simplifier les processus d'examen des documents et, finalement, à aider les responsables gouvernementaux à prendre des décisions plus intelligentes en cas d'urgence.
Récemment, Palantir a annoncé un partenariat avec Anthropic et Amazon Web Services (AWS) pour construire une plate-forme cloud Claude adaptée à l'utilisation de la défense et de l'intelligence du gouvernement américain.
Selon les annonces des trois sociétés, la collaboration intégrera Claude3 et 3.5 dans la plate-forme d'intelligence artificielle de Palantir, qui sera organisée sur AWS. Il convient de mentionner que Palantir et AWS ont obtenu la certification Impact Level 6 (IL6) délivrée par le ministère américain de la Défense, ce qui leur permet de traiter et de stocker les données au niveau confidentiel le plus élevé.
Un porte-parole d'Anthropic a déclaré que Claude était ouvert à la communauté de la défense et du renseignement pour la première fois début octobre. Le gouvernement américain utilisera Claude pour réduire le temps de traitement des données, identifier les modèles et les tendances, simplifier l'examen des documents et aider les responsables à prendre des décisions plus intelligentes lorsque le temps est serré, tout en maintenant leur pouvoir de décision. "Palantir est fier d'être le premier partenaire de l'industrie à amener le modèle Claude dans un environnement confidentiel", a déclaré Shyam Sankar, CTO de Palantir.
Contrairement à Meta, qui a récemment annoncé l'ouverture de LLAMA au gouvernement américain pour la défense et les demandes de sécurité nationale, a établi des politiques d'utilisation pertinentes. Anthropic n'a pas besoin de faire des exceptions à sa politique d'utilisation acceptable (AUP), qui permet à Claude d'être appliquée dans des zones potentiellement dangereuses du département américain de la Défense, de la CIA ou d'autres agences de défense et de renseignement qui l'utilisent.
Bien qu'Anthropic ait identifié certains cas d'utilisation à haut risque dans son AUP, il ne limite pas son utilisation dans les domaines de la défense et du renseignement, et ne mentionne que son utilisation dans des domaines tels que le droit, les soins de santé, l'assurance, la finance, l'emploi, le logement, le monde et les médias . Interrogé sur la relation entre l'AUP et les applications gouvernementales, Anthropic n'a mentionné qu'un seul article de blog sur l'étendue de l'accès du gouvernement à Claude.
Dans ce blog, Anthropic mentionne que le mécanisme a été créé pour accorder des exceptions à une politique d'utilisation acceptable pour les utilisateurs du gouvernement et souligne que ces exceptions sont «bien calibrées pour permettre une utilisation bénéfique par les agences gouvernementales strictement sélectionnées». Cependant, on ne sait pas exactement quelles sont ces exceptions.
Anthropic a également déclaré que la structure des exceptions existante permet à Claude d'être utilisée pour l'analyse du renseignement étrangère autorisée par la loi et de fournir des avertissements précoces des activités militaires potentielles, ouvrant ainsi les fenêtres à la diplomatie pour prévenir ou arrêter les conflits. Cependant, d'autres restrictions sur les fausses informations, la conception et l'utilisation des armes, la censure et les opérations de réseau malveillant demeurent.
Points clés:
Palantir s'est associé à Anthropic et AWS pour lancer la plate-forme Claude Cloud adaptée aux US Defence Intelligence.
Claude est utilisé pour le traitement des données, la reconnaissance des modèles et l'assistance à la décision sans exception à ses politiques d'utilisation acceptables.
La politique d'utilisation acceptable d'Anthropic autorise certaines applications dans le secteur de la défense, mais il n'y a pas de restrictions explicites sur les zones à haut risque.
La collaboration intègre la technologie AI avancée et les capacités de traitement des données de haute sécurité, fournissant un fort soutien à l'analyse des données du gouvernement américain et à la prise de décision dans le domaine de la défense et de l'intelligence. Cependant, les limites de l'application de Claude dans les zones à haut risque doivent encore être clarifiées pour assurer son utilisation sûre et responsable.