Pour améliorer la transparence dans l'intelligence artificielle (IA), la Computer and Communications Industry Association (CCIA) a publié conjointement un modèle de rapport mondial sur la transparence de l'industrie à Bruxelles et à Washington. Cette décision vise à améliorer la confiance et la compréhension du public à l'égard des données de formation du modèle général d'intelligence artificielle (GPAI). Le modèle oblige les entreprises à divulguer le type, la source, les méthodes de filtrage et d'application des données de formation afin de garantir la transparence des informations tout en protégeant la sécurité du modèle. confidentialité des affaires. Ceci complète le projet de loi sur l'IA formulé par l'Union européenne et reflète également l'accent mis par la CCIA sur la cohérence des normes mondiales.
Dans son effort pour la transparence dans le domaine de l'intelligence artificielle (IA), la Computer and Communications Industry Association (CCIA) a annoncé conjointement à Bruxelles et à Washington le lancement d'une nouvelle initiative révolutionnaire, le Global Industry Transparency Reporting Template. Ce modèle est conçu pour accroître la confiance du public et la compréhension des données de formation du modèle général d'intelligence artificielle (GPAI).
Le « Modèle de transparence des données de formation des modèles d'IA » publié cette fois-ci exige que les entreprises divulguent les types de données utilisées pour former des modèles GPAI spécifiques, tels que les podcasts, les livres, etc., et doivent également clarifier les principales sources de données, telles que les sources ouvertes. accéder à des archives et à de grands ensembles de données publiques ou à des données analysées à partir de sites Web publics. De plus, les entreprises doivent expliquer en détail comment ces données sont sélectionnées et utilisées pour la formation des modèles.
La CCIA a souligné que ce modèle de transparence repose sur huit principes fondamentaux reconnus par ses sociétés membres pour garantir que, tout en fournissant des informations transparentes, il protège la sécurité des modèles d'IA, les secrets d'affaires et les informations confidentielles des tiers liés. "Nous souhaitons promouvoir la divulgation publique responsable des données de formation en IA. Notre modèle de transparence fournit un moyen concis et efficace de déclarer les données de formation tout en garantissant la sécurité des modèles d'IA et des précieux secrets commerciaux de l'entreprise."
En outre, la CCIA a également mentionné que ce modèle est complémentaire au plan de mise en œuvre de la loi sur l'IA actuellement formulé par l'UE et qu'il prête également attention aux développements mondiaux. La CCIA souligne que l'UE doit être cohérente avec les normes internationales et éviter d'élaborer des normes de manière isolée.
Joshua Landau, conseiller principal pour la politique d'innovation à la CCIA, a déclaré : « Les mesures de transparence peuvent maximiser le potentiel de l'IA, mais elles doivent être techniquement solides et proportionnées. Il est crucial de trouver un équilibre pour instaurer la confiance tout en garantissant le respect des normes juridiques et éthiques et en encourageant l'innovation. en intelligence artificielle.
À mesure que la technologie de l’intelligence artificielle continue de se développer, l’importance de la transparence est devenue de plus en plus importante. Le modèle de transparence lancé par la CCIA fournit non seulement un cadre de reporting standardisé pour les entreprises, mais constitue également une référence importante pour les agences de régulation lors de la formulation de politiques pertinentes, favorisant ainsi le développement de l'ensemble du secteur dans une direction plus ouverte et transparente.
Les nouvelles mesures de la CCIA ont établi une nouvelle référence pour le développement de l'industrie de l'IA, en équilibrant la transparence et la sécurité des données, elles favorisent l'innovation responsable de la technologie de l'IA. Je pense qu'elles méritent d'être référencées et apprises par l'industrie. d'autres mesures similaires pour promouvoir le développement sain de l'industrie de l'IA à l'avenir.