Le comité spécial du Sénat australien a récemment publié un rapport accusant Amazon, Google et Meta d'être ambigus dans l'utilisation de données australiennes pour former des produits d'IA, ce qui a attiré une large attention. Dans le rapport, le sénateur Sheldon a sévèrement critiqué ces géants de la technologie pour avoir été évasifs lors de l'audience et comme des « pirates » pillant la culture, les données et la créativité australiennes. L’éditeur de Downcodes expliquera ce rapport en détail et son impact sur les politiques réglementaires australiennes en matière d’IA et sur les industries créatives.
Récemment, le rapport d’enquête du comité spécial du Sénat australien a révélé que les entreprises technologiques Amazon, Google et Meta (anciennement Facebook) avaient des attitudes ambiguës et décevantes lorsqu’elles utilisaient des données australiennes pour former leurs produits d’intelligence artificielle.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Le président de l'enquête, le sénateur travailliste Tony Sheldon, a exprimé son vif mécontentement à ce sujet, estimant que ces sociétés multinationales ont continué à éviter les questions directes lors de l'audience, comme si elles présentaient un spectacle de magie bon marché, et n'ont finalement rien fait.
Sheldon a déclaré après la publication du rapport que ces entreprises technologiques étaient comme des « pirates », pillant la culture, les données et la créativité de l'Australie, et laissant finalement les Australiens les mains vides. Il a souligné qu'Amazon a refusé de divulguer comment il utilise les données collectées par les appareils Alexa, Kindle et Audible pour former l'IA, tandis que Google n'a pas non plus expliqué comment il utilise les données des utilisateurs pour développer des produits d'IA. Même si Meta a reconnu avoir extrait des données des utilisateurs australiens de Facebook et d'Instagram depuis 2007 pour les utiliser dans de futurs modèles d'IA, elle n'a pas été en mesure d'expliquer comment les utilisateurs en 2007 avaient consenti à ce que les données soient utilisées à des fins qui n'existaient pas encore.
Le rapport souligne également que les travailleurs créatifs sont confrontés au risque que l’intelligence artificielle affecte gravement leurs moyens de subsistance. Il recommande d’établir des mécanismes de paiement pour rémunérer les travailleurs créatifs lorsque le travail généré par l’IA est basé sur du matériel original. De plus, les entreprises développant des modèles d’IA doivent faire preuve de transparence quant à l’origine des œuvres protégées par le droit d’auteur utilisées dans leurs ensembles de données, et toutes les œuvres revendiquées doivent être autorisées et payées en conséquence.
L'une des 13 recommandations du rapport appelle à l'introduction d'une législation indépendante sur l'intelligence artificielle, ciblant spécifiquement les modèles d'IA jugés « à haut risque ». Les applications d’IA impliquant les droits de l’homme doivent être considérées comme à haut risque et nécessitent une consultation, une collaboration et une représentation avant leur mise en œuvre.
Cependant, deux sénateurs de la coalition membres du comité ont déclaré que l'IA représentait une menace bien plus grande pour la cybersécurité, la sécurité nationale et les institutions démocratiques de l'Australie que son impact sur l'économie créative. Ils estiment que des mécanismes devraient être mis en place pour protéger les opportunités potentielles offertes par l’IA, plutôt que de les supprimer.
Le rapport a également déclenché de nouvelles discussions sur les politiques réglementaires australiennes en matière d’IA. De nombreuses personnes ont appelé à une cohérence avec les mesures réglementaires en vigueur au Royaume-Uni, en Europe, en Californie et dans d’autres régions pour relever les défis du développement rapide de la technologie de l’intelligence artificielle.
Ce rapport révèle non seulement l’opacité de l’utilisation des données par les géants de la technologie, mais déclenche également une réflexion approfondie sur l’éthique et l’encadrement de l’intelligence artificielle. La réglementation australienne de l'IA a encore un long chemin à parcourir et nécessite les efforts conjoints du gouvernement, des entreprises et du public pour trouver la meilleure voie entre innovation et risque. L'éditeur de Downcodes continuera à prêter attention à l'évolution de l'incident.