Der Sonderausschuss des australischen Senats hat kürzlich einen Bericht veröffentlicht, in dem Amazon, Google und Meta vorgeworfen werden, bei der Verwendung australischer Daten zum Trainieren von KI-Produkten uneindeutig zu sein, was große Aufmerksamkeit erregt hat. In dem Bericht kritisierte Senator Sheldon diese Technologieriesen scharf dafür, dass sie sich während der Anhörung ausweichend verhielten und wie „Piraten“ Australiens Kultur, Daten und Kreativität plünderten. Der Herausgeber von Downcodes wird diesen Bericht ausführlich erläutern und seine Auswirkungen auf Australiens KI-Regulierungspolitik und die Kreativbranche erläutern.
Kürzlich ergab der Untersuchungsbericht des Sonderausschusses des australischen Senats, dass die Technologieunternehmen Amazon, Google und Meta (ehemals Facebook) eine enttäuschend zweideutige Haltung einnehmen, wenn sie australische Daten zum Trainieren ihrer Produkte der künstlichen Intelligenz verwenden.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Der Vorsitzende der Untersuchung, Labour-Senator Tony Sheldon, äußerte seine große Unzufriedenheit darüber und glaubte, dass diese multinationalen Unternehmen während der Anhörung weiterhin direkte Fragen vermieden hätten, als würden sie eine billige Zaubershow aufführen, und am Ende nichts unternommen hätten.
Sheldon sagte nach der Veröffentlichung des Berichts, dass diese Technologieunternehmen wie „Piraten“ seien, die Australiens Kultur, Daten und Kreativität plündern und die Australier letztendlich mit leeren Händen zurücklassen. Er wies darauf hin, dass Amazon sich geweigert habe, offenzulegen, wie es die von Alexa-, Kindle- und Audible-Geräten gesammelten Daten zum Trainieren von KI verwendet, während Google ebenfalls nicht erklärt hat, wie es Benutzerdaten zur Entwicklung von KI-Produkten verwendet. Meta gab zwar zu, seit 2007 Daten von australischen Facebook- und Instagram-Nutzern für die Verwendung in zukünftigen KI-Modellen zu extrahieren, konnte jedoch nicht erklären, wie die Nutzer im Jahr 2007 der Nutzung der Daten für Zwecke zugestimmt haben, die noch nicht existierten.
Der Bericht hebt auch hervor, dass Kreativarbeiter dem Risiko ausgesetzt sind, dass künstliche Intelligenz ihre Lebensgrundlage stark beeinträchtigt. Es empfiehlt die Einrichtung von Zahlungsmechanismen zur Vergütung kreativer Arbeitskräfte, wenn KI-generierte Arbeiten auf Originalmaterial basieren. Darüber hinaus müssen Unternehmen, die KI-Modelle entwickeln, Transparenz über die Herkunft der in ihren Datensätzen verwendeten urheberrechtlich geschützten Werke schaffen und alle beanspruchten Werke entsprechend lizenziert und bezahlt werden.
Eine der 13 Empfehlungen des Berichts fordert die Einführung einer unabhängigen Gesetzgebung zur künstlichen Intelligenz, die speziell auf KI-Modelle abzielt, die als „hochriskant“ gelten. KI-Anwendungen, die Menschenrechte betreffen, sollten als risikoreich eingestuft werden und erfordern vor der Umsetzung Konsultation, Zusammenarbeit und Vertretung.
Zwei Senatoren der Koalition im Ausschuss sagten jedoch, dass KI eine weitaus größere Bedrohung für die Cybersicherheit, die nationale Sicherheit und die demokratischen Institutionen Australiens darstelle als ihre Auswirkungen auf die Kreativwirtschaft. Sie glauben, dass Mechanismen geschaffen werden sollten, um die potenziellen Chancen der KI zu schützen, anstatt sie zu unterdrücken.
Der Bericht löste auch weitere Diskussionen über Australiens KI-Regulierungspolitik aus. Viele Menschen forderten Kohärenz mit den Regulierungsmaßnahmen im Vereinigten Königreich, Europa, Kalifornien und anderen Regionen, um den Herausforderungen der rasanten Entwicklung der künstlichen Intelligenz-Technologie zu begegnen.
Dieser Bericht offenbart nicht nur die Undurchsichtigkeit der Datennutzung durch Technologiegiganten, sondern regt auch zu eingehenden Überlegungen zur Ethik und Überwachung künstlicher Intelligenz an. Australiens Weg zur KI-Regulierung hat noch einen langen Weg vor sich und erfordert die gemeinsamen Anstrengungen von Regierung, Unternehmen und Öffentlichkeit, um den besten Weg zwischen Innovation und Risiko zu finden. Der Herausgeber von Downcodes wird die Entwicklung des Vorfalls weiterhin aufmerksam verfolgen.