Специальный комитет Сената Австралии недавно опубликовал отчет, в котором обвинил Amazon, Google и Meta в двусмысленном использовании австралийских данных для обучения продуктов искусственного интеллекта, что привлекло широкое внимание. В докладе сенатор Шелдон подверг резкой критике этих технологических гигантов за уклончивость во время слушаний и за то, что они подобно «пиратам» грабят культуру, данные и творчество Австралии. Редактор Downcodes подробно объяснит этот отчет и его влияние на политику регулирования искусственного интеллекта в Австралии и творческие индустрии.
Недавно отчет о расследовании Специального комитета Сената Австралии показал, что технологические компании Amazon, Google и Meta (ранее Facebook) имеют разочаровывающе двусмысленное отношение к использованию австралийских данных для обучения своих продуктов искусственного интеллекта.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
Председатель расследования, сенатор от Лейбористской партии Тони Шелдон, выразил этим резкое недовольство, полагая, что эти транснациональные компании продолжали избегать прямых вопросов во время слушаний, как будто устраивали дешевое магическое шоу, и в итоге ничего не сделали.
После публикации отчета Шелдон заявил, что эти технологические компании подобны «пиратам», грабящим культуру, данные и творчество Австралии и в конечном итоге оставляющим австралийцев с пустыми руками. Он отметил, что Amazon отказалась раскрыть, как она использует данные, собранные устройствами Alexa, Kindle и Audible, для обучения ИИ, а Google также не объяснила, как она использует пользовательские данные для разработки продуктов ИИ. Хотя Meta признала, что с 2007 года она извлекала данные австралийских пользователей Facebook и Instagram для использования в будущих моделях искусственного интеллекта, она не смогла объяснить, как пользователи в 2007 году дали согласие на использование данных для целей, которых еще не существовало.
В отчете также подчеркивается, что творческие работники сталкиваются с риском того, что искусственный интеллект серьезно повлияет на их средства к существованию. Он рекомендует создать механизмы оплаты для вознаграждения творческих работников, когда работа, созданная ИИ, основана на оригинальном материале. Кроме того, компании, разрабатывающие модели ИИ, должны быть прозрачными в отношении происхождения произведений, защищенных авторским правом, используемых в их наборах данных, а все заявленные работы должны быть лицензированы и соответственно оплачены.
Одна из 13 рекомендаций в отчете призывает к введению независимого законодательства в области искусственного интеллекта, конкретно нацеленного на модели ИИ, считающиеся «высокорисковыми». Приложения ИИ, затрагивающие права человека, следует считать высокорисковыми и требуют консультаций, сотрудничества и представительства перед внедрением.
Однако два сенатора Коалиции в комитете заявили, что ИИ представляет гораздо большую угрозу кибербезопасности, национальной безопасности и демократическим институтам Австралии, чем его влияние на креативную экономику. Они считают, что необходимо создать механизмы для защиты потенциальных возможностей, предоставляемых ИИ, а не подавлять их.
Отчет также вызвал дальнейшее обсуждение политики регулирования искусственного интеллекта в Австралии. Многие призывали к последовательности с регуляторными мерами в Великобритании, Европе, Калифорнии и других регионах для решения проблем быстрого развития технологий искусственного интеллекта.
Этот отчет не только раскрывает непрозрачность использования данных технологическими гигантами, но и заставляет задуматься об этике и надзоре за искусственным интеллектом. Путь регулирования искусственного интеллекта в Австралии еще предстоит пройти долгий путь и требует совместных усилий правительства, предприятий и общественности, чтобы найти лучший путь между инновациями и риском. Редактор Downcodes продолжит следить за развитием инцидента.