Бывший генеральный директор Google Эрик Шмидт недавно предупредил о потенциальных рисках искусственного интеллекта. Он особенно обеспокоен тем, что террористические организации и «мошеннические страны» могут использовать технологии ИИ, особенно технологии производства биологического оружия, чтобы нанести огромный вред невинным людям. Шмидт призывает к эффективному регулированию компаний искусственного интеллекта для снижения риска злоупотребления, но также предупреждает, что чрезмерное регулирование может убить инновации. Он также рекомендовал ограничить экспорт передовых микрочипов в определенные страны, чтобы замедлить развитие ИИ, и выразил обеспокоенность по поводу чрезмерного использования детей в социальных сетях и смартфонах, выступая за защиту несовершеннолетних.
Бывший генеральный директор Google Эрик Шмидт недавно выразил обеспокоенность по поводу потенциальных рисков технологии искусственного интеллекта (ИИ) в интервью BBC. Он отметил, что террористы и «государства -мошенничество» могут использовать технологию ИИ, чтобы подвергнуть опасности невинных людей, особенно возможность создания биологического оружия.
Шмидт упомянул, что такие страны, как Северная Корея, Иран и Россия, могут принять эту новую технологию для совершения злонамеренного поведения. Он подчеркнул, что эта технология быстро прогрессировала и что любой, у кого злонамеренные намерения, может быстро овладеть и злоупотреблять этой технологией, нанося серьезный вред. Он специально упомянул ситуацию «Усама бен Ладена», в которой говорилось, что если некоторые злые люди контролируют современные технологии, это представляет большую угрозу для невинных людей.
Шмидт призвал к эффективному государственному регулированию частных технологических компаний, развивающих ИИ, полагая, что это может снизить риск злоупотребления технологиями. Тем не менее, он также предупредил, что чрезмерная регуляция может препятствовать инновациям. Он сказал, что будущее ИИ в основном создано частными компаниями, и правительство необходимо обеспечить надлежащий надзор для обеспечения безопасного использования их технологий.
Что касается политики контроля экспорта в США, Шмидт согласился, полагая, что экспорт мощных микрочипов в определенные страны должен быть ограничен для замедления прогресса противника в исследованиях искусственного интеллекта. Он упомянул, что бывший президент Джо Байден ограничил экспорт микрочипов в другие страны, кроме 18 стран, и это решение может быть отменено Трампом в будущем.
Говоря о влиянии социальных сетей и смартфонов на детей, Шмидт выразил обеспокоенность по поводу безопасности детей. Он считает, что, хотя сами смартфоны могут быть безопасными, использование должно быть умеренно регулируется для защиты детей от онлайн -мира. Он выступает за ограничение использования детей в возрасте до 16 лет в социальных сетях, и считает, что безответственно проводить крупномасштабные, неконтролируемые эксперименты на следующем поколении.
Замечания Шмидта привлекли внимание на недавнем саммите по действию ИИ, и Соединенные Штаты и Соединенное Королевство отказались подписать соглашение, которое вызвало широко распространенное обсуждение. Он призвал к балансу между регулированием и инновациями в развитии ИИ и обеспечением обеспечения технологического прогресса не наносят вреда обществу.
Ключевые моменты:
Шмидт обеспокоен тем, что технология ИИ может подвергаться насилию террористами и «государствами -мошенничеством», чтобы причинить вред невинным людям.
Он призвал правительство регулировать частные технологические компании, будучи настороже с возможностью чрезмерного подавления инноваций.
Влияние на использование детских смартфонов привлекло внимание, и Шмидт защищает использование несовершеннолетних в социальных сетях для защиты их безопасности.
Опасения Шмидта отражают глобальную общую беспокойство по поводу быстрого развития технологий ИИ и потенциальных рисков. Как сбалансировать безопасность и инновации - важная проблема, с которой сталкиваются правительства и технологические компании в различных странах, и требует совместных усилий мира для поиска решений.