Недавно Google внесла серьезные коррективы в свои принципы ИИ и отменил предыдущее приверженность не разработать ИИ для оружия или наблюдения, что вызвало широкие противоречия. Этот шаг проистекает из обновленной общедоступной Public Ai Pricemple Google, которая удаляет «приложение, которое мы не будем продолжать», заставляя средства массовой информации и публику подвергать сомнению направление применения ИИ. После того, как этот шаг подписал контракт с облачным обслуживанием с американскими и израильскими военными, этот шаг усугублял опасения людей по поводу роли технологических компаний в области военных и мониторинга.
Недавно Google тихо выполнил обещание с своего официального веб -сайта, чтобы не разрабатывать искусственный интеллект (ИИ) для оружия или наблюдения. Впервые Bloomberg сообщила об изменении, и этот шаг вызвал широкое внимание и обсуждение из внешнего мира. Google недавно обновил свою общедоступную страницу принципа ИИ и удаленные детали под названием «Мы не будем преследовать», и эта часть все еще видна на прошлой неделе.
Столкнувшись с Media Requiries, Google предоставил недавно выпущенный сообщение в блоге о «ответственном ИИ» для «Tech Crunch». В этой статье Google сказал: «Мы считаем, что предприятия, правительства и организации должны работать вместе для создания ИИ, который может защищать людей, способствовать глобальному развитию и поддержать национальную безопасность».
Обновленный принцип ИИ Google подчеркнул, что компания будет привержена «сокращению несчастных случаев или вредных результатов, избегает несправедливых предрассудков» и обеспечению того, чтобы развитие компании соответствовало «принципам общего принятия международного права и прав человека». Это говорит о том, что позиция Google в приложениях ИИ может измениться.
В последние годы контракты на облачные услуги Google, подписанные с американскими и израильскими военными, вызвали протесты со стороны внутренних сотрудников. Хотя Google неоднократно подчеркивал, что ее технология ИИ не используется для нанесения вреда людям, руководитель АИ Министерства обороны США недавно заявил в интервью «Технологическому кризису», что некоторые модели искусственного интеллекта некоторых компаний фактически ускорили боевые решения, принимающие решения процесс американских военных. Это замечание полно сомнений в будущем применении Google AI.
Это изменение в Google вызвало мысли о роли технологических компаний в области военных и мониторинга. В контексте растущего внимания этических вопросов технологии искусственного интеллекта эта новая мера Google кажется особенно заметной. Общественность и сотрудники уделяют пристальное внимание тому, как компания сохраняет свой ответственный имидж в этой конфиденциальной области, и как сбалансировать отношения между деловыми интересами и моральной ответственностью.
Благодаря постоянному прогрессу и применению технологии искусственного интеллекта, изменения в позиции Google могут оказать глубокое влияние на всю отрасль, а также будут пересмотреть будущую научную и технологическую этику и чувство ответственности.
Движение Google вызвала широкую дискуссию о социальной ответственности технологических компаний и этики ИИ. Состав и надзор за этическими нормами разработки и применения технологий ИИ также более неотложными.