최근 Google은 AI 원칙을 크게 조정했으며 무기 나 감시에 대한 AI를 개발하지 않겠다는 이전의 약속을 취소하여 광범위한 논란을 일으켰습니다. 이러한 움직임은 Google의 업데이트 된 공개 AI 원칙 페이지에서 비롯된데, 이는 "우리가 추구하지 않을 것"부분을 삭제하여 미디어와 대중이 AI 응용 프로그램 방향에 의문을 제기합니다. 이번 조치가 미국과 이스라엘 군대와 클라우드 서비스 계약에 서명 한 후,이 움직임은 군사 및 모니터링 분야에서 기술 회사의 역할에 대한 사람들의 우려를 악화시켰다.
최근 Google은 공식 웹 사이트에서 무기 나 감시에 대한 인공 지능 (AI)을 개발하지 않기로 약속을 조용히 제거했습니다. 이 변경은 Bloomberg에 의해 처음보고되었으며,이 움직임은 외부 세계의 광범위한 관심과 토론을 일으켰습니다. Google은 최근 공개 AI 원칙 페이지를 업데이트하고 "우리는 추구하지 않을 것입니다"라는 부품을 삭제 했으며이 부분은 여전히 지난주에도 볼 수 있습니다.
미디어 문의에 직면 한 Google은 "책임 AI"에 대한 "Tech Crunch"에 대한 새로 출시 된 블로그 게시물을 제공했습니다. 이 기사에서 Google은 다음과 같이 말했습니다 : "우리는 기업, 정부 및 조직이 함께 협력하여 인간을 보호하고, 글로벌 개발을 촉진하며, 국가 안보를 지원할 수있는 AI를 만들어야한다고 생각합니다."
Google의 업데이트 된 AI 원칙은 회사가 "사고 나 유해한 결과를 줄이고 불공평 한 편견을 피하고"회사의 개발이 "국제법과 인권에 대한 일반적인 수용 원칙"과 일치하도록 약속 할 것이라고 강조했다. 이는 AI 애플리케이션에 대한 Google의 위치가 변경 될 수 있음을 시사합니다.
최근 몇 년 동안 미국과 이스라엘 군대와 서명 한 Google의 클라우드 서비스 계약은 내부 직원의 항의를 촉발했습니다. Google은 AI 기술이 인간에게 해를 끼치 지 않는다는 것을 반복적으로 강조했지만 미국 국방부의 AI 책임자는 최근 "기술 위기"와의 인터뷰에서 일부 회사의 AI 모델은 실제로 전투 결정을 가속화했다고 말했다. 미군의 과정. 이 말은 Google AI의 향후 적용에 대한 의문으로 가득 차 있습니다.
Google의 이러한 변화는 군사 및 모니터링 분야에서 기술 회사의 역할에 대한 생각을 촉발했습니다. 인공 지능 기술의 윤리적 문제에 대한 관심이 높아지는 맥락 에서이 새로운 Google 척도는 특히 눈에 띄게 보입니다. 대중과 직원은 회사 가이 민감한 분야에서 책임있는 이미지를 유지하는 방법과 비즈니스 이익과 도덕적 책임 사이의 관계의 균형을 맞추는 방법에주의를 기울이고 있습니다.
AI 기술의 지속적인 발전과 적용으로 Google의 위치 변화는 전체 산업에 큰 영향을 미칠 수 있으며 미래의 과학 및 기술 윤리와 책임감을 재검토 할 것입니다.
Google의 움직임은 기술 회사와 AI 윤리의 사회적 책임에 대한 광범위한 토론과 AI 산업에 대한 영향을 미쳤습니다. AI 기술 개발 및 응용의 윤리적 규범의 공식화와 감독도 더 시급합니다.