Google은 최근 생성 AI 사용 약관을 업데이트하여 고객이 의료 및 고용과 같은 고위험 영역에서 자동화된 의사 결정을 위해 생성 AI 도구를 사용할 수 있도록 허용했습니다. 단, 사람의 감독이 있어야만 가능합니다. 이번 조치로 인해 업계에서는 고위험 지역에 AI를 적용하는 것에 대한 논의와 관련 감독에 대한 우려가 촉발되었습니다. Google의 움직임은 고위험 자동화 의사결정에 대해 더 엄격한 제한을 두고 있는 경쟁사인 OpenAI 및 Anthropic과 대조됩니다. 또한 이번 업데이트는 전 세계적으로 AI 규제가 시급히 필요하다는 사실과 AI 혁신과 잠재적 위험 사이의 균형을 맞추는 과제를 강조합니다.
Google은 최근 생성 AI 사용 약관을 업데이트하여 인간의 감독이 필요한 한 고객이 건강 관리 및 고용과 같은 "고위험" 영역에서 "자동화된 의사 결정"을 위해 생성 AI 도구를 사용할 수 있도록 명시적으로 허용했습니다. 이러한 변화는 생성 AI 사용을 금지하는 회사의 새로 발표된 정책에 반영됩니다.
사진 출처 참고: 사진은 AI가 생성한 것이며, 사진 인증 서비스 제공업체 Midjourney가 제공한 것입니다.
업데이트된 정책에 따라 고객은 감독과 함께 Google의 생성 AI를 사용하여 개인의 권리에 '중요한 부정적인 영향'을 미칠 수 있는 자동화된 결정을 내릴 수 있습니다. 이러한 고위험 영역에는 고용, 주택, 보험, 사회 복지 등이 포함됩니다. 이전 조항에서는 위험성이 높은 자동화된 의사결정을 전면적으로 금지하는 것처럼 보였지만, 구글은 실제로 처음부터 인간 감독 하에 이러한 의사결정에 생성 AI의 사용을 허용했다고 밝혔습니다.
구글 대변인은 언론에 "사람의 감독에 대한 요구 사항은 항상 우리 정책에 존재해 왔으며 모든 고위험 영역을 포괄합니다. 우리는 사용자가 이해할 수 있도록 일부 용어를 재분류하고 몇 가지 예를 더 명확하게 열거했습니다"라고 말했습니다.
Google의 접근 방식과 비교할 때 OpenAI 및 Anthropic과 같은 Google의 주요 경쟁업체는 고위험 자동화 의사 결정에 대해 더 엄격한 규정을 가지고 있습니다. OpenAI는 신용, 취업, 주택, 교육, 사회 점수, 보험과 관련된 자동화된 결정에 OpenAI 서비스를 사용하는 것을 금지합니다. Anthropic은 AI가 법률, 보험, 의료 등 고위험 영역에서 자동화된 결정을 내릴 수 있도록 허용하지만 "자격을 갖춘 전문가"의 감독 하에서만 가능하며 고객은 그러한 결정에 AI를 사용한다는 사실을 명확하게 알려야 합니다.
자동화된 의사결정을 위한 AI 시스템과 관련하여 규제 당국은 그러한 기술이 편향된 결과를 초래할 수 있다는 우려를 표명해 왔습니다. 예를 들어, 연구에 따르면 AI는 대출 및 모기지 신청 승인 시 역사적 차별을 영속시킬 수 있습니다.
휴먼라이츠워치(Human Rights Watch)와 기타 비영리 단체는 특히 "사회 채점" 시스템의 금지를 촉구하면서 이러한 시스템이 사람들의 사회 보장 접근권을 위협하고 개인 정보를 침해하고 편향된 프로파일링을 생성할 수 있다고 주장했습니다.
EU에서는 개인 신용, 고용 결정 등 고위험 AI 시스템이 AI법에 따라 가장 엄격한 감독을 받고 있다. 이러한 시스템 제공업체는 무엇보다도 데이터베이스에 등록하고, 품질 및 위험 관리를 수행하고, 인간 감독자를 고용하고, 사건을 관련 당국에 보고해야 합니다.
미국 콜로라도 주는 최근 AI 개발자에게 '고위험' AI 시스템에 대한 정보를 공개하고 시스템의 기능과 한계에 대한 요약을 게시하도록 요구하는 법안을 통과시켰습니다. 한편, 뉴욕시는 지난 1년 동안 도구가 편견 감사를 받지 않은 한 고용주가 후보자를 선별하기 위해 자동화된 도구를 사용하는 것을 금지합니다.
하이라이트:
Google은 위험도가 높은 지역에서 생성 AI의 사용을 허용하지만 사람의 감독이 필요합니다.
OpenAI 및 Anthropic과 같은 다른 AI 회사는 위험도가 높은 결정에 대해 더 엄격한 제한을 두고 있습니다.
여러 국가의 규제 기관에서는 편향된 결과를 방지하기 위해 자동화된 의사 결정을 위한 AI 시스템을 검토하고 있습니다.
Google의 생성 AI 사용 약관 업데이트로 인해 AI 윤리 및 규제에 대한 광범위한 논의가 촉발되었습니다. 또한 전 세계 정부와 기관에서는 AI 기술의 안전하고 책임감 있는 개발을 보장하기 위해 더 나은 규제 방법을 적극적으로 모색하고 있습니다. 앞으로 고위험 분야의 AI 적용은 더욱 엄격한 검토와 감독을 받게 될 것이다.