Google은 최근 의료와 같은 "고위험" 영역의 AI 애플리케이션을 명확하게 정의하기 위해 생성 AI 사용 약관을 업데이트했습니다. 새로운 약관에 따라 고객은 이러한 영역에서 자동화된 의사 결정을 위해 Google의 생성 AI를 사용할 수 있지만 이는 사람의 감독 하에서만 가능합니다. 이번 조치는 고부담 의사결정에 AI를 적용하는 것은 물론 잠재적인 편견과 윤리적 문제에 대한 고려와 관련돼 AI 분야에 우려를 불러일으켰다. Google의 움직임은 AI 애플리케이션에 대한 사회의 우려에 어느 정도 대응하고 AI 기술 애플리케이션과 위험 관리의 균형을 맞추려는 노력을 반영합니다.
Google은 최근 생성 AI 사용 약관을 업데이트하여 고객이 의료와 같은 "고위험" 영역에서 "자동화된 의사 결정"을 위한 생성 AI 도구를 배포할 수 있지만 사람의 감독이 있어야만 가능함을 명확히 했습니다. 지난 화요일 공개된 구글의 '제너레이티브 AI 금지 사용 정책' 최신 버전에 따르면, 고객은 구글의 제너레이티브 AI를 이용해 개인의 권리에 '중요한 악영향'을 미칠 수 있는 '자동화된 결정'을 내릴 수 있다. 고객은 인간의 감독이 있는 한 Google의 생성 AI를 사용하여 고용, 주택, 보험, 사회 복지 및 기타 '고위험' 영역에 대한 결정을 내릴 수 있습니다. AI 분야에서 자동화된 의사결정은 사실 데이터와 추론된 데이터를 기반으로 AI 시스템이 내리는 의사결정을 의미합니다. 예를 들어, 시스템은 대출 신청을 승인할지 또는 구직자를 심사할지 자동으로 결정할 수 있습니다. 이전에 Google의 용어 초안에서는 고위험 자동화 의사결정에 회사의 생성 AI 사용을 전면적으로 금지하는 내용이 암시되어 있었습니다. 그러나 Google은 TechCrunch에 고객이 인간의 감독이 있는 한 고위험 애플리케이션에 대해서도 항상 생성 AI를 사용하여 결정을 자동화할 수 있다고 말했습니다. Google 대변인은 이메일을 통해 연락을 받았을 때 "모든 고위험 영역과 마찬가지로 인간의 감독 요구 사항이 항상 우리 정책에 존재합니다"라고 말했습니다. "우리는 [약관에서] 일부 항목을 다시 분류하고 몇 가지 예를 제시합니다. "Google의 주요 AI 경쟁사인 OpenAI와 Anthropic은 고위험 자동화 의사결정에서 AI 사용에 대해 더욱 엄격한 규정을 두고 있습니다. 예를 들어 OpenAI는 신용, 고용, 주택, 교육, 사회 점수, 보험과 관련된 자동화된 결정에 해당 서비스를 사용하는 것을 금지합니다. Anthropic은 법률, 보험, 의료 및 기타 고위험 분야에서 의사 결정을 자동화하는 데 AI를 사용할 수 있도록 허용하지만, "자격을 갖춘 전문가"의 감독을 받고 고객이 AI를 사용하고 있음을 공개하도록 요구하는 경우에만 가능합니다. 이 목적을 위해. 개인에게 영향을 미치는 의사결정을 자동화하는 AI는 규제 당국의 조사를 받고 있으며, 규제 당국은 기술이 창출할 수 있는 편향된 결과에 대해 우려를 표명했습니다. 예를 들어, 연구에 따르면 신용 및 모기지 신청을 승인하는 데 사용된 AI는 역사적 차별을 영속시킬 수 있습니다. 비영리단체인 휴먼라이츠워치(Human Rights Watch)는 사람들의 사회 보장 지원에 대한 접근권을 약화시키고 개인 정보를 침해하며 편향된 방식으로 프로필을 작성할 수 있는 "사회 점수" 시스템을 금지할 것을 요구했습니다. 개인 신용 및 고용 결정을 내리는 시스템을 포함한 고위험 AI 시스템은 EU의 인공 지능 법안에 따라 가장 엄격한 규제를 받고 있습니다. 이러한 시스템 제공업체는 무엇보다도 데이터베이스에 등록하고, 품질 및 위험 관리를 수행하고, 인간 감독자를 고용하고, 관련 당국에 사고를 보고해야 합니다. 미국 콜로라도 주는 최근 AI 개발자에게 '고위험' AI 시스템에 대한 정보를 공개하고 시스템의 기능과 한계를 요약한 성명을 발표하도록 요구하는 법안을 통과시켰습니다. 한편, 뉴욕시는 전년도에 도구에 대한 편견에 대한 감사를 받지 않은 한 고용주가 자동화된 도구를 사용하여 채용 결정을 위해 후보자를 선별하는 것을 금지합니다. 이번에 구글은 AI 이용 약관을 명확히 해 AI 애플리케이션 감독에 대한 회사의 태도를 드러냈다. 고위험 영역에서 자동화된 의사결정을 허용하지만 수동 감독의 중요성을 강조하는 것은 AI 기술 적용의 잠재력을 반영할 뿐만 아니라 잠재적 위험에 대한 경계도 반영합니다.
Google의 AI 사용 약관 업데이트는 수동 감독을 강조하면서도 기술 기업이 AI 거버넌스에서 직면하는 과제와 탐색을 반영합니다. AI 기술의 급속한 발전 속에서 혁신과 리스크의 균형을 어떻게 맞추느냐는 앞으로도 지속적인 관심이 필요한 중요한 이슈가 될 것이다.