유럽연합(EU)은 최근 인공지능 개발을 표준화하고 기업에 막대한 벌금을 피하기 위한 명확한 규정 준수 지침을 제공하는 것을 목표로 하는 일반 인공지능(GPAI) 모델 행동강령의 첫 번째 초안을 발표했습니다. 이 강령은 투명성, 저작권, 위험 평가 및 위험 완화와 같은 주요 영역을 다루며 규정 위반에 대한 엄격한 처벌을 설정합니다. 다운코드 편집자가 이 중요한 문서를 자세히 설명할 것입니다.
GPAI는 10²⁵ FLOP 이상의 총 컴퓨팅 성능을 갖춘 훈련된 인공 지능입니다. EU 가이드라인의 적용을 받을 것으로 예상되는 기업으로는 OpenAI, Google, Meta, Anthropic, Mistral 등이 있습니다.
이 문서에서는 투명성, 저작권 준수, 위험 평가, 기술/거버넌스 위험 완화 등 GPAI 프레이머의 여러 핵심 영역을 다룹니다. 이 규정은 AI 개발의 투명성을 강조하고 AI 회사가 모델 훈련에 사용되는 웹 크롤러에 대한 정보를 제공하도록 요구합니다.
위험 평가 섹션은 사이버 범죄, 광범위한 차별, 인공 지능에 대한 통제력 상실을 예방하는 것을 목표로 합니다. AI 제조업체는 보안 프레임워크(SSF)를 채택하여 위험 관리 정책을 세분화하고 시스템적 위험에 따라 이를 완화해야 합니다.
인공지능법을 위반하는 기업은 심각한 처벌을 받게 되며 최대 3,500만 유로(현재 3,680만 달러) 또는 연간 글로벌 이익의 최대 7% 중 더 높은 금액의 벌금이 부과될 수 있습니다.
EU는 다음 초안을 개선하는 데 도움이 되도록 이해관계자들에게 11월 28일까지 전용 Futurium 플랫폼을 통해 피드백을 제출하도록 초대합니다. 해당 규정은 2025년 5월 1일까지 확정될 것으로 예상됩니다.
EU의 움직임은 인공지능 혁신과 위험 관리의 균형을 맞추고 인공지능의 건전한 발전을 위한 강력한 보장을 제공하는 것을 목표로 합니다. 이 코드의 최종 초안은 업계의 세심한 관심을 받을 가치가 있으며, 그 영향은 글로벌 인공 지능 산업에 영향을 미칠 것입니다. 다운코드 편집자는 계속해서 후속 조치를 취하고 관련 진행 상황을 보고할 것입니다.