제너레이티브 AI의 급속한 발전은 편리함을 가져왔지만 허위정보 확산이라는 문제도 가져왔다. 이 문제를 해결하기 위해 Microsoft는 AI 생성 콘텐츠의 잘못된 정보를 수정하도록 설계된 수정이라는 새로운 도구를 출시했습니다. 다운코드 편집자는 이 도구의 원리, 응용 프로그램 및 과제에 대한 심층적인 이해를 제공합니다.
오늘날, 인공지능의 급속한 발전과 함께 생성 AI는 많은 편리함을 가져왔지만, 생성되는 허위 정보 또한 무시할 수 없는 문제가 되었습니다. 이러한 문제에 대응하여 거대 기술 기업인 Microsoft는 최근 AI 생성 콘텐츠의 잘못된 정보를 수정하도록 설계된 수정이라는 새로운 도구를 출시했습니다.
수정은 현재 Microsoft Azure AI 콘텐츠 보안 API의 일부로 미리 보기로 제공됩니다. 이 도구는 잘못 인용된 회사 분기별 수익 요약과 같이 잠재적으로 오류가 있는 텍스트에 자동으로 플래그를 지정하고 이를 신뢰할 수 있는 소스와 비교하여 해당 오류를 수정합니다. 특히 이 기술은 Meta의 Llama 및 OpenAI의 GPT-4를 포함한 모든 텍스트 생성 AI 모델에서 작동합니다.
Microsoft 대변인은 수정 기능이 작은 언어 모델과 큰 언어 모델을 결합하여 생성된 콘텐츠가 실제 문서와 일치하도록 보장한다고 말했습니다. 그들은 이 새로운 기능이 의료와 같은 분야의 개발자가 응답 정확도를 향상시키는 데 도움이 되기를 바랍니다.
하지만 전문가들은 조심스럽다. 워싱턴 대학의 박사과정 학생인 Os Keyes는 생성된 AI의 환상을 제거하려는 시도는 기술 작동 방식의 기본 부분인 물에서 수소를 제거하려는 시도와 같다고 믿습니다. 실제로 텍스트 생성 모델은 실제로 아무것도 모르고 훈련 세트를 기반으로 추측만 하기 때문에 잘못된 정보를 생성합니다. 한 연구에 따르면 OpenAI의 ChatGPT는 의료 질문에 답변할 때 최대 50%의 오류율을 보였습니다.
Microsoft의 솔루션은 상호 참조된 편집 메타모델 쌍을 통해 이러한 잘못된 정보를 식별하고 수정하는 것입니다. 분류 모델은 가능한 오류, 가상 또는 관련 없는 텍스트 조각을 찾고, 이러한 조각이 감지되면 특정 기본 문서를 기반으로 이를 수정하기 위해 제2 언어 모델이 도입됩니다.
Microsoft는 수정이 AI 생성 콘텐츠의 신뢰성과 신뢰도를 크게 향상시킬 수 있다고 주장하지만 전문가들은 여전히 의구심을 갖고 있습니다. Queen Mary University의 연구원인 Mike Cook은 수정이 광고된 대로 작동하더라도 AI의 신뢰도와 설명성 문제를 악화시킬 수 있다고 지적했습니다. 이 서비스는 사용자를 잘못된 보안 감각에 빠지게 하여 모델이 실제보다 더 정확하다고 믿게 만들 수 있습니다.
Microsoft가 Correction을 출시할 때 숨겨진 비즈니스 계산도 있었다는 점은 언급할 가치가 있습니다. 기능 자체는 무료이지만, 허위 정보를 탐지하는 데 필요한 기본 문서 탐지 기능에는 월별 사용 제한이 있으며, 추가 사용 시에는 요금이 부과됩니다.
마이크로소프트는 AI 투자의 가치를 입증해야 한다는 압박을 받고 있는 것이 분명하다. 회사는 올해 2분기에 AI 관련 자본 지출과 장비에 약 190억 달러를 지출했지만 지금까지 AI에서 소폭의 수익을 창출했습니다. 최근 일부 월스트리트 분석가들은 장기 AI 전략의 타당성에 의문을 제기하면서 Microsoft의 주식 등급을 낮추었습니다.
정확성과 허위 정보의 잠재적 위험은 AI 도구를 시험할 때 기업의 가장 큰 관심사 중 하나가 되었습니다. Cook은 이것이 정상적인 제품 수명 주기라면 생성 AI가 여전히 학문적 연구 및 개발 단계에 있어야 강점과 약점을 지속적으로 개선하고 이해해야 한다고 결론지었습니다. 그러나 우리는 이를 여러 산업 분야에 걸쳐 사용했습니다.
마이크로소프트의 수정 도구는 의심할 여지 없이 AI 허위 정보 문제를 해결하려는 시도이지만, 이것이 실제로 생성 AI의 신뢰 위기를 깨뜨릴 수 있을지는 두고 볼 일입니다. AI 기술이 빠르게 발전하는 가운데, 혁신과 리스크의 균형을 어떻게 맞추느냐가 산업 전체가 직면한 중요한 문제가 될 것입니다.
전체적으로, 마이크로소프트의 수정 도구의 등장은 AI 허위 정보 문제에 대한 업계의 관심이 높아지고 있음을 의미하지만 AI의 신뢰성과 비즈니스 모델에 대한 심층적인 사고를 촉발하기도 합니다. 앞으로는 AI 기술을 어떻게 더 잘 활용하면서 위험을 효과적으로 통제할 것인가가 모든 사람이 직면한 주요 과제가 될 것입니다.