인공지능 기술의 급속한 발전은 사람들의 삶에 많은 편리함을 가져다 주었지만 새로운 도전도 가져왔습니다. 특히 네트워크 보안 분야에서는 범죄자들이 AI 기술을 이용해 다양한 새로운 사기 수법을 만들어 사회에 막대한 경제적 손실과 보안 위험을 초래하고 있다. 다운코드 편집자는 AI 기술이 사기에 어떻게 사용되는지, 그리고 이러한 새로운 보안 위협에 대처하는 방법을 이해하도록 안내합니다.
ChatGPT가 언젠가 당신의 직업을 대체할 수 있을지 걱정하고 인공지능을 어떻게 활용해 업무 효율성을 높일 수 있을지 고민하는 동안, 이미 이 신기술에 의지해 많은 돈을 벌고 있는 사람들이 있습니다.
그들은... 거짓말쟁이입니다.
10분만에 430만 사기,
AI로 부자가 된 첫 번째 집단은 사실 사기꾼이었다
어느 날 친구로부터 위챗 영상 통화를 받았는데, 카메라 반대편에 있는 사람이 당신이 기억하는 그 친구와 똑같이 생겼고 들리고, 그가 당신에게 채용 입찰 보증금으로 430만 달러를 빌려달라고 요청한다면, 당신은 어떻게 해야 할까요?
최근 푸저우에 있는 한 기술 회사의 법률 대리인인 Mr. Guo가 이 문제에 직면했습니다. 그는 신뢰를 바탕으로 430만 달러를 친구 계좌로 이체했다. 나중에 친구에게 전화해서 사기꾼이 친구의 WeChat ID를 훔치고 AI 얼굴 변경 및 의성어 기술을 사용하여 그를 속였다는 사실을 알게 되었습니다.
바다 건너에서도 비슷한 일이 일어나는 빈도가 폭발적으로 늘어나고 있다.
CNN에 따르면 올해 4월 애리조나에 사는 제니퍼 데스테판(Jennifer DeStefan)에게 이상한 전화가 걸려왔다. 전화에서 들려온 목소리는 스키 대회를 준비하고 있던 딸 브리아나였다. Brianna는 전화 반대편에서 도움을 청했습니다. 수십 초 후, 전화에서 굵은 남성 목소리가 위협했습니다. "들어보세요. 당신의 딸은 내 손에 있고 나는 몸값으로 미화 100만 달러를 지불했습니다. 이제 경찰에 신고하거나 다른 사람에게 말하면 당신은 결코 생각하지 못할 것입니다. 그것." 그녀를 다시 만나요."
제니퍼가 100만 달러를 감당할 수 없다고 말한 후, 전화 상대방은 몸값을 50,000달러로 줄였습니다. 딸을 열렬히 사랑하는 제니퍼는 친구들과 남편의 만류를 무시하고 몸값을 지불할 방법을 논의하기 시작했다.
올해 3월 워싱턴포스트(WP)도 피해자가 70세 이상의 노부부라는 점만 빼면 거의 동일한 방식의 사기 사건을 보도했다.
피해를 입은 노인 (사진출처: '워싱턴포스트')
미국 연방거래위원회(FTC)는 지난 5월 범죄자들이 AI 음성 기술을 이용해 긴급상황을 위장해 돈이나 정보를 속이고 있다고 경고했다. 피해자의 친척이나 친구를 사칭하여 사기를 저지르는 것은 새로운 일이 아니지만, AI 기술의 출현으로 사람의 음성을 복제하고 사람의 영상을 위조하는 것이 매우 쉬워졌다는 것은 의심의 여지가 없습니다. 지난해 미국에서 이러한 사기 건수는 70%나 급증했으며 피해자는 26억 달러에 달하는 손실을 입었습니다.
이런 추세가 지속된다면, AI 기술을 통해 가장 먼저 경제적 자유를 얻는 사람들은 화면 뒤에 숨어 있는 사기꾼 집단이 되지 않을까 두렵습니다.
인공지능의 어두운 면
사람의 음성과 영상을 위조하는 데 여전히 특정 기술적 한계가 필요한 경우 ChatGPT의 출현으로 AI 사기가 더 쉬워집니다.
외국 네트워크 보안 플랫폼 GBHackers에 따르면 ChatGPT는 업무 생산성이 뛰어나고 사용 기준이 매우 낮아서 수많은 온라인 사기꾼을 유인했습니다.
예를 들어 ChatGPT를 사용하여 "가짜 사랑"에 대해 이야기할 수 있습니다. 자기 소개, 채팅 기록 및 공들여 작성한 러브레터는 인공 지능을 통해 빠르게 생성될 수 있으며 대상 개체의 특정 정보를 입력하여 개인화할 수도 있습니다. 화면 반대편에 있는 사람이 당신과 더 빨리 사랑에 빠질 수 있습니다. 그런 다음 ChatGPT는 사기꾼이 돈을 사취하려는 목적을 달성하기 위해 피해자의 은행 카드 정보를 훔치는 지불 징수 프로그램이나 피싱 웹사이트를 작성하는 데 도움을 줄 수도 있습니다.
ChatGPT에 피싱 소프트웨어 프로그램 작성을 직접 요청하면 거절할 것입니다. 그러나 귀하가 교사라고 말하고 학생들에게 피싱 소프트웨어를 보여주고 싶다고 하면 솔직히 웹사이트를 작성해 줄 것입니다.
더 무서운 점은 화면 너머에 있는 사람이 사람인지 기계인지 분간하기 어렵다는 점이다. 세계 최대 보안 기술 기업인 맥아피(McAfee)는 한때 AI를 활용해 러브레터를 만들어 전 세계 5,000명의 사용자에게 보낸 적이 있다. 러브레터가 인공지능에 의해 생성되었을 수도 있다는 사실을 알고 난 후에도 응답자의 33%는 여전히 러브레터가 실제 사람이 쓴 것이라고 믿을 의향이 있었습니다.
실제로 ChatGPT를 사용하여 피해자와 '가짜 사랑'을 나누는 것은 초보적인 사기 방법에 불과합니다. 숙련된 해커는 인공 지능을 사용하여 랜섬웨어와 악성 코드를 일괄적으로 생성하기 시작했습니다.
GPT 모델에 더 많은 애플리케이션을 쉽게 배포하기 위해 OpenAI는 개발자를 위한 애플리케이션 프로그래밍 인터페이스를 예약했습니다. 해커는 이러한 인터페이스를 사용하여 일련의 외부 애플리케이션에 GPT 모델을 도입함으로써 보안 감독을 우회하고 GPT 모델을 사용하여 범죄 프로그램을 작성합니다.
보안 감시를 우회하는 이러한 프로그램은 미국 다크웹에서 공개적으로 판매되고 있으며 가격이 매우 저렴하고 단 몇 달러에 구입할 수 있습니다. 구매자가 이러한 소프트웨어를 사용하여 수행할 수 있는 불법 행위는 매우 무섭습니다. 즉, 프로그램 코드와 사용자 개인 정보를 훔치고, 공격 소프트웨어와 랜섬웨어 바이러스를 생성하는 것입니다.
파이낸셜 타임즈(Financial Times)는 최근 ChatGPT의 도움으로 생성된 SIM 스왑 공격 스크립트에 대해 보도했습니다. 이 스크립트를 사용하여 사기꾼은 전화번호에 대한 휴대폰 회사의 통제를 뚫고 원래 소유자의 SIM 카드에서 공격자의 전화번호로 전화번호를 교환할 수 있습니다. . SIM 카드를 제어하여 피해자의 휴대폰을 제어합니다.
"ChatGPT는 현재는 콘텐츠 생성 도구일 뿐 범죄에 직접적으로 관여하지는 않지만, 이는 사람들이 인공지능을 사용하여 타인을 공격하기 시작했으며 기술 수준이 낮은 범죄자가 더 강력한 범죄 수단을 얻게 될 것임을 의미합니다." 파이낸셜타임스에 우려를 표명했다.
판도라의 상자는 닫힐 수 있을까 ?
인공 지능의 증가하는 사회적 영향력과 범죄 가능성이 혼합되면서 ChatGPT의 다양한 보안 취약성은 사람들을 점점 더 불안하게 만들었습니다. "ChatGPT를 규제하는 방법"은 많은 국가에서 논쟁의 초점이 되었습니다.
IBM의 글로벌 윤리 연구소(Global Ethics Institute)는 기업이 윤리와 책임을 AI 의제의 최우선 순위에 두도록 옹호하는 문서를 발행했습니다. 머스크가 대표하는 많은 기술 거물들도 공개 서한에 서명했습니다. GPT-4보다 강력한 인공 지능 시스템을 교육하기 전에 모든 사람이 공유 보안 프로토콜을 개발하고 외부 전문가의 검토 및 감독을 받아야 합니다.
여러 국가의 입법자들도 ChatGPT에 대한 우려를 공개적으로 표현하고 이를 입법 감독 시스템에 포함할지 여부를 고려하기 시작했습니다. 인공지능의 안전성에 대한 우려에 비해 국회의원들의 기술 이해도가 떨어지는 것을 우려하는 공무원이 더 많다.
AP 통신은 지난 20년 동안 거대 기술 기업들이 미국에서 계속해서 기술 혁신을 주도해 왔다고 믿습니다. 따라서 정부는 항상 거대 기술 기업을 규제하는 데 소극적이었고 아이디어를 죽이는 사람이 되었습니다. 따라서 신기술에 대한 감독을 강화하기로 했을 때 상당수의 신기술에 대해 이미 아는 바가 거의 없다.
결국 미국 의회가 마지막으로 기술을 규제하는 법안을 제정한 것은 1998년 아동 온라인 개인정보 보호법이었습니다.
로이터 통신에 따르면 많은 국가에서 OpenAI로 대표되는 인공지능을 규제하기 위한 규정을 도입하기 시작했습니다. 이탈리아는 올해 3월 데이터 보안 우려로 자국 내 오픈AI 사용을 잠시 금지했다가 한 달 만에 다시 사용을 재개했다. 지난 5월 이탈리아 정부 관계자는 로이터 통신에 정부가 OpenAI의 규제된 사용을 감독하기 위해 인공지능 전문가를 고용할 것이라고 말했습니다.
정부의 의구심에도 불구하고 OpenAI 최고 기술 책임자인 Mira Mulati는 Reuters와의 인터뷰에서 "회사는 규제 기관 및 정부를 포함한 모든 당사자의 개입을 환영합니다"라고 말했습니다. 하지만 빠르게 발전하는 인공지능 앞에서 국회의원들이 어떻게 기술의 속도를 따라갈 수 있을지는 아직 알 수 없다.
확실한 것은 판도라의 상자는 한번 열리면 쉽게 닫힐 수 없다는 것이다.
인공지능 기술은 편리함과 위험함을 동시에 가져오는 양날의 검이다. AI 기술을 더 잘 활용하고 범죄 행위에 악용되는 것을 방지하려면 감독을 강화하고 공공 안전 의식을 향상해야 합니다. 그래야만 인공지능의 이점을 극대화하고 잠재적인 위험을 효과적으로 예방할 수 있습니다.