人工知能技術の急速な発展は人々の生活に多くの利便性をもたらしましたが、同時に新たな課題ももたらしました。特にネットワークセキュリティの分野では、犯罪者がAI技術を利用してさまざまな新たな詐欺手法を生み出しており、社会に多大な経済的損失とセキュリティリスクをもたらしています。 Downcodes の編集者は、AI テクノロジーが詐欺にどのように使用されているか、そしてこれらの新しいセキュリティ脅威にどのように対処するかを理解できるようにします。
あなたは、将来、ChatGPT があなたの仕事に取って代わり、人工知能を使用して作業効率を向上させる方法を考えるのではないかとまだ心配していますが、この新しいテクノロジーに依存してすでに多額のお金を稼いでいるグループがいます。
彼らは...嘘つきです。
10分で430万を騙し取られた
AIのおかげで金持ちになった最初の人々は実は詐欺師だった
ある日、友人から WeChat ビデオ通話を受信し、カメラの向こう側の相手が、見た目も声もあなたが覚えている友人とまったく同じだったとします。その友人が、仕事の入札の手付金として 430 万を借りてほしいと頼んだとき、あなたは次のように考えます。どうやってやりますか?
最近、福州のテクノロジー企業の法定代理人である郭氏はこの問題に遭遇しました。信頼に基づいて、彼は友人の口座に430万を送金しました。その後友人に電話して初めて、詐欺師が友人の WeChat ID を盗み、AI の顔変更技術とオノマトペ技術を使って友人をだまし取ったことを知りました。
同様のことが海の向こうで起こる頻度も爆発的に増加している。
CNNによると、今年4月、アリゾナ州に住むジェニファー・デステファンさんに奇妙な電話がかかってきた。電話の声は、スキー大会の準備をしていた娘のブリアナさんだった。ブリアナは電話の向こうで助けを求めて叫びました。数十秒後、低い男性の声が電話で脅迫した。「いいか、あなたの娘は私の手にあり、私は身代金100万ドルを支払った。今、警察に電話したり、他の人に話したとしても、あなたは決して考えないだろう」 「また会いましょう。」
ジェニファーさんが100万ドルは払えないと言うと、電話の向こうの男は身代金を5万ドルに減額した。娘を熱心に愛しているジェニファーさんは、友人や夫の説得を無視して身代金の支払い方法について話し合い始めたが、ブリアナさんから無事だと連絡が来て初めて財産の損失は避けられた。
今年3月にもワシントン・ポスト紙が、被害者が70歳以上の老夫婦だったことを除いて、ほぼ同様の手口による詐欺事件を報じた。
被害に遭った高齢者(写真提供:「ワシントン・ポスト」)
米連邦取引委員会(FTC)は5月、犯罪者がAI音声技術を利用して緊急事態を装い、金銭や情報をだまし取っていると警告を発した。被害者の親族や友人になりすまして詐欺行為を行うのは新しいことではないが、AI技術の出現により、人の声を複製したり、人の動画を偽造したりすることが非常に簡単になったことは間違いない。過去1年間で米国におけるこうした詐欺の件数は70%急増し、被害者は26億ドルもの損失を被った。
この傾向が続けば、AI テクノロジーによって最初に経済的自由を達成するのは、画面の後ろに隠れていた詐欺師のグループになるのではないかと心配です。
人工知能の暗い側面
人の音声やビデオの偽造に依然として一定の技術的閾値が必要な場合、ChatGPT の登場により AI 詐欺が容易になります。
海外のネットワーク セキュリティ プラットフォームである GBHackers によると、ChatGPT は、その優れた作業生産性と使用の敷居が非常に低いため、多数のオンライン詐欺師を惹きつけています。
たとえば、ChatGPT を使用して「偽の愛」について話します。自己紹介、チャット履歴、慎重に作成されたラブレターは、人工知能によって迅速に作成できます。ターゲット オブジェクトの特定の情報を入力することで、パーソナライズすることもできます。画面の反対側にいる人は、より早くあなたに恋をすることができます。さらに、ChatGPT は、詐欺師が金銭をだまし取る目的を達成するために被害者の銀行カード情報を盗む支払い回収プログラムやフィッシング Web サイトを作成するのを支援することもできます。
ChatGPT にフィッシング ソフトウェア プログラムを作成するように直接依頼すると、ChatGPT は拒否します。しかし、あなたが教師で生徒にフィッシング ソフトウェアを見せたいと言うと、ChatGPT は正直に Web サイトを作成します。
さらに恐ろしいのは、画面の向こうにいるのが人間なのか機械なのか、人間には見分けるのが難しいことです。世界最大のセキュリティ テクノロジー企業であるマカフィーは、かつて AI を使用してラブレターを生成し、世界中の 5,000 人のユーザーに送信しました。ラブレターが人工知能によって生成された可能性があることを知った後でも、回答者の 33% は依然として、ラブレターが本物の人間によって書かれたものであると信じたいと回答しました。
実際、ChatGPT を使用して被害者と「偽りの愛」を結ぶことは、初歩的な詐欺手法にすぎません。より熟練したハッカーは、人工知能を使用してランサムウェアや悪意のあるコードをバッチで生成し始めています。
GPT モデルでより多くのアプリケーションの展開を容易にするために、OpenAI は開発者向けにアプリケーション プログラミング インターフェイスを予約しました。ハッカーはこれらのインターフェイスを使用して GPT モデルを一連の外部アプリケーションに導入し、これによりセキュリティ監視を回避し、GPT モデルを使用して犯罪プログラムを作成します。
セキュリティ監視を回避するこれらのプログラムは米国のダークウェブで公開されており、非常に安価でわずか数ドルで購入できます。購入者がこれらのソフトウェアを使用して実行できる違法行為は、非常に恐ろしいものです。プログラム コードやユーザーの個人情報を盗み、攻撃ソフトウェアやランサムウェア ウイルスを生成することです。
Financial Times は最近、ChatGPT を利用して生成された SIM スワップ攻撃スクリプトについて報告しました。詐欺師はこのスクリプトを使用して、電話番号に対する携帯電話会社の制御を突破し、元の所有者の SIM カードから攻撃者の SIM カードに電話番号を交換できます。 SIM カードを制御し、被害者の携帯電話を制御します。
「ChatGPTは現時点では単なるコンテンツ生成ツールであり、犯罪に直接関与しているわけではありませんが、これは人々が人工知能を利用して他者を侵略し始めていることを示しており、技術レベルの低い犯罪者はより強力な犯罪手段を手に入れることになるでしょう。」とフィナンシャル・タイムズに懸念を表明した。
パンドラの箱は閉まるのか?
人工知能の社会的影響力の増大とその犯罪的可能性が結びついて、ChatGPT のさまざまなセキュリティ上の脆弱性が人々の不安を増大させており、「ChatGPT をどのように規制するか」が多くの国で議論の焦点となっています。
IBMのグローバル倫理研究所は、企業がAIの課題の最優先に倫理と責任を置くよう主張する文書を発表した。マスク氏が代表を務める多くのテクノロジー業界の大物も、GPT-4より強力な人工知能システムを訓練する前に、全員が共有セキュリティプロトコルを開発し、外部の専門家によるレビューと監督を受ける必要があると公開書簡に署名した。
さまざまな国の国会議員も、ChatGPT に対する懸念を公に表明し、それを立法監督制度に含めるかどうかを検討し始めています。人工知能の安全性への懸念と比較して、議員のテクノロジーへの理解の遅れを懸念する政府職員の方が多い。
AP通信は、過去20年間、テクノロジー大手が米国の技術革新を主導し続けてきたため、政府は常に大手テクノロジー企業を規制することに消極的であり、アイデアを殺す存在になってきたと考えている。したがって、新興技術の監督を強化することを決意した時点で、かなりの数の企業がすでに新技術についてほとんど知りません。
結局のところ、米国議会がテクノロジーを規制する法案を最後に制定したのは、1998 年の児童オンライン プライバシー保護法でした。
ロイター通信によると、多くの国でOpenAIに代表される人工知能を規制する規制が導入され始めているという。イタリアは今年3月、データセキュリティへの懸念から国内でのOpenAIの使用を一時禁止したが、その1カ月後にようやく使用を再開した。 5月、イタリア政府当局者はロイターに対し、政府はOpenAIの規制された使用を監督するために人工知能の専門家を雇用すると語った。
政府からの疑念を受けて、OpenAIの最高技術責任者ミラ・ムラティ氏もロイターとのインタビューで「規制当局や政府を含むすべての関係者が介入を開始することを同社は歓迎する」と述べた。しかし、急速に発展する人工知能に直面して、議員がどのようにテクノロジーのペースについていくことができるのかはまだ不明です。
ただ一つ確かなことは、パンドラの箱は一度開いてしまうとそう簡単には閉じられないということです。
人工知能技術は利便性とリスクの両方をもたらす諸刃の剣です。 AI技術をより適切に活用し、犯罪行為への悪用を防ぐためには、監督を強化し、公共の安全に対する意識を高める必要があります。この方法によってのみ、人工知能の利点を最大化し、その潜在的なリスクを効果的に防ぐことができます。