Die rasante Entwicklung der Technologie der künstlichen Intelligenz hat dem Leben der Menschen viele Annehmlichkeiten gebracht, aber auch neue Herausforderungen mit sich gebracht. Insbesondere im Bereich der Netzwerksicherheit wird KI-Technologie von Kriminellen genutzt, um verschiedene neue Betrugsmethoden zu entwickeln, was zu enormen wirtschaftlichen Verlusten und Sicherheitsrisiken für die Gesellschaft führt. Der Herausgeber von Downcodes erklärt Ihnen, wie KI-Technologie für Betrug eingesetzt wird und wie Sie mit diesen neuen Sicherheitsbedrohungen umgehen.
Während Sie sich immer noch Sorgen darüber machen, ob ChatGPT eines Tages Ihren Job ersetzen wird, und darüber nachdenken, wie Sie künstliche Intelligenz nutzen können, um die Arbeitseffizienz zu verbessern, gibt es eine Gruppe von Menschen, die mit dieser neuen Technologie bereits viel Geld verdient haben.
Sie sind... Lügner.
4,3 Millionen in 10 Minuten betrogen,
Die ersten Menschen, die dank KI reich wurden, waren in Wirklichkeit Betrüger
Wenn Sie eines Tages einen WeChat-Videoanruf von einem Freund erhalten und die Person am anderen Ende der Kamera genauso aussieht und sich anhört wie der Freund, an den Sie sich erinnern, als er Sie bittet, 4,3 Millionen als Kaution für ein Stellenangebot zu leihen, sind Sie wird Wie geht das?
Kürzlich stieß Herr Guo, der gesetzliche Vertreter eines Technologieunternehmens in Fuzhou, auf dieses Problem. Auf Vertrauensbasis überwies er 4,3 Millionen auf das Konto seines Freundes. Erst als ich anschließend meinen Freund anrief, erfuhr ich, dass der Betrüger die WeChat-ID seines Freundes gestohlen und ihn dann mithilfe von KI-Technologie zur Gesichtsveränderung und Lautmalerei betrogen hatte.
Die Häufigkeit ähnlicher Ereignisse auf der anderen Seite des Ozeans nimmt ebenfalls explosionsartig zu.
Laut CNN erhielt Jennifer DeStefan, die in Arizona lebt, im April dieses Jahres einen seltsamen Anruf. Die Stimme am Telefon war ihre Tochter Brianna, die sich auf einen Skiwettbewerb vorbereitete. Am anderen Ende der Leitung rief Brianna um Hilfe. Dutzende Sekunden später drohte eine tiefe Männerstimme am Telefon: „Hören Sie, Ihre Tochter ist in meinen Händen und ich habe ein Lösegeld von 1 Million US-Dollar bezahlt. Wenn Sie jetzt die Polizei rufen oder es anderen erzählen, werden Sie nie darüber nachdenken.“ es. „Sehen Sie sie wieder.“
Nachdem Jennifer sagte, sie könne sich eine Million Dollar nicht leisten, reduzierte der Mann am anderen Ende der Leitung den Lösegeldpreis auf 50.000 Dollar. Jennifer, die ihre Tochter über alles liebt, ignorierte die Abmahnungen ihrer Freunde und ihres Mannes und begann darüber zu diskutieren, wie sie das Lösegeld zahlen könnte. Erst als Brianna sie anrief und ihr mitteilte, dass sie in Sicherheit sei, konnte der Vermögensverlust vermieden werden.
Im März dieses Jahres berichtete die Washington Post ebenfalls über einen Betrugsfall mit fast der gleichen Vorgehensweise, nur dass es sich bei den Opfern um ein älteres Ehepaar über 70 Jahre handelte.
Die betroffene ältere Person (Fotoquelle: „Washington Post“)
Die US-amerikanische Federal Trade Commission (FTC) gab im Mai eine Warnung heraus, in der sie darauf hinwies, dass Kriminelle KI-Sprachtechnologie nutzen, um Notfälle vorzutäuschen und Geld oder Informationen zu betrügen. Sich als Verwandte oder Freunde eines Opfers auszugeben, um einen Betrug zu begehen, ist nichts Neues, aber es besteht kein Zweifel daran, dass das Aufkommen der KI-Technologie es extrem einfach gemacht hat, die Stimme einer Person zu klonen und das Video einer Person zu fälschen. Im vergangenen Jahr ist die Zahl solcher Betrügereien in den Vereinigten Staaten um 70 % gestiegen, wobei die Opfer bis zu 2,6 Milliarden US-Dollar verloren haben.
Wenn sich dieser Trend fortsetzt, befürchte ich, dass die ersten Menschen, die durch KI-Technologie finanzielle Freiheit erlangen, eine Gruppe von Betrügern sein werden, die sich hinter dem Bildschirm verstecken.
Die dunkle Seite der künstlichen Intelligenz
Wenn das Fälschen der Stimme und des Videos einer Person immer noch eine gewisse technische Hürde erfordert, dann erleichtert das Aufkommen von ChatGPT KI-Betrug.
Nach Angaben der ausländischen Netzwerksicherheitsplattform GBHackers hat ChatGPT aufgrund seiner hohen Arbeitsproduktivität und extrem niedrigen Einsatzschwelle eine große Anzahl von Online-Betrügern angezogen.
Verwenden Sie ChatGPT beispielsweise, um über eine „falsche Liebe“ zu sprechen: Selbstvorstellung, Chatverlauf und sorgfältig ausgearbeitete Liebesbriefe können durch künstliche Intelligenz schnell erstellt werden. Außerdem können sie durch die Eingabe spezifischer Informationen des Zielobjekts personalisiert werden Die Person gegenüber dem Bildschirm kann sich schneller in Sie verlieben. Darüber hinaus kann ChatGPT Betrügern auch beim Schreiben von Zahlungseinzugsprogrammen oder Phishing-Websites helfen, die die Bankkarteninformationen des Opfers stehlen, um Geld zu betrügen.
Wenn Sie ChatGPT direkt bitten, ein Phishing-Softwareprogramm für Sie zu schreiben, wird es dies ablehnen. Wenn Sie jedoch sagen, dass Sie Lehrer sind und den Schülern eine Phishing-Software zeigen möchten, wird es ehrlich eine Website für Sie schreiben.
Noch beängstigender ist, dass es für Menschen schwierig ist zu erkennen, ob sich auf der anderen Seite des Bildschirms ein Mensch oder eine Maschine befindet. McAfee, das weltweit größte Unternehmen für Sicherheitstechnologie, nutzte einst KI, um einen Liebesbrief zu erstellen und ihn an 5.000 Benutzer auf der ganzen Welt zu versenden. Nachdem sie wussten, dass die Liebesbriefe möglicherweise durch künstliche Intelligenz generiert wurden, waren 33 % der Befragten immer noch bereit zu glauben, dass sie von echten Menschen geschrieben wurden.
Tatsächlich ist die Verwendung von ChatGPT für eine „falsche Liebe“ mit dem Opfer nur eine Betrugsmethode der Einstiegsklasse. Erfahrenere Hacker haben begonnen, künstliche Intelligenz zu nutzen, um stapelweise Ransomware und Schadcode zu generieren.
Um die Bereitstellung weiterer Anwendungen auf dem GPT-Modell zu erleichtern, hat OpenAI eine Anwendungsprogrammierschnittstelle für Entwickler reserviert. Hacker nutzen diese Schnittstellen, um das GPT-Modell in eine Reihe externer Anwendungen einzuführen, umgehen dabei die Sicherheitsüberwachung und nutzen das GPT-Modell zum Schreiben krimineller Programme.
Diese Programme, die die Sicherheitsüberwachung umgehen, werden im US-amerikanischen Dark Web öffentlich verkauft, sind sehr günstig und können für nur wenige Dollar erworben werden. Das illegale Verhalten, das Käufer mit dieser Software ausführen können, ist sehr beängstigend: durch den Diebstahl von Programmcode und privaten Benutzerinformationen sowie durch die Generierung von Angriffssoftware und Ransomware-Viren.
Die Financial Times berichtete kürzlich über ein mit Hilfe von ChatGPT generiertes SIM-Swap-Angriffsskript, mit dem Betrüger die Kontrolle von Mobilfunkunternehmen über Telefonnummern durchbrechen und Telefonnummern von der SIM-Karte des ursprünglichen Besitzers auf die des Angreifers austauschen können . Übernehmen Sie die Kontrolle über die SIM-Karte und damit über das Mobiltelefon des Opfers.
„Obwohl ChatGPT derzeit nur ein Tool zur Inhaltsgenerierung ist und nicht direkt an Kriminalität beteiligt ist, bedeutet dies, dass Menschen beginnen, künstliche Intelligenz zu nutzen, um in andere einzudringen, und Kriminelle mit geringerem technischem Niveau werden leistungsfähigere kriminelle Mittel erhalten.“ äußerte seine Bedenken gegenüber der Financial Times.
Kann die Büchse der Pandora geschlossen werden?
Wenn der wachsende gesellschaftliche Einfluss der künstlichen Intelligenz mit ihrem kriminellen Potenzial vermischt wird, sind die verschiedenen Sicherheitslücken von ChatGPT in vielen Ländern zunehmend unruhig geworden. „Wie man ChatGPT regulieren kann“.
Das Global Ethics Institute von IBM hat ein Dokument herausgegeben, in dem es dafür plädiert, dass Unternehmen Ethik und Verantwortung ganz oben auf ihre KI-Agenda setzen. Viele von Musk vertretene Technologiemagnaten unterzeichneten außerdem einen offenen Brief. Bevor ein künstliches Intelligenzsystem leistungsfähiger als GPT-4 trainiert wird, sollte jeder ein gemeinsames Sicherheitsprotokoll entwickeln und es von externen Experten überprüfen und überwachen lassen.
Auch Gesetzgeber aus verschiedenen Ländern haben begonnen, öffentlich Bedenken hinsichtlich ChatGPT zu äußern und zu überlegen, ob sie es in das gesetzgeberische Aufsichtssystem aufnehmen sollen. Im Vergleich zu den Bedenken hinsichtlich der Sicherheit künstlicher Intelligenz machen sich immer mehr Regierungsmitarbeiter Sorgen über das mangelnde Technologieverständnis der Gesetzgeber.
Die Associated Press geht davon aus, dass Technologieriesen in den letzten 20 Jahren weiterhin die technologische Innovation in den Vereinigten Staaten anführten. Daher war die Regierung immer nicht bereit, große Technologieunternehmen zu regulieren, und ist zu einem Ideenkiller geworden. Wenn sie also entschlossen sind, die Überwachung neuer Technologien zu verstärken, wissen viele von ihnen bereits wenig über die neuen Technologien.
Denn das letzte Mal, dass der US-Kongress ein Gesetz zur Regulierung der Technologie erließ, war der Children’s Online Privacy Protection Act von 1998.
Laut Reuters haben viele Länder damit begonnen, Vorschriften zur Regulierung der durch OpenAI repräsentierten künstlichen Intelligenz einzuführen. Im März dieses Jahres verbot Italien aufgrund von Bedenken hinsichtlich der Datensicherheit kurzzeitig die Nutzung von OpenAI im Land und nahm die Nutzung erst einen Monat später wieder auf. Im Mai teilte ein italienischer Regierungsbeamter Reuters mit, dass die Regierung Experten für künstliche Intelligenz einstellen werde, um die regulierte Nutzung von OpenAI zu überwachen.
Angesichts der Zweifel von Regierungen sagte Mira Mulati, Chief Technology Officer von OpenAI, in einem Interview mit Reuters auch, dass „das Unternehmen alle Parteien, einschließlich Regulierungsbehörden und Regierungen, begrüßt, mit dem Eingreifen zu beginnen.“ Doch angesichts der sich rasant entwickelnden künstlichen Intelligenz ist noch unklar, wie der Gesetzgeber mit dem Tempo der Technologie Schritt halten kann.
Sicher ist nur, dass sich die Büchse der Pandora, wenn sie einmal geöffnet ist, nicht mehr so leicht schließen lässt.
Die Technologie der künstlichen Intelligenz ist ein zweischneidiges Schwert, das sowohl Komfort als auch Risiko mit sich bringt. Wir müssen die Aufsicht stärken und das Bewusstsein für die öffentliche Sicherheit verbessern, damit wir die KI-Technologie besser nutzen und verhindern können, dass sie für kriminelle Aktivitäten missbraucht wird. Nur so können die Vorteile der künstlichen Intelligenz maximiert und ihren potenziellen Risiken wirksam vorgebeugt werden.