El rápido desarrollo de la tecnología de inteligencia artificial ha traído muchas comodidades a la vida de las personas, pero también ha traído nuevos desafíos. Especialmente en el campo de la seguridad de la red, los delincuentes están utilizando la tecnología de inteligencia artificial para crear varios métodos nuevos de fraude, lo que causa enormes pérdidas económicas y riesgos de seguridad para la sociedad. El editor de Downcodes lo llevará a comprender cómo se utiliza la tecnología de inteligencia artificial para el fraude y cómo lidiar con estas nuevas amenazas a la seguridad.
Si bien todavía te preocupa si ChatGPT reemplazará tu trabajo algún día en el futuro y piensas en cómo usar la inteligencia artificial para mejorar la eficiencia en el trabajo, hay un grupo de personas que ya han ganado mucho dinero confiando en esta nueva tecnología.
Son... mentirosos.
Estafó 4,3 millones en 10 minutos,
El primer grupo de personas que se enriquecieron gracias a la IA fueron en realidad estafadores
Si un día recibes una videollamada de WeChat de un amigo y la persona al otro lado de la cámara se ve y suena exactamente como el amigo que recuerdas, cuando te pide prestados 4,3 millones como depósito para una oferta de trabajo, ¿Cómo hacerlo?
Recientemente, el Sr. Guo, representante legal de una empresa de tecnología en Fuzhou, se encontró con este problema. Basándose en la confianza, transfirió 4,3 millones a la cuenta de su amigo. No fue hasta que llamé a mi amigo después que descubrí que el estafador había robado la identificación de WeChat de su amigo y luego había utilizado tecnología de onomatopeyas y cambio de cara de IA para defraudarlo.
La frecuencia de que sucedan cosas similares al otro lado del océano también está creciendo explosivamente.
Según CNN, en abril de este año, Jennifer DeStefan, que vive en Arizona, recibió una extraña llamada telefónica. La voz en el teléfono era la de su hija Brianna, que se estaba preparando para una competición de esquí. Brianna gritó pidiendo ayuda al otro lado del teléfono. Decenas de segundos después, una profunda voz masculina amenazó por teléfono: "Escuche, su hija está en mis manos y he pagado un rescate de 1 millón de dólares estadounidenses. Ahora, si llama a la policía o se lo cuenta a otros, nunca pensará en "Verla de nuevo."
Después de que Jennifer dijera que no podía permitirse 1 millón de dólares, el hombre al otro lado del teléfono redujo el precio del rescate a 50.000 dólares. Jennifer, que ama con entusiasmo a su hija, ignoró la disuasión de sus amigos y su esposo y comenzó a discutir formas de pagar el rescate. No fue hasta que Brianna la llamó para decirle que estaba a salvo que se evitó la pérdida de propiedad.
En marzo de este año, el Washington Post también informó sobre un caso de fraude con casi el mismo modus operandi, excepto que las víctimas eran una pareja de ancianos de más de 70 años.
El anciano victimizado (Fuente de la foto: "Washington Post")
La Comisión Federal de Comercio de Estados Unidos (FTC) emitió una advertencia en mayo, afirmando que los delincuentes estaban utilizando tecnología de voz de IA para fingir emergencias y defraudar dinero o información. Fingir ser familiares o amigos de una víctima para cometer fraude no es nuevo, pero no hay duda de que la aparición de la tecnología de inteligencia artificial ha hecho que sea extremadamente fácil clonar la voz de una persona y falsificar su video. El año pasado, el número de estafas de este tipo en Estados Unidos se disparó un 70%, y las víctimas perdieron hasta 2.600 millones de dólares.
Si esta tendencia continúa, me temo que las primeras personas en lograr la libertad financiera a través de la tecnología de inteligencia artificial serán un grupo de estafadores escondidos detrás de la pantalla.
El lado oscuro de la inteligencia artificial
Si falsificar la voz y el vídeo de una persona todavía requiere un cierto umbral técnico, entonces la aparición de ChatGPT facilita el fraude con IA.
Según la plataforma de seguridad de redes extranjera GBHackers, ChatGPT ha atraído a un gran número de estafadores en línea debido a su alta productividad laboral y su umbral de uso extremadamente bajo.
Por ejemplo, utilice ChatGPT para hablar de un "amor falso": la autopresentación, el historial de chat y cartas de amor cuidadosamente elaboradas se pueden producir rápidamente a través de inteligencia artificial. También se puede personalizar ingresando información específica del objeto objetivo, de modo que el La persona frente a la pantalla puede enamorarse de ti más rápido. Luego, ChatGPT también puede ayudar a los estafadores a redactar programas de cobro de pagos o sitios web de phishing que roban la información de la tarjeta bancaria de la víctima para lograr el propósito de defraudar dinero.
Cuando le pides directamente a ChatGPT que escriba un programa de phishing para ti, se negará, pero si dices que eres profesor y quieres mostrarles a los estudiantes un software de phishing, honestamente escribirá un sitio web para ti.
Lo que es aún más aterrador es que a las personas les resulta difícil saber si hay un humano o una máquina al otro lado de la pantalla. McAfee, la empresa de tecnología de seguridad más grande del mundo, alguna vez utilizó inteligencia artificial para generar una carta de amor y la envió a 5.000 usuarios en todo el mundo. Después de saber que las cartas de amor pudieron haber sido generadas por inteligencia artificial, el 33% de los encuestados todavía estaban dispuestos a creer que fueron escritas por personas reales.
De hecho, usar ChatGPT para tener un "amor falso" con la víctima es solo un método de fraude de nivel básico. Los piratas informáticos más hábiles han comenzado a usar inteligencia artificial para generar ransomware y código malicioso en lotes.
Para facilitar la implementación de más aplicaciones en el modelo GPT, OpenAI ha reservado una interfaz de programación de aplicaciones para los desarrolladores. Los piratas informáticos utilizan estas interfaces para introducir el modelo GPT en una serie de aplicaciones externas, evitando así la supervisión de seguridad y utilizando el modelo GPT para escribir programas delictivos.
Estos programas que eluden la supervisión de seguridad se han vendido públicamente en la web oscura de EE. UU., son muy baratos y pueden adquirirse por sólo unos pocos dólares. El comportamiento ilegal que los compradores pueden realizar con este software es muy aterrador: robar código de programa e información privada del usuario, generar software de ataque y virus ransomware.
El Financial Times informó recientemente sobre un script de ataque de intercambio de SIM generado con la ayuda de ChatGPT, que los estafadores pueden utilizar para romper el control de las compañías de telefonía móvil sobre los números de teléfono e intercambiar números de teléfono de la tarjeta SIM del propietario original a la del atacante. . Tomar el control de la tarjeta SIM y así controlar el teléfono móvil de la víctima.
"Aunque ChatGPT es actualmente solo una herramienta de generación de contenido y no está directamente involucrado en el crimen, esto indica que las personas están comenzando a usar inteligencia artificial para invadir a otros, y los delincuentes con niveles técnicos más bajos obtendrán medios criminales más poderosos". expresó sus preocupaciones al Financial Times.
¿Se puede cerrar la caja de Pandora ?
Cuando la creciente influencia social de la inteligencia artificial se mezcla con su potencial criminal, las diversas vulnerabilidades de seguridad de ChatGPT han hecho que la gente se sienta cada vez más incómoda. "Cómo regular ChatGPT" se ha convertido en un foco de debate en muchos países.
El Instituto de Ética Global de IBM ha publicado un documento que aboga por que las empresas pongan la ética y la responsabilidad en la cima de su agenda de IA. Muchos magnates de la tecnología representados por Musk también firmaron una carta abierta. Antes de entrenar un sistema de inteligencia artificial más potente que GPT-4, todos deberían desarrollar un protocolo de seguridad compartido y hacerlo revisar y supervisar por expertos externos.
Los legisladores de varios países también han comenzado a expresar públicamente sus preocupaciones sobre ChatGPT y a considerar si incluirlo en el sistema de supervisión legislativa. En comparación con las preocupaciones sobre la seguridad de la inteligencia artificial, más personal gubernamental está preocupado por la falta de comprensión de la tecnología por parte de los legisladores.
Associated Press cree que en los últimos 20 años, los gigantes tecnológicos han seguido liderando la innovación tecnológica en los Estados Unidos. Por lo tanto, el gobierno siempre ha estado reacio a regular las grandes empresas de tecnología y se ha convertido en un asesino de ideas. Por lo tanto, cuando están decididos a fortalecer la supervisión de las tecnologías emergentes, un número considerable de ellos ya sabe poco sobre las nuevas tecnologías.
Después de todo, la última vez que el Congreso de Estados Unidos promulgó legislación para regular la tecnología fue la Ley de Protección de la Privacidad Infantil en Línea de 1998.
Según Reuters, muchos países han comenzado a introducir regulaciones para regular la inteligencia artificial representada por OpenAI. En marzo de este año, Italia prohibió brevemente el uso de OpenAI en el país debido a preocupaciones sobre la seguridad de los datos, y no reanudó su uso hasta un mes después. En mayo, un funcionario del gobierno italiano dijo a Reuters que el gobierno contrataría expertos en inteligencia artificial para supervisar el uso regulado de OpenAI.
Ante las dudas de los gobiernos, la directora de tecnología de OpenAI, Mira Mulati, también dijo en una entrevista con Reuters que "la compañía da la bienvenida a todas las partes, incluidas las agencias reguladoras y los gobiernos, para comenzar a intervenir". Pero ante el rápido desarrollo de la inteligencia artificial, aún se desconoce cómo los legisladores pueden seguir el ritmo de la tecnología.
Lo único seguro es que una vez abierta la caja de Pandora, no se puede cerrar tan fácilmente.
La tecnología de inteligencia artificial es un arma de doble filo, que conlleva tanto comodidad como riesgo. Necesitamos fortalecer la supervisión y mejorar la concienciación sobre la seguridad pública para que podamos utilizar mejor la tecnología de inteligencia artificial y evitar que se abuse de ella para actividades delictivas. Sólo así se podrán maximizar los beneficios de la inteligencia artificial y prevenir eficazmente sus riesgos potenciales.