La tecnología de inteligencia artificial se está desarrollando rápidamente y la tecnología de falsificación profunda, como una de sus aplicaciones, está afectando profundamente nuestras vidas. Esta tecnología puede generar vídeos e imágenes falsos muy realistas, lo que aporta muchas ventajas, pero también riesgos graves, como el uso de imágenes de celebridades para cometer fraude. Este artículo discutirá los desafíos y las contramedidas que plantea la tecnología de falsificación profunda, con el objetivo de aumentar la conciencia pública sobre los riesgos y mantener el orden social.
En los últimos años, la IA ha penetrado en todos los aspectos de la vida, desde los asistentes de voz hasta la tecnología de conducción autónoma. Sin embargo, la aplicación generalizada de la tecnología de inteligencia artificial también conlleva algunos riesgos potenciales, entre los cuales la tecnología deepfake ha atraído la atención social.
La tecnología deepfake utiliza algoritmos para generar contenido falso muy realista. Al aprender de una gran cantidad de datos reales, genera vídeos o imágenes muy similares a personas o escenas. Aunque esta tecnología demuestra el poder de la IA, también genera fraude. Por ejemplo, recientemente ha habido incidentes de personas que pretenden utilizar la imagen y la voz del Dr. Zhang Wenhong para promover transmisiones en vivo. En el vídeo falso, una figura sintética promocionaba un determinado producto, lo que resultó en la venta de más de 1.200 artículos. Este incidente provocó un gran descontento entre el Dr. Zhang Wenhong y el público.
Nota sobre la fuente de la imagen: la imagen es generada por IA y el proveedor de servicios de autorización de imágenes Midjourney
Tang Jiansheng, subsecretario general de la Comisión de Protección de los Derechos del Consumidor de Shanghai, dijo que ese comportamiento de suplantar imágenes de celebridades a través de tecnología de inteligencia artificial ha constituido una grave infracción de los derechos del consumidor. Casos similares incluyen personas que usan la foto de perfil de Lei Jun para hacer videos falsos durante el Día Nacional y se hacen pasar por la voz de Andy Lau para atraer tráfico. Empresas relevantes y celebridades se han pronunciado para advertir al público que esté más atento.
Los expertos señalan que la tecnología de inteligencia artificial actual puede clonar fácilmente los rostros y las voces de otras personas, y el contenido generado es extremadamente realista. Sin embargo, este tipo de tecnología no está exenta de defectos. Aún se pueden encontrar anomalías observando cuidadosamente la combinación de un rostro con el fondo o la combinación de una voz con la forma de una boca. Además, actualmente es difícil lograr la transmisión en vivo en tiempo real con dicha tecnología.
Los profesionales del derecho han dejado claro que el uso no autorizado de la imagen o la voz de otra persona es ilegal. Zhu Wei, profesor asociado de la Universidad de Ciencias Políticas y Derecho de China, enfatizó que según el Código Civil, este comportamiento infringe los derechos de la personalidad según la Ley de Ciberseguridad, el contenido relevante es información ilegal y el editor puede incluso enfrentar responsabilidad penal; .
Para los consumidores, si compran productos porque las celebridades falsas de IA los traen, pueden exigir al comerciante que "reembolse uno y compense tres" de acuerdo con la "Ley de Protección de los Derechos del Consumidor", y el monto mínimo de compensación es de 500 yuanes. Al mismo tiempo, las plataformas de vídeos cortos también deberían asumir responsabilidades regulatorias, fortalecer la revisión y sanción del contenido relevante y evitar la difusión generalizada de información ilegal.
El auge de la tecnología de falsificación profunda recuerda al público que, si bien disfrutan de las ventajas de la IA, también deben estar atentos a sus riesgos potenciales.
Ante el desafío de la tecnología de falsificación profunda, necesitamos que el gobierno, las empresas y los individuos trabajen juntos para fortalecer la supervisión legislativa, mejorar las capacidades de identificación técnica y construir conjuntamente un entorno de red seguro y confiable. Sólo así se podrá utilizar mejor la tecnología de IA, evitar su uso malicioso y mantener el orden social y los intereses públicos.