Según el Economic Daily, una serie de videos doblados generados por IA han llamado la atención en Internet. Son sorprendentemente realistas. No solo las imágenes son realistas, sino que las características del sonido son casi las mismas que las de personas reales. 100 millones de veces en un corto período de tiempo. Sin embargo, el contenido de estos videos no tiene nada que ver con las figuras públicas de las imágenes y ha sido eliminado de la plataforma.
El desarrollo de la tecnología de inteligencia artificial ha reducido el umbral para la falsificación profunda y la producción en masa de bajo costo, y han aparecido en grandes cantidades imágenes generadas por inteligencia artificial y videos que cambian de voz y de rostro. Aunque estos vídeos son llamativos, no se pueden ignorar los riesgos que se esconden detrás de ellos.
Actualmente, la creación y difusión de información falsa se ha convertido en un problema global, y el uso de tecnología de síntesis de inteligencia artificial para hacerla parecer real está poniendo a la gente común en problemas a la hora de identificar información. El "Informe de seguridad de la inteligencia artificial de 2024" muestra que el fraude por falsificación profunda basado en IA aumentará 30 veces en 2023, lo que representa una grave amenaza para la seguridad de la red y la seguridad social. La proliferación de información falsa no sólo altera el orden normal del ciberespacio, sino que también puede transmitir emociones negativas del mundo virtual a la realidad, exacerbando la ansiedad social.
Hacer frente a un caos como el de la falsificación profunda requiere colaboración multipartidaria y gobernanza conjunta. En la actualidad, nuestro país ha promulgado leyes y reglamentos como el "Reglamento para la Gestión de Síntesis Profunda de los Servicios de Información de Internet" para fortalecer la gestión de contenidos desde la fuente. Al mismo tiempo, la publicación de las "Medidas para etiquetar contenido sintético generado por inteligencia artificial (borrador para comentarios)" también indica que a nivel nacional está aumentando la supervisión de la tecnología de IA. Sólo permitiendo que la IA se desarrolle de manera saludable dentro de un marco legal y compatible, las personas podrán realmente disfrutar de los dividendos que traen los cambios tecnológicos y promover el desarrollo saludable de la industria de la inteligencia artificial.
Como parte importante de la difusión de información, los operadores de plataformas y los proveedores de servicios también deben asumir las responsabilidades correspondientes, trazar líneas rojas para el contenido generado por IA, prohibir estrictamente la difusión de contenido ilegal, infractor y fraudulento, y agregar señales de advertencia destacadas para evitar la difusión de información falsa. . Además, el uso de marcas de agua digitales, marcas de tiempo, funciones hash y otros medios técnicos no sólo puede mejorar la verificabilidad de la autenticidad de la información, sino que también puede ser un medio eficaz para prevenir la difusión de información falsa. Como consumidores de contenido, las audiencias también deben permanecer alerta, mejorar su capacidad para identificar contenido generado por IA y evitar creencias sesgadas.