Recientemente, dos artículos sobre inteligencia artificial generativa (IA) han provocado acalorados debates, señalando que los textos generados por IA a menudo son "tonterías". Estos dos artículos proporcionan un análisis en profundidad del daño potencial a la sociedad causado por la información errónea generada por la IA desde la perspectiva de las características esenciales de la IA y las deficiencias de las leyes y regulaciones actuales, y piden medidas más efectivas para evitar riesgos. Los autores del artículo creen que es engañoso atribuir simplemente los errores de la IA a "ilusiones" y que deberían utilizarse términos más precisos para describir este fenómeno, mejorando así la conciencia y la comprensión del público sobre la tecnología de la IA y promoviendo la implementación de leyes y Reglamento completo.
Recientemente, dos equipos de investigación publicaron artículos que atrajeron una amplia atención y afirmaron sin rodeos que el contenido de los productos de inteligencia artificial (IA) generativa puede considerarse básicamente como una "tontería". El documento, titulado "ChatGPT is Nonsense", señala que el desprecio de la IA generativa por la precisión al producir información crea muchos desafíos para los servidores públicos, especialmente los funcionarios que tienen el deber legal de decir la verdad.
Los autores Michael Townsen Hicks, James Humphries y Joe Slater enfatizan que la información errónea generada por la IA generativa no puede describirse simplemente como "mentiras" o "ilusiones". A diferencia de las mentiras que son intencionalmente engañosas, las tonterías se refieren a una forma de expresión a la que no le importa la verdad en un intento de dar una impresión específica. Sostienen que llamar “alucinaciones” a los errores de la IA sólo induce al error al público a pensar que estas máquinas todavía están de alguna manera tratando de comunicar lo que “creen”.
"Llamar a estos errores 'tonterías' en lugar de 'ilusiones' no sólo sería más preciso, sino que también ayudaría a mejorar la comprensión pública de la tecnología", dijeron. Este pasaje destaca la importancia de utilizar términos más precisos para describir los errores de la IA. especialmente en el contexto actual donde la comunicación científica y tecnológica urge mejorar.
Mientras tanto, otro trabajo de investigación sobre modelos de lenguajes grandes (LLM) se centra en el entorno legal y ético de la UE en este tema. La conclusión del artículo es que las leyes y regulaciones actuales sobre IA aún no son lo suficientemente perfectas para prevenir eficazmente el daño causado por las "tonterías" generadas por estas IA. Los autores Sandra Wachter, Brent Mittelstadt y Chris Russell sugieren la introducción de regulaciones similares a las del sector editorial, con énfasis en evitar el "discurso informal" que pueda causar daño social.
Señalan que esta obligación enfatiza que ninguna entidad, pública o privada, debe ser el único árbitro de la verdad. También sugieren que el "discurso aleatorio" de la IA generativa podría convertir la verdad en una cuestión de frecuencia y opinión mayoritaria en lugar de hechos reales.
En definitiva, estos dos artículos revelan conjuntamente los riesgos potenciales de la IA generativa y piden a todos los sectores de la sociedad que presten atención y tomen medidas para mejorar las leyes y regulaciones pertinentes, estandarizar el desarrollo de la tecnología de IA y garantizar que la tecnología de IA pueda servir mejor. sociedad humana.