El chatbot Google Gemini AI recibió recientemente una actualización importante, agregando una nueva función de memoria, con el objetivo de brindar una experiencia de servicio más personalizada e inteligente. Esta función puede recordar la información personal del usuario, el contenido de trabajo y las preferencias para satisfacer mejor las necesidades del usuario. El editor de Downcodes explicará en detalle las características, escenarios de aplicación y posibles riesgos de seguridad de esta función.
Gemini, el chatbot de inteligencia artificial de Google, lanzó recientemente una actualización importante: la función de memoria, que permite al asistente de inteligencia artificial recordar la información de la vida del usuario, el contenido del trabajo y las preferencias personales, brindando así una experiencia de servicio más personalizada.
Actualmente, esta nueva función solo está disponible para los usuarios que se suscriben al plan Google One AI Premium de $ 20 por mes, y actualmente solo se admite en la página web y aún no se ha lanzado en aplicaciones de iOS y Android. Vale la pena señalar que actualmente solo se admite la entrada en inglés.
Específicamente, la función de memoria de Gemini puede ayudar a los usuarios a realizar una variedad de escenarios prácticos. Por ejemplo, después de que un usuario le dice a Gemini qué comida le gusta, la próxima vez que solicite recomendaciones de restaurantes, la IA puede proporcionar sugerencias más específicas basadas en las preferencias de sabor del usuario. Google también mostró otros ejemplos prácticos en la interfaz, como usar un lenguaje sencillo y evitar la jerga, solo sé programación en JavaScript e incluir los gastos diarios a la hora de planificar viajes.
Google enfatiza que los usuarios pueden desactivar la función de memoria en cualquier momento, pero el contenido de la memoria almacenada debe eliminarse manualmente antes de que desaparezca. Más importante aún, un portavoz de Google dejó en claro que esta información de la memoria no se utilizará para el entrenamiento de modelos ni se compartirá con otros.
Sin embargo, la seguridad de este tipo de función de memoria merece preocupación. A principios de este año, un investigador de seguridad descubrió que los piratas informáticos podían colocar recuerdos falsos en ChatGPT para seguir robando datos de los usuarios. Este descubrimiento nos recuerda que la función de memoria de los sistemas de IA requiere medidas de protección de seguridad más estrictas.
El lanzamiento de esta función refleja la tendencia de que los asistentes de IA se vuelvan más personalizados e inteligentes, pero también hace pensar en la protección de la privacidad del usuario y la seguridad de los datos. Cómo garantizar la seguridad de los datos de los usuarios y al mismo tiempo ofrecer comodidad será una cuestión importante a la que los proveedores de servicios de IA deberán seguir prestando atención.
El lanzamiento de la función de memoria Gemini demuestra la tendencia de desarrollo de la personalización de la IA, pero también plantea desafíos de privacidad y seguridad. Google promete que los datos no se utilizarán para entrenar o compartir modelos, pero aún será necesario reforzar las medidas de seguridad en el futuro para equilibrar mejor la conveniencia y la seguridad.