O chatbot Google Gemini AI recebeu recentemente uma grande atualização, adicionando uma nova função de memória, visando proporcionar uma experiência de atendimento mais personalizada e inteligente. Este recurso pode lembrar as informações pessoais, conteúdo de trabalho e preferências do usuário para melhor atender às necessidades do usuário. O editor de Downcodes explicará detalhadamente as características, cenários de aplicação e potenciais riscos de segurança desta função.
O chatbot Gemini de IA do Google lançou recentemente uma atualização importante - a função de memória, que permite ao assistente de IA lembrar as informações de vida, conteúdo de trabalho e preferências pessoais do usuário, proporcionando assim uma experiência de serviço mais personalizada.
No momento, esse novo recurso está disponível apenas para usuários que assinam o plano Google One AI Premium de US$ 20 por mês e atualmente só é compatível com a página da web e ainda não foi lançado em aplicativos iOS e Android. É importante notar que atualmente apenas a entrada em inglês é suportada.
Especificamente, a função de memória do Gemini pode ajudar os usuários a realizar uma variedade de cenários práticos. Por exemplo, depois que um usuário diz ao Gemini qual comida ele gosta, na próxima vez que ele pedir recomendações de restaurantes, a IA poderá fornecer sugestões mais direcionadas com base nas preferências de gosto do usuário. O Google também mostrou outros exemplos práticos na interface, como usar linguagem simples e evitar jargões, só conheço programação JavaScript, e incluir despesas diárias no planejamento de viagens.
O Google enfatiza que os usuários podem desligar a função de memória a qualquer momento, mas o conteúdo armazenado na memória precisa ser excluído manualmente antes de desaparecer. Mais importante ainda, um porta-voz do Google deixou claro que essas informações de memória não serão usadas para treinamento de modelos, nem serão compartilhadas com outras pessoas.
Contudo, a segurança deste tipo de função de memória merece preocupação. No início deste ano, um pesquisador de segurança descobriu que hackers poderiam plantar memórias falsas no ChatGPT para continuar roubando dados do usuário. Esta descoberta lembra-nos que a função de memória dos sistemas de IA requer medidas de proteção de segurança mais rigorosas.
O lançamento deste recurso reflete a tendência de os assistentes de IA se tornarem mais personalizados e inteligentes, mas também desperta a reflexão sobre a proteção da privacidade do usuário e a segurança dos dados. Como garantir a segurança dos dados do usuário e ao mesmo tempo proporcionar conveniência será uma questão importante à qual os provedores de serviços de IA precisarão continuar a prestar atenção.
O lançamento da função de memória Gemini demonstra a tendência de desenvolvimento da personalização de IA, mas também traz desafios de privacidade e segurança. O Google promete que os dados não serão usados para treinamento ou compartilhamento de modelos, mas as medidas de segurança ainda precisarão ser reforçadas no futuro para equilibrar melhor conveniência e segurança.