Чат-бот Google Gemini AI недавно получил серьезное обновление, добавив новую функцию памяти, призванную обеспечить более персонализированное и интеллектуальное обслуживание. Эта функция может запоминать личную информацию пользователя, рабочий контент и предпочтения, чтобы лучше удовлетворять потребности пользователя. Редактор Downcodes подробно объяснит характеристики, сценарии применения и потенциальные угрозы безопасности этой функции.
Чат-бот Google с искусственным интеллектом Gemini недавно выпустил важное обновление — функцию памяти, которая позволяет ИИ-помощнику запоминать информацию о жизни пользователя, рабочий контент и личные предпочтения, тем самым обеспечивая более персонализированный опыт обслуживания.
Эта новая функция в настоящее время доступна только пользователям, которые подписались на план Google One AI Premium за 20 долларов в месяц, и в настоящее время поддерживается только на веб-странице и еще не запущена в приложениях iOS и Android. Стоит отметить, что в настоящее время поддерживается только английский ввод.
В частности, функция памяти Gemini может помочь пользователям реализовать множество практических сценариев. Например, после того, как пользователь расскажет Близнецам, какая еда ему нравится, в следующий раз, когда они попросят порекомендовать ресторан, ИИ сможет предоставить более целенаправленные предложения, основанные на вкусовых предпочтениях пользователя. Google также показал другие практические примеры в интерфейсе, такие как использование простого языка и отказ от жаргона, я знаю только программирование на JavaScript и учет ежедневных расходов при планировании поездок.
Google подчеркивает, что пользователи могут отключить функцию памяти в любой момент, но сохраненное содержимое памяти необходимо удалить вручную, прежде чем оно исчезнет. Что еще более важно, представитель Google ясно дал понять, что эта информация из памяти не будет использоваться для обучения моделей и не будет передана другим.
Однако безопасность этого типа функции памяти заслуживает беспокойства. Ранее в этом году исследователь безопасности обнаружил, что хакеры могут внедрить ложные воспоминания в ChatGPT, чтобы продолжить кражу пользовательских данных. Это открытие напоминает нам, что функция памяти систем искусственного интеллекта требует более строгих мер защиты.
Запуск этой функции отражает тенденцию того, что ИИ-помощники становятся более персонализированными и интеллектуальными, но также заставляет задуматься о защите конфиденциальности пользователей и безопасности данных. Как обеспечить безопасность пользовательских данных, обеспечивая при этом удобство, будет важным вопросом, на который поставщики услуг искусственного интеллекта должны продолжать обращать внимание.
Запуск функции памяти Gemini демонстрирует тенденцию развития персонализации ИИ, но также создает проблемы конфиденциальности и безопасности. Google обещает, что данные не будут использоваться для обучения моделей или обмена ими, но меры безопасности все равно необходимо будет усилить в будущем, чтобы лучше сбалансировать удобство и безопасность.