تلقى برنامج Google Gemini AI chatbot مؤخرًا تحديثًا كبيرًا، مضيفًا وظيفة ذاكرة جديدة، تهدف إلى توفير تجربة خدمة أكثر تخصيصًا وذكاءً. يمكن لهذه الميزة أن تتذكر المعلومات الشخصية للمستخدم ومحتوى العمل والتفضيلات لتلبية احتياجات المستخدم بشكل أفضل. سيشرح محرر Downcodes بالتفصيل الخصائص وسيناريوهات التطبيق والمخاطر الأمنية المحتملة لهذه الوظيفة.
أطلق روبوت الدردشة Gemini من Google مؤخرًا تحديثًا مهمًا - وظيفة الذاكرة، التي تسمح لمساعد الذكاء الاصطناعي بتذكر معلومات حياة المستخدم ومحتوى العمل والتفضيلات الشخصية، وبالتالي توفير تجربة خدمة أكثر تخصيصًا.
هذه الميزة الجديدة متاحة حاليًا فقط للمستخدمين الذين يشتركون في خطة Google One AI Premium بقيمة 20 دولارًا شهريًا، وهي مدعومة حاليًا فقط على صفحة الويب ولم يتم إطلاقها بعد على تطبيقات iOS وAndroid. تجدر الإشارة إلى أنه حاليًا يتم دعم الإدخال باللغة الإنجليزية فقط.
على وجه التحديد، يمكن لوظيفة الذاكرة في Gemini أن تساعد المستخدمين على تحقيق مجموعة متنوعة من السيناريوهات العملية. على سبيل المثال، بعد أن يخبر المستخدم برج الجوزاء بالطعام الذي يفضله، في المرة التالية التي يطلب فيها توصيات بشأن المطاعم، يمكن للذكاء الاصطناعي تقديم اقتراحات أكثر استهدافًا بناءً على تفضيلات ذوق المستخدم. كما عرضت جوجل أمثلة عملية أخرى في الواجهة، مثل استخدام لغة بسيطة وتجنب المصطلحات، أعرف برمجة جافا سكريبت فقط، وتضمين النفقات اليومية عند التخطيط للرحلات.
وتؤكد جوجل أنه يمكن للمستخدمين إيقاف تشغيل وظيفة الذاكرة في أي وقت، ولكن يجب حذف محتوى الذاكرة المخزنة يدويًا قبل أن تختفي. والأهم من ذلك، أوضح متحدث باسم جوجل أن معلومات الذاكرة هذه لن يتم استخدامها للتدريب النموذجي، ولن يتم مشاركتها مع الآخرين.
ومع ذلك، فإن سلامة هذا النوع من وظائف الذاكرة تستحق الاهتمام. وفي وقت سابق من هذا العام، اكتشف باحث أمني أن المتسللين يمكنهم زرع ذكريات زائفة في ChatGPT لمواصلة سرقة بيانات المستخدم. يذكرنا هذا الاكتشاف بأن وظيفة الذاكرة في أنظمة الذكاء الاصطناعي تتطلب إجراءات حماية سلامة أكثر صرامة.
يعكس إطلاق هذه الميزة الاتجاه الذي أصبح فيه مساعدو الذكاء الاصطناعي أكثر تخصيصًا وذكاءً، ولكنه يؤدي أيضًا إلى التفكير في حماية خصوصية المستخدم وأمن البيانات. ستكون كيفية ضمان أمان بيانات المستخدم مع توفير الراحة مسألة مهمة يجب على مقدمي خدمات الذكاء الاصطناعي الاستمرار في الاهتمام بها.
يُظهر إطلاق وظيفة ذاكرة Gemini اتجاه تطوير تخصيص الذكاء الاصطناعي، ولكنه يجلب أيضًا تحديات الخصوصية والأمان. تعد Google بعدم استخدام البيانات للتدريب النموذجي أو المشاركة، ولكن الإجراءات الأمنية ستظل بحاجة إلى التعزيز في المستقبل لتحقيق توازن أفضل بين الراحة والأمان.