مع اقتراب الانتخابات الرئاسية الأمريكية لعام 2024 ، يجذب التطبيق والمخاطر المحتملة للذكاء الاصطناعي الانتباه بشكل متزايد. نشرت Openai مؤخرًا منشورًا للمدونة تكشف عن التدابير التي اتخذتها نموذج الذكاء الاصطناعي ChatGpt للحفاظ على الإنصاف أثناء الانتخابات ومنع الإساءة. يسلط هذا المقال الضوء على جهود ChatGPT في رفض توليد صور للسياسيين ، والحفاظ على الحياد السياسي ، ومكافحة نشر المعلومات الضارة ، مما يدل على دور وتعقيد نماذج اللغة الكبيرة في التعامل مع التحديات الواقعية.
مع اقتراب يوم الانتخابات الرئاسية الأمريكية لعام 2024 ، أشار منشور مدونة نشرته Openai يوم الجمعة أن Chatgpt رفض أكثر من 250،000 طلب لإنشاء صور للمرشحين السياسيين قبل شهر من الانتخابات. من بين الطلبات ، من المأمول توليد صور لرئيس الرئيس المنتخب ترامب ، ونائب الرئيس هاريس ، ونائب الرئيس للمرشحين ، والرئيس الحالي بايدن وحاكم ولاية مينيسوتا والتز.
قال Openai في مدونة أن Chatgpt طبق العديد من التدابير الأمنية لرفض توليد صور لأشخاص حقيقيين ، بما في ذلك السياسيين. هذه الحماية مهمة بشكل خاص خلال الانتخابات وهي جزء من الجهود الأوسع للشركة لمنع استخدام أدواتها لأغراض مضللة أو ضارة.
بالإضافة إلى ذلك ، عملت Chatgpt مع جمعية الأمناء الوطنيين (NASS) لتوجيه القضايا المتعلقة بالانتخابات إلى canivote.org للحفاظ على الحياد السياسي. في استفسار عن نتائج الانتخابات ، نصح النظام الأساسي للمستخدمين بزيارة المؤسسات الإخبارية مثل وكالة أسوشيتيد برس ورويترز. في الآونة الأخيرة ، كان على Openai أيضًا حظر عملية التأثير الخارجي تسمى Storm-2015 ، وهي مجموعة حاولت نشر المحتوى السياسي الإيراني المؤثر.
وقالت Openai إنها ستستمر في مراقبة ChatGPT لضمان دقة وأخلاق استجاباتها. هذا العام ، أشادت الشركة أيضًا بإطار سياسة إدارة بايدن حول الأمن القومي وتكنولوجيا الذكاء الاصطناعي.
النقاط الرئيسية:
رفض Chatgpt أكثر من 250،000 طلب لإنشاء صور للمرشحين السياسيين قبل شهر من الانتخابات.
قام Openai بتنفيذ العديد من التدابير الأمنية لمنع توليد صور للأشخاص الحقيقيين ، وخاصة أثناء الانتخابات.
يعمل ChatGPT مع رابطة الأمناء الوطنية للبقاء محايدًا سياسيًا وتوجيه المستخدمين إلى مصادر موثوقة لمعلومات الانتخابات.
تعكس مبادرات Openai مسؤولية وجهود شركات الذكاء الاصطناعى في الاستجابة للتلاعب بالمعلومات ونشر المعلومات الخاطئة أثناء الانتخابات. في المستقبل ، سيكون كيفية تحقيق التوازن بين الراحة والمخاطر المحتملة لتكنولوجيا الذكاء الاصطناعي موضوعًا مهمًا يجب استكشافه بشكل مستمر.