قبل سبعين عاما، في معهد ماساتشوستس للتكنولوجيا في الولايات المتحدة، دارت محادثة شهيرة كشفت عن المأزق الذي نعيشه حاليا. في ذلك الوقت، أعلن مارفين مينسك، أحد رواد أبحاث الذكاء الاصطناعي: "نريد أن نمنح الآلات الذكاء ونجعلها واعية بذاتها". وأجاب دوغلاس إنجلبارت، الذي اخترع معالجة النصوص والفأرة: "أنت تريد أن تمنح الآلات الكثير من الأشياء الجيدة إذن ماذا ستفعل للبشرية؟"
وحتى يومنا هذا، يبدو أن هذا قد أصبح "سحابة سوداء" تخيم على كل البشر: من "Terminator" إلى "The Matrix" إلى "I, Robot" و"Westworld"، وصفت أفلام الخيال العلمي التي لا تعد ولا تحصى حالة مثيرة للقلق للغاية. المستقبل - الآلات التي اكتسبت الوعي الذاتي سوف تسيطر بدورها على البشر أو حتى تقضي عليهم. في السنوات الأخيرة، أدى التطور السريع للذكاء الاصطناعي (AI) إلى جعل الكثير من الناس يشعرون بالقلق بشكل متزايد بشأن ما إذا كان الذكاء الاصطناعي سوف يستعبد البشر؟
ليس مجرد "أداة أخرى"
كتاب يوفال هراري الجديد "ما وراء الإنسان العاقل" يحذر تمامًا من هذا ويعتقد اعتقادًا راسخًا أن هذا ممكن جدًا: لقد خلق البشر قوى لا يعرفون كيفية السيطرة عليها، وبمجرد أن تفلت هذه الأشياء الجديدة من سيطرة الإنسان، فإنها بدورها ستستعبدها أو تبيدها الإنسانية. ومن وجهة نظره، فإن الذكاء غير البشري الذي أنتجته شبكات الكمبيوتر قد أدى إلى ظهور أول تقنية في التاريخ يمكنها اتخاذ القرارات بنفسها وخلق أفكار جديدة، والتي قد يكون لها تأثير تخريبي على نظام ونظام المجتمع البشري الحالي.
تأثير تخريبي؟ بالطبع يجب أن يكون هناك. لقد حذر سنشتاين منذ فترة طويلة في كتابه "Network Republic" من أن الإنترنت ليس مجرد تقنية ستتسبب خصائصه في "التصفية التعاونية" و"الاستقطاب الجماعي"، مما يسمح لعدد متزايد من الناس بسماع أنفسهم فقط عمل المجتمع في الأزمات. شرانق المعلومات التي نشاهدها اليوم أكدت ذلك، كلنا نعرف أنه سيء، لكن السؤال ما مدى سوءه؟
ويرى هراري أن تحديات الذكاء الاصطناعي تذهب إلى ما هو أبعد من ذلك، لأنه ليس مجرد "أداة أخرى"، بل لديه القدرة على السيطرة على شبكة المعلومات للتواصل البشري. وبغض النظر عن مدى قوة الأدوات الجديدة في الماضي، فإن قرار استخدامها كان يقع على عاتق البشر، ومع ذلك، فقد غيّر الذكاء الاصطناعي هذا الأمر لأول مرة. وهذا على وجه التحديد هو الضعف القاتل للحضارة الإنسانية: "على الرغم من أن البشر قادرون على إنشاء شبكات تعاون واسعة النطاق للحصول على قوة هائلة، فإن الطريقة التي يتم بها بناء هذه الشبكات تعني أن البشر غالبا ما يكونون غير حكيمين في استخدامهم لهذه القوى، ونتيجة لذلك، لمرة واحدة". إن فشلنا في السيطرة بحكمة على مثل هذه الشبكات يهدد بتدميرنا.
إن ظهور الحضارة الإنسانية يعتمد على التعاون، والتعاون يجب أن يعتمد على تبادل المعلومات، وإلا فلن يكون هناك مجتمع كبير ممكنا. ومن هذا المنظور، فإن جميع الأشكال التنظيمية في التاريخ تعتمد في الغالب على مجموعة من الكلمات التي يلتزم بها الأعضاء بشكل جماعي. وهذه "حقيقة ذاتية مشتركة": فما دام الأعضاء يعتقدون أنها "حقيقية"، فهي صحيحة بالنسبة لهم، والتعاون والثقة يعتمدان جميعاً على هذا الإجماع الضمني.
الآن تكمن المشكلة: لا يوفر الذكاء الاصطناعي الدعم الفني للإدارة المركزية للمعلومات فحسب، بل يمكنه أيضًا إنشاء أفكار جديدة من تلقاء نفسه، ومن خلال التعلم المستقل، يمكن للخوارزمية أن تتعلم أشياء غير مكتوبة في البرنامج، ويمكنها أيضًا ذلك اتخاذ قرارات من تلقاء نفسها. كلما تحدثنا أكثر إلى أجهزة الكمبيوتر وكشفنا عن المزيد من المعلومات، ستصبح برامج الروبوت في نهاية المطاف قادرة على تغذية آرائنا، والتأثير على آرائنا، والتلاعب بالمجتمع البشري مجرد التلاعب بإنسان من أجل الضغط على الزناد.
لتجنب مثل هذا المشهد الرهيب، فإن الشيء الأكثر أهمية هو أن يكون لديك آلية تصحيح ذاتي قوية لتحديد المشكلات وحلها باستمرار. ومع ذلك، كما هو شائع في برامج الكمبيوتر، فإن مراجعة الأخطاء غالبًا ما تؤدي إلى أخطاء جديدة: "على الرغم من أن آلية التصحيح الذاتي تساعد على السعي وراء الحقيقة، إلا أنها ستزيد بشكل كبير من تكلفة الحفاظ على النظام. إن آلية التصحيح الذاتي قوية جدًا كثيرا ما تنشأ الشكوك والخلافات والصراعات والخلافات "قد لا يغير الذكاء الاصطناعي نمط التطور الاجتماعي، لكنه قد يجعل هذا التطور يسير مباشرة في اتجاه خطير.
للوهلة الأولى، نتحدث عن الذكاء الاصطناعي وشبكات المعلومات. في الواقع، القلق هو ما إذا كان النظام الاجتماعي الحالي يمكنه التعامل مع مثل هذا التأثير وكيف. وسلط هراري الضوء على مدى إلحاح الأزمة، لكنه ربما بالغ في حجم الخطر. إنه قلق للغاية من أن "ستارة السيليكون" ستؤدي إلى تقسيم شبكات الكمبيوتر البشرية وإنشاء شرانق معلومات يصعب التواصل مع بعضها البعض. ولكن من ناحية أخرى، في عالم تعددي، أليس من السذاجة أيضًا الاعتقاد بأن "" الدنيا مسطحة" الإيمان؟ من المؤكد أن شرنقة المعلومات تؤدي إلى الإغلاق، ولكنها توفر أيضاً مأوى للثقافات المتنوعة. وإلا فقد نشهد اختفاء عدد كبير من الثقافات المتخصصة. على الرغم من أن هذا النوع من تركيز المعلومات يبدو مباركًا بالتكنولوجيا للوهلة الأولى، إلا أنه مع مرور الوقت، هل يمكن لهذا النوع من العزلة الذاتية أن يتمتع بقوة داخلية أقوى ويصمد في النهاية أمام شبكة مفتوحة نابضة بالحياة؟
هل سيخرج الذكاء الاصطناعي عن السيطرة؟
ولا يمكن إنكار أن تحذيره ضروري بالفعل، خاصة وأن التكنولوجيا غالبا ما تسبق الوعي الاجتماعي، والعديد من الناس غير قادرين على إدراك ما يعنيه الذكاء الاصطناعي في الواقع. قبل ثلاثين عاما، قال عضو الكونجرس الأمريكي إدوارد ماركي: "الخبر السار من واشنطن هو أن الجميع في الكونجرس يدعمون فكرة طريق المعلومات السريع. والخبر السيئ هو أن لا أحد يعرف ما يعنيه ذلك". ويبدو أن هذا الأمر مثير للسخرية غباء السياسيين، ولكن في الواقع، أي شيء جديد يحمل هذه الخاصية. عندما ولدت الطباعة، لم يتخيل الناس أبدًا أنها ستؤدي إلى ظهور عدد لا يحصى من الكتب والمحفوظات واختراع الأوراق النقدية، وأنا شخصيًا أستطيع أن أتخيل ذلك أن أدوات الدردشة الخاصة ببرامج التواصل الاجتماعي تطورت حتى الآن ولديها العديد من الوظائف التي لا يمكننا العيش بدونها.
وبعبارة أخرى، فإن تأثير الأشياء الجديدة يظهر تدريجياً، ولا يستطيع أحد أن يخمن منذ البداية ما هي العواقب الاجتماعية المعقدة والبعيدة المدى التي قد تترتب على ذلك في نهاية المطاف. إن هراري محق في أمر واحد: المفتاح يكمن في آلية التصحيح الذاتي للمجتمع، بدلاً من المبالغة في رد الفعل عندما تكون هناك مشكلة، والرغبة في خنق هذا الاختراع الجديد الخطير في المهد لمنعه من التسبب في كوارث أعظم ولكن في مهده نحن قلقون جدًا من أن التطور الذاتي للذكاء الاصطناعي خارج عن سيطرة الإنسان، لقد أردنا في الأصل الحصول على المستوى A، ولكن انتهى بنا الأمر بالحصول على المستوى B - ومع ذلك، لماذا لا تكون "العواقب غير المقصودة" جيدة؟
إن القلق بشأن ردة الفعل العنيفة في نهاية المطاف من جانب الإبداعات البشرية له تقليد طويل في الثقافة الغربية، وهو ينبع من منطق التعارض الثنائي بين الذات والموضوع. إن "وحش فرانكشتاين" الذي صوره العمل الرائد في الخيال العلمي الحديث يشبه هذه القصة. لا شك أن هذا التخوف ضروري، ولكن هل يعني هذا النوع من "التطور المتحكم فيه" أيضاً أن الحد الأعلى للذكاء البشري سوف يضع سقفاً للتقدم التكنولوجي؟
ويتوقع كيفن كيلي أيضًا في كتابه "خارج نطاق السيطرة: المصير النهائي ونهاية الإنسانية جمعاء" أن البشر قد يفقدون السيطرة على الآلات: "عند إطلاق قوة الحياة في الآلات التي نصنعها، نفقد السيطرة على سيطرتهم. إنهم يكتسبون الوحشية". والحصول على بعض المفاجآت والمفاجآت ثم هناك المعضلة التي يجب على جميع المبدعين مواجهتها: لن يعودوا يمتلكون أكثر إبداعاتهم فخرًا على العكس من ذلك، فهو يعتقد أنه من الضروري التخلي عن بعض السيطرة والسماح للآلات بمحاكاة "التطور الطبيعي" بمفردها: "يمكن للتطور أن يمكّننا من تجاوز قدرتنا على التخطيط؛ ويمكن للتطور أن يصنع أشياء لا يمكننا صنعها؛ ويمكن للتطور أن يحققها". حالة أكثر كمالا؛ يمكن للتطور أن يعتني بالعالم الذي لا نستطيع الاعتناء به، لكن... ثمن التطور هو فقدان السيطرة.
تعلم التعايش مع بعضها البعض
نعم، قد يكون للذكاء الاصطناعي تأثير عميق على النظام الاجتماعي الحالي، لكنه يحتاج إلى استهداف المجتمع نفسه وليس التكنولوجيا، لأن خصائص شبكات الكمبيوتر لا تعتمد في كثير من الأحيان على التكنولوجيا، بل على الشبكات الاجتماعية. وبعبارة صريحة، ما هو نوع المجتمع الذي سيؤدي إلى ظهور أي نوع من شبكات المعلومات وتطبيقات الذكاء الاصطناعي؟ ينبغي لنا أن نكون صريحين وألا نلوم التكنولوجيا.
وهذا لا يعني أننا لا داعي للقلق بشأن خروج الذكاء الاصطناعي عن نطاق السيطرة، لكنه يعني أنه على الأقل في هذه المرحلة، لا يزال تطبيقه وتطويره يعتمد على المجتمع نفسه. وهذا يشبه انقسام الخلايا في أجسامنا، مما يسمح للكائنات الحية بالنمو والتكيف والتعافي والإصلاح، مما يسمح لنا بالبقاء على قيد الحياة. ولكن بمجرد أن يتم اختطاف هذه الآلية من قبل الخلايا السرطانية ويحدث نمو غير طبيعي للخلايا، فإنها ستكون قاتلة لجسم الإنسان. لا نحتاج إلى الحديث عن السرطان، ولا يمكننا الجلوس والاسترخاء، بل نحتاج إلى إيجاد طريقة للتوافق مع الخلايا، والقضاء على الخلايا الطافرة دون الإضرار بالنمو الطبيعي.
وبما أننا لا نستطيع تدمير الذكاء الاصطناعي، ولا نريد أن يتم القضاء عليه بواسطته، فبدلاً من رؤية هذا على أنه صراع من أجل السيطرة، يجب علينا أن نتعلم المزيد عن منطق علم الأحياء ونتعلم التعايش مع بعضنا البعض.