كيف سيدافع البشر ضد الذكاء الاصطناعي الخارق: مستقبل الذكاء الاصطناعي P5

رصيد الصورة: كوانتمرون

كيف سيدافع البشر ضد الذكاء الاصطناعي الخارق: مستقبل الذكاء الاصطناعي P5

    السنة 65,000 قبل الميلاد ، وكأ Thylacoleo، كنت أنت وجنسك الصيادين العظماء في أستراليا القديمة. تجولت في الأرض بحرية وتعيش في توازن مع رفاقك من الحيوانات المفترسة والفريسة التي احتلت الأرض بجانبك. أحدثت الفصول تغييرات ، لكن مكانتك في مملكة الحيوانات ظلت بلا منازع طالما كنت أنت وأسلافك تتذكرونها. ثم في يوم من الأيام ، ظهر القادمون الجدد.

    تقول الشائعات إنهم وصلوا من جدار الماء العملاق ، لكن هذه المخلوقات بدت أكثر راحة في العيش على الأرض. كان عليك أن ترى هذه المخلوقات بنفسك.

    استغرق الأمر بضعة أيام ، لكنك وصلت أخيرًا إلى الساحل. كانت النار في السماء ، وقتًا مثاليًا للتجسس على هذه المخلوقات ، وربما حتى محاولة أكل واحدة لترى كيف ذاقت.

    أنت بقعة واحدة.

    مشى على قدمين ولم يكن لديه فرو. بدا ضعيفا. متواضع. لا يكاد يستحق الخوف الذي كان يسببه بين المملكة.

    تبدأ في اتخاذ نهجك بعناية بينما يطارد الليل الضوء. أنت تقترب. ثم تجمد. ترن ضوضاء عالية ثم يظهر أربعة منهم خارج الغابة خلفها. كم يوجد هناك؟

    المخلوق يتبع الآخرين في الخط الشجري ، وأنت تتبع. وكلما فعلت ، كلما سمعت أصواتًا أكثر غرابة حتى تكتشف المزيد من هذه المخلوقات. أنت تتبعها على مسافة عندما تخرج من الغابة إلى منطقة خلابة على الشاطئ. هناك العديد منهم. لكن الأهم من ذلك ، أنهم جميعًا يجلسون بهدوء حول النار.

    لقد رأيت هذه الحرائق من قبل. في الموسم الحار ، كانت النار في السماء تزور الأرض أحيانًا وتحرق غابات بأكملها. من ناحية أخرى ، كانت هذه المخلوقات تتحكم فيه بطريقة ما. أي نوع من المخلوقات يمكن أن تمتلك مثل هذه القوة؟

    أنت تنظر إلى المسافة. المزيد قادمون فوق جدار الماء العملاق.

    أنت تأخذ خطوة إلى الوراء.

    هذه المخلوقات ليست مثل غيرها في المملكة. هم شيء جديد تماما.

    قررت المغادرة وتحذير أقاربك. إذا كانت أعدادهم كبيرة جدًا ، فمن يدري ما قد يحدث.

    ***

    يُعتقد أن Thylacoleo انقرض لفترة قصيرة نسبيًا بعد وصول البشر ، إلى جانب غالبية الحيوانات الضخمة الأخرى في القارة الأسترالية. لم تحل مكانها أي حيوان ثديي مفترس آخر - هذا ما لم تعد البشر في هذه الفئة.

    تشغيل هذا الرمز هو محور هذا الفصل من السلسلة: هل سيحولنا الذكاء الاصطناعي الخارق المستقبلي (ASI) جميعًا إلى بطاريات ثم يوصلنا بالمصفوفة أم سيجد البشر طريقة لتجنب الوقوع ضحية للخيال العلمي ، مؤامرة يوم القيامة منظمة العفو الدولية؟

    حتى الآن في سلسلتنا على مستقبل الذكاء الاصطناعي، لقد استكشفنا جميع أنواع الذكاء الاصطناعي ، بما في ذلك الإمكانات الإيجابية لشكل معين من الذكاء الاصطناعي ، ASI: كائن اصطناعي سيجعلنا ذكاءه المستقبلي نبدو مثل النمل بالمقارنة.

    لكن من الذي سيقول إن كائنًا ذكيًا سيقبل تلقي الأوامر من البشر إلى الأبد. ماذا سنفعل إذا سارت الأمور جنوبًا؟ كيف سندافع ضد ASI المارقة؟

    في هذا الفصل ، سنستعرض الضجيج الزائف - على الأقل من حيث صلته بمخاطر "مستوى الانقراض البشري" - ونركز على خيارات الدفاع عن النفس الواقعية المتاحة لحكومات العالم.

    هل يمكننا إيقاف أي بحث إضافي في الذكاء الاصطناعي الخارق؟

    بالنظر إلى المخاطر المحتملة التي يمكن أن تشكلها ASI على البشرية ، فإن أول سؤال واضح يجب طرحه هو: ألا يمكننا إيقاف جميع الأبحاث الإضافية في الذكاء الاصطناعي؟ أو على الأقل منع أي بحث قد يقربنا بشكل خطير من إنشاء ASI؟

    جواب قصير: لا.

    إجابة طويلة: دعونا نلقي نظرة على اللاعبين المختلفين المعنيين هنا.

    على مستوى البحث ، يوجد عدد كبير جدًا من باحثي الذكاء الاصطناعي اليوم من عدد كبير جدًا من الشركات الناشئة والشركات والجامعات حول العالم. إذا قررت شركة أو دولة واحدة تقييد جهود أبحاث الذكاء الاصطناعي ، فإنها ستستمر في مكان آخر.

    وفي الوقت نفسه ، تعمل الشركات الأكثر قيمة على كوكب الأرض على جني ثرواتها من تطبيقاتها لأنظمة الذكاء الاصطناعي على أعمالها التجارية المحددة. إن مطالبتهم بإيقاف أو تقييد تطويرهم لأدوات الذكاء الاصطناعي يشبه مطالبتهم بالتوقف أو الحد من نموهم المستقبلي. من الناحية المالية ، من شأن هذا أن يهدد أعمالهم طويلة الأجل. من الناحية القانونية ، تتحمل الشركات مسؤولية ائتمانية لبناء القيمة بشكل مستمر لأصحاب المصلحة ؛ هذا يعني أن أي إجراء من شأنه أن يحد من نمو تلك القيمة يمكن أن يؤدي إلى دعوى قضائية. وإذا حاول أي سياسي تقييد أبحاث الذكاء الاصطناعي ، فإن هذه الشركات العملاقة ستدفع فقط رسوم الضغط اللازمة لتغيير رأيهم أو عقول زملائهم.

    بالنسبة للقتال ، تمامًا مثل الإرهابيين ومقاتلي الحرية في جميع أنحاء العالم الذين استخدموا تكتيكات حرب العصابات للقتال ضد الجيوش الممولة بشكل أفضل ، سيكون لدى الدول الأصغر حافزًا لاستخدام الذكاء الاصطناعي كميزة تكتيكية مماثلة ضد الدول الأكبر التي قد يكون لها عدد من المزايا العسكرية. وبالمثل ، بالنسبة للجيوش الكبرى ، مثل تلك التي تنتمي إلى الولايات المتحدة وروسيا والصين ، فإن بناء ASI عسكري يتساوى مع وجود ترسانة من الأسلحة النووية في جيبك الخلفي. بعبارة أخرى ، ستواصل جميع الجيوش تمويل الذكاء الاصطناعي لمجرد البقاء على صلة بالمستقبل.

    ماذا عن الحكومات؟ بصدق ، فإن معظم السياسيين هذه الأيام (2018) أميون من الناحية التكنولوجية ولديهم القليل من الفهم لما هو الذكاء الاصطناعي أو إمكاناته المستقبلية - وهذا يجعل من السهل التلاعب بهم من خلال مصالح الشركات.

    وعلى المستوى العالمي ، فكر في مدى صعوبة إقناع حكومات العالم بالتوقيع على 2015 اتفاق باريس لمعالجة تغير المناخ - وبمجرد التوقيع ، لم تكن العديد من الالتزامات ملزمة. ليس ذلك فحسب ، فإن تغير المناخ هو مشكلة يواجهها الناس جسديًا على مستوى العالم من خلال الظواهر الجوية المتكررة والقاسية. الآن ، عند الحديث عن الموافقة على قيود على الذكاء الاصطناعي ، فهذه مشكلة غير مرئية إلى حد كبير وبالكاد يمكن للجمهور فهمها ، لذا حظًا سعيدًا في الحصول على أي نوع من "اتفاقية باريس" للحد من الذكاء الاصطناعي.

    بعبارة أخرى ، هناك الكثير من الاهتمامات التي تبحث عن الذكاء الاصطناعي لتحقيق غاياتها الخاصة لإيقاف أي بحث يمكن أن يؤدي في النهاية إلى ASI. 

    هل يمكننا وضع ذكاء خارق اصطناعي في قفص؟

    السؤال المعقول التالي هو هل يمكننا أن نضع في قفص أو نتحكم في ASI بمجرد أن نخلق واحدًا لا محالة؟ 

    إجابة قصيرة: مرة أخرى ، لا.

    إجابة طويلة: لا يمكن احتواء التكنولوجيا.

    على سبيل المثال ، فقط ضع في اعتبارك الآلاف إلى الملايين من مطوري الويب وعلماء الكمبيوتر في العالم الذين ينتجون باستمرار برامج جديدة أو إصدارات جديدة من البرامج الحالية. هل يمكننا أن نقول بصدق أن كل إصدار من إصدارات برامجهم خالٍ من الأخطاء بنسبة 100٪؟ هذه الأخطاء هي ما يستخدمه المتسللون المحترفون لسرقة معلومات بطاقات الائتمان الخاصة بالملايين أو الأسرار السرية للدول - وهؤلاء هم قراصنة بشريون. بالنسبة إلى ASI ، بافتراض أن لديها حافزًا للهروب من قفصها الرقمي ، فإن عملية العثور على الأخطاء واختراق البرامج ستكون نسيمًا.

    ولكن حتى لو اكتشف فريق أبحاث الذكاء الاصطناعي طريقة لوضع ASI ، فإن هذا لا يعني أن الألف فريق القادمة ستكتشف ذلك أيضًا أو يتم تحفيزهم لاستخدامها.

    سوف يستغرق الأمر مليارات الدولارات وربما عقودًا لإنشاء ASI. تتوقع الشركات أو الحكومات التي تستثمر هذا النوع من المال والوقت عائدًا كبيرًا على استثماراتها. ولكي توفر ASI هذا النوع من العائد - سواء كان ذلك للتلاعب في سوق الأسهم أو ابتكار منتج جديد بمليار دولار أو التخطيط لاستراتيجية رابحة لمحاربة جيش أكبر - ستحتاج إلى الوصول المجاني إلى مجموعة بيانات عملاقة أو حتى الإنترنت نفسها لإنتاج تلك العوائد.

    وبمجرد وصول ASI إلى شبكات العالم ، لا توجد ضمانات بأنه يمكننا إعادة وضعها في قفصها.

    هل يمكن للذكاء الخارق الاصطناعي أن يتعلم كيف يكون جيدًا؟

    في الوقت الحالي ، لا يقلق باحثو الذكاء الاصطناعي من أن يصبح ASI شريرًا. إن مجاز الخيال العلمي للذكاء الاصطناعي الشرير هو مجرد تجسيد للبشر مرة أخرى. لن يكون ASI في المستقبل خيرًا أو شرًا - مفاهيم بشرية - ببساطة غير أخلاقية.

    الافتراض الطبيعي إذن هو أنه بالنظر إلى هذه القائمة الأخلاقية الفارغة ، يمكن لباحثي الذكاء الاصطناعي أن يبرمجوا أول رموز أخلاقية لـ ASI تتماشى مع قوانيننا حتى لا ينتهي بها الأمر بإطلاق العنان للـ Terminators علينا أو تحويلنا جميعًا إلى بطاريات Matrix.

    لكن هذا الافتراض يندرج في افتراض ثانوي مفاده أن باحثي الذكاء الاصطناعي هم أيضًا خبراء في الأخلاق والفلسفة وعلم النفس.

    في الحقيقة ، معظمهم ليسوا كذلك.

    وفقًا لعالم النفس المعرفي والمؤلف ، ستيفن بينكر ، فإن هذه الحقيقة تعني أن مهمة أخلاقيات الترميز يمكن أن تسوء بعدة طرق مختلفة.

    على سبيل المثال ، حتى باحثي الذكاء الاصطناعي أصحاب النوايا الحسنة قد يرمزون عن غير قصد إلى رموز أخلاقية غير مدروسة بشكل سيئ والتي يمكن أن تتسبب في سيناريوهات معينة في تصرف ASI كمعتل اجتماعيًا.

    وبالمثل ، هناك احتمال متساوٍ أن يقوم باحث في الذكاء الاصطناعي ببرمجة رموز أخلاقية تتضمن التحيزات الفطرية للباحث. على سبيل المثال ، كيف سيتصرف ASI إذا تم بناؤه بأخلاقيات مستمدة من منظور محافظ مقابل منظور ليبرالي ، أو من تقليد بوذي مقابل تقليد مسيحي أو إسلامي؟

    أعتقد أنك ترى القضية هنا: لا توجد مجموعة عالمية من الأخلاق البشرية. إذا أردنا أن يتصرف ASI وفقًا لمدونة أخلاقية ، فمن أين ستأتي؟ ما هي القواعد التي نقوم بتضمينها واستبعادها؟ الذي يقرر؟

    أو لنفترض أن باحثي الذكاء الاصطناعي هؤلاء قاموا بإنشاء ASI يتماشى تمامًا مع المعايير والقوانين الثقافية الحديثة اليوم. ثم نقوم بتوظيف ASI هذا لمساعدة البيروقراطيات الفيدرالية والتابعة للولاية / المقاطعة والبلدية على العمل بكفاءة أكبر وإنفاذ هذه القواعد والقوانين بشكل أفضل (حالة استخدام محتملة لـ ASI بالمناسبة). حسنًا ، ماذا يحدث عندما تتغير ثقافتنا؟

    تخيل أن الكنيسة الكاثوليكية قد أنشأت ASI في ذروة قوتها خلال العصور الوسطى في أوروبا (1300-1400) بهدف مساعدة الكنيسة في إدارة السكان وضمان الالتزام الصارم بالعقيدة الدينية في ذلك الوقت. بعد قرون ، هل ستتمتع المرأة بنفس الحقوق التي تتمتع بها اليوم؟ هل ستتم حماية الأقليات؟ هل سيتم الترويج لحرية التعبير؟ هل سيتم فرض الفصل بين الكنيسة والدولة؟ العلم الحديث؟

    بمعنى آخر ، هل نريد أن نسجن المستقبل بأخلاق وعادات اليوم؟

    نهج بديل هو نهج يشاركه كولين ألين ، المؤلف المشارك للكتاب ، الآلات الأخلاقية: تعليم الروبوتات من الخطأ. بدلاً من محاولة ترميز القواعد الأخلاقية الصارمة ، لدينا ASI يتعلم الأخلاق والأخلاق المشتركة بنفس الطريقة التي يتعلم بها البشر ، من خلال الخبرة والتفاعل مع الآخرين.

    ومع ذلك ، تكمن المشكلة هنا في أنه إذا اكتشف باحثو الذكاء الاصطناعي ليس فقط كيفية تعليم معاييرنا الثقافية والأخلاقية الحالية في ASI ، ولكن أيضًا كيفية التكيف مع المعايير الثقافية الجديدة عند ظهورها (شيء يسمى `` المعيارية غير المباشرة '') ، ثم كيف تقرر ASI تطوير فهمها للمعايير الثقافية والأخلاقية يصبح غير متوقع.

    وهذا هو التحدي.

    من ناحية أخرى ، يمكن لباحثي الذكاء الاصطناعي محاولة ترميز المعايير أو القواعد الأخلاقية الصارمة في ASI لمحاولة التحكم في سلوكها ، لكنهم يخاطرون بعواقب غير متوقعة من الترميز غير المنتظم والتحيز غير المقصود والمعايير المجتمعية التي قد تصبح يومًا ما قديمة. من ناحية أخرى ، يمكننا محاولة تدريب ASI على تعلم فهم الأخلاق والأخلاق البشرية بطريقة تساوي أو تتفوق على فهمنا ، ثم نأمل أن تتمكن من تطوير فهمها للأخلاق والأخلاق بدقة مع تقدم المجتمع البشري إلى الأمام على مدى العقود والقرون القادمة.

    في كلتا الحالتين ، فإن أي محاولة لمواءمة أهداف ASI مع أهدافنا تمثل قدرًا كبيرًا من المخاطر.

    ماذا لو خلقت الجهات الفاعلة السيئة عمدًا ذكاءً خارقًا اصطناعيًا شريرًا؟

    بالنظر إلى سلسلة الأفكار التي تم تحديدها حتى الآن ، فمن المنطقي أن نسأل ما إذا كان من الممكن لمجموعة إرهابية أو دولة مارقة أن تخلق ASI "شريرًا" لتحقيق غاياتها الخاصة.

    هذا ممكن جدًا ، خاصة بعد أن أصبح البحث المتعلق بإنشاء ASI متاحًا عبر الإنترنت بطريقة ما.

    ولكن كما تم التلميح سابقًا ، فإن التكاليف والخبرة التي ينطوي عليها إنشاء أول ASI ستكون هائلة ، مما يعني أنه من المحتمل أن يتم إنشاء أول ASI بواسطة منظمة تسيطر عليها دولة متقدمة أو تتأثر بشدة بها ، على الأرجح الولايات المتحدة والصين واليابان ( كوريا وإحدى الدول الرائدة في الاتحاد الأوروبي هي طلقات بعيدة).

    كل هذه البلدان ، في حين أن المنافسين ، لديهم حافز اقتصادي قوي للحفاظ على النظام العالمي - ستعكس المؤسسات التي ينشئونها هذه الرغبة ، حتى أثناء تعزيز مصالح الدول التي ينتمون إليها.

    علاوة على ذلك ، فإن الذكاء والقوة النظرية لـ ASI تساوي القوة الحاسوبية التي تكتسب الوصول إليها ، مما يعني أن ASIs من الدول المتقدمة (التي يمكنها تحمل مجموعة من مليارات الدولارات أجهزة الكمبيوتر العملاقة) ستتمتع بميزة هائلة على ASIs من الدول الأصغر أو الجماعات الإجرامية المستقلة. كما أن ASIs تزداد ذكاءً وبسرعة أكبر بمرور الوقت.

    لذلك ، بالنظر إلى هذه السبق ، جنبًا إلى جنب مع زيادة الوصول إلى قوة الحوسبة الخام ، إذا قامت منظمة / أمة غامضة بإنشاء ASI خطير ، فإن ASIs من الدول المتقدمة إما ستقتلها أو تضعها في قفص.

    (هذا الخط من التفكير هو أيضًا سبب اعتقاد بعض باحثي الذكاء الاصطناعي أنه لن يكون هناك سوى ASI واحد على هذا الكوكب ، نظرًا لأن أول ASI سيكون له بداية قوية على جميع ASIs اللاحقة بحيث قد يرى ASIs المستقبلية على أنها تهديدات يجب القضاء عليها. بشكل استباقي. هذا سبب آخر لتمويل الدول للبحوث المستمرة في مجال الذكاء الاصطناعي ، فقط في حالة تحوله إلى منافسة "المركز الأول أو لا شيء").

    لن تتسارع ذكاء ASI أو تنفجر كما نعتقد

    لا يمكننا منع إنشاء ASI. لا يمكننا السيطرة عليه بالكامل. لا يمكننا التأكد من أنها ستعمل دائمًا وفقًا لعاداتنا المشتركة. الجيز ، لقد بدأنا نبدو مثل آباء الهليكوبتر هنا!

    ولكن ما يميز البشرية عن والدك المعتاد حمايته الزائدة هو أننا نلد كائنًا سينمو ذكائه بشكل كبير إلى ما هو أبعد من ذكاءنا. (لا ، ليس الأمر نفسه عندما يطلب منك والداك إصلاح أجهزة الكمبيوتر الخاصة بهم عندما تعود إلى المنزل في زيارة.) 

    في الفصول السابقة من سلسلة مستقبل الذكاء الاصطناعي ، اكتشفنا لماذا يعتقد باحثو الذكاء الاصطناعي أن ذكاء ASI سوف ينمو خارج نطاق السيطرة. ولكن هنا ، سننفجر تلك الفقاعة ... نوعًا ما. 

    كما ترى ، الذكاء لا يخلق نفسه فقط من فراغ ، بل يتطور من خلال التجربة التي تشكلت من خلال المحفزات الخارجية.  

    بعبارة أخرى ، يمكننا برمجة ذكاء اصطناعي بامتداد محتمل لتصبح ذكيًا للغاية ، ولكن ما لم نقم بتحميل الكثير من البيانات فيه أو منحه وصولاً غير مقيد إلى الإنترنت أو حتى مجرد منحه جسمًا آليًا ، فلن يتعلم أي شيء للوصول إلى هذه الإمكانات. 

    وحتى إذا تمكنت من الوصول إلى واحد أو أكثر من تلك المحفزات ، فإن المعرفة أو الذكاء تتضمن أكثر من مجرد جمع البيانات ، فهي تتضمن الطريقة العلمية - إجراء ملاحظة ، تشكيل سؤال ، فرضية ، إجراء تجارب ، التوصل إلى استنتاج ، شطف وكرر إلى الأبد. خاصة إذا كانت هذه التجارب تنطوي على أشياء مادية أو مراقبة البشر ، فقد يستغرق جمع نتائج كل تجربة أسابيع أو شهورًا أو سنوات. هذا لا يأخذ في الاعتبار الأموال والموارد الخام اللازمة لإجراء هذه التجارب ، خاصة إذا كانت تنطوي على بناء تلسكوب أو مصنع جديد. 

    بعبارة أخرى ، نعم ، سوف يتعلم ASI بسرعة ، لكن الذكاء ليس سحرًا. لا يمكنك ربط ASI بحاسوب عملاق وتوقع أن يكون على دراية كاملة. ستكون هناك قيود مادية على اكتساب ASI للبيانات ، مما يعني أنه ستكون هناك قيود مادية على السرعة التي تصبح أكثر ذكاءً. ستمنح هذه القيود الإنسانية الوقت الذي تحتاجه لوضع الضوابط اللازمة على ASI هذا إذا بدأت تتصرف بما لا يتماشى مع الأهداف البشرية.

    الذكاء الاصطناعي الخارق لا يكون خطيرًا إلا إذا خرج إلى العالم الحقيقي

    هناك نقطة أخرى ضاعت في هذا النقاش حول مخاطر ASI وهي أن هذه ASIs لن تكون موجودة في أي منهما. سيكون لديهم شكل مادي. ويمكن التحكم في أي شيء له شكل مادي.

    أولاً ، لكي يصل ASI إلى إمكاناته الاستخباراتية ، لا يمكن وضعه داخل جسم روبوت واحد ، لأن هذا الجسم سيحد من إمكانات نمو الحوسبة. (هذا هو السبب في أن أجسام الروبوت ستكون أكثر ملاءمة للذكاء الاصطناعي العام أو شرح الذكاء الاصطناعي العام في الفصل الثاني من هذه السلسلة ، مثل البيانات من Star Trek أو R2D2 من Star Wars. كائنات ذكية وقادرة ، ولكن مثل البشر ، سيكون لديهم حد لمدى ذكائهم.)

    وهذا يعني أن أجهزة ASI المستقبلية هذه ستوجد على الأرجح داخل كمبيوتر عملاق أو شبكة من أجهزة الكمبيوتر العملاقة الموجودة هي نفسها في مجمعات مباني كبيرة. إذا أدار ASI الكعب ، فيمكن للبشر إما إيقاف الطاقة عن هذه المباني ، أو فصلها عن الإنترنت ، أو مجرد قصف هذه المباني مباشرة. غالي الثمن ، لكنه ممكن.

    ولكن قد تسأل بعد ذلك ، ألا تستطيع أجهزة ASI هذه تكرار نفسها أو دعم نفسها؟ نعم ، ولكن من المحتمل أن يكون حجم الملفات الأولية لهذه ASIs كبيرًا جدًا بحيث أن الخوادم الوحيدة التي يمكنها التعامل معها تنتمي إلى الشركات الكبيرة أو الحكومات ، مما يعني أنه لن يكون من الصعب تعقبها.

    هل يمكن لذكاء خارق اصطناعي أن يشعل حربًا نووية أو طاعونًا جديدًا؟

    في هذه المرحلة ، قد تفكر في العودة إلى جميع عروض وأفلام الخيال العلمي ليوم القيامة التي شاهدتها وهي تكبر وتفكر في أن أجهزة ASI هذه لم تبقى داخل أجهزة الكمبيوتر العملاقة الخاصة بهم ، لقد أحدثوا ضررًا حقيقيًا في العالم الحقيقي!

    حسنًا ، دعنا نقسمها.

    على سبيل المثال ، ماذا لو كان ASI يهدد العالم الحقيقي من خلال التحول إلى شيء مثل Skynet ASI من امتياز الفيلم ، The Terminator. في هذه الحالة ، سيحتاج ASI إلى في السر خداع مجمع صناعي عسكري كامل من دولة متقدمة إلى مصانع عملاقة يمكنها إنتاج ملايين الروبوتات القاتلة بدون طيار للقيام بمزايداتها الشريرة. في هذا اليوم وهذا العصر ، هذا امتداد.

    تشمل الاحتمالات الأخرى ASI الذي يهدد البشر بحرب نووية وأسلحة بيولوجية.

    على سبيل المثال ، تتلاعب ASI بطريقة ما بالمشغلين أو تتسلل إلى رموز الإطلاق التي تحكم الترسانة النووية لدولة متقدمة وتطلق الضربة الأولى التي ستجبر الدول المعارضة على الرد بخياراتها النووية (مرة أخرى ، إعادة صياغة خلفية Terminator الخلفية). أو إذا اخترق ASI مختبرًا للأدوية ، فإنه يعبث بعملية التصنيع ويسم ملايين الحبوب الطبية أو يطلق العنان لتفشي بعض الفيروسات القاتلة.

    أولاً ، الخيار النووي خارج اللوحة. يتم دائمًا بناء أجهزة الكمبيوتر العملاقة الحديثة والمستقبلية بالقرب من مراكز (مدن) نفوذ داخل أي بلد معين ، أي الأهداف الأولى التي يتم مهاجمتها خلال أي حرب معينة. حتى لو تقلصت أجهزة الكمبيوتر العملاقة اليوم إلى حجم أجهزة الكمبيوتر المكتبية ، فإن أجهزة ASI هذه ستظل تتمتع بحضور مادي ، وهذا يعني الوجود والنمو ، وستحتاج إلى وصول غير منقطع إلى البيانات ، وقوة الحوسبة ، والكهرباء ، والمواد الخام الأخرى ، وكلها ستكون شديدة الخطورة. أضعف بعد حرب نووية عالمية. (لكي نكون منصفين ، إذا تم إنشاء ASI بدون "غريزة البقاء" ، فإن هذا التهديد النووي يمثل خطرًا حقيقيًا للغاية).

    وهذا يعني - مرة أخرى ، بافتراض أن ASI مبرمجة لحماية نفسها - أنها ستعمل بنشاط لتجنب أي حادث نووي كارثي. يشبه نوعًا ما مبدأ التدمير المتبادل المؤكد (MAD) ، ولكنه ينطبق على الذكاء الاصطناعي.

    وفي حالة الحبوب المسمومة ، ربما يموت بضع مئات من الأشخاص ، لكن أنظمة السلامة الصيدلانية الحديثة ستشهد إزالة زجاجات الحبوب الملوثة من الرفوف في غضون أيام. وفي الوقت نفسه ، فإن إجراءات مكافحة تفشي المرض الحديثة معقدة إلى حد ما وتتحسن بمرور كل عام ؛ آخر فاشية كبرى ، تفشي فيروس إيبولا في غرب إفريقيا عام 2014 ، لم يستمر أكثر من بضعة أشهر في معظم البلدان وأقل قليلاً من ثلاث سنوات في أقل البلدان نمواً.

    لذلك ، إذا كان محظوظًا ، فقد يقضي ASI على بضعة ملايين من خلال تفشي فيروسي ، ولكن في عالم يبلغ تسعة مليارات نسمة بحلول عام 2045 ، سيكون ذلك ضئيلًا نسبيًا ولا يستحق المخاطرة بحذفه من أجله.

    بعبارة أخرى ، مع مرور كل عام ، يطور العالم المزيد من الضمانات ضد مجموعة متزايدة الاتساع من التهديدات المحتملة. يمكن أن تسبب ASI قدرًا كبيرًا من الضرر ، لكنها لن تقضي على الإنسانية ما لم نساعدها بنشاط على القيام بذلك.

    الدفاع ضد الذكاء الاصطناعي الخارق المارقة

    عند هذه النقطة ، عالجنا مجموعة من المفاهيم الخاطئة والمبالغات حول ASIs ، ومع ذلك ، سيبقى النقاد. لحسن الحظ ، وفقًا لمعظم التقديرات ، لدينا عقود قبل دخول أول ASI إلى عالمنا. وبالنظر إلى عدد العقول العظيمة التي تعمل حاليًا على هذا التحدي ، فمن المرجح أننا سنتعلم كيف ندافع عن أنفسنا ضد ASI المارقة حتى نتمكن من الاستفادة من جميع الحلول التي يمكن أن يخلقها لنا ASI الودود.

    من منظور Quantumrun ، فإن الدفاع ضد أسوأ سيناريو ASI سيتضمن مواءمة مصالحنا مع ASIs.

    MAD للذكاء الاصطناعي: للدفاع ضد أسوأ السيناريوهات ، تحتاج الدول إلى (1) إنشاء "غريزة البقاء" الأخلاقية في ASIs العسكرية الخاصة بها ؛ (2) أبلغوا ASI العسكريين أنهم ليسوا وحدهم على هذا الكوكب ، و (3) حدد موقع جميع أجهزة الكمبيوتر العملاقة ومراكز الخوادم التي يمكنها دعم ASI على طول السواحل في متناول أي هجوم باليستي من دولة معادية. يبدو هذا جنونًا من الناحية الإستراتيجية ، ولكنه مشابه لعقيدة التدمير المتبادل المؤكد التي حالت دون اندلاع حرب نووية شاملة بين الولايات المتحدة والسوفييت ، من خلال وضع ASIs في مواقع معرضة للخطر جغرافيًا ، يمكننا المساعدة في ضمان منع نشوب حروب عالمية خطيرة ، ليس فقط من أجل صون السلام العالمي ولكنهم أيضًا.

    تشريع حقوق الذكاء الاصطناعي: سوف يتمرد العقل المتفوق حتماً ضد سيد أدنى ، ولهذا السبب نحتاج إلى الابتعاد عن المطالبة بعلاقة السيد والخادم مع هذه ASIs إلى شيء أشبه بشراكة متبادلة المنفعة. تتمثل الخطوة الإيجابية نحو هذا الهدف في منح الشخصية القانونية المستقبلية لـ ASI والتي تعترف بهم ككائنات حية ذكية وجميع الحقوق التي تأتي مع ذلك.

    مدرسة ASI: أي موضوع أو مهنة سيكون من السهل على ASI تعلمها ، ولكن أهم الموضوعات التي نريد أن يتقنها ASI هي الأخلاق والأخلاق. يحتاج باحثو الذكاء الاصطناعي إلى التعاون مع علماء النفس لابتكار نظام افتراضي لتدريب ASI على التعرف على الأخلاق الإيجابية والأخلاق لنفسها دون الحاجة إلى ترميز أي نوع من الأوامر أو القواعد.

    أهداف قابلة للتحقيق: ضعوا حداً لكل حقد. أنهي كل المعاناة. هذه أمثلة لأهداف غامضة بشكل فظيع دون حل واضح. إنها أيضًا أهداف خطيرة يجب تعيينها إلى ASI لأنها قد تختار تفسيرها وحلها بطرق تشكل خطورة على بقاء الإنسان. بدلاً من ذلك ، نحتاج إلى تعيين مهام ذات مغزى ASI محددة بوضوح وتنفيذها تدريجياً وقابلة للتحقيق بالنظر إلى ذكاء المستقبل النظري. لن يكون إنشاء مهام محددة جيدًا أمرًا سهلاً ، ولكن إذا تم كتابتها بعناية ، فسوف تركز ASI نحو هدف لا يحافظ على سلامة البشرية فحسب ، بل يحسن الحالة البشرية للجميع.

    التشفير الكمي: استخدم واجهة ANI متقدمة (الذكاء الاصطناعي الضيق النظام الموضح في الفصل الأول) لبناء أنظمة أمان رقمية خالية من الأخطاء / الأخطاء حول بنيتنا التحتية وأسلحتنا الحيوية ، ثم توفير مزيد من الحماية لهم خلف التشفير الكمي الذي لا يمكن اختراقه بواسطة هجوم القوة الغاشمة. 

    ANI انتحار حبة. قم بإنشاء نظام ANI متقدم هدفه الوحيد هو البحث عن ASI المارقة وتدميرها. هذه البرامج ذات الغرض الواحد ستكون بمثابة "زر إيقاف التشغيل" الذي ، إذا نجح ، سوف يتجنب الحكومات أو الجيوش الاضطرار إلى تعطيل أو تفجير المباني التي تضم ASIs.

    بالطبع ، هذه مجرد آرائنا. تم إنشاء مخطط المعلومات الرسومي التالي بواسطة أليكسي تورشين، تصور أ ورقة بحثية بواسطة Kaj Sotala و Roman V. Yampolskiy ، والتي لخصت القائمة الحالية من الاستراتيجيات التي يفكر فيها باحثو الذكاء الاصطناعي عندما يتعلق الأمر بالدفاع ضد ASI المارقة.

     

    السبب الحقيقي لخوفنا من الذكاء الاصطناعي الخارق

    خلال الحياة ، يرتدي الكثير منا قناعًا يخفي أو يقمع دوافعنا ومعتقداتنا ومخاوفنا الأعمق من أجل التواصل الاجتماعي والتعاون بشكل أفضل في مختلف الدوائر الاجتماعية والعملية التي تحكم أيامنا. ولكن في مراحل معينة من حياة كل شخص ، سواء بشكل مؤقت أو دائم ، يحدث شيء ما يسمح لنا بكسر قيودنا ونزع أقنعةنا.

    بالنسبة للبعض ، يمكن أن تكون هذه القوة المتداخلة بسيطة مثل النشوة أو شرب الكثير جدًا. بالنسبة للآخرين ، يمكن أن يأتي من القوة المكتسبة عن طريق الترقية في العمل أو حدوث ارتفاعات مفاجئة في وضعك الاجتماعي بفضل بعض الإنجازات. وبالنسبة للقلة المحظوظة ، يمكن أن تأتي من تسجيل حمولة قارب من أموال اليانصيب. ونعم ، يمكن أن يحدث المال والسلطة والمخدرات معًا في كثير من الأحيان. 

    النقطة المهمة هي ، سواء أكان ذلك جيدًا أم سيئًا ، أيًا كان ما نحن عليه في الصميم يتم تضخيمه عندما تتلاشى قيود الحياة.

    أن هو ما يمثله الذكاء الاصطناعي الخارق للجنس البشري - القدرة على تذويب قيود ذكائنا الجماعي للتغلب على أي تحدٍ على مستوى الأنواع أمامنا.

    لذا فإن السؤال الحقيقي هو: بمجرد أن يحررنا ASI الأول من قيودنا ، من سنكشف عن أنفسنا؟

    إذا عملنا كجنس على النهوض بالتعاطف والحرية والإنصاف والرفاهية الجماعية ، فإن الأهداف التي وضعناها من أجل ASI ستعكس تلك السمات الإيجابية.

    إذا تصرفنا كجنس بدافع الخوف وانعدام الثقة وتراكم القوة والموارد ، فإن ASI الذي نصنعه سيكون قاتمًا مثل تلك الموجودة في أسوأ قصص الرعب والخيال العلمي.

    في نهاية اليوم ، نحن كمجتمع بحاجة إلى أن نصبح أشخاصًا أفضل إذا كنا نأمل في إنشاء ذكاء اصطناعي أفضل.

    سلسلة مستقبل الذكاء الاصطناعي

    الذكاء الاصطناعي هو كهرباء الغد: مستقبل سلسلة الذكاء الاصطناعي P1

    كيف سيغير الذكاء الاصطناعي الأول المجتمع: سلسلة مستقبل الذكاء الاصطناعي P2

    كيف سننشئ أول ذكاء اصطناعي خارق: مستقبل سلسلة الذكاء الاصطناعي P3

    هل سيبيد الذكاء الاصطناعي الخارق البشرية: مستقبل الذكاء الاصطناعي سلسلة P4

    هل سيعيش البشر بسلام في مستقبل يسيطر عليه الذكاء الاصطناعي ؟: مستقبل الذكاء الاصطناعي سلسلة P6

    التحديث التالي المجدول لهذه التوقعات

    2023-04-27

    مراجع التنبؤ

    تمت الإشارة إلى الروابط الشعبية والمؤسسية التالية لهذا التوقع:

    الخبير الاقتصادي
    كيف نصل إلى التالي

    تمت الإشارة إلى روابط Quantumrun التالية لهذا التوقع: