قالت مواقع أمريكية متخصصة: إن التحكم في الذكاء الاصطناعي الخارق يتطلب معرفة تتجاوز الفهم البشري، وسيكون من الضروري تطوير محاكاة لهذا الذكاء الفائق قابلة للتحليل. ولكن إذا لم يعد البشر قادرين على فهم طبيعة هذا الذكاء، فمن المستحيل إنشاء مثل هذه المحاكاة.
ويوضح الباحثون أن “الذكاء الخارق يطرح مشكلة مختلفة اختلافاً جوهرياً عن تلك التي تمت دراستها عموماً وتندرج ضمن أخلاقيات الروبوتات”. وتابعوا أن “الذكاء الخارق له جوانب عديدة، ولذا فمن المحتمل أن يكون قادراً على تعبئة مجموعة متنوعة من الموارد من أجل تحقيق أهداف يحتمل أن تكون غير مفهومة للبشر، وحتى أقل قابلية للتحكم”.
يأتي جزء من نتائج الفريق العلمي من المشكلة التي طرحها عالم الحاسوب والرياضي البريطاني آلان تورينغ في عام 1936، وهي توضح أنه من المستحيل التنبؤ بما إذا كان برنامج معلوماتي سيصل إلى جواب أم لا، أو ما إذا كان سيدور إلى الأبد في محاولة للعثور على جواب، وبما أن أي برنامج يهدف إلى منع الذكاء الاصطناعي من إيذاء البشر وتدمير العالم سيكون خاضعاً بالضرورة للقاعدة نفسها، فإن من المستحيل رياضياً أن نتأكد تماماً من إمكانية التحكم في مثل هذا الذكاء الاصطناعي.
وبحسب الدراسة التي نشرها العلماء الإسبان في “مجلة دراسة أبحاث الذكاء الاصطناعي”، فإنه وبمجرد أن يعمل نظام الكمبيوتر بمستوى ذكاء أعلى من مطوريه، فلن يعود بالإمكان وضع أية قيود عليه أو التحكم فيه.