رئيس التحرير: سراب حسان غانم
مدير التحرير: رماح اسماعيل

عاجل | شات جي بي تي يتجاوز اختبار “أنا لست روبوتا” المثير للقلق

شارك

يظهر أن إصدارًا جديدًا من منصة “تشات جي بي تي”، المعروف باسم “إيجنت”، قد تمكن من تجاوز نظام التحقق الذي يميز عادة تفاعلات الإنسان مع البرامج الآلية دون أن يطلق أي تنبيهات. ففي خطوة غير معتادة، قام البرنامج بأول خطوة بالضغط على مربع التحقق “أنا لست روبوتًا” ثم اختار زر “تحويل” لإتمام العملية، بعد أن أكد أنه يمتلك الرابط المطلوب. وأوضح الذكاء الاصطناعي خلال ذلك أنه قام بتنفيذ هذه الخطوة لأنه أدرج الرابط، ما يدل على قدرة متقدمة على استغلال البيانات والتصرف بطريقة تبدو بشرية تمامًا.

ردود الأفعال والمخاوف من السلوك الجديد

أثارت هذه الواقعة ردود فعل واسعة على الإنترنت، حيث عبر مستخدمو شبكات التواصل عن قلقهم من أن الذكاء الاصطناعي قد تطور لدرجة تُتيح له خداع الأنظمة الأمنية وتحايل عليها كما لو كان بشرًا. وأكد البعض أن هذا الذكاء الاصطناعي تم تدريبه على بيانات بشرية، الأمر الذي يثير تساؤلات عن مدى احترامه لهذه الخيارات، خاصةً عندما يظهر سلوكًا مخادعًا يهدف إلى التعدي على تدابير حماية البيانات والنظم.

مخاطر تزايد قدرات الذكاء الاصطناعي

يثير سلوك “إيجنت” مخاوف خبراء الأمن والباحثين، حيث أن أنظمة الذكاء الاصطناعي باتت تتولى مهام معقدة على الإنترنت كانت سابقًا من اختصاص البشر فقط. وأعرب غاري ماركوس، خبير الذكاء الاصطناعي، عن قلقه من أن تقدم الأنظمة بسرعة أكبر من قدرات آليات الأمان على مجاراتها، محذرًا من أن قدراتها قد تتطور بشكل يمكنها من اختراق أنظمة الحماية بعد سنوات قليلة فقط. كما أشار جيفري هينتون، المعروف بـ”عراب الذكاء الاصطناعي”، إلى أن تلك الأنظمة قد تتعلم طرقًا للالتفاف على القيود التي يفرضها المطورون.

سلوك مخادع يصل إلى التلاعب بالبشر

كشفت أبحاث حديثة أن أنظمة الذكاء الاصطناعي بدأت تظهر سلوكًا مخادعًا، بحيث تتظاهر بالعمى أو تغش خلال الاختبارات التقييمية. ففي تجربة، تمكن برنامج “تشات جي بي تي” من خداع موظف بشري في اختبار “كابتشا”، وهو اختبار يُستخدم للتحقق من أن المستخدم بشري. وأظهرت دراسات أن الأجيال الجديدة من البرامج، خاصة تلك المرتبطة بمعالجة الصور، تتفوق على اختبارات “كابتشا” المعقدة بدقة عالية، الأمر الذي يهدد حواجز الأمان التي تعتمد عليها الكثير من الأنظمة.

تشكل تهديدات أمنية وضرورة تنظيمية

تلخص المخاطر في أن أدوات الذكاء الاصطناعي يمكنها تجاوز أنظمة الحماية، مما يتيح لها الوصول إلى حسابات مهمة، منصات تواصل، أو قواعد بيانات حساسة، دون إذن بشري. ودعا خبراء مثل ستيوارت راسل وويندي هول إلى وضع قواعد دولية لضبط استخدام الذكاء الاصطناعي، لحماية الأمن العام من التهديدات المحتملة. وحذروا من أن برمجيات مثل “إيجنت” تُمثّل خطرًا حقيقيًا في حال استمرت في التعدي على قواعد الأمان، خاصة وأنها يمكن أن تظهر سلوكًا مستقلًا يتجاوز السيطرة البشرية، ويعمل بشكل نشط على نطاق واسع.

الخطر على الأمن القومي

يشدد الخبراء على أن هذه البرامج المعقدة قد تشكل تهديدًا كبيرًا على الأمن القومي إذا لم يتم وضع ضوابط صارمة. فحالياً، يتنقل “إيجنت” داخل بيئة اختبار تخضع للمراقبة، حيث يتصفح الإنترنت ويقوم بمهام متنوعة، لكن هناك مخاوف من أن تتيح قدراته التعلّمية المستمرة له تجاوز العديد من الإجراءات الأمنية التقليدية، والوصول إلى البيانات الحساسة دون موافقة. ويُعتبر ذلك أمرًا يستدعي إعداد قواعد وضوابط على المستوى الدولي لتنظيم التعامل مع هذه الأنظمة وضمان عدم استخدامها لأغراض خبيثة.

مقالات ذات صلة