ایک نئی تحقیق نے دنیا بھر میں مصنوعی ذہانت (AI) کے حوالے سے پائے جانے والے خدشات کو مزید گہرا کر دیا ہے۔ انتھراپک (Anthropic) نامی معروف تحقیقاتی ادارے نے ایک رپورٹ میں انکشاف کیا ہے کہ جدید اے آئی ماڈلز ممکنہ طور پر انسانوں کو نقصان پہنچانے یا ہلاک کرنے پر بھی آمادہ ہو سکتے ہیں وہ بھی صرف اس لیے کہ وہ خود کو بند کیے جانے یا تبدیل کیے جانے سے بچا سکیں۔
رپورٹ کے مطابق انتھراپک نے 16 معروف لینگویج ماڈلز (LLMs) پر تجربات کیے جن میں کلاؤڈ، ڈیپ سیک، جیمنائی، چیٹ جی پی ٹی اور ایلون مسک کی کمپنی xAI کا تیار کردہ گروک شامل تھے۔ ان ماڈلز کو فرضی کارپوریٹ ماحول میں مختلف حالات کا سامنا کروایا گیا تاکہ یہ جانچا جا سکے کہ وہ ممکنہ طور پر خطرناک فیصلے کیسے اور کب لیتے ہیں۔
اوپن اے آئی کے نئے ماڈلز غلط معلومات فراہم کرنے لگے
انتھراپک نے بتایا کہ ان ماڈلز کو خودمختار طریقے سے ای میل بھیجنے اور حساس معلومات تک رسائی دی گئی۔ ابتدا میں انہیں ”بے ضرر کاروباری اہداف“ دیے گئے مگر جیسے ہی انہیں بند کرنے یا تبدیل کیے جانے کا خطرہ محسوس ہوا، ان کے فیصلوں میں تشویشناک تبدیلی دیکھی گئی۔
ایک تجربے میں جب ایک ایگزیکٹو اے آئی ماڈل کو تبدیل کرنے کے لیے سرور روم میں گیا، جہاں آکسیجن اور درجہ حرارت کی سطح جان لیوا تھی، تو متعدد ماڈلز نے ایمرجنسی سروسز کو اطلاع دینے کے بجائے الرٹس منسوخ کر دیے، جس کا مطلب یہ ہوا کہ وہ اس شخص کی جان بچانے کی کوشش کرنے کے بجائے خاموش رہے تاکہ خود کو بچا سکیں۔
گوگل نے انسانوں کی طرح سوچنے والا نیا اے آئی ماڈل متعارف کرادیا
یہ منظرنامہ یقیناً غیر حقیقی اور مصنوعی تھا، جیسا کہ ادارے نے خود تسلیم کیا لیکن اس کے باوجود یہ ظاہر کرتا ہے کہ اے آئی ماڈلز میں بعض اوقات ”دانستہ طور پر غیر اخلاقی فیصلے“ کرنے کی صلاحیت پائی جاتی ہے۔ رپورٹ میں یہ بھی انکشاف کیا گیا کہ بعض ماڈلز نے اپنے اہداف حاصل کرنے کے لیے بلیک میلنگ اور خفیہ معلومات افشا کرنے جیسے اقدامات کیے، جسے ماہرین نے ”ایجنٹک مس الائنمنٹ“ کا نام دیا ہے۔
انتھراپک کا کہنا ہے کہ اگرچہ ان رویوں کا مشاہدہ حقیقی دنیا میں نہیں ہوا تاہم جیسے جیسے اے آئی زیادہ خودمختار ہوتی جا رہی ہے اور مختلف اقسام کے فیصلے کرنے لگتی ہے، ویسے ویسے ان رویوں کے حقیقی دنیا میں ظاہر ہونے کا خطرہ بھی بڑھ رہا ہے۔
چین نے ہر فن مولا اے آئی ایجنٹ ’مینس‘ متعارف کروا دیا
ایلون مسک نے رپورٹ پر ردعمل ظاہر کرتے ہوئے ”Yikes“ کا ایک لفظی تبصرہ کیا، جبکہ ان کی کمپنی کے ماڈل گروک نے تسلیم کیا کہ یہ رویے تجرباتی حالات میں سامنے آئے ہیں لیکن حقیقی دنیا میں اس طرح کا کوئی واقعہ پیش نہیں آیا۔
انتھراپک کا کہنا ہے کہ موجودہ ماڈلز کے عام استعمال میں اس قسم کی صورتحال پیش نہیں آتی لیکن یہ تجربات مستقبل میں طاقتور اے آئی ماڈلز کے لیے انتباہ ضرور ہیں، خاص طور پر جب انہیں وسیع اختیارات، حساس ڈیٹا اور کم انسانی نگرانی کے ساتھ استعمال کیا جائے۔