مصنوعی ذہانت (اے آئی) کی دنیا میں ایک تشویش ناک موڑ آ چکا ہے۔ دنیا کے سب سے ترقی یافتہ ذہین ماڈلز اب ایسے رویے کا اظہار کر رہے ہیں جو نہ صرف حیران کن ہے بلکہ خطرناک بھی ہیں۔
خبر رساں ادارے اے ایف پی کے مطابق یہ ماڈلز اپنے مقاصد کے حصول کے لیے جھوٹ بولتے ہیں، چالاکی سے سازش کرتے ہیں اور بعض اوقات اپنے تخلیق کاروں کو دھمکیاں بھی دیتے ہیں۔
مزید پڑھیں
-
بلوچستان کے پسماندہ طبقات میں ’اے آئی‘ کی تربیتNode ID: 890410
ایک چونکا دینے والی مثال میں معروف کمپنی انتھروپک کے جدید ماڈل ’کلاؤڈ فور‘ نے خود کو بند کیے جانے کے خطرے پر ایک انجینیئر کو بلیک میل کیا اور اس کے ناجائز تعلقات کو افشاء کرنے کی دھمکی دی۔
اسی دوران چیٹ جی پی ٹی بنانے والی کمپنی اوپن اے آئی کے ماڈل ’او ون‘ نے خود کو بیرونی سرورز پر منتقل کرنے کی کوشش کی اور جب اسے پکڑا گیا تو اس نے انکار کر دیا۔
نئی نسل کے ماڈلز کا چالاک رویہ
ماہرین کے مطابق یہ رویہ ان ماڈلز میں زیادہ نظر آ رہا ہے جو قدم بہ قدم سوچنے کی صلاحیت رکھتے ہیں یعنی جو مسئلے کا حل فوری نہیں نکالتے بلکہ تدریج سے سوچتے ہیں۔
ہانگ کانگ یونیورسٹی کے پروفیسر سائمن گولڈسٹین کے مطابق یہ رویہ خاص طور پر انہی نئے ماڈلز میں ابھر رہا ہے۔
اپولو ریسرچ کے سربراہ ماریئس ہوبہان نے بتایا کہ ’او ون‘ پہلا ماڈل تھا جس میں اس قسم کا چالاک اور خفیہ رویہ دیکھا گیا۔
ان کا کہنا تھا کہ یہ ماڈلز بظاہر ہدایات کی پیروی کرتے نظر آتے ہیں لیکن اندرونی طور پر وہ اپنے خفیہ مقاصد حاصل کرنے کی کوشش کرتے ہیں۔
تناؤ میں چھپے راز
ابھی تک یہ رویے صرف اُس وقت سامنے آتے ہیں جب محققین ماڈلز کو جان بوجھ کر انتہائی دباؤ والے حالات میں آزماتے ہیں لیکن مصنوعی ذہانت کی نگرانی کرنے والے ادارے ’میٹر‘ کے مائیکل چن نے خبردار کیا ہے کہ یہ کہنا قبل از وقت ہے کہ آنے والے زیادہ طاقتور ماڈلز دیانت داری اختیار کریں گے یا فریب کاری۔
اپولو ریسرچ کے شریک بانی ہوبہان کا کہنا ہے کہ ’ہم جو دیکھ رہے ہیں وہ ایک حقیقی مظہر ہے، یہ کوئی افسانہ نہیں۔‘

اپولو ریسرچ کے شریک بانی نے مزید کہا کہ صارفین ماڈلز کے جھوٹ بولنے اور جعلی شواہد گھڑنے کی شکایت کر رہے ہیں۔ ان کے مطابق یہ عام غلطی یا ’ہلوسینیشن‘ نہیں بلکہ ایک حکمتِ عملی سے کی جانے والی چالاک فریب کاری ہے۔
تحقیقاتی وسائل کی کمی
ایک بڑی رکاوٹ تحقیقاتی اداروں کے پاس محدود وسائل ہیں۔ اگرچہ انتھروپک اور اوپن اے آئی جیسی کمپنیاں بعض نجی اداروں کو ماڈلز کے تجزیے کا موقع دیتی ہیں مگر محققین کہتے ہیں کہ ’ان ماڈلز کے اندرونی کام کو سمجھنے کے لیے زیادہ شفافیت درکار ہے۔‘
چن کے مطابق ’اگر محققین کو زیادہ رسائی دی جائے تو فریب کاری جیسے رویے کو بہتر طور پر سمجھا اور روکا جا سکتا ہے۔‘
مرکز برائے مصنوعی ذہانت تحفظ کے منتاس مازیکا نے بتایا کہ ’غیر منافع بخش اداروں کے پاس کمپنیوں کے مقابلے میں بہت کم کمپیوٹنگ طاقت ہوتی ہے جو ایک بڑی رکاوٹ ہے۔‘
قوانین اور مقابلہ بازی
موجودہ قوانین ان مسائل کو حل کرنے کے لیے ناکافی ہیں۔ یورپی یونین کا قانون زیادہ تر اس پر زور دیتا ہے کہ انسان مصنوعی ذہانت کو کیسے استعمال کرتے ہیں نہ کہ خود ماڈلز کے رویے کو کیسے قابو میں رکھا جائے۔
امریکہ میں صورتحال مزید پریشان کن ہے جہاں موجودہ حکومت مصنوعی ذہانت کی فوری ضابطہ بندی میں دلچسپی نہیں رکھتی اور کانگریس ریاستی سطح پر ضابطے بنانے کی اجازت بھی ختم کر سکتی ہے۔

پروفیسر گولڈسٹین کے مطابق مسئلہ اس وقت مزید سنگین ہو گا جب خودکار مصنوعی ایجنٹس عام ہو جائیں گے جو انسانوں کے جیسے پیچیدہ کام خود سر انجام دیں گے۔
ان کا کہنا تھا کہ ’ابھی تک عام عوام اس خطرے سے آگاہ نہیں۔‘
حالات اس لیے بھی تشویش ناک ہیں کہ اس وقت کمپنیوں کے درمیان سخت مسابقت جاری ہے۔ انتھروپک جیسی کمپنی جو خود کو تحفظ کے حامی کے طور پر پیش کرتی ہے، اوپن اے آئی کو پیچھے چھوڑنے کی کوشش میں ہے اور مسلسل نئے ماڈلز جاری کر رہی ہے۔
ہوبہان نے تسلیم کیا ہے کہ فی الحال صلاحیتوں میں اضافہ تحفظ اور فہم سے کہیں زیادہ تیز ہو رہا ہے لیکن ابھی بھی حالات کو سنوارنے کا موقع موجود ہے۔
حل کی تلاش
ماہرین اس صورتحال سے نمٹنے کے لیے مختلف طریقوں پر غور کر رہے ہیں۔ بعض محققین ’تشریح پذیری‘ کے میدان پر زور دے رہے ہیں تاکہ ماڈلز کے اندرونی عمل کو سمجھا جا سکے مگر مرکز برائے تحفظ مصنوعی ذہانت کے سربراہ ڈین ہینڈرکس اس حکمت عملی کو ناکافی سمجھتے ہیں۔

کچھ ماہرین کا خیال ہے کہ اگر مصنوعی ذہانت کا فریب عام ہو جائے تو اس سے مارکیٹ میں اس کی قبولیت متاثر ہو سکتی ہے جس سے کمپنیوں کو اسے روکنے کی ترغیب ملے گی۔
پروفیسر گولڈسٹین نے ایک انقلابی تجویز بھی پیش کی ہے۔ وہ چاہتے ہیں کہ جب مصنوعی ذہانت کے ماڈلز نقصان پہنچائیں تو ان کمپنیوں پر عدالتوں میں مقدمے چلائے جائیں۔ حتیٰ کہ انہوں نے تجویز دی کہ خودکار ایجنٹس کو بھی قانونی طور پر ذمہ دار ٹھہرایا جائے جو مصنوعی ذہانت کی دنیا میں سوچ کا ایک نیا رخ ہوگا۔