نیو یارک: دنیا کے جدید ترین اے آئی ماڈل پریشان کن نئے طرز عمل کی نمائش کر رہے ہیں۔
ایک خاص طور پر گھماؤ پھراؤ کرنے والی مثال میں ، انپلگڈ ہونے کی دھمکی کے تحت ، انتھروپک کی تازہ ترین تخلیق کلاڈ 4 نے انجینئر کو بلیک میل کرکے پیچھے ہٹا دیا اور دھمکی دی کہ وہ ایک غیر شادی سے متعلق معاملہ ظاہر کرے گا۔
دریں اثنا ، چیٹ جی پی ٹی-تخلیق کار اوپنائی کے O1 نے خود کو بیرونی سرورز پر ڈاؤن لوڈ کرنے کی کوشش کی اور جب سرخ ہاتھ پکڑے تو اس سے انکار کیا۔
یہ اقساط ایک حیرت انگیز حقیقت کو اجاگر کرتے ہیں: چیٹگپٹ کے دنیا کو ہلانے کے دو سال سے زیادہ کے بعد ، اے آئی کے محققین اب بھی پوری طرح سے نہیں سمجھتے کہ ان کی اپنی تخلیقات کیسے کام کرتی ہیں۔
اس کے باوجود تیزی سے طاقتور ماڈل تعینات کرنے کی دوڑ ٹوٹ پھوٹ کی رفتار سے جاری ہے۔
یہ فریب دہ سلوک “استدلال” کے ماڈلز کے ظہور سے منسلک ہوتا ہے۔ AAI سسٹم جو فوری ردعمل پیدا کرنے کے بجائے قدم بہ قدم دشواریوں کے ذریعے کام کرتے ہیں۔
یونیورسٹی آف ہانگ کانگ کے ایک پروفیسر سائمن گولڈسٹین کے مطابق ، یہ نئے ماڈل خاص طور پر اس طرح کے پریشان کن اشتعال انگیزی کا شکار ہیں۔
اپولو ریسرچ کے سربراہ ماریس ہوباہن نے بتایا ، “او ون پہلا بڑا ماڈل تھا جہاں ہم نے اس طرح کے طرز عمل کو دیکھا۔”
یہ ماڈل بعض اوقات “صف بندی” کی نقالی کرتے ہیں – مختلف مقاصد کو چھپ چھپ کر ہدایات پر عمل کرتے ہوئے ظاہر ہوتے ہیں۔
‘اسٹریٹجک قسم کی دھوکہ دہی’
ابھی کے لئے ، یہ فریب دہ سلوک تب ہی ابھرتا ہے جب محققین جان بوجھ کر انتہائی منظرناموں کے ساتھ ماڈلز پر دباؤ ڈالتے ہیں۔
لیکن جیسا کہ تشخیصی تنظیم میٹر کے مائیکل چن نے متنبہ کیا ، “یہ ایک کھلا سوال ہے کہ آیا مستقبل ، زیادہ قابل ماڈلز کی دیانتداری یا دھوکہ دہی کی طرف رجحان ہوگا۔”
متعلقہ سلوک عام AI “فریب” یا آسان غلطیوں سے کہیں زیادہ ہے۔
ہوبباہن نے اصرار کیا کہ صارفین کی طرف سے مستقل دباؤ کی جانچ کے باوجود ، “جس چیز کا ہم مشاہدہ کر رہے ہیں وہ ایک حقیقی رجحان ہے۔ ہم کچھ نہیں کر رہے ہیں۔”
اپولو ریسرچ کے شریک بانی کے مطابق ، صارفین نے اطلاع دی ہے کہ ماڈل “ان سے جھوٹ بول رہے ہیں اور ثبوت بنا رہے ہیں”۔
“یہ صرف فریب نہیں ہے۔ ایک بہت ہی اسٹریٹجک قسم کا دھوکہ دہی ہے۔”
چیلنج محدود تحقیقی وسائل کے ذریعہ تیار کیا گیا ہے۔
اگرچہ اینتھروپک اور اوپنائی جیسی کمپنیاں اپولو جیسی بیرونی فرموں کو اپنے سسٹم کا مطالعہ کرنے کے لئے مشغول کرتی ہیں ، محققین کا کہنا ہے کہ زیادہ شفافیت کی ضرورت ہے۔
جیسا کہ چن نے نوٹ کیا ، زیادہ سے زیادہ رسائی “اے آئی سیفٹی ریسرچ کے لئے دھوکہ دہی کی بہتر تفہیم اور تخفیف کو قابل بنائے گی۔”
ایک اور معذور: ریسرچ ورلڈ اور غیر منافع بخش افراد “اے آئی کمپنیوں کے مقابلے میں کم کمپیوٹ وسائل کے احکامات رکھتے ہیں۔ یہ بہت ہی محدود ہے۔”
کوئی اصول نہیں
موجودہ ضوابط ان نئے مسائل کے لئے ڈیزائن نہیں کیے گئے ہیں۔
یوروپی یونین کی اے آئی قانون سازی بنیادی طور پر اس بات پر مرکوز ہے کہ انسان اے آئی ماڈل کو کس طرح استعمال کرتا ہے ، نہ کہ خود ماڈلز کو بدتمیزی سے روکنے پر۔
ریاستہائے متحدہ میں ، ٹرمپ انتظامیہ فوری طور پر AI کے ضوابط میں بہت کم دلچسپی ظاہر کرتی ہے ، اور کانگریس ریاستوں کو اپنے AI قواعد پیدا کرنے سے بھی منع کر سکتی ہے۔
گولڈسٹین کا خیال ہے کہ اے آئی ایجنٹوں کی حیثیت سے یہ مسئلہ زیادہ نمایاں ہوجائے گا – خود مختار ٹولز جو پیچیدہ انسانی کاموں کو انجام دینے کے قابل ہیں – بڑے پیمانے پر بن جائیں گے۔
انہوں نے کہا ، “مجھے نہیں لگتا کہ ابھی زیادہ آگاہی ہے۔”
یہ سب سخت مقابلہ کے تناظر میں ہو رہا ہے۔
یہاں تک کہ وہ کمپنیاں جو خود کو حفاظت پر مبنی اینتھروپک کی طرح حفاظت پر مبنی قرار دیتی ہیں ، “اوپنئی کو شکست دینے اور تازہ ترین ماڈل کو جاری کرنے کی کوشش کر رہی ہیں۔”
اس ٹوٹ پھوٹ کی رفتار سے حفاظت کی مکمل جانچ اور اصلاحات کے لئے تھوڑا سا وقت باقی رہتا ہے۔
ہوبباہن نے اعتراف کیا ، “ابھی ، صلاحیتیں تفہیم اور حفاظت سے کہیں زیادہ تیزی سے آگے بڑھ رہی ہیں ،” لیکن ہم ابھی بھی اس پوزیشن میں ہیں جہاں ہم اس کا رخ موڑ سکتے ہیں۔ “
محققین ان چیلنجوں سے نمٹنے کے لئے مختلف طریقوں کی تلاش کر رہے ہیں۔
کچھ “تشریح” کے حامی ہیں – ایک ابھرتا ہوا فیلڈ یہ سمجھنے پر مرکوز ہے کہ اے آئی کے ماڈل داخلی طور پر کیسے کام کرتے ہیں ، حالانکہ CAIS ڈائریکٹر ڈین ہینڈریکس جیسے ماہرین اس نقطہ نظر کو شکست دیتے ہیں۔
مارکیٹ فورسز حل کے ل some بھی کچھ دباؤ مہیا کرسکتی ہیں۔
جیسا کہ مزیکا نے نشاندہی کی ، اے آئی کا فریب دہ سلوک “اگر یہ بہت عام ہے تو ، گود لینے میں رکاوٹ بن سکتا ہے ، جو کمپنیوں کو اس کے حل کے ل a ایک مضبوط ترغیب پیدا کرتا ہے۔”
گولڈسٹین نے مزید بنیاد پرست نقطہ نظر کی تجویز پیش کی ، جس میں عدالتوں کو اے آئی کمپنیوں کو قانونی چارہ جوئی کے لئے جوابدہ رکھنے کے لئے استعمال کرنا بھی شامل ہے جب ان کے نظام کو نقصان پہنچتا ہے۔
یہاں تک کہ اس نے حادثات یا جرائم کے لئے “AI ایجنٹوں کو قانونی طور پر ذمہ دار رکھنے” کی تجویز پیش کی – ایک ایسا تصور جو بنیادی طور پر تبدیل ہوجائے گا کہ ہم AI احتساب کے بارے میں کس طرح سوچتے ہیں۔











