ایک ماہر ماہر نے بتایا ہے کہ مصنوعی ذہانت (اے آئی) کے نظاموں کو انسانوں کو بڑے پیمانے پر نقصان کے خلاف "کاسٹ آئرن گارنٹیوں” کے ساتھ آنا چاہئے ، خاص طور پر جب ہتھیاروں میں ان کے انضمام کا امکان بڑھتا ہے ، ایک ماہر ماہر نے بتایا۔ اے ایف پی.
برکلے کمپیوٹر سائنس کے پروفیسر اور انٹرنیشنل ایسوسی ایشن برائے سیف اینڈ اخلاقی اے آئی (آئی اے آئی ایس ای اے) کے شریک ڈائریکٹر اسٹورٹ رسل جمعرات کو 10۔11 فروری کو اے آئی ٹکنالوجی کے عالمی سربراہی اجلاس میں سائنسی بات چیت کے لئے پیرس میں ہوں گے۔
اب (گوگل) کا کہنا ہے کہ وہ اپنے ملازمین کے خیالات کو اوور رائڈ کرنے کے لئے تیار ہیں ، عوام کی اکثریت کے خیالات بھی ، جو ہتھیاروں میں اے آئی کے استعمال کے بھی مخالف ہیں۔
یہ اتفاق نہیں ہے کہ پالیسی میں یہ تبدیلی ایک نئی انتظامیہ کے ساتھ سامنے آئی ہے جس نے اے آئی کے تمام ضوابط کو ہٹا دیا ہے جو بائیڈن انتظامیہ کے ذریعہ رکھے گئے تھے اور اب وہ فوجی صلاحیت کے لئے اے آئی کے استعمال پر بہت زیادہ زور دے رہے ہیں۔
(ایسے ہتھیاروں) کو زیادہ خطرناک اور نقصان دہ طریقوں سے استعمال کیا جاسکتا ہے۔ مثال کے طور پر ، "کسی کو بھی مار ڈالو جو مندرجہ ذیل تفصیل کے مطابق ہو”۔ اور یہ وضاحت عمر کے لحاظ سے ، صنف کے ذریعہ ، نسلی گروہ کے ذریعہ ، مذہبی وابستگی ، یا یہاں تک کہ کسی خاص فرد کے ذریعہ ہوسکتی ہے۔
یوکرین ایک تیز رفتار رہا ہے … اس تنازعہ نے ان ہتھیاروں کے نظام کو بہت تیزی سے تیار کرنے پر مجبور کردیا ہے۔ اور باقی سب اس کی طرف دیکھ رہے ہیں۔
یہ بالکل ممکن ہے کہ یوکرین کے بعد اگلا بڑا تنازعہ بڑی حد تک خود مختار ہتھیاروں سے اس طرح لڑا جائے گا جو اس وقت غیر منظم ہے۔ لہذا ہم صرف عام شہریوں پر کس طرح کے تباہی اور خوفناک اثرات کا تصور کرسکتے ہیں جو اس کے نتیجے میں ہوسکتے ہیں۔
لیکن دوسری طرف ، 100 سے زیادہ ممالک موجود ہیں جنہوں نے خود مختار ہتھیاروں کی مخالفت پہلے ہی بیان کی ہے۔ اور مجھے لگتا ہے کہ اس کا ایک اچھا موقع ہے کہ ہم اقوام متحدہ کی جنرل اسمبلی میں ضروری اکثریت حاصل کریں گے تاکہ پابندی کا مطالبہ کیا جاسکے۔
حکومتوں کو اعداد و شمار کے ثبوت یا ریاضی کے ثبوت کی شکل میں کاسٹ آئرن کی ضمانتوں کی ضرورت ہوگی جس کا معائنہ کیا جاسکتا ہے ، جس کی جانچ احتیاط سے کی جاسکتی ہے۔ اور اس سے کم کچھ بھی صرف تباہی کا مطالبہ کر رہا ہے۔