مصنوعی ذہانت انسانوں کی معدومیت کا باعث بن سکتی ہے: ماہرین کا انتباہ

اے آئی

،تصویر کا ذریعہFUTURE PUBLISHING/GETTY IMAGES

  • مصنف, کرس والنس
  • عہدہ, بی بی سی نیوز

اوپن اے آئی اور گوگل ڈیپ مائنڈ کے سربراہان سمیت متعدد ماہرین نے خبردار کیا ہے کہ مصنوعی ذہانت انسانیت کے خاتمے کا باعث بن سکتی ہے۔

درجنوں افراد نے سینٹر فار اے آئی سیفٹی کے ویب پیج پر شائع ہونے والے ایک بیان کی حمایت کی ہے۔

اس میں لکھا گیا ہے کہ ’مصنوعی ذہانت سے انسانوں کے خاتمے کے خطرے کو کم کرنا دیگر سماجی سطح کے خطرات جیسا کہ وبائی امراض اور ایٹمی جنگ کے ساتھ ساتھ ایک عالمی ترجیح ہونی چاہیے۔‘

تاہم دیگر افراد کا کہنا ہے کہ اب اس حوالے سے خوف ختم ہو گیا ہے۔

چیٹ جی پی ٹی بنانے والی کمپنی اوپن اے آئی کے چیف ایگزیکٹیو سیم آلٹ مین، گوگل ڈیپ مائنڈ کے چیف ایگزیکٹیو ڈیمس ہسابیس اور اینتھروپک کے ڈاریو آمودی سبھی نے اس بیان کی حمایت کی ہے۔

سینٹر فار اے آئی سیفٹی ویب سائٹ کئی ممکنہ تباہی کے منظرناموں کو کچھ اس طرح پیش کرتی ہے:

  • مصنوعی ذہانت کو ہتھیار بنایا جا سکتا ہے، مثال کے طور پر، منشیات کی دریافت کے اوزار کیمیائی ہتھیار بنانے کے لیے استعمال کیے جا سکتے ہیں
  • مصنوعی ذہانت اے آئی کی طاقت تیزی سے چند ہاتھوں تک مرکوز ہو سکتی ہے، جس سے ’حکومتوں کو وسیع نگرانی اور جابرانہ سنسرشپ کے ذریعے تنگ نظر اقدار کے نفاذ‘ کے قابل بنایا جا سکتا ہے
  • انسانوں کا مصنوعی ذہانت پر ضرورت سے زیادہ انحصار جو انسانوں کو کمزور کر سکتا ہے جیسے فلم وال ای میں دکھایا گیا ہے

ڈاکٹر جیفری ہنٹن، جنھوں نے انتہائی ذہین مصنوعی ذہانت سے خطرات کے بارے میں پہلے خبردار کیا تھا نے سینٹر فار اے آئی سیفٹی کی تنبیہہ کی حمایت کی ہے۔

یونیورسٹی آف مونٹریال میں کمپیوٹر سائنس کے پروفیسر یوشوا بینجیو نے بھی اس پر دستخط کیے ہیں۔

ڈاکٹر ہنٹن، پروفیسر بینجیو اور این وائے یو کے پروفیسر یان لیکیون کو اکثر مصنوعی ذہانت کے اس شعبے میں ان کے اہم کارناموں کی وجہ سے ’مصنوعی ذہانت کے گاڈ فادرز‘ کے طور پر متعارف کروایا جاتا ہے۔

ان تینوں پروفیسرز نے مشترکہ طور پر سنہ 2018 کا ’ٹوئرنگ ایوارڈ‘ جیتا، جو کمپیوٹر سائنس میں ان کی خدمات کا اعتراف ہے۔

تاہم پروفیسر لیکیون، جو کہ میٹا میں بھی کام کرتے ہیں نے کہا ہے کہ اس حوالے سے جاری کیے جانے والے انتباہ ضرورت سے زیادہ بڑھا چڑھا کر پیش کیے جاتے ہیں۔

اے آئی

،تصویر کا کیپشن

ڈاکٹر جیفری ہنٹن

الجھی حقیقت

اسی طرح بہت سے دوسرے ماہرین کا خیال ہے کہ مصنوعی ذہانت کے باعث انسانیت کی معدومیت کے خدشات غیر حقیقی ہیں اور نظام میں تعصب جیسے مسائل سے جڑے ہیں جو پہلے سے ہی ایک مسئلہ ہے۔

پرنسٹن یونیورسٹی کے کمپیوٹر سائنس دان اروند نارائنن نے پہلے بی بی سی کو بتایا تھا کہ سائنسی افسانے جیسے تباہی کے منظرنامے غیر حقیقی ہیں: ’موجودہ مصنوعی ذہانت ان خطرات کو حقیقت میں بدلنے کے قابل بالکل بھی نہیں ہے۔‘

ان کے مطابق اس طرح کی پیش گوئیوں کی وجہ سے مصنوعی ذہانت کے فوری خطرات سے نمٹنے جیسے نقصانات سے توجہ ہٹ جاتی ہے۔

آکسفورڈ کے انسٹیٹیوٹ فار ایتھکس میں مصنوعی ذہانت کی سینیئر ریسرچ ایسوسی ایٹ الزبتھ رینیرس نے بی بی سی نیوز کو بتایا کہ وہ اس ٹیکنالوجی سے جڑے فوری خطرات کے بارے میں زیادہ فکر مند ہیں۔

انھوں نے کہا کہ ’مصنوعی ذہانت میں ترقی خودکار فیصلہ سازی کے پیمانے کو بڑھا دے گی، جو کہ متعصب، امتیازی، خارجی یا بصورت دیگر غیر منصفانہ ہے جبکہ یہ ناقابل تسخیر اور ناقابل اعتراض بھی ہے۔ وہ غلط معلومات کے حجم اور پھیلاؤ میں غیر معمولی اضافہ کریں گے، اس طرح حقیقت سے دور لے جائیں گے اور عوامی اعتماد کو ختم کریں گے، اور مزید عدم مساوات کا سبب بنیں گے۔‘

الزبتھ رینیرس کے مطابق بہت سے اے آئی ٹولز بنیادی طور پر ’آج تک کے انسانی تجربے پر بھاری ہیں۔‘ اپنی بات کی وضاحت کرتے ہوئے انھوں نے بتایا کہ بہت سے لوگوں کو انسانی تخلیق کردہ مواد، متن، آرٹ اور موسیقی پر تربیت دی جاتی ہے جس کے بعد وہ نقل کر سکتے ہیں، اور ان کے تخلیق کاروں نے ’عوامی حلقوں سے بڑی دولت اور طاقت کو مؤثر طریقے سے چند ہاتھوں یعنی نجی اداروں تک مرکوز کر دیا ہے۔‘

لیکن سینٹر فار اے آئی سیفٹی کے ڈائریکٹر ڈین ہینڈریکس نے بی بی سی نیوز کو بتایا کہ مستقبل کے خطرات اور موجودہ خدشات کو ’مخالفانہ انداز میں نہیں دیکھا جانا چاہیے۔‘

انھوں نے کہا کہ ’آج کچھ مسائل کو حل کرنا بعد میں آنے والے بہت سے خطرات سے نمٹنے کے لیے مفید ہو سکتا ہے۔‘

یہ بھی پڑھیے

سپرانٹیلیجنس پر مبنی کوششیں

مارچ 2023 سے مصنوعی ذہانت کی طرف سے ’لاحق‘ خطرات میڈیا کی زینت بن گئے ہیں۔ جب ٹیسلا اور ٹوئٹر کے مالک ایلون مسک سمیت ماہرین نے ایک کھلے خط پر دستخط کیے تھے جس میں اے آئی ٹیکنالوجی کی اگلی نسل کی ترقی کو روکنے پر زور دیا گیا تھا۔

اس خط میں پوچھا گیا کہ کیا ہمیں ’غیر انسانی یعنی مصنوعی ذہنوں کو تیار کرنا چاہیے جو کہ آخر کار ہماری تعداد سے کہیں زیادہ ہو جائیں اور ہماری جگہ لے لیں۔‘

اس کے برعکس، نئے انتباہ میں بہت مختصر سا بیان دیا گیا ہے، جس کا مقصد اس پر بحث کو چھیڑا جا سکے۔

اس بیان میں ایٹمی جنگ سے لاحق خطرے کا موازنہ کیا گیا ہے۔ اوپن اے آئی نے حال ہی میں ایک بلاگ میں تجویز دی ہے کہ سپر انٹیلیجنس کو جوہری توانائی کی طرح ریگولیٹ کیا جا سکتا ہے۔ بیان میں کہا گیا ہے کہ ’ہمیں ممکنہ طور پر سپر انٹیلیجنس کوششوں کے لیے آئی اے ای اے (انٹرنیشنل اٹامک انرجی ایجنسی) جیسی کسی ریگولیٹری تنظیم کی ضرورت ہو گی۔‘

مصنوعی ذہانت

،تصویر کا ذریعہGetty Images

یقین رکھیں

سیم آلٹمین اور گوگل کے چیف ایگزیکٹو سندر پچائی دونوں ان ٹیکنالوجی رہنماؤں میں شامل ہیں، جنھوں نے حال ہی میں وزیر اعظم کے ساتھ اے آئی ریگولیشن پر تبادلہ خیال کیا ہے۔

مصنوعی ذہانت کے خطرے سے متعلق تازہ ترین انتباہ کے بارے میں صحافیوں سے بات کرتے ہوئے، رشی سونک نے معیشت اور معاشرے کے لیے فوائد پر زور دیا ہے۔

انھوں نے کہا کہ ’آپ نے دیکھا ہے کہ حال ہی میں یہ مفلوج لوگوں کو چلنے پھرنے میں مدد دے رہی ہے، نئی اینٹی بائیوٹکس دریافت کر رہی ہے، لیکن ہمیں یہ یقینی بنانا ہوگا کہ یہ اس طرح سے کیا جائے جو محفوظ ہو۔‘

رشی سونک کے مطابق ’اب یہی وجہ ہے کہ میں نے گذشتہ ہفتے بڑی اے آئی کمپنیوں کے سی ای اوز سے ملاقات کی تھی تاکہ اس بات پر تبادلہ خیال کیا جا سکے کہ ہمیں کون سے حفاظتی اقدامات اٹھانے کی ضرورت ہے اور ہمارے تحفظ کے لیے کس قسم کے ضابطے کو نافذ کیا جانا چاہیے۔‘

ان کے مطابق ’لوگ ان رپورٹس سے پریشان ہوں گے کہ اے آئی کو وبائی امراض یا ایٹمی جنگوں جیسے وجودی خطرات لاحق ہیں۔ میں چاہتا ہوں کہ انھیں یقین دلایا جائے کہ حکومت اس کو بہت غور سے دیکھ رہی ہے۔‘

رشی سونک نے کہا کہ انھوں نے حال ہی میں دیگر رہنماؤں کے ہمراہ، سرکردہ صنعتی ممالک کے جی 7 سربراہی اجلاس میں اس مسئلے پر تبادلہ خیال کیا تھا، اور جلد ہی اس معاملے کو دوبارہ امریکہ میں ہونے والے اجلاس میں اب اس موضوع کو دوبارہ غور کریں گے۔

جی 7 نے حال ہی میں اے آئی پر ایک ورکنگ گروپ بنایا ہے۔

BBCUrdu.com بشکریہ