ممتاز سائنس دان اسٹیفن ہاکنگ کی انسان کی تباہی سے متعلق تحقیق

ویب ڈیسک  جمعـء 28 اگست 2015
اگر مصنوعی ذہانت ہمیں نہیں مارتی تو خود انسان دوسرے انسان کو مٹانے کے لیے کافی ہے، اسٹیفن ہاکنگ فوٹو:فائل

اگر مصنوعی ذہانت ہمیں نہیں مارتی تو خود انسان دوسرے انسان کو مٹانے کے لیے کافی ہے، اسٹیفن ہاکنگ فوٹو:فائل

لندن: دنیا کے ممتاز سائنس دان اسٹیفن ہاکنگ نے حال ہی میں تین اہم چیزوں کا ذکر کرتے ہوئے کہا ہے کہ یہ چیزیں  نہ صرف انسانیت کی دشمن ثابت ہوسکتی ہیں بلکہ انسان کو صفحہ ہستی سے بھی مٹاسکتی ہیں۔ 

اسٹیفن ہاکنگ کائنات کی گتھیوں کو سلجھانے اور بلیک ہولز پر تحقیق کے ساتھ ساتھ  اپنی کتابوں، بیماری اور اس عمر میں بھی یاد داشت کے حوالے سے عالمی شہرت رکھتے ہیں جب کہ  ساتھ ہی وہ دنیا کو خطرات سے بھی آگاہ رکھتے ہیں اوراپنی تحقیق سے انہوں نے تین چیزوں کو انسانیت کی تباہی کا ذمہ دار قراردیا ہے۔

مصنوعی ذہانت: ہاکنگ کی طرح دنیا کے دوسرے ماہرین بھی فکرمند ہیں کہ کیا انسانوں کی تخلیق مصنوعی ذہانت اگر مضبوط ہوگئی تو وہ انسانی ذہانت کو پیچھے چھوڑدے گی اور شاید انسانوں کی جان کے درپے بھی ہوجائے، دسمبر 2014  ہاکنگ نے  برطانوی نشریاتی ادارے کو انٹرویو میں کہا تھا کہ یہ مصنوعی ذہانت انسانیت کے لیے ہلاکت خیز ثابت ہوسکتی ہے۔

ہاکنگ کی اس بات کی گونج ہمیں ایلون موسک کی باتوں میں بھی سنائی دیتی ہے۔ ارب پتی ایلون اسپیس ایکس اور ٹیسلا موٹرز کے مالک ہیں اور گزشتہ ماہ انہوں نے مصنوعی ذہانت کو ’’انسانیت کے لیے موجود ایک بڑا خطر‘‘ قرار دیا تھا، ہاکنگ اور ایلون اور درجنوں ممتاز سائنسدانوں نے مصنوعی ذہانت کے خطرات اور ممکنہ فوائد پر ایک کھلا خط بھی تحریر کیا ہے، 11 جنوری کو آن لائن شائع ہونے والے اس خط میں کہا گیا ہے کہ مصنوعی ذہانت  کے امکانات کی بدولت یہ ضروری ہے کہ اس کے فوائد حاصل کرنے کے ساتھ ساتھ اس کے نقصانات کا بھی بھرپور جائزہ لیا جائے۔

دوسری جانب مصنوعی ذہانت پر تحقیق کرنے والے ماہرین زور دیتے ہیں کہ ابھی پریشان ہونے کی کوئی ضرورت نہیں، ان میں سے ایک ڈیمس ہاسابس ہیں جو گوگل ڈیپ مائنڈ سے وابستہ ہیں۔ ڈیب مائنڈ ایک پروگرام ہے جس سے کمپیوٹر خود اپنے آپ سے گیم کھیلتا ہے اور سیکھتا ہے تاہم وہ کہتے ہیں کہ اس موضوع پر بحث شروع کرنا ایک اچھا قدم ہے۔

آرٹیفشل انٹیلی جنس کمپیوٹر سائنس کا ایک دلچسپ موضوع ہے اور اس میں الیکٹرانک سرکٹس اور کمپیوٹروں میں اس صلاحیت کی بات کی جاتی ہے جس کے ذریعے وہ انسانی ذہانت کے کسی معمولی درجے تک پہنچ سکیں اور خود سوچ بھی سکیں، اگر کل کوئی کمپیوٹر خودمختار ہوکر وائرس خود بنالے اور دوسرے کمپیوٹر کو بھی تربیت دے سکے تو ہم انسان اس کا مقابلہ شاید ہی کرسکیں، پھر سوچنے سمجھنے والے کمپیوٹرز کے لیے اخلاقی اور عملی حدود کون بنائے گا، یہ خود ایک بہت بڑا سوال ہے۔

انسان  کا انسان کو قتل کرنا: ہاکنگ کا کہنا ہے کہ  اگر مصنوعی ذہانت ہمیں نہیں مارتی تو خود انسان دوسرے انسان کو مٹانے کے لیے کافی ہے، ان کے مطابق انسان خود انسانیت کا خاتمہ کرسکتا ہے، لندن سائنس میوزیم میں جب ایک ٹیچر نے ان سے سوال کیا کہ آپ کس انسانی کمی کو تبدیل کرنے کے خواہاں ہیں تو ہاکنگ نے جواب دیا کہ انسان پرتشدد رویے کو ختم کرنے میں ناکام رہا ہے۔ اس (تشدد) کا فائدہ اسے اس وقت تھا جب وہ غاروں میں رہتا تھا، جہاں خوراک، زمین اور ساتھی کے لیے تشدد سے کوئی حل نکل سکتا تھا لیکن اب یہ رویہ ہم سب کو تباہ کرسکتا ہے، ہاکنگ اس کے لیے ایٹمی جنگ کا منظرنامہ بھی بیان کرتے ہیں اور کہتے ہیں کہ صرف افہام و تفہیم سے ہی امن اور محبت کا فروغ ہوسکتا ہے۔

اسٹیفن ہاکنگ کا کہنا ہے  کہ انسانی بقا کے لیے ضروری ہے کہ وہ مستقبل میں دیگرسیاروں اور خلا میں رہائش کی راہ ہموار کرے  جب کہ  وہ دیگر سیاروں پر رہائش کو انسانیت کا انشورنس قرار دیتے ہیں۔

خلائی مخلوق: اسٹیفن ہاکنگ نے 2010 میں  کہا تھا اگر کائنات کے کسی گوشے میں کوئی ذہین مخلوق موجود ہے تو انسان دوست نہیں ہوسکتی۔ ان کا کہنا تھا کہ  اگر کوئی خلائی مخلوق ہماری زمین پر آئی تو کرسٹوفرکولمبس جیسا ماجرا ہوگا جو اپنے امریکی سرزمین پر اترنے کے باوجود خود امریکیوں کے لیے بہتر رویہ نہیں رکھتا تھا جب کہ  ان کا خیال ہے کہ خلائی مخلوق کی آمد کسی حملہ آور کی طرح ہوگی جو علاقے فتح کرنے اور انسانوں کو غلام بنانے کے ساتھ ہمارے وسائل پر بھی قابض ہوجائیں گے۔

ایکسپریس میڈیا گروپ اور اس کی پالیسی کا کمنٹس سے متفق ہونا ضروری نہیں۔