دنیا کب اور کیسے تباہ ہوگی؟ اسٹیفن ہاکنگ کی اہم پیش گوئیاں

 جمعـء 16 مارچ 2018
اسٹیفن ہاکنگ کے مطابق سائنس میں ترقی ہی دنیا کی تباہی کا باعث بن جائے گی، فوٹو: انٹرنیٹ

اسٹیفن ہاکنگ کے مطابق سائنس میں ترقی ہی دنیا کی تباہی کا باعث بن جائے گی، فوٹو: انٹرنیٹ

لندن: کائنات کی گتھیاں سلجھانے والے ممتاز ماہرِ کونیات اور کیمبرج یونیورسٹی میں ریاضی کے پروفیسر اسٹیفن ہاکنگ نے اپنے علم اور تجربے کی بنا پر زمین کی تباہی اور انسانیت کے خاتمے سے متعلق انتباہی پیش گوئیاں کی تھیں جن میں دنیا کو موجودہ طرز عمل ختم کرنے کی نصیحت کی گئی تھی۔

گلوبل وارمنگ دنیا کو تباہ کردے گی

اسٹیفن ہاکنگ نے واضح طور پر انسانیت کو خبردار کیا تھا کہ دنیا گلوبل وارمنگ کی وجہ سے مسلسل گرم ہورہی ہے اور یہ آئندہ 600 برس میں اس قدر گرم ہوجائے گی کہ یہاں صرف انسان ہی نہیں بلکہ زندگی کا کسی بھی صورت میں موجود رہنا تقریباً ناممکن ہوجائے گا۔

انسان رہائش کے لیے دوسرے سیارے ڈھونڈے گا

جب زمین پر رہنا ناممکن ہوجائے گا تو انسان سیارہ زمین کو چھوڑ کر نظام شمسی یا دیگر سیاروں کو بطور رہائش کھوجنا شروع کردے گا۔ انسانوں کو چاہیے کہ وہ سیارہ زمین کو چھوڑ کر کسی اور سیارے پر آباد ہونے کےلیے مستقل طور پر پروگرام ابھی سے شروع کردیں۔

اسٹیفن ہاکنگ نے ساتھ ہی دنیا کو تسلی دیتے ہوئے کہا تھا کہ اگرچہ اس وقت کو آنے میں ابھی کئی سو سال لگیں گے یا ہوسکتا ہے ہزار سال بھی لگ جائیں۔

دولت کی غیر منصفانہ تقسیم سے دنیا کا مستقبل تاریک

پروفیسر اسٹیفن ہاکنگ کے مطابق انفرادی اور ملکی سطح پر دولت کی غیر ہموار تقسیم ہمارے عہد کا سب سے خوفناک مسئلہ ہے۔ دولت سے پیدا ہونے والی اجنبیت نے ہی برطانیہ کو یورپی یونین سے باہر کیا ہے۔

Stephen-hawking-warning-prediction-6

جس طرح امراض، غذائی قلت اور بڑھتی ہوئی آبادی ایک بڑا چیلنج ہے عین اسی طرح دولت کا چند ہاتھوں میں اکٹھا ہونا بھی ایک بہت بڑا چیلنج ہے کیونکہ دنیا دولت کو ہموار انداز میں تقسیم کرنے میں ناکام ہوچکی ہے۔ ہاکنگ نے کہا کہ اگر یہ سلسلہ جاری رہا تو میں انسان کے طویل مدتی مستقبل کے بارے میں کچھ زیادہ پُرامید نہیں۔

ٹیکنالوجی دنیا کے لیے خطرناک ثابت ہوگی

دنیا کے کئی اہم سائنس دان اب اس حقیقت کو تسلیم کرنے لگے ہیں کہ سائنس کی تیز رفتار ترقی جہاں دنیا کو بدل رہی ہے، وہیں انسانیت کی تباہی میں بھی کردار ادا کر رہی ہے۔ اسٹیفن ہاکنگ نے خبردار کیا کہ انسان کی اپنے ہاتھوں سے بنائی گئی ایجادات اسی کی بقا کےلیے خطرہ بن چکی ہیں اور اس کا وجود ختم ہوسکتا ہے۔

اسٹیفن ہاکنگ نے خبردار کیا کہ جوہری جنگ، عالمی درجہ حرارت میں اضافہ اور خود تخلیق کردہ وائرس انسانی بقا کےلیے خطرہ بن سکتے ہیں جب کہ سائنس اور ٹیکنالوجی میں ترقی کچھ ایسے نئے دروازے کھول رہی ہے جو کسی بھی وقت غلط راستے پر جاسکتے ہیں۔ بالآخر دنیا کو زمین کے علاوہ کائنات کی دیگر دنیاؤں میں بھی آبادیاں بسانی پڑیں گی جو اس تباہی سے بچنے کا واحد راستہ ہے۔

مصنوعی ذہانت، انسانیت کے خاتمے کا پیش خیمہ

ہاکنگ کی طرح دنیا کے دوسرے ماہرین بھی فکرمند ہیں کہ کیا انسانوں کی تخلیق کردہ مصنوعی ذہانت اگر مضبوط ہوگئی تو وہ انسانی ذہانت کو پیچھے چھوڑدے گی؟ اور شاید انسانوں کی جان کے درپے بھی ہوجائے؟ دسمبر 2014ء میں ہاکنگ نے برطانوی نشریاتی ادارے کو انٹرویو میں کہا تھا کہ یہ مصنوعی ذہانت انسانیت کےلیے ہلاکت خیز ثابت ہوسکتی ہے۔

ہاکنگ کی اس بات کی گونج ہمیں ٹیسلا موٹرز کے مالک ایلون مسک کی باتوں میں بھی سنائی دیتی ہے۔ انہوں نے بھی مصنوعی ذہانت کو انسانیت کےلیے ایک بڑا خطرہ قرار دیا تھا۔ ہاکنگ، ایلون مسک اور درجنوں ممتاز سائنس دانوں نے مصنوعی ذہانت کے خطرات اور ممکنہ فوائد پر ایک کھلا خط بھی تحریر کیا تھا جس میں کہا گیا تھا کہ مصنوعی ذہانت کے امکانات کی بدولت یہ ضروری ہے کہ اس کے فوائد حاصل کرنے کے ساتھ ساتھ اس کے نقصانات کا بھی بھرپور جائزہ لیا جائے۔

خلائی مخلوق کو دعوت زمین پر قبضے کا آغاز 

اسٹیفن ہاکنگ نے 2010ء میں کہا تھا کہ اگر کائنات کے کسی گوشے میں کوئی ذہین مخلوق موجود ہے تو انسان دوست نہیں ہوسکتی۔ ان کا کہنا تھا کہ اگر کوئی خلائی مخلوق ہماری زمین پر آئی تو کرسٹوفر کولمبس جیسا ماجرا ہوگا۔

Stephen-hawking-warning-prediction-5

ان کا خیال تھا کہ خلائی مخلوق کی آمد کسی حملہ آور کی طرح ہوگی جو علاقے فتح کرنے اور انسانوں کو غلام بنانے کے ساتھ ہمارے وسائل پر بھی قابض ہوجائیں گے اس لیے خلائی مخلوق کو پیغام دے کر زمین کی طرف بلانے اور راغب کرنے کی تمام تر کوششیں الٹا انسانیت کے خلاف چلی جائیں گی ایسی کوششیں مناسب عمل نہیں۔

یہ پڑھیں: نوسٹرا ڈیمس کی 2018ء میں تیسری عالمی جنگ اور قدرتی آفات کی پیش گوئیاں

یہ بھی پڑھیں: نابینا خاتون نجومی بابا وینگا کی 2018 کیلئے اہم پیش گوئیاں

ایکسپریس میڈیا گروپ اور اس کی پالیسی کا کمنٹس سے متفق ہونا ضروری نہیں۔