logo_eet

استفان هاوکینگ: فناوری جدید می‌تواند تهدیدی برای بقای انسان باشد

استفان هاوکینگ
(ANDREW COWIE/AFP/Getty Images)
استفان هاوکینگ
(ANDREW COWIE/AFP/Getty Images)

 

 استفان هاوکینگ، فیزیکدان برجسته انگلیسی هشدار داده که فن‌آوری‌های جدید احتمالاً روش‌های جدید اشتباهی در تهدید بقای انسان به ارمغان خواهد آورد.

هاوکینگ در پاسخ به این سوال که جهان چطور به پایان خواهد رسید، – به طور طبیعی یا انسان ابتدا آن را نابود خواهد کرد- گفت که به طور فزاینده‌ای بسیاری از تهدیدات بشریت به واسطه پیشرفت در علم و فن‌آوری است. آن‌ شامل جنگ‌های هسته‌ای، فاجعه گرم شدن کره زمین و ویروس‌های ناشی از مهندسی ژنتیک است.

وی این نظرات را در سخنرانی سالیانه بی‌بی‌سی در ۱۷ دی‌ماه که در مورد ماهیت سیاهچاله‌ها ضبط‌ شده ارائه داده است. این برنامه در دو قسمت در روزهای ۶ و ۱۳ بهمن از رادیو تلویزیون پخش خواهد شد.

استاد دانشگاه کمبریج گفت فاجعه‌ای که قریب به یقین هزار تا ده هزار سال آینده رخ خواهد داد، دوره پایان بشریت نخواهد بود، زیرا تا آن زمان احتمالاً انسان‌ها به مکان‌ها و ستاره‌های دیگر گسترش یافته‌اند.

وی گفت که با این حال ما تا حداقل صدسال آینده قادر به ساخت مستعمرات خود نخواهیم بود و باید در این دوره بسیار مراقب باشیم. این شوخی باعث خنده حضار شد.

هاوکینگ اضافه کرد: «ما قادر به توقف پیشرفت‌ها یا بازگشت به عقب نیستیم، بنابراین باید خطرات و کنترل آن را به رسمیت بشناسیم. من خوشبین هستم و معتقدم که می‌توانیم.»

یکی از موضوعات مورد علاقه هاوکینگ هوش مصنوعی مفید است. در مرداد ماه وی به همراه ایلان ماسک و استیو وزنیاک طی نامه‌ای به سازمان ملل متحد خواستار ممنوع شدن تولید سلاح‌های هوشمند خودکار شدند. همچنین این دانشمند در آبان ماه جلسه پرسش و پاسخی در خصوص خطرات هوش مصنوعی ترتیب داد.

هاوکینگ نوشت:«ما باید هدف ساخت هوش مصنوعی را به سمت مفید بودن تغییر دهیم. ممکن است ده‌ها سال طول بکشد تا راه رسیدن به این هدف مشخص شود، پس بیایید تحقیق را از امروز شروع کنیم.»

نگرانی هاوکینگ به خاطر این ‌نیست که یک هوش مصنوعی شرور در آزمایشگاه تولید شود، اما یک هوش مصنوعی طراحی شده برای اهداف نرمال ممکن است خوب عمل نکرده و باعث از بین رفتن بشریت شود.

هاوکینگ نوشت: «خطر اصلی هوش مصنوعی شرارت و بدجنسی آن نیست، بلکه مهارت و توانایی آن است. یک هوش مصنوعی فوق هوشمند در دستیابی به اهدافش مهارت خارق‌العادی دارد و اگر آن اهداف با خواسته‌های ما هماهنگی نداشته باشد، با مشکل روبرو خواهیم شد. به طور مثال شما از مورچه بدتان نمی‌آید و از روی عمد یا بدخواهی پایتان را روی آن نمی‌گذارید ولی اگر مسئول یک پروژه هیدروالکتریکی انرژی سبز باشید و لانه مورچه در مسیر آب قرار گیرد برای مورچه‌ها بد خواهد شد. بیایید بشریت را در موقعیت مورچه‌ها قرار ندهید.»

اخبار مرتبط

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *