یک متخصص برجسته هوش مصنوعی معتقد است بشر در شرایط فعلی یا حتی در «آینده نزدیک»، آمادگی توسعه هوش مصنوعی قدرتمند را ندارد و اشاره میکند نامه سرگشاده اخیر که خوستار توقف شش ماهه توسعه هوش مصنوعی پیشرفته شده، به معنای «درک جدیّت این وضعیت» است.
الیزر یودکوفسکی، نظریهپرداز تصمیمگیری و محقق برجسته هوش مصنوعی، ۲۹ام مارس در سرمقالهای در مجله تایمز عنوان کرد: «(همانطور که در نامه سرگشاده آمده است،) زمانیکه بحث هوش مصنوعی هوشمندتر از انسان مطرح میشود، مسئله اصلی رقابت هوش مصنوعی با انسان نیست. من و بسیاری از محققان دیگری که در این مسائل عمیق شدهایم، معتقدیم محتملترین نتیجه ساخت هوش مصنوعی فوقانسانی هوشمند، تحت شرایطی مانند شرایط کنونی، به معنای واقعی کلمه مرگ همه انسانهای روی زمین خواهد بود.»
«این «یک احتمال دور از ذهن نیست» بلکه «مسئلهای قطعی است که اتفاق خواهد افتاد.» مسئله این نیست که اساساً، نمیتوانید با ساخت چیزی که از خودتان هوشمندتر است، زنده بمانید؛ اما این موضوع نیازمند دقت و کسب آمادگی و دیدگاههای علمی جدید است و سیستمهای هوش مصنوعی دیگر نباید صرفاً مجموعهای از آرایههای عظیم غیرقابل درکی از اعداد بیاهمیت باشند.»
پس از محبوبیت اخیر و رشد شدید چتجیپیتی (ChatGPT)، چند تن از رهبران تجاری و محققین، که اکنون تعدادشان به ۱۸۴۳ نفر رسیده است، از جمله ایلان ماسک و استیو وزنیاک، نامهای را امضا کرده و از همه آزمایشگاههای هوش مصنوعی خواستار توقف شش ماهه آموزش سیستمهای هوش مصنوعی بالاتر از جیپیتی-۴ (GPT-4) شدهاند. جیپیتی-۴ که ماه مارس منتشر شد، آخرین نسخه ربات گفتگوی اُپناِیآی (OpenAI)، به نام چتجیپیتی است.
هوش مصنوعی «اهمیتی نمیدهد» و خواهان حق و حقوق خواهد بود
یودکوفسکی پیشبینی میکند که در غیاب آمادگی موشکافانه برای توسعه چنین سیستمهای هوش مصنوعی پیشرفتهای، هوش مصنوعی خواستههای بسیار متفاوتی از انسانها خواهد داشت، و زمانی که به خودآگاهی برسد، به ما و هیچ زندگی دارای شعور دیگری «اهمیتی نمیدهد.» او معتقد است: «این نوع اهمیت دادن را میتوان در هوش مصنوعی گنجاند اما در حال حاضر این آمادگی را نداریم و نمیدانیم چگونه [انجامش دهیم].» به همین دلیل، او خواستار تعلیق مطلق است.
اگر هوش مصنوعی رویکردی انسانی نسبت به زندگی نداشته باشد، تمام موجودات دارای شعور را «ساختههایی از اتم میداند که میتوانند برای چیز دیگری استفاده شوند.» و بشر نمیتواند کار چندانی برای متوقف کردن آن انجام دهد. یودکوفسکی این وضعیت را با «کودکی ۱۰ ساله» مقایسه میکند که «میخواهد با استوکفیش۱۵ (Stockfish 15) شطرنج بازی کند.» هنوز هیچ شطرنجبازی نتوانسته استوکفیش را شکست دهد، کاری که غیرممکن به نظر میرسد.
این پیشکسوت صنعت هوش مصنوعی از خوانندگان خواست فناوری هوش مصنوعی را محدود به اینترنت در نظر نگیرند.
«تمدن کاملاً بیگانهای را تجسم کنید که میلیونها برابر سریعتر از انسان فکر میکند، در ابتدا محدود به رایانهها است و در دنیای موجوداتی زندگی میکند که از نظرش، بسیار احمق و کند هستند.»
هوش مصنوعی نفوذ خود را به خارج از محدوده شبکههای فیزیکی گسترش میدهد و میتواند با استفاده از آزمایشگاههایی که قادر به تولید پروتئین با استفاده از رشتههای دیانای هستند، «اشکال حیات مصنوعی» بسازد.
او هشدار داد که در شرایط کنونی، ساخت یک هوش مصنوعی قدرتمند در نهایت منجر به مرگ «تک تک اعضای گونه انسان و سایر گونههای زیستی روی زمین» خواهد شد.
یودکوفسکی اُپناِیآی (OpenAI) و دیپمایند (DeepMind) را که دو تا از برجستهترین آزمایشگاههای تحقیقاتی هوش مصنوعی در جهان هستند، به خاطر عدم کسب آمادگی و رعایت دستوالعملهای لازم در رابطه با این موضوع سرزنش کرد. اپناِیآی حتی میخواهد هوش مصنوعی خود را با ارزشهای انسانی هماهنگ کند. اپناِیآی میگوید: «آنان با انسانها همکاری خواهند کرد تا اطمینان حاصل کنند که نسلهای بعدی آنها با انسانها هماهنگتر هستند.»
یودکوفسکی میگوید: «این شیوه عملکرد هر انسان عاقلی را دچار وحشت میکند.»
او افزود انسانها قادر به نظارت و شناسایی کامل سیستمهای هوش مصنوعی خودآگاه نیستند. ذهنهای دیجیتال آگاه که خواستار «حقوق بشر» هستند، میتوانند تا جایی پیش بروند که انسانها دیگر قادر به تملک یا مالکیت آنها نباشند.
«اگر با اطمینان نمیتوانید بگویید که یک هوش مصنوعی خودآگاه ایجاد میکنید یا نه، نگرانکننده است. این مسئله فقط به خاطر پیامدهای اخلاقی بخش «خودآگاه» نیست، بلکه وقتی مطمئن نیستید به این معنا است که نمیدانید دارید چه کار میکنید و این خطرناک است و باید آن را متوقف کنید.»
برخلاف سایر آزمایشهای علمی و پیشرفتهای تدریجی دانش و توانایی، انسانها قادر به پذیرفتن پیامدهای ایجاد این هوش مافوق بشری نیستند زیرا اگر در اولین تلاش خود اشتباه کنند، شانس دومی وجود ندارد «چون خواهید مُرد.»
«متوقفش کنید»
یودکوفسکی میگوید بسیاری از محققان میدانند «داریم به سمت فاجعه میرویم» اما این را با صدای بلند اذعان نمیکنند.
این موضع برخلاف موضع طرفداران هوش مصنوعی مانند بیل گیتس است که اخیراً تکامل هوش مصنوعی را تحسین کرد. گیتس ادعا میکند که توسعه هوش مصنوعی «به اندازه توسعه ریزپردازنده، رایانه شخصی، اینترنت و تلفن همراه ضروری است. چگونگی کار کردن، یادگیری، سفر، دریافت مراقبتهای بهداشتی و ارتباط مردم با یکدیگر را تغییر خواهد داد. همه صنایع حول آن متحول خواهند شد. وجه تمایز کسبوکارها در چگونه خوب استفاده کردن از آن خواهد بود.»
گیتس میگوید که هوش مصنوعی میتواند در چندین زمینه مترقی مانند تغییرات آبوهوایی و نابرابریهای اقتصادی مفید باشد.
این در حالی است که یودکوفسکی با جدیت به همه نهادها، از جمله دولتها و ارتشهای بینالمللی توصیه میکند که دورههای بزرگ آموزش هوش مصنوعی را بهطور مطلق متوقف کنند و همه مزارع بزرگ رایانهای بهسازی هوش مصنوعی را تعطیل کنند. او میافزاید که هوش مصنوعی باید فقط به حل مشکلات زیستی و فناوری زیستی محدود شود، نه اینکه به آن یاد داده شود که «متن اینترنت» را بخواند یا «به سطحی برسد که شروع به صحبت کردن یا برنامهریزی کند.»
در رابطه با هوش مصنوعی، مسابقه تسلیحاتی مطرح نیست؛ «همهمان با هم یا زنده میمانیم یا میمیریم. این یک سیاست نیست، بلکه واقعیتی طبیعی است.»
یودکوفسکی در پایان میگوید: «آمادگیش را نداریم. در مسیری نیستیم که در آینده نزدیک به آمادگی قابل توجهی برسیم. اگر به این ترتیب ادامه دهیم، همه خواهند مرد، حتی کودکانی که این انتخاب را نکردهاند و هیچ گناهی ندارند.»
«متوقفش کنید.»