Search
Asset 2

متخصص هوش مصنوعی: «اگر به این ترتیب ادامه دهیم، همه‌مان می‌میریم»

توسعه هوش مصنوعی
در این عکس فایلی که در 15 می 2019 گرفته شده است، یک ربات هوش مصنوعی با عنوان "Alter 3: Offloaded Agency" در طی یک فوتوکال برای تبلیغ نمایشگاه آینده با عنوان "AI: بیشتر از انسان" در مرکز باربیکن در لندن. (BEN STANSALL/AFP via Getty Images)

یک متخصص برجسته‌ هوش مصنوعی معتقد است بشر در شرایط فعلی یا حتی در «آینده نزدیک»، آمادگی توسعه‌ هوش مصنوعی قدرتمند را ندارد و اشاره می‌کند نامه سرگشاده اخیر که خوستار توقف شش ماهه توسعه هوش مصنوعی پیشرفته شده، به معنای «درک جدیّت این وضعیت» است.

الیزر یودکوفسکی، نظریه‌پرداز تصمیم‌گیری و محقق برجسته هوش مصنوعی، ۲۹ام مارس در سرمقاله‌ای در مجله تایمز عنوان کرد: «(همان‌طور که در نامه سرگشاده آمده است،) زمانی‌که بحث هوش مصنوعی هوشمندتر از انسان مطرح می‌شود، مسئله اصلی رقابت هوش مصنوعی با انسان نیست. من و بسیاری از محققان دیگری که در این مسائل عمیق شده‌ایم، معتقدیم محتمل‌ترین نتیجه ساخت هوش مصنوعی فوق‌انسانی هوشمند، تحت شرایطی مانند شرایط کنونی، به معنای واقعی کلمه مرگ همه انسان‌های روی زمین خواهد بود.»

«این «یک احتمال دور از ذهن نیست» بلکه «مسئله‌ای قطعی است که اتفاق خواهد افتاد.» مسئله این نیست که اساساً، نمی‌توانید با ساخت چیزی که از خودتان هوشمندتر است، زنده بمانید؛ اما این موضوع نیازمند دقت و کسب آمادگی و دیدگاه‌های علمی جدید است و سیستم‌های هوش مصنوعی دیگر نباید صرفاً مجموعه‌ای از آرایه‌های عظیم غیرقابل درکی از اعداد بی‌اهمیت باشند.»

پس از محبوبیت اخیر و رشد شدید چت‌جی‌پی‌تی (ChatGPT)، چند تن از رهبران تجاری و محققین، که اکنون تعدادشان به ۱۸۴۳ نفر رسیده‌ است، از جمله ایلان ماسک و استیو وزنیاک، نامه‌ای را امضا کرده و از همه آزمایشگاه‌های هوش مصنوعی خواستار توقف شش ماهه آموزش سیستم‌های هوش مصنوعی بالاتر از جی‌پی‌تی-۴ (GPT-4) شده‌اند. جی‌پی‌تی-۴ که ماه مارس منتشر شد، آخرین نسخه ربات گفتگوی اُپن‌اِی‌آی (OpenAI)، به نام چت‌جی‌پی‌تی است.

هوش مصنوعی «اهمیتی نمی‌دهد» و خواهان حق و حقوق خواهد بود

یودکوفسکی پیش‌بینی می‌کند که در غیاب آمادگی موشکافانه برای توسعه چنین سیستم‌های هوش مصنوعی پیشرفته‌ای، هوش مصنوعی خواسته‌های بسیار متفاوتی از انسان‌ها خواهد داشت، و زمانی که به خودآگاهی برسد، به ما و هیچ زندگی دارای شعور دیگری «اهمیتی نمی‌دهد.» او معتقد است: «این نوع اهمیت دادن را می‌توان در هوش مصنوعی گنجاند اما در حال حاضر این آمادگی را نداریم و نمی‌دانیم چگونه [انجامش دهیم].» به همین دلیل، او خواستار تعلیق مطلق است.

اگر هوش مصنوعی رویکردی انسانی نسبت به زندگی نداشته باشد، تمام موجودات دارای ‌شعور را «ساخته‌هایی از اتم می‌داند که می‌توانند برای چیز دیگری استفاده شوند.» و بشر نمی‌تواند کار چندانی برای متوقف کردن آن انجام دهد. یودکوفسکی این وضعیت را با «کودکی ۱۰ ساله» مقایسه می‌کند که «می‌خواهد با استوک‌فیش۱۵ (Stockfish 15) شطرنج بازی کند.» هنوز هیچ شطرنج‌بازی نتوانسته استوک‌فیش را شکست دهد،  کاری که غیرممکن به نظر می‌رسد.

این پیشکسوت صنعت هوش مصنوعی از خوانندگان خواست فناوری هوش مصنوعی را محدود به اینترنت در نظر نگیرند.

«تمدن کاملاً بیگانه‌ای را تجسم کنید که میلیون‌ها برابر سریع‌تر از انسان فکر می‌کند، در ابتدا محدود به رایانه‌ها است و در دنیای موجوداتی زندگی می‌کند که از نظرش، بسیار احمق و کند هستند.»

هوش مصنوعی نفوذ خود را به خارج از محدوده شبکه‌های فیزیکی گسترش می‌دهد و می‌تواند با استفاده از آزمایشگاه‌هایی که قادر به تولید پروتئین‌ با استفاده از رشته‌های دی‌ان‌ای هستند، «اشکال حیات مصنوعی» بسازد.

او هشدار داد که در شرایط کنونی، ساخت یک هوش مصنوعی قدرتمند در نهایت منجر به مرگ «تک تک اعضای گونه انسان و سایر گونه‌های زیستی روی زمین» خواهد شد.

یودکوفسکی اُپن‌اِی‌آی (OpenAI) و دیپ‌مایند (DeepMind) را که دو تا از برجسته‌ترین آزمایشگاه‌های تحقیقاتی هوش مصنوعی در جهان هستند، به خاطر عدم کسب آمادگی و رعایت دستوالعمل‌های لازم در رابطه با این موضوع سرزنش کرد. اپن‌اِی‌آی حتی می‌خواهد هوش مصنوعی خود را با ارزش‌های انسانی هماهنگ کند. اپن‌اِی‌آی می‌گوید: «آنان با انسان‌ها همکاری‌ خواهند کرد تا اطمینان حاصل کنند که نسل‌های بعدی آن‌ها با انسان‌ها هماهنگ‌تر هستند.»

یودکوفسکی می‌گوید: «این شیوه عملکرد هر انسان عاقلی را دچار وحشت می‌کند.»

او افزود انسان‌ها قادر به نظارت و شناسایی کامل سیستم‌های هوش مصنوعی خودآگاه نیستند. ذهن‌های دیجیتال آگاه که خواستار «حقوق بشر» هستند، می‌توانند تا جایی پیش بروند که انسان‌ها دیگر قادر به تملک یا مالکیت آن‌ها نباشند.

«اگر با اطمینان نمی‌توانید بگویید که یک هوش مصنوعی خودآگاه ایجاد می‌کنید یا نه، نگران‌کننده است. این مسئله فقط به خاطر پیامدهای اخلاقی بخش «خودآگاه» نیست، بلکه وقتی مطمئن نیستید به این معنا است که نمی‌دانید دارید چه کار می‌کنید و این خطرناک است و باید آن را متوقف کنید.»

برخلاف سایر آزمایش‌های علمی و پیشرفت‌های تدریجی دانش و توانایی، انسان‌ها قادر به پذیرفتن پیامدهای ایجاد این هوش مافوق بشری نیستند زیرا اگر در اولین تلاش خود اشتباه کنند، شانس دومی وجود ندارد «چون خواهید مُرد.»

«متوقفش کنید»

یودکوفسکی می‌گوید بسیاری از محققان می‌دانند «داریم به سمت فاجعه می‌رویم» اما این را با صدای بلند اذعان نمی‌کنند.

این موضع برخلاف موضع طرفداران هوش مصنوعی مانند بیل گیتس است که اخیراً تکامل هوش مصنوعی را تحسین کرد. گیتس ادعا می‌کند که توسعه هوش مصنوعی «به اندازه توسعه ریزپردازنده، رایانه شخصی، اینترنت و تلفن همراه ضروری است. چگونگی کار کردن، یادگیری، سفر، دریافت مراقبت‌های بهداشتی و ارتباط مردم با یکدیگر را تغییر خواهد داد. همه صنایع حول آن متحول خواهند شد. وجه تمایز کسب‌وکارها در چگونه خوب استفاده کردن از آن خواهد بود.»

گیتس می‌گوید که هوش مصنوعی می‌تواند در چندین زمینه مترقی مانند تغییرات آب‌وهوایی و نابرابری‌های اقتصادی مفید باشد.

این در حالی است که یودکوفسکی با جدیت به همه نهادها، از جمله دولت‌ها و ارتش‌های بین‌المللی توصیه می‌کند که دوره‌های بزرگ آموزش هوش مصنوعی را به‌طور مطلق متوقف کنند و همه مزارع بزرگ رایانه‌ای بهسازی هوش مصنوعی را تعطیل کنند. او می‌افزاید که هوش مصنوعی باید فقط به حل مشکلات زیستی و فناوری زیستی محدود شود، نه این‌که به آن یاد داده شود که «متن اینترنت» را بخواند یا «به سطحی برسد که شروع به صحبت کردن یا برنامه‌ریزی کند.»

در رابطه با هوش مصنوعی، مسابقه تسلیحاتی مطرح نیست؛ «همه‌مان با هم یا زنده می‌مانیم یا می‌میریم. این یک سیاست نیست، بلکه واقعیتی طبیعی است.»

یودکوفسکی در پایان می‌گوید: «آمادگیش را نداریم. در مسیری نیستیم که در آینده نزدیک به آمادگی قابل توجهی برسیم. اگر به این ترتیب ادامه دهیم، همه خواهند مرد، حتی کودکانی که این انتخاب را نکرده‌اند و هیچ گناهی ندارند.»

«متوقفش کنید.»

اخبار بیشتر

عضویت در خبرنامه اپک تایمز فارسی