نویسنده: گلب لیسیک، متخصص مدیریت فناوری اطلاعات
هیجان زیادی که درباره هوش مصنوعی مولد و بهویژه مدلهای زبانی بزرگ مثل چتجیپیتی، جمینای، گروک و دیپسیک وجود دارد، براساس یک سوءتفاهم عمده شکل گرفته است. هوش مصنوعی با پاسخهای ملموس و استدلالهای بهظاهر منطقی، کاربران را تحت تأثیر میگذارد. اما این بهاصطلاح «استدلال» درحقیقت چیزی جز یک تقلید پیشرفته نیست.
این مدلها حقیقت را از دریچه واقعیت و استدلال منطقی نمیجویند، بلکه صرفاً با تکیه به الگوهایی که براساس آن «تعلیم» دیدهاند، دست به پیشبینی میزنند. این قضیه ارتباطی با هوش و استدلال ندارد و اگر دادههایی که براساس آن «تعلیم» دیدهاند دچارِ سوگیری باشند، با مشکلی جدی روبهرو خواهیم شد.
شاید برای خیلی از کاربران مشتاقِ هوش مصنوعی عجیب باشد، اما ساختار اصلی مدلهای زبانی بزرگ مبهم است و با منطق یا رابطه علت و معلولی سازگاری ندارد. تفکر جایی در هوش مصنوعی ندارد و همهچیز نوعی شبیهسازی است. حتی توالی هم ندارد. چیزی که کاربران تصور میکنند «قوه ادراک» باشد، صرفاً نوعی ارتباط آماری است.
ویژگیهای جدیدی مانند «زنجیره فکر» که خیلیها درباره آنها صحبت میکنند، درواقع ترفندهایی هستند که برای تحت تأثیر قرار دادن کاربران مورد استفاده قرار میگیرند. چیزی که کاربران میبینند، نوعی توجیه است که مدل زبانی مربوطه بعد از کشف پاسخ شما براساس پیشبینیهای احتمالی ارائه میکند. با اینحال، این باور غلط بهقدری جدی است که کاربران تصور میکنند هوش مصنوعی واقعاً از قوه تفکر برخوردار است. این باور غلط نهتنها عاملِ گمراهی است، بلکه همه چیز را هم توجیه میکند.
مدلهای زبانی بزرگ بیطرف نیستند. آنها براساس دادههایی تعلیم میبینند که مملوء از سوگیری، اشتباه و ایدئولوژیهای غالب روز هستند. خروجی این مدلها بیشتر نشاندهنده تمایلات رایج است تا تلاش برای حقیقتجویی. اگر نظر عموم مردم درباره یک موضوع خاص به یک گرایش سیاسی خاص متمایل باشد، پاسخ هوش مصنوعی نیز احتمالاً به همین شکل خواهد بود. بدین ترتیب، اگر «استدلال» صرفاً برای توجیه تصمیمات مدل زبانی به کار گرفته شود، به ابزاری قدرتمند در خدمت پروپاگاندا تبدیل خواهد شد.
شواهد بسیاری در اینباره وجود دارد.
چندی پیش با دیپسیک درباره نژادپرستی یک گفتوگوی سیستماتیک داشتم. متن گفتوگو را برای نقد و بررسی در اختیار چتبات گذاشتم. معلوم شد که مدل زبانی دیپسیک چند مرتبه دچار اشتباه منطقی شده (و از این اشتباه اطلاع داشت!) که آن هم از مطالعات و آمارهای ساختگی نشأت میگرفت. وقتی به اشتباه او اشاره کردم، دیپسیک یکی از دروغهای خود را بهطور تلویحی «مفروض» دانست. وقتی آن را تحت فشار قرار دادم، بابت یک «اشتباه» دیگر عذرخواهی کرد و رویکرد خود را برای تطبیق با استدلالِ مخالف تغییر داد. دیپسیک به دنبال حقیقت نیست، اما به دنبال این است که کاربران را مجاب کند.
گفتوگویی مشابه با مدل زبانی جمینای شرکت گوگل، مدلی که به دلیل تمایل به ووک شهرت خوبی ندارد، داشتم که آن هم به همین شکل پیش رفت. مدل زبانی جمینای هم سعی کرد با دلایل قانعکننده نظر طرف مقابل را جلب کند. با اینحال، درنهایت بهصورت ضمنی ضعفِ استدلال خود را پذیرفت و اعتراف کرد که دروغ گفته است.
اینکه بتوان مدل زبانی را به پذیرش اشتباه خود واداشت و آن را خجالتزده کرد، برای کاربری که نگرانِ دروغگویی هوش مصنوعی است نویدبخش است. اما این تلاشها که طرفداران فیلمهای ماتریکس آن را «انتخاب قرص قرمز» (به معنی پذیرش حقیقت تلخ) مینامند، متأسفانه هیچ تأثیری ندارند. مدل زبانی صرفاً در همان گفتوگو خوشرفتاری میکند و «ذهنیت» خود را برای گفتوگوی بعدی تغییر نمیدهد.
و هرچه مدل زبانی بزرگتر باشد، مشکل نیز سختتر میشود. تحقیقات دانشگاه کرنل نشان میدهد که مدلهای پیشرفته نسبت به بقیه گولزنندهتر هستند و دروغهای خود را با تکیه به سوءبرداشتهای رایج ارائه میکنند. به گزارش آزمایشگاه هوش مصنوعی آنتروپیک، «مدلهای مبتنی بر استدلال پیشرفته اغلب پروسه فکری حقیقی خود را پنهان میکنند و گاهاً زمانی دست به این کار میزنند که رفتارشان از هدف اصلی فاصله گرفته باشد.»
از حق نگذریم، بعضی از محققان هوش مصنوعی سعی دارند این کاستیها را برطرف کنند. پروژههایی مثل TruthfulQA (پرسش و پاسخ صادقانه) شرکت اوپنایآی و چارچوب HHH (سودمند، صادقانه و بیضرر) آزمایشگاه آنتروپیک با هدف بهبود دقت و پایایی خروجی مدلهای زبانی کلید خوردهاند. مشکل اینجاست که این راهکارها صرفاً موقتی هستند و بر بستری شکل گرفتهاند که برای جستوجوی حقیقت طراحی نشدهاند و اساساً نسبت به صحت و سقم خروجی خود بیتوجه هستند.
شاید ایلان ماسک تنها چهره برجسته دنیای هوش مصنوعی باشد که علناً اعلام کرده که حقیقتجویی باید در روند توسعه هوش مصنوعی در اولویت باشد. با اینحال، حتی محصول ماسک در شرکت اکسایآی- گروک- نیز در این زمینه موفق نبوده است.
در دنیای هوش مصنوعی مولد، حقیقت در اولویت نیست و بیشتر به مقوله «ایمنی» توجه میشود که آن هم به منزله جلوگیری از رنجاندن دیگران در دنیای ووک و حساسی است که در آن زندگی میکنیم. حقیقت صرفاً بخشی از طراحیِ بهاصطلاح «مسئولانه» است و «هوش مصنوعی مسئولانه» به عبارتی فراگیر برای حفظ ایمنی، عدالت و شمول تبدیل شده است؛ مقولههایی که بهظاهر ستودنی هستند، اما در باطن سلیقهای محسوب میشوند. این تمرکز باعث شده که نیاز به امانتداریِ فروتنانه در پاسخهای هوش مصنوعی نادیده گرفته شود.
مدلهای زبانی بزرگ بهنحوی طراحی شدهاند که خروجیشان مفید و مجابکننده باشد، نه اینکه لزوماً درست و دقیق باشد. این طراحی موجب شکلگیری چیزی شده که محققان مؤسسه اینترنت آکسفورد آن را «گفتار بیملاحظه» مینامند؛ پاسخهایی که بهظاهر مقبول هستند، اما در باطن نادرست تلقی میشوند و بسترِ گفتوگوی آگاهانه را مخدوش میکنند.
با گسترش هوش مصنوعی در سطح جامعه، این نگرانی روزبهروز جدیتر میشود. اگر این مدلهای مجابکننده، چندزبانه و منعطف به دست نااهلان بیافتند، ممکن است در خدمت جریانی قرار بگیرند که هیچ مخالفتی را برنمیتابد. یک عامل مجابکننده دیجیتالی که هرگز از پا نمیافتد، عقب نمینشیند و هیچوقت اشتباه خود را نمیپذیرد، رؤیای حکومتهای تمامیتخواه است. این ابزارها در نظامی مانند نظام مبتنی بر امتیازات اجتماعی چین، بهجای آگاهیبخشی به ابزاری جهت تحمیل ایدئولوژی بدل میشوند.
هوش مصنوعی مولد بدون شک جزو شاهکارهای مهندسی فناوری اطلاعات است. اما باید واقعبین بود: این فناوری نه هوشمند است و نه برای بیان حقیقت طراحی شده و درعمل هم بیطرف نیست. هرکسی که خلاف این را بگوید، صرفاً به دنبال این است که جریان روایتها را تحت کنترل خود درآورد.
دیدگاه ارائهشده در این مقاله نقطه نظر نویسنده بوده و لزوماً منعکسکننده دیدگاه اپک تایمز نیست.
درباره نویسنده: گلب لیسیک یک محقق و متخصص مدیریت فناوری اطلاعات است. او سه فرزند دارد و در شهر وان در استان انتاریو زندگی میکند. لیسیک دوران کودکی خود را در بخشهای مختلف اتحاد جماهیر شوروی سپری کرده است.