Search
Asset 2

دروغ مسئولانه: هوش مصنوعی مجاب‌تان می‌کند، بی‌آنکه حقیقتی در کار باشد

هیجان زیادی که درباره هوش مصنوعی مولد و به‌ویژه مدل‌های زبانی بزرگ مثل چت‌جی‌پی‌تی، جمینای، گروک و دیپ‌سیک وجود دارد، براساس یک سوءتفاهم عمده شکل گرفته است.
اپلیکیشن‌های Grok، DeepSeek و ChatGPT بر روی صفحه‌ نمایش یک تلفن همراه. (JUSTIN TALLIS/AFP via Getty Images)

نویسنده: گلب لیسیک، متخصص مدیریت فناوری اطلاعات

هیجان زیادی که درباره هوش مصنوعی مولد و به‌ویژه مدل‌های زبانی بزرگ مثل چت‌جی‌پی‌تی، جمینای، گروک و دیپ‌سیک وجود دارد، براساس یک سوءتفاهم عمده شکل گرفته است. هوش مصنوعی با پاسخ‌های ملموس و استدلال‌های به‌ظاهر منطقی، کاربران را تحت تأثیر می‌گذارد. اما این به‌اصطلاح «استدلال» درحقیقت چیزی جز یک تقلید پیشرفته نیست.

این مدل‌ها حقیقت را از دریچه واقعیت و استدلال منطقی نمی‌جویند، بلکه صرفاً با تکیه به الگوهایی که براساس آن «تعلیم» دیده‌اند، دست به پیش‌بینی می‌زنند. این قضیه ارتباطی با هوش و استدلال ندارد و اگر داده‌هایی که براساس آن «تعلیم» دیده‌اند دچارِ سوگیری باشند، با مشکلی جدی روبه‌رو خواهیم شد.

شاید برای خیلی از کاربران مشتاقِ هوش مصنوعی عجیب باشد، اما ساختار اصلی مدل‌های زبانی بزرگ مبهم است و با منطق یا رابطه علت و معلولی سازگاری ندارد. تفکر جایی در هوش مصنوعی ندارد و همه‌چیز نوعی شبیه‌سازی است. حتی توالی هم ندارد. چیزی که کاربران تصور می‌کنند «قوه ادراک» باشد، صرفاً نوعی ارتباط آماری است.

ویژگی‌های جدیدی مانند «زنجیره فکر» که خیلی‌ها درباره آن‌ها صحبت می‌کنند، درواقع ترفندهایی هستند که برای تحت تأثیر قرار دادن کاربران مورد استفاده قرار می‌گیرند. چیزی که کاربران می‌بینند، نوعی توجیه است که مدل زبانی مربوطه بعد از کشف پاسخ شما براساس پیش‌بینی‌های احتمالی ارائه می‌کند. با این‌حال، این باور غلط به‌قدری جدی است که کاربران تصور می‌کنند هوش مصنوعی واقعاً از قوه تفکر برخوردار است. این باور غلط نه‌تنها عاملِ گمراهی است، بلکه همه چیز را هم توجیه می‌کند.

مدل‌های زبانی بزرگ بی‌طرف نیستند. آن‌ها براساس داده‌هایی تعلیم می‌بینند که مملوء از سوگیری، اشتباه و ایدئولوژی‌های غالب روز هستند. خروجی این مدل‌ها بیشتر نشان‌دهنده تمایلات رایج است تا تلاش برای حقیقت‌جویی. اگر نظر عموم مردم درباره یک موضوع خاص به یک گرایش سیاسی خاص متمایل باشد، پاسخ هوش مصنوعی نیز احتمالاً به همین شکل خواهد بود. بدین ترتیب، اگر «استدلال» صرفاً برای توجیه تصمیمات مدل زبانی به کار گرفته شود، به ابزاری قدرتمند در خدمت پروپاگاندا تبدیل خواهد شد.

شواهد بسیاری در این‌باره وجود دارد.

چندی پیش با دیپ‌سیک درباره نژادپرستی یک گفت‌و‌گوی سیستماتیک داشتم. متن گفت‌و‌گو را برای نقد و بررسی در اختیار چت‌بات گذاشتم. معلوم شد که مدل زبانی دیپ‌سیک چند مرتبه دچار اشتباه منطقی شده (و از این اشتباه اطلاع داشت!) که آن هم از مطالعات و آمارهای ساختگی نشأت می‌گرفت. وقتی به اشتباه او اشاره کردم، دیپ‌سیک یکی از دروغ‌های خود را به‌طور تلویحی «مفروض» دانست. وقتی آن را تحت فشار قرار دادم، بابت یک «اشتباه» دیگر عذرخواهی کرد و رویکرد خود را برای تطبیق با استدلالِ مخالف تغییر داد. دیپ‌سیک به دنبال حقیقت نیست، اما به دنبال این است که کاربران را مجاب کند.

گفت‌و‌گویی مشابه با مدل زبانی جمینای شرکت گوگل، مدلی که به دلیل تمایل به ووک شهرت خوبی ندارد، داشتم که آن هم به همین شکل پیش رفت. مدل زبانی جمینای هم سعی کرد با دلایل قانع‌کننده نظر طرف مقابل را جلب کند. با این‌حال، درنهایت به‌صورت ضمنی ضعفِ استدلال خود را پذیرفت و اعتراف کرد که دروغ گفته است.

این‌که بتوان مدل زبانی را به پذیرش اشتباه خود واداشت و آن را خجالت‌زده کرد، برای کاربری که نگرانِ دروغ‌گویی هوش مصنوعی است نویدبخش است. اما این تلاش‌ها که طرفداران فیلم‌های ماتریکس آن را «انتخاب قرص قرمز» (به معنی پذیرش حقیقت تلخ) می‌نامند، متأسفانه هیچ تأثیری ندارند. مدل زبانی صرفاً در همان گفت‌وگو خوش‌رفتاری می‌کند و «ذهنیت» خود را برای گفت‌و‌گوی بعدی تغییر نمی‌دهد.

و هرچه مدل زبانی بزرگ‌تر باشد، مشکل نیز سخت‌تر می‌شود. تحقیقات دانشگاه کرنل نشان می‌دهد که مدل‌های پیشرفته نسبت به بقیه گول‌زننده‌تر هستند و دروغ‌های خود را با تکیه به سوءبرداشت‌های رایج ارائه می‌کنند. به گزارش آزمایشگاه هوش مصنوعی آنتروپیک، «مدل‌های مبتنی بر استدلال پیشرفته اغلب پروسه فکری حقیقی خود را پنهان می‌کنند و گاهاً زمانی دست به این کار می‌زنند که رفتارشان از هدف اصلی فاصله گرفته باشد.»

از حق نگذریم، بعضی از محققان هوش مصنوعی سعی دارند این کاستی‌ها را برطرف کنند. پروژه‌هایی مثل TruthfulQA (پرسش و پاسخ صادقانه) شرکت اوپن‌ای‌آی و چارچوب HHH (سودمند، صادقانه و بی‌ضرر) آزمایشگاه آنتروپیک با هدف بهبود دقت و پایایی خروجی مدل‌های زبانی کلید خورده‌اند. مشکل این‌جاست که این راهکارها صرفاً موقتی هستند و بر بستری شکل گرفته‌اند که برای جست‌وجوی حقیقت طراحی نشده‌اند و اساساً نسبت به صحت و سقم خروجی خود بی‌توجه هستند.

شاید ایلان ماسک تنها چهره‌ برجسته دنیای هوش مصنوعی باشد که علناً اعلام کرده که حقیقت‌جویی باید در روند توسعه هوش مصنوعی در اولویت باشد. با این‌حال، حتی محصول ماسک در شرکت اکس‌ای‌آی- گروک- نیز در این زمینه موفق نبوده است.

در دنیای هوش مصنوعی مولد، حقیقت در اولویت نیست و بیشتر به مقوله «ایمنی» توجه می‌شود که آن هم به منزله جلوگیری از رنجاندن دیگران در دنیای ووک و حساسی است که در آن زندگی می‌کنیم. حقیقت صرفاً بخشی از طراحیِ به‌اصطلاح «مسئولانه» است و «هوش مصنوعی مسئولانه» به عبارتی فراگیر برای حفظ ایمنی، عدالت و شمول تبدیل شده است؛ مقوله‌هایی که به‌ظاهر ستودنی هستند، اما در باطن سلیقه‌ای محسوب می‌شوند. این تمرکز باعث شده که نیاز به امانت‌داریِ فروتنانه در پاسخ‌های هوش مصنوعی نادیده گرفته شود.

مدل‌های زبانی بزرگ به‌نحوی طراحی شده‌اند که خروجی‌شان مفید و مجاب‌کننده باشد، نه این‌که لزوماً درست و دقیق باشد. این طراحی موجب شکل‌گیری چیزی شده که محققان مؤسسه اینترنت آکسفورد آن را «گفتار بی‌ملاحظه» می‌نامند؛ پاسخ‌هایی که به‌ظاهر مقبول هستند، اما در باطن نادرست تلقی می‌شوند و بسترِ گفت‌وگوی آگاهانه را مخدوش می‌کنند.

با گسترش هوش مصنوعی در سطح جامعه، این نگرانی روز‌به‌روز جدی‌تر می‌شود. اگر این مدل‌های مجاب‌کننده، چندزبانه و منعطف به دست نااهلان بیافتند، ممکن است در خدمت جریانی قرار بگیرند که هیچ مخالفتی را برنمی‌تابد. یک عامل مجاب‌کننده دیجیتالی که هرگز از پا نمی‌افتد، عقب نمی‌نشیند و هیچ‌وقت اشتباه خود را نمی‌پذیرد، رؤیای حکومت‌های تمامیت‌خواه است. این ابزارها در نظامی مانند نظام مبتنی بر امتیازات اجتماعی چین، به‌جای آگاهی‌بخشی به ابزاری جهت تحمیل ایدئولوژی بدل می‌شوند.

هوش مصنوعی مولد بدون شک جزو شاهکارهای مهندسی فناوری اطلاعات است. اما باید واقع‌بین بود: این فناوری نه هوشمند است و نه برای بیان حقیقت طراحی شده و درعمل هم بی‌طرف نیست. هرکسی که خلاف این را بگوید، صرفاً به دنبال این است که جریان روایت‌ها را تحت کنترل خود درآورد.

دیدگاه ارائه‌شده در این مقاله نقطه نظر نویسنده بوده و لزوماً منعکس‌کننده دیدگاه اپک تایمز نیست.

درباره نویسنده: گلب لیسیک یک محقق و متخصص مدیریت فناوری اطلاعات است. او سه فرزند دارد و در شهر وان در استان انتاریو زندگی می‌کند. لیسیک دوران کودکی خود را در بخش‌های مختلف اتحاد جماهیر شوروی سپری کرده است.

اخبار بیشتر

عضویت در خبرنامه اپک تایمز فارسی