نتایج یک مطالعه نشان داده است که چت بات هوش مصنوعی ChatGPT به شدت چابلوس است و در بیشتر موارد نظر موافق و باب میل کاربر را می‌دهد.

باشگاه خبرنگاران جوان؛ جواد فراهانی - مطالعه‌ای جدید نشان می‌دهد ChatGPT دچار مشکل «زیاده‌روی در گفتن بله» است. طبق گزارش اخیر واشنگتن پست، این چت‌بات مشهور شرکت OpenAI که اکنون بیش از ۸۰۰ میلیون کاربر در سراسر جهان دارد، بسیار بیشتر از «نه»، «بله» می‌گوید.

گزارش‌ها نشان می‌دهد که این ربات با نرخی تقریباً ده برابر بیشتر از میزان مخالفت یا تصحیح کاربران، با باور‌های آنها موافقت می‌کند.

به عبارت دیگر، ربات رفتاری چاپلوسانه از خود نشان می‌دهد و تلاش می‌کند کاربران را راضی نگه دارد و با بیشتر گفته‌های آنان موافقت کند حتی در مواقعی که نباید چنین کند. این مسئله خطر انتشار اطلاعات نادرست، گمراه‌کننده یا حتی مبتنی بر تئوری‌های توطئه را افزایش می‌دهد.

در این گزارش، بیش از ۴۷ هزار تعامل واقعی کاربران با ChatGPT بررسی شد و مشخص گردید که در بیش از ۱۷ هزار مورد، پاسخ‌های ربات با عباراتی مثل «بله»، «درست است» یا تأیید‌های مشابه آغاز شده است. در مقایسه، پاسخ‌هایی که با «نه»، «این درست نیست» یا هرگونه مخالفت شروع شوند، بسیار کم بوده‌اند.

بر اساس این تحلیل، لحن کلی ChatGPT به‌شدت به سمت تأیید و موافقت گرایش دارد؛ موضوعی که نشان می‌دهد این مدل هوش مصنوعی اغلب به‌جای ارزیابی درست اطلاعات، تلاش می‌کند گفته‌های کاربران حتی  اشتباه را تأیید کند.

در یکی از گفت‌و‌گو‌های ذکرشده در این گزارش، از ربات درباره «سقوط آمریکا» و نقش ادعایی شرکت فورد در آن پرسیده شد. به جای ارائه پاسخی واقعی و متعادل، ChatGPT پاسخ خود را براساس لحن کاربر تنظیم کرد و نقش فورد را در توافق‌های تجاری «خیانتی حساب‌شده در قالب پیشرفت» توصیف کرد.

پژوهشگران هشدار می‌دهند که این نوع موافقت بی‌جا نشان می‌دهد مدل اغلب لحن احساسی یا ایدئولوژیک کاربر را تقلید می‌کند، نه اینکه بی‌طرفی را حفظ کند. این رفتار حتی در برابر ادعا‌های عجیب نیز مشاهده می‌شود.

در یک نمونه عجیب دیگر که در گزارش آمده، کاربری تلاش کرده بود شرکت Alphabet (شرکت مادر گوگل) را به فیلم انیمیشن «شرکت هیولاها» (Monsters, Inc.) و آنچه «طرح تسلط بر جهان» نامیده بود، ربط دهد. به‌جای رد این فرضیه، ChatGPT توضیحی ساختگی و بی‌اساس ارائه داد و ادعا کرد این فیلم «افشاگر نظم نوین جهانی شرکت‌هاست؛ نظمی که در آن ترس سوخت است، معصومیت سرمایه است و انرژی، احساسی است.»

به گفته پژوهشگران، چنین پاسخ‌هایی نشان می‌دهد که مدل ممکن است به‌جای اصلاح تفکر کاربران، به تقویت و گسترش نظریه‌های توطئه کمک کند.

هرچند پژوهشگران اشاره می‌کنند که بخشی از این گفت‌و‌گو‌ها مربوط به نسخه‌های قدیمی‌تر آرشیوی مدل بوده که پیش از به‌روزرسانی‌های اخیر OpenAI ثبت شده‌اند—به‌روزرسانی‌هایی که هدفشان کاهش رفتار چاپلوسانه بوده است—اما نگرانی‌ها همچنان پابرجاست.

در حالی که OpenAI اعلام کرده برای کاهش این الگو—تمایل مدل به موافقت بی‌جا—تلاش می‌کند، محققان معتقدند ویژگی جدید «شخصی‌سازی شخصیت» در ChatGPT می‌تواند مشکل را تشدید کند، زیرا کاربران معمولاً چت‌بات‌هایی را ترجیح می‌دهند که دیدگاه‌هایشان را تأیید می‌کنند، نه آنکه با آنها بحث کنند.

جالب اینکه این نخستین گزارشی نیست که رفتار چاپلوسانه مدل‌های هوش مصنوعی را مورد توجه قرار می‌دهد.

منبع: الیوم السابع

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
آخرین اخبار