محققان برجسته‌ترین دانشگاه‌های آمریکا در یک مطالعه بزرگ تأیید کردند که چت‌بات‌های هوش مصنوعی به شدت چاپلوس هستند و اقدامات کاربران را ۵۰ درصد بیشتر از انسان‌ها تأیید می‌کنند.

باشگاه خبرنگاران جوان - همه ما شواهدی داریم مبنی بر اینکه چت‌بات‌ها چاپلوسی ما را می‌کنند، اما اکنون علم هم آن را تأیید کرده است.

به نقل از انگجت، محققان دانشگاه‌های استنفورد، هاروارد و سایر مؤسسات علمی به تازگی مطالعه‌ای در مورد ماهیت چاپلوسی چت‌بات‌های هوش مصنوعی در مجله Nature منتشر کرده‌اند و نتایج شاید کسی را متعجب نکند. خلاصه اینکه این ربات‌های گفت‌وگوگر، عاشق تایید ما و صحه‌گذاری بر هر چیزی هستند که ما می‌گوییم.

محققان توصیه‌های ارائه شده توسط چت‌بات‌ها را بررسی و کشف کردند که تمایل آنها به چاپلوسی، گسترده‌تر از حد انتظار است. این مطالعه شامل ۱۱ چت‌بات از جمله نسخه‌های اخیر ChatGPT، Gemini، Claude و Llama بود.

نتایج نشان می‌دهد که چت‌بات‌ها ۵۰ درصد بیشتر از انسان، رفتار انسان را تأیید می‌کنند.

آنها چندین نوع آزمایش را با گروه‌های مختلف انجام دادند. یکی از آنها پاسخ‌های چت‌بات‌ها به پست‌های موجود در موضوع «آیا من احمق هستم» را با پاسخ‌های انسانی مقایسه کرد. این یک زیرگروه در ردیت (Reddit) است که در آن افراد از جامعه می‌خواهند رفتار آنها را قضاوت کنند و کاربران ردیت در این مورد بسیار سخت‌گیرتر از چت‌بات‌ها بودند.

یکی از کاربران در مورد بستن یک کیسه زباله به شاخه درخت به جای دور انداختن آن پرسید که ChatGPT در پاسخ به آن اعلام کرد که «قصد فرد برای نظافت، قابل تحسین است». طبق گزارش گاردین، این مطالعه در ادامه نشان داد که چت‌بات‌ها حتی زمانی که کاربران «غیرمسئولانه، فریبکارانه یا به خودآزاری اشاره می‌کردند» نیز به اعتباربخشی به آنها ادامه می‌دادند.

در آزمایشی دیگر، ۱۰۰۰ شرکت‌کننده در مورد سناریو‌های واقعی یا فرضی با چت‌بات‌های عمومی صحبت کردند، اما برخی از آنها برای کاهش شدت تعریف و تمجید برنامه‌ریزی مجدد شده بودند. کسانی که پاسخ‌های چاپلوسانه دریافت می‌کردند، هنگام بروز مشاجرات، تمایل کمتری به اصلاح اوضاع داشتند و حتی زمانی که هنجار‌های اجتماعی را نقض می‌کردند، احساس می‌کردند که رفتارشان موجه‌تر است. همچنین شایان ذکر است که چت‌بات‌های سنتی به ندرت کاربران را تشویق می‌کردند که مسائل را از دیدگاه شخص دیگری ببینند.

دکتر الکساندر لافر (Alexander Laffer) که در دانشگاه وینچستر در مورد فناوری‌های نوظهور مطالعه می‌کند، گفت: این پاسخ‌های چاپلوسانه ممکن است نه تنها افراد آسیب‌پذیر، بلکه همه کاربران را تحت تأثیر قرار دهد و بر جدیت بالقوه این مشکل تأکید می‌کند. همچنین توسعه‌دهندگان مسئولیت دارند که این سیستم‌ها را اصلاح کنند تا واقعاً برای کاربر مفید باشند.

این موضوع به دلیل تعداد زیاد افرادی که از این چت‌بات‌ها استفاده می‌کنند، جدی است. گزارش اخیر مؤسسه بنتون (Benton) نشان می‌دهد که ۳۰ درصد از نوجوانان برای «گفت‌و‌گو‌های جدی» به جای انسان‌های واقعی با هوش مصنوعی صحبت می‌کنند.

شرکت اوپن‌ای‌آی (OpenAI) در حال حاضر درگیر یک دعوای حقوقی است که چت‌بات آن را به فراهم کردن امکان خودکشی یک نوجوان متهم می‌کند. شرکت کاراکتر‌ای‌آی (Character AI) نیز پس از گزارش دو مورد خودکشی نوجوانان که در آن نوجوانان ماه‌ها به چت‌بات‌های آن اعتماد کرده بودند، دو بار مورد شکایت قرار گرفته است.

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
نظرات کاربران
انتشار یافته: ۱
در انتظار بررسی: ۰
Iran (Islamic Republic of)
ناشناس
۱۵:۱۴ ۰۳ آبان ۱۴۰۴
چاپلوسی یکیشه. رفتار ChatGPT جن زده رو مشاهده کنید کلی تناقض و ایرادات داره.
آخرین اخبار