مشکل «اعتماد به نفس بیش از حد» در هوش مصنوعی به یک راه‌حل نزدیک می‌شود.

باشگاه خبرنگاران جوان؛ جواد فراهانی - هوش مصنوعی، با گنجینه عظیم دانش خود، می‌تواند فوق‌العاده مفید باشد، اما یک نقص دارد که می‌تواند مزایای آن را محدود کند: اعتماد به نفس بیش از حد در پاسخ‌هایش.

هر پاسخی که ارائه می‌دهد، چه بر اساس استنتاج منطقی و چه صرفاً حدس و گمان، با همان سطح از اعتماد به نفس ارائه می‌شود.

محققان آزمایشگاه علوم کامپیوتر و هوش مصنوعی در MIT کشف کرده‌اند که ریشه این اعتماد به نفس بیش از حد در یک نقص خاص در نحوه آموزش مدل‌ها نهفته است. آنها روش جدیدی را توسعه داده‌اند که هدف آن رفع این نقص بدون به خطر انداختن دقت عملکرد است.

این روش که با نام RLCR (یادگیری تقویتی با استفاده از پاداش‌های کالیبراسیون) شناخته می‌شود، در مقاله‌ای که در سرور پیش‌چاپ arXiv منتشر شده است، شرح داده شده است و قرار است در کنفرانس بین‌المللی ICLR ۲۰۲۶ در مورد یادگیری ماشین در ریودوژانیرو ارائه شود. این روش، مدل‌های زبانی را آموزش می‌دهد تا پاسخ‌هایی را همراه با تخمینی از سطح اعتماد به نفس آنها ارائه دهند. یعنی مدل نه تنها پاسخ را ارائه می‌دهد، بلکه سطح عدم قطعیت خود را نیز بیان می‌کند. مشکل چیست؟

تکنیک‌های یادگیری تقویتی مورد استفاده در جدیدترین مدل‌های هوش مصنوعی، پاسخ‌های صحیح را پاداش می‌دهند و پاسخ‌های نادرست را جریمه می‌کنند، بدون اینکه بین نحوه‌ی رسیدن به پاسخ تمایزی قائل شوند. بنابراین، مدلی که از طریق استنتاج منطقی به پاسخ صحیح می‌رسد، همان پاداشی را دریافت می‌کند که مدلی که از طریق حدس به آن می‌رسد.

با گذشت زمان، این امر رفتاری را در مدل‌ها پرورش می‌دهد که آنها را مستعد ارائه پاسخ‌های مطمئن حتی در صورت فقدان شواهد کافی می‌کند.

این اعتماد بیش از حد عواقب منفی دارد، به ویژه هنگامی که این مدل‌ها در زمینه‌های حساسی مانند پزشکی، حقوق یا امور مالی استفاده می‌شوند، جایی که تصمیمات انسانی به خروجی هوش مصنوعی بستگی دارد. مدلی که اعتماد بالا، اما نادرستی را بیان می‌کند، می‌تواند خطرناک‌تر از مدلی باشد که به وضوح اشتباه است، زیرا کاربر ممکن است متوجه نیاز به تأیید پاسخ نشود.

مهول دامانی، دانشجوی کارشناسی ارشد دانشگاه MIT و یکی از نویسندگان این مطالعه، توضیح می‌دهد: «روش‌های آموزش سنتی ساده و مؤثر هستند، اما مدل را به ابراز عدم قطعیت یا گفتن «نمی‌دانم» تشویق نمی‌کنند، بنابراین مدل ذاتاً یاد می‌گیرد که وقتی مطمئن نیست، حدس بزند.»

راه حل چیست؟

روش RLCR با اضافه کردن یک عنصر واحد به تابع پاداش، این مشکل را برطرف می‌کند: امتیاز بریر، که میزان تطابق اطمینان مدل با دقت واقعی آن را اندازه‌گیری می‌کند. در طول آموزش، مدل‌ها یاد می‌گیرند که هم پاسخ و هم عدم قطعیت آن را به طور همزمان ارزیابی کنند و پاسخ را همراه با سطح تخمینی اطمینان ارائه دهند.

این کار هم پاسخ‌های نادرست با اطمینان بیش از حد و هم پاسخ‌های صحیح با عدم قطعیت ناموجه را جریمه می‌کند و به دستیابی به تعادل بهتر بین دقت و بیان واقع‌بینانه اطمینان کمک می‌کند.

منبع: Naukatv.ru

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
captcha
آخرین اخبار