تحقیقات جدید، یک ویژگی شگفت‌انگیز مشترک بین انسان‌ها و هوش مصنوعی را آشکار کرده است: هوش مصنوعی نیز مانند انسان‌ها تمایل به خطا و سوگیری‌های شناختی دارد.

باشگاه خبرنگاران جوان؛ جواد فراهانی - علیرغم تفاوت‌های قابل توجه بین فرآیند‌های فکری انسان و هوش مصنوعی، دانشمندان کشف کرده‌اند که حتی پیشرفته‌ترین مدل‌های هوش مصنوعی نیز گاهی اوقات رفتار‌های غیرمنطقی از خود نشان می‌دهند.

طبق نتایج مطالعه‌ای که توسط متخصصان دانشگاه‌های کانادا و استرالیا انجام شده است، چت‌بات ChatGPT در ۴۷٪ موارد، تله‌های روانشناختی معمول انسان‌ها را از خود نشان می‌دهد.

آزمایش مدل‌های GPT-۳.۵ و GPT-۴ شرکت OpenAI نشان داد که این سیستم‌ها در برابر الگو‌های رفتاری مشابه انسان مصون نیستند، اگرچه در نتیجه‌گیری‌های خود از درجه بالایی از ثبات برخوردارند. محققان خاطرنشان می‌کنند که این سازگاری هم جنبه‌های مثبت و هم جنبه‌های منفی دارد.

این مطالعه، شبکه عصبی را روی سوگیری‌های شناختی شناخته‌شده انسان، مانند ریسک‌گریزی، اعتماد به نفس بیش از حد و اثر دستاورد و موفقیت، آزمایش کرد. سوالات هم به روانشناسی سنتی و هم به زمینه‌های کسب‌وکار در زندگی واقعی مربوط می‌شدند.

GPT-۴ بهترین نتایج را در وظایفی با راه‌حل‌های ریاضی واضح نشان داد و در سناریو‌های مبتنی بر منطق و احتمال، خطا‌های کمتری بروز داد. اما در شبیه‌سازی خود، مانند یافتن یک گزینه پرخطر برای سود بردن، پاسخ‌های چت‌بات اغلب همان عقلانیت غیرمنطقی ذاتی در انسان‌ها را منعکس می‌کرد.

با این حال، محققان خاطرنشان می‌کنند که «GPT-۴ در مقایسه با انسان‌ها، سوگیری پیش‌بینی‌کننده و امنیتی بیشتری نشان داده است.

پروفسور یانگ چن، استادیار گروه مدیریت عملیاتی در دانشکده بازرگانی ایوی در کانادا، توصیه کرد: «برای کمک به تصمیم‌گیری دقیق و عینی، در موقعیت‌هایی که به کامپیوتر اعتماد دارید، از هوش مصنوعی استفاده کنید. اما وقتی تصمیمی به داده‌های استراتژیک یا ذهنی نیاز دارد، نظارت انسانی ضروری می‌شود. هوش مصنوعی نباید به عنوان کارمندی که تصمیمات حیاتی می‌گیرد، در نظر گرفته شود؛ بلکه به نظارت و راهنمایی اخلاقی نیاز دارد. در غیر این صورت، ما به جای بهبود تفکر ناقص، آن را در معرض خطر خودکارسازی قرار می‌دهیم.»

منبع: Naukatv.ru

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
آخرین اخبار