یک مطالعه جدید چهار تیپ شخصیتی را شناسایی کرده است که شامل همه کاربران ChatGPT می‌شود.

باشگاه خبرنگاران جوان؛ جوا فراهانی - دانشمندان دانشگاه آکسفورد و کنسرسیومی از دانشگاه برلین مطالعه‌ای را انجام داده‌اند که نشان می‌دهد رویکرد «یک‌سان برای همه» فناوری‌های قبلی دیگر برای کاربرد‌های متنوع هوش مصنوعی قابل استفاده نیست.

دکتر کریستوف گرلینگ، نویسنده اصلی این مطالعه از موسسه اینترنت و جامعه هامبولت، گفت: «استفاده از هوش مصنوعی شهودی به نظر می‌رسد، اما تسلط بر آن نیاز به کاوش و توسعه مهارت‌های یادگیری تجربی دارد.» او افزود که «مناسب بودن وظیفه برای این فناوری بیش از هر زمان دیگری فردی است.»

محققان داده‌های ۳۴۴ کاربر اولیه را در طول چهار ماه اول پس از راه‌اندازی عمومی ChatGPT در ۳۰ نوامبر ۲۰۲۰ تجزیه و تحلیل کردند و دریافتند که این کاربران اولیه را می‌توان به چهار گروه اصلی طبقه‌بندی کرد:

علاقه‌مندان به هوش مصنوعی (۲۵.۶٪ از شرکت‌کنندگان): این کاربران بسیار درگیر هستند و به دنبال دستیابی به مزایای تولیدی و اجتماعی از هوش مصنوعی هستند. آنها تنها گروهی هستند که هنگام تعامل با چت‌بات، متوجه «حضور اجتماعی ملموس» شدند و با ابزار‌ها مانند افراد واقعی رفتار کردند. آنها همچنین سطح بالاتری از اعتماد به سیستم را نشان دادند و هیچ نگرانی جدی در مورد حریم خصوصی نشان ندادند.

عملگرایان ساده‌لوح (۲۰.۶%): آنها بر نتایج و راحتی تمرکز می‌کنند و مزایای عملی هوش مصنوعی را بر نگرانی‌های مربوط به حریم خصوصی اولویت می‌دهند. در حالی که آنها به مزایای عملی و حرفه‌ای اعتقاد دارند، علاقه آنها به مزایای اجتماعی کمتر از علاقه‌مندان به هوش مصنوعی است.

پذیرندگان محتاط (۳۵.۵%): آنها کنجکاوی، عملی بودن و احتیاط را با هم ترکیب می‌کنند و دائماً مزایای عملکردی را در مقابل خطرات احتمالی می‌سنجند. این گروه نسبت به دو گروه قبلی نگرانی بیشتری در مورد حریم خصوصی داده‌ها نشان می‌دهند.

کاوشگران رزرو (۱۸.۳%): آنها بیشترین نگرانی را در مورد این فناوری دارند، هنوز از مزایای آن متقاعد نشده‌اند و نگرانی‌های قابل توجهی در مورد حریم خصوصی ابراز می‌کنند. برخلاف سایر گروه‌ها، آنها نمی‌توانند مزایای شخصی استفاده از ChatGPT را ببینند.

محققان با کمال تعجب متوجه شدند که همه این گروه‌ها، با وجود نگرانی‌های جدی در مورد حریم خصوصی، همچنان به استفاده از چت‌بات‌ها ادامه می‌دهند.

این تیم تحقیقاتی هشدار داد که تلاش برای انسانی‌سازی هوش مصنوعی می‌تواند نتیجه معکوس داشته باشد، زیرا کاربرانی که به حریم خصوصی اهمیت می‌دهند، ممکن است خود هوش مصنوعی را به جای شرکت توسعه‌دهنده آن، مسئول سوءاستفاده‌های احتمالی بدانند و این امر می‌تواند اعتماد به سیستم را با سرعت بیشتری از بین ببرد.

منبع: دیلی میل

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
captcha
آخرین اخبار