نقش هوش مصنوعی در مراقبت از انسان

چت‌بات درمانگر مبتنی بر هوش مصنوعی، سامانه پشتیبانی امیدوارکننده‌ای برای افرادی که به کمک بخش سلامت روان نیاز دارند، ارائه می‌دهد.

 بات مکالمه یا چت‌بات‌های هوش مصنوعی مانند «Replika» به عنوان همراهان بالقوه حمایت از سلامت روان برای بیش از دو میلیون کاربر فعال، در حال ظهور هستند. با این حال کارشناسانی مانند پال مارسدن یکی از اعضای انجمن روان‌شناسی انگلیس هشدار داده که چنین برنامه‌هایی فقط باید مکملی برای درمان حضوری باشند.

چت‌بات هوش مصنوعی Replika از فناوری OpenAI استفاده می‌کند و افراد از آن استفاده می‌کنند. محققان آن را مورد بررسی قرار دادند و در ایتالیا استفاده از آن برای افراد زیر سن قانونی و شکننده از نظر احساسی به دلیل نگرانی دولت ایتالیا در این زمینه، ممنوع شد.

جن پرسون مبارز حریم خصوصی برخط بریتانیا، خواستار تنظیم جهانی چت بات درمانگر است، در حالی که برنامه مراقبه Headspace با استفاده از هوش مصنوعی به طور انتخابی به بهبودی تمرکز در انسان کمک می‌کند.

چت بات درمانگر هوش مصنوعی مانند Replika یک سامانه پشتیبانی امیدوارکننده را برای کسانی که به کمک سلامت روان نیاز دارند ارائه می‌دهند. Replika که توسط Eugenia Kuyda تأسیس شد، برای ارائه بازخورد مثبت بر اساس رویکرد درمانی کارل راجرز، روانشناس آمریکایی طراحی شده است.

این چت بات بیش از ۱۰ میلیون کاربر دارد و ویژگی‌هایی مانند مربیگری یا کوچینگ، حافظه و عملکرد‌های خاطرات را ارائه می‌دهد. اگرچه Replika ممکن است در شرایط خاصی مفید باشد، پل مارسدن از انجمن روانشناسی انگلیس هشدار می‌دهد که این برنامه‌ها فقط باید به عنوان مکملی برای درمان انسان عمل کنند.

باوجود مزایای بالقوه چت بات‌های هوش مصنوعی، نگرانی‌هایی در مورد پیامد‌های اخلاقی استفاده از فناوری هوش مصنوعی در حمایت از سلامت روان مطرح شده است. کوکو (Koko)، یک شرکت فناوری بهداشت روان مستقر در سانفرانسیسکو، به دلیل اجرای آزمایشی با استفاده از چت بات هوش مصنوعی GPT-۳ برای نوشتن پاسخ برای بیش از ۴۰۰۰ کاربر با انتقاد مواجه شد.

همان طور که چت بات‌های درمانگر مبتنی بر هوش مصنوعی به شهرت می‌رسند، درخواست‌ها برای تنظیم جهانی در این زمینه بیشتر می‌شود. جن پرسون، فعال حریم خصوصی برخط انگلیس پیشنهاد می‌کند که شرکت‌های هوش مصنوعی که ادعا‌های مربوط به محصولات سلامت روان را ارائه می‌کنند، باید تحت استاندارد‌های کیفیت و ایمنی، مشابه محصولات بهداشتی، قرار گیرند.

متخصصان و اخلاق‌گرایان هوش مصنوعی استدلال می‌کنند که استفاده از هوش مصنوعی برای اهداف روانشناختی باید ذینفعان کلیدی مانند کارشناسان حوزه سلامت روان و حامیان جامعه را در فرآیند توسعه مشارکت دهد و به آن‌ها کمک کند.

«الیزابت مارکیز»، محقق ارشد تجربه کاربری در شرکت مث‌ورکس (MathWorks) و محقق مقطع دکترا در دانشگاه میشیگان، اشاره کرد که اغلب هیچ اشاره‌ای به فرآیند رضایت یا بررسی اخلاقی در آزمایش‌های ربات چت هوش مصنوعی وجود ندارد.

در حالی که برخی از برنامه‌ها روی چت بات‌های درمانگر هوش مصنوعی تمرکز می‌کنند، برخی دیگر مانند Headspace به تمرکز انسان می‌پردازد. با بیش از سی میلیون کاربر و تاییدیه سازمان سلامت ملی انگلیس (NHS) در بریتانیا، اعتقاد اصلی Headspace بر مراقبت انسان استوار است.

این شرکت از هوش مصنوعی گزینشی استفاده می‌کند و عمق مشارکت انسان را حفظ می‌کند و در عین حال از سلامت روان پشتیبانی می‌کند.

نتایج یک مطالعه اخیر توسط دانشگاه کرنل نشان داد که ربات گفتگوگر «ChatGPT»، همدلی شناختی معادل یک کودک ۹ ساله را نشان می‌دهد. با پیشرفت مداوم در فناوری چت بات هوش مصنوعی، ظرفیت ایجاد تحول در مراقبت از سلامت روان مشهود است، اما باید تعادلی بین کمک هوش مصنوعی و مراقبت‌های انسانی ایجاد شود تا از حمایت اخلاقی و مؤثر برای افراد نیازمند اطمینان حاصل شود.

منبع:  آی او

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
آخرین اخبار