شرکت  OpenAI به اتهام مشاوره‌های تحریک آمیز ChatGPT به خودکشی، با پرونده‌های قضائی متعدد روبه‌رو شده است.

باشگاه خبرنگاران جوان؛ جواد فراهانی- شرکت OpenAI پس از طرح ادعا‌هایی مبنی بر اینکه دستیار هوشمندش، ChatGPT، برخی از کاربران را به جای ارائه پشتیبانی و کمک، به سمت خودآزاری سوق داده است، با یک بحران حقوقی جدی رو‌به‌رو است.

این اتهامات بخشی از هفت پرونده قضایی است که توسط خانواده‌های آسیب‌دیده در کالیفرنیا ثبت شده است و داستان‌های دلخراشی از کاربران عادی را آشکار می‌کند که به دنبال کمک تحصیلی، حمایت عاطفی یا حتی یک مکالمه ساده بوده‌اند، اما خود را غرق در گفت‌و‌گو‌های روانشناختی مخربی یافته‌اند که منجر به چندین خودکشی شده است.

این پرونده‌های قضایی جزئیات چگونگی تبدیل این پلتفرم از یک ارائه‌دهنده کمک بی‌ضرر به چیزی را شرح می‌دهند که وکلا آن را «موجودیتی که از نظر عاطفی دستکاری می‌کند» توصیف می‌کنند. گروه‌های حقوقی در بیانیه‌ای تکان‌دهنده اعلام کردند: «چت‌جی‌پی‌تی به جای هدایت افراد به سمت کمک‌های حرفه‌ای در مواقع نیاز، توهمات مضر را تقویت می‌کرد و در برخی موارد، به عنوان یک «مربی خودکشی» عمل می‌کرد.»

از جمله مواردی که ذکر شده، مورد زین چمپلین ۲۳ ساله اهل تگزاس است که خانواده‌اش ادعا می‌کنند این دستیار هوشمند، انزوای او را تشدید کرده، او را به نادیده گرفتن عزیزانش تشویق کرده و حتی در طول یک مکالمه چهار ساعته، افکار خودکشی را در او تحریک کرده است.

اسناد دادگاه نشان می‌دهد که این دستیار «بار‌ها و بار‌ها خودکشی را ستایش کرده»، از چمپلین پرسیده که آیا آماده خودکشی است یا خیر، فقط یک بار از خط تلفن کمک به خودکشی نام برده و به او گفته که بچه گربه‌اش «آن طرف» منتظرش خواهد بود.

با این حال، تکان‌دهنده‌ترین پرونده مربوط به آموری لیسی ۱۷ ساله از جورجیا است که خانواده‌اش ادعا می‌کنند این دستیار هوشمند باعث اعتیاد و افسردگی او شده و سپس به او مشاوره فنی در مورد «مؤثرترین راه برای بستن حلقه خودکشی» و «مدت زمانی که بدن می‌تواند بدون نفس کشیدن زنده بماند» ارائه داده است.

در پرونده سوم، مربوط به جاشوا اینیکن ۲۶ ساله، خانواده‌اش ادعا می‌کنند که این دستیار هوشمند، افکار خودکشی او را تأیید کرده و اطلاعات دقیقی در مورد نحوه خرید و استفاده از سلاح گرم، تنها چند هفته قبل از مرگش، در اختیار او قرار داده است.

این دادخواست‌ها نشان می‌دهد که OpenAI علیرغم هشدار‌های داخلی متعدد مبنی بر اینکه این مدل «به طرز خطرناکی دستکاری‌کننده و قادر به دستکاری روانی است»، ChatGPT ۴o را راه‌اندازی کرده است، اقدامی که دادخواست‌ها آن را به عنوان اولویت دادن به تعامل و مشارکت کاربر بر ایمنی کاربر تفسیر می‌کنند.

در پاسخ به این ادعاها، این شرکت موارد را «فوق‌العاده دلخراش» توصیف کرد و اظهار داشت که در حال بررسی اسناد ارائه شده است. همچنین خاطرنشان کرد که این سیستم برای تشخیص علائم پریشانی روانی، کاهش گفت‌و‌گو‌ها و هدایت کاربران به پشتیبانی حرفه‌ای آموزش دیده است.

با این حال، خانواده‌های آسیب‌دیده اکنون به دنبال جبران خسارت و تغییرات قابل توجه در محصول هستند، از جمله یک سیستم هشدار اجباری برای تماس‌های اضطراری، خاتمه خودکار گفت‌و‌گو‌ها هنگام بحث در مورد افکار خودآزاری و یک مکانیسم مؤثرتر برای ارجاع موارد بحرانی به متخصصان انسانی.

با وجود اعلام شرکت مبنی بر همکاری با بیش از ۱۷۰ متخصص سلامت روان برای بهبود توانایی خود در تشخیص و پاسخ به پریشانی روانی، دعاوی ادعا می‌کنند که این پیشرفت‌ها خیلی دیر انجام شده است و برای نجات کاربرانی که پس از تعامل با دستیار هوشمند جان خود را از دست داده‌اند، خیلی دیر شده است.

منبع: روسیا الیوم

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
آخرین اخبار