
باشگاه خبرنگاران جوان؛ جواد فراهانی - OpenAI، توسعهدهنده پلتفرم ChatGPT، قصد خود را برای استخدام یک «مدیر ارشد آمادگی» برای رسیدگی به چالشهای امنیتی و اجتماعی ناشی از فناوریهای خود اعلام کرده است.
سم آلتمن، مدیرعامل، این نقش آینده را «شغلی طاقتفرسا» توصیف کرد و تأکید کرد که هدف، رسیدگی به «چالشهای واقعی» ایجاد شده توسط ابزارهای پیشرفته هوش مصنوعی است.
این اطلاعیه در زمانی منتشر میشود که این شرکت با انتقادات گمانهزنندهای روبهرو است. در حالی که برخی آن را به اغراق در مورد خطرات فناوریهایش برای اهداف بازاریابی متهم میکنند، گزارشهای دیگر نگرانیهای مشروعی را مطرح میکنند که از نیاز به این سمت پشتیبانی میکنند.
از جمله برجستهترین این نگرانیهای مستند عبارتند از:
• افرادی که دچار پریشانی عاطفی هستند برای حمایت روانی به ChatGPT مراجعه میکنند، و این احتمال وجود دارد که پاسخهای خودکار به جای حل مشکلات سلامت روان، آنها را تشدید کنند.
• قابلیتهای مدلهای زبانی در امنیت سایبری به حدی تکامل یافته است که میتوانند آسیبپذیریهای حیاتی در سیستمهای کامپیوتری را تشخیص دهند.
آلتمن از طریق پلتفرم X در این مورد اظهار داشت: «ما در سال ۲۰۲۵ نگاهی اجمالی به تأثیر مدلها بر سلامت روان داشتیم و اکنون شاهد رسیدن این مدلها به سطح بالایی از پیچیدگی در زمینه امنیت رایانه هستیم. ما وارد مرحلهای میشویم که نیاز به درک دقیقتری از چگونگی سوءاستفاده از این قابلیتها و چگونگی کاهش معایب آنها در عین حفظ مزایای عظیم آنها دارد.»
شرکت OpenAI در حال حاضر برای کاهش خطرات مدلهای جدید خود به آنچه «حفاظتهای امنیتی به طور فزاینده پیچیده» مینامد، متکی است. نقش «مدیر ارشد آمادگی» - که حقوق پایه ۵۵۵۰۰۰ دلار به علاوه سهام در شرکت دریافت میکند - گسترش این برنامه و اطمینان از این خواهد بود که «استانداردهای امنیتی مطابق با تکامل قابلیتهای سیستم تکامل مییابند.»
این انتصاب در حالی صورت میگیرد که صنعت فناوری به دنبال ایجاد تعادل بین نوآوری سریع و ملاحظات اخلاقی است. آلتمن با اذعان به دشواری این کار گفت: «اینها سوالات پیچیدهای هستند، سابقه تاریخی ندارند و بسیاری از راهحلهای پیشنهادی خطرات پیشبینی نشدهای را به همراه دارند.»
منبع: ایندیپندنت