سایر زبان ها

صفحه نخست

سیاسی

بین‌الملل

ورزشی

اجتماعی

اقتصادی

فرهنگی هنری

علمی پزشکی

فیلم و صوت

عکس

استان ها

شهروند خبرنگار

وب‌گردی

سایر بخش‌ها

چرا ابزارهای هوش مصنوعی مثل ChatGPT دوقطبی شده‌‌‌اند؟

جدیدترین تکنولوژی در حوزه هوش مصنوعی، یعنی ChatGPT اکنون موجی از هراس توام با امید برای مدیران ایجاد کرده است.

وقتی پای حرف طرفداران هوش مصنوعی می‌نشینید، می‌گویند این تکنولوژی قرار است تقریبا همه جنبه‌های زندگی را به سوی بهتر شدن متحول کند. موجی از ابزار‌های جدید و به روز موانع استفاده از زبان‌ها را از بین می‌برند، وظایف تکراری را اتوماتیک‌سازی می‌کنند و حتی به تشخیص سرطان و همراهی با افرادی که تنها هستند کمک می‌کنند.

با این حال، گروه زیادی از افراد بدبین می‌گویند هوش مصنوعی زندگی ما را متحول می‌کند -، اما به سوی بدتر شدن. از نظر آنها، این تکنولوژی بدترین سوگیری‌های جامعه را جذب و منعکس می‌کند و معیشت خیلی از هنرمندان و کارکنان اداری را به خطر می‌اندازد.

جدیدترین موج هوش مصنوعی، صنعت تکنولوژی و منتقدان آن را دچار آشفتگی کرده است. ابزار‌هایی مثل ChatGPT، Replika و Stable Diffusion که مثل انسان از نرم افزار‌های یادگیری برای درست کردن متن، تصویر و فیلم استفاده می‌کنند، به سرعت مرز بین انسان و ماشین و همچنین حقیقت و داستان را از بین می‌برند.

طیف مختلفی از بخش ها، از آموزش و خدمات درمانی گرفته تا بیمه و بازاریابی، به این فکر می‌کنند که هوش مصنوعی چطور می‌تواند شکل کسب و کار آن‌ها را تغییر دهد و بنابراین موج تازه‌ای از هراس و امید در این حوزه ایجاد شده است. چیزی که هر دو این حس‌ها را تقویت می‌کند، این است که ماشین‌ها خیلی سریع هوشمند می‌شوند و ممکن است روزی برسد که از کنترل ما خارج شوند. تریستان هریس، متخصص اخلاق تکنولوژی، اخیرا اعلام کرده: «هر کاری که انرژی هسته‌ای با دنیای فیزیکی می‌کند، هوش مصنوعی با هر چیز دیگری می‌کند.»

کارشناسان می‌گویند مزیت‌ها و جنبه‌های تاریک این موضوع واقعی هستند. اما در کوتاه‌مدت، وعده‌ها و مخاطرات هوش مصنوعی مولد، معتدل‌تر از آن چیزی هستند که تیتر اخبار و مقالات به ما می‌گویند.

مارگارت اومارا، استاد تاریخ دانشگاه واشنگتن، می‌گوید: «ترکیب جاذبه و ترس، یا رضایت و هشدار، چیزی است که از زمان معرفی اولین کامپیوتر تمام دیجیتال، از هر موج تکنولوژیک جدیدی استقبال کرده است.»

او اضافه می‌کند که درست مثل دیگر تحولات تکنولوژیک گذشته، مدل‌های هوش مصنوعی امروز می‌توانند یکسری وظایف مشخص روزمره را اتوماتیک سازی کنند، یکسری مشاغل را از بین ببرند، برخی مشکلات را حل کنند و برخی را بدتر کنند، اما قرار نیست «تن‌ها نیروی شگفت انگیزی باشد که همه چیز را متحول می‌کند».

نه هوش مصنوعی و نه چت بات‌ها چیز جدیدی نیستند. انواع مختلف هوش مصنوعی در حال حاضر برای «فیدهای» تیک تاک، پلی لیست‌های موسیقی شخصی سازی شده اسپاتیفای، سیستم‌های خودران تسلا، توسعه داروسازی و سیستم‌های تشخیص چهره در بازجویی‌های جنایی به کار می‌روند.

چت بات‌های ساده تقریبا از دهه ۶۰ کار می‌کنند و در سطح گسترده‌ای برای خدمات اینترنتی به مشتریان مورد استفاده بوده اند. چیزی که جدید است، التهابی است که برای هوش مصنوعی مولد ایجاد شده - یعنی یک دسته بندی جدید از ابزار‌های هوش مصنوعی که به جای تحلیل یا ارائه محتوایی که انسان دیگری ایجاد کرده، اقیانوسی از داده‌ها را می‌گیرد تا محتوای منحصر به خود را تولید کند؛ از هنر و شعر و متن گرفته تا حتی کد‌های کامپیوتری. تکنولوژی تقویت کننده هوش مصنوعی مولد سال‌ها در لابراتوار‌های تحقیقاتی در حال آماده سازی بود، اما استارت‌آپ‌ها و شرکت‌ها به تازگی آن را در دسترس عموم قرار داده اند.

محبوبیت ابزار‌های رایگانی مثل چت بات ChatGPT شرکت OpenAI و تولیدکننده عکس DALL-E باعث شده غول‌های این صنعت، مثل مایکروسافت، گوگل و فیس بوک، برای وارد کردن ابزار‌های مشابه به محصولات پرطرفدار خود، به رقابت شدید بپردازند.

به هر حال، برای هر داستان موفقیتی یک سناریوی کابوس وار هم وجود دارد. سهولت استفاده از ChatGPT برای نوشتن ایمیل‌های حرفه‌ای که از نظر دستوری هم کاملا درست باشند، در وقت روزانه خیلی از افراد صرفه جویی کرده و به کمک کسانی آمده که در دیکته و نگارش مشکل دارند. اما دانشگاه وندربیلت از ChatGPT برای نوشتن ایمیلی سراسری استفاده کرد که واقعه تیراندازی در ایالت میشیگان را تسلیت می‌گفت و این موضوع خشم دانشجو‌ها را برانگیخت.

ChatGPT و دیگر ابزار‌های هوش مصنوعی، می‌توانند کد کامپیوتری هم بنویسند، بازی طراحی کنند و با استفاده از داده‌هایی که در اختیار دارند، دیدگاه‌هایی مطرح کنند. اما هیچ تضمینی وجود ندارد که این کد‌ها کارآیی داشته باشند، بازی‌ها درست کار کنند یا دیدگاه‌ها درست باشند. بات هوش مصنوعی «بینگ» (Bing) شرکت مایکروسافت، تاکنون پاسخ‌های غلطی به درخواست‌های جست وجو داده یا یکی از بازی‌هایی که ChatGPT اختراع کرده، دقیقا کپی یک بازی دیگر است که قبلا وجود داشته است. ابزار کدنویسی هوش مصنوعی‌GitHub Copilot، به سرعت در اختیار خیلی از توسعه دهندگان نرم افزار قرار گرفت که خط بعدی کد‌ها را پیش‌بینی می‌کند و برای مشکلات رایج، راه‌حل پیشنهاد می‌دهد. اما راه‌حل‌های این ابزار همیشه هم درست نیستند و اگر مهندس‌ها حواسشان نباشد، می‌تواند کد‌های غلط را وارد سیستم‌ها کند.

ظرفیت استفاده مثبت یا منفی از یک تکنولوژی، منحصر به هوش مصنوعی مولد نیست. دیگر ابزار‌های هوش مصنوعی مثل ابزار‌هایی که برای کشف دارو‌های جدید به کار می‌روند، جنبه‌های منفی خودشان را دارند. سال گذشته، محققان دریافتند که همین سیستم‌ها این توانایی را دارند که در مورد ۴۰‌هزار سلاح زیستی مرگبار جدید، ایده پردازی کنند.

تکنولوژی‌های آشناتر، از الگوریتم‌های توصیه گر گرفته تا رسانه‌های اجتماعی و پهپاد‌های دوربین دار، به همین شکل می‌توانند هم کاربرد امیدبخش داشته باشند و هم مخرب. اما هوش مصنوعی مولد، به طور خاص واکنش‌های قوی تری را برمی انگیزاند، چون می‌تواند کار‌هایی را انجام دهد که همیشه در انحصار انسان بوده است - مثل نوشتن شعر و ساختن کار‌های هنری.

اومارا می‌گوید درسی که می‌توان گرفت این نیست که تکنولوژی ذاتا خوب، بد یا حتی خنثی است. چگونگی طراحی، استفاده و بازاریابی آن برای کاربران می‌تواند بر میزان مخرب بودن یا سوء مصرف ابزاری مثل چت بات‌ها اثر بگذارد و تب تندی که برای استفاده از ChatGPT ایجاد شده و باعث شده همه جا گفته شود که این ابزار جامعه را متحول می‌کند و به «تسلط روبات ها» منجر می‌شود، هم بر قضاوت کاربران و هم خالقان آن، سایه می‌اندازد.

اومارا می‌گوید: «حالا برای اولین بار رقابت تسلیحاتی هوش مصنوعی را داریم و نگرانی من همین جاست.» از نظر او، رقابت شرکت‌هایی مثل مایکروسافت و گوگل برای جست وجوی همه چیز با هوش مصنوعی و سرعت زیاد حرکت به این سمت، همه چیز را خراب می‌کند.

برچسب ها: هوش مصنوعی ، چت بات
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.