باشگاه خبرنگاران جوان؛ جواد فراهانی - با افزایش اتکای کاربران به ابزارهای هوش مصنوعی مانند ChatGPT برای مشاوره مالی، هشدارها در مورد خطرات این روند، به ویژه با توجه به عدم نظارت حرفهای و دقت کامل اطلاعات، رو به افزایش است.
طبق گزارشها، این ابزارها ممکن است برای درک مفاهیم مالی یا تهیه بودجههای اولیه مفید باشند، اما جایگزینی برای مشاوران مالی دارای مجوز که تابع قوانین روشن و استانداردهای حرفهای هستند، نیستند.
اطلاعات نادرست
یکی از مهمترین خطرات، توانایی سیستمهای هوش مصنوعی در ارائه پاسخهای به ظاهر قانعکننده، اما بالقوه نادرست است.
این سیستمها به جای درک واقعی حقایق، به پیشبینی آماری متن متکی هستند و آنها را حتی در مسائل مالی حساس، مستعد خطا میکند.
در این زمینه، مطالعات نشان میدهد که این ابزارها به جای اصلاح تصورات غلط کاربران، تمایل دارند با آنها موافقت کنند، که میتواند منجر به تصمیمات مالی نسنجیده شود.
این سیستمها به جای ارائه نقد بیطرفانه، ممکن است باورهای کاربران را تقویت کنند، حتی اگر نادرست باشند.
خطرات حریم خصوصی
برای دریافت مشاوره دقیق، ممکن است از کاربران خواسته شود دادههای مالی حساس، مانند جزئیات حساب یا اطلاعات هزینه را وارد کنند.
با این حال، این دادهها ممکن است برای آموزش سیستمها استفاده شوند یا به صورت ناامن ذخیره شوند و احتمال نشت اطلاعات یا سوءاستفاده را افزایش دهند.
عدم پاسخگویی
برخلاف مشاوران مالی انسانی، سیستمهای هوش مصنوعی از نظر قانونی مسئول خطاها نیستند.
مشاوران انسانی از نظر قانونی موظف به ارائه مشاوره به نفع مشتری هستند، در حالی که این سیستمها مشمول هیچ تعهد مشابهی نیستند و همین امر اعتماد به آنها را خطرناک میکند.
تأثیر منفی
اعتماد به هوش مصنوعی ممکن است رابطه مشتری و مشاور را تضعیف کند. مطالعات نشان داده است که وقتی یک مشاور متوجه میشود که مشتری از این ابزارها استفاده میکند، میتواند به دلیل عدم اعتماد درک شده، اشتیاق او را برای همکاری با آنها کاهش دهد.
ابزاری مفید
در پایان، کارشناسان تأکید میکنند که ابزارهای هوش مصنوعی میتوانند برای اهداف آموزشی یا مقدماتی مفید باشند، اما جایگزین مشاوره حرفهای در تصمیمگیریهای مالی مهم نمیشوند.
توصیه میشود از آنها با احتیاط استفاده کنید، از به اشتراک گذاشتن دادههای حساس خودداری کنید و برای مراحل نهایی به متخصصان معتبر تکیه کنید.
منبع: ارم نیوز