باشگاه خبرنگاران جوان - در سال ۲۰۲۱، یونسکو برای نخستین بار یک «توصیهنامه جهانی درباره اخلاق هوش مصنوعی» صادر کرد. این سند، چارچوبی اخلاقی و حقوقبنیاد برای کاربرد هوش مصنوعی در همه حوزهها، از جمله آموزش، پیشنهاد میداد.
در مقدمه این توصیهنامه، تأکید میشود که «کرامت انسانی و حقوق بشر باید هسته اصلی سیاستگذاری هوش مصنوعی باشد.» شفافیت، نظارت انسانی، انصاف و تنوع در ارزیابی، از اصول محوری اعلام شدند.
چنین مرجعیّت اخلاقی و بینالمللی، نقطه اتکایی بود تا کشورها قصد کنند هوش مصنوعی را در عرصه آموزش بهکار ببرند. اما همزمان، زنگ هشدار هم بود برای کسانی که نگران تأثیرات ناخواسته بر عدالت آموزشی و تنوع فرهنگی بودند.
در سال ۲۰۲۲ و پس از آن، پلتفرمهای آموزشی و مؤسسات پژوهشی گزارش دادند که سامانههای مبتنی بر یادگیری هوشمند، فرصتهایی ایجاد کردهاند. این سامانهها امکان استفاده از مسیرهای انعطافپذیر و پشتیبانی اضافی برای دانشآموزان با نیازهای مختلف را فراهم کردند.
پژوهشگران نوشتند: «هوش مصنوعی میتواند به افراد دارای نیاز ویژه و زبان متفاوت کمک کند و موانع زبانی یا مهارتی را کاهش دهد.» در گزارش سازمان همکاری و توسعه اقتصادی (اوای سی دی) نیز در سال ۲۰۲۴ آمده است.
ابزارهای هوش مصنوعی، اگر با نهادهای آموزشی و معلمان همراه شوند، «پتانسیل تطبیق یادگیری با نیازهای فردی، کاهش فاصله در فرصتهای آموزشی و بهبود شمولیت» دارند. در کلاسها و مدارس، خبر ورود «معلم مجازی» روح تازهای دمید.
دانشآموزان میتوانستند تمرینها و درسها را در زمان و سرعت خود بگذرانند و بازخورد فوری دریافت کنند. همچنین معلمان تمرکز بیشتری روی راهنمایی عمیقتر داشته باشند. اما پرسشها زودتر از انتظار ظاهر شدند.
در همان دوره خوشبینی اولیه، صدای متفاوتی هم بلند شد: «چقدر میتوانیم به بیطرفی این سیستمها اعتماد کنیم؟» هنگامی که ابزارها وارد محیطهای متفاوت زبانی، فرهنگی و اقتصادی شدند، کاربران متوجه محدودیتهایی شدند.
برخی دانشآموزان از پاسخهای کلی یا نامتجانس با زمینه فرهنگی خود گزارش دادند. معلمان گفتند گاهی سیستم نمیتواند «متناسب با نیاز واقعی» تنظیم شود.
همان گزارش سازمان همکاری و توسعه اقتصادی هشدار میدهد: «اگر ابزارهای هوش مصنوعی بدون رعایت تنوع داده و سازوکار مناسب برای نظارت انسانی اجرا شوند، ممکن است نابرابریهای آموزشی را تشدید کنند.»
گفتگویی خبری با سخنگوی یونسکو نیز منعکسکننده همین نگرانی بود. برخی کشورها نسبت به استفاده از هوش مصنوعی در کلاس با احتیاط رفتار کردهاند و قواعد سختگیرانهای برای کودکان در نظر گرفتهاند؛ بنابراین امید اولیه با سردرگمی ترکیب شد. هوش مصنوعی ممکن بود فرصتی برای عدالت بیشتر باشد، اما اگر به درستی هدایت نمیشد، خود میتوانست شکافها را عمیقتر کند.
در گزارش ۲۰۲۴ سازمان همکاری، ضمن بررسی ابزارهای «متمرکز بر دانشآموز»، «رهبری معلم» و «ابزارهای نهادی»، نوشته شده است که هوش مصنوعی امکان شخصیسازی یادگیری را فراهم میکند.
اما دسترسی به زیرساخت، سواد دیجیتال معلمان و ظرفیت ارزیابی انسانی محدود است. اجرای نابرابر میتواند نابرابری را تشدید کند. در بخش دیگری از همان گزارش بر اهمیت «پایش، نظارت و آموزش ادامهدار معلمان» تأکید شده است.
این تأکید برای اطمینان از آن بود که هوش مصنوعی صرفاً ابزاری یارانهدهنده نیست، بلکه همیار معلم باشد. به عبارت دیگر، گزارش نشان میدهد که هوش مصنوعی در آموزش نه یک معجزه آسان، که یک پروژه پیچیده و چند بعدی است.
شرط موفقیت هوش مصنوعی آمادگی زیرساختی، ظرفیت انسانی و حساسیت اخلاقی است. یکی از مسائل حساس، تنوع فرهنگی و زبانی دانشآموزان است.
مقاله علمی به این نکته میپردازد که در کلاسهای چندزبانه یا مناطقی با زبان محلی متفاوت، ابزارهای هوش مصنوعی میتوانند «ترجمه بلادرنگ» و «پشتیبانی از دانشآموزان با نیاز ویژه» ارائه دهند.
اما در عین حال هشدار میدهد که اگر دادهها و طراحی ابزارها متناسب با تنوع فرهنگی نباشند، خطر تعمیم ضعیف و خروجی نامتناسب وجود دارد. همان معلم مجازی که در مناطق برخوردار ممکن است به کمک بیاید، در جاهایی دیگر بیگانه و ناکارآمد به نظر برسد.
این شکاف فرهنگی، بخشی از واقعیت پیچیدهای است که با ورود هوش مصنوعی به آموزش پدیدار شده است. سخنگوی یونسکو در مصاحبه گفت که کشورها باید با تصویب قوانین و سیاستهای ملی، چارچوب اخلاقی جهانی را به اقدام تبدیل کنند.
او گفت: «جهان به قوانین اخلاقی قویتری برای هوش مصنوعی نیاز دارد.» این خواست رسمی بازتاب آگاهیست از خطراتی که هوش مصنوعی میتواند داشته باشد؛ از نقض حریم خصوصی تا تقویت تبعیض.
این مقام بر ضرورت نظارت انسانی، شفافیت و مشارکت چند ذینفع در طراحی و بهکارگیری هوش مصنوعی در آموزش تأکید کرد. گزارش آموزش بینالملل و سازمان همکاری نیز با ارائه راهنمایی گفتهاند که استفاده مؤثر و عادلانه مستلزم «رهبری معلمان» و «گاردریلهای اخلاقی» است.
هرچند گزارشها بر لزوم آگاهی و تنظیم تأکید دارند، ولی تجربههای واقعی دانشآموزان و معلمان برخی امیدها را نیز نشان داده است. در مسیری که پشتیبانی از زبان و نیازهای ویژه بود، ابزارهای هوش مصنوعی توانستند نقش مثبت ایفا کنند.
معلمان در مناطقی با زیرساخت مناسب گفتند که هوش مصنوعی به آنها کمک کرده است تمرینهای دقیقتر و متناسبتر طراحی کنند و زمان بیشتری برای راهنمایی عمیقتر بیابند. با این وجود، در مناطقی با اتصال اینترنت ضعیف یا نبود تجهیزات کافی، کارایی هوش مصنوعی پایین بود.
سیستم اغلب بیاثر ماند. این تجربه، جانمایه هشدارهای سازمان همکاری و یونسکو شد. این تفاوت در تجربهها، نشان از آن دارد که هوش مصنوعی در آموزش نه یک راهحل یکنواخت، بلکه یک فرصت مشروط است.
این فرصت مشروط به زیرساخت، داده و سیاستگذاری درست است. در اسناد رسمی توصیه شده است که تنظیم و نظارت انسانی بر هوش مصنوعی ضروری است.
این نظارت برای جلوگیری از خطر انتشار محتوای آسیبرسان، تبعیضآمیز یا مخرب است. اما همین تنظیم، موضوعی حساس برای کسانی است که نگران جهتدهی ناخواستهاند.
چه تضمینی وجود دارد که کسانی که «قواعد ایمنی» را تعریف میکنند، نماینده تنوع فرهنگی گسترده باشند؟ گزارش سازمان همکاری به این نقطه ضعف اشاره میکند.
اگر ارزیابیکنندگان چندفرهنگی نباشند، ممکن است الگوهای خاصی تقویت شوند. بهعبارتی دیگر، تلاش برای ایمنسازی مدل میتواند خود تبدیل شود به مکانیسمی برای همگنسازی تفکر یا بازتولید ارزشهای غالب.
این چیزی است که با هدف عدالت آموزشی در تضاد است. در بخش نتیجهگیری گزارش، نویسندگان میگویند که «قابلیت تطبیق یادگیری با نیازهای فردی» از مهمترین فرصتهای هوش مصنوعی هستند.
اما در همان حال تأکید میکنند: «دسترسی نابرابر به زیرساختهای دیجیتال و کمبود سواد دیجیتال معلمان، میتوانند فرصت را به تهدید تبدیل کنند.»
منبع: فارس