صفحه نخست

آناتک

آنامدیا

دانشگاه

فرهنگ‌

علم

سیاست و جهان

اقتصاد

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

همدان

هرمزگان

یزد

پخش زنده

۱۵:۱۸ | ۲۰ / ۰۷ /۱۴۰۴
| |
یک کارشناس هوش مصنوعی در گفت‌و‌گو با آنا:

ChatGPT تهدید نیست، فرصتی برای بازطراحی آموزش عالی است

یک کارشناس حوزه هوش مصنوعی، معتقد است استفاده هوشمندانه از ابزارهایی مانند ChatGPT می‌تواند به ارتقای کیفیت آموزش در کلاس‌های پرجمعیت، بهبود ارزیابی‌ها و افزایش عدالت آموزشی منجر شود. او تأکید می‌کند که شفافیت، بازآموزی استادان و طراحی تکالیف فرایندمحور، شرط بهره‌برداری درست از هوش مصنوعی در دانشگاه‌ها است.
کد خبر : 1002270

به گزارش خبرنگار آنا، ورود هوش مصنوعی به عرصه آموزش، نقطه عطفی در تاریخ یادگیری است. از زمانی که ابزارهایی، چون ChatGPT پا به فضای دانشگاهی گذاشتند، مرز میان یاری فکری و جایگزینی اندیشه به چالشی جدی تبدیل شده است. نظام آموزش عالی در سراسر جهان، از جمله ایران، با پرسشی بنیادین روبه‌روست: آیا باید از این فناوری ترسید یا آن را به خدمت گرفت؟ بسیاری از استادان و پژوهشگران بر این باورند که هوش مصنوعی نه دشمن آموزش، بلکه آینه‌ای از ضعف‌ها و ظرفیت‌های آن است؛ ابزاری که اگر درست ریل‌گذاری شود، می‌تواند یادگیری را عمیق‌تر و انسانی‌تر کند.

برای بررسی دقیق‌تر این موضوع و شناخت فرصت‌ها و تهدید‌های هوش مصنوعی در دانشگاه‌ها، با مجتبی طباطبایی، کارشناس و متخصص حوزه هوش مصنوعی، گفت‌وگویی انجام دادیم. او در این مصاحبه، از نقش ChatGPT در یادگیری دانشجویان، چالش‌های اخلاقی و ضرورت بازطراحی ارزیابی‌ها در نظام آموزش عالی سخن گفته است. آنچه در ادامه می‌خوانید، جمع‌بندی دیدگاه‌های او درباره آینده آموزش و یادگیری در عصر هوش مصنوعی است. 

نگاه کلی شما به استفاده از هوش مصنوعی در آموزش عالی چیست؟

نگاه من به استفاده از هوش مصنوعی در آموزش عالی خوش‌بینانه است. آموزش عالی سال‌هاست میان واقعیت «کلاس‌های پرجمعیت و الگوی یک‌به‌چند» و آرمان «یادگیری عمیق یک‌به‌یک» گرفتار مانده است. اگر هوش مصنوعی درست ریل‌گذاری شود، می‌تواند مزیت‌های آموزش یک‌به‌یک را در مقیاس وسیع بازآفرینی کند؛ از سطح‌سنجی دقیق و مسیر‌های یادگیری تطبیقی گرفته تا بازخورد فوری. در این میان، نقش استاد نیز انسانی‌تر و پررنگ‌تر می‌شود؛ نه به‌عنوان «تحویل‌دهنده محتوا» بلکه به‌عنوان طراح تجربه یادگیری، هدایت‌کننده گفت‌وگوی علمی و داور کیفیت. شرط موفقیت این مسیر، توجه جدی به زیرساخت و حکمرانی داده، تدوین سیاست شفاف برای «استفاده مسئولانه» و هم‌ترازی ارزیابی‌ها با این واقعیت جدید است.

آیا ChatGPT به دانشجویان کمک می‌کند یا موجب تنبلی ذهنی می‌شود؟

هر دو امکان وجود دارد و نقطه تعیین‌کننده، «طراحی تکلیف و ارزیابی» است. اگر تکلیف‌ها صرفاً بر تولید متن یا تکرار مفاهیم متمرکز باشند، ابزار‌های تولید متن می‌توانند جای تفکر را بگیرند و به تنبلی شناختی دامن بزنند. اما اگر تمرکز بر فرایند، استدلال، کار با داده، بازتولید نتایج و دفاع شفاهی باشد، ChatGPT به ابزاری برای تقویت یادگیری تبدیل می‌شود. در سطح کلان، این فناوری برای ایران یک فرصت است؛ فرصتی برای ارتقای کیفیت در کلاس‌های پرجمعیت و افزایش دسترس‌پذیری آموزش، به‌شرط آنکه با بازطراحی برنامه درسی و ارزیابی، ارتقای سواد هوش مصنوعی برای استاد و دانشجو و تدوین قواعد روشن همراه شود؛ در غیر این صورت، می‌تواند به کیفیت‌زدایی منجر شود.

چگونه دانشجویان می‌توانند از ChatGPT برای یادگیری بهتر استفاده کنند؟

اگر بخواهم خطاب به دانشجویان بگویم، این ابزار را «کمک‌استاد» بدانید، نه جایگزین فکر. هر بار که مبحثی را آغاز می‌کنید، ابتدا از آن یک نقشه راه و اهداف یادگیری قابل‌سنجش بخواهید. سپس توضیحات را در چند نسخه دریافت کنید؛ ساده، فنی و با مثال‌های بومی و آنها را مقایسه کنید تا مطمئن شوید موضوع را به‌درستی درک کرده‌اید. از مدل بخواهید پرسش‌های دقیق و چالشی مطرح کند تا نقاط ضعف استدلالتان را آشکار سازد. در کدنویسی نیز توضیح خطا، پیشنهاد تست و بازآرایی را از او بگیرید، اما اجرای نهایی و ارزیابی کارایی باید به‌دست خودتان انجام شود. خلاصه‌سازی مقاله‌ها، استخراج مفاهیم کلیدی، ساخت فلش‌کارت و زمان‌بندی مرور‌های فاصله‌دار را می‌توان به مدل سپرد، اما ارجاعات و استناد‌ها حتماً باید توسط خودتان راستی‌آزمایی شود. پیش از امتحان شفاهی هم از او بخواهید نقش استادی سخت‌گیر را بازی کند و از شما دفاع بخواهد. قاعده طلایی این است: خروجی مدل «نظر دوم» است، نه پاسخ نهایی. هر ادعا نیازمند منبع است، هر کد باید اجرا شود و هر استدلال باید توسط خودتان بازسازی گردد. به این ترتیب، از مزیت‌های یادگیری یک‌به‌یک در مقیاس بهره‌مند می‌شوید، بی‌آنکه استقلال فکری‌تان را از دست بدهید.

استفاده از ChatGPT برای نوشتن تکالیف یا پایان‌نامه چه آسیبی دارد؟

آسیب اصلی، بریدن پیوند میان «فرایند» و «محصول» است. وقتی متن نهایی بدون طی مسیر سؤال‌سازی، طراحی روش، تحلیل داده و بازنگری تولید شود، یادگیری عمیق رخ نمی‌دهد و پژوهش به گزارشی سطحی تقلیل می‌یابد. افزون بر این، خطر مصادره ادبیات، ارجاعات نادقیق و ابهام در سهم واقعی مؤلف نیز جدی است. استفاده از هوش مصنوعی در صورتی که شفاف اظهار شود، سهم انسان مشخص باشد و خروجی‌ها قابلیت بازتولید داشته باشند، می‌تواند به ارتقای کیفیت کمک کند؛ در غیر این صورت، به فرسایش کیفیت علمی منجر می‌شود.

چگونه دانشگاه‌ها می‌توانند میان استفاده آموزشی و سوءاستفاده مرز بگذارند؟

مرز با شفافیت، بازطراحی و مسئولیت‌پذیری روشن می‌شود. نخست، سیاست‌های درسی باید دقیق مشخص کنند چه استفاده‌هایی مجاز است (مانند ایده‌پردازی، بازنویسی سبک، مثال‌سازی یا تولید پرسش تمرینی) و چه استفاده‌هایی ممنوع است (تولید متن نهایی بدون مشارکت، جعل داده یا استناد). دوم، تکلیف‌ها باید «فرایندمحور» طراحی شوند.  سوم، «اظهارنامه استفاده از هوش مصنوعی» باید بخشی از تحویل هر تکلیف باشد تا سهم ابزار و انسان مشخص شود. چهارم، ارزیابی لایه‌ای (ترکیب کار درسی، پروژه‌های قابل‌تکرار، دفاع کوتاه و بخشی حضوری) احتمال سوءاستفاده را کاهش می‌دهد. به بیان ساده، باید از الگوی صرفاً یک‌به‌چند به مدلی ترکیبی حرکت کنیم که عناصر یک‌به‌یک، گفت‌وگوی کوتاه و داوری فرایند در آن تعبیه شده باشد.

آیا ابزار‌های ضدتقلب و تشخیص متن هوش مصنوعی در ایران قابل استفاده‌اند؟

به‌عنوان «نشانه‌گر‌های کمکی» بله، اما نه به‌عنوان «داور نهایی». حتی دقیق‌ترین ابزار‌ها نیز با خطای نوع اول و دوم همراه‌اند، در زبان‌های مختلف عملکرد یکسانی ندارند و به‌سادگی قابل دور زدن‌اند؛ بنابراین تکیه حقوقی یا انضباطی صرف بر آنها عادلانه نیست. راه درست، استفاده محدود از این ابزار‌ها برای علامت‌گذاری اولیه، همراه با داوری انسانی، بررسی سبک نگارش و ارجاعات و مهم‌تر از همه بازطراحی ارزیابی‌هاست تا سوءاستفاده از اساس کم‌صرفه شود. سرمایه‌گذاری بر آموزش سواد ارجاع، بازتولید نتایج و ارزیابی‌های ترکیبی، مؤثرتر از هر فیلتر جادویی است.

مهم‌ترین بند در چارچوب اخلاقی استفاده از ChatGPT

بند نخست باید «شفافیت و مسئولیت مؤلف» باشد. هر استفاده از هوش مصنوعی باید به‌صورت روشن اظهار شود، سهم دقیق انسان و ابزار ذکر گردد و مسئولیت صحت محتوا، ارجاعات و نتایج با دانشجو باقی بماند. در کنار آن، سه اصل مکمل نیز ضروری‌اند: کمینه‌سازی و محافظت از داده‌های شخصی و پژوهشی، رعایت حقوق مالکیت فکری  تا ابزار به شکاف آموزشی دامن نزند. این چارچوب در عمل به معنای الزام به ارائه اظهارنامه استفاده همراه هر تکلیف، نگه‌داری تعاملات مرتبط با خروجی نهایی (فقط برای بازبینی علمی و با حفظ حریم شخصی)، ممنوعیت بارگذاری داده‌های حساس در سرویس‌های عمومی، الزام به بازتولیدپذیری نتایج و برگزاری ارزیابی شفاهی کوتاه است. به این ترتیب، می‌توان از مزیت‌های «آموزش یک‌به‌یک در مقیاس» بهره برد، بدون آن‌که به اعتماد و تمامیت علمی آسیب وارد شود.

به نظر می‌رسد آینده آموزش عالی نه در حذف هوش مصنوعی، بلکه در همزیستی سنجیده با آن رقم خواهد خورد. همان‌طور که ماشین حساب جای تفکر ریاضی را نگرفت، ChatGPT نیز جای استدلال و تحلیل انسانی را نخواهد گرفت؛ به شرط آن‌که دانشگاه‌ها شفافیت، بازآموزی و بازطراحی را جدی بگیرند. اگر استادان و دانشجویان هوش مصنوعی را همکار خود بدانند، نه رقیب، می‌توان به الگویی تازه از آموزش امید بست؛ الگویی که در آن فناوری، توان یادگیری را گسترش می‌دهد، نه اینکه جایگزین آن شود.

انتهای پیام/

ارسال نظر