صفحه نخست

آناتک

آنامدیا

دانشگاه

فرهنگ‌

علم

سیاست و جهان

اقتصاد

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

همدان

هرمزگان

یزد

پخش زنده

۱۴:۲۳ | ۰۲ / ۱۲ /۱۴۰۴
| |

وقتی هوش مصنوعی از درک ما پیشی می‌گیرد: آموزش عالی باید اقتدار خود را بازپس گیرد

«وقتی هوش مصنوعی سریع‌تر از درک ما تکامل می‌یابد، دانشگاه‌ها با خطر خاموشی مواجه‌اند: واگذاری اقتدار تعریفِ «دانش» و «قضاوت» به سیستم‌های الگوریتمی.» جیمز یونیل آو، یک پژوهشگر، مربی و متفکر عمومی کره‌ای در این گزارش هشدار می‌دهد که آموزش عالی دیگر صرفاً استفاده‌کننده از هوش مصنوعی نیست، بلکه در حال عمل کردن «در درون» آن است؛ روندی که در آن کارایی جای تأمل را می‌گیرد و راحتی، نقاب پیشرفت به چهره می‌زند.
کد خبر : 1034672

به گزارش خبرگزاری آنا، دانشگاه‌ها همواره برای درک تغییرات فناورانه به استعاره‌ها متکی بوده‌اند. ساعت، زمان آکادمیک را نظم می‌بخشید. کارخانه، آموزش انبوه را شکل می‌داد. رایانه، دانش را به‌عنوان اطلاعات بازتعریف کرد. هر یک از این استعاره‌ها فراتر از توصیف نوآوری عمل می‌کردند؛ آن‌ها نحوه درک دانشگاه‌ها از یادگیری، اقتدار و هدف را بازسازمان می‌دادند. اکنون هوش مصنوعی نقشی مشابه ایفا می‌کند، اما با تفاوتی حیاتی: هوش مصنوعی نه‌تنها به‌عنوان استعاره‌ای از هوش عمل می‌کند، بلکه به‌عنوان زیرساختی در زندگی روزمره آکادمیک نیز تعبیه شده است. این فناوری فزاینده بر نحوه نوشتن دانشجویان، سنجش یادگیری، انجام پژوهش‌ها و اتخاذ تصمیمات نهادی تأثیر می‌گذارد.

برخلاف فناوری‌های پیشین، هوش مصنوعی صرفاً ظرفیت انسانی را گسترش نمی‌دهد، بلکه آن را دچار چالش می‌کند. این نگرانی عمدتاً یک مسئله فنی نیست؛ بلکه بازتاب تنش‌های حل‌نشده‌ای است که پیش از خودِ فناوری وجود داشته‌اند: تنش میان کارایی و قضاوت، اتوماسیون و عاملیت، و مقیاس و معنا.

هوش مصنوعی این تناقض‌ها را آشکار می‌سازد، زیرا دقیقاً در نقطه‌ای عمل می‌کند که ارزش‌های آموزشی به سیستم‌ها ترجمه می‌شوند. آموزش عالی دیگر صرفاً از هوش مصنوعی استفاده نمی‌کند؛ در جنبه‌های مهمی، شروع به عمل کردن در درون هوش مصنوعی کرده است.

خطر اصلی این نیست که دانشگاه‌ها از هوش مصنوعی سوءاستفاده کنند. خطر این است که آن‌ها همچنان به فعالیت ادامه دهند، در حالی که به‌طور خاموش اقتدار خود را برای تعریف اینکه «دانش»، «قضاوت» و «یادگیری» چیست، واگذار می‌کنند.

وقتی فناوری‌ها سریع‌تر از درک نهادی تکامل می‌یابند، کارایی جای تأمل را می‌گیرد و راحتیِ ظاهری، نقاب پیشرفت به چهره می‌زند. برای نهادهایی که مشروعیت آن‌ها بر ظرفیت‌شان برای قضاوت انتقادی استوار است، این خطری است که آموزش عالی نمی‌تواند آن را عادی‌سازی کند.

از مبادله‌ها تا تنش‌های ساختاری

برای دانشگاه‌ها، این نقطه یک گذار تعیین‌کننده است. چالش دیگر این نیست که چگونه هوش مصنوعی را از طریق بهینه‌سازی و ضمانت‌های اخلاقی به‌کار گیریم، بلکه چالش این است که چگونه اقتدار آموزشی را زمانی حفظ کنیم که قضاوت، عاملیت و مسئولیت فزاینده توسط سیستم‌های غیرشفاف میانجی‌گری می‌شوند.

آنچه زمانی به‌نظر مبادله‌هایی قابل‌مدیریت می‌رسید، اکنون به‌عنوان تنش‌های ساختاریِ تعبیه‌شده در عمل روزمره آکادمیک ظاهر می‌شود؛ تنش‌هایی که نمی‌توان آن‌ها را صرفاً از طریق پالایش فنی حل کرد. در همین بستر است که پارادوکس‌های هوش مصنوعی در آموزش عالی آشکار می‌شوند.

ترسیم پارادوکس‌های هوش مصنوعی

یکی از راه‌های درک این لحظه، چیزی است که می‌توان آن را «اطلس پارادوکس‌های هوش مصنوعی» نامید: چارچوبی که تناقض‌های تکرارشونده‌ای را که هوش مصنوعی در نهادهای انسانی، از جمله دانشگاه‌ها، معرفی می‌کند، شناسایی می‌کند. هدف از یک «اطلس»، اعلام درمان نیست؛ بلکه ارائه جهت‌یابی است: راهی برای تشخیص اینکه زمین کجا در حال جابه‌جایی است و چه فشارهایی در حال انباشت هستند.

چندین پارادوکس هم‌اکنون در حال شکل‌دهی به تصمیمات حکمرانی، شیوه‌های کلاسی و مشروعیت ارزیابی آکادمیک هستند:

• اعتبار و عدم شفافیت: خروجی‌های هوش مصنوعی فزاینده معتبر به نظر می‌رسند، در حالی که فرآیندهای درونی آن‌ها غیرقابل‌دسترسی باقی مانده‌اند.

• مقیاس‌پذیری و حاکمیت: پلتفرم‌های جهانی دانش را استاندارد می‌کنند، در حالی که هنجارهای آکادمیک محلی و خودمختاری نهادی را تضعیف می‌نمایند.

• واگذاری و زوال: برون‌سپاری وظایف شناختی و پداگوژیک، خطر تضعیف قضاوت و عمق آموزشی را به همراه دارد.

• تقلید و تجسم: هوش مصنوعی می‌تواند بیان را تقلید کند، اما نمی‌تواند مسئولیت معنا یا پیامد را بر عهده بگیرد.

• پیش‌بینی و آزادی: سیستم‌هایی که برای پیش‌بینی رفتار طراحی شده‌اند، به‌طور ظریف فضای کاوش و شگفتی را محدود می‌کنند.

• درک و وابستگی: دانشجویان و کارکنان به سیستم‌هایی وابسته می‌شوند که نمی‌توانند آن‌ها را به‌طور معناداری به پرسش بگیرند یا به چالش بکشند.

این‌ها معماهای انتزاعی نیستند. آن‌ها تصمیمات مربوط به یکپارچگی ارزیابی، حکمرانی داده‌ها، تألیف و پاسخگویی را شکل می‌دهند. وقتی هوش مصنوعی وارد آموزش می‌شود، صرفاً قابلیت‌هایی اضافه نمی‌کند؛ بلکه درک ما از هدف یادگیری و آنچه دانشگاه‌ها حاضرند به‌عنوان اصول غیرقابل‌مذاکره دفاع کنند، تغییر می‌دهد.

دو پارادوکسی که دانشگاه‌ها نمی‌توانند آن‌ها را حل کنند

بسیاری از تنش‌ها همراه با هوش مصنوعی در آموزش عالی وجود دارند، اما دو مورد برجسته‌ترند، زیرا انتخاب‌هایی را تحمیل می‌کنند که هیچ مقدار پالایش رویه‌ای نمی‌تواند به‌طور کامل از آن‌ها اجتناب کند.

اول: اعتبار در برابر عدم شفافیت. سیستم‌های هوش مصنوعی اکنون تحلیل‌ها، بازخوردها و خروجی‌های پژوهشی تولید می‌کنند که معتبر به نظر می‌رسند. روانیِ کلام آن‌ها اعتماد را برمی‌انگیزد. با این حال، فرآیندهایی که این خروجی‌ها را تولید می‌کنند، تا حد زیادی غیرقابل‌دسترسی باقی مانده‌اند، حتی برای بسیاری از کسانی که آن‌ها را می‌سازند و به‌کار می‌گیرند.

دانشگاه‌ها با انتخابی دشوار روبه‌رو هستند: یا شکل‌هایی از تولید دانش را می‌پذیرند که نمی‌توانند به‌طور کامل توضیح دهند و اقتدار معرفت‌شناختی را به سیستم‌هایی واگذار می‌کنند که در برابر بررسی دقیق، موشکافانه و انتقادی مقاومت می‌کنند، یا تصمیم‌گیری و پژوهش را کند می‌کنند و خطر بی‌ارتباطی نهادی را در اقتصاد دانشِ سرعت‌محور می‌پذیرند. در این بافت، شفافیت صرفاً یک هدف فنی نیست؛ به یک مبادله با رقابت‌پذیری تبدیل می‌شود.

دوم: واگذاری در برابر زوال. هوش مصنوعی وعده می‌دهد که مربیان را از کار شناختی و پداگوژیک رها کند: تدوین بازخورد، سازماندهی برنامه‌های درسی و شکل‌دهی به ارزیابی‌ها. اما هرچه قضاوت بیشتر برون‌سپاری شود، خطر تضعیف ظرفیت‌هایی که دانشگاه‌ها برای پرورش آن‌ها وجود دارند — مانند تفسیر، تمییز و مبارزه فکری — افزایش می‌یابد.

گزینه جایگزین نیز هزینه‌ای کمتر ندارد: اصرار بر شیوه‌های انسان‌محور، مستلزم مقاومت در برابر سیستم‌هایی است که برای کارایی و مقیاس بهینه شده‌اند و دانشگاه‌ها را در تقابل با زیرساخت‌هایی قرار می‌دهد که فزاینده انتظار می‌رود از آن‌ها حمایت کنند.

این‌ها دردهای رشد موقتی نیستند. این‌ها معضلات ساختاریِ تعبیه‌شده در نحوه بازسازمان‌دهی اقتدار توسط هوش مصنوعی هستند. دانشگاه‌ها نمی‌توانند با بهینه‌سازی از آن‌ها فرار کنند. آن‌ها تنها می‌توانند — اغلب به‌طور ضمنی — تصمیم بگیرند که کدام زیان‌ها را حاضرند بپذیرند و کدام ارزش‌ها را به قیمت نهاد آماده‌اند دفاع کنند.

چرا پارادوکس‌ها در حال تشدید هستند؟

این پارادوکس‌ها صرفاً نظری نیستند؛ آن‌ها به‌وضوح در تصمیم‌گیری‌های روزمره نهادی ظاهر می‌شوند، جایی که عدم قطعیت از طریق مصالحه رویه‌ای مدیریت می‌شود، نه حل مفهومی.

منطق پیش‌بینی‌کننده فزاینده بر انتخاب انسانی پیشی می‌گیرد. سیستم‌های توصیه‌گر صرفاً به رفتار پاسخ نمی‌دهند؛ آن‌ها رفتار را شکل می‌دهند.

در آموزش، این پرسش‌های ناخوشایندی را برمی‌انگیزد: وقتی مسیرهای یادگیری از پیش تعیین شده باشند، چه بر سر سرگردانی فکری، مبارزه یا دگرگونی می‌آید؟ نهادی که فزاینده یادگیرندگان را در آینده‌های پیش‌بینی‌شده دسته‌بندی می‌کند، در دفاع از دانشگاه به‌عنوان مکانی که در آن شگفتی همچنان ممکن است، با دشواری روبه‌رو خواهد شد.

هم‌زمان، هوش مصنوعی در زیرساخت نهادی ادغام شده است. دانشگاه‌ها اکنون از سیستم‌های الگوریتمی برای مدیریت ریسک، نظارت بر عملکرد و نمایش پاسخگویی استفاده می‌کنند.

آنچه به‌عنوان یک اختلال آغاز شد، اکنون به یک بازتعریف تبدیل شده است. نهادهایی که زمانی مسئول شکل‌دهی به فرهنگ‌های دانش بودند، اکنون خود توسط منطق سیستم‌هایی که تهیه می‌کنند، شکل می‌گیرند.

شکافی فزاینده نیز بین استفاده و درک وجود دارد. دانشجویان، مربیان و مدیران روزانه با هوش مصنوعی تعامل دارند، بدون درک روشنی از اینکه این سیستم‌ها چگونه آموزش دیده‌اند، به چه داده‌هایی متکی هستند یا چه فرضیاتی را کدگذاری می‌کنند.

این وابستگی بدون درک، در حال تبدیل شدن به ویژگی تعریف‌کننده زندگی آکادمیک است و به‌طور خاموش اعتبار دانشگاه را تضعیف می‌کند، حتی زمانی که ادعای پرورش پرسشگری انتقادی دارد.

در مجموع، این نیروها پارادوکس‌های مرتبط با هوش مصنوعی را نه چالش‌های گذرا، بلکه زمین جدید آموزش عالی می‌سازند.

مسئولیت دانشگاه

دانشگاه‌ها در این چشم‌انداز جایگاهی متمایز دارند. آن‌ها همچنان از معدود نهادهایی هستند که برای تأمل بلندمدت طراحی شده‌اند، نه بهینه‌سازی کوتاه‌مدت. مشروعیت آن‌ها نه‌تنها بر تولید مهارت‌ها، بلکه بر پرورش قضاوت، مسئولیت‌پذیری و عاملیت شهروندی استوار است.

در بسیاری از سیستم‌ها، هوش مصنوعی عمدتاً برای راحتی اداری اتخاذ می‌شود: خودکارسازی نمره‌دهی، نظارت بر مشارکت و پیش‌بینی ترک تحصیل.

وقتی دانشگاه به‌عنوان یک پلتفرم داده‌ای تلقی شود، دانشجویان به کاربران و یادگیری به یک خدمت تبدیل می‌شوند. آنچه از دست می‌رود، «شکل‌گیری» است: توسعه تدریجی تمییز، استدلال اخلاقی و استقلال فکری.

به همین دلیل است که بحث‌ها درباره نوشتن با کمک هوش مصنوعی، طراحی ارزیابی و تألیف، نبردهای حاشیه‌ای نیستند. آن‌ها مبارزات نمادین بر سر این هستند که دانشگاه در دنیای خودکار وجود دارد تا از چه چیزی محافظت کند.

مذاکرات اعضای هیئت‌علمی درباره هوش مصنوعی، حواس‌پرتی از برنامه درسی نیستند؛ بلکه تمرین‌هایی برای استدلال دموکراتیک در میان عدم قطعیت هستند.

سواد پارادوکس به‌عنوان پیامد آموزشی محوری

آنچه آموزش عالی اکنون به آن نیاز دارد، شکل جدیدی از شایستگی شهروندی است: سواد پارادوکس. منظور از سواد پارادوکس، ظرفیت شناخت، نگه‌داشتن و استدلال مسئولانه درون تناقض‌های پایداری است که نمی‌توان آن‌ها را صرفاً از طریق بهینه‌سازی، قوانین یا راه‌حل‌های فنی حل کرد. این به معنای راحتی با ابهام برای خودش نیست، بلکه توانایی منضبط برای اعمال قضاوت زمانی است که حقایق رقیب هم‌زمان معتبر هستند.

سواد پارادوکس به‌عنوان مثال تشخیص می‌دهد که هوش مصنوعی می‌تواند دسترسی را گسترش دهد در حالی که نابرابری را عمیق‌تر می‌کند، خلاقیت را دموکراتیک کند در حالی که تألیف را تضعیف می‌نماید، و کارایی را افزایش دهد در حالی که درک را توخالی می‌سازد.

این تنش‌ها نقص‌های طراحی برای حذف نیستند، بلکه شرایط ساختاری هستند که نحوه تعامل سیستم‌های هوشمند با نهادهای انسانی را شکل می‌دهند.

تأکید یونسکو بر «هوش مصنوعی انسان‌محور» به‌طور ضمنی به این ظرفیت فراخوان می‌دهد، همان‌طور که تمرکز فزاینده سازمان بین المللی همکاری و توسعه اقتصادی بر عاملیت و مسئولیت‌پذیری به‌جای مهارت‌های باریک. مقررات و حکمرانی فنی می‌توانند مرزها را تعیین کنند، اما نمی‌توانند قضاوت را پرورش دهند. دانشگاه‌ها باید این کار را انجام دهند.

بنابراین، سواد پارادوکس متعلق به سراسر برنامه درسی است. مهندسان باید بیاموزند که با آگاهی اخلاقی طراحی کنند. مربیان باید نوآوری را با حضور متوازن سازند. متخصصان سیاست باید سیستم‌هایی را ارزیابی کنند که پیامدهایشان نابرابر و وابسته به زمینه است. هنرمندان و انسان‌گرایان باید بررسی کنند که معنا چگونه تغییر می‌کند وقتی ماشین‌ها در بیان مشارکت می‌کنند.

هدف حذف پیچیدگی نیست، بلکه سکونت مسئولانه در آن است، بدون تسلیم شدن نقش دانشگاه به‌عنوان نگهبان قضاوت.

یک مسئولیت جهانی

این چالش‌ها به‌طور نابرابر توزیع شده‌اند. داده‌های برخی مناطق برای آموزش سیستم‌هایی استفاده می‌شود که در جای دیگر به‌کار گرفته می‌شوند. فناوری‌های آموزشی توسعه‌یافته در شمال جهانی اغلب بدون توجه کافی به زمینه فرهنگی، عدالت معرفت‌شناختی یا حاکمیت نهادی، به‌طور جهانی گسترش می‌یابند.

دانشگاه‌ها مسئولیت دارند که با این نامتقارنی‌ها مواجه شوند. تأمل اخلاقی درباره هوش مصنوعی نمی‌تواند به سیلیکون‌ولی، بروکسل یا سئول محدود شود. باید شامل دیدگاه‌هایی فراتر از نهادهایی باشد که هم‌اکنون بر طراحی و حکمرانی هوش مصنوعی تسلط دارند.

در این معنا، حکمرانی هوش مصنوعی در دانشگاه‌ها از آموزش شهروندی جهانی جدا نیست. هر دو نیازمند گفت‌وگو در میان تفاوت‌ها و واژگانی مشترک برای پیچیدگی اخلاقی هستند، و هر دو مستلزم آن‌اند که نهادها از شرایطی دفاع کنند که اجازه می‌دهد دانش کثرت‌گرا زنده بماند.

باز نگه‌داشتن پرسش‌های درست

اطلس پارادوکس‌های هوش مصنوعی راه‌حل‌های آسانی ارائه نمی‌دهد. آنچه ارائه می‌دهد، جهت‌یابی است. به نهادها کمک می‌کند تا نگرانی همراه با تغییر فناورانه سریع را نام‌گذاری کنند و در برابر وسوسه بستن زودهنگام مقاومت ورزند.

برخی ارزش‌ها باید پیچیده باقی بمانند. عدالت را نمی‌توان به‌طور کامل بهینه کرد. نه معنا و نه کرامت. هوش مصنوعی به پیشرفت خود ادامه خواهد داد. پرسش تعیین‌کننده این است: آیا دانشگاه‌ها با درک اخلاقی هم‌گام خواهند شد؟

اگر آموزش عالی بتواند نقش خود را به‌عنوان متولی پیچیدگی — نه مدیر کارایی — بازپس گیرد، می‌تواند به جوامع کمک کند تا با وانایی تشخیص دقیق، قضاوت هوشمندانه و تمییز دادن میان گزینه‌های پیچیده به‌جای سردرگمی، وارد عصر سیستم‌های هوشمند شوند. هوش واقعی هرگز تنها درباره حل مسئله نبوده است. همچنین درباره دانستن این است که کدام پرسش‌ها باید باز بمانند.

عصر هوش مصنوعی، همچنین عصر قضاوت انسانی است. دانشگاه‌ها باید رهبری این گفت‌وگو را بر عهده بگیرند، یا خطر ساخت سیستم‌هایی را می‌پذیریم که همه‌چیز را می‌دانند، اما هیچ‌چیز را درک نمی‌کنند.

انتهای پیام/

ارسال نظر
captcha