وقتی هوش مصنوعی از درک ما پیشی میگیرد: آموزش عالی باید اقتدار خود را بازپس گیرد
به گزارش خبرگزاری آنا، دانشگاهها همواره برای درک تغییرات فناورانه به استعارهها متکی بودهاند. ساعت، زمان آکادمیک را نظم میبخشید. کارخانه، آموزش انبوه را شکل میداد. رایانه، دانش را بهعنوان اطلاعات بازتعریف کرد. هر یک از این استعارهها فراتر از توصیف نوآوری عمل میکردند؛ آنها نحوه درک دانشگاهها از یادگیری، اقتدار و هدف را بازسازمان میدادند. اکنون هوش مصنوعی نقشی مشابه ایفا میکند، اما با تفاوتی حیاتی: هوش مصنوعی نهتنها بهعنوان استعارهای از هوش عمل میکند، بلکه بهعنوان زیرساختی در زندگی روزمره آکادمیک نیز تعبیه شده است. این فناوری فزاینده بر نحوه نوشتن دانشجویان، سنجش یادگیری، انجام پژوهشها و اتخاذ تصمیمات نهادی تأثیر میگذارد.
برخلاف فناوریهای پیشین، هوش مصنوعی صرفاً ظرفیت انسانی را گسترش نمیدهد، بلکه آن را دچار چالش میکند. این نگرانی عمدتاً یک مسئله فنی نیست؛ بلکه بازتاب تنشهای حلنشدهای است که پیش از خودِ فناوری وجود داشتهاند: تنش میان کارایی و قضاوت، اتوماسیون و عاملیت، و مقیاس و معنا.
هوش مصنوعی این تناقضها را آشکار میسازد، زیرا دقیقاً در نقطهای عمل میکند که ارزشهای آموزشی به سیستمها ترجمه میشوند. آموزش عالی دیگر صرفاً از هوش مصنوعی استفاده نمیکند؛ در جنبههای مهمی، شروع به عمل کردن در درون هوش مصنوعی کرده است.
خطر اصلی این نیست که دانشگاهها از هوش مصنوعی سوءاستفاده کنند. خطر این است که آنها همچنان به فعالیت ادامه دهند، در حالی که بهطور خاموش اقتدار خود را برای تعریف اینکه «دانش»، «قضاوت» و «یادگیری» چیست، واگذار میکنند.
وقتی فناوریها سریعتر از درک نهادی تکامل مییابند، کارایی جای تأمل را میگیرد و راحتیِ ظاهری، نقاب پیشرفت به چهره میزند. برای نهادهایی که مشروعیت آنها بر ظرفیتشان برای قضاوت انتقادی استوار است، این خطری است که آموزش عالی نمیتواند آن را عادیسازی کند.
از مبادلهها تا تنشهای ساختاری
برای دانشگاهها، این نقطه یک گذار تعیینکننده است. چالش دیگر این نیست که چگونه هوش مصنوعی را از طریق بهینهسازی و ضمانتهای اخلاقی بهکار گیریم، بلکه چالش این است که چگونه اقتدار آموزشی را زمانی حفظ کنیم که قضاوت، عاملیت و مسئولیت فزاینده توسط سیستمهای غیرشفاف میانجیگری میشوند.
آنچه زمانی بهنظر مبادلههایی قابلمدیریت میرسید، اکنون بهعنوان تنشهای ساختاریِ تعبیهشده در عمل روزمره آکادمیک ظاهر میشود؛ تنشهایی که نمیتوان آنها را صرفاً از طریق پالایش فنی حل کرد. در همین بستر است که پارادوکسهای هوش مصنوعی در آموزش عالی آشکار میشوند.
ترسیم پارادوکسهای هوش مصنوعی
یکی از راههای درک این لحظه، چیزی است که میتوان آن را «اطلس پارادوکسهای هوش مصنوعی» نامید: چارچوبی که تناقضهای تکرارشوندهای را که هوش مصنوعی در نهادهای انسانی، از جمله دانشگاهها، معرفی میکند، شناسایی میکند. هدف از یک «اطلس»، اعلام درمان نیست؛ بلکه ارائه جهتیابی است: راهی برای تشخیص اینکه زمین کجا در حال جابهجایی است و چه فشارهایی در حال انباشت هستند.
چندین پارادوکس هماکنون در حال شکلدهی به تصمیمات حکمرانی، شیوههای کلاسی و مشروعیت ارزیابی آکادمیک هستند:
• اعتبار و عدم شفافیت: خروجیهای هوش مصنوعی فزاینده معتبر به نظر میرسند، در حالی که فرآیندهای درونی آنها غیرقابلدسترسی باقی ماندهاند.
• مقیاسپذیری و حاکمیت: پلتفرمهای جهانی دانش را استاندارد میکنند، در حالی که هنجارهای آکادمیک محلی و خودمختاری نهادی را تضعیف مینمایند.
• واگذاری و زوال: برونسپاری وظایف شناختی و پداگوژیک، خطر تضعیف قضاوت و عمق آموزشی را به همراه دارد.
• تقلید و تجسم: هوش مصنوعی میتواند بیان را تقلید کند، اما نمیتواند مسئولیت معنا یا پیامد را بر عهده بگیرد.
• پیشبینی و آزادی: سیستمهایی که برای پیشبینی رفتار طراحی شدهاند، بهطور ظریف فضای کاوش و شگفتی را محدود میکنند.
• درک و وابستگی: دانشجویان و کارکنان به سیستمهایی وابسته میشوند که نمیتوانند آنها را بهطور معناداری به پرسش بگیرند یا به چالش بکشند.
اینها معماهای انتزاعی نیستند. آنها تصمیمات مربوط به یکپارچگی ارزیابی، حکمرانی دادهها، تألیف و پاسخگویی را شکل میدهند. وقتی هوش مصنوعی وارد آموزش میشود، صرفاً قابلیتهایی اضافه نمیکند؛ بلکه درک ما از هدف یادگیری و آنچه دانشگاهها حاضرند بهعنوان اصول غیرقابلمذاکره دفاع کنند، تغییر میدهد.
دو پارادوکسی که دانشگاهها نمیتوانند آنها را حل کنند
بسیاری از تنشها همراه با هوش مصنوعی در آموزش عالی وجود دارند، اما دو مورد برجستهترند، زیرا انتخابهایی را تحمیل میکنند که هیچ مقدار پالایش رویهای نمیتواند بهطور کامل از آنها اجتناب کند.
اول: اعتبار در برابر عدم شفافیت. سیستمهای هوش مصنوعی اکنون تحلیلها، بازخوردها و خروجیهای پژوهشی تولید میکنند که معتبر به نظر میرسند. روانیِ کلام آنها اعتماد را برمیانگیزد. با این حال، فرآیندهایی که این خروجیها را تولید میکنند، تا حد زیادی غیرقابلدسترسی باقی ماندهاند، حتی برای بسیاری از کسانی که آنها را میسازند و بهکار میگیرند.
دانشگاهها با انتخابی دشوار روبهرو هستند: یا شکلهایی از تولید دانش را میپذیرند که نمیتوانند بهطور کامل توضیح دهند و اقتدار معرفتشناختی را به سیستمهایی واگذار میکنند که در برابر بررسی دقیق، موشکافانه و انتقادی مقاومت میکنند، یا تصمیمگیری و پژوهش را کند میکنند و خطر بیارتباطی نهادی را در اقتصاد دانشِ سرعتمحور میپذیرند. در این بافت، شفافیت صرفاً یک هدف فنی نیست؛ به یک مبادله با رقابتپذیری تبدیل میشود.
دوم: واگذاری در برابر زوال. هوش مصنوعی وعده میدهد که مربیان را از کار شناختی و پداگوژیک رها کند: تدوین بازخورد، سازماندهی برنامههای درسی و شکلدهی به ارزیابیها. اما هرچه قضاوت بیشتر برونسپاری شود، خطر تضعیف ظرفیتهایی که دانشگاهها برای پرورش آنها وجود دارند — مانند تفسیر، تمییز و مبارزه فکری — افزایش مییابد.
گزینه جایگزین نیز هزینهای کمتر ندارد: اصرار بر شیوههای انسانمحور، مستلزم مقاومت در برابر سیستمهایی است که برای کارایی و مقیاس بهینه شدهاند و دانشگاهها را در تقابل با زیرساختهایی قرار میدهد که فزاینده انتظار میرود از آنها حمایت کنند.
اینها دردهای رشد موقتی نیستند. اینها معضلات ساختاریِ تعبیهشده در نحوه بازسازماندهی اقتدار توسط هوش مصنوعی هستند. دانشگاهها نمیتوانند با بهینهسازی از آنها فرار کنند. آنها تنها میتوانند — اغلب بهطور ضمنی — تصمیم بگیرند که کدام زیانها را حاضرند بپذیرند و کدام ارزشها را به قیمت نهاد آمادهاند دفاع کنند.
چرا پارادوکسها در حال تشدید هستند؟
این پارادوکسها صرفاً نظری نیستند؛ آنها بهوضوح در تصمیمگیریهای روزمره نهادی ظاهر میشوند، جایی که عدم قطعیت از طریق مصالحه رویهای مدیریت میشود، نه حل مفهومی.
منطق پیشبینیکننده فزاینده بر انتخاب انسانی پیشی میگیرد. سیستمهای توصیهگر صرفاً به رفتار پاسخ نمیدهند؛ آنها رفتار را شکل میدهند.
در آموزش، این پرسشهای ناخوشایندی را برمیانگیزد: وقتی مسیرهای یادگیری از پیش تعیین شده باشند، چه بر سر سرگردانی فکری، مبارزه یا دگرگونی میآید؟ نهادی که فزاینده یادگیرندگان را در آیندههای پیشبینیشده دستهبندی میکند، در دفاع از دانشگاه بهعنوان مکانی که در آن شگفتی همچنان ممکن است، با دشواری روبهرو خواهد شد.
همزمان، هوش مصنوعی در زیرساخت نهادی ادغام شده است. دانشگاهها اکنون از سیستمهای الگوریتمی برای مدیریت ریسک، نظارت بر عملکرد و نمایش پاسخگویی استفاده میکنند.
آنچه بهعنوان یک اختلال آغاز شد، اکنون به یک بازتعریف تبدیل شده است. نهادهایی که زمانی مسئول شکلدهی به فرهنگهای دانش بودند، اکنون خود توسط منطق سیستمهایی که تهیه میکنند، شکل میگیرند.
شکافی فزاینده نیز بین استفاده و درک وجود دارد. دانشجویان، مربیان و مدیران روزانه با هوش مصنوعی تعامل دارند، بدون درک روشنی از اینکه این سیستمها چگونه آموزش دیدهاند، به چه دادههایی متکی هستند یا چه فرضیاتی را کدگذاری میکنند.
این وابستگی بدون درک، در حال تبدیل شدن به ویژگی تعریفکننده زندگی آکادمیک است و بهطور خاموش اعتبار دانشگاه را تضعیف میکند، حتی زمانی که ادعای پرورش پرسشگری انتقادی دارد.
در مجموع، این نیروها پارادوکسهای مرتبط با هوش مصنوعی را نه چالشهای گذرا، بلکه زمین جدید آموزش عالی میسازند.
مسئولیت دانشگاه
دانشگاهها در این چشمانداز جایگاهی متمایز دارند. آنها همچنان از معدود نهادهایی هستند که برای تأمل بلندمدت طراحی شدهاند، نه بهینهسازی کوتاهمدت. مشروعیت آنها نهتنها بر تولید مهارتها، بلکه بر پرورش قضاوت، مسئولیتپذیری و عاملیت شهروندی استوار است.
در بسیاری از سیستمها، هوش مصنوعی عمدتاً برای راحتی اداری اتخاذ میشود: خودکارسازی نمرهدهی، نظارت بر مشارکت و پیشبینی ترک تحصیل.
وقتی دانشگاه بهعنوان یک پلتفرم دادهای تلقی شود، دانشجویان به کاربران و یادگیری به یک خدمت تبدیل میشوند. آنچه از دست میرود، «شکلگیری» است: توسعه تدریجی تمییز، استدلال اخلاقی و استقلال فکری.
به همین دلیل است که بحثها درباره نوشتن با کمک هوش مصنوعی، طراحی ارزیابی و تألیف، نبردهای حاشیهای نیستند. آنها مبارزات نمادین بر سر این هستند که دانشگاه در دنیای خودکار وجود دارد تا از چه چیزی محافظت کند.
مذاکرات اعضای هیئتعلمی درباره هوش مصنوعی، حواسپرتی از برنامه درسی نیستند؛ بلکه تمرینهایی برای استدلال دموکراتیک در میان عدم قطعیت هستند.
سواد پارادوکس بهعنوان پیامد آموزشی محوری
آنچه آموزش عالی اکنون به آن نیاز دارد، شکل جدیدی از شایستگی شهروندی است: سواد پارادوکس. منظور از سواد پارادوکس، ظرفیت شناخت، نگهداشتن و استدلال مسئولانه درون تناقضهای پایداری است که نمیتوان آنها را صرفاً از طریق بهینهسازی، قوانین یا راهحلهای فنی حل کرد. این به معنای راحتی با ابهام برای خودش نیست، بلکه توانایی منضبط برای اعمال قضاوت زمانی است که حقایق رقیب همزمان معتبر هستند.
سواد پارادوکس بهعنوان مثال تشخیص میدهد که هوش مصنوعی میتواند دسترسی را گسترش دهد در حالی که نابرابری را عمیقتر میکند، خلاقیت را دموکراتیک کند در حالی که تألیف را تضعیف مینماید، و کارایی را افزایش دهد در حالی که درک را توخالی میسازد.
این تنشها نقصهای طراحی برای حذف نیستند، بلکه شرایط ساختاری هستند که نحوه تعامل سیستمهای هوشمند با نهادهای انسانی را شکل میدهند.
تأکید یونسکو بر «هوش مصنوعی انسانمحور» بهطور ضمنی به این ظرفیت فراخوان میدهد، همانطور که تمرکز فزاینده سازمان بین المللی همکاری و توسعه اقتصادی بر عاملیت و مسئولیتپذیری بهجای مهارتهای باریک. مقررات و حکمرانی فنی میتوانند مرزها را تعیین کنند، اما نمیتوانند قضاوت را پرورش دهند. دانشگاهها باید این کار را انجام دهند.
بنابراین، سواد پارادوکس متعلق به سراسر برنامه درسی است. مهندسان باید بیاموزند که با آگاهی اخلاقی طراحی کنند. مربیان باید نوآوری را با حضور متوازن سازند. متخصصان سیاست باید سیستمهایی را ارزیابی کنند که پیامدهایشان نابرابر و وابسته به زمینه است. هنرمندان و انسانگرایان باید بررسی کنند که معنا چگونه تغییر میکند وقتی ماشینها در بیان مشارکت میکنند.
هدف حذف پیچیدگی نیست، بلکه سکونت مسئولانه در آن است، بدون تسلیم شدن نقش دانشگاه بهعنوان نگهبان قضاوت.
یک مسئولیت جهانی
این چالشها بهطور نابرابر توزیع شدهاند. دادههای برخی مناطق برای آموزش سیستمهایی استفاده میشود که در جای دیگر بهکار گرفته میشوند. فناوریهای آموزشی توسعهیافته در شمال جهانی اغلب بدون توجه کافی به زمینه فرهنگی، عدالت معرفتشناختی یا حاکمیت نهادی، بهطور جهانی گسترش مییابند.
دانشگاهها مسئولیت دارند که با این نامتقارنیها مواجه شوند. تأمل اخلاقی درباره هوش مصنوعی نمیتواند به سیلیکونولی، بروکسل یا سئول محدود شود. باید شامل دیدگاههایی فراتر از نهادهایی باشد که هماکنون بر طراحی و حکمرانی هوش مصنوعی تسلط دارند.
در این معنا، حکمرانی هوش مصنوعی در دانشگاهها از آموزش شهروندی جهانی جدا نیست. هر دو نیازمند گفتوگو در میان تفاوتها و واژگانی مشترک برای پیچیدگی اخلاقی هستند، و هر دو مستلزم آناند که نهادها از شرایطی دفاع کنند که اجازه میدهد دانش کثرتگرا زنده بماند.
باز نگهداشتن پرسشهای درست
اطلس پارادوکسهای هوش مصنوعی راهحلهای آسانی ارائه نمیدهد. آنچه ارائه میدهد، جهتیابی است. به نهادها کمک میکند تا نگرانی همراه با تغییر فناورانه سریع را نامگذاری کنند و در برابر وسوسه بستن زودهنگام مقاومت ورزند.
برخی ارزشها باید پیچیده باقی بمانند. عدالت را نمیتوان بهطور کامل بهینه کرد. نه معنا و نه کرامت. هوش مصنوعی به پیشرفت خود ادامه خواهد داد. پرسش تعیینکننده این است: آیا دانشگاهها با درک اخلاقی همگام خواهند شد؟
اگر آموزش عالی بتواند نقش خود را بهعنوان متولی پیچیدگی — نه مدیر کارایی — بازپس گیرد، میتواند به جوامع کمک کند تا با وانایی تشخیص دقیق، قضاوت هوشمندانه و تمییز دادن میان گزینههای پیچیده بهجای سردرگمی، وارد عصر سیستمهای هوشمند شوند. هوش واقعی هرگز تنها درباره حل مسئله نبوده است. همچنین درباره دانستن این است که کدام پرسشها باید باز بمانند.
عصر هوش مصنوعی، همچنین عصر قضاوت انسانی است. دانشگاهها باید رهبری این گفتوگو را بر عهده بگیرند، یا خطر ساخت سیستمهایی را میپذیریم که همهچیز را میدانند، اما هیچچیز را درک نمیکنند.
انتهای پیام/