چگونه با هوش مصنوعی به صلح و امنیت برسیم؟ / آغاز عصر آموزش مسئولانه
خبرگزاری علم وفناوری آنا؛ بسیاری از افرادی که در حوزه هوش مصنوعی با اهداف غیرنظامی فعالیت دارند خبر ندارند که نوآوریهای هوش مصنوعی امروزی میتواند عواقب جدی برای صلح و امنیت بینالمللی داشته باشد. با این حال، دستاندرکاران هوش مصنوعی اعم از پژوهشگران، مهندسان، توسعهدهندگان محصول، یا مدیران این صنعت میتوانند از طریق تصمیماتی که در چرخه عمر فناوریهای هوش مصنوعی میگیرند، نقش مهمی در کاهش این خطرات ایفا کنند.
تأثیر روشهای مستقیم و غیرمستقیم
پیشرفتهای غیرنظامی هوش مصنوعی به دلایل زیادی میتواند صلح و امنیت را تهدید کند. برخی از آنها مستقیم هستند، مانند استفاده از چتباتهای مبتنی بر هوش مصنوعی که برای عملیاتهای نفوذ سیاسی اطلاعات نادرست تولید میکنند، یا مثلاً استفادع از مدلهای بزرگ زبانی برای ایجاد کد ویژۀ حملات سایبری و تسهیل توسعه و تولید سلاحهای بیولوژیکی.
برخی از روشها هم غیرمستقیم هستند، برای مثال تصمیمات شرکتهای هوش مصنوعی در مورد اینکه آیا نرمافزار خود را منبعِ باز بسازند یا خیر و یا اینکه برای مثال آن نرمافزارها چه پیامدهای ژئوپلیتیکی خواهند داشت؟ چنین تصمیماتی تعیین میکند که دولتها یا بازیگران غیردولتی چگونه به فناوری حیاتی دسترسی پیدا کنند که ممکن است از آن برای توسعه برنامههای هوش مصنوعی نظامی، از جمله سیستمهای تسلیحاتی خودمختار استفاده کنند.
آگاهیرسانی در خصوص پیامدهای آتی
شرکتها و محققان هوش مصنوعی باید از چالشها و ظرفیتهای خود برای انجام کاری در مورد آنها آگاهتر شوند. نهادها و محققانی که با هوش مصنوعی کار میکنند باید از مشکلات احتمالی که این فناوری در آینده ایجاد میکند آگاه شوند و این تغییر باید با آموزش و توسعه شغلی متخصصان هوش مصنوعی آغاز شود. از نظر فنی، گزینههای زیادی در حوزه نوآوریهای مسئولانه وجود دارد که محققان هوش مصنوعی میتوانند از آنها برای شناسایی و کاهش خطرات ناشی از کارشان استفاده کنند. باید به آنها فرصتهایی داده شود تا درباره چنین گزینههایی و از جمله ارزیابی تأثیر سیستمهای مستقل و هوشمند بر رفاه انسان، رباتیک و اتوماسیون اخلاقی و چارچوب مدیریت ریسک هوش مصنوعی اطلاعات کسب کنند.
لزوم تحول در حوزه آموزش هوش مصنوعی
هوش مصنوعیِ مسئولانه نیاز به طیفی از قابلیتها دارد که معمولاً در آموزش هوش مصنوعی گنجانده نمیشوند. هوش مصنوعی دیگر نباید به عنوان یک رشته محض در نظر گرفته شود، بلکه باید یک حوزه فرا رشتهای باشد که به دانش فنی نیاز دارد و همچنین بینشهایی از علوم اجتماعی و علوم انسانی داشته باشد. باید دورههای تأثیر اجتماعی فناوری و نوآوری مسئولانه و همچنین آموزشهای خاص در مورد اخلاق و حکمرانی هوش مصنوعی اجباری شوند. این موضوعات باید بخشی از برنامه درسی اصلی در هر دو سطح کارشناسی و کارشناسی ارشد در همه دانشگاههایی باشد که مدرک هوش مصنوعی ارائه میدهند.
در صورت ارائه برنامههای آموزشی درباره تأثیر اجتماعی فناوری و نحوه عملکرد حکمرانی فناوری، متخصصان هوش مصنوعی این اختیار را پیدا میکنند که مسئولانه نوآوری کنند و طراحان و مجریان قدرتمند مقررات هوش مصنوعی باشند. تغییر برنامه درسی آموزش هوش مصنوعی کار کوچکی نیست. در برخی کشورها، اصلاح برنامههای درسی دانشگاهها نیازمند تایید در سطح وزارتخانه است. تغییرات پیشنهادی به دلایل فرهنگی، بوروکراتیک یا مالی میتواند با مقاومت داخلی مواجه شود. در همین حال، ممکن است تخصص مربیان موجود در موضوعات جدید محدود باشد. نیازی نیست که یک مدل آموزشی یکسان برای همه در نظر گرفته شود، اما بیشک برای استخدام کارکنان و آموزش آنها باید بودجهای در نظر گرفته شود.
گنجاندن هوش مصنوعی مسئولانه در آموزشهای بلندمدت
در حوزه بهداشت و درمان جامعه هوش مصنوعی باید دورههای آموزش مداوم را در مورد تأثیر اجتماعی تحقیقات هوش مصنوعی ایجاد کند تا پزشکان بتوانند در طول حرفه خود به یادگیری در مورد چنین موضوعاتی ادامه دهند. هوش مصنوعی موظف است به روشهای غیرمنتظرهای تکامل یابد. شناسایی و کاهش خطرات آن مستلزم بحثهای مداومی است که نه تنها محققان و توسعهدهندگان، بلکه افرادی را که ممکن است بهطور مستقیم یا غیرمستقیم تحت تأثیر استفاده از آن قرار گیرند، شامل شود. بنابر این یک برنامه آموزشی مداوم و جامع بینش به نفع همه است.
برخی از دانشگاهها و شرکتهای خصوصی در حال حاضر دارای هیئتهای بررسی اخلاقی و تیمهای سیاستگذاری هستند که تأثیر ابزارهای هوش مصنوعی را ارزیابی میکنند. اگرچه آموزش هنوز به طور جدی در برنامه این تیمها گنجانده نشده است، اما وظایف آنها میتواند گسترش یابد تا دورهها را برای همه افراد درون سازمان در دسترس قرار دهند. آموزش در مورد هوش مصنوعی مسئولانه نباید یک موضوع مورد علاقه فردی باشد، بلکه باید ترویج شود.
تعامل بیشتر با جهان گستردهتر
همچنین نیاز داریم تا متخصصان هوش مصنوعی دانش خود را به اشتراک بگذارند و در مورد خطرات احتمالی فراتر از محدوده جامعه تحقیقاتی هوش مصنوعی بحث کنند. خوشبختانه، در حال حاضر گروههای متعددی در رسانههای اجتماعی وجود دارند که به طور فعال در مورد خطرات هوش مصنوعی از جمله سوء استفاده از فناوری غیرنظامی توسط بازیگران دولتی و غیردولتی بحث میکنند. همچنین سازمانهای تخصصی متمرکز بر هوش مصنوعی مسئول هستند که بر مفاهیم ژئوپلیتیکی و امنیتی تحقیق و نوآوری هوش مصنوعی نظارت کنند.
اقدامات نهادهای جهانی و دانشگاهیان
هوش مصنوعی ممکن است در نحوه تعامل با افراد خارج از جامعه تحقیقاتی هوش مصنوعی، به ویژه با سیاست گذاران، به کمک و آموزش نیاز داشته باشند. بیان مشکلات یا توصیهها به روشی که افراد غیرفنی بتوانند آن را درک کنند، یک مهارت ضروری است. ما باید راههایی برای رشد جوامع موجود پیدا کنیم، آنها را متنوعتر و فراگیرتر کنیم و آنها را در تعامل با بقیه جامعه بهتر کنیم. دانشگاهها و بخش خصوصی نیز میتوانند با ایجاد یا گسترش موقعیتها و کارگروههای متمرکز، به تأثیر اجتماعی هوش مصنوعی و حکمرانی هوش مصنوعی کمک کنند.
جنبشهای رو به رشدی در سراسر جهان برای تنظیم هوش مصنوعی وجود دارد. تحولات اخیر شامل ایجاد هیئت مشورتی عالی سازمان ملل در زمینه هوش مصنوعی و کمیسیون جهانی هوش مصنوعی مسئول در حوزه نظامی است. رهبران گروه ۷ نیز بیانیهای در مورد فرآیند هوش مصنوعی هیروشیما صادر کردند و دولت بریتانیا سال گذشته میزبان اولین نشست ایمنی هوش مصنوعی بود.
سوال اصلی پیش روی رگولاتورها این است که آیا میتوان به محققان و شرکتهای هوش مصنوعی برای توسعه مسئولانه این فناوری اعتماد کرد؟ یکی از مؤثرترین و پایدارترین راهها برای اطمینان از اینکه توسعهدهندگان هوش مصنوعی مسئولیت ریسکها را بر عهده میگیرند، سرمایهگذاری در آموزش است. شاغلان امروز و فردا باید دانش و ابزار اولیه برای مقابله با خطرات ناشی از کارشان را داشته باشند.
این گزارش از پایگاه اینترنتی اسپکتروم به فارسی برگردان شده است.
انتهای پیام/