صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

چگونه با هوش مصنوعی به صلح و امنیت برسیم؟ / آغاز عصر آموزش مسئولانه

گام‌های اشتباه هوش مصنوعی میتواند صلح و امنیت جهانی را مختل کند و برای کاهش خطرات، توسعهدهندگان این فناوری به آموزش بیشتری نیاز دارند. آموزش مسئولانه در این میان بیشترین اهمیت را دارد.
کد خبر : 924728

خبرگزاری علم وفناوری آنا؛ بسیاری از افرادی که در حوزه هوش مصنوعی با اهداف غیرنظامی فعالیت دارند خبر ندارند که نوآوری‌های هوش مصنوعی امروزی می‌تواند عواقب جدی برای صلح و امنیت بین‌المللی داشته باشد. با این حال، دست‌اندرکاران هوش مصنوعی اعم از پژوهشگران، مهندسان، توسعه‌دهندگان محصول، یا مدیران این صنعت می‌توانند از طریق تصمیماتی که در چرخه عمر فناوری‌های هوش مصنوعی می‌گیرند، نقش مهمی در کاهش این خطرات ایفا کنند.

تأثیر روش‌های مستقیم و غیرمستقیم

پیشرفت‌های غیرنظامی هوش مصنوعی به دلایل زیادی می‌تواند صلح و امنیت را تهدید کند. برخی از آنها مستقیم هستند، مانند استفاده از چت‌بات‌های مبتنی بر هوش مصنوعی که برای عملیات‌های نفوذ سیاسی اطلاعات نادرست تولید می‌کنند، یا مثلاً استفادع از مدل‌های بزرگ زبانی برای ایجاد کد ویژۀ حملات سایبری و تسهیل توسعه و تولید سلاح‌های بیولوژیکی.
برخی از روش‌ها هم غیرمستقیم هستند، برای مثال تصمیمات شرکت‌های هوش مصنوعی در مورد اینکه آیا نرم‌افزار خود را منبعِ باز بسازند یا خیر و یا اینکه برای مثال آن نرم‌افزار‌ها چه پیامد‌های ژئوپلیتیکی خواهند داشت؟ چنین تصمیماتی تعیین می‌کند که دولت‌ها یا بازیگران غیردولتی چگونه به فناوری حیاتی دسترسی پیدا کنند که ممکن است از آن برای توسعه برنامه‌های هوش مصنوعی نظامی، از جمله سیستم‌های تسلیحاتی خودمختار استفاده کنند.

آگاهی‌رسانی در خصوص پیامد‌های آتی

شرکت‌ها و محققان هوش مصنوعی باید از چالش‌ها و ظرفیت‌های خود برای انجام کاری در مورد آنها آگاه‌تر شوند. نهاد‌ها و محققانی که با هوش مصنوعی کار می‌کنند باید از مشکلات احتمالی که این فناوری در آینده ایجاد می‌کند آگاه شوند و این تغییر باید با آموزش و توسعه شغلی متخصصان هوش مصنوعی آغاز شود. از نظر فنی، گزینه‌های زیادی در حوزه نوآوری‌های مسئولانه وجود دارد که محققان هوش مصنوعی می‌توانند از آنها برای شناسایی و کاهش خطرات ناشی از کارشان استفاده کنند. باید به آنها فرصت‌هایی داده شود تا درباره چنین گزینه‌هایی و از جمله ارزیابی تأثیر سیستم‌های مستقل و هوشمند بر رفاه انسان، رباتیک و اتوماسیون اخلاقی و چارچوب مدیریت ریسک هوش مصنوعی اطلاعات کسب کنند.

لزوم تحول در حوزه آموزش هوش مصنوعی

هوش مصنوعیِ مسئولانه نیاز به طیفی از قابلیت‌ها دارد که معمولاً در آموزش هوش مصنوعی گنجانده نمی‌شوند. هوش مصنوعی دیگر نباید به عنوان یک رشته محض در نظر گرفته شود، بلکه باید یک حوزه فرا رشته‌ای باشد که به دانش فنی نیاز دارد و همچنین بینش‌هایی از علوم اجتماعی و علوم انسانی داشته باشد. باید دوره‌های تأثیر اجتماعی فناوری و نوآوری مسئولانه و همچنین آموزش‌های خاص در مورد اخلاق و حکمرانی هوش مصنوعی اجباری شوند. این موضوعات باید بخشی از برنامه درسی اصلی در هر دو سطح کارشناسی و کارشناسی ارشد در همه دانشگاه‌هایی باشد که مدرک هوش مصنوعی ارائه می‌دهند.

در صورت ارائه برنامه‌های آموزشی درباره تأثیر اجتماعی فناوری و نحوه عملکرد حکمرانی فناوری، متخصصان هوش مصنوعی این اختیار را پیدا می‌کنند که مسئولانه نوآوری کنند و طراحان و مجریان قدرتمند مقررات هوش مصنوعی باشند. تغییر برنامه درسی آموزش هوش مصنوعی کار کوچکی نیست. در برخی کشورها، اصلاح برنامه‌های درسی دانشگاه‌ها نیازمند تایید در سطح وزارتخانه است. تغییرات پیشنهادی به دلایل فرهنگی، بوروکراتیک یا مالی می‌تواند با مقاومت داخلی مواجه شود. در همین حال، ممکن است تخصص مربیان موجود در موضوعات جدید محدود باشد. نیازی نیست که یک مدل آموزشی یکسان برای همه در نظر گرفته شود، اما بی‌شک برای استخدام کارکنان و آموزش آنها باید بودجه‌ای در نظر گرفته شود.

گنجاندن هوش مصنوعی مسئولانه در آموزش‌های بلندمدت

در حوزه بهداشت و درمان جامعه هوش مصنوعی باید دوره‌های آموزش مداوم را در مورد تأثیر اجتماعی تحقیقات هوش مصنوعی ایجاد کند تا پزشکان بتوانند در طول حرفه خود به یادگیری در مورد چنین موضوعاتی ادامه دهند. هوش مصنوعی موظف است به روش‌های غیرمنتظره‌ای تکامل یابد. شناسایی و کاهش خطرات آن مستلزم بحث‌های مداومی است که نه تنها محققان و توسعه‌دهندگان، بلکه افرادی را که ممکن است به‌طور مستقیم یا غیرمستقیم تحت تأثیر استفاده از آن قرار گیرند، شامل شود. بنابر این یک برنامه آموزشی مداوم و جامع بینش به نفع همه است.
برخی از دانشگاه‌ها و شرکت‌های خصوصی در حال حاضر دارای هیئت‌های بررسی اخلاقی و تیم‌های سیاست‌گذاری هستند که تأثیر ابزار‌های هوش مصنوعی را ارزیابی می‌کنند. اگرچه آموزش هنوز به طور جدی در برنامه این تیم‌ها گنجانده نشده است، اما وظایف آنها میتواند گسترش یابد تا دوره‌ها را برای همه افراد درون سازمان در دسترس قرار دهند. آموزش در مورد هوش مصنوعی مسئولانه نباید یک موضوع مورد علاقه فردی باشد، بلکه باید ترویج شود.

تعامل بیشتر با جهان گسترده‌تر

همچنین نیاز داریم تا متخصصان هوش مصنوعی دانش خود را به اشتراک بگذارند و در مورد خطرات احتمالی فراتر از محدوده جامعه تحقیقاتی هوش مصنوعی بحث کنند. خوشبختانه، در حال حاضر گروه‌های متعددی در رسانه‌های اجتماعی وجود دارند که به طور فعال در مورد خطرات هوش مصنوعی از جمله سوء استفاده از فناوری غیرنظامی توسط بازیگران دولتی و غیردولتی بحث می‌کنند. همچنین سازمان‌های تخصصی متمرکز بر هوش مصنوعی مسئول هستند که بر مفاهیم ژئوپلیتیکی و امنیتی تحقیق و نوآوری هوش مصنوعی نظارت کنند.

اقدامات نهاد‌های جهانی و دانشگاهیان

هوش مصنوعی ممکن است در نحوه تعامل با افراد خارج از جامعه تحقیقاتی هوش مصنوعی، به ویژه با سیاست گذاران، به کمک و آموزش نیاز داشته باشند. بیان مشکلات یا توصیه‌ها به روشی که افراد غیرفنی بتوانند آن را درک کنند، یک مهارت ضروری است. ما باید راه‌هایی برای رشد جوامع موجود پیدا کنیم، آنها را متنوع‌تر و فراگیرتر کنیم و آنها را در تعامل با بقیه جامعه بهتر کنیم. دانشگاه‌ها و بخش خصوصی نیز می‌توانند با ایجاد یا گسترش موقعیت‌ها و کارگروه‌های متمرکز، به تأثیر اجتماعی هوش مصنوعی و حکمرانی هوش مصنوعی کمک کنند. 
جنبش‌های رو به رشدی در سراسر جهان برای تنظیم هوش مصنوعی وجود دارد. تحولات اخیر شامل ایجاد هیئت مشورتی عالی سازمان ملل در زمینه هوش مصنوعی و کمیسیون جهانی هوش مصنوعی مسئول در حوزه نظامی است. رهبران گروه ۷ نیز بیانیه‌ای در مورد فرآیند هوش مصنوعی هیروشیما صادر کردند و دولت بریتانیا سال گذشته میزبان اولین نشست ایمنی هوش مصنوعی بود.

سوال اصلی پیش روی رگولاتور‌ها این است که آیا می‌توان به محققان و شرکت‌های هوش مصنوعی برای توسعه مسئولانه این فناوری اعتماد کرد؟ یکی از مؤثرترین و پایدارترین راه‌ها برای اطمینان از اینکه توسعه‌دهندگان هوش مصنوعی مسئولیت ریسک‌ها را بر عهده می‌گیرند، سرمایه‌گذاری در آموزش است. شاغلان امروز و فردا باید دانش و ابزار اولیه برای مقابله با خطرات ناشی از کارشان را داشته باشند.

این گزارش از پایگاه اینترنتی اسپکتروم به فارسی برگردان شده است.

انتهای پیام/

ارسال نظر