۵ چالش مهم در ایمنسازی هوش مصنوعی؛ از اعتماد عمومی تا رسیدن به یک توافق جهانی
به گزارش خبرنگار گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا، متخصصان هوش مصنوعی معمولاً یکی از این دو مکتب فکری را دنبال میکنند؛ عدهای معتقدند هوش مصنوعی زندگی ما را بسیار بهبود میبخشد و عدهای میگویند هوش مصنوعی در آیندهای نهچندان دور همه ما را نابود خواهد کرد. به همین دلیل قانونگذاری در مورد نحوه تنظیم این فناوری بسیار مهم است؛ اما چگونه میتوان هوش مصنوعی را ایمن کرد؟
چالشهای زیادی برای ایمنسازی هوش مصنوعی وجود دارد و قانونگذاری در این حوزه آن قدرها که فکر میکنید آسان نیست. اما این چالشها چیست و برای رفع آن چه باید کرد؟
** لزوم وجود تعریفی واحد از هوش مصنوعی
دو سال طول کشید تا پارلمان اروپا بتواند تعریفی از یک سیستم هوش مصنوعی ارائه دهد. بر این اساس نرمافزاری که میتواند برای مجموعه معینی از اهداف تعریفشده توسط انسان، خروجیهایی مانند محتوا، پیشبینیها، توصیهها یا تصمیماتی ایجاد کند که بر محیطهایی که با آنها در تعامل هستند، تأثیر بگذارد یک سیستم هوش مصنوعی محسوب میشود.
پارلمان اروپا این هفته، قانون هوش مصنوعی خود را به رأی میگذارد. این قانون اولین قوانین مربوط به هوش مصنوعی است که فراتر از قوانین داوطلبانه است و شرکتهای فناور و فعال در این حوزه ملزم به رعایت آن هستند.
** رسیدن به یک توافق بزرگ جهانی
هوش مصنوعی از آن دسته فناوریهایی است که با سرعت زیادی درحال ایجاد تغییر و تحول در دنیای اطراف خود است. فناوریای که مرز نمیشناسد و با تقسیمبندیهای جغرافیایی نمیشود آن را محدود کرد. از این رو برای قانونگذاری در این حوزه باید به یک توافق بزرگ جهانی برسیم.
در همین راستا، ثنا خرقانی، رئیس سابق دفتر هوش مصنوعی بریتانیا اشاره میکند که این فناوری هیچ احترامی برای مرزها قائل نیست. او میگوید: ما باید در این زمینه همکاری بینالمللی داشته باشیم میدانم که سخت خواهد بود. این یک موضوع داخلی نیست. این فناوریها در محدوده یک کشور قرار نمیگیرند؛ اما هیچ برنامهای برای تنظیم جهانی هوش مصنوعی به سبک سازمان ملل وجود ندارد. اگرچه در سراسر جهان پیشنهاد مختلف و متفاوتی در این خصوص ارائهشده است که عبارتاند از:
- پیشنهادها اتحادیه اروپا سختترین پیشنهاد است و شامل درجهبندی محصولات هوش مصنوعی بسته به تأثیر آنها میشود. برای مثال، فیلتر هرزنامه ایمیل، مقررات سبکتری نسبت به ابزار تشخیص سرطان دارد.
- بریتانیا مقررات هوش مصنوعی را به تنظیمکنندههای موجود تبدیل میکند - مثلاً کسانی که میگویند این فناوری علیه آنها تبعیض قائل شده است، به گروه برابری میروند تا به شکایات آنها رسیدگی شود.
- ایالاتمتحده فقط دارای کدهای داوطلبانه هوش مصنوعی است بهطوری که قانونگذاران در جلسه اخیر کمیته هوش مصنوعی در این خصوص ابراز نگرانی کردند.
- چین نیز قصد دارد شرکتها را وادار کند که هر زمان از الگوریتم هوش مصنوعی استفاده میکنند به کاربران اطلاع دهند.
**مردم باید به هوش مصنوعی اعتماد کنند
فرصتهای بسیار زیادی برای هوش مصنوعی وجود دارد تا زندگی مردم را بهروشهای باورنکردنی بهبود ببخشد. مثلاً هوش مصنوعی میتواند به کشف آنتیبیوتیکها کمک کند یا کاری کند افراد فلج بتوانند دوباره راه بروند یا به انسانها در مسائلی مانند تغییرات آبوهوا و بیماریهای همهگیر هشدار دهند.اما لازمه گسترش این فناوری و رسوخ آن به جایجای زندگی بشر، این است که مردم به هوش مصنوعی اعتماد داشته باشند.
در همین راستا ژان مارک لکلرک، رئیس امور نظارتی و دولت اتحادیه اروپا در شرکت ماشینهای تجاری بینالمللی (IBM) میگوید: «اگر مردم به هوش اعتماد کنند، از آن استفاده خواهند کرد». در همین راستا پارلمان اروپا از مردم میخواهد که در مورد خطرات هر محصول هوش مصنوعی آگاه شوند.
همچنین شرکتهایی که قوانین آن را زیر پا بگذارند ممکن است بیش از ۳۰ میلیون یورو یا ۶ درصد از گردش مالی سالانه جهانی را جریمه کنند.
**چه کسی باید قوانین را بنویسد؟
تاکنون، هوش مصنوعی تا حد زیادی خودتنظیم بوده است. به گفته سم آلتمن، رئیس «اوپن ایآی» (OpenAI) و خالق «چت جیپیتی» (ChatGPT)، شرکتهای بزرگ میگویند که با مقررات دولتی برای کاهش خطرات احتمالی هوش مصنوعی موافق هستند. اما آیا در صورت درگیر شدن بیشازحد برای نوشتن قوانین، این مردم هستند که سود میکنند یا شرکتهای بزرگ فناوری؟
درحالی که عدهای معتقدند این ادعای شرکتهای بزرگ فناوری برای این است که آنها تا حد امکان به قانونگذارانی که وظیفه تنظیم مقررات رادارند نزدیک شوند.
بارونس لین فاکس مؤسس سایت «لست مینت» (Last minute) میگوید که نکته مهم این است که ما نباید فقط به صحبتهای شرکتها گوش کنیم. او میگوید: ما باید جامعه مدنی، دانشگاهها، افرادی که تحت تأثیر این مدلها و دگرگونیهای مختلف هستند را درگیر کنیم.
**برای قانونگذاری باید سریع عمل کرد
مایکروسافت که میلیاردها دلار در «چت جیپیتی» سرمایهگذاری کرده است، میخواهد از این طریق سختیها را برای انسان کاهش دهد. این چت بات میتواند پاسخهای متنی و نثری شبیه انسان ایجاد کند، اما سم آلتمن اشاره میکند که «چت جیپیتی» صرفا یک ابزار است، نه یک موجود».
چت باتها باید باعث بهرهوری بیشتر کارگران شود اما عده بسیار زیادی نگرانند با توسعه هوش مصنوعی شغل خود را از دست بدهند. کارشناسان معتقدند که علاوه بر از بین رفتن برخی از شغلها، هوش مصنوعی در برخی از صنایع، ظرفیت ایجاد شغل نیز دارد. در همین راستا ماه گذشته، شرکت هلدینگ مخابراتی انگلیس اعلام کرده است که هوش مصنوعی در آینده جایگزین ۱۰۰۰۰ شغل خواهد شد.
«چت جیپیتی» کمی بیش از شش ماه پیش مورداستفاده عمومی قرار گرفت. اکنون میتواند انشا بنویسد، تعطیلات مردم را برنامهریزی کند و امتحانات حرفهای را پشت سر بگذارد. قابلیت این مدلهای زبانی در مقیاس بزرگ با سرعتی خارقالعاده در حال رشد است. دو تن از سه پدرخوانده هوش مصنوعی - جفری هینتون و پروفسور یوشوا بنجیو - ازجمله کسانی بودند که هشدار دادند این فناوری پتانسیل زیادی برای آسیب دارد.
تمام این موارد نشان میدهد سرعت رشد و توسعه هوش مصنوعی فوق العاده سریع است، از این رو باید اقدامات لازم برای ایمنسازی و قانونمند کرد آن هم با سرعت بسیار زیادی انجام شود.
درحالی که مارگرت وستاگر، رئیس فناوری اتحادیه اروپا میگوید، قانون هوش مصنوعی حداقل تا سال ۲۰۲۵ اجرایی نخواهد شد؛ و در کنار ایالاتمتحده در حال تدوین یک کد داوطلبانه موقت برای این بخش است که میتواند ظرف چند هفته آماده شود.
**کلام آخر
کاربردهای هوش مصنوعی بیپایان است، از جراحی گرفته تا خودروهای خودران به سرعت با استفاده از این فناوری در حال توسعه هستند. اما درکنار استفاده از کاربردهای بینظیر هوش مصنوعی وجود قوانین کنترل کننده نیز یک امر ضروری است. از این رو قانونگذاران باید با بررسی تمام جوانب قوانینی طراحی کنند که با به حداقل رساندن خطرات این فناوری مرموز و ناشناخته راه را برای توسعه آن و خدماتی که میتواند به انسانها ارائه کند نبندد.
انتهای پیام/