یادداشت| هوش مصنوعی؛ ملاحظات آینده
خبرگزاری علم و فناوری آنا، نوید فرخی: این اتفاق نظر وجود دارد که هوش مصنوعی دنیای ما را متحول میکند و همه چیز از مراقبتهای بهداشتی گرفته تا امور مالی، آموزشی و سرگرمی تحت تأثیر آن قرار خواهد گرفت. با این حال همچون همیشه قدرت با مسئولیت همراه است. باید به دقت در رابطه با مسائل اخلاقی مرتبط با هوش مصنوعی تعمق کرد.
{$sepehr_key_890}
هوش مصنوعی تا همین جا به معنای حقیقی کلمه کارهای شگفت انگیزی انجام داده (مانند تشخیص بیماریها، شخصیسازی آموزش، شناسایی تقلب و...)، اما بیعیب و نقص نیست. یک مشکل بزرگ در رابطه با این فناوری مسئله تبعیض و تعصب است. سیستمهای هوش مصنوعی از دادهها یاد میگیرند و براساس دادهها نتیجهگیری میکنند. اگر دادهها دارای سؤگیری باشد، هوش مصنوعی نیز این سؤگیریها را تکرار کرده و حتی متأسفانه بسط میدهد. این مسئله میتواند منجر به تصمیمات ناعادلانه در اشکال گوناگون (در استخدام، در وام دادن، در اجرای قانون) شود.
در عصر حاضر که شفافیت در هر زمینهای ضروری است، بسیاری از سیستمهای هوش مصنوعی مانند «جعبههای سیاه» عمل میکنند. ما به آنها داده میدهیم و آنها براساس این داده در مورد مسائل مختلف تصمیمگیری میکنند، اما در کمال تعجب نمیتوانیم بفهمیم چگونه. این عدم شفافیت مشکل بزرگی است. اگر یک سیستم هوش مصنوعی اشتباه کند، باید دلیل آن را بدانیم.
اگر قرار باشد اختیارات خود را به ماشین دهیم، حداقل انتظار از ماشین این است که بتواند تصمیمات خود را توضیح دهد. از منظر ترمینولوژی علمی به چنین هوش مصنوعی که بتواند عملکرد خود را توضیح دهد «XAI» اطلاق میشود که مخفف «explainable AI» به معنی هوش مصنوعی توضیحپذیر است. ما به قوانین روشنی نیاز داریم تا هوش مصنوعی پاسخگو باشد.
هوش مصنوعی برای اینکه خوب کار کند به دادههای زیادی نیاز دارد، اما هر جا صحبت از جمعآوری داده باشد مسائل مربوط به حریم خصوصی نیز مطرح است. هوش مصنوعی میتواند اطلاعات حساسی را در مورد افراد مختلف بیاموزد و احتمالاً این امر گاهی اوقات بدون رضایت آنها رقم میخورد. به عنوان مثال به لطف فناوری تشخیص چهره میتوان ردیابی کرد که افراد کجا میروند و چه میکنند. این مسئله میتواند حریم خصوصی و حقوق مدنی را نقض کند. اینجا یک چالش جدی وجود دارد. دادهها بسیار مهم است و ما برای بایتبهبایت آنها به کسب اجازه نیاز داریم. این امر توسعه سیستمهای هوش مصنوعی را کُند میکند، اما وضع قوانین قوی حفاظت از دادهها قابل مذاکره نیست. مردم باید بر دادههای خود کنترل داشته باشند. آنها باید بدانند که چگونه از دادههایشان استفاده میشود و حتی اگر اجازه به کارگیری دادههایشان را دادند، باید بتوانند هر زمان که خواستند انصراف دهند. همزمان توسعه دهندگان هوش مصنوعی باید از دادهها در برابر دسترسی غیرمجاز حفظت کنند.
سیستمهای هوش مصنوعی به تنهایی تصمیمگیری میکنند. خودمختار بودن این نکته مثبت را دارد که میتوان در زمانی که کنترل انسان ممکن نیست، روی آن حساب کرد. با این حال فراموش نکنید قرار است از هوش مصنوعی در مراقبتهای بهداشتی، حملونقل و ارتش استفاده کنیم. در حالی که این مسئله میتواند به دلایل واضحی کارآمد باشد، اما واقعا در شرایط بحرانی، فرضاً در زمان یک حمله نظامی، قرار است هوش مصنوعی به تنهایی برایمان تصمیم بگیرد؟ نظارت انسان بر این فرایند ضروری است. هوش مصنوعی باید به انسان در تصمیمگیری کمک کند، نه اینکه جایگزین ما شود. ما به قوانین روشنی نیاز داریم که چه زمانی لازم به مداخله انسان است.
مسئله «اخلاق» باید از همان ابتدا بخشی از توسعه هوش مصنوعی میبود. با اینکه این چرخها به حرکت درآمدهاند اما هنوز هم دیر نشده است زیرا با اختراع ابرهوش مصنوعی فاصله داریم. ما جدای از توسعه هوش مصنوعی، به نظرات جامعهشناسان، کارشناسان حقوقی و فلاسفه نیاز داریم. وضع دستورالعملهای اخلاقی، مانند دستورالعملهای کمیسیون اروپا، اصول مفیدی را برای مسئولیت پذیر کردن هوش مصنوعی فراهم میکند.
در عین حال که هوش مصنوعی یک فناوری جهانی است، برای پرداختن به چالشهای اخلاقیاش به همکاری بینالمللی نیاز داریم. کشورها باید استانداردها و چارچوبهای مشترکی را برای اخلاق هوش مصنوعی ایجاد کنند. این چارچوب تضمین میکند که هوش مصنوعی در سراسر جهان مسئولانه استفاده میشود. اخلاق هوش مصنوعی مسئلهای پیچیده و مهم است و با پرداختن به چالشهای احتمالی آن از قبیل مسئله تبعیض، عدم شفافیت، حریم خصوصی و... میتوانیم از توانمندیهای این فناوری به خوبی استفاده کنیم.
انتهای پیام/