تلاش دانشمندان برای بدنام نشدن فناوری/ هوش مصنوعی سرانجام اخلاقمدار میشود؟
به گزارش خبرنگار گروه علم و فناوری خبرگزاری آنا، هوش مصنوعی در سادهترین تعریف ممکن به سیستمهایی گفته میشود که قادر هستند واکنشهایی مشابه رفتارهای هوشمند انسانی از خود بروز دهند. از جمله این واکنشها میتوان به درک شرایط پیچیده، شبیهسازی فرایندهای تفکری و شیوههای استدلالی انسانی و پاسخ به آنها، یادگیری و توانایی کسب دانش و استدلال برای حل مسایل را مورد اشاره قرار داد.
با وجود شباهتهای فراوان هوش مصنوعی با ذهن بشر و پیشی گرفتن این فناوری از منظر برخی تستهای هوش از ذهن انسان، چیزی که در نهایت هوش مصنوعی لقب میگیرد در حقیقت از مقادیر زیادی منابع طبیعی، سوخت، انرژی و نیروی خودمان ساخته میشود. پس نباید فراموش کرد هوش مصنوعی تنها میکوشد عملکردی مشابه هوش انسانی از خود نشان دهد وگرنه ابداً از لحاظ ساختاری دارای چیزی شبیه به هوش انسانی نیست.
هوش مصنوعی به طریقی که امروز آن را میشناسیم بدون کلانداده و حجم گسترده اطلاعات قادر به انجام کاری نیست و از منطق آماری نیز کاملاً از روش متفاوتی برای معناسازی استفاده میکند. از همان ابتدا که هوش مصنوعی در سال ۱۹۵۶ مطرح شد پژوهشگران این اشتباه وحشتناک را انجام دادند که ذهنها مانند کامپیوتر هستند و بالعکس.
هوش مصنوعی و فقدان اخلاق
هوش مصنوعی برای چند دهه بسیار مورد توجه پژوهشگران قرار گرفت اما سرعت رشد پایین آن موجب شد با ظهور اینترنت برای مدتی از کانون توجه خارج شود اما از ابتدای دهه ۲۰۱۰ پس از رونق گرفتن مبحث یادگیری ماشین که تکنیکی جدیدی محسوب میشد(و وجود کلان دادهها و رایانش ابری به آن معنا بخشیده بود)، وجه تازهای از این فناوری مطرح شد. سرعت پیشرفت این فناوری در دهه اخیر به گونهای بوده است که گویی قرار است غیبت چند دههای آن را جبران کند. برخی از سیستمهای یادگیری ماشین با دادههایی که عجولانه به دست آمده ساخته شدهاند که این مسئله میتواند باعث بروز مشکلاتی مانند خدمات تشخیص چهره شود که این خطاهای در مورد اقلیتها بیشتر خود را نشان میدهد.
شیوه کار به این صورت است که با حجم عظیم داده میتوان الگوهای مختلف(هر چقدر هم که میخواهد باشد) را شکلدهی کرد و آنها را براساس شیوهای که ما آن را منطقی یا پسندیده میپنداریم درآورد. اما بذر مشکل دادهها در دهه هشتاد میلادی کاشته شد، زمانی که استفاده از مجموعه دادهها بدون آگاهی دقیق از آنچه در داخل آن بود یا نگرانی در مورد مسائلی همچون حفظ حریم خصوصی رایج شد. اشتهای ماشینها برای داده سیریناپذیر است و اکنون داده را فقط به عنوان ماده «خامی» میپندارند که در هزاران پروژه مورد استفاده مجدد قرار خواهد گرفت.
تا امروز که در سال ۲۰۲۱ به سر میبریم، هنوز هیچ استانداردی در سطح صنعت وجود ندارد که بتواند مشخص کند که انواع دادهها در مجموعههای آموزشی(برای یادگیری ماشین)، نحوه به دست آوردن آنها یا حریم شخصی مرتبط با نگهداری بالقوه آنها باید چگونه باشد.
تشخیص احساسات روبات
ریشههای نرمافزار «تشخیص احساسات» را در تحقیقاتی که بودجه آن را وزارت دفاع در دهه ۱۹۶۰ تأمین کرده است میتوان یافت. پنتاگون در دهه شصت پروژههای متعددی را در حوزه علوم شناختی کلید زد که میوه برخی از این فعالیتها را امروز شاهدیم. بررسیهای اخیر که طی آن بیش از هزار مقاله تحقیقاتی مرور شده است نشان میدهد هیچ مدرکی وجود ندارد که نشان دهد میتوان «احساسات فرد» را به طور صددرصدی از چهره او استنباط کرد.
«تشخیص احساس» توسط هوش مصنوعی بیانگر یکی از رویاهای بشر است که براساس آن روزی فناوری سرانجام به سؤالاتی که درباره طبیعت انسان داریم، پاسخ خواهد داد. این ایده در رشته روانشناسی بسیار مورد مناقشه بوده و باعث گرایش به یادگیری ماشینی شده است زیرا قبل از هر کسی روانشناسان، یادگیری ماشین را ابزار متناسب با نظریههای خود قلمداد کردند. ثبت چهره افراد و مرتبط کردن آن با حالات احساسی ساده و از پیشتعریفشده که از یادگیری ماشین قابل رمزگشایی است از نظر منطقی نمیتواند صحیح باشد. اگر زمینههای فرهنگی و اعتقادی را کنار بگذارید، دهها عامل مختلف میتواند باعث شود نوع نگاه و احساس خود را تغییر دهید.
اگر مشکل تنها تا بدینجا بود ایرادی نداشت. اما این نقطه تازه شروعی برای آغازبهکار یک حلقه بازخوردی است. اگر ابزارهای تشخیص احساسات وجود داشته باشد(برای مثال دروغسنج)، مردم خیلی ساده میگویند ما میخواهیم از آن در دادگاهها استفاده کنیم تا دزد واقعی مشخص شود. اخیراً در برخی کشورهای غربی به بهانه همهگیری به منظور استفاده از تشخیص احساسات در کودکان از ابزارهای هوش مصنوعی استفاده میکنند.
این ابزار میتواند ما را به گذشته و به کارگیری فرنولوژی برگرداند زمانی که اعتقاد بر این بود که میتوان شخصیت را از صورت و شکل جمجمه تشخیص داد. فرنولوژی که امروز به عنوان شبهعلم خوانده میشود، رشتهای بود که طی آن تلاش میشد از روی ویژگیهای چهره و جمجمه فسادپذیری و میل به مجرم بودن افراد را تشخیص داد! به کارگیری فرنولوژی در اواخر عصر ویکتوریا موجب شد مردم بیگناه به دلیل اینکه اجزای چهرهشان شبیه جنایتکاران بود به عنوان مورد مشکوک شناخته شوند.
تا همین حالا ثابت شده است پیشرفت افسارگسیختهدر حوزه فناوری و رویکردهای مهندسی و ریاضیاتی منجر به سؤگیری فناوری شده است. ادغام این سیستمها با نهادهای اجتماعی پیچیده و پر خطر مانند عدالت کیفری، آموزش و مراقبتهای بهداشتی میتواند نگرانکننده باشد.
انتهای پیام/۴۱۶۰
انتهای پیام/