صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
۰۰:۰۳ - ۱۳ تير ۱۳۹۹
گزارش/

چرا شرکت‌های فناوری دست از برنامه تشخیص چهره کشیده‌اند؟

امروزه نرم‎افزارهای تشخیص چهره کاربردهای گوناگونی دارند، اما اصلی‌ترین مصرف آن برای اهداف امنیتی و مراجع قضایی به شمار می‌رود.
کد خبر : 499209

به گزارش خبرنگار حوزه علم، فناوری و دانش بنیان گروه دانشگاه خبرگزاری آنا، شرکت IBM به‌تازگی عطای برنامه تشخیص چهره‌ی خود را به لقایش بخشید. کمی بعد شرکت‌های مایکروسافت و آمازون فعالیت‌های خود را در این حوزه محدود کردند. کمی قبل‌تر نیز، فیس‌بوک مبلغ 550 میلیون دلار جریمه به دلیل مصارف خود از فناوری‌های مربوط به تشخیص چهره پرداخت کرد. موضوع از چه قرار است و علت این میزان دافعه در فناوری تشخیص چهره چیست؟


امروزه نرم‎افزارهای تشخیص چهره کاربردهای گوناگونی دارند، اما اصلی‌ترین مصرف آن برای اهداف امنیتی و مراجع قضایی به شمار می‌رود. برای مثال فرودگاه‌ها از نرم‌‎افزار تشخیص چهره برای یافتن چهره‌ افراد مظنون و همین‌طور قیاس تصاویر مدارک با چهره‌ی مسافران برای احراز هویت استفاده می‌کنند. طرز کار برنامه‌های تشخیص چهره مبتنی بر راهکارها و فناوری‌های اسکن چهره است که شامل تصویربرداری حرارتی، اندازه‌گیری ویژگی‌های مهم چهره و تجزیه‌وتحلیل بافت سطح پوست می‌شود.



به‌طورمعمول برنامه‌های تشخیص چهره محدودیت‌هایی دارند. برای مثال ثبت تصاویر با رزولوشن ضعیف و حضور در محیط‌های کم‌نور، استفاده‌ی شخص از مواردی همچون عینک، کلاه، شال‌گردن و یا مدل مختلف مو، آرایش غلیظ، اصلاح ناگهانی ریش و غیره باعث ایجاد مشکل در فاز شناسایی برنامه‌های تشخیص چهره می‌شود. فناوری‌های تشخیص چهره ضمناً ممکن است برای اهداف نادرست نیز به کار روند. به‌عنوان‌مثال، داده‌های تشخیص چهره که با تصاویر افراد در شبکه‌های اجتماعی انطباق دارند شاید باعث شوند تا سارقان هویت، اطلاعات لازم را برای سرقت هویت افراد به دست آورند.


بااین‌حال نگرانی‌های اصلی این برنامه‌ها در ارتباط با بحث حریم شخصی و امنیت و خصوصاً تبعیض نژادی است که به نظر می‌رسد باعث ایجاد محدودیت‌هایی برای سیستم‌های تشخیص چهره شود. برای مثال، جمع‌آوری داده‌های تشخیص چهره بدون اطلاع شخص در برخی اماکن برخلاف قوانین حریم شخصی لحاظ شده است. بنابراین شرکت‌هایی همچون IBM، آمازون و مایکروسافت از روی منطق، نسبت به پتانسیل تبعیض و سوءاستفاده احتمالی این فناوری در اجرای قانون واکنش نشان داده‌اند.




بیشتر بخوانید: اهمیت فناوری تشخیص چهره و تصویر




سه مشکل اصلی پیش روی این شرکت‌ها عبارت‌اند از تبعیض، فقدان مقررات سراسری و کثرت قوانین محلی. در ادامه به این سه چالش اصلی خواهیم پرداخت:


تبعیض


آیا این نرم‌افزار مغرضانه است؟ تقریباً بی‌تردید همین‌طور است، اما نه به آن صورت که تبعیض را در فضای سیاسی و اجتماعی تعبیر می‌کنیم. تبعیض در فناوری تشخیص چهره مربوط به‌دقت در "تشخیص" چهره‌ اقلیت‌های قومی، نژادی  و غیره است.


وقتی چهره‌ فردی اسکن می‌شود، آن چهره ضرورتاً به یک پروفایل متصل نمی‌شود. به‌عبارت‌دیگر درصورتی‌که تصویری از چهره‌ فرد در پایگاه داده‌های برنامه وجود نداشته باشد، اسکن کردن چهره‌ او تقریباً بی‌مورد است. درواقع بدون تطبیق چهره، هویت کسی که چهره‌اش اسکن شده است، همچنان ناشناس باقی می‌ماند. به همین علت است که شرکت‌ها باید رو به کلان‌داده‌ها بیاورند و اطلاعات افراد مختلف را در حجم وسیعی ذخیره کنند. به دلیل حجم و شکل این داده‌ها احتمال دارد یک کامپیوتر برای پردازش تشخیص چهره زمان زیادی را بطلبد که برای اهداف امنیتی و قضایی قابل‌قبول نیست. به همین دلیل، شرکت‌های بزرگ به یک زیرساخت عظیم برای این برنامه‌ها احتیاج دارند.



بدین منظور داده‌های زیادی که باید ذخیره شوند به هوش مصنوعی ارائه می‌شوند و در اینجاست که بحث مربوط به تبعیض پیش می‌آید. در بسیاری از موارد، داده‌های به‌کاررفته برای آموزش نرم‌افزار هوش مصنوعی از چهره‌های افراد صرفاً سفیدپوست تشکیل شده است. علت این امر این است که هوش مصنوعی در مواردی بهتر عمل می‌کند که داده‌های بیشتری داشته باشد و اکثر داده‌های بانک‌های اطلاعاتی حاوی اطلاعات سفیدپوست‌هاست. آنگاه نتیجه تأسف‌بار این می‌شود که تشخیص چهره اقلیت‌ها (از هر رنگ و نژادی) سخت‌تر و کم‌دقت‌تر از یک فرد سفیدپوست خواهد شد.


چنانچه در بالا گفتیم هوش مصنوعی نیاز به مجموعه داده‌های بسیار بزرگ و باکیفیت بالا دارد. اگر تصاویر کافی از آمریکایی‌های هیسپانیک، لاتین و یا افراد آفریقایی‌تبار یا آسیایی‌ها وجود نداشته باشد، در این صورت این نرم‌افزار به‌سختی می‌تواند چهره را تشخیص دهد. بنابراین شخصی که تصویرش در دوربینی ضبط شده است و  ازنظر نژادی جزء اقلیت‌ها طبقه‌بندی می‌شود، احتمال اینکه به‌طور نادرستی شناسایی شود زیاد است.


اگر سازمان‌های و نهادهای مجری قانون برای شناسایی افراد برای ردیابی، بیش‌ازحد به فناوری‌های تشخیص چهره وابسته باشند، احتمال بروز خطا و سوءاستفاده‌ ناخواسته از آزادی‌های مدنی شخصی افزایش می‌یابد. خبر خوب این است که در اغلب موارد می‌توان تبعیض‌ها را رفع کرد. فراموش نکنیم ما تازه در شروع عصر کلان‌داده‌ها هستیم، اما این موضوع زمان می‌برد و در شرایط فعلی لازم است انسان نیز همچنان در حلقه‌ی تصمیم‌گیری گنجانده شود.


فقدان مقررات سراسری


چالش دیگر نبودن قوانین یکپارچه‌ بین‌المللی است. در حال حاضر، هیچ مقررات موردتوافقی، دست‌کم در سطح کشوری، در مورد تشخیص هویت تصویب نشده است. علت اصلی که شرکت مایکروسافت و آمازون تعامل خود را برای اجرای قانون و ارائه‌ نرم‌افزار به دولت آمریکا قطع کردند نیز همین بود. ارائه‌دهندگان این نرم‌افزارها خواستار مقررات سراسری به‌گونه‌ای هستند تا بتوانند از آیین‌نامه‌های آن پیروی کنند و بنابراین هیچ‌گونه مسئولیتی در قبال نتایج نرم‌افزار خود نداشته باشند.



هرچند برنامه‌های شرکت‌های بزرگ اکثراً توسط نهادهای دولتی مورد استفاده قرار می‌گرفته اما تا به‌این‌جا درست هنگامی‌که چیزی به‌اشتباه پیش می‌‌رفته، تقاضای خسارت و دادخواست برای جریمه معمولاً متوجه شرکت‌های توسعه‌دهنده‌ نرم‌افزار می‌شده است. ولی اگر تولیدکنندگان برنامه‌های تشخیص چهره بتوانند این نرم‌افزار را تحت قوانین مشخصی توسعه دهند، آنگاه می‌توانند اثبات کنند کاری که انجام می‌دهند مطابق آن چیزی است که نهاد قانون‌گذار به آنها اجازه داده است. به نظر می‌رسد که خواسته‌ آنها منطقی است.


مقررات محلی بسیار زیاد


درحالی‌که قوانین سراسری وجود ندارد، بخش دیگر چالشی که ارائه‌دهندگان نرم‌افزار با آن دست‌وپنجه نرم می‌کنند تعدد مقررات در سطح محلی و ایالتی است. ازآنجایی‌که هیچ قانون سراسری تصویب نشده است، برخی ایالت‌ها و شهرداری‌ها تصمیم به وضع مقررات خود کرده‌اند.


در پرونده فیس‌بوک که 550 میلیون دلار بابت آن جریمه شد(سعی نکنید آن را به ریال تبدیل کنید!)، موضوع بر سر نقض قانون حفظ حریم خصوصی اطلاعات بیومتریک ایالت ایلینوی بود. زیرا در این ایالت کاملاً به‌صورت مستقل، قانونی علیه برنامه‌های تشخیص چهره وضع شد؛ قانونی که مانع از ذخیره‌سازی داده‌های بیومتریک توسط شرکت‌ها بدون رضایت کاربر می‌شد. طبعاً کسب اجازه از تک‌تک شهروندان برای گردآوری پایگاه داده غیرممکن است و به‌جز زمانی که ارائه‌دهنده نرم‌افزار تشخیص چهره قصد داشته باشد تحت قوانین دولت کار کند، باید به قانون محلی آن ایالت پایبند باشد. همچنین، بسیاری دیگر از ایالت‌های این کشور ازجمله کالیفرنیا، نیوهمپشایر و اورگان قوانین مختلفی دارند. شهرداری‌هایی نظیر سامرویل، سیاتل، و دیترویت، میشیگان نیز نسخه‌های کمابیش متفاوت از آیین‌نامه را مورداستفاده قرار می‌دهند.



اکنون شرکت‌های فناوری ارائه‌دهنده این نرم‌افزار از آژانس‌های نظارتی و نهادهای قانون‌گذاری تقاضای کمک کرده‌اند تا با تصویب قوانین راهگشا، امکان عرضه‌ی نرم‌افزارها را به روش‌هایی که برای جامعه خوب است و از اقلیت‌ها به‌طور برابر محافظت می‌کند فراهم کنند.


درعین‌حال نباید شرایط به‌گونه‌ای باشد که فناوری تشخیص چهره به خاطر قوانین دست و پاگیر یک کشور محدود شود و صدالبته شرکت‌ها نیز باید تا جای ممکن، سریعاً به این موضوع رسیدگی کنند تا پس از مشخص شدن مقررات و رفع تبعیض، جامعه از پتانسیل‌های قابل‌توجه این فناوری بهره ببرد.


انتهای پیام/4112/


انتهای پیام/

ارسال نظر