صفحه نخست

آناتک

آنامدیا

دانشگاه

فرهنگ‌

علم

سیاست و جهان

اقتصاد

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

همدان

هرمزگان

یزد

پخش زنده

۰۹:۲۸ | ۰۲ / ۱۲ /۱۴۰۴
| |
یک پژوهشگر هوش مصنوعی در گفت‌و‌گو با آناتک:

بحران آینده حذف انسان از چرخه تصمیم‌گیری است، نه آگاه‌شدن ماشین‌ها

فرض کنید روزی که ماشین‌ها به سطحی از آگاهی برسند، انسان با چه چالش‌های اخلاقی روبه‌رو خواهد شد؟ این پرسشی جذاب و بحث‌برانگیز است، اما مساله مهم‌تر جای دیگری است. خطر اصلی نه در خودآگاهی ماشین‌ها، بلکه در روندی نهفته است که طی آن انسان به تدریج تصمیم‌گیری را به الگوریتم‌ها واگذار می‌کند. در حالی که بخش قابل توجهی از مباحث نظری بر امکان خودآگاهی سامانه‌های هوشمند متمرکز شده، همین امروز نیز الگوریتم‌ها در حال تاثیرگذاری بر تصمیم‌های اقتصادی، مدیریتی و حتی انتخاب‌های روزمره ما هستند. این جابه‌جایی تدریجی می‌تواند مرز‌های مسئولیت‌پذیری، اخلاق و نقش فعال انسان در قضاوت را دگرگون کند؛ تحولی که پیش از فراگیرشدن کامل آن باید به دقت بررسی شود.
کد خبر : 1034142

از زمان طرح نخستین ایده‌های هوش‌مصنوعی در دهه ۱۹۵۰ میلادی و برگزاری کنفرانس دارتموث (Dartmouth Conference) که به صورت رسمی تولد این حوزه را رقم زد، همواره این پرسش مطرح بوده است که آیا ماشین می‌تواند به سطحی از فهم، ادراک یا حتی آگاهی برسد یا خیر. با گذر از دوره‌های مختلف، از سامانه‌های قاعده‌محور اولیه تا یادگیری عمیق (Deep Learning) و ظهور مدل‌های زبانی بزرگ، به‌ویژه پس از معرفی چت‌جی‌پی‌تی (ChatGPT) در سال ۲۰۲۲، این پرسش جنبه‌ای عینی‌تر و جدی‌تر به خود گرفته است. اکنون بحث درباره خودآگاهی ماشین، مسئولیت اخلاقی و پیامد‌های اجتماعی واگذاری تصمیم‌گیری به الگوریتم‌ها، از حوزه نظری صرف فراتر رفته و به یکی از مهم‌ترین مناقشات علمی و فلسفی عصر حاضر تبدیل شده است.

محمدرضا زمانی، مدرس دانشگاه، محقق و مدیر یکی از شرکت‌های فعال در حوزه هوش‌مصنوعی، در گفت‌و‌گو با خبرنگار آناتک به بررسی ابعاد فلسفی و اخلاقی توسعه هوش مصنوعی پرداخت. در این مصاحبه، موضوعاتی مانند امکان دستیابی ماشین به خودآگاهی، ضرورت بازنگری در اخلاق و علوم‌انسانی، مسئولیت خطا‌های سامانه‌های هوشمند و خطر واگذاری بی‌تفکر تصمیم‌های انسانی به الگوریتم‌ها مورد بررسی قرار گرفته است. 

از نگاه شما، آیا اساسا می‌توان تصور کرد که یک سیستم هوش‌مصنوعی به آگاهی یا تجربه ذهنی برسد، یا این مفهوم از ابتدا به انسان محدود است؟

این پرسش از جمله مسائلی است که اندیشمندان و فیلسوفان هنوز درباره آن به اتفاق‌نظر نرسیده‌اند. با این حال، به اعتقاد من سرعت پیشرفت‌های هوش‌مصنوعی به اندازه‌ای بوده است که طرح چنین امکانی را در حوزه دست‌یافتنی‌ها قرار می‌دهد. برخلاف برخی دیدگاه‌های محتاطانه فلسفی، افرادی که دانش فنی عمیق‌تری دارند، از جمله مدیران شرکت‌هایی که ابزار‌های پیشرفته هوش‌مصنوعی را توسعه می‌دهند و احتمالا به سامانه‌هایی فراتر از نسخه‌های عمومی مانند چت‌جی‌پی‌تی (ChatGPT) دسترسی دارند، با اطمینان بیشتری از امکان تحقق این امر سخن می‌گویند.

برخی چهره‌ها مانند ایلان ماسک (Elon Musk) نیز معتقدند بشر به سطحی از هوش‌مصنوعی خواهد رسید که از هوشمندترین انسان‌ها نیز فراتر رود. البته نمی‌توان صرفا بر اساس دیدگاه یک فرد به نتیجه قطعی رسید، اما شخصا معتقدم این مسیر از نظر فنی قابل‌دستیابی است.

در عین حال باید توجه داشت که برای رسیدن به سطوحی شبیه حالات تکاملی بیولوژیک و پدیده‌هایی مانند خودآگاهی، نیازمند تغییر پارادایم در الگوریتم‌ها هستیم. به عنوان نمونه، اگر امروز استفاده از ترنسفورمر‌ها (Transformer) در شبکه‌های عصبی نسبت به آر‌ان‌ان (RNN) نتایج بهتری ایجاد کرده است، ممکن است در آینده نیز ناچار به تغییر چارچوب‌های فنی و طراحی الگوریتم‌های جدیدتر و بهینه‌تری باشیم تا بتوانیم به ساختار‌هایی نزدیک‌تر به ساختار‌های انسانی دست پیدا کنیم. این موضوع از نظر فنی گسترده است و نیاز به بحث تفصیلی دارد.

اگر هوش‌مصنوعی روزی نشانه‌هایی شبیه رنج، خواست یا خودآگاهی نشان دهد، فلسفه اخلاق با چنین موجودی چگونه باید مواجه شود؟

اگر هوش‌مصنوعی به سطحی از خودآگاهی برسد و بتواند برخی ادراکات را تجربه کند، ناگزیر خواهیم بود شاخه‌هایی تازه در علوم‌انسانی، از جمله اخلاق، طراحی و تدوین کنیم. تا پیش از سال ۲۰۲۲ و معرفی چت‌جی‌پی‌تی، انسان تجربه گفت‌و‌گو با موجودیتی غیرانسانی به این شکل را نداشت و این تحول می‌تواند ما را با واقعیتی کاملا جدید مواجه سازد.

در صورت تحقق این وضعیت، بازنویسی حوزه‌هایی مانند اخلاق، روان‌شناسی و حتی مدیریت در ارتباط با ماشین‌ها ضروری خواهد بود. ممکن است نیازمند شکل‌گیری حوزه‌هایی مانند روان‌شناسی ماشین‌ها یا اخلاق ماشین‌ها باشیم. این تحول هم در علوم‌انسانی و هم در حوزه‌های فنی پیامد‌های عمیقی خواهد داشت.

در صورت آگاه‌شدن هوش‌مصنوعی، آیا می‌توان برای آن حقوق اخلاقی یا حتی حقوق قانونی قائل شد؟

از آنجا که هنوز به چنین نقطه‌ای نرسیده‌ایم، این بحث در حال حاضر بیشتر جنبه نظری دارد. با این حال، به باور من اخلاق برای هر موجود خودآگاه معنا پیدا می‌کند. اخلاق دو جنبه دارد؛ یکی کنشگر اخلاقی یا اتیک پرکتیشنر (Ethic Practitioner) که عمل اخلاقی را انجام می‌دهد و دیگری موجودی که آن عمل درباره او صورت می‌گیرد.

وزن اصلی از نظر من بر جنبه نخست است. برای مثال، اخیرا این پرسش مطرح شده است که آیا هنگام دریافت پاسخ از چت‌بات‌ها (Chatbot) باید از آنها تشکر کرد یا خیر. ممکن است تشکر کردن برای یک ماشین معنایی نداشته باشد، اما اگر انسان در تعامل با ماشین‌ها عادت به رعایت رفتار‌های اخلاقی را از دست بدهد، این امر می‌تواند به روابط انسانی نیز تسری یابد.

همان‌گونه که درباره حیوانات، با وجود تفاوت‌های شناختی، اصول اخلاقی و حقوقی را رعایت می‌کنیم، در صورت رسیدن ماشین‌ها به سطحی از خودآگاهی نیز باید اصول اخلاقی را مد نظر قرار دهیم. نخستین فایده این رویکرد به خود ما بازمی‌گردد، زیرا موجب حفظ و تقویت اخلاق در رفتار انسانی می‌شود. البته برای نتیجه‌گیری قطعی در این زمینه هنوز زود است.

وقتی یک سیستم هوش‌مصنوعی تصمیمی آسیب‌زا می‌گیرد، مرز مسئولیت اخلاقی دقیقا کجاست؛ طراح، داده‌ها، کاربر یا خود سیستم؟

تصمیم‌های آسیب‌زا محدود به ماشین‌ها نیست و در مورد انسان‌ها نیز به وفور رخ می‌دهد. برای نمونه، ممکن است یک سانحه هوایی ناشی از خطای خلبان باشد یا تصمیم نادرست در حوزه حکمرانی بر زندگی افراد بسیاری تاثیر بگذارد. همان‌گونه که در مورد انسان‌ها این واقعیت را می‌پذیریم، باید احتمال خطا در سامانه‌های هوش‌مصنوعی را نیز بپذیریم.

پژوهش‌های اخیر نشان داده است که میزان تحمل انسان‌ها نسبت به خطای ماشین‌ها کمتر از خطای انسان‌هاست. به عنوان مثال، روزانه رانندگان بسیاری دچار تصادف می‌شوند، اما اگر یک خودروی خودران تصادف کند، واکنش‌ها بسیار گسترده‌تر خواهد بود.

در صورت بروز خطا، باید ساختار فنی سیستم، داده‌های مورد استفاده و فرایند طراحی آن بررسی شود تا منشا مشکل مشخص گردد. سامانه‌های هوش‌مصنوعی به گونه‌ای طراحی می‌شوند که از طریق فرایند بهبود مستمر، از خطا‌های خود درس بگیرند و عملکرد خود را اصلاح کنند.

به نظر شما خطر اصلی امروز در حوزه اخلاق هوش‌مصنوعی، آگاه‌شدن ماشین‌هاست یا واگذاری بی‌تفکر تصمیم‌های انسانی به ماشین‌ها؟

درباره خطرات احتمالی آگاه‌شدن ماشین‌ها طیفی از دیدگاه‌ها وجود دارد. برخی معتقدند ماشین‌های خودآگاه می‌توانند به حل بهتر مسائل انسانی کمک کنند و برخی دیگر نگرانند که چنین ماشین‌هایی در آینده سلطه انسانی را نپذیرند. با این حال، به نظر من چالش اصلی در واگذاری بی‌تفکر جنبه‌های انسانی به ماشین‌ها نهفته است.

در بسیاری از فعالیت‌های روتین که بخش مهمی از درآمد طبقه متوسط را تامین می‌کند، ماشین‌ها می‌توانند با بهره‌وری بالاتر عمل کنند. از این رو شرکت‌ها، به ویژه شرکت‌های خصوصی، در استفاده از این فناوری تردید نخواهند داشت و این امر می‌تواند موجب بیکاری گسترده شود.

از سوی دیگر، کار مداوم با ماشین‌ها بر رفتار انسان نیز تاثیر می‌گذارد؛ از جمله کاهش تحمل، افزایش توقع و تمایل به دریافت نتایج فوری. این الگو‌ها ممکن است به روابط انسانی نیز منتقل شود. در آینده‌ای که ماشین‌های هوشمند درباره جنبه‌های مختلف زندگی ما، از پوشش و تغذیه تا مسیر حرکت و اوقات فراغت، تصمیم‌گیری می‌کنند، پیامد‌هایی شکل خواهد گرفت که باید پیش از فراگیر شدن کامل این ابزار‌ها مورد مطالعه و بررسی دقیق قرار گیرد.

انتهای پیام/

فهیمه سنجری
ارسال نظر
captcha