صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

ورزش

سلامت

پژوهش

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

علم +

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
۱۶:۱۵ - ۲۹ دی ۱۳۹۹

آینده کاری ما با رشد هوش مصنوعی در خطر است؟

قوانین جدیدی که برای اطمینان از عملکرد هوش مصنوعی برای انسان طراحی شده است در این گزارش به تفصیل مورد بررسی قرار گرفته است.
کد خبر : 557601

به گزارش گروه رسانه‌های دیگر خبرگزاری آنا، وقتی به اوایل دهه ۱۹۴۰ بر می‌گردیم یعنی مدت‌ها قبل از اختراع تلفن‌های هوشمند، نویسنده بزرگ علمی تخیلی ایزاک آسیموف مجموعه‌ای از اصول را برای توسعه سیستم‌های پیشرفته رباتیک تدوین کرد.


آسیموف اساسا یک فرد خوش بین بود، اما متوجه شد که دستگاه‌های هوش مصنوعی آینده روشنی داشته و طراحان آن‌ها ممکن است برای حرکت در یک مسیر صاف و درست به کمی کمک نیاز داشته باشند. از این رو سه قانون معروف وی همچنان اعتبار دارد و تا به امروز در محافل علمی و فناوری تاثیرگذار است.


قوانین سه گانه آسیموف


۱) یک ربات ممکن است مستقیما به انسانی آسیب نرساند اما ممکن است از طریق کار نکردن اجازه آسیب رساندن به انسان را بدهد.


۲) یک ربات باید از دستوراتی که انسان به او داده است تبعیت کند مگر در مواردی که این دستورات با قانون اول مغایرت داشته باشد.


۳) یک ربات باید از موجودیت خود محافظت کند به شرطی که این محافظت با قانون اول یا دوم مغایرت نداشته باشد.


اکنون تقریبا ۸۰ سال بعد، کارشناس حقوقی آکادمیک و هوش مصنوعی، فرانک پاسکوال، چهار اصل دیگر را به این اصول اضافه کرده است.


پروفسور Pasquale می‌گوید: در حالی که ایده‌های آسیموف کاملا بنیادی بود، آن‌ها یک سیر تکنولوژیکی خاصی را در پیش گرفتند که دیگر ادامه ندارد. نوآوری‌ها همیشه به نفع بشریت نیستند. در حالی كه آسیموف در مورد اینكه چگونه ربات‌های ما به مردم كمک می‌كنند و به آن‌ها صدمه نمی‌زنند صحبت می‌كند، من در مورد نحوه دموكراتیک كردن جهت فناوری صحبت می‌كنم. هدف هوش مصنوعی غالبا جایگزینی انسان‌ها است، برای مثال ایجاد یک پزشک ربات یا یک معلم ربات. هدف از تقویت هوش مصنوعی کمک به انسان است.



قوانین جدید هوش مصنوعی چیست و چرا لازم است؟


پروفسور Pasquale می‌گوید: مشاغلی که شامل قضاوت و مشورت در مورد انتخاب هستند باید برای انسان حفظ شود. او ادعا می‌کند که ترکیب بهینه تعامل رباتیک و انسانی بیش از حد مهم است که فقط توسط شرکت‌ها و مهندسان تعیین نمی‌شود. وی می‌گوید: اگر ما به دنبال تصور هوش مصنوعی برای جایگزینی با انسان باشیم، آینده‌ای بیكار در بسیاری از مناطق ایجاد خواهد شد؛ در حالی که اگر ما بر تقویت هوش مصنوعی اهتمام بورزیم، در واقع باید هم بهره‌وری و هم ارزش کار افزایش یابد.



قوانین جدید هوش مصنوعی


قانون اول: هوش مصنوعی باید مکمل افراد حرفه‌ای باشد نه اینکه جای آن‌ها را بگیرد.


پروفسور می‌گوید در بعضی از بخش‌های اقتصاد، به ویژه در تولید، اتوماسیون سریع ادامه خواهد داشت، اما مشاغل مربوط به قضاوت و مشورت را باید فقط انسان‌ها انجام بدهند. در زمینه‌هایی مانند تدریس، پزشکی و بسیاری از زمینه‌های حرفه‌ای، شما می‌خواهید افراد بتوانند گزینه‌ها را برای مشتریان خود توضیح دهند؛ نه اینکه برخی از شرکت‌های بزرگ فناوری بهترین‌ها را معرفی کنند و منتظر نتیجه بمانند.


اما او بر لزوم شناختن و کمک به کسانی که از طریق فناوری بیکار شده‌اند تاکید دارد. بخشی از تسهیل در کار سرمایه‌گذاری، افراد هستند و تاکید بر این است که همه می‌توانند نقشی در جامعه داشته باشند که شامل قضاوت باشد و تخصص آن‌ها برای این کار ارزشمند باشد.



قانون دوم: سیستم‌های رباتیک و هوش مصنوعی نباید انسانیت را جعل کنند.


دستگاه ها نباید برای تقلید از احساسات انسان تولید شوند. پروفسور می‌گوید اگرچه دستیاران شخصی مانند سیری در گوشی‌های آیفون، خوب به نظر می‌رسند ولی آن‌ها خطر فریب و دستکاری احساسات ما را دارند. آینده تعامل انسان و کامپیوتر شامل قضاوت‌های سختی در مورد چگونگی تعاملات شخصی بدون نفوذ با ربات‌ها و اینکه آیا اصطکاک برای ایجاد یک سطح فاصله باید درگیر شود، خواهد بود.


وی همچنین استدلال می‌کند که ما باید در زبانی که در رباتیک استفاده می‌کنیم نظم بیشتری داشته باشیم. وی می‌گوید: من حتی در برابر رمان نویسان یا نویسندگان داستان‌ها مقاومت می‌کنم که ربات را او و یا مانند یک شخص خطاب می‌کنند. من فکر می‌کنم که «آن» همیشه باید ضمیر مورد خطاب آن‌ها باشد زیرا فکر می‌کنم آن به نوعی بیانگر این واقعیت است که این یک ماشین است و یک شخص نیست.



قانون سوم: سیستم‌های رباتیک و هوش مصنوعی نباید مسابقات تسلیحاتی با را تشدید کنند.


پروفسور Pasquale هشدار می‌دهد توسعه بدون کنترل سیستم‌های تسلیحاتی رباتیک هوشمند آن‌ها را از کنترل خارج می‌کند. با توجه به سابقه انسان‌ها در مورد هزینه‌های نظامی، دلایل بسیاری موجود است که فناوری توسعه و استقرار سلاح‌ها با استفاده از هوش مصنوعی باید تا حد بسیاری کنترل شود. پروفسور پاسکوال می‌گوید: من فکر می‌کنم خیلی زود ما باید بگوییم که چگونه جوامع را به این نتیجه می‌رسانند که این یک تخریب است.


این فناوری، خدمات واقعی انسانی را ارائه نمی‌دهد، بلکه فقط کمک حال انسان‌ها در زمینه‌های مختلف است. وی همچنین از شرکت‌های فناوری مانند گوگل و فیسبوک که درگیر مسابقه تسلیحاتی برای جلب توجه بین تبلیغ‌کنندگان و کاربران پلت‌فرم هستند، تذکر می‌دهد. وی هشدار می‌دهد که رقابت بیش از حد، راهی برای تسلط فناوری و انحصارطلبی است.


قانون چهارم: سیستم‌های رباتیک و هوش مصنوعی باید همیشه هویت سازنده، کنترل‌کننده و مالک آن‌ها را نشان دهند.


برای افزایش پاسخگویی و جلوگیری از فعالیت‌های نامناسب و غیرقانونی توسط صاحبان و توسعه دهندگان فناوری، به سطح شفافیت بیشتری نیاز است. پروفسور می‌گوید همانطور که اتومبیل‌ها پلاک دارند، روبات‌ها نیز باید چنین روشی داشته باشند. او معتقد است که هیچ سیستم رباتی هرگز نباید کاملا خودمختار ساخته شود.


وی می‌گوید: خطرات بسیار زیاد است. این مساله بسیار مهمی است زیرا ما می‌دانیم چگونه مردم را مجازات کنیم، نمی‌دانیم چگونه ربات‌ها یا هوش مصنوعی را مجازات کنیم و این برای آینده اجرای قانون بسیار مهم است.



پروفسور Pasquale اذعان می‌کند که استفاده گسترده از قوانین جدید مانع توسعه برخی فناوری‌ها می‌شود، اما به گفته وی این امر به نفع عموم خواهد بود. وی می‌گوید: ما زمینه‌های بسیاری را دیده‌ایم كه پیشرفت‌های فناوری منجر به پیامدهای بسیار نگران‌كننده و مضر مانند گرم‌شدن زمین شده است.


ما باید از این موارد جلوتر باشیم. نمی‌توانیم فقط به چیزی مانند گرم شدن کره زمین نگاه کنیم و بگوییم فقط یک مشکل فنی را رفع خواهیم کرد. ما باید در مورد هدایت نوآوری بسیار عمیق فکر کنیم و نوآوری به خودی خود نمی‌تواند یک کلید واژه برای متوقف کردن مقررات باشد.


منبع: باشگاه خبرنگاران جوان


انتهای پیام/


انتهای پیام/

ارسال نظر