آینده کاری ما با رشد هوش مصنوعی در خطر است؟
به گزارش گروه رسانههای دیگر خبرگزاری آنا، وقتی به اوایل دهه ۱۹۴۰ بر میگردیم یعنی مدتها قبل از اختراع تلفنهای هوشمند، نویسنده بزرگ علمی تخیلی ایزاک آسیموف مجموعهای از اصول را برای توسعه سیستمهای پیشرفته رباتیک تدوین کرد.
آسیموف اساسا یک فرد خوش بین بود، اما متوجه شد که دستگاههای هوش مصنوعی آینده روشنی داشته و طراحان آنها ممکن است برای حرکت در یک مسیر صاف و درست به کمی کمک نیاز داشته باشند. از این رو سه قانون معروف وی همچنان اعتبار دارد و تا به امروز در محافل علمی و فناوری تاثیرگذار است.
قوانین سه گانه آسیموف
۱) یک ربات ممکن است مستقیما به انسانی آسیب نرساند اما ممکن است از طریق کار نکردن اجازه آسیب رساندن به انسان را بدهد.
۲) یک ربات باید از دستوراتی که انسان به او داده است تبعیت کند مگر در مواردی که این دستورات با قانون اول مغایرت داشته باشد.
۳) یک ربات باید از موجودیت خود محافظت کند به شرطی که این محافظت با قانون اول یا دوم مغایرت نداشته باشد.
اکنون تقریبا ۸۰ سال بعد، کارشناس حقوقی آکادمیک و هوش مصنوعی، فرانک پاسکوال، چهار اصل دیگر را به این اصول اضافه کرده است.
پروفسور Pasquale میگوید: در حالی که ایدههای آسیموف کاملا بنیادی بود، آنها یک سیر تکنولوژیکی خاصی را در پیش گرفتند که دیگر ادامه ندارد. نوآوریها همیشه به نفع بشریت نیستند. در حالی كه آسیموف در مورد اینكه چگونه رباتهای ما به مردم كمک میكنند و به آنها صدمه نمیزنند صحبت میكند، من در مورد نحوه دموكراتیک كردن جهت فناوری صحبت میكنم. هدف هوش مصنوعی غالبا جایگزینی انسانها است، برای مثال ایجاد یک پزشک ربات یا یک معلم ربات. هدف از تقویت هوش مصنوعی کمک به انسان است.
قوانین جدید هوش مصنوعی چیست و چرا لازم است؟
پروفسور Pasquale میگوید: مشاغلی که شامل قضاوت و مشورت در مورد انتخاب هستند باید برای انسان حفظ شود. او ادعا میکند که ترکیب بهینه تعامل رباتیک و انسانی بیش از حد مهم است که فقط توسط شرکتها و مهندسان تعیین نمیشود. وی میگوید: اگر ما به دنبال تصور هوش مصنوعی برای جایگزینی با انسان باشیم، آیندهای بیكار در بسیاری از مناطق ایجاد خواهد شد؛ در حالی که اگر ما بر تقویت هوش مصنوعی اهتمام بورزیم، در واقع باید هم بهرهوری و هم ارزش کار افزایش یابد.
قوانین جدید هوش مصنوعی
قانون اول: هوش مصنوعی باید مکمل افراد حرفهای باشد نه اینکه جای آنها را بگیرد.
پروفسور میگوید در بعضی از بخشهای اقتصاد، به ویژه در تولید، اتوماسیون سریع ادامه خواهد داشت، اما مشاغل مربوط به قضاوت و مشورت را باید فقط انسانها انجام بدهند. در زمینههایی مانند تدریس، پزشکی و بسیاری از زمینههای حرفهای، شما میخواهید افراد بتوانند گزینهها را برای مشتریان خود توضیح دهند؛ نه اینکه برخی از شرکتهای بزرگ فناوری بهترینها را معرفی کنند و منتظر نتیجه بمانند.
اما او بر لزوم شناختن و کمک به کسانی که از طریق فناوری بیکار شدهاند تاکید دارد. بخشی از تسهیل در کار سرمایهگذاری، افراد هستند و تاکید بر این است که همه میتوانند نقشی در جامعه داشته باشند که شامل قضاوت باشد و تخصص آنها برای این کار ارزشمند باشد.
قانون دوم: سیستمهای رباتیک و هوش مصنوعی نباید انسانیت را جعل کنند.
دستگاه ها نباید برای تقلید از احساسات انسان تولید شوند. پروفسور میگوید اگرچه دستیاران شخصی مانند سیری در گوشیهای آیفون، خوب به نظر میرسند ولی آنها خطر فریب و دستکاری احساسات ما را دارند. آینده تعامل انسان و کامپیوتر شامل قضاوتهای سختی در مورد چگونگی تعاملات شخصی بدون نفوذ با رباتها و اینکه آیا اصطکاک برای ایجاد یک سطح فاصله باید درگیر شود، خواهد بود.
وی همچنین استدلال میکند که ما باید در زبانی که در رباتیک استفاده میکنیم نظم بیشتری داشته باشیم. وی میگوید: من حتی در برابر رمان نویسان یا نویسندگان داستانها مقاومت میکنم که ربات را او و یا مانند یک شخص خطاب میکنند. من فکر میکنم که «آن» همیشه باید ضمیر مورد خطاب آنها باشد زیرا فکر میکنم آن به نوعی بیانگر این واقعیت است که این یک ماشین است و یک شخص نیست.
قانون سوم: سیستمهای رباتیک و هوش مصنوعی نباید مسابقات تسلیحاتی با را تشدید کنند.
پروفسور Pasquale هشدار میدهد توسعه بدون کنترل سیستمهای تسلیحاتی رباتیک هوشمند آنها را از کنترل خارج میکند. با توجه به سابقه انسانها در مورد هزینههای نظامی، دلایل بسیاری موجود است که فناوری توسعه و استقرار سلاحها با استفاده از هوش مصنوعی باید تا حد بسیاری کنترل شود. پروفسور پاسکوال میگوید: من فکر میکنم خیلی زود ما باید بگوییم که چگونه جوامع را به این نتیجه میرسانند که این یک تخریب است.
این فناوری، خدمات واقعی انسانی را ارائه نمیدهد، بلکه فقط کمک حال انسانها در زمینههای مختلف است. وی همچنین از شرکتهای فناوری مانند گوگل و فیسبوک که درگیر مسابقه تسلیحاتی برای جلب توجه بین تبلیغکنندگان و کاربران پلتفرم هستند، تذکر میدهد. وی هشدار میدهد که رقابت بیش از حد، راهی برای تسلط فناوری و انحصارطلبی است.
قانون چهارم: سیستمهای رباتیک و هوش مصنوعی باید همیشه هویت سازنده، کنترلکننده و مالک آنها را نشان دهند.
برای افزایش پاسخگویی و جلوگیری از فعالیتهای نامناسب و غیرقانونی توسط صاحبان و توسعه دهندگان فناوری، به سطح شفافیت بیشتری نیاز است. پروفسور میگوید همانطور که اتومبیلها پلاک دارند، روباتها نیز باید چنین روشی داشته باشند. او معتقد است که هیچ سیستم رباتی هرگز نباید کاملا خودمختار ساخته شود.
وی میگوید: خطرات بسیار زیاد است. این مساله بسیار مهمی است زیرا ما میدانیم چگونه مردم را مجازات کنیم، نمیدانیم چگونه رباتها یا هوش مصنوعی را مجازات کنیم و این برای آینده اجرای قانون بسیار مهم است.
پروفسور Pasquale اذعان میکند که استفاده گسترده از قوانین جدید مانع توسعه برخی فناوریها میشود، اما به گفته وی این امر به نفع عموم خواهد بود. وی میگوید: ما زمینههای بسیاری را دیدهایم كه پیشرفتهای فناوری منجر به پیامدهای بسیار نگرانكننده و مضر مانند گرمشدن زمین شده است.
ما باید از این موارد جلوتر باشیم. نمیتوانیم فقط به چیزی مانند گرم شدن کره زمین نگاه کنیم و بگوییم فقط یک مشکل فنی را رفع خواهیم کرد. ما باید در مورد هدایت نوآوری بسیار عمیق فکر کنیم و نوآوری به خودی خود نمیتواند یک کلید واژه برای متوقف کردن مقررات باشد.
منبع: باشگاه خبرنگاران جوان
انتهای پیام/
انتهای پیام/