دیده بان پیشرفت علم، فناوری و نوآوری
دانشمند برجسته فیزیک هشدار داد؛

خطر نابودی انسان به دست هوش مصنوعی/ توسعه بی‌امان را متوقف کنید

خطر نابودی انسان به دست هوش مصنوعی  توسعه بی‌امان را متوقف کنید
توسعه سریع هوش مصنوعی بدون الزامات و چارچوب‌های قانونی بسیاری از کارشناسان و حتی فعالان این حوزه را نگران کرده است که شاید به‌زودی نسل انسان به دست این فناوری منقرض شود.
کد خبر : 913473

به گزارش خبرگزاری علم و فناوری آنا به نقل از گاردین، یک دانشمند برجسته و فعال در زمینه هوش مصنوعی هشدار داده است که غول‌های فناوری جهان مشهور به «بیگ تِک» در حال منحرف کردن افکار عمومی جهان هستند تا از خطر هوش مصنوعی برای بشریت غافل بمانند.

مَکس تِگمارک (Max Tegmark) استدلال می‌کند که کم‌اهمیت‌سازی این خطر، تصادفی نیست. تهدید آن جدی است و تا خیلی دیر نشده، مقررات سخت‌گیرانه و لازم باید به اجرا دربیایند.

این دانشمند و فیزیکدان سوئدی-آمریکایی در نشست اخیر هوش مصنوعی در سئول، کره جنوبی، گفت که گسترش تمرکز بر هوش مصنوعی باعث شده مقررات سختگیرانه‌ای برای توسعه‌دهندگان قدرتمند هوش مصنوعی وضع نکنیم.

تگمارک گفت: انریکو فرمی (Enrico Fermi) در ۱۹۴۲، نخستین راکتور هسته‌ایِ خودپایدار را در زیر یک زمین فوتبال در شیکاگو ساخت. وقتی فیزیکدانان برتر آن زمان از این موضوع خبردار شدند واقعاً ترسیدند، زیرا متوجه شدند که بزرگترین و تنها مانع باقی‌مانده برای ساخت بمب هسته‌ای به‌تازگی برطرف شده است. آنها فهمیدند که تنها چند سال با آن فاصله دارند که در واقع، سه سال بود، چرا که آزمایش هسته‌ای ترینیتی در ۱۹۴۵ انجام شد.

موسسه غیرانتفاعی «فیوچر آو لایف» (Future of Life Tegmark) متعلق به تگمارک به دلیل نگرانی در مورد خطرات هوش مصنوعی برای بشریت، اخیراً خواستار توقف شش ماهه تحقیقات در حوزه هوش مصنوعی پیشرفته شد ولی با وجود حمایت بسیاری از کارشناسان، از جمله پیشگامان هوش مصنوعی مانند جفری هینتون و یوشوا بنجیو، این توقف اتفاق نیفتاد. درعوض، نشست‌های هوش مصنوعی، مانند نشست سئول، بر تنظیم مقررات هوش مصنوعی متمرکز شده‌اند.

تگمارک همچنین باور دارد که هوش مصنوعی در حال حاضر می‌تواند با آسیب‌هایی مانند سوگیری به حاشیه رانده شود. او معتقد است که رهبران فناوری از سوی صنایع مختلف تحت فشار هستند و به همین دلیل دولت‌ها باید استاندارد‌های امنیتی برای توسعه مسئولانه هوش مصنوعی را توسعه دهند.  

ارسال نظر
هلدینگ شایسته