در جریان کنگره هوش مصنوعی دانشگاه استنفورد چه گذشت؟
به گزارش گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا، گروهی از اساتید دانشگاه استنفورد برای کارکنان کنگره در مورد هوش مصنوعی صحبت کردهاند. زمانی که «فیفیلی»، پیشگام هوش مصنوعی و استاد دانشگاه استنفورد در جریان سفر اخیر خود به سیلیکون ولی با جو بایدن رئیسجمهور آمریکا دیدار کرد، صحبتها را به سمت جنبههای مثبت این فناوری هدایت کرد.
لزوم سرمایهگذاری برای توسعه کاربردهای خیرخواهانه هوش مصنوعی
لی به جای بحث درباره پیشبینیهایی که هوش مصنوعی میتواند باعث نابودی بشریت شود، از بایدن خواست تا سرمایهگذاری جدیتری در حفظ رهبری تحقیقات آمریکا و توسعه کاربردهای واقعا خیرخواهانه هوش مصنوعی انجام دهد.
صبح روز چهارشنبه، لی در محوطه دانشگاه استنفورد، در کنار کاندولیزا رایس، مدیر موسسه هوور، نشسته بود. آنها در حال بحث درباره تاثیر هوش مصنوعی بر دموکراسی بودند که هیئت نهایی در یک اردوی سه روزه درباره این فناوری بود. در مقابل آنها، جمعیتی دو حزبی متشکل از بیش از بیست تن از تحلیلگران سیاسی، وکلا و روسای ستادهای انتخاباتی در جایگاههای تعیین شده خود نشسته بودند.
این رویداد توسط موسسه هوش مصنوعی انسان محور استنفورد (HAI) برگزار شد و لی بهعنوان یکی از مدیران در مورد مزایا و خطرات هوش مصنوعی برای کارکنانی که از اطلاعات محروم هستند و برای قانونگذاری یک فناوری در حال توسعه منتظر هستند، برگزار شد.
صدها تن از ساکنان کاپیتول هیل برای ۲۸ سهمیه کمپ بوت استنفورد درخواست دادند که ۴۰ درصد نسبت به سال ۲۰۲۲ افزایش داشت. شرکتکنندگان شامل دستیاران نماینده تد لیو و سناتور ریک اسکات و همچنین تحلیلگران سیاسی و وکلای کمیتههای بازرگانی مجلس نمایندگان و سنا، امور خارجه، تجارت استراتژیک با چین و ... بودند.
کمپ بوت استنفورد برای قانونگذاران در سال ۲۰۱۴ با تمرکز بر امنیت سایبری آغاز به کار کرد. با سرعت گرفتن رقابت برای ساخت هوش مصنوعی مولد، این کمپ سال گذشته منحصرا به هوش مصنوعی متمرکز شد.
پاسخ به تهدید امنیت ملی با هوش مصنوعی
این برنامه آموزشی پتانسیل هوش مصنوعی برای تغییر شکل آموزش و مراقبتهای بهداشتی، مقدمهای بر اخبار جعلی و همچنین شبیه سازی بحران را پوشش میداد که در آن شرکتکنندگان باید از هوش مصنوعی برای پاسخ به تهدید امنیت ملی در تایوان استفاده میکردند.
کمپ بوت یکی از تلاشهای پشت پرده برای آموزش کنگره از زمان راهاندازی «چت جیپیتی» (ChatGPT) در ماه نوامبر است. قانونگذاران که از سالها انفعال در رسانههای اجتماعی خسته شدهاند، در تلاش هستند تا به هوش مصنوعی مولد سرعت ببخشند. این سیستمهای همه منظوره که براساس مقادیر زیادی از دادهها توسط اینترنت آموزش دیدهاند، میتوانند برای چرخش کدهای کامپیوتری، پروتئینهای طراح، مقالات دانشگاهی یا فیلمهای کوتاه براساس دستورهای کاربر مورد استفاده قرار گیرند.
نیگام شاه، استاد علوم دادههای زیست پزشکی دانشگاه استنفورد، روز سهشنبه جلسهای را در مورد مراقبتهای بهداشتی و هوش مصنوعی در طول کمپ بوت استنفورد رهبری کرد.
تلاش برای نوشتن قوانین جدید برای هوش مصنوعی
کاخ سفید در حال آمادهسازی یک فرمان اجرایی مرتبط با هوش مصنوعی و ارائه یک تعهد داوطلبانه است که به شرکتهای هوش مصنوعی دستور میدهد رسانهها را شناسایی کنند. در حالی که رهبر اکثریت سنا، «چارلز شومر» از تلاش برای نوشتن قوانین جدید برای هوش مصنوعی خبر میدهد.
با این حال؛ حتی در میان کارشناسان، اجماع کمی در مورد محدودیتها و تاثیر اجتماعی آخرین مدلهای هوش مصنوعی وجود دارد که نگرانیهایی را در بهرهبرداری بی رویه از هنرمندان، امنیت کودکان و کمپینهای ضداطلاعاتی ایجاد میکند.
شرکتهای فناوری، میلیاردرهای حوزه فناوری و دیگر گروههای ذینفع ویژه این عدم قطعیت را درک کردهاند و امیدوارند با تغییر نحوه درک قانونگذاران از پتانسیل واقعی هوش مصنوعی، سیاستها و اولویتهای فدرال را شکل دهند.
«سورش ونکاتسوبرامانیان»، مشاور سابق دفتر سیاست علم و فناوری کاخ سفید و استاد دانشگاه براون که در کنار اتحادیه غیرانتفاعی عدالت الگوریتمی به این مسائل میپردازد، گفت: گروههای جامعه مدنی که میخواهند قانونگذاران را با دیدگاه خود معرفی کنند، به منابع یکسانی دسترسی ندارند. ما درباره آسیبهای اثرات تکنولوژی در مقایسه با افرادی که این آسیبها را تجربه کردند، اطلاعی نداریم.
در طی جلسهای با متا و آنتروپی، یک مدیر قانونگذاری برای یک جمهوریخواه مجلس نمایندگان گفت که این گروه شاهد ارائهای در مورد اینکه هوش مصنوعی تا چه حد میتواند در ارائه اطلاعات نادرست و دروغ موثر باشد، بوده است. باتوجه به این موضوع، وی از هیئت پرسید که شرکتهای هوش مصنوعی باید قبل از انتخابات ۲۰۲۴ چه کاری انجام دهند؟
به گفته جک کلارک، یکی از بنیانگذاران این شرکت اگر شرکتهای هوش مصنوعی گزارشهای تقلب در انتخابات را دریافت کنند تا شرکتها بدانند به دنبال چه شرایطی هستند، مفید خواهد بود. شما در این بازی موش و گربه با افرادی هستید که سعی میکنند پلتفرم شما را خراب کنند.
لی در جریان این پنل در مورد هوش مصنوعی و دموکراسی گفت که امیدوار است در زمان تاسیس موسسه هوش مصنوعی انسان محور استنفورد همکاری نزدیکی با مراکز سیاستگذاری استنفورد مانند موسسه هوور داشته باشد و در مورد پیامدهای هوش مصنوعی در دست رژیمهای اقتدارگر بحث میکنند.
انتهای پیام/