دیده بان پیشرفت علم، فناوری و نوآوری
11 ارديبهشت 1402 - 15:21
محققان هشدار دادند؛

مراقب ترویج اخبار جعلی از سوی هوش مصنوعی باشیم

مراقب ترویج اخبار جعلی از سوی هوش مصنوعی باشیم
تحقیقات انجام گرفته از سوی موسسه «نیوزگارد» حاکی از فراوانی وبسایت های متکی به مزارع تولید محتوای هوش مصنوعی است که اخبار جعلی را با ظاهری باورپذیر به فضای مجازی تزریق می کنند.
کد خبر : 844694

به گزارش گروه جهان خبرگزاری علم و فناوری آنا، آینده پژوهان مدت‌ها است که درباره پدیده‌ای به نام «تکست پاکلیپس» هشدار می‌دهند- واژه‌ای که شکل تغییر یافته کلمه انگلیسی «Apocalypse» به معنای فاجعه آخرالزمان است و به حالتی گفته می‌شود که در آن، صفحات وب سرشار از متونی می‌شود که ساخته و پرداخته ابزار‌های هوش مصنوعی است- متونی که مجددا برای تغذیه سایر ابزار‌های هوش مصنوعی استفاده و به ایجاد متن‌های جدیدتر منجر می‌شوند.

تحقیقات انجام گرفته از سوی موسسه «نیوزگارد» دست کم ۵۰ وبسایت را شناسایی کرده که محتویات آنها محصول هوش مصنوعی است و متاسفانه به دور از هرگونه نظارت انسانی، اطلاعاتی جعلی را در اختیار کاربران قرار می‌دهند.

مشکل اصلی این است که اینگونه وبسایت ها، خود را به عنوان منابع خبری موثق جا می‌زنند و تظاهر می‌کنند که منبعی قابل اعتماد در بازار رسانه هستند.

فراوانی این وبسایت‌ها ناشی از پدیده‌ای است که ما تحت عنوان مزارع تولید محتوای هوش مصنوعی می‌شناسیم و کاربردی ندارند جز ایجاد متون کم کیفیت که متکی به کلیدواژه‌هایی برای بازاریابی و جذب مخاطب هستند.

بخش بزرگی از این مزارع تولید محتوا در ایجاد تبلیغات از پیش برنامه ریزی شده دخیل هستند به این نحو که هوش مصنوعی به خرید و فروش فضایی برای تبلیغات اتوماتیک می‌پردازد و برای مالک آن سایت بی آنکه کار مفیدی انجام داده باشد، درآمدزایی می‌کند. بعضی از شرکت‌ها هم با پرداخت پول به این مزارع تولید محتوا، نام شان را به عنوان نویسنده پای متن قید می‌کنند تا رنکینگ سرچ خود را بالا ببرند. 

بحث به رسمیت شناختن مخاطرات هوش مصنوعی در کنار استفاده بهینه از آن، این روز‌ها بسیار داغ شده است تا آنجا که روز گذشته، وزرای فناوری و امور دیجیتال کشور‌های عضو گروه ۷، در میانه تعجیل قانونگذاران اروپایی برای معرفی قانون هوش مصنوعی، درباره لزوم تنظیم آئین نامه‌ای ریسک محور که این حوزه را پوشش دهد، توافق کردند.

 محبوبیت ابزار‌های هوش مصنوعی ازجمله چت جی پی تی و چت بات‌های مشابه از مهمترین موضوعات مورد توجه کشور‌های گروه ۷ است.

اخیراً نیز، کمیسیون حفاظت از داده اروپایی که رگولاتور حریم خصوصی اتحادیه اروپا است، از ایجاد کارگروهی ویژه در رابطه با چت جی پی تی (ChatGPT) خبر داد.

این اقدام می‌تواند نخستین قدم مهم برای اتخاذ سیاستی واحد در قبال تنظیم مقرارت حریم خصوصیِ قابل تعمیم به حیطه هوش مصنوعی باشد.

اقدام دیده بان حریم خصوصی اتحادیه اروپا واکنشی است به تصمیم یکجانبه‌ای که ایتالیا ماه میلادی گذشته در راستای مهار استفاده از چت جی پی تی اتخاذ کرد و بلافاصله مورد تائید کمیسیون‌های حفاظت از داده آلمان و اسپانیا قرار گرفت.

کارشناسان آمریکایی و اروپایی بابت رشد سریع استفاده از نسخه‌های هوش مصنوعی مشابه چت جی پی تی هم نگران هستند.

چندی پیش، بیش از هزار نفر از فعالان دنیای فناوری، متخصصان هوش مصنوعی و علاقه‌مندان به این حوزه ازجمله «ایلان ماسک» مالک توئیتر و «استیو وزنیاک» از بنیان‌گذاران شرکت اپل، در نامه‌ای سرگشاده خطاب به مدیران آزمایشگاه‌های هوش مصنوعی، از آن‌ها خواستند که حداقل تا ۶ ماه آینده توسعه مدل‌های قدرتمندتر از GPT-۴ را متوقف کنند.

به دنبال این فراخوان، یونسکو هم از همه دولت‌ها خواست که چارچوب اخلاقی جهانی هوش مصنوعی را بدون تاخیر اجرا کنند.

حتی «جو بایدن» رئیس جمهور آمریکا هم می‌گوید که اگرچه تائید خطرناک بودن استفاده از هوش مصنوعی مشمول گذر زمان است، با این حال، شرکت‌های فناوری مسئول حصول اطمینان از میزان امنیت محصولاتشان هستند.

انتهای پیام/

ارسال نظر
قالیشویی ادیب