دیده بان پیشرفت علم، فناوری و نوآوری
کارشناس ایرلندی در گفت‌وگوی اختصاصی با آنا:

ماشین نسل‌کُشی در غزه تاخت؛ چتر حمایت از فلسطین به وسعت جهان گشوده شد

ماشین نسل‌کُشی در غزه تاخت؛ چتر حمایت از فلسطین به وسعت جهان گشوده شد
پائول بیگار مهندس نرم‌افزار و وبلاگ‌نویس ایرلندی، شرکت فناوری متا را با اتهامِ مشارکت در نسل‌کشی غزه به چالش کشید. این شرکت داده‌های کاربران فلسطینی واتس‌اپ را با هدف شناسایی و بمباران در اختیار رژیم صهیونیستی قرار داده است.
کد خبر : 918415

خبرگزاری علم و فناوری آنا_نازنین احسانی طباطبایی؛ رژیم صهیونیستی از آغاز حملات جنایت‌بار خود به غزه در هفتم اکتبر ۲۰۲۳ تاکنون بیش از ۳۷ هزار فلسطینی را به شهادت رسانده است. 

ارتش رژیم اشغالگر اسرائیل هدف‌گیری انسانی در غزه را با سوءاستفاده از فناوری هوش مصنوعی انجام داد و هزاران غیرنظامی غزه در بمباران‌های کور جان باختند.

پائول بیگار (Paul Biggar) مهندس نرم‌افزار و وبلاگ‌نویس ایرلندی، شرکت فناوری متا را با اتهامِ به‌اشتراک‌گذاری داده‌های کاربران فلسطینی واتس‌اپ با رژیم صهیونیستی با هدف شناسایی و بمباران در غزه به چالش کشیده است.

بیگار که اصالت ایرلندی دارد و در نیویورک زندگی می‌کند، اقدامات این رژیم را محکوم کرده است. او با تشکیل ائتلافی به نام «فناوری برای فلسطین» (Tech for Palestine) از متخصصان سراسر جهان دعوت کرده است تا جریان‌های غربی را علیه پیشرفت فناوری در فلسطین تغییر دهند.

گفت‌وگوی اختصاصی خبرنگار خبرگزاری علم و فناوری آنا با پائول بیگار را از نظر می‌گذرانید. نسخه ویدئویی این مصاحبه را اینجا مشاهده کنید.

فناوری برای فلسطین

آنا: لطفاً ائتلاف «فناوری برای فلسطین» (Tech for Palestine) را به‌طور مختصر معرفی کنید. از کی و چطور چنین ائتلافی را تشکیل دادید و مأموریتش چیست؟

بیگار: ائتلاف «فناوری برای فلسطین» (Tech for Palestine) را گروهی متشکل از فناوران و افرادی از صنعت فناوری تشکیل دادند که می‌خواستند روایت‌های (فناورانه) ایالات‌متحده و غرب را درباره فلسطین تغییر دهند. پروژه‌های فناوریِ ما در راستای دفاع از آزادی فلسطین و علیه انسانیت‌زدایی ایالات‌متحده انجام می‌شود و به‌ویژه در حوزه فناوری از فلسطینیان دفاع می‌کنیم.

مثلث مرگ: اسرائیل، هوش مصنوعی و واتس‌اپ

آنا: گزارش‌های خبری نشان می‌دهند که رژیم صهیونیستی متهم به سوءاستفاده از سیستم هوش مصنوعی «لَوِندر» برای هدف‌گیری فلسطینیان در غزه است. شما هم به‌تازگی مصاحبه‌ای درباره نقش احتمالی پلتفرم مِتا در به اشتراک گذاشتن داده‌های کاربران واتس‌اپ با ارتش اسرائیل داشتید. لطفاً بفرمایید که از کی و چطور چنین موضوعی را ردیابی کردید؟

بیگار: این اطلاعات درباره سیستم لَوِندر در مجله ۹۷۲+ به چاپ رسید. این نشریه با ۶ اپراتور اطلاعاتی در ارتش اسرائیل صحبت کرده است. لَوِندر یک سیستم هوش مصنوعی است که اسرائیل از آن برای یافتن اهداف انسانی استفاده می‌کند. گزارش مجله ۹۷۲+ به این پرداخته است که اسرائیلی ها از داده‌های واتس‌اپ استفاده می‌کنند، ولی مشخص نیست که از کجا به این داده‌ها دسترسی پیدا کرده‌اند. احتمالات مختلفی در این خصوص وجود دارد، ممکن است اسرائیلی‌ها داده‌ها را مستقیماً از واتس‌اپ گرفته باشند و نیز احتمال دارد، چون تمام ترافیک غزه را رهگیری می‌کنند توانسته باشند به این داده‌ها برسند.

همچنین ممکن است داده‌های واتس اپ را به روش‌های دیگری دریافت کرده باشند که مشخص نیست چیست. شرکت متا در بیانیه‌اش گفته است که این داده‌ها را مستقیماً و به صورت عمده در اختیار آنها] اسرائیلی ها قرار نداده است، پس انکار نکرده! بلکه به یک روش خیلی خاص انکار کرده است. متا همچنین احتمال دسترسی غیرمجاز و سرقت اطلاعات از طریق بدافزار (backdoor) را رد کرده است که این هم باز انکار این نیست که احتمالاً اسرائیل اطلاعات را از طریق ابزار‌های فناوری به دست آورده است. ولی متا به طور مشخص می‌گوید که این دسترسی غیرمجاز را در اختیار اسرائیل قرار نداده است. بیانیه متا به این معنا نیست که اسرائیل به چنین اطلاعاتی دسترسی نداشته است و نیز معنی‌اش این نیست که کاربران متا امنیت دارند.

شرکت متا در بیانیه‌اش گفته است که این داده‌ها را مستقیماً و به صورت عمده در اختیار اسرائیل قرار نداده است، پس انکار نکرده! بلکه به یک روش خیلی خاص انکار کرده است

اسرائیل نسل‌کشی در غزه را با هوش مصنوعی حاشا کرد

آنا: آیا مشخص است که معیار انتخاب افراد و کاربران در گروه‌های واتس اپ (با هدف کشتار) چه بوده است؟

بیگار: ماجرا مبهم است. ورودی‌های هوش مصنوعی مشخص نیستند. مطلب مجله ۹۷۲+ تا حدودی به این موضوع پرداخته و عضویت کاربران در گروه‌های مشترک در واتس‌اپ، الگو‌های جابه‌جایی، تغییر آدرس و اطلاعات جمعیت‌شناختی مشترک را بررسی کرده است. اما هر کس که اصول اولیه هوش مصنوعی را درک می‌کند، برایش واضح است که این اطلاعات نادرست راه خوبی برای چنین تصمیم‌گیری‌هایی نیست.

آنها [اسرائیلی‌ها] ادعا می‌کنند که هوش مصنوعی را بر اساس فعالیت فرماندهان حماس آموزش دادند و بعد تصمیم گرفتند که از آن برای شناسایی سربازان پیاده حماس استفاده کنند؛ اما موضوع این است که فعالیت سربازان پیاده حماس و فرماندهان آنها یکسان نیست. آنها [سربازان حماس]  به یک شکل عمل نمی‌کنند، بعضی‌هایشان هماهنگ‌کننده هستند و بعضی‌های دیگر عملیات انجام می‌دهند. این دو خیلی با هم فرق دارند.

بنابراین، آموزش هوش مصنوعی با این الگو احتمالاً کارساز نیست ضمن اینکه آموزش هوش مصنوعی بر اساس وضعیت غزۀ پیش از ۷ اکتبر بسیار متفاوت از شرایط غزه پس از حمله بزرگ اخیر بوده است، چون بعد از آن همه در حال تغییر آدرس هستند، همه دارند گوشی عوض می‌کنند، امنیت غذایی ندارند و رفتارشان دیگر مثل قبل نیست؛ بنابراین مسخره است که فکر کنیم همیشه همۀ اطلاعات دریافتی از هوش مصنوعی مفید است و روشن‌ترین نتیجه‌ای که می‌توانیم بگیریم این است که اسرائیل خواستار بمباران غزه است و از هوش مصنوعی برای حاشا کردن و متقاعد کردن استفاده می‌کنند و نیز به عنوان راهی برای اینکه هر کاری می‌خواهند انجام دهند و بعد بگویند: اوه! این هوش مصنوعی بود که این کار را کرد، او بود که به ما گفت چه کار کنیم. این یک سوءاستفاده تمام عیار از فناوری است و من این سیستم را خودکارسازی‌ای شبیه آشویتس یا هولوکاست می‌بینم، چیزی مثل قطار‌های هولوکاست یا اتاق‌های گاز (در جنگ جهانی دوم). سوء استفاده اسرائیل از هوش مصنوعی معادل امروزی همان کارهاست.

استفاده از هوش مصنوعی در جنگ قانونی نیست

این یک سوءاستفاده تمام عیار از فناوری است و من این سیستم را خودکارسازی‌ای شبیه آشویتس یا هولوکاست می‌بینم، چیزی مثل قطارهای هولوکاست یا اتاق‌های گاز (در جنگ جهانی دوم). سوء استفاده اسراییل از هوش مصنوعی معادل امروزی همان کارهاست

آنا: این وضعیت فاجعه‌بار و یک بحران جدی است. در حال حاضر هیچ چارچوبی برای استفاده از هوش مصنوعی با مقاصد نظامی وجود ندارد، لطفاً درباره ضرورت اقدام فوری و وضع قوانین بیشتر در این خصوص توضیح دهید.

بیگار: فکر می‌کنم پس از جنگ غزه، آنچه جهان باید انجام دهد اقدامی شبیه به امضای کنوانسیون ژنو است. باید بپذیریم استفاده از هوش مصنوعی به عنوان بخشی از سیستم‌های فناورانه (در جنگ)، قانونی نیست، نباید از آن استفاده شود و همه این تصمیمات را باید مستقیماً انسان‌ها بگیرند. هوش مصنوعی نباید اجازه قضاوت و تصمیم‌گیری داشته باشد. هوش مصنوعی قابلیت تحقیق و تفحص ندارد. تمام کاری که هوش مصنوعی انجام می‌دهد تطبیق الگوهاست، یعنی به همان چیز‌هایی که قبلاٌ دیده است نگاه می‌کند و حدس می‌زند یا پیشنهاد می‌دهد که روشی کاربردی یا مناسب برای تصمیم‌گیری در جنگ نیست و صادقانه بگویم حتی در بسیاری از قابلیت‌های غیرنظامی هم مناسب نبوده است. در حال حاضر از هوش مصنوعی در نظام قضایی و کیفری برای صدور حکم و یا برای تصمیم‌گیری در حوزه بهداشت و درمان استفاده می‌شود که برای هیچ یک از این کاربرد‌ها مناسب نیست.

سانسور آمریکایی!

آنا: نقش رسانه‌ها در به تصویر کشیدن درگیری بین اسرائیل و فلسطین و به‌خصوص سوگیری در پوشش اخبار و سانسور نسل‌کشی در غزه را چطور می‌بینید؟

بیگار: در ایالات‌متحده، سانسور در سطحی باورنکردنی وجود دارد و این سانسور مستقیماً از رسانه‌ها و شبکه‌های اجتماعی شروع می‌شود. این یک سانسور مستقیم نیست، به این معنا که آنها نوع خاصی از مکالمات را ممنوع نمی‌کنند، بلکه تصمیم می‌گیرند که چه نوع گفت‌وگو‌هایی در رسانه‌ها دیده شود. آنها در رسانه‌های اجتماعی، برخی از مکالمات و به‌اشتراک‌گذاری‌ها را به‌طور الگوریتمی سرکوب می‌کنند، یا انفجاری از مکالمات گسترده را به نفع اسرائیل به‌راه می‌اندازند.

تا همین اوایل ژانویه در ایالات‌متحده به‌سختی می‌توانستید مطلبی پیدا کنید که حتی اندکی مخالف اسرائیل باشد. در بسیاری از موارد، هیاهوی تبلیغاتی [علیه حماس] اتفاق افتاد، مانند جریان «فریاد‌های بی‌کلام» (Screams Without Words) که نیویورک تایمز به‌راه انداخت و هیچ مبنایی در واقعیت نداشت و بی‌اعتباری آن در سطح گسترده‌ای رو شد. همین چند وقت پیش این خبر را شنیدم که ۹۰ استاد روزنامه‌نگاری نامه‌ای را امضا کردند و از نیویورک تایمز خواستند که چگونگی تنظیم آن مقاله را بررسی و تغییراتی ایجاد کنند. به نظر من این می‌تواند شاخصی از چیزی باشد که در آمریکا شاهدش هستیم.

اکنون در بیش از ۱۰۰ دانشگاه آمریکا شاهد اعتراضات دانشجویی هستیم. دولت امریکا فقط می‌گوید که دانشجو‌ها دارند اعتراض می‌کنند، ولی نمی‌گوید به چه چیزی؟ آنها اخبار تظاهرات دانشجو‌های آمریکا را پخش می‌کنند، بدون اینکه حرفی از غزه بزنند، بدون اینکه در مورد حمله احتمالی به رفح صحبت کنند (این مصاحبه پیش از آغاز حمله به رفح انجام شده است) و بدون اینکه از ۳۴ هزار نفر فلسطینی که از آغاز جنگ در ماه اکتبر تا کنون در غزه کشته شدند چیزی بگویند. پس این یک سرکوب افراطی و یک سوگیری افراطی به سمت روایت ایالات‌متحده و روایت‌های طرفدار اسرائیل است.

دولت ایالات‌متحده بمب‌های اسرائیل را فراهم می‌کند

چتر طرفداری از مردم طرفدار فلسطین در ایالات‌متحده با وسعت زیادی در حال گسترش است. آدم‌های بسیار زیادی را می‌بینم که دارند کارشان را درست انجام می‌دهند، این‌ها کسانی هستند که در شرایط عادی هیچ‌وقت باهم متحد نمی‌شدند. مهم است که بفهمیم اتحاد برای فلسطین چه وسعتی پیدا کرده است

آنا: شما به سرکوب جنبش‌های دانشجویی در آمریکا اشاره کردید، تأثیر چنین جنبش‌هایی را بر درگیری در غزه چطور ارزیابی می‌کنید؟

بیگار: من فکر می‌کنم این روند بسیار وسیع خواهد شد. دانشجویانی که تاکنون مورد حمله مجریان قانون قرار گرفته‌اند، عقب‌نشینی نمی‌کنند و اقدام مجری قانون و اقدامات دولت باعث شده مردم از سراسر ایالات‌متحده به این بازنگری برسند که نقش ما و نقش ایالات‌متحده در این میان چیست؟ دانشجو‌ها به این دلیل اعتراض می‌کنند که دولت ایالات‌متحده بمب‌های اسرائیل  را فراهم می‌کند، در حالی‌که می‌خواهد دانشگاه‌ها را به بخش خصوصی واگذار کند.

اکثر دانشگاه‌های ایالات‌متحده پول هنگفتی دارند. به طور گسترده، یک میلیارد دلار برای دانشگاه‌های برتر سرمایه‌گذاری می‌شود و دانشجو‌ها خواستار حذف دانشگاه‌ها از سرمایه‌گذاری به نفع اسراییل هستند و نیز می‌خواهند حمایت دانشگاه‌ها از سازندگان سلاح قطع شود.

حمایت از فلسطین، چتری به وسعت جهان

آنا: پیام ویژه شما چیست؟

بیگار: فکر می‌کنم که چتر طرفداری از مردم فلسطین در ایالات‌متحده با وسعت زیادی در حال گسترش است. آدم‌های بسیار زیادی را می‌بینم که دارند کارشان را درست انجام می‌دهند، اینها کسانی هستند که در شرایط عادی هیچ‌وقت باهم متحد نمی‌شدند. مهم است که بفهمیم اتحاد برای فلسطین چه وسعتی پیدا کرده است.

ارسال نظر
هلدینگ شایسته