Gerdab.IR | گرداب

رژیم صهیونیستی، هوش مصنوعی و کشتار مردم بی‌گناه فلسطین

رژیم صهیونیستی، هوش مصنوعی و کشتار مردم بی‌گناه فلسطین
تاریخ انتشار : ۰۸ شهريور ۱۴۰۲

در حالی که رژیم صهیونیستی از درون در حال فروپاشی است، فلسطینی‌ها به اولین قربانیان فناوری‌های مرگبار هوشمند تبدیل شده‌اند.

به گزارش گرداب، ارتش رژیم صهیونیستی در سال ۲۰۲۲ استراتژی جدیدی را برای ادغام تسلیحات و فناوری هوش مصنوعی در تمام شاخه‌های نظامی راه‌اندازی کرد که گسترده‌ترین اقدام راهبردی در دهه‌های اخیر این رژیم به شمار می‌رود. در ژوئن ۲۰۲۳، وزارت دفاع رژیم اشغالگر با افتخار اعلام کرد که ارتش قصد دارد در زمینه جنگ‌های خودکار و مستقل به یک ابرقدرت هوش مصنوعی تبدیل شود. در شرایطی که وضعیت منطقه و بحران‌های داخلی باعث شده است روزبه‌روز افق پیش روی صهیونیست‌ها تاریک‌تر شود، آن‌ها به دنبال این هستند با به‌کارگیری سلاح‌های هوشمند و به‌کارگیری آن‌ها حواس‌ها را از وضعیت داخلی خود منحرف کنند.

ژنرال بازنشسته صهوینیست‌ها، ایال ضمیر (Eyal Zamir)، در کنفرانس هرتزلی (انجمن امنیتی سالانه) گفت: «کسانی هستند که هوش مصنوعی را انقلابی در تغییر چهره جنگ در میدان نبرد می‌دانند». کاربرد‌های نظامی می‌تواند شامل «توانایی پلتفرم‌ها برای حمله دسته جمعی یا سیستم‌های نظامی برای عملکرد مستقل و کمک در تصمیم‌گیری سریع، در مقیاسی بزرگ‌تر از آنچه تاکنون دیده‌ایم» باشد. صنایع دفاعی اسرائیل در حال تولید مجموعه وسیعی از کشتی‌ها و وسایل نقلیه نظامی خودگردان از جمله یک «خودروی رباتیک مسلح» توصیف شده به عنوان یک پلتفرم «مستحکم» و «کشنده» است که دارای قابلیت «تشخیص خودکار هدف» می‌باشد. یک زیردریایی اتومات برای «جمع‌آوری اطلاعات مخفی» موسوم به نهنگ آبی نیز وجود دارد که در مرحله آزمایش قرار گرفته است.

این اقدامات و برنامه‌ها باعث شده است افراد مستقل و مدافع حقوق بشر بسیار نگران شود. برآورد‌ها این است که رژیم صهیونیستی از آنجا که جای پای محکمی در منطقه ندارد، به دنبال این است که به هیولای فرانکنشتاین تبدیل شود. هیولایی که قدرت اصلی‌اش در ایجاد ترس است.

باید در نظر گرفت به‌کارگیری تجهیزات هوش مصنوعی توسط ارتش صهیونیستی نه تنها خطری برای مردم مظلوم فلسطین، بلکه خطری برای ثبات و رشد منطقه و حتی جهان خواهد بود. اسرائیل که در زمان کرونا نیز نشان داده بود حاضر است موش آزمایشگاهی شرکت‌های غربی باشد، حالا در زمینه جنگ‌افزار‌های هوش مصنوعی نیز می‌خواهد، تجهیزات جدید و آزمایش‌نشده را بر روی مردم بی‌گناه فلسطینی آزمایش کند و کارآمدی این سلاح‌ها را اثبات کند.

مافیای اسلحه در جهان، نیازمند یک منطقه برای آزمایش سلاح‌های جدیدشان هستند، تا کارآمدی آن‌ها نشان داده شود و خریداران جهانی متقاعد شوند. اگرچه این سلاح‌ها ممکن است مزیتی در میدان نبرد به همراه داشته باشند، در نهایت مطمئناً نتیجه‌ای جز تشدید سطح کلی رنج و خون‌ریزی برای همه اعضای درگیر در جنگ نخواهد داشت. این سلاح‌ها نرخ مرگ و میر را افزایش می‌دهند و به همین دلیل وحشتناک و نگران‌کننده هستند.

یکی دیگر از فناوری‌های جدید هوش مصنوعی اسرائیلی به نام Knowledge Well نه تنها مکان‌های شلیک موشک شبه‌نظامیان فلسطینی را رصد می‌کند، بلکه می‌تواند مکان‌های احتمالی برای حمله‌های آینده را پیش‌بینی کند. چنین سیستم‌هایی ممکن است در ظاهر و به شکل موقت از شهروندان رژیم صهیونیستی در برابر تسلیحات فلسطینی‌ها محافظت کنند. اما در عین حال اسرائیل به یک ماشین کشتار مجازی تبدیل می‌شود و می‌تواند علیه نظامیان و غیرنظامیان حملات وحشتناکی را انجام دهد. با توجه به سابقه این رژیم در کشتار بی‌رحمانه کودکان فلسطینی، مسئله واقعا نگران‌کننده است و مردم فلسطین باید در برابر این حملات بی‌رحمانه مقاومتی جانانه از خود نشان دهند.

در نهایت هیچ‌کدام از این جنگ‌افزار‌ها و راهکار‌ها جلوی نابودی رژیم صهیونیستی را نخواهد گرفت، بلکه احتملا همین اقدامات جنایتکارانه و سبعانه خواهد بود که نابودی قریب‌الوقوع این رژیم را جلو خواهد انداخت.

جستجو، نابودی، جنگ‌افزار و هوش مصنوعی

این فناوری‌ها، هشداری برای جهان در رابطه با اثرگذاری فراوان هوش مصنوعی ارسال می‌کند. کارشناس ارشد هوش مصنوعی ارتش رژیم صهیونیستی می‌گوید که با متخصصان هوش مصنوعی در بازار خصوصی از طریق ارائه راهکار‌هایی «معنادار» رقابت می‌کند. او همچنین می‌افزاید که حتی در آینده، سلاح‌های هوش مصنوعی اسرائیل همیشه تحت کنترل حداقل یک نفر خواهند بود، گویی با چنین حرفی همه نگرانی‌ها از بین خواهد رفت. حال قضاوت با شماست که چگونه کشتن فلسطینی‌ها امری قابل توجیه و «معنادار» به حساب می‌آید. بعید است که همیشه یک نفر برای کنترل این نوع سلاح‌ها گماشته شود. آینده شامل ربات‌هایی است که بدون مداخله انسانی و فراتر از برنامه‌ریزی اولیه می‌توانند مستقل فکر کنند، قضاوت کنند و بجنگند. از این رو آن‌ها به عنوان «انقلاب سوم در جنگ پس از باروت و سلاح هسته‌ای» توصیف شده‌اند.

شاید آن‌ها برای جستجو و نابود کردن دشمن برنامه‌ریزی شده باشند، اما چه کسی تعیین می‌کند که دشمن کیست و تصمیمات حیاتی را در میدان جنگ می‌گیرد؟ می‌دانیم که انسان‌ها در حین جنگ مرتکب اشتباهاتی می‌شوند، گاهی اوقات اشتباهاتی وحشتناک. برنامه‌نویسان نظامی، علیرغم تخصص‌شان در شکل دادن به آنچه که ربات‌های مسلح فکر می‌کنند و انجام می‌دهند، مصون از خطا نیستند. دقیقاً معلوم نیست که ساخته‌های آن‌ها چه رفتار‌هایی ممکن است از خود نشان دهند و این می‌تواند به قیمت گرفتن جان‌های بی‌شماری تمام شود. فلسطین یکی از مناطق جهان است که به شدت تحت نظارت قرار دارد. دوربین‌های مداربسته در جای جای فلسطین نصب شده‌اند و برج‌های مراقبتی صهیونیست‌ها که برخی از آن‌ها مجهز به سلاح‌های رباتیک کنترل از راه دور هستند این منطقه را زیر نظر دارند. پهپاد‌ها بر فراز منطقه در پروازند و قابلیت پرتاب گاز اشک‌آور و شلیک مستقیم به فلسطینی‌ها از آسمان را دارند یا این که می‌توانند توسط پرسنل روی زمین هدایت شوند. در غزه، نظارت‌های مداوم باعث ایجاد ترس و نگرانی شدید در ساکنان شده است. غزه بزرگترین زندان روباز جهان است.

علاوه بر این، رژیم صهیونیستی اکنون اپلیکیشن‌های تشخیص چهره مانند Blue Wolf را دارد که هدف آن ثبت تصاویر تک تک فلسطینی‌هاست. این تصاویر در یک پایگاه داده عظیم ذخیره می‌شوند که می‌توان بعداً آن‌ها را برای اهداف مختلفی استخراج کرد.

نرم‌افزار شرکت‌هایی مانند Anyvision که قادر به شناسایی تعداد زیادی از افراد است با سیستم‌های حاوی اطلاعات شخصی از جمله پست‌های رسانه‌های اجتماعی یکپارچه‌سازی شده است. این شبکه نظارتی ایجاد شده باعث القای ترس، ناامیدی و پارانویا گردیده است. همانطور که رافائل ایتان (Rafael Eitan) رئیس سابق ستاد ارتش اسرائیل یک بار گفت هدف این است که فلسطینی‌ها «مانند مرغ‌های سر بریده به دور خود بچرخند».

هیولای فرانکنشتاین

بسیاری از محققان داده و حامیان حریم خصوصی در مورد خطرات هوش مصنوعی چه در حوزه عمومی و چه در میدان جنگ هشدار داده‌اند. ربات‌های نظامی مجهز به هوش مصنوعی یک نمونه از تجهیزات خطرناک هستند که رژیم صهیونیستی در خط مقدم چنین تحولات و پیشرفت‌هایی قرار دارد. دیده‌بان حقوق بشر سازمان ملل خواستار ممنوعیت استفاده از چنین فناوری نظامی شده و هشدار داده است که «ماشین‌ها نمی‌توانند ارزش زندگی انسان‌ها را درک کنند». فناوری هوش مصنوعی صهیونیست‌ها، حداقل از نظر سازندگانش، با هدف حفاظت و دفاع از اسرائیلی‌ها توجیه شده است، اما آسیبی که وارد می‌کند باعث شروع چرخه خشونت بی‌پایان می‌گردد و در نهایت به نابودی خود این رژیم ختم خواهد شد. ارتش این رژیم و رسانه‌هایی که حامی و مروج چنین تحولاتی هستند فقط موجب افزایش تعداد قربانیان به ویژه فلسطینی‌ها می‌شوند و هر کشور دیکتاتور یا نسل‌کشی که این سلاح‌ها را بخرد، قربانیان خاص خود را خواهد داشت.

یکی دیگر از «دستاوردهای» هوش مصنوعی برای رژیم صهیونیستی، ترور شهید محسن فخری‌زاده دانشمند هسته‌ای ایران توسط موساد در سال ۲۰۲۰ بود. نیویورک تایمز در این رابطه چنین روایتی را ارائه کرد: «عوامل ایرانی که برای موساد کار می‌کردند، یک وانت نیسان زامیاد آبی رنگ را در کنار جاده پارک کرده بودند. در پشت وانت یک مسلسل تک تیرانداز ۷.۶۲ میلی‌متری قرار داشت. قاتل که یک تک تیرانداز ماهر بود، در موقعیت خود قرار گرفته، اسلحه را تنظیم و ماشه را لمس کرده است. خود او اصلاً نزدیک آبسرد [در ایران]نبوده است. او در مکانی نامعلوم در هزار مایل دورتر با یک کامپیوتر منتظر بوده است. [این عملیات]اولین آزمایش تک تیراندازی با کامپیوتر و هوش مصنوعی، چندین دوربین، قابل کنترل از طریق ماهواره و توان شلیک ۶۰۰ گلوله در دقیقه بود. مسلسل مجهز به کنترل از راه دور اکنون به پهپاد‌های جنگی در زرادخانه سلاح‌های پیشرفته برای کشتار هدفمند از راه دور اضافه گشته است.

اما برخلاف پهپاد، این مسلسل رباتیک در ارتفاعی که یک پهپاد معمولاً قابل دید است قرار نمی‌گیرد و به همین دلیل توجه دیگران را جلب نمی‌کند. با این ویژگی‌ها، احتمالاً حوزه‌های امنیتی و جاسوسی دستخوش تغییر خواهند شد».

عملیات ترور شهید فخری‌زاده را باید یکی از نخستین موارد به‌کارگیری از جنگ‌افزار‌های هوش مصنوعی دانست. همانطور که جنگ سایبری با عملیات استاکس‌نت آمریکایی‌ها علیه تجهیزات هسته‌ای ایران شروع شد، به‌کارگیری از هوش مصنوعی در زمینه‌های نظامی نیز با ترور دانشمند برجسته هسته‌ای ایران آغاز شده است. چرا آمریکا و رژیم صهیونیستی آخرین فناوری‌های خود را برای آسیب رساندن به پروژه هسته‌ای ایران به کار می‌گیرند؟

همه دنیا از خطرات ناشی از تسلیحات اتومات آگاه است. یک خانواده افغان در سال ۲۰۲۱ در حمله هواپیما‌های بدون سرنشین آمریکا به طرز وحشیانه‌ای کشته شدند، چون یکی از اعضای خانواده به اشتباه به عنوان تروریست تحت تعقیب شناسایی شده بود. دولت آمریکا حاضر به عذرخواهی رسمی نشد. ما می‌دانیم که ارتش صهیونیست‌ها بار‌ها غیرنظامیان فلسطینی را در آنچه در میدان جنگ به قتل رسانده و بعد آن را اشتباه خوانده‌اند.

وقتی انسان‌ها و رژیم‌ها در میدان نبرد تا این حد مرتکب اشتباه می‌شوند و بعد هیچ عواقبی گریبانشان را نمی‌گیرد، چگونه باید انتظار داشته باشیم که فناوری‌هایی مانند جنگ‌افزار‌های هوش مصنوعی وضعیت بهتری برای ما به همراه بیاورند؟ هرچقدر بخواهیم به این فناوری‌ها خوش‌بین باشیم، در نهایت می‌بینیم این فناوری‌ها چیزی جز افزایش قدرت نرم و سخت دولت‌های استعمارگر و استثمارگر به وضعیت کنونی اضافه نمی‌کنند. به کارگیری هوش مصنوعی توسط ارتش رژیم صهیونیستی و پیشرو بودن این رژیم در زمینه توسعه سلاح‌های هوش مصنوعی، زنگ خطری است که باید نه تنها مردم فلسطین و شهروندان منطقه، بلکه همه آزادگان جهان را از خواب بیدار کند.