رژیم صهیونیستی هوش مصنوعی را ماشین نسل کشی کرد
اوبیکو گزارش می دهد؛
رژیم صهیونیستی با سوءاستفاده از فناوری هوش مصنوعی، هزاران غیرنظامی غزه را هدف بمباران های کور قرار داد.
خبرگزاری علم و فناوری اوبیکو؛ دو رسانه اسراییلی گزارش کرده اند که رژیم صهیونیستی برای شناسایی اهداف و کشتار در غزه از هوش مصنوعی سوءاستفاده کرده است.
سیستمی که رژیم صهیونیستی از آن استفاده کرده است لَوِندر (Lavender) نام دارد و کارشناسان حقوق بشر و فناوری از آن به «جنایت جنگی» یاد کرده اند.
نشریه اسراییلی-فلسطینی «972+» و رسانه عبری زبان لوکال کال (Local Call) به تازگی گزارش کرده اند که ارتش رژیم صهیونیستی با استفاده از یک سیستم هدف گیری مجهز به هوش مصنوعی هزاران فلسطینی را به عنوان اهداف بالقوه برای بمباران شناسایی کرده است.
به گفته منابع اطلاعاتی درگیر در جنگ، کمپین بمباران ارتش رژیم صهیونیستی در غزه از یک پایگاه داده مجهز به هوش مصنوعی که قبلاً فاش نشده بود استفاده کرد که در یک مرحله 37 هزار هدف بالقوه را بر اساس ارتباط آنها با حماس شناسایی کرد.
اسراییل تلاش می کند فناوری اشغالگری را به جهان صادر کند
اذعان به کشتار غیرنظامیان
منابع اطلاعاتی علاوه بر صحبت در مورد استفاده از سیستم هوش مصنوعی موسوم به لَوِندر، ادعا می کنند که مقامات نظامی اسراییل به ویژه در هفته ها و ماه های اولیه درگیری، مجوز کشتن تعداد زیادی از غیرنظامیان فلسطینی را صادر کرده اند.
شهادت غیرمعمول و صریح آنها نگاهی نادر به تجربیات دست اول مقامات اطلاعاتی اسراییل که از سیستم های یادگیری ماشینی برای کمک به شناسایی اهداف در طول جنگ شش ماهه استفاده کرده اند، ارایه می دهد.
شهادت غیرمعمول و صریح مقامات اطلاعاتی نشان می دهد که آنها در طول جنگ شش ماهه از سیستم های یادگیری ماشینی برای شناسایی اهداف خود استفاده کرده اند.
روری چالندز (Rory Challands)، خبرنگار الجزیره، که از اورشلیم شرقی گزارش می دهد، گفت: «این پایگاه داده مسیول تهیه فهرست های 37 هزار هدف کشتار است».
بی توجهی به خطای سیستم لوِندر
مقامات اطلاعاتی اسراییل که نامشان فاش نشده است در گفتگو با رسانه ها اعلام کردند که لَوِندر حدود 10 درصد خطا دارد. چالانز افزود: «اما این میزان از خطا مانع استفاده اسراییلی ها نشد و آنها برای ردیابی سریع و شناسایی عوامل غالباً رده پایین حماس در غزه و بمباران آنها از لِوندر استفاده کردند.»
مارک اوون جونز، استادیار گروه مطالعات خاورمیانه و علوم انسانی دیجیتال در دانشگاه حمید بن خلیفه در قطر، به الجزیره گفت: «مشخص شده است که ارتش اسراییل در حال استقرار سیستم های هوش مصنوعی آزمایش نشده است و از آنها برای تصمیم گیری درباره مرگ و زندگی غیرنظامیان استفاده می کند.»
جونز افزود: «بیایید صریح باشیم: این یک نسل کشی به کمک هوش مصنوعی است و در آینده باید خواستار توقف استفاده از هوش مصنوعی در جنگ باشیم.» نشریات اسراییلی گزارش دادند که این روش منجر به کشته شدن هزاران غیرنظامی در غزه شده است.
روز پنجشنبه، وزارت بهداشت غزه اعلام کرد که از 7 اکتبر تاکنون بیش از 33 هزار فلسطینی در حملات اسراییل کشته و بیش از 75 هزار نفر زخمی شده اند.
آگاه کردن انسان ها از بزرگی مقیاس جنگ و نظارت بر هوش مصنوعی بسیار سخت است
نقض قوانین بشردوستانه با هوش مصنوعی
انسان هایی که با پایگاه داده هوش مصنوعی در تعامل بودند، بی هیچ مطالعه یا بررسی دقیق فقط با دستور حمله موافق کردند. آنها احتمالاً ظرف 20 ثانیه فهرست کشتار را بررسی کرده و تصمیم می گیرند که آیا اجازه حمله هوایی را بدهند یا نه.»
در پاسخ به انتقادات گسترده، ارتش رژیم صهیونیستی گفت که تحلیلگرانش باید «بررسی های مستقلی» انجام دهند تا تعاریفی مطابق با اهداف شناسایی شده ارایه شود و این تصور که این فناوری یک «سیستم» است را رد کرد و گفت «آن فقط یک پایگاه داده است که هدفش ارجاع متقابل منابع اطلاعاتی به منظور تولید لایه های اطلاعات به روز درباره عملیات نظامی سازمان های تروریستی است».
استدلال های حقوقی و دشواری آگاهی رسانی
اما به گفته چالانز، به ازای هر مبارز فلسطینی (هدف مورد نظر اسراییلی ها)، «5 تا 10 غیرنظامی کشته شده است» و این واقعیت نشان می دهد که چرا شمار غیرنظامیان در غزه تا این حد زیاد است.
پروفسور توبی والش (Toby Walsh)، کارشناس هوش مصنوعی در دانشگاه نیو ساوت ولز در سیدنی، گفت که استدلال پژوهشگران حقوقی احتمالاً بر این خواهد بود که هدف گیری جنگی با هوش مصنوعی، نقض قوانین بشردوستانه بین المللی است.
والش به الجزیره گفت: «از منظر فنی، این آخرین اخبار نشان می دهد که آگاه کردن انسان ها و نیز نظارت معنی دار بر سیستم های هوش مصنوعی که مقیاس جنگ را به طور وحشتناک و غم انگیزی بزرگ می کنند چقدر سخت است.»
جرایم جنگی و کشتار های بی هدف
رسانه ها به نقل از منابع مختلف اعلام کردند که تصمیمات ارتش رژیم صهیونیستی در هفته های اول درگیری منجر به آن شد که «به ازای هر عامل کوچک حماس که سیستم لَوندر علامت گذاری می کرد، 15 تا 20 غیرنظامی کشته می شدند.»
این منابع همچنین گفتند که اگر در این سیستم مقامات ارشد حماس هدف قرار می گرفتند، ارتش اسراییل در چندین نوبت اجازه کشتن بیش از 100 غیرنظامی را در ترور یک فرمانده صادر می کرد.
استفاده از بمب های هدایت ناپذیر برای ویرانی خانه های هزاران فلسطینی که به تشخیص هوش مصنوعی به گروه های شبه نظامی در غزه مرتبط بودند، می تواند به توضیح آمار بالا و تکان دهندۀ تلفات جنگ کمک کند. وزارت بهداشت در منطقه تحت کنترل حماس می گوید 33 هزار فلسطینی در درگیری های شش ماه گذشته کشته شده اند و بر اساس داده های سازمان ملل تنها در ماه اول جنگ، 1340 خانواده خسارت دیده اند و 312 خانواده بیش از 10 عضو خود را در همان ماه اول از دست دادند.
مقامات رژیم صهیونیستی برای شناسایی اهداف جنگ غزه از سیستم های یادگیری ماشینی استفاده کرده اند
صدور فناوری اشغالگری
بن سایول (Ben Saul)، گزارشگر ویژه سازمان ملل در امور حقوق بشر و مبارزه با تروریسم، گفت: اگر جزییات گزارش صحت داشته باشد، «بسیاری از حملات اسراییل در غزه جنایت جنگی بوده و حملات نابرابر صورت گرفته است.»
آنتونی لوونشتاین (Antony Loewenstein)، روزنامه نگار استرالیایی و نویسنده کتاب «آزمایشگاه فلسطین: چگونه اسراییل فناوری اشغالگری را به جهان صادر کرد» می گوید: «اسراییل در حال حاضر تلاش می کند این ابزار ها را به نهاد های خارجی بفروشد، به دولت هایی که نه با انزجار، بلکه با تحسین، دنبال کار های اسراییل در غزه هستند. ما در ماه ها و سال های آینده خواهیم فهمید که آنها چه کسانی هستند …»
گزارش حاضر از پایگاه های خبری الجزیره و گاردین به فارسی برگردان شده است.
آیا شما به دنبال کسب اطلاعات بیشتر در مورد "رژیم صهیونیستی هوش مصنوعی را ماشین نسل کشی کرد" هستید؟ با کلیک بر روی ورزشی، ممکن است در این موضوع، مطالب مرتبط دیگری هم وجود داشته باشد. برای کشف آن ها، به دنبال دسته بندی های مرتبط بگردید. همچنین، ممکن است در این دسته بندی، سریال ها، فیلم ها، کتاب ها و مقالات مفیدی نیز برای شما قرار داشته باشند. بنابراین، همین حالا برای کشف دنیای جذاب و گسترده ی محتواهای مرتبط با "رژیم صهیونیستی هوش مصنوعی را ماشین نسل کشی کرد"، کلیک کنید.