مبارزه با روبات ها: ممنوع مجاز نیست

فهرست مطالب:

مبارزه با روبات ها: ممنوع مجاز نیست
مبارزه با روبات ها: ممنوع مجاز نیست

تصویری: مبارزه با روبات ها: ممنوع مجاز نیست

تصویری: مبارزه با روبات ها: ممنوع مجاز نیست
تصویری: مسابقه جنگ رباتها 2024, ممکن است
Anonim

کارشناسان در ژنو دیدار کردند ، اما توافق حاصل نشد: ایالات متحده و روسیه همه کارها را مسدود کردند. شاید این تنها زمانی باشد که هژمون ها چنین هماهنگ کار می کنند.

مبارزه با روبات ها: ممنوع مجاز نیست
مبارزه با روبات ها: ممنوع مجاز نیست

جلسات کارشناسان در قالب کنوانسیون سلاح های غیرانسانی برای تصمیم گیری درباره سرنوشت ربات های به اصطلاح رزمی - سلاح های خودمختاری که از هوش مصنوعی برای شکست اهداف استفاده می کنند ، در ژنو پایان یافت. با این حال ، توافقی حاصل نشد. ایالات متحده ، روسیه ، کره جنوبی ، اسرائیل و استرالیا از جمله اقلیت هایی بودند که موفق شدند جلوی احساسات ممنوعیت کامل روبات های قاتل را بگیرند.

بنابراین ، اگرچه هنوز هیچ سلاح مستقلی در جهان وجود ندارد ، اما این فن آوری ، اصطلاحاً انسانی است - می توان آن را توسعه و تحقیق کرد. جالب است بدانید که طبق گفته موسسه تحقیقات صلح استکهلم (SIPRI) ایالات متحده و روسیه در فهرست بزرگترین صادرکنندگان اسلحه قرار دارند. کره جنوبی ، اسرائیل و استرالیا نیز در این رتبه بندی عقب نیستند - آنها در میان 20 بازیکن برتر بازار قرار دارند.

و اگرچه چین (پنجمین صادر کننده سلاح در جهان ، عضو دائمی شورای امنیت سازمان ملل متحد از ممنوعیت استفاده از روبات های رزمی دفاع می کند ، اما در جلسات نتوانست مقیاس را در جهت خود تغییر دهد. امروز ، 26 کشور آشکارا از ممنوعیت استفاده از هوش مصنوعی در جنگ. برخی دیگر از موضع گیری روشن گریزان هستند) فرانسه و آلمان (سومین و چهارمین صادر کننده اسلحه) پیشنهاد می دهند سندی را امضا کنند که برتری انسان نسبت به هوش مصنوعی را تحکیم کند ، اما به احتمال زیاد آنها در کنار کسانی که می خواهند ماشین های جنگی مستقل تولید کنند.

مری ورم ، هماهنگ کننده کمپین جلوگیری از ربات های قاتل ، درباره نتایج جلسات اظهار داشت: "قطعاً ناامیدکننده است که گروه کوچکی از غول های نظامی بتوانند خواست اکثریت را حفظ کنند."

در واقع ، با توجه به اینکه ایالات متحده و روسیه معمولاً نمی توانند دست کم به نوعی سازش در مسائل مهم برسند ، وضعیت به نظر می رسد توطئه بزرگان انحصار مسلح باشد. سوری را در نظر بگیرید: واشنگتن و مسکو پس از استفاده از سلاح شیمیایی در سوریه در بهار امسال قطعنامه های یکدیگر را مسدود کردند. به هر حال گازهای خفه کننده و سایر مواد سمی برای اهداف نظامی قبلاً توسط کنوانسیون سلاح های غیرانسانی ممنوع شده بود.

جلسه بعدی در مورد سرنوشت ربات های قاتل در ماه نوامبر در ژنو برگزار می شود.

چرا آنها می خواهند سلاح های خودمختار را ممنوع کنند

طرفداران منع جنگ ربات ها اصرار دارند که میدان جنگ مکانی برای هوش مصنوعی نیست. به نظر آنها ، چنین فناوری هایی تهدیدی بزرگ محسوب می شوند. حداقل ، امروزه مشخص نیست که این دستگاه چگونه بین رزمندگان (کسانی که مستقیماً در درگیری ها شرکت دارند) از افراد غیر رزمنده (پرسنل خدمات ارتش که فقط می توانند از سلاح برای دفاع از خود استفاده کنند) و غیرنظامیان را از هم تفکیک کند. این احتمال وجود دارد که کار باعث کشته شدن مجروحان و کسانی که تسلیم می شوند شود ، که با قوانین جاری جنگ ممنوع است.

چه چیزی مانع از قطع کار همه طرفهای درگیری ، حتی دارندگان چنین سلاحهایی می شود؟ عناصر هوش مصنوعی در حال حاضر با موفقیت در تجهیزات نظامی ، موشک استفاده می شود. ربات ها برای شناسایی جذب می شوند ، اما حرف آخر هنوز هم انسانها هستند. سلاح های خودمختار از دستورات فرماندهان اطاعت نخواهند کرد - به همین دلیل آنها مستقل هستند. به همین دلیل است که ژنرال های نظامی از کشورهای مختلف در مورد ورود ماشین آلات به صف کارمندان بدبین هستند.

و یک سوال باز تروریسم بین المللی است. فناوری سلاح خودمختار می تواند به دست اشتباه افتاده و در نهایت هک شود. یک سال پیش ، ولادیمیر پوتین ، رئیس جمهور روسیه گفت که حاکم جهان کسی است که به رهبر توسعه هوش مصنوعی تبدیل خواهد شد.در مورد سلاح های خودمختار ، کسی که به چنین فناوری هایی دسترسی پیدا کند ، فرمانروای جهان خواهد شد. و برای این منظور ، در واقع ، شما فقط به یک کامپیوتر و یک طفره زن احتیاج دارید که از سیستم های امنیتی عبور کند. اتفاقاً پنتاگون بیش از یک بار هک شده است. در نتیجه ، هیچ کس نمی تواند تضمین کند که سلاح های خودمختار غیرقابل نفوذ خواهند ماند.

همچنین مشخص نیست که در صورت ارتکاب جنایت جنگی در نتیجه عملکرد سیستم تسلیحات مستقل ، چه کسی از نظر قانونی مسئول خواهد بود. مهندس ، برنامه ریز ، سازنده یا فرمانده ای که از این سلاح استفاده کرده است؟ اگر مسئولیت طبق قوانین بشردوستانه بین المللی قابل تعریف نباشد ، آیا استقرار چنین سیستم هایی می تواند قانونی یا اخلاقی باشد؟ . کمیته بین المللی صلیب سرخ یادداشت می کند.

جالب اینجاست که دانشمندان همچنین از ممنوعیت استفاده از ربات های رزمی دفاع کردند. در ژوئیه سال جاری ، بیش از دو هزار دانشمند ، به ویژه خالق تسلا و اسپیس ایکس الون ماسک و از بنیان گذاران DeepMind ، سندی را امضا کردند که آنها سلاح های خودکار کشنده تولید نمی کنند. گوگل نیز همین کار را کرد. این غول فناوری کار در پروژه Maven پنتاگون را رها کرده است. و در سال 2017 ، تعدادی از دانشمندان قبلاً از سازمان ملل متحد خواستند که ایجاد روبات های قاتل را ممنوع کند.

اتفاقاً ، موضوع هوش مصنوعی در جنگ در اواخر سال 2013 در دستور کار سازمان ملل متحد قرار گرفت ، اما از آن زمان عملا هیچ تغییری نکرده است. فقط در این سال جلسات تخصصی در قالب کنوانسیون سلاح های غیرانسانی آغاز شد. یعنی رسیدن به یک هواپیمای کمابیش عملی بیش از چهار سال طول کشید.

چرا آنها نمی خواهند سلاح های خودمختار را ممنوع کنند

مهم نیست که چقدر ساده لوحانه به نظر برسد ، مسابقه تسلیحاتی دلیل اصلی این است که آنها نمی خواهند ربات های قاتل را ممنوع کنند. پوتین حق دارد: هرکسی که اول سلاح خودمختار بدست آورد بر جهان تسلط خواهد یافت. رسماً ، این دلیل ابراز می شود.

بحث اصلی مخالفان این ممنوعیت عدم امکان تفکیک هوش مصنوعی غیرنظامی از ارتش است. ما چاقوهای آشپزخانه را منع نمی کنیم فقط به این دلیل که تروریست ها می توانند از آنها استفاده کنند. در واقع ، جدا کردن توسعه غیر نظامی هوش مصنوعی از ارتش عملاً غیرممکن است. اما اکنون ما در مورد ممنوعیت این سلاح صحبت می کنیم که قادر خواهد بود اهداف را به طور مستقل تعیین و حمله کند. این می تواند پروژه Maven باشد ، که وزارت دفاع ایالات متحده در رابطه با Booz Allen Hamilton در حال کار بر روی آن است (گوگل قرارداد را رد کرد).

توسعه دهندگان Maven می خواهند هواپیماهای بدون سرنشین را به تجزیه و تحلیل تصاویر ، به ویژه از ماهواره ها و - به طور بالقوه - اهداف حمله حمله کنند. پنتاگون کار در این پروژه را از آوریل 2017 آغاز کرد و امیدوار بود که تا پایان سال اولین الگوریتم های کار را بدست آورد. اما از طریق مشکلات کارمندان Google ، این توسعه به تأخیر افتاد. طبق گفته Gizmodo ، از ژوئن سال جاری ، این سیستم می تواند بین اشیا element ابتدایی - اتومبیل ، مردم تفاوت بگذارد ، اما در شرایط دشوار کاملاً ناچیز به نظر می رسد. اگر با این وجود ممنوعیت سلاح های خودمختار در سطح سازمان ملل تصویب شود ، این پروژه باید منتفی شود ، در حالی که پنتاگون ادعا می کند که توسعه آنها می تواند جان انسان ها را نجات دهد ، زیرا می توان آن را برنامه ریزی کرد تا در مقایسه با مردم با دقت و اطمینان بیشتری کار کند.

در آستانه نشست در ژنو در وزارت خارجه روسیه خاطرنشان کرد: "شما باید درک کنید که ما در مورد فناوری صحبت می کنیم ، این فناوری نمونه هایی ندارد که بتوانند کار کنند. ایده چنین سیستم هایی هنوز بسیار سطحی است." - از نظر ما ، قوانین بین المللی ، به ویژه بخش بشردوستانه ، می توانند در مورد سلاح های خودمختار اعمال شوند. آنها نیازی به نوسازی یا سازگاری با سیستمهایی ندارند که هنوز وجود ندارند."

خوب ، و یک دلیل واقعی ، اما ابراز نشده ، دلیل پول است. امروزه بازار فناوری های هوش مصنوعی نظامی بیش از شش میلیارد دلار تخمین زده شده است. اما طبق گفته تحلیلگران شرکت آمریکایی MarketsandMarkets ، تا سال 2025 این رقم سه برابر خواهد شد - تقریباً 19 میلیارد.برای بزرگترین صادرکنندگان اسلحه ، این انگیزه خوبی برای جلوگیری از هرگونه محدودیت در توسعه روباتهای قاتل است.

نمی توان جلوی پیشرفت را گرفت

طرفداران ممنوعیت استفاده از سلاح های خودمختار خاطرنشان می کنند که فناوری بسیار سریع در حال توسعه است و هوش مصنوعی سرانجام به سلاحی تبدیل می شود - مسئله ای زمان بر است. در سخنان آنها منطق وجود دارد. هوش مصنوعی بخشی جدایی ناپذیر از چهارمین انقلاب علمی و فناوری است که اکنون نیز ادامه دارد. باید در نظر داشت که پیشرفت فنی به نوعی با عملیات نظامی همراه است. سومین انقلاب علمی و فناوری تا اواسط دهه 50 قرن بیستم ادامه داشت ، یعنی اوج آن در دوره جنگ جهانی دوم بود.

در سال 1949 ، ژنو کنوانسیون حمایت از افراد غیرنظامی را در زمان جنگ تصویب کرد. در دوره پس از جنگ ، آنها همچنین كنوانسیون IV لاهه 1907 را كه مقررات مربوط به جنگ را تعیین می كرد ، تكمیل كردند. یعنی وحشت های جنگ جهانی دوم کاتالیزور این روند شد. بنابراین ، مدافعان حقوق بشر نمی خواهند منتظر جنگ جهانی سوم باشند تا بشریت را از سلاح های خودمختار محافظت کنند. آنها تأکید می کنند که تصمیم گیری در مورد سرنوشت ربات های قاتل اکنون ضروری است.

به گفته کارشناسان دیده بان حقوق بشر ، استفاده از روبات های رزمی با اعلامیه مارتنز - مقدمه کنوانسیون 1899 لاهه در مورد قوانین و آداب و رسوم جنگ در تضاد است. به عبارت دیگر ، روبات های قاتل قوانین بشریت و الزامات آگاهی عمومی را نقض می کنند (موقعیت در کنوانسیون IV لاهه تأیید شد).

بانی دوهرتی ، محقق ارشد در بخش اسلحه در دیده بان حقوق بشر ، گفت: ما باید با هم كار كنیم تا ممنوعیت پیشگیرانه این سیستم های تسلیحاتی قبل از گسترش آنها در سراسر جهان اعمال شود.

خوب ، این بار ممنوعیت ربات های قاتل کار نکرد. به طور قابل پیش بینی جلسات ماه نوامبر نیز بی نتیجه خواهد بود. درست است ، تقریباً همه کشورها موافق هستند - نمی توان اجازه داد این فناوری از طریق نیروی جاذبه جریان یابد و ربات های رزمی به چنین جرثقیل ایستگاهی احتیاج دارند. اما هنوز مشخص نیست که آیا بشریت وقت نیاز به کشیدن آن خواهد داشت یا خیر.

توصیه شده: