تسلیحات خودکار و هوش مصنوعی در نظام های نظامی: یک روند نگران کننده

در پاییز سال 2023، کمپانی بزرگ سوئدی ساب با خرید دو شرکتی که از هوش مصنوعی در سیستم‌های نظامی استفاده می‌کنند، و همچنین سرمایه‌گذاری در یک شرکت سوم هوش مصنوعی، قدم‌های جسورانه‌ای را برای تغییر چهره جنگ‌های آینده برداشت.

یکی از این شرکت‌های جدید ساب، به توسعه اسرار خودمختار پهپادی می‌پردازد. این فناوری شامل خوشه‌هایی از پهپادها است که می‌توانند در هوا، زمین یا آب، به صورت خودکار ارتباط برقرار کرده، اهداف را شناسایی کنند و سپس به دستور حمله کنند. این پیشرفت‌ها می‌توانند چالش‌های جدیدی را در زمینه دفاع مطرح کنند.

یکی از این شرکت‌های جدید ساب، به توسعه اسرار خودمختار پهپادی می‌پردازد. این فناوری شامل خوشه‌هایی از پهپادها است که می‌توانند در هوا، زمین یا آب، به صورت خودکار ارتباط برقرار کرده، اهداف را شناسایی کنند و سپس به دستور حمله کنند. این پیشرفت‌ها می‌توانند چالش‌های جدیدی را در زمینه دفاع مطرح کنند.

با این حال، استفاده از هوش مصنوعی در سیستم‌های نظامی و به خصوص پهپادهای خودکار، موضوعی است که نقد شدیدی را به همراه دارد. مخالفان، این تکنولوژی‌ها را به عنوان ”روبات‌های قاتل” می‌شناسند – ماشین‌هایی که بدون دخالت انسانی تصمیم به کشتار می‌گیرند. سازمان ملل در مورد ممنوعیت استفاده از این تکنولوژی‌ها بحث کرده است، و پتر بدواهر از شرکت ساب معتقد است که این بحث‌ها مفید هستند.

بی شک، استفاده از تسلیحات خودکار و هوش مصنوعی در عرصه‌ی نظامی، موضوعی است که می‌تواند منجر به تغییرات بنیادین در چگونگی انجام جنگ‌ها و همچنین تعاملات بین‌المللی شود. تصمیم‌گیری‌هایی که پیشتر توسط انسان‌ها انجام می‌شد، اکنون ممکن است به دستگاه‌هایی سپرده شود که بر پایه الگوریتم‌ها عمل می‌کنند. این امر سوالات بسیاری را در زمینه‌ی مسئولیت‌پذیری ایجاد می‌کند: در صورت بروز خطا و یا خسارات جانبی، چه کسی پاسخگو خواهد بود؟

 

قدرت‌های بزرگ میلیاردها دلار سرمایه‌گذاری می‌کنند تا سلاح‌های پیشرفته هوش مصنوعی را بسازند که بتوانند بدون هیچ ورودی از کنترل‌کنندگان، اهداف را شکار و ضربه بزنند.

 

رقابت بین قدرت‌های جهانی مانند ایالات متحده آمریکا، روسیه و چین برای کسب برتری در زمینه تسلیحات خودکار و هوش مصنوعی، می‌تواند تاثیرات عمیق و گسترده‌ای بر تعادل قدرت جهانی داشته باشد.

با وجود تسلیحات خودکار، مفهوم سنتی جنگ و دفاع ممکن است کاملاً دگرگون شود. این تکنولوژی‌ها می‌توانند مرزهای بین جنگ نظامی و سایبری را مبهم کنند و حتی ممکن است به ایجاد سناریوهای جنگی کاملاً جدید بینجامند که قوانین و مقررات موجود قادر به مواجهه با آنها نیستند.

 

در سال ۲۰۲۰ یک پهپاد کامیکازه ساخت ترکیه اولین کشتار خودکار جهان را بر روی اهداف انسانی در لیبی انجام داد، گزارشی از سازمان ملل متحد فاش کرد.

 

با وجود سیستم‌های خودکار، احتمال بروز خطاهایی که می‌تواند منجر به درگیری‌های نظامی ناخواسته شود، افزایش می‌یابد. این مسئله به‌ویژه در مناطق پرتنش جهانی که در آن‌ها کشورهای مختلف با تکنولوژی‌های متفاوتی حضور دارند، بسیار خطرناک است. ”این دنیایی است که در آن خطاهای الگوریتمی غیرقابل اجتناب که حتی غول‌های فناوری مانند آمازون و گوگل را نیز درگیر می‌کند، اکنون می‌تواند منجر به نابودی شهرهای کامل شود،” پروفسور جیمز داوز از کالج مک‌آلستر هشدار می‌دهد.

رقابت در توسعه تسلیحات خودکار می‌تواند تلاش‌ها برای نظارت و محدودسازی انتشار تسلیحات کشتار جمعی را پیچیده‌تر سازد. این امر به خصوص در زمانی حائز اهمیت است که نهادهای بین‌المللی مانند سازمان ملل متحد در تلاش برای برقراری اجماع جهانی در مورد محدودیت‌های تسلیحاتی هستند. اگر سلاح‌های هوش مصنوعی در آینده با کلاهک‌های بیولوژیکی، شیمیایی یا حتی هسته‌ای مسلح شوند، نتایج می‌تواند آرماگدون غیرعمدی باشد.

بنابراین، در حالی که رقابت برای توسعه تسلیحات خودکار و هوش مصنوعی می‌تواند برای برخی کشورها به عنوان یک مزیت استراتژیک تلقی شود، این پیشرفت‌ها می‌تواند تبعات بسیار جدی و پیچیده‌ای برای نظم جهانی، امنیت و اخلاق بشری داشته باشد. جهان نباید اشتباهات فاجعه‌بار مسابقه تسلیحاتی هسته‌ای را تکرار کند. نباید به دیستوپیا خواب‌زده بشود.



Lämna ett svar