- 5 november, 2023
- Posted by: Nasim Sahar
- Category: Affe Artiklar, Affiliate 2, Okategoriserade
در پاییز سال 2023، کمپانی بزرگ سوئدی ساب با خرید دو شرکتی که از هوش مصنوعی در سیستمهای نظامی استفاده میکنند، و همچنین سرمایهگذاری در یک شرکت سوم هوش مصنوعی، قدمهای جسورانهای را برای تغییر چهره جنگهای آینده برداشت.
یکی از این شرکتهای جدید ساب، به توسعه اسرار خودمختار پهپادی میپردازد. این فناوری شامل خوشههایی از پهپادها است که میتوانند در هوا، زمین یا آب، به صورت خودکار ارتباط برقرار کرده، اهداف را شناسایی کنند و سپس به دستور حمله کنند. این پیشرفتها میتوانند چالشهای جدیدی را در زمینه دفاع مطرح کنند.
یکی از این شرکتهای جدید ساب، به توسعه اسرار خودمختار پهپادی میپردازد. این فناوری شامل خوشههایی از پهپادها است که میتوانند در هوا، زمین یا آب، به صورت خودکار ارتباط برقرار کرده، اهداف را شناسایی کنند و سپس به دستور حمله کنند. این پیشرفتها میتوانند چالشهای جدیدی را در زمینه دفاع مطرح کنند.
با این حال، استفاده از هوش مصنوعی در سیستمهای نظامی و به خصوص پهپادهای خودکار، موضوعی است که نقد شدیدی را به همراه دارد. مخالفان، این تکنولوژیها را به عنوان ”روباتهای قاتل” میشناسند – ماشینهایی که بدون دخالت انسانی تصمیم به کشتار میگیرند. سازمان ملل در مورد ممنوعیت استفاده از این تکنولوژیها بحث کرده است، و پتر بدواهر از شرکت ساب معتقد است که این بحثها مفید هستند.
بی شک، استفاده از تسلیحات خودکار و هوش مصنوعی در عرصهی نظامی، موضوعی است که میتواند منجر به تغییرات بنیادین در چگونگی انجام جنگها و همچنین تعاملات بینالمللی شود. تصمیمگیریهایی که پیشتر توسط انسانها انجام میشد، اکنون ممکن است به دستگاههایی سپرده شود که بر پایه الگوریتمها عمل میکنند. این امر سوالات بسیاری را در زمینهی مسئولیتپذیری ایجاد میکند: در صورت بروز خطا و یا خسارات جانبی، چه کسی پاسخگو خواهد بود؟
رقابت بین قدرتهای جهانی مانند ایالات متحده آمریکا، روسیه و چین برای کسب برتری در زمینه تسلیحات خودکار و هوش مصنوعی، میتواند تاثیرات عمیق و گستردهای بر تعادل قدرت جهانی داشته باشد.
با وجود تسلیحات خودکار، مفهوم سنتی جنگ و دفاع ممکن است کاملاً دگرگون شود. این تکنولوژیها میتوانند مرزهای بین جنگ نظامی و سایبری را مبهم کنند و حتی ممکن است به ایجاد سناریوهای جنگی کاملاً جدید بینجامند که قوانین و مقررات موجود قادر به مواجهه با آنها نیستند.
با وجود سیستمهای خودکار، احتمال بروز خطاهایی که میتواند منجر به درگیریهای نظامی ناخواسته شود، افزایش مییابد. این مسئله بهویژه در مناطق پرتنش جهانی که در آنها کشورهای مختلف با تکنولوژیهای متفاوتی حضور دارند، بسیار خطرناک است. ”این دنیایی است که در آن خطاهای الگوریتمی غیرقابل اجتناب که حتی غولهای فناوری مانند آمازون و گوگل را نیز درگیر میکند، اکنون میتواند منجر به نابودی شهرهای کامل شود،” پروفسور جیمز داوز از کالج مکآلستر هشدار میدهد.
رقابت در توسعه تسلیحات خودکار میتواند تلاشها برای نظارت و محدودسازی انتشار تسلیحات کشتار جمعی را پیچیدهتر سازد. این امر به خصوص در زمانی حائز اهمیت است که نهادهای بینالمللی مانند سازمان ملل متحد در تلاش برای برقراری اجماع جهانی در مورد محدودیتهای تسلیحاتی هستند. اگر سلاحهای هوش مصنوعی در آینده با کلاهکهای بیولوژیکی، شیمیایی یا حتی هستهای مسلح شوند، نتایج میتواند آرماگدون غیرعمدی باشد.
بنابراین، در حالی که رقابت برای توسعه تسلیحات خودکار و هوش مصنوعی میتواند برای برخی کشورها به عنوان یک مزیت استراتژیک تلقی شود، این پیشرفتها میتواند تبعات بسیار جدی و پیچیدهای برای نظم جهانی، امنیت و اخلاق بشری داشته باشد. جهان نباید اشتباهات فاجعهبار مسابقه تسلیحاتی هستهای را تکرار کند. نباید به دیستوپیا خوابزده بشود.
Lämna ett svar
Du måste vara inloggad för att publicera en kommentar.