رسول اکرم (ص‌): کمال عقل پس از ایمان به خدا، مدارا کردن با مردم است
یادداشت؛

جنگ هوشمند؛ چالش‌ها و تهدیدها

هوش مصنوعی (AI) در صنعت نظامی، با وجود پتانسیل‌های بی‌نظیر برای افزایش کارایی، دقت و کاهش تلفات انسانی، مجموعه‌ای از چالش‌ها و تهدیدات پیچیده و عمیق را نیز به همراه دارد.

به گزارش خبرنگار گروه اجتماعی پایگاه خبری تحلیلی «دیار آفتاب» حسین معافی مدرس دانشگاه و پژوهشگر هوش مصنوعی در یادداشتی نوشت: توسعه و به‌کارگیری فزاینده هوش مصنوعی (AI) در صنعت نظامی، با وجود پتانسیل‌های بی‌نظیر برای افزایش کارایی، دقت و کاهش تلفات انسانی، مجموعه‌ای از چالش‌ها و تهدیدات پیچیده و عمیق را نیز به همراه دارد. این چالش‌ها نه تنها ابعاد فنی و عملیاتی دارند، بلکه مسائل اخلاقی، حقوقی، استراتژیک و اجتماعی گسترده‌ای را نیز مطرح می‌کنند که نیازمند توجه و مدیریت دقیق هستند.

یکی از بزرگترین چالش‌های فنی در به‌کارگیری هوش مصنوعی در سامانه‌های نظامی، مسئله قابلیت اطمینان و شفافیت است. سامانه‌های هوش مصنوعی، به‌ویژه آنهایی که بر پایه یادگیری عمیق (Deep Learning) هستند، اغلب به‌عنوان «جعبه سیاه» عمل می‌کنند؛ به این معنی که فرآیند تصمیم‌گیری آن‌ها برای انسان قابل درک نیست. یک سامانه هوش مصنوعی ممکن است بر اساس داده‌های آموزشی ناقص یا مغرضانه، تصمیمات اشتباهی بگیرد که منجر به شناسایی نادرست اهداف، حمله به غیرنظامیان یا تشدید غیرضروری درگیری شود. خطاهای نرم‌افزاری، آسیب‌پذیری‌های سایبری و عدم توانایی در سازگاری با شرایط جدید می‌توانند به از کار افتادن یا عملکرد نامطلوب این سامانه‌ها منجر شوند.

سامانه‌های نظامی مبتنی بر هوش مصنوعی، مانند هر سیستم دیجیتالی دیگری، در برابر حملات سایبری آسیب‌پذیر هستند. هک کردن، دستکاری داده‌ها، و تزریق اطلاعات غلط به سامانه‌های هوش مصنوعی می‌تواند منجر به تصمیم‌گیری‌های نادرست، از کار افتادن سیستم و حتی استفاده از این سلاح‌ها علیه خودی شود. تصور کنید یک سیستم شناسایی هدف با تغییرات نامحسوس در تصویر، نتواند یک تانک دشمن را تشخیص دهد یا برعکس، یک وسیله نقلیه غیرنظامی را به عنوان هدف نظامی شناسایی کند. علاوه بر این، وابستگی فزاینده به داده‌ها برای آموزش و عملکرد هوش مصنوعی، خطر دستکاری یا آلودگی داده‌ها را افزایش می‌دهد که می‌تواند به طور سیستماتیک عملکرد این سامانه‌ها را تضعیف کند.

یکی از حادترین چالش‌های هوش مصنوعی در صنعت نظامی، مسئله تصمیم‌گیری خودکار و مسئولیت‌پذیری است. توسعه سلاح‌های خودکار قادرند بدون دخالت مستقیم انسان، اهداف را شناسایی، انتخاب و به آن‌ها حمله کنند، سوالات اخلاقی و حقوقی عمیقی را مطرح می‌کند. اگر یک سامانه هوش مصنوعی تصمیمی منجر به تلفات غیرنظامی بگیرد، چه کسی مسئول است؟ آیا برنامه نویس، سازنده، فرمانده یا خود ماشین؟ قوانین جنگ بر مبنای مسئولیت انسانی و تمایز قائل شدن بین رزمندگان و غیرنظامیان بنا شده‌اند.  

سرعت بالا و توانایی تصمیم‌گیری لحظه‌ای سامانه‌های هوش مصنوعی می‌تواند زمان واکنش را در میدان نبرد به شدت کاهش دهد و حتی به سناریوی جنگ‌های فلاش (Flash Wars) منجر شود؛ جایی که درگیری‌ها در کسری از ثانیه آغاز و تشدید می‌شوند و انسان‌ها فرصت کافی برای کنترل یا توقف آن را ندارند. کشورها برای جلوگیری از عقب ماندن از رقبای خود، به سرمایه‌گذاری‌های عظیم در این فناوری روی می‌آورند که این امر نه تنها منابع را تحلیل می‌برد، بلکه خطر گسترش این فناوری‌ها به بازیگران غیردولتی و افزایش بی‌ثباتی جهانی را نیز در پی دارد. کنترل تسلیحات مبتنی بر هوش مصنوعی به مراتب دشوارتر از کنترل تسلیحات هسته‌ای است، زیرا این فناوری از نوع دو منظوره است و هم کاربردهای نظامی و هم غیرنظامی دارد.

با افزایش اتکا به هوش مصنوعی در تصمیم‌گیری‌های نظامی، نقش انسان به تدریج از یک عامل تصمیم‌گیرنده فعال به یک ناظر یا حتی یک پشتیبان منفعل تبدیل می‌شود. این کاهش «کنترل معنادار انسانی» بر سامانه‌های تسلیحاتی، می‌تواند منجر به افزایش بی‌تفاوتی نسبت به پیامدهای جنگ شود، زیرا انسان‌ها مستقیماً درگیر فرآیند تصمیم‌گیری برای کشتن نیستند. علاوه بر این، ممکن است هوش مصنوعی در شرایطی که برای آن طراحی نشده، تصمیماتی بگیرد که پیامدهای غیرقابل پیش‌بینی و فاجعه‌باری داشته باشد. این می‌تواند شامل تشدید غیرعمدی درگیری‌ها، حملات به اهداف اشتباه، یا حتی از کنترل خارج شدن سیستم‌ها باشد. بدون چنین چارچوب‌هایی، بشریت در معرض ریسک‌های فزاینده‌ای قرار خواهد گرفت که می‌تواند امنیت و ثبات جهانی را به خطر اندازد.

جوامع بین المللی باید در اسرع وقت قوانین متقن و بازدارنده‌ای در خصوص استفاده از هوش مصنوعی در صنعت نظامی را تدوین و اجرایی نمایند تا شاهد فجایع و کشتار کودکان و انسان‌های بی‌گناه در جنگ‌ها نباشیم.

1404-03-29 10:24 شماره خبر : 14181

درباره نویسنده

اخبار مرتبط:
نظرات:
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.

هنوز نظری ثبت نشده است. شما اولین نفری باشید که نظر می‌گذارید!

تمامی حقوق مادی و معنوی، برای پایگاه خبری تحلیلی «دیار آفتاب» محفوظ می باشد.