بازی اندروید

ماشین های مرگبار هوش مصنوعی منطق جنگ را بازنویسی می کند

ماشین های مرگبار هوش مصنوعی منطق جنگ را بازنویسی می کند

به گزارش بازی اندروید، در نگاه نخست، ایده ماشین هایی که بتوانند همانند یک سرباز انسانی بجنگند، تصمیم بگیرند و شلیک کنند، بیشتر از آن که ریشه در حقیقت داشته باشد، به قلمرو داستان های علمی تخیلی تعلق داشت.



به گزارش بازی اندروید به نقل از مهر، در عین حال، شتاب کم سابقه پیشرفت های هوش مصنوعی در عرصه هایی مانند بینایی ماشین، یادگیری عمیق و پردازش بلادرنگ داده های میدانی، این تصور را طی یک دهه گذشته بتدریج به واقعیتی عملیاتی نزدیک کرده است. در همین بستر، بازار مشخص و رو به رشدی برای «سامانه های تسلیحاتی خودمختار» پدید آمده؛ سیستمهایی که با تأکید بر الگوریتم های پیچیده، داده های حسگرها، پهپادها و شبکه های شناسایی را تحلیل کرده و قادر هستند با شناسایی و اولویت بندی اهداف بالقوه در شرایطی خاص بدون دخالت مستقیم انسان درگیر شوند.
این تحول، فقط یک جهش فناورانه نیست، بلکه مبین تغییر پارادایم در طراحی و به کارگیری قدرت نظامی شمرده می شود. دولت ها، مجذوب وعده دستیافتن به برتری راهبردی، افزایش سرعت واکنش در میدان نبرد و هم زمان کاهش هزینه های انسانی و سیاسی جنگ، به سرعت به سمت این فناوری ها گرایش یافته اند و آنها را ابزاری بالقوه تعیین کننده در موازنه های آینده قدرت و حتی تعریف مجدد مفهوم بازدارندگی می دانند.

تغییر محاسبات جنگ و نتایج راهبردی


استقبال دولت ها از این فنآوری فقط ناشی از پیشرفت فنی نیست. تسلیحات خودمختار مبتنی بر هوش مصنوعی، محاسبه دولت ها برای ورود به درگیری نظامی را هم دگرگون می کند. هنگامی که تصور شود می توان با تأکید بر ماشین ها و نه انسان ها جنگید، آستانه تصمیم برای توسل به زور کاهش پیدا می کند.
این تحول، بااینکه ممکنست از منظر برخی سیاست گذاران جذاب به نظر برسد، اما در عمل خطر نرمال سازی خشونت و گسترش درگیری های کم هزینه اما مداوم را بهمراه دارد. به همین دلیل، خیلی از تحلیل گران این فناوری ها را نه فقط ابزار نظامی، بلکه عامل تغییر ماهیت جنگ های مدرن می دانند.

مسئولیت اخلاقی در عصر الگوریتم ها


یکی از جدی ترین چالش های تسلیحات خودمختار، مسئله مسئولیت در تصمیم های مرگ و زندگی است. بر خلاف تصور رایج، حتی در پیشرفته ترین سامانه ها هم هنوز انسان نقش غائی را در شلیک ایفا می کند. در عین حال، هنگامی که سامانه گرفتار خطا می شود، تعیین مسئول واقعی به مسئله ای پیچیده تبدیل می گردد.
تجربه های گزارش شده نشان میدهد که به طور معمول فردی که آخرین تصمیم عملیاتی را گرفته، مسئول نتایج شناخته می شود؛ حتی اگر اطلاعات ارایه شده از جانب سامانه نادرست یا ناقص بوده باشد. این وضعیت، عدم توازن قدرت در زنجیره فرماندهی را تشدید کرده و در عمل سطوح بالاتر را از پاسخ گویی مصون می سازد.
منتقدان این فناوری ها هشدار می دهند که هوش مصنوعی، ذاتاً قادر به درک ارزش اخلاقی جان انسان نیست. در منطق الگوریتمی، افراد به نقاطی در یک شبکه داده تقلیل می یابند که باید با سرعت و کارآمدی حذف شوند. چنین رویکردی، بااینکه ممکنست فرایند تصمیم گیری نظامی را تسریع کند، اما ظرایف انسانی میدان نبرد را نادیده می گیرد. انسان می تواند در لحظه ای بحرانی تشخیص دهد که ادامه یک اقدام مرزهای انسانیت را نقض می کند و این توانایی در سامانه های خودمختار تعریف نشده است. از همین روی، واگذاری اختیار بیشتر به این فناوری ها، به معنای واگذاری قسمتی از مسئولیت اخلاقی جنگ به ماشین است.

رقابت ژئوپلیتیکی و منطق مسابقه تسلیحاتی


با وجود مجموعه گسترده ای از دغدغه های اخلاقی، حقوقی و انسانی، تقاضا برای تسلیحات خودمختار مبتنی بر هوش مصنوعی نه فقط متوقف نشده، بلکه با شتابی فزاینده درحال گسترش است. قدرت های بزرگ نظامی، با درک این فناوری ها بعنوان یکی از مؤلفه های تعیین کننده جنگ های آینده، نگران آن هستند که هرگونه تعلل در سرمایه گذاری یا استقرار عملیاتی، به عقب ماندن راهبردی از رقبا منجر شود.
از همین روی، منابع مالی، نهادی و پژوهشی قابل توجهی به ادغام سامانه های هوشمند در چارچوب های تسلیحاتی موجود اختصاص یافته است. در ایالات متحده، این روند به صورت مستقیم با حساسیت فزاینده نسبت به پیشرفت های چین در عرصه نظامی هوش مصنوعی گره خورده و بتدریج رنگ وبوی یک رقابت تسلیحاتی نوین و فناورانه به خود گرفته است؛ رقابتی که نه فقط بر سر تعداد یا قدرت تخریبی تسلیحات، بلکه بر سر سرعت پردازش، کیفیت الگوریتم ها و برتری تصمیم سازی ماشینی شکل می گیرد. در چنین فضایی، سیاستگذاری محتاطانه و مبتنی بر ملاحظات اخلاقی به امری دشوار و حتی پرهزینه تبدیل می شود و منطق بازدارندگی فناورانه، که بر پیشی گرفتن از رقیب به هر قیمت تاکید دارد، بتدریج جایگزین خویشتن داری و مسئولیت پذیری اخلاقی در عرصه نظامی می شود.
بسیاری از دولت ها تاکید می کنند که در استفاده از این تسلیحات، همواره «کنترل انسانی» حفظ خواهد شد. در عین حال، شواهد موجود نشان میدهد که این اصل در عمل همیشه رعایت نمی گردد. در این راستا، شتاب برای بهره برداری از مزیت های نظامی، اغلب بر ضرورت تدوین قواعد شفاف غلبه می کند. نتیجه آن است که هنجارهای بین المللی قبل از آنکه تثبیت گردند، توسط حقیقت های میدانی کنار زده می شوند. این شکاف میان گفتار رسمی و رفتار عملی، خطر استفاده بی مهابا از این فنآوری ها را بیشتر می کند.

ضرورت تنظیم گری و همکاری چندجانبه


در چنین شرایطی، تسلیحات خودمختار مبتنی بر هوش مصنوعی به یکی از کانونی ترین و مناقشه برانگیزترین محورهای بحث در رابطه با آینده جنگ و امنیت بین المللی تبدیل گشته اند. ابهام عمیق درباب مسئولیت پذیری حقوقی و اخلاقی این سامانه ها، بخصوص در مواقعی که تصمیم های مرگ بار بر اساس پردازش های الگوریتمی اتخاذ می شود، در کنار جذابیت راهبردی آنها برای افزایش سرعت، دقت و برتری عملیاتی، سیاست گذاران را در وضعیتی دوگانه و بعضاً متناقض قرار داده است.
از یک سو، دغدغه های انسانی، حقوق بشردوستانه و نگرانی از فرسایش معیارهای اخلاقی در جنگ، فشار قابل توجهی برای احتیاط و محدودسازی این فناوری ها به وجود می آورد و از طرفی، ملاحظات ژئوپلیتیکی، رقابت قدرت های بزرگ و ترس از عقب ماندن در یک رقابت فناورانه سرنوشت ساز، دولت ها را بسمت پذیرش و تسریع به کارگیری آنها سوق می دهد. این تعارض بنیادین نشان میدهد که در غیاب همکاری مؤثر چندجانبه و تدوین قواعد مشترک و مورد اجماع، نه فقط امکان مهار نتایج منفی این فناوری ها کم می شود، بلکه خطر ایجاد نظمی ناپایدار و پرتنش در حوزه امنیت جهانی هم بطور جدی افزایش خواهد یافت.

معاهده ای برای مهار ماشین های جنگی


در واکنش به این وضعیت، سازمان های مدنی، نهادهای حقوق بشری و قسمتی از اجتماع بین المللی بشکل رو به ازدیادی خواهان تدوین یک معاهده جهانی الزام آور شده اند که توسعه، استقرار و به کارگیری تسلیحات خودمختار مبتنی بر هوش مصنوعی را در چهارچوب قواعد روشن حقوقی و اخلاقی قرار دهد. این تلاش ها از این درک مشترک نشأت می گیرد که خلأ مقرراتی موجود، می تواند به نرمال سازی استفاده از سیستمهایی بینجامد و تصمیم به اعمال خشونت را به فرآیندهای الگوریتمی واگذار می کنند.
چنین توافقی در صورت تحقق، می تواند دولت ها را ملزم سازد که اصل «کنترل معنادار انسانی» را نه فقط در سطح شعار بلکه در تمام چرخه طراحی، آزمایش و استفاده عملیاتی این تسلیحات رعایت نمایند و هم زمان، توسعه سیستمهایی با سطح بالای استقلال عملیاتی و فقدان امکان مداخله انسانی مؤثر را محدود یا ممنوع سازد. همچنین، هدف اصلی این ابتکارها، توقف یا انکار پیشرفت فناوری نیست، بلکه مهار نتایج انسانی و اخلاقی آن و پیشگیری از تبدیل هوش مصنوعی به عاملی بی ضابطه در کشتار سازمان یافته به حساب می آید.
با وجود همه نگرانی های ذکر شده، بالاخره، آینده جنگ های مدرن بیشتر از هر زمان دیگری به تصمیم هایی گره خورده است که امروز در رابطه با مرز اختیارات ماشین، جایگاه قضاوت انسانی و چارچوب مسئولیت اخلاقی و حقوقی اتخاذ می شود و در مقطع کنونی، قدرت های نظامی بزرگ جهان، توجه چندانی به اصول اخلاقی مطرح شده از جانب مخالفان توسعه ماشین های کشتار ندارند. حرف آخر اینکه در همین بستر، بازار مشخص و رو به رشدی برای سامانه های تسلیحاتی خودمختار پدید آمده؛ سیستمهایی که با تاکید بر الگوریتم های پیچیده، داده های حسگرها، پهپادها و شبکه های شناسایی را تحلیل کرده و قادر هستند با شناسایی و اولویت بندی اهداف بالقوه در شرایطی خاص بدون دخالت مستقیم انسان درگیر شوند. در چنین فضایی، سیاست گذاری محتاطانه و مبتنی بر ملاحظات اخلاقی به امری دشوار و حتی پرهزینه تبدیل می شود و منطق بازدارندگی فناورانه، که بر پیشی گرفتن از رقیب به هر قیمت تأکید دارد، به تدریج جایگزین خویشتن داری و مسئولیت پذیری اخلاقی در زمینه نظامی می شود. در این راستا، شتاب برای بهره برداری از مزیت های نظامی، اغلب بر لزوم تدوین قواعد شفاف غلبه می کند.


منبع:

1404/11/19
10:36:20
5.0 / 5
14
تگهای خبر: اطلاعات , الگوریتم , رقابت , سرمایه گذاری
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظر بینندگان بازی اندروید در مورد این مطلب
لطفا شما هم نظر دهید
= ۷ بعلاوه ۵
پربیننده ترین ها

پربحث ترین ها

جدیدترین ها

بازی اندروید