ماشین های مرگبار هوش مصنوعی منطق جنگ را بازنویسی می کند

ماشین های مرگبار هوش مصنوعی منطق جنگ را بازنویسی می کند

به گزارش گردو دانلود، در نگاه نخست، ایده ماشین هایی که بتوانند همانند یک سرباز انسانی بجنگند، تصمیم بگیرند و شلیک کنند، بیشتر از آن که ریشه در حقیقت داشته باشد، به قلمرو داستان های علمی تخیلی تعلق داشت.



به گزارش گردو دانلود به نقل از مهر، در عین حال، شتاب کم سابقه پیشرفت های هوش مصنوعی در عرصه هایی مانند بینایی ماشین، یادگیری عمیق و پردازش بلادرنگ داده های میدانی، این تصور را ظرف یک دهه گذشته بتدریج به واقعیتی عملیاتی نزدیک کرده است. در همین بستر، بازار مشخص و رو به رشدی برای «سامانه های تسلیحاتی خودمختار» پدید آمده؛ سامانه هائی که با تاکید بر الگوریتم های پیچیده، داده های حسگرها، پهپادها و شبکه های شناسایی را تحلیل کرده و قادر هستند با شناسایی و اولویت بندی اهداف بالقوه در شرایطی خاص بدون دخالت مستقیم انسان درگیر شوند.
این تحول، صرفا یک جهش فناورانه نیست، بلکه بیان کننده تغییر پارادایم در طراحی و به کارگیری قدرت نظامی شمرده می شود. دولت ها، مجذوب وعده رسیدن به برتری راهبردی، افزایش سرعت واکنش در میدان نبرد و هم زمان کاهش هزینه های انسانی و سیاسی جنگ، به سرعت به طرف این فناوری ها گرایش یافته اند و آنها را ابزاری بالقوه تعیین کننده در موازنه های آینده قدرت و حتی تعریف مجدد مفهوم بازدارندگی می دانند.

تغییر محاسبات جنگ و نتایج راهبردی


استقبال دولت ها از این تکنولوژی صرفا ناشی از پیشرفت فنی نیست. تسلیحات خودمختار مبتنی بر هوش مصنوعی، محاسبه دولت ها برای ورود به درگیری نظامی را هم دگرگون می کند. هنگامی که تصور شود می توان با تاکید بر ماشین ها و نه انسان ها جنگید، آستانه تصمیم برای توسل به زور کاهش پیدا می کند.
این تحول، باآنکه ممکنست از نظر برخی سیاست گذاران جذاب به نظر برسد، اما در عمل خطر نرمال سازی خشونت و گسترش درگیری های کم هزینه اما مداوم را بهمراه دارد. به همین دلیل، خیلی از تحلیل گران این فناوری ها را نه فقط ابزار نظامی، بلکه عامل تغییر ماهیت جنگ های مدرن می دانند.

مسئولیت اخلاقی در عصر الگوریتم ها


یکی از جدی ترین چالش های تسلیحات خودمختار، مساله مسئولیت در تصمیم های مرگ و زندگی است. برعکس تصور رایج، حتی در پیشرفته ترین سامانه ها هم هنوز انسان نقش نهائی را در شلیک ایفا می کند. در عین حال، هنگامی که سامانه گرفتار خطا می شود، تعیین مسئول حقیقی به مساله ای پیچیده تبدیل می گردد.
تجربه های گزارش شده نشان میدهد که به طور معمول فردی که آخرین تصمیم عملیاتی را گرفته، مسئول نتایج شناخته می شود؛ حتی اگر اطلاعات عرضه شده از طرف سامانه نادرست یا ناقص بوده باشد. این وضعیت، عدم توازن قدرت در زنجیره فرماندهی را تشدید کرده و عملا سطوح بالاتر را از پاسخ گویی مصون می سازد.
منتقدان این فناوری ها اخطار می دهند که هوش مصنوعی، ذاتاً قادر به درک ارزش اخلاقی جان انسان نیست. در منطق الگوریتمی، افراد به نقاطی در یک شبکه داده تقلیل می یابند که باید با سرعت و کارآمدی حذف شوند. چنین رویکردی، باآنکه ممکنست پروسه تصمیم گیری نظامی را تسریع کند، اما ظرایف انسانی میدان نبرد را نادیده می گیرد. انسان می تواند در لحظه ای بحرانی تشخیص دهد که ادامه یک اقدام مرزهای انسانیت را نقض می کند و این توانایی در سامانه های خودمختار تعریف نشده است. از همین روی، واگذاری اختیار بیشتر به این فناوری ها، به معنای واگذاری قسمتی از مسئولیت اخلاقی جنگ به ماشین است.

رقابت ژئوپلیتیکی و منطق مسابقه تسلیحاتی


با وجود مجموعه گسترده ای از دغدغه های اخلاقی، حقوقی و انسانی، تقاضا برای تسلیحات خودمختار مبتنی بر هوش مصنوعی نه فقط متوقف نشده، بلکه با شتابی فزاینده درحال گسترش است. قدرت های بزرگ نظامی، با درک این فناوری ها بعنوان یکی از مؤلفه های تعیین کننده جنگ های آینده، نگران آن هستند که هرگونه تعلل در سرمایه گذاری یا استقرار عملیاتی، به عقب ماندن راهبردی از رقبا منجر شود.
از همین روی، منابع مالی، نهادی و پژوهشی قابل توجهی به ادغام سامانه های هوشمند در چارچوب های تسلیحاتی موجود اختصاص یافته است. در ایالات متحده، این روند بطور مستقیم با حساسیت فزاینده نسبت به پیشرفت های چین در عرصه نظامی هوش مصنوعی گره خورده و بتدریج رنگ وبوی یک رقابت تسلیحاتی نوین و فناورانه به خود گرفته است؛ رقابتی که نه فقط بر سر تعداد یا قدرت تخریبی تسلیحات، بلکه بر سر سرعت پردازش، کیفیت الگوریتم ها و برتری تصمیم سازی ماشینی شکل می گیرد. در چنین فضایی، سیاستگذاری محتاطانه و مبتنی بر ملاحظات اخلاقی به امری دشوار و حتی پرهزینه تبدیل می شود و منطق بازدارندگی فناورانه، که بر پیشی گرفتن از رقیب به هر قیمت تاکید دارد، بتدریج جایگزین خویشتن داری و مسئولیت پذیری اخلاقی در عرصه نظامی می شود.
بسیاری از دولت ها تاکید می کنند که در استفاده از این تسلیحات، همواره «کنترل انسانی» حفظ خواهد شد. در عین حال، شواهد موجود نشان میدهد که این اصل در عمل همیشه رعایت نمی گردد. در همین جهت، شتاب برای بهره برداری از مزیت های نظامی، اغلب بر لزوم تدوین قواعد شفاف غلبه می کند. نتیجه آنست که هنجارهای بین المللی قبل از آن که تثبیت گردند، توسط حقیقت های میدانی کنار زده می شوند. این شکاف میان گفتار رسمی و رفتار عملی، خطر استفاده بی مهابا از این تکنولوژی ها را زیاد می کند.

ضرورت تنظیم گری و همکاری چندجانبه


در چنین شرایطی، تسلیحات خودمختار مبتنی بر هوش مصنوعی به یکی از کانونی ترین و مناقشه برانگیزترین محورهای بحث درباره ی آینده جنگ و امنیت بین المللی تبدیل گشته اند. ابهام عمیق درباب مسئولیت پذیری حقوقی و اخلاقی این سامانه ها، خصوصاً در مواقعی که تصمیم های مرگ بار بر اساس پردازش های الگوریتمی اتخاذ می شود، در کنار جذابیت راهبردی آنها برای افزایش سرعت، دقت و برتری عملیاتی، سیاست گذاران را در وضعیتی دوگانه و بعضاً متناقض قرار داده است.
از یک سو، دغدغه های انسانی، حقوق بشردوستانه و نگرانی از فرسایش معیارهای اخلاقی در جنگ، فشار قابل توجهی برای احتیاط و محدودسازی این فناوری ها بوجود می آورد و از طرفی، ملاحظات ژئوپلیتیکی، رقابت قدرت های بزرگ و ترس از عقب ماندن در یک رقابت فناورانه سرنوشت ساز، دولت ها را به سوی پذیرش و تسریع به کارگیری آنها سوق می دهد. این تعارض بنیادین نشان میدهد که در غیاب همکاری مؤثر چندجانبه و تدوین قواعد مشترک و مورد اجماع، نه فقط امکان مهار نتایج منفی این فناوری ها کم می شود، بلکه خطر تشکیل نظمی ناپایدار و پرتنش در حوزه امنیت جهانی هم به شکل جدی افزایش خواهد یافت.

معاهده ای برای مهار ماشین های جنگی


در واکنش به این وضعیت، سازمان های مدنی، نهادهای حقوق بشری و قسمتی از نهادهای جهانی به صورت درحال افزایشی خواهان تدوین یک معاهده جهانی اجبار آور شده اند که توسعه، استقرار و به کارگیری تسلیحات خودمختار مبتنی بر هوش مصنوعی را در چهارچوب قواعد روشن حقوقی و اخلاقی قرار دهد. این تلاش ها از این درک مشترک نشأت می گیرد که خلأ مقرراتی موجود، می تواند به نرمال سازی استفاده از سامانه هائی بینجامد و تصمیم به اعمال خشونت را به فرآیندهای الگوریتمی واگذار می کنند.
چنین توافقی در صورت تحقق، می تواند دولت ها را ملزم سازد که اصل «کنترل معنادار انسانی» را نه صرفا در سطح شعار بلکه در تمام چرخه طراحی، آزمایش و استفاده عملیاتی این تسلیحات رعایت نمایند و هم زمان، توسعه سامانه هائی با سطح بالای استقلال عملیاتی و فقدان امکان مداخله انسانی مؤثر را محدود یا ممنوع سازد. همچنین، هدف اصلی این ابتکارها، توقف یا انکار پیشرفت فناوری نیست، بلکه مهار نتایج انسانی و اخلاقی آن و پیشگیری از تبدیل هوش مصنوعی به عاملی بی ضابطه در کشتار سازمان یافته بشمار می رود.
با وجود همه نگرانی های ذکر شده، بالاخره، آینده جنگ های مدرن بالاتر از هر زمان دیگری به تصمیم هایی گره خورده است که امروز درباره ی مرز اختیارات ماشین، جایگاه قضاوت انسانی و چارچوب مسئولیت اخلاقی و حقوقی اتخاذ می شود و در مقطع کنونی، قدرت های نظامی بزرگ جهان، توجه چندانی به اصول اخلاقی مطرح شده از طرف مخالفان توسعه ماشین های کشتار ندارند. بطور خلاصه، در همین بستر، بازار مشخص و رو به رشدی برای سامانه های تسلیحاتی خودمختار پدید آمده؛ سامانه هائی که با تأکید بر الگوریتم های پیچیده، داده های حسگرها، پهپادها و شبکه های شناسایی را تحلیل کرده و قادر هستند با شناسایی و اولویت بندی اهداف بالقوه در شرایطی خاص بدون دخالت مستقیم انسان درگیر شوند. در چنین فضایی، سیاست گذاری محتاطانه و مبتنی بر ملاحظات اخلاقی به امری دشوار و حتی پرهزینه تبدیل می شود و منطق بازدارندگی فناورانه، که بر پیشی گرفتن از رقیب به هر قیمت تأکید دارد، رفته رفته جایگزین خویشتن داری و مسئولیت پذیری اخلاقی در زمینه نظامی می شود. چنین توافقی در صورت تحقق، می تواند دولت ها را ملزم سازد که اصل کنترل معنادار انسانی را نه فقط در سطح شعار بلکه در تمام چرخه طراحی، آزمایش و استفاده عملیاتی این تسلیحات رعایت نمایند و هم زمان، توسعه سامانه هائی با سطح بالای استقلال عملیاتی و فقدان امکان مداخله انسانی مؤثر را محدود یا ممنوع سازد.
1404/11/19
10:32:23
5.0 / 5
10
تگهای خبر: الگوریتم , تكنولوژی , طراحی , عكس
این مطلب را می پسندید؟
(1)
(0)
X

تازه ترین مطالب مرتبط
عقیده کاربران گردو دانلود در مورد این مطلب
لطفا شما هم نظر دهید
= ۹ بعلاوه ۳
پربیننده ترین ها

پربحث ترین ها

جدیدترین ها

گردو دانلود