پنتاگون اصول اخلاقی برای استفاده از هوش مصنوعی را تصویب کرد

وزارت دفاع آمریکا بطور رسمی اصول اخلاقی مرتبط با کاربرد هوش مصنوعی در ساخت تسلیحات را به تصویب رساند.
Sputnik

به گزارش اسپوتنیک با استناد به گزارش وزارت دفاع آمریکا، پنتاگون اصول اخلاقی برای سرعت بخشیدن به استفاده از هوش مصنوعی و فن آوری در میدان جنگ را به تصویب رساند.

این توصیه به مارک اسپر وزیردفاع آمریکا در پاییز سال 2019 پس از 15 ماه دوره طراحی اصول اخلاقی ماشین رزمی ارسال شد.

امکان اینکه هوش مصنوعی در آینده نزدیک بطور مستقل بتواند وظایف جنگی را به انجام برساند  بحث های داغ و انتقادات شدیدی را خطاب به نظامیان در آمریکا و فراسوی آن کشور برانگیخته است.

پنتاگون: قصد استقرار تسلیحات هسته‌ای در اروپا را نداریم

وزیر دفاع آمریکا در این خصوص گفت:«آمریکا همراه با متحدان و شرکای خود باید به استفاده از هوش مصنوعی  در جنگ سرعت بخشد و در استفاده از آن برای دفاع از امنیت ملی به برتری جهانی برسد تا بتوانیم موضع استراتژیکی خود را حفظ کنیم و از نظم جهانی حفاظت کنیم».

به گفته وی تکنولوژی نباید بر رفتار مسئولانه و قانونی نظامیان تأثیر بگذارد. اکنون پنتاگون 5 اصل مهم را در نظر خواهد گرفت. هوش مصنوعی باید مسئول،قابل فهم، قابل اطمینان و قابل هدایت و متناسب باشد.

اصول کاربرد هوش مصنوعی در جنگ توسط مرکز کارشناسی پنتاگون طراحی می شود که علاوه بر نظر نظامیان و کارمندان، عقاید کارشناسان فنی نیز مورد توجه قرار می گیرد.

بحث و گفتگو