پنتاگون اصول اخلاقی برای استفاده از هوش مصنوعی را تصویب کرد

CC BY-SA 2.0 / Rudi Riet / The Pentagon پنتاگون اصول اخلاقی برای استفاده از هوش مصنوعی را اتخاذ کرد
 پنتاگون اصول اخلاقی برای استفاده از هوش مصنوعی را اتخاذ کرد  - اسپوتنیک افغانستان
عضو شوید
وزارت دفاع آمریکا بطور رسمی اصول اخلاقی مرتبط با کاربرد هوش مصنوعی در ساخت تسلیحات را به تصویب رساند.

به گزارش اسپوتنیک با استناد به گزارش وزارت دفاع آمریکا، پنتاگون اصول اخلاقی برای سرعت بخشیدن به استفاده از هوش مصنوعی و فن آوری در میدان جنگ را به تصویب رساند.

این توصیه به مارک اسپر وزیردفاع آمریکا در پاییز سال 2019 پس از 15 ماه دوره طراحی اصول اخلاقی ماشین رزمی ارسال شد.

امکان اینکه هوش مصنوعی در آینده نزدیک بطور مستقل بتواند وظایف جنگی را به انجام برساند  بحث های داغ و انتقادات شدیدی را خطاب به نظامیان در آمریکا و فراسوی آن کشور برانگیخته است.

علاقمندی نیروی ویژه امریکا به سلاح روسی  - اسپوتنیک افغانستان
پنتاگون: قصد استقرار تسلیحات هسته‌ای در اروپا را نداریم

وزیر دفاع آمریکا در این خصوص گفت:«آمریکا همراه با متحدان و شرکای خود باید به استفاده از هوش مصنوعی  در جنگ سرعت بخشد و در استفاده از آن برای دفاع از امنیت ملی به برتری جهانی برسد تا بتوانیم موضع استراتژیکی خود را حفظ کنیم و از نظم جهانی حفاظت کنیم».

به گفته وی تکنولوژی نباید بر رفتار مسئولانه و قانونی نظامیان تأثیر بگذارد. اکنون پنتاگون 5 اصل مهم را در نظر خواهد گرفت. هوش مصنوعی باید مسئول،قابل فهم، قابل اطمینان و قابل هدایت و متناسب باشد.

اصول کاربرد هوش مصنوعی در جنگ توسط مرکز کارشناسی پنتاگون طراحی می شود که علاوه بر نظر نظامیان و کارمندان، عقاید کارشناسان فنی نیز مورد توجه قرار می گیرد.

نوار خبری
0
برای شرکت در گفتگو
ورود به سیستمیا ثبت نام کنید
loader
بحث و گفتگو
Заголовок открываемого материала