دستورالعمل اخلاقی پنتاگون برای هوش مصنوعی

دانش و فناوری /
شناسه خبر: 512925

هیئتی در پنتاگون پیش نویس دستورالعملی اخلاقی برای سیستم های هوش مصنوعی منتشر کرده است. در این دستورالعمل اشاره شده سیستم های مذکور باید عاری از هرگونه تعصب باشند.

هرچند شرکت های فناوری برای ایجاد پس زمینه اخلاقی مناسب درباره کاربردهای هوش مصنوعی با چالش هایی روبرو هستند اما وزارت دفاع آمریکا در این زمینه پیشقدم شده است. 

هیات نوآوری دفاعی آمریکا به تازگی پیش نویس دستورالعملی اخلاقی هوش مصنوعی در وزارت دفاع را منتشر کرده که هدف آن کنترل فناوری های نوین است. برخی از این دستورالعمل ها قابل اجرا هستند مانند بررسی اعتبار  فناوری یا آنکه ریشه در سیاست های قدیمی دارند مانند لزوم مسئولیت پذیری انسانی در هر مرحله. اما بقیه موارد دستورالعمل های نوینی در حوزه عمومی و خصوصی هستند.

 طبق این پیش نویس سیستم هوش مصنوعی اخلاق مدار باید از تعصب ناخواسته در الگوریتم ها مانند نژاد پرستی جلوگیری کند. گاهی اوقات سیستم های هوش مصنوعی سبب می شوند که با افراد ناعادلانه رفتار شود. این هیئت از ارتش خواست که اطمینان حاصل کند نه فقط کد ها بلکه منابع اطلاعاتی نیز خنثی هستند.

 همچنین در این پیش نویس هیئت پنتاگون خواستار آن شده سیستم هوش مصنوعی قابل کنترل  باشد و چنانچه تشخیص دهد که عملکرد آن خسارتی غیرضروری به بار می آورد، خود را متوقف کند  یا  یک اپراتور انسانی بتواند آن را متوقف کند.

این امر اجازه تولید اسلحه های تمام خودکار را نمی دهد و  احتمال چالش زا شدن هوش مصنوعی را نیز می کاهد.  بر این اساس پیش نویس شامل فراخوانی برای خروجی هوش مصنوعی قابل ردیابی است که به مردم اجازه می دهد ببینند چگونه یک سیستم به نتیجه خود رسیده است./مهر

نظرات

دیدگاه های ارسال شده توسط شما، پس از تایید در سایت منتشر خواهد شد.

پیام های که حاوی تهمت یا افترا باشد در سایت منتشر نخواهد شد.

پیام های که به غیر از زبان فارسی یا غیر مرتبز با خبر باشد منتشر نخواهد شد.