[ad_1]
در رفتن در حال حاضر از فناوری هوش مصنوعی برای پرواز هواپیماهای جنگنده استفاده می شود. آیا این فناوری می تواند قابل اعتماد باشد؟
به گزارش نیویورکر، در یک صبح ابری ماه می، یک هواپیما از فرودگاه بین المللی نیاگارا بر فراز فرودگاه نظامی محدود دریاچه انتاریو به پرواز درآمد. این هواپیما با نشان نیروی هوایی ایالات متحده در اصل یک جنگنده آلباتروس L-39 چکسلواکی بود که توسط یک پیمانکار خصوصی دفاعی خریداری شد. کابین پر از حسگرها و پردازنده های کامپیوتری بود که عملکرد هواپیما را ثبت می کردند. این جنگنده به مدت دو ساعت در خلاف جهت عقربه های ساعت دور دریاچه پرواز کرد. مهندسان روی زمین شاهد این پرواز بی سابقه بودند. این پرواز بخشی از تلاش برای دستیابی به هدف قرار دادن هواپیماهای جنگنده بدون دخالت خلبانان انسانی در نبرد هوایی است.
این رزمایش اولین مرحله از برنامه تحقیقاتی ACE وزارت دفاع بود و یکی از بیش از 600 پروژه مربوط به هوش مصنوعی در تجهیزات جنگی بود. در سال جاری، پنتاگون قصد دارد حدود 1 میلیارد دلار برای فناوری هوش مصنوعی هزینه کند. نیروی دریایی در حال ساخت پهپادهایی است که می توانند ماه ها در دریا بمانند. ارتش ایالات متحده در حال توسعه ناوگانی از خودروهای رزمی روباتیک است. هوش مصنوعی برای بهبود تدارکات، جمعآوری دادهها و فناوریهای پوشیدنی، حسگرها و روباتهای کمکی مورد استفاده ارتش استفاده میشود.
الگوریتم ها در حال حاضر به خوبی در پرواز کار می کنند. اولین سیستم خلبان خودکار، شامل اتصال ژیروسکوپ به بال ها و دم هواپیما، در سال 1914، تقریبا یک دهه پس از پرواز برادران رایت، راه اندازی شد. بسیاری از فنآوریهای نظامی کنونی، مانند مینروبهای زیر آب و بمبهای هدایتشونده لیزری، پس از کاشت توسط انسان، بهطور مستقل عمل میکنند. با این حال، نبرد هوایی عوارض خاص خود را دارد.
جنگنده های مجهز به فناوری هوش مصنوعی در نهایت می توانند ترفندهای سخت تری را انجام دهند و ریسک بیشتری بپذیرند. با این حال، هدف از برنامه ACE تغییر نقش خلبان است، نه حذف کامل آن. در چنین ایده ای از هوش مصنوعی، هواپیما با مشارکت خلبان به پرواز در می آید و عامل انسانی آنچه را که در مدار هوش مصنوعی مشاهده می شود و در صورت لزوم مداخله انسان در طول پرواز مشاهده می کند. به خلبانان جنگنده با ویژگیهای مستقل اجازه میدهد تا «مدیر نبرد» شوند و اسکادرانهای پهپاد را رهبری کنند، مانند مربی فوتبال که اعضای تیم را انتخاب میکند و سپس آنها را برای بازی روی زمین میگذارد.
استیسی پتیسون، مدیر دفاع در مرکز امنیت جدید گفت: «برنامه ACE بخشی از یک تلاش گسترده تر برای تقسیم نیروهای ایالات متحده به واحدهای کوچکتر و کم هزینه تر است. به عبارت دیگر، هدف استفاده از انسان کمتر و ماشین های مصرف کننده بیشتر است. این ایده “جنگ موزاییک” نام دارد. در مورد نبرد هوایی، این هواپیماهای خودمختار بسیار کوچک را می توان به روش های غیرمنتظره ای ترکیب کرد که می تواند با پیچیدگی دشمنان را تحت تأثیر قرار دهد. اگر هواپیما سقوط کند، تغییر عمده ای رخ نخواهد داد.
در مجموع، L-39 بیست بار بر فراز دریاچه انتاریو پرواز کرد و در مورد هر پرواز اطلاعاتی را در اختیار مهندسان کامپیوتر و دانشمندان قرار داد و مدلهایی از دینامیک پرواز مورد نیاز در موقعیتهای مختلف ایجاد کرد، مانند حسگرهایی برای تشخیص تفاوتها در دنیای بیرون. و اطلاعات به صورت کدگذاری شده در نقشه ها استفاده می شود. با این حال، الگوریتم پرواز باید جو و هواپیما را همزمان در نظر بگیرد. هواپیما باید ارتفاع و زوایای مختلفی را در نظر بگیرد. همچنین تفاوت بین پرواز در یک روز گرم و یک روز سرد را در نظر بگیرید.
همچنین اگر هواپیما دارای مخزن سوخت اضافی یا موشک باشد، پرواز متفاوتی خواهد داشت. اگر برنامه ACE طبق برنامه اجرا شود، تا سال 2024، چهار فروند هواپیمای S-39 مجهز به فناوری هوش مصنوعی در “دگ فایت” (اصطلاحی که برای نبرد مستقیم هوایی بین دو هواپیمای جنگی استفاده می شود) پرواز خواهند کرد. دریاچه انتاریو شرکت خواهد کرد.
برای دستیابی به این هدف، ارتش ایالات متحده 32 مرکز تحقیقاتی آموزشی و شرکت خصوصی را مستقر کرده است که هر کدام در یکی از دو حوزه مشکلساز کار میکنند: نحوه پرواز با هواپیما و جنگیدن به تنهایی و نحوه اعتماد. خلبانان فناوری هوش مصنوعی کافی برای استفاده از آن را دارند.
“اگر باور ندارید، همیشه باید هوش مصنوعی را اختراع کنید. خواهید گفت، “هی، من باید مسئولیت را بپذیرم.” برنامه ACE تضمینی برای موفقیت ندارد. محدود هستند.
در آزمایشهای اولیه، خلبان انسان نمیتوانست در هواپیمای مجهز به فناوری هوش مصنوعی زنده بماند و فناوری در طول سالها ثابت کرده است که میتواند سریعتر از انسان فکر کند و در محیط اصلی واکنش دقیقتری نشان دهد. هوش مصنوعی میتواند تاکتیکهای تاکتیکی را انجام دهد تا خلبانان را از پرواز خیلی نزدیک به هواپیمای دشمن و حرکت با سرعتهایی که بر بدن انسان تأثیر میگذارد، جلوگیری کند. شاید برای یک خلبان انسان راحت نباشد که خود را در موقعیتی قرار دهد که مجبور باشد با چیزهای دیگر سر و کار داشته باشد، اما مزیت فناوری هوش مصنوعی این است که می تواند در برابر خطر مقاوم تر باشد. آزمایشات اولیه نشان داده است که فناوری هوش مصنوعی قابل اعتماد است و روی سربازان به کار می رود و در شرایط خاص به خوبی کار می کند.
با این حال، هنوز مشخص نیست که این فناوری چگونه به امکانات بی حد و حصر موقعیت های دنیای واقعی پاسخ می دهد. ذهن انسان کندتر از رایانه پردازش میکند، اما انعطافپذیری شناختی برای سازگاری با موقعیتهای غیرقابل تصور را دارد. هوش مصنوعی تاکنون در این زمینه موفق نبوده است. آنا اسکینر، روانشناس عامل انسانی و مشاور علمی ACE در نیویورکر می گوید: “انسان ها می توانند از تجربیات خود استفاده کنند و در مواقع عدم اطمینان، به ویژه در زمان جنگ، منطقی عمل کنند. عدم اطمینان همیشه یک عامل است.”
متقاعد کردن خلبانان برای به دست گرفتن کنترل فناوری هوش مصنوعی می تواند دشوارتر از توسعه آن فناوری برای استفاده در جت های جنگنده باشد. پیتر هنکاک، استاد روانشناسی در دانشگاه فلوریدا مرکزی که تأثیرات اعتماد بر فناوری را مطالعه میکند، میگوید اعتماد به ارتش موضوعی بیمعنی است. در نظرسنجی اخیر انجمن اتومبیل آمریکا، حدود 80 درصد از پاسخ دهندگان گفتند که با ایده وسایل نقلیه خودران راحت نیستند. این نظرسنجی نشان میدهد که اکثر پاسخدهندگان گفتند که میخواهند سیستمهای موجود قبل از اینکه به سیستمهای خودکار اعتقاد داشته باشند، بهتر کار کنند. با وجود پیشرفت های فراوان در تکنولوژی، این درصد تغییر چندانی نکرده و بسیار تکان دهنده است.
این بی اعتمادی در چند وقت اخیر افزایش یافته است. در سال 2017، مؤسسه فیوچر لایف، یک گروه مشاوره با تمرکز بر «مفید نگه داشتن هوش مصنوعی» که الن ماسک یکی از اعضای هیئت مشاوران آن است، ویدیوی کوتاهی را منتشر کرد که دنیایی را با مجوزهای کوادکوپتر (چهار پهپاد) تجسم می کند. اندازه گوشی های هوشمند می تواند مخالفان سیاسی، دانشجویان و اعضای کنگره را هدف قرار دهد. شخصیتی مانند استیو جابز در هنگام پرتاب به مخاطبان مشتاق گفت: “عصر هسته ای به پایان رسیده است. اکنون شما دشمن خود را در عمل و بدون خطر نابود می کنید.”
در پایان این ویدئو که بیش از سه میلیون بار در یوتیوب دیده شده است، استوارت راسل، دانشمند کامپیوتر اهل برکلی، در مقابل دوربین می گوید: اجازه دادن به ماشین ها برای کشتن انسان ها برای امنیت و آزادی ما فاجعه آمیز خواهد بود. راسل بخشی از گروهی از مقامات برجسته آموزش و فناوری از جمله الن ماسک، استیون هاوکینگ و نوام چامسکی بود که نامه ای را امضا کردند که در آن خواستار ممنوعیت استفاده از “سلاح های خودگردان تهاجمی فراتر از کنترل معنی دار انسان” شدند.
با این حال، هوش مصنوعی در حال حاضر در خط مقدم مسابقه تسلیحاتی جهانی قرار دارد. پیش بینی می شود تا سال 2020، هزینه های جهانی برای فناوری هوش مصنوعی نظامی از 6 میلیارد نفر فراتر رود و پیش بینی می شود این رقم تا سال 2025 تقریباً دو برابر شود.
روسیه در حال توسعه وسایل نقلیه بدون سرنشین با تانک های روباتیک و سیستم های نظارتی است. گزارش ها حاکی از آن است که سال گذشته، لیبی یک پهپاد را پرتاب کرد که به نظر می رسید مجهز به قابلیت «پردازش تصویر در زمان واقعی» برای شناسایی و هدف قرار دادن جنگنده های دشمن است. رابرت ورک، وزیر دفاع سابق آمریکا به نیویورکر گفت که چین سربازان سقوط کرده را به پهپادهای انتحاری خودمختار تبدیل کرده است که می توانند همزمان به عنوان اسکادران عمل کنند. وی افزود: “این یک نوع کاملاً جدید از سلاح است که دفاع از آن بسیار دشوار است.”
ایالات متحده نیز در حال آزمایش استفاده از هواپیماهای بدون سرنشین است. در آزمایشی در آوریل گذشته، گروهی از پهپادها به یک کشتی نیروی دریایی در سواحل کالیفرنیا حمله کردند. در مقالهای که در آوریل گذشته منتشر شد، رابرت ورک نوشت که سیستمهای مجهز به هوش مصنوعی «احتمالاً به کاهش بزرگترین علت درگیریهای رزمی ناخواسته کمک میکنند: شناسایی نادرست اهداف». ارتش ایالات متحده بارها گفته است که فناوری پیشرفته اهداف دشمن را تقویت می کند. با این حال، نتایج همیشه مثبت نیست. در سال 2003، در جریان جنگ عراق، یک جت جنگنده بریتانیایی به طور ناخواسته یک موشک پاتریت اصلی را پرتاب کرد و هر دو خلبان را کشت. گزارش پنتاگون که پس از سقوط منتشر شد، نشان داد که اپراتورهای انسانی به سیستم موشکی آزادی بیش از حد داده اند.
تایمز قبلاً گزارش داده بود که 300 گزارش طبقه بندی شده از کشته شدن غیرنظامیان در خاورمیانه در طول جنگ هوایی ایالات متحده، تصویری از جنگ دقیق هدایت شده توسط پهپادهای دولت ایالات متحده و بمب های با دقت بالا را نشان می دهد. اینها دقیقاً مخالف عواقب عملی استفاده بدون سرنشین است. تجهیزات
در سال 2018، محققان MIT و دانشگاه استنفورد دریافتند که فناوری هوش مصنوعی در سیستمهای تشخیص چهره اغلب در شناسایی زنان تیره پوست شکست خورده است. دو سال بعد، گزارشی از سرویس تحقیقات کنگره بیان کرد که “این شکست می تواند تأثیر قابل توجهی بر فناوری هوش مصنوعی داشته باشد. کاربردهای نظامی، به ویژه اگر چنین سوگیری هایی شناسایی و در سیستم های کشنده گنجانده نشوند.” آنها عواقب فاجعه باری خواهند داشت.»
در همین حال، Stop Killer Robots کمپین مشترک 180 سازمان غیردولتی از جمله عفو بینالملل، دیدهبان حقوق بشر و شورای جهانی کلیساها است که از کشورها خواستهاند تا توافقنامههای قانونی را برای کنترل استفاده از سلاحهای خود امضا کنند. وکیل کشنده را تنظیم کنید. ایالات متحده یکی از نزدیک به 70 کشور امضا کننده این معاهده نیست. موضع دارپا (آژانس پروژه های تحقیقاتی پیشرفته دفاعی) در مورد سلاح های خود مختار مرگبار این است که به تصمیم گیرنده انسانی نیاز دارد تا با جریان اصلی سازگار باشد.
[ad_2]