ظهور جنگنده هوش مصنوعی

[ad_1]

در رفتن در حال حاضر از فناوری هوش مصنوعی برای پرواز هواپیماهای جنگنده استفاده می شود. آیا این فناوری می تواند قابل اعتماد باشد؟

به گزارش نیویورکر، در یک صبح ابری ماه می، یک هواپیما از فرودگاه بین المللی نیاگارا بر فراز فرودگاه نظامی محدود دریاچه انتاریو به پرواز درآمد. این هواپیما با نشان نیروی هوایی ایالات متحده در اصل یک جنگنده آلباتروس L-39 چکسلواکی بود که توسط یک پیمانکار خصوصی دفاعی خریداری شد. کابین پر از حسگرها و پردازنده های کامپیوتری بود که عملکرد هواپیما را ثبت می کردند. این جنگنده به مدت دو ساعت در خلاف جهت عقربه های ساعت دور دریاچه پرواز کرد. مهندسان روی زمین شاهد این پرواز بی سابقه بودند. این پرواز بخشی از تلاش برای دستیابی به هدف قرار دادن هواپیماهای جنگنده بدون دخالت خلبانان انسانی در نبرد هوایی است.

این رزمایش اولین مرحله از برنامه تحقیقاتی ACE وزارت دفاع بود و یکی از بیش از 600 پروژه مربوط به هوش مصنوعی در تجهیزات جنگی بود. در سال جاری، پنتاگون قصد دارد حدود 1 میلیارد دلار برای فناوری هوش مصنوعی هزینه کند. نیروی دریایی در حال ساخت پهپادهایی است که می توانند ماه ها در دریا بمانند. ارتش ایالات متحده در حال توسعه ناوگانی از خودروهای رزمی روباتیک است. هوش مصنوعی برای بهبود تدارکات، جمع‌آوری داده‌ها و فناوری‌های پوشیدنی، حسگرها و روبات‌های کمکی مورد استفاده ارتش استفاده می‌شود.

الگوریتم ها در حال حاضر به خوبی در پرواز کار می کنند. اولین سیستم خلبان خودکار، شامل اتصال ژیروسکوپ به بال ها و دم هواپیما، در سال 1914، تقریبا یک دهه پس از پرواز برادران رایت، راه اندازی شد. بسیاری از فن‌آوری‌های نظامی کنونی، مانند مین‌روب‌های زیر آب و بمب‌های هدایت‌شونده لیزری، پس از کاشت توسط انسان، به‌طور مستقل عمل می‌کنند. با این حال، نبرد هوایی عوارض خاص خود را دارد.

جنگنده های مجهز به فناوری هوش مصنوعی در نهایت می توانند ترفندهای سخت تری را انجام دهند و ریسک بیشتری بپذیرند. با این حال، هدف از برنامه ACE تغییر نقش خلبان است، نه حذف کامل آن. در چنین ایده ای از هوش مصنوعی، هواپیما با مشارکت خلبان به پرواز در می آید و عامل انسانی آنچه را که در مدار هوش مصنوعی مشاهده می شود و در صورت لزوم مداخله انسان در طول پرواز مشاهده می کند. به خلبانان جنگنده با ویژگی‌های مستقل اجازه می‌دهد تا «مدیر نبرد» شوند و اسکادران‌های پهپاد را رهبری کنند، مانند مربی فوتبال که اعضای تیم را انتخاب می‌کند و سپس آنها را برای بازی روی زمین می‌گذارد.

استیسی پتیسون، مدیر دفاع در مرکز امنیت جدید گفت: «برنامه ACE بخشی از یک تلاش گسترده تر برای تقسیم نیروهای ایالات متحده به واحدهای کوچکتر و کم هزینه تر است. به عبارت دیگر، هدف استفاده از انسان کمتر و ماشین های مصرف کننده بیشتر است. این ایده “جنگ موزاییک” نام دارد. در مورد نبرد هوایی، این هواپیماهای خودمختار بسیار کوچک را می توان به روش های غیرمنتظره ای ترکیب کرد که می تواند با پیچیدگی دشمنان را تحت تأثیر قرار دهد. اگر هواپیما سقوط کند، تغییر عمده ای رخ نخواهد داد.

در مجموع، L-39 بیست بار بر فراز دریاچه انتاریو پرواز کرد و در مورد هر پرواز اطلاعاتی را در اختیار مهندسان کامپیوتر و دانشمندان قرار داد و مدل‌هایی از دینامیک پرواز مورد نیاز در موقعیت‌های مختلف ایجاد کرد، مانند حسگرهایی برای تشخیص تفاوت‌ها در دنیای بیرون. و اطلاعات به صورت کدگذاری شده در نقشه ها استفاده می شود. با این حال، الگوریتم پرواز باید جو و هواپیما را همزمان در نظر بگیرد. هواپیما باید ارتفاع و زوایای مختلفی را در نظر بگیرد. همچنین تفاوت بین پرواز در یک روز گرم و یک روز سرد را در نظر بگیرید.

همچنین اگر هواپیما دارای مخزن سوخت اضافی یا موشک باشد، پرواز متفاوتی خواهد داشت. اگر برنامه ACE طبق برنامه اجرا شود، تا سال 2024، چهار فروند هواپیمای S-39 مجهز به فناوری هوش مصنوعی در “دگ فایت” (اصطلاحی که برای نبرد مستقیم هوایی بین دو هواپیمای جنگی استفاده می شود) پرواز خواهند کرد. دریاچه انتاریو شرکت خواهد کرد.

برای دستیابی به این هدف، ارتش ایالات متحده 32 مرکز تحقیقاتی آموزشی و شرکت خصوصی را مستقر کرده است که هر کدام در یکی از دو حوزه مشکل‌ساز کار می‌کنند: نحوه پرواز با هواپیما و جنگیدن به تنهایی و نحوه اعتماد. خلبانان فناوری هوش مصنوعی کافی برای استفاده از آن را دارند.

“اگر باور ندارید، همیشه باید هوش مصنوعی را اختراع کنید. خواهید گفت، “هی، من باید مسئولیت را بپذیرم.” برنامه ACE تضمینی برای موفقیت ندارد. محدود هستند.

در آزمایش‌های اولیه، خلبان انسان نمی‌توانست در هواپیمای مجهز به فناوری هوش مصنوعی زنده بماند و فناوری در طول سال‌ها ثابت کرده است که می‌تواند سریع‌تر از انسان فکر کند و در محیط اصلی واکنش دقیق‌تری نشان دهد. هوش مصنوعی می‌تواند تاکتیک‌های تاکتیکی را انجام دهد تا خلبانان را از پرواز خیلی نزدیک به هواپیمای دشمن و حرکت با سرعت‌هایی که بر بدن انسان تأثیر می‌گذارد، جلوگیری کند. شاید برای یک خلبان انسان راحت نباشد که خود را در موقعیتی قرار دهد که مجبور باشد با چیزهای دیگر سر و کار داشته باشد، اما مزیت فناوری هوش مصنوعی این است که می تواند در برابر خطر مقاوم تر باشد. آزمایشات اولیه نشان داده است که فناوری هوش مصنوعی قابل اعتماد است و روی سربازان به کار می رود و در شرایط خاص به خوبی کار می کند.

با این حال، هنوز مشخص نیست که این فناوری چگونه به امکانات بی حد و حصر موقعیت های دنیای واقعی پاسخ می دهد. ذهن انسان کندتر از رایانه پردازش می‌کند، اما انعطاف‌پذیری شناختی برای سازگاری با موقعیت‌های غیرقابل تصور را دارد. هوش مصنوعی تاکنون در این زمینه موفق نبوده است. آنا اسکینر، روانشناس عامل انسانی و مشاور علمی ACE در نیویورکر می گوید: “انسان ها می توانند از تجربیات خود استفاده کنند و در مواقع عدم اطمینان، به ویژه در زمان جنگ، منطقی عمل کنند. عدم اطمینان همیشه یک عامل است.”

متقاعد کردن خلبانان برای به دست گرفتن کنترل فناوری هوش مصنوعی می تواند دشوارتر از توسعه آن فناوری برای استفاده در جت های جنگنده باشد. پیتر هنکاک، استاد روان‌شناسی در دانشگاه فلوریدا مرکزی که تأثیرات اعتماد بر فناوری را مطالعه می‌کند، می‌گوید اعتماد به ارتش موضوعی بی‌معنی است. در نظرسنجی اخیر انجمن اتومبیل آمریکا، حدود 80 درصد از پاسخ دهندگان گفتند که با ایده وسایل نقلیه خودران راحت نیستند. این نظرسنجی نشان می‌دهد که اکثر پاسخ‌دهندگان گفتند که می‌خواهند سیستم‌های موجود قبل از اینکه به سیستم‌های خودکار اعتقاد داشته باشند، بهتر کار کنند. با وجود پیشرفت های فراوان در تکنولوژی، این درصد تغییر چندانی نکرده و بسیار تکان دهنده است.

این بی اعتمادی در چند وقت اخیر افزایش یافته است. در سال 2017، مؤسسه فیوچر لایف، یک گروه مشاوره با تمرکز بر «مفید نگه داشتن هوش مصنوعی» که الن ماسک یکی از اعضای هیئت مشاوران آن است، ویدیوی کوتاهی را منتشر کرد که دنیایی را با مجوزهای کوادکوپتر (چهار پهپاد) تجسم می کند. اندازه گوشی های هوشمند می تواند مخالفان سیاسی، دانشجویان و اعضای کنگره را هدف قرار دهد. شخصیتی مانند استیو جابز در هنگام پرتاب به مخاطبان مشتاق گفت: “عصر هسته ای به پایان رسیده است. اکنون شما دشمن خود را در عمل و بدون خطر نابود می کنید.”

در پایان این ویدئو که بیش از سه میلیون بار در یوتیوب دیده شده است، استوارت راسل، دانشمند کامپیوتر اهل برکلی، در مقابل دوربین می گوید: اجازه دادن به ماشین ها برای کشتن انسان ها برای امنیت و آزادی ما فاجعه آمیز خواهد بود. راسل بخشی از گروهی از مقامات برجسته آموزش و فناوری از جمله الن ماسک، استیون هاوکینگ و نوام چامسکی بود که نامه ای را امضا کردند که در آن خواستار ممنوعیت استفاده از “سلاح های خودگردان تهاجمی فراتر از کنترل معنی دار انسان” شدند.

با این حال، هوش مصنوعی در حال حاضر در خط مقدم مسابقه تسلیحاتی جهانی قرار دارد. پیش بینی می شود تا سال 2020، هزینه های جهانی برای فناوری هوش مصنوعی نظامی از 6 میلیارد نفر فراتر رود و پیش بینی می شود این رقم تا سال 2025 تقریباً دو برابر شود.

روسیه در حال توسعه وسایل نقلیه بدون سرنشین با تانک های روباتیک و سیستم های نظارتی است. گزارش ها حاکی از آن است که سال گذشته، لیبی یک پهپاد را پرتاب کرد که به نظر می رسید مجهز به قابلیت «پردازش تصویر در زمان واقعی» برای شناسایی و هدف قرار دادن جنگنده های دشمن است. رابرت ورک، وزیر دفاع سابق آمریکا به نیویورکر گفت که چین سربازان سقوط کرده را به پهپادهای انتحاری خودمختار تبدیل کرده است که می توانند همزمان به عنوان اسکادران عمل کنند. وی افزود: “این یک نوع کاملاً جدید از سلاح است که دفاع از آن بسیار دشوار است.”

ایالات متحده نیز در حال آزمایش استفاده از هواپیماهای بدون سرنشین است. در آزمایشی در آوریل گذشته، گروهی از پهپادها به یک کشتی نیروی دریایی در سواحل کالیفرنیا حمله کردند. در مقاله‌ای که در آوریل گذشته منتشر شد، رابرت ورک نوشت که سیستم‌های مجهز به هوش مصنوعی «احتمالاً به کاهش بزرگترین علت درگیری‌های رزمی ناخواسته کمک می‌کنند: شناسایی نادرست اهداف». ارتش ایالات متحده بارها گفته است که فناوری پیشرفته اهداف دشمن را تقویت می کند. با این حال، نتایج همیشه مثبت نیست. در سال 2003، در جریان جنگ عراق، یک جت جنگنده بریتانیایی به طور ناخواسته یک موشک پاتریت اصلی را پرتاب کرد و هر دو خلبان را کشت. گزارش پنتاگون که پس از سقوط منتشر شد، نشان داد که اپراتورهای انسانی به سیستم موشکی آزادی بیش از حد داده اند.

تایمز قبلاً گزارش داده بود که 300 گزارش طبقه بندی شده از کشته شدن غیرنظامیان در خاورمیانه در طول جنگ هوایی ایالات متحده، تصویری از جنگ دقیق هدایت شده توسط پهپادهای دولت ایالات متحده و بمب های با دقت بالا را نشان می دهد. اینها دقیقاً مخالف عواقب عملی استفاده بدون سرنشین است. تجهیزات

در سال 2018، محققان MIT و دانشگاه استنفورد دریافتند که فناوری هوش مصنوعی در سیستم‌های تشخیص چهره اغلب در شناسایی زنان تیره پوست شکست خورده است. دو سال بعد، گزارشی از سرویس تحقیقات کنگره بیان کرد که “این شکست می تواند تأثیر قابل توجهی بر فناوری هوش مصنوعی داشته باشد. کاربردهای نظامی، به ویژه اگر چنین سوگیری هایی شناسایی و در سیستم های کشنده گنجانده نشوند.” آنها عواقب فاجعه باری خواهند داشت.»

در همین حال، Stop Killer Robots کمپین مشترک 180 سازمان غیردولتی از جمله عفو بین‌الملل، دیده‌بان حقوق بشر و شورای جهانی کلیساها است که از کشورها خواسته‌اند تا توافق‌نامه‌های قانونی را برای کنترل استفاده از سلاح‌های خود امضا کنند. وکیل کشنده را تنظیم کنید. ایالات متحده یکی از نزدیک به 70 کشور امضا کننده این معاهده نیست. موضع دارپا (آژانس پروژه های تحقیقاتی پیشرفته دفاعی) در مورد سلاح های خود مختار مرگبار این است که به تصمیم گیرنده انسانی نیاز دارد تا با جریان اصلی سازگار باشد.

[ad_2]

Alina Bentley

کاوشگر. کارشناس سفر. متخصص قهوه. طرفدار تلویزیون عمومی متخصص پرشور بیکن. برگزار کننده آماتور محقق فرهنگ پاپ.

تماس با ما