Пентагонът реши да използва генеративен изкуствен интелект /ИИ/ за военни цели
Пентагонът създаде оперативна група „Лима“ за изследване на използването на генеративен изкуствен интелект за военни цели. Лима ще бъде част от Генералната дирекция за цифров и изкуствен интелект (CDAO) на Пентагона, ръководена от капитан Ксавие Луго, член на дирекция Алгоритмична война на CDAO.
По думите на Министерството на отбраната на САЩ, създадената група „ще оценява, синхронизира и използва генеративните възможности на изкуствения интелект, като гарантира, че ведомството остава в челните редици на напредналите технологии, като същевременно гарантира националната сигурност“.
„Създаването на Task Force Lima подчертава непоклатимия ангажимент на Министерството на отбраната за лидерство в иновациите на ИИ“, каза заместник-държавният секретар Катлийн Хикс.
„Въпреки че технологията „Генеративен ИИ“ /Generative AI не е нова, популярността й скочи рязко в технологичното пространство през последните няколко месеца поради приложението му в проекти като ChatGPT. Тази технология е обучена на огромни набори от данни и може да генерира аудио, текст, изображения и други видове съдържание.
Сега Министерството на отбраната търси начини да използва генеративния изкуствен интелект за събиране на разузнавателна информация и бъдещи военни операции. Но доколкото тази технология може да предложи нови възможности за Министерството на отбраната, Министерството трябва също така да вземе предвид рисковете, на които технологията може да го изложи .
През юни министърът на ВВС на САЩ Франк Кендъл обяви, че е поискал от научния консултативен съвет на военновъздушните сили да проучи потенциалното въздействие на технологията ChatGPT. „Помолих моя научен консултативен съвет да направи две неща с ИИ. Разгледайте генеративните ИИ технологии като ChatGPT и помислете за техните военни приложения и съберете малък екип, който да го направи доста бързо“, каза Кендъл.
Генеративният ИИ се отнася до категорията ИИ алгоритми, които генерират нови резултати въз основа на данните, върху които са били обучени, което е различно от много по-простите алгоритми за машинно обучение, които просто вземат структурирани данни и произвеждат най-вероятния статистически резултат. Публичните инструменти за генеративен ИИ включват така наречените големи езикови модели като ChatGPT, които могат да генерират нов текст, който е почти неразличим от човешкото писане. Тези модели вече се използват за писане на есета, бизнес планове и дори научни статии.
„Но тези езикови модели понякога лъжат или, както се изразяват анализаторите на ИИ, халюцинират“, отбелязва военният коментатор Патрик Тъкър.
Няма нужда да обясняваме с какви халюцинации ще е изпълнен ИИ, ако се използва за военни цели.
Един от пионерите в тази посока, Джефри Хинтън, напусна работата си в Google през май тази година, за да изрази опасенията си относно рисковете, свързани с генеративния изкуствен интелект.
„През 2012 г. д-р Хинтън и двама от неговите студенти в Университета на Торонто създадоха технология, която се превърна в интелектуална основа за създаване на изкуствен интелект, система, която най-големите компании в технологичната индустрия смятат за ключ към своето бъдеще.
Въпреки това… той официално се присъедини към нарастващия хор от критици, които казват, че тези компании се доближават до опасна граница с агресивната си кампания за изграждане на продукти, базирани на генеративен изкуствен интелект, технологията, която захранва популярни чатботове като ChatGPT.“ – съобщава The New York Times .
„Трудно е да се види как можете да попречите на лошите да го използват [генеративния ИИ] за лоши цели“, изтъква Хинтън, като подчертава, че генеративният ИИ може да разпространява дезинформация, да намалява работните места и дори да представлява заплаха за човечеството в дългосрочен план .
Хинтън вярва, че тъй като ИИ системите стават по-мощни, нараства и рискът, свързан с тях. „Вижте как беше преди пет години и как е сега “, отбелязва той. „ Вземете разликата и я екстраполирайте в бъдещето. Страшно е . "
Хинтън е особено загрижен за развитието на автономни оръжейни системи, които преследват дадена цел и решават сами да я унищожат, както и че ИИ във военната сфера може да надмине човешкия интелект. За разлика от ядрените оръжия, казва той, невъзможно е да се знае дали компании или държави тайно работят върху тази технология.
Джефри Хинтън, когато го попитаха как би могъл да работи върху потенциално опасна технология, той перифразира Робърт Опенхаймер, който ръководи американските усилия за създаване на атомна бомба: „Когато видиш нещо технически хубаво, отиваш и го правиш“.
„Той вече не мисли по този начин“, отбелязва The New York Times .
Междувременно в Съединените щати залагат на генеративния AI като потенциална революция във военните дела и „умножител на силата“.
„Генеративният ИИ“ /Generative AI/ обещава напълно да промени геополитиката на войната и сдържането. Това ще бъде направено по начини, които дори могат да се превърнат в екзистенциална заплаха“, пише колумнистът на Forein Policy Майкъл Хърш.
„Софтуерът, управляван от ИИ, може да принуди големите сили да съкратят своя прозорец от време за вземане на решения до минути, вместо часове или дни. Те могат да разчитат твърде много на стратегическите и тактически преценки на ИИ, дори когато става въпрос за ядрена война.
Опасността, по думите на Хърбърт Лин от Станфордския университет, е, че вземащите решения могат постепенно да разчитат на новия ИИ като част от командването и контрола на оръжията, тъй като той работи на много по-високи скорости от хората.
Като се има предвид склонността на ИИ към преувеличение [т.е. халюцинациите, споменати по-горе], когато хората започнат да вярват в това, което машините мислят, е по-вероятно да правят луди неща“, отбелязва Хърбърт Лин.
В наскоро публикуваната книга AI and the Bomb: Nuclear Strategy and Risk in the Digital Age, анализаторът от Университета на Абърдийн Джеймс Джонсън описва случайна ядрена война в Източнокитайско море през 2025 г., провокирана от ИИ разузнаването, както американското, така и от Китайска страна, с автономни усилия на ботове, поддръжка на ИИ, deepfakes и операции с фалшив флаг.
В доклад , публикуван в началото на февруари 2023 г. от Американската асоциация за контрол на оръжията, се посочва, че изкуственият интелект може да доведе до „размиване на разликата между конвенционална и ядрена атака“. Докладът също така казва, че борбата за „използване на нови технологии за военни цели се е ускорила много по-бързо от опитите да се оценят опасностите, които те представляват, и да се определят ограничения за тяхното използване“.
„През януари тази година Министерството на отбраната актуализира своята директива относно оръжейните системи, които използват изкуствен интелект, заявявайки, че трябва да се използва поне известна човешка преценка при разработването и внедряването на автономни оръжейни системи“, отбелязва Майкъл Хирш, добавяйки, че „Възможно е да сме на хлъзгав наклон.“
Видният руски учен, професор в Московския държавен университет. М.В. Ломоносов, Сергей Павлович Расторгуев в монографията , написана още през 1965 г. „Целта като криптограма. Криптоанализ на синтетични цели“ посочи: „Днес за света на компютърните програми придобиването на независимост се превърна в свършен факт“. Тъй като софтуерният продукт става по-сложен, „системният софтуер започва да живее свой собствен живот, намирайки цел в себе си“, отбелязва руският учен, сравнявайки компютърните системи, придобиващи независимост, със средновековен Голем, който, както знаете, уби създателя си.
Това, което Расторгуев нарече независимостта на компютърните програми, съвременните американски анализатори по отношение на генеративния ИИ наричат „халюцинации“, което обаче е малко утешително. И почти три десетилетия по-късно е ясно, че генеративният ИИ, особено когато се прилага за военни цели, е толкова сложен, че неговата хипотетична самодостатъчност плаши дори най-съвестните му разработчици, като Джефри Хинтън.
Независимо от това, Пентагонът е на път да създаде още едно „абсолютно оръжие“, този път в областта на изкуствения интелект, без да мисли за опасностите, заплашващи цялото човечество, които компютърът Голем, създаден в дълбините на секретни военни лаборатории, носи.
Владимир Прохватилов, Превод: ЕС, Поглед.инфо