Първите печеливши от разцвета на изкуствения интелект? Киберпрестъпниците

Първите печеливши от разцвета на изкуствения интелект? Киберпрестъпниците
  • Written by:  classa.bg***
  • Date:  
    26.09.2023
  • Share:

Най-новото поколение инструменти за генеративен изкуствен интелект (вижте популярното приложение ChatGPT) зашемети света със способността си бързо да генерира текстове, вариращи от политически речи и юридически изследвания до телевизионни сценарии, които на практика са неразличими от тези, създадени от човешка ръка

 

 

 

Впечатляващото представяне на инструментите за изкуствен интелект Gen AI убеди мнозина, и особено инвеститорите, че отдавна прогнозираната „революция на изкуствения интелект“ най-накрая е настъпила. Средства се наливат в производители на чипове, софтуерни компании, фирми за анализ на данни и други компании, които очакват продажбите им да скочат до небето, тъй като предприятията в почти всички икономически сектори бързат да реализират огромното увеличение на производителността, обещано от инструментите за изкуствен интелект.

Макар че медиите и дори правителствата продължават да изтъкват впечатляващи отделни примери за резултатите от Gen AI, реалните доказателства за това как той е изместил съществуващите бизнес операции са оскъдни, с изключение на една неочаквана – и злощастна – област: киберпрестъпността.

 

 

Хакери от цял свят изглежда вече успешно са интегрирали инструментите на Gen AI в своите престъпни операции. Хакерските групи например успешно използват подобни на ChatGPT Gen AI инструменти, за да подобрят значително ефективността на своите "фишинг" атаки. Такива атаки, разбира се, се използват от хакерите за изпращане на съобщения, целящи да убедят жертвата да сподели ценна информация или да активира зловреден софтуер.

Макар и широко разпространени, фишинг атаките в миналото са били лесни за откриване и осуетяване, тъй като са изобилствали от очевидни печатни и граматически грешки (обикновено поради това, че са създадени от автори, за които езикът не е роден). Gen AI помага на хакерите да елиминират тази слабост, като им предоставя безплатен инструмент за генериране на значително по-шлифовани фишинг имейли, дотолкова, че дори експертите по киберсигурност или техните инструменти се затрудняват да ги засекат. И Gen AI не се използва само за захранване на писмени атаки: Хакерите вече използват инструменти с изкуствен интелект и за генериране на фалшиви аудиозаписи, които толкова точно имитират конкретни личности, че заблуждават хората, че действително говорят с колега или дори с любим човек.

Ние, заедно с правоприлагащите органи, също започнахме да наблюдаваме как хакерите „разбиват“ Gen AI програми. Това става, като хакерите тайно премахват предпазните механизми, вградени в легитимния софтуер Gen AI, което им позволява да измамят жертвите да предоставят лични данни, данни за вход или друга чувствителна информация, която иначе не би била уловена или споделена от програмата.

За да бъдем честни, проблемът с Gen AI не се дължи само на подправянето на легитимни програми. В тъмната мрежа започнаха да се появяват програми за ИИ, разработени специално за използване от престъпници. Един такъв пример е „WormGPT“, злонамерен инструмент GenAI, който се предлага само за 100 USD.

Срещу тази минимална сума киберпрестъпниците получават достъп до програма, която може да създава опустошителен зловреден софтуер или фишинг имейли, без да се притесняват за ограниченията за безопасност или наблюдението от страна на вътрешните екипи по сигурността. Най-хубавото за такива престъпници е, че WormGPT и други подобни инструменти се продават по канали с криптиране от край до край – начин на комуникация, в който правоприлагащите органи до голяма степен не могат да проникнат или да наблюдават.

 

Въпреки тези доказателства, както индустриалните, така и правителствените лидери изглежда не оценяват колко бързо хакерите са се въоръжили с Gen AI. Дискусиите за "опасностите" от ИИ обикновено се фокусират върху бъдещите притеснения за изместване на работниците, кражба на интелектуална собственост и политическа дезинформация. И, разбира се, мрънкането става особено интензивно, когато темата се насочи към сценарии, подобни на "Терминатор".

Разбира се, никой не иска ИИ да се развие до степен, в която всички ще живеем под кибернетично формулираните удари на роботизирани господари. В същото време обаче както публичните, така и частните ръководители не могат да подминат факта, че хакерското усвояване на Gen AI се разпространява бързо, което поставя съществуващите стратегии и инструменти за киберсигурност в сериозен риск от незабавно остаряване.

Първата и най-неотложна стъпка би била да се признае, че за борба с ИИ трябва да се използва ИИ. Както правителствените агенции, така и компаниите трябва да актуализират своите модели за сигурност, за да отчетат продължаващото използване на Gen AI от хакерите. Киберзащитите ще трябва спешно да включат атрибути на ИИ като автоматизация, машинно обучение и други техники, които осмислят новите заплахи, задвижвани от ИИ, които се насочват към тях.

Най-важното обаче е, че влиятелни групи от технологични лидери, законодатели и регулатори трябва да признаят неудобната истина, че киберпрестъпниците вече са успели успешно да усвоят ИИ, и по-специално Gen AI. Ако не успеят да го направят за сметка на другите тревоги, свързани с ИИ, това само ще позволи на хакерите да нанасят експоненциално по-големи щети.

 

 

Превод е-вестник

 

Патрик Хър е главен изпълнителен директор на SlashNext, компания за киберсигурност, фокусирана върху борбата със заплахите от ИИ.

Брайън Финч е адвокат във Вашингтон, който се занимава с въпросите на киберсигурността.

 

 

Станете почитател на Класа