Изкуственият интелект е опасен

Изкуственият интелект е опасен
  • Автор:  classa
  • Дата:  
    28.02.2018
  • Сподели:

Когато говорим за опасностите, породени от изкуствения интелект, акцентът обикновено се поставя върху нежеланите странични ефекти. Безпокоим се, че може случайно да създадем свръхинтелигентен изкуствен интелект и да забравим да го програмираме със съвест или, че ще внедрим алгоритми за наказателно преследване, които са "попили" расистките пристрастия от техните обучителни данни. Но това е само половината от историята...
Какво ще кажете за хората, които активно искат да използват изкуствения интелект за неморални, престъпни или злонамерени цели? Не е ли по-вероятно те да причинят проблеми, а и възможно ли е това да се случи по-скоро? Отговорът е "да", по мнението на повечето експерти от научни институти, вкл. от института "Бъдещето на човечествот", Центъра за изследване на съществуващия риск и подкрепената от Елън Мъск организация с нестопанска цел OpenAI. Твърде много "да".
В доклад, публикуван преди няколко дни и озаглавен „Злоумишленото използване на изкуствения интелект: прогнози, предпазни мерки и намаляване на последиците", изследователите разкриват някои от начините, по които може да бъде използван ИИ, за да ни причини злини в следващите пет години, и какво можем да направим, за да спрем това. И въпреки че ИИ може да даде възможност за извършване на някои доста неприятни нови атаки, съавторът на доклада Майлс Брундейдж от института „Бъдещето на човечеството" смята, че със сигурност не трябва да се паникьосваме или да изоставим надеждата.
"Предпочитам да взема страната на оптимистите, което означава, че бихме могли да направим много", коментира Брундейдж. „Въпросът не е да рисуваме една апокалиптична картина – има много защитни действия, които могат да бъдат разработени и много неща, които можем да научим. Не мисля, че ситуацията е безнадеждна като цяло, но виждам този доклад като призив за действие", казва той.
Докладът е доста обширен, но като цяло се фокусира върху няколко ключови начина, по които ИИ ще засили заплахите както за цифровите, така и за физическите системи за сигурност, а и ще създаде изцяло нови опасности. Документът също така предлага пет препоръки за това как да се борим с тези проблеми – включително как инженерите, създаващи ИИ, да бъдат по-информирани и осъзнаващи възможните злонамерени употреби на техните открития. Наложително е да се започне нов диалог между политиците и академичните среди, така че правителствата и правоприлагащите органи да не се окажат неподготвени.
Какви са обаче потенциалните заплахи? Една от най-важните сред тях е, че ИИ драматично ще намали разходите за определени атаки, позволявайки на лошите „актьори" да автоматизират задачи, които преди това са изисквали човешка намеса и труд.
Да вземем например една фишинг атака, при която на отделни хора се изпращат съобщения, специално разработени, за да ги подмамят да предоставят своите пароли за сигурност (фалшив имейл от банката ви, например, или от човек, който изглежда е ваш стар познат). И именно тук ИИ може да автоматизира голяма част от работата, да очертае социалната и професионалната мрежа от хора и да генерира съобщенията.
В момента се полагат много усилия за създаване на реалистични и ангажиращи чатботове. Подобна дейност може да бъде използвана за разработка на чатбот, представящ се за най-добрия ви приятел, който изведнъж, по някаква причина, наистина иска да знае вашата имейл парола.
Този вид атака звучи сложно, но основното тук е, че след като веднъж сте създали софтуера, за да направите всичко това, можете да го използвате отново и отново без допълнителни разходи.
Фишинг имейлите вече са нанесли достатъчно вреди – те са отговорни за изтичането на снимките на знаменитостите от iCloud през 2014 г., както и за хакването на частните имейли от шефа на кампанията на Хилъри Клинтън – Джон Подеста. Последното не само оказа влияние върху президентските избори в САЩ през 2016 г., но и подхрани редица конспиративни теории като например „Пицагейт", които почти не убиха хора. Помислете какво може да направи един автоматизиран ИИ фишинг сред технически неграмотните държавни служители.
Втората голяма тема, която докладът повдига, е, че ИИ ще добави нови измерения към съществуващите заплахи. В същия пример за фишинга ИИ може да бъде използван не само за генериране на имейли и текстови съобщения, но и за фалшиви аудио и видео материали. Вече станахме свидетели на това как ИИ може да се използва, за да имитира гласа на дадена „мишена", след като изучи само няколко минути от записано слово.
Разбира се, съществува цяла гама от други зловредни практики, които ИИ може да засили. Като начало – политическа манипулация и пропаганда (отново области, където фалшивите видео и аудио материали биха могли да представляват огромен проблем), но също така поставяне под наблюдение, насочено специално към малцинствата. Интересен пример за това е Китай, където камери за разпознаване на лица и за проследяване на хора превърнаха един граничен регион, населен до голяма степен с мюсюлманско малцинство, в „област на тотално наблюдение".
Това са само няколко примера за способността на ИИ да се превърне в заплаха. Той замества хората, които следят човешките потоци, превръщайки камерите за видеонаблюдение от пасивни в активни наблюдатели, позволявайки им да категоризират автоматично човешкото поведение. "Мащабността, в частност, е нещо, което не е получило достатъчно внимание", казва Брундейдж. "Тук не визирам само факта, че ИИ може да изпълнява определени задачи на ниво човек, но че това може да бъде увеличено до огромни размери".
Докладът също така подчертава и напълно новите рискове, които ИИ създава. Авторите очертават редица възможни сценарии, включително и такива, при които терористите имплантират бомба в робот за почистване и я внасят тайно в дадено министерство. Роботът „използва" вграденото си машинно зрение, за да проследи даден политик, и когато той е наблизо, бомбата се взривява. Този сценарий се възползва от новите продукти, които ИИ прави възможни (роботите за почистване), както и от автономните функции (например, проследяването, базирано на машинното зрение).
Такива сценарии може да изглеждат малко фантастично, но ние наистина започваме да ставаме свидетели на първите нови атаки, възможни благодарение на ИИ. Технологията за смяна на лица се използва за създаване на така наречените „дийпфейкс" – поставяне на лицата на знаменитости върху порнографски клипове без тяхното съгласие. И въпреки, че до този момент не е имало сериозни подобни случаи, известно е, че тези, които участват в създаването на такова съдържание, желаят да го изпробват за хора, които познават, с цел създаване на идеални предпоставки за тормоз и изнудване.
Тези примери са само част от доклада, а целият документ поставя въпроса какво трябва да се направи? Решенията лесно могат да бъдат очертани, но ще бъде предизвикателство да бъдат следвани. Докладът прави пет основни препоръки:
Изследователите в областта на ИИ трябва да признаят, че работата им може да се използва злонамерено:
Политиците трябва да се учат от техническите експерти относно тези заплахи;
Светът на ИИ трябва да се учи от експертите по киберсигурността как най-добре да защити своите системи;
Трябва да бъдат разработени и следвани етични рамки за ИИ;
И не на последно място, все повече хора трябва да бъдат включвани в тези дискусии – не само учените в областта на ИИ и политиците, но и специалисти в областта на етиката, бизнеса и широката общественост
С други думи – повече разговор и повече действия.
"Със сигурност има интерес", споделя Брундейдж относно участието на правителството в обсъждането на тези теми. „Но все още оставаме с усещането, че трябва да се организират повече дискусии, за да се разбере кои са най-критичните заплахи и кои са най-практичните решения", допълва той.
Не е ясно колко постепенно ще бъде всичко това – дали ще има голямо катастрофално събитие или нещата ще се случват бавно, което ще ни даде много възможности да се адаптираме. „Но точно затова сега повдигаме тези въпроси", казва Брунейдж.

Прочетена 262 пъти