ДА СИ ПРЕДСТАВИМ ДЕНЯ НА СТРАШНИЯ СЪД
Изкуственият интелект (ИИ) ще трансформира света, но дали ще е сила на доброто или злото все още подлежи на дебат. Сега екип експерти събрани по инициатива на Щатския университет Аризона разглежда най-лошите възможни сценарии или потенциалния риск ИИ да се превърне в сериозна заплаха за човечеството.
„Има огромен потенциал ИИ да трансформира толкова много аспекти на нашето общество по толкова много различни начини и същевременно има потенциални рискове и неизгладени ръбове, както при всяка технология,“ казва ученият в областта на ИИ Ерик Хорвиц.
Като оптимистичен привърженик на всичко, което ИИ може да предложи, Хорвиц има оптимистичен възглед за бъдещето на ИИ. Но същевременно той е и достатъчно прагматичен да знае, че за да напредва и да се развива, технологията трябва да спечели доверието на широката публика. За да стане това, трябва да се дискутират всички възможни опасения, свързани с технологията.
По тази причина 40 учени, експерти по киберсигурност, законотворци са били разделени на два екипа, за да изследват многобройните начини, по които ИИ може да причини вреда на света. Червеният екип бил натоварен със задачата да си представи сценариите, които биха довели до различни катаклизми, а синият екип трябвало да намери решения за защита от такива атаки.
Тези ситуации трябва да са по-скоро реалистични, отколкото хипотетични, фокусирани върху възможното на базата на технологиите, с които разполагаме към днешна дата, а също и според очакванията за ИИ през следващите няколко десетилетия.
АКО ИЗКУСТВЕНИЯТ ИНТЕЛЕКТ ОТКАЧИ
Сред дискутираните сценарии са автоматизирани кибер атаки (при които кибер оръжие е достатъчно интелигентно да се скрива след атаката и по този начин елиминира всички усилия за унищожаването му), манипулация на фондовите борси от машини, автономни превозни средства, които не успяват да разпознават важни знаци на пътя и ИИ, който проваля, опорочава или манипулира избори и изборни резултати.
Не всички сценарии са получили задоволителни решения впрочем. Това е илюстрация на нашата неподготвеност да се изправим пред различните ситуации, които ИИ може да предизвика. Например, в случай на интелигентна, автоматизирана кибер атака за хакерите ще бъде сравнително лесно да използват нищо неподозиращи интернет геймъри, които да покрият следите им, използвайки някаква обикновена онлайн игра, която да замаскира самата атака.
Може да е развлекателно да се разсъждава върху тези сценарии за Деня на страшния съд, но всъщност този дебат е добра първа стъпка към истинските разговори и съответно осведоменост за заплахите, произтичащи от ИИ. Джон Лончбъри от Американската отбранителна агенция се надява, че разговорите ще доведат до постигане на конкретни ангажименти и правила по отношение на кибер войните, автоматизираните оръжия и войсковите поделения от роботи.
Целта на този конкретен уоркшоп в крайна сметка не е била да се предизвика страх, а реалистично да се разгледат различните възможности за злоупотреба с технологията и съответно да се търсят варианти за защита в подобни случаи.