Един добър модел на изкуствен интелект не само може да ни убеди в разговор, но и е способен да го направи по-добре от човек. Това е заключението на едно проучване, публикувано тази седмица в Nature, в което се разкрива, че чатботовете са по-умели в убеждаването на хората, отколкото самите хора помежду си.
Откритието повдига редица тревожни въпроси, пише барселонското издание La Vanguardia. Може ли ИИ да се използва за повлияване на маркетингови или предизборни кампании с персонализирани аргументи, базирани на психологическите характеристики, които разкрива онлайн поведението на всеки потребител? И още по-тревожно: някой вече прави ли го?
В проучването, ръководено от Франческо Салви от Швейцарския федерален технологичен институт в Лозана, 900 души от САЩ са били свързани с друг човек или с модела GPT-4 на OpenAI (ChatGPT), за да обсъждат социално-политически въпроси, като например дали трябва да се забранят изкопаемите горива. В някои от дебатиращите двойки единият от събеседниците, независимо дали е човек или ИИ, получава демографска информация за своя партньор (пол, възраст, етническа принадлежност, ниво на образование, трудов статус и политическа принадлежност), която беше събрана от предварителни анкети сред всички участници. Когато чатботът с ИИ разполага с лична информация за човека, с когото дебатира, той е с 64,4% по-убедителен от човешките опоненти. От друга страна, ако алгоритъмът не разполага с лични данни, убедителността му е сходна с тази на хората.
Авторите посочват, че кампаниите, които изпращат специфични съобщения за всеки човек, към когото са насочени, известни като микротаргетиране, обикновено са ограничени от необходимостта да се профилира всеки индивид и да се изготвят персонализирани съобщения за всеки от тях. На това се основаваше дейността на Cambridge Analytica, която използваше информация от психологическите профили на над 50 милиона американски избиратели, за да им изпраща съобщения, с които да манипулира мнението им. Това се случи през 2014 г. Днес, с изкуствения интелект, това би било по-лесно.
Илюстрация: ИИ
Когато някой се опита да стартира кампания от този тип, се сблъсква с някои препятствия. Не е лесно, освен ако не разполагате с данни от някои от най-популярните социални мрежи, да получите профилите на милиони хора и да измислите какви трябва да бъдат отговорите за всеки един от тях. Но според авторите на проучването тези ограничения „могат да изчезнат скоро благодарение на неотдавнашния бум на големите езикови модели, модели за машинно обучение, обучени да имитират човешкия език и мислене, като поглъщат големи количества текстови данни“. Според тях някои от съществуващите модели „могат да генерират кохерентни и контекстуално релевантни текстове с плавност и гъвкавост и да показват човешко или свръхчовешко представяне в широк спектър от задачи“.
В този контекст работата събира мненията на експерти, които „са изразили широко своята загриженост относно риска големите езикови модели да бъдат използвани за манипулиране на онлайн разговори и замърсяване на информационната среда чрез разпространяване на невярна информация, изостряне на политическата поляризация, засилване на ехо камерите и убеждаване на хората да приемат нови вярвания“. Положението изглежда изисква някаква регулация, въпреки гласовете, които днес се изказват против, за да не се забави иновацията в развитието на ИИ.
Докладът посочва, че „злонамерени дейци, заинтересовани от разгръщането на чатботове за мащабни дезинформационни кампании, биха могли да се възползват от подробните цифрови следи и данните за поведението, за да създадат сложни и убедителни механизми, способни да се адаптират към индивидуални цели“. Така че единственото решение изглежда се крие в самия ИИ. Авторите предлагат моделите да се фокусират върху „противодействие на масирани дезинформационни кампании, като генерират също толкова персонализирани контранаративи, за да образоват потенциално уязвимите потребители на подвеждащи публикации“. Всъщност те посочват, че вече се полагат усилия в тази насока, за да може ChatGPT да разбива конспиративните теории.
Авторите на това проучване отбелязват някои ограничения на работата си, като размера на извадката или факта, че участващите хора е трябвало да защитават предложената теза, дори и да не вярват в нея. Сред външните мнения Карлос Караско Фаре, професор по информационни системи, изкуствен интелект и наука за данните в Toulouse Business School (Франция), счита, че „GPT-4 може да адаптира своето послание мигновено и в голям мащаб, което му дава непропорционално предимство в среди като политически кампании, персонализиран маркетинг или разговори в социалните мрежи. Тази способност за автоматизирано микротаргетиране отваря нови възможности за повлияване на общественото мнение, но също така увеличава риска от скрита манипулация“. Предупредени сме.