2024 г. ще бъде лакмус за ефекта на ИИ върху изборите и за вярата на избирателите в тях

Елън Джъдсън
Следващата година ще бъде страхотна година за демокрацията в целия свят, с общите избори в Индия, Мексико и парламента на ЕС, както и президентски избори от САЩ до Венецуела и Тайван. Тъй като общите избори в Обединеното кралство също предстоят не по-късно от 28 януари 2025 г., значителна част от световното население ще отиде до урните.
Но тази приливна вълна от политическа активност също ще отбележи първия голям изборен цикъл в ерата на широко разпространения генеративен ИИ. Редовете за „фалшивите новини" от последните години ще бъдат засилени и ускорени по начини, които едва започваме да си представяме.
Това е моята прогноза: основното смущение, причинено от това поколение ИИ, допълнително ще увреди начина, по който гражданите мислят за информацията, която виждат. Почти неизбежно е да видим скандали с политически кандидати, обвинени в използване на ИИ за генериране на тяхното съдържание, дори и да не са. Хората ще поставят под въпрос всичко, ще вярват по-малко и ще се изключат. Този модел, често използван в кампании за дезинформация, не само заблуждава, но създава хаос, така че хората не знаят на какво да вярват. Когато толкова много е съмнително, те просто се отказват дори от опитите си да разделят фактите от измислицата.
Има неща, които могат да бъдат направени за справяне с достоверността на съдържанието, като например Инициативата за автентичност на съдържанието, организация, която се стреми да установи стандарти, така че произходът на информацията да може да бъде потвърден. Редакциите разработват кодекси и политики за това как ще използват или няма да използват генеративен ИИ в собствената си работа.
Политическите партии трябва да поемат инициативата и да се ангажират с прозрачност относно това как използват генеративен ИИ, като публикуват отворени и достъпни политики преди изборните периоди. Вече има фурор в САЩ заради генерирана от ИИ републиканска политическа реклама – и критики, включително от Центъра за противодействие на дигиталната омраза, за липсата на ангажираност от страна на политическите партии да се справят директно с проблема.
Това все още не се е случило в Обединеното кралство, но шансовете са, че ще се случи. Това може да са генерирани от ИИ изображения на кандидати, които правят героични неща, които никога не са се случвали. Или може да са просто измислени атакуващи реклами. В даден момент политически кандидат ще изнесе реч, написана от ChatGPT, която съдържа „халюцинирани" статистики.
Отвъд политическите партии, рисковете продължават: жените политици, които вече се сблъскват ежедневно с онлайн омраза, ще открият манипулирани сексуализирани образи на себе си, които циркулират, като порнографски дълбоко фалшиви изображения. Или външни актьори, които искат да подкопаят демокрацията, могат да създадат „ферми за съдържание с изкуствен интелект", наводнявайки социалните медии с невярна или подвеждаща информация за изборите.
За да намерим трайни решения, трябва да разберем, че нашият проблем е много по-дълбок от това, че гражданите не могат надеждно да идентифицират коя информация е вярна. Механизмите, чрез които информацията се произвежда, разпространява и консумира, са все по-непрозрачни за нас.
Преди въпросният скрит механизъм беше около начините, по които платформите на социалните медии стимулират, подготвят и разпространяват информация: мистериозното действие на „алгоритъма". Сега запазваме всички тези проблеми и добавяме още повече с потенциално масовото приемане на генеративни ИИ технологии, чиито собственици не са отворени да споделят как са били разработени.
Без прозрачност за това как са проектирани, на какви данни са били обучени и как са били фино настроени, няма как да знаем какво движи информацията, която тези инструменти предлагат и следователно доколко можем да разчитаме на тях. Вместо гражданите да бъдат овластени да се ангажират критично с тези инструменти, ние разчитаме на думите на технологичните компании за това какви са ползите и рисковете. Технологичните компании държат цялата власт и са безотговорни.
Органът за конкуренция и пазари в Обединеното кралство сега преразглежда пазара на ИИ с поглед върху опасностите от потребление на невярна или подвеждаща информация, а Федералната търговска комисия в САЩ извършва подобно упражнение. Рисковете очевидно са в съзнанието на регулаторите и политиците, което е стъпка в правилната посока. Но все още не сме открили как да правим цифровото регулиране ефективно – и въпросът става все по-спешен.
Изборите през 2024 г. предлагат критичен лакмусов тест, за да се реши кой контролира: гражданите и техните демократично избрани правителства или големите технологии. Спешно трябва да обърнем внимание на въздействието на ИИ върху политиката, преди това да се случи, а не когато нещата се объркат. Политическите партии биха могли да изиграят своята роля, като ни уверят, че са прозрачни относно използването на тези инструменти.

Станете почитател на Класа