Хората могат да открият дълбоко фалшива реч само в 73% от случаите

Хората могат да открият дълбоко фалшива реч само в 73% от случаите
  • Written by:  Ш.Меламед
  • Date:  
    04.08.2023
  • Share:

Хората са в състояние да открият изкуствено генерирана реч само в 73% от случаите, със еднакви нива на точност, открити при говорещите английски и мандарин, установи проучване.
Изследователи от University College в Лондон използваха ИИ алгоритъм за преобразуване на текст в реч, обучен върху два публично достъпни набора от данни, единият на английски, а другият на мандарин, за да генерират 50 дълбоко фалшиви извадки реч на двата езика.
Deepfakes, форма на генеративен изкуствен интелект, са синтетични медии, които са създадени да наподобяват гласа на истински човек или подобието на външния му вид.
Звуковите проби бяха пуснати на 529 участници, за да се види дали могат да открият истинска проба от фалшива реч. Участниците успяха да идентифицират фалшива реч само в 73% от случаите. Този брой леко се подобри, след като участниците преминаха обучение за разпознаване на аспекти на дълбоко фалшива реч.
Изследването е първото, което оценява човешката способност да открива изкуствено генерирана реч. Това разкрива опасенията, че хората не са в състояние постоянно да откриват кога аудиото е дълбок фалшификат, въпреки че са обучени да го правят.
Кимбърли Мей, водещ автор на изследването, каза: „В нашето проучване ние показахме, че обучението на хората да откриват дълбоки фалшификати не е непременно надежден начин да станат по-добри в това. За съжаление, нашите експерименти също показват, че в момента автоматизираните детектори също не са надеждни. Те наистина са добри в откриването на deepfakes, ако са виждали подобни примери по време на своята фаза на обучение, ако говорителят е същият или клиповете са записани в подобна аудио среда. Но те не са надеждни, когато има промени в тестовите аудио условия - ако има различен говорител."
Тя каза, че е важно да се подобрят автоматизираните детектори за deepfake реч и организациите да „мислят за стратегии за смекчаване на заплахата, която представлява deepfake съдържанието". В deepfake видеото има повече улики отколкото в аудиото, чрез които да се определи дали е създадено синтетично.
Тази година Брад Смит, президент на Microsoft, каза „Най-голямото ми притеснение относно изкуствения интелект са дълбоките фалшиви съобщения. Докато развитието на дълбоките фалшификати продължава, широко достъпните сложни системи за откриване изостават".

Д-р Карл Джоунс, ръководител на инженерния отдел в университета Джон Мурс в Ливърпул, предупреди „Съдебната система на Обединеното кралство не е настроена да защитава от използването на дълбоки фалшификати. Deepfake речта е почти перфектното престъпление – защото не знаете, че е извършено", каза той.
Сам Грегъри, изпълнителен директор на Witness, създал инициативи за deepfakes, медийна манипулация и генеративен AI, каза, „Другата заплаха са хората, които твърдят, че истинското аудио е фалшиво и разчитат на факта, че няма широко разпространени инструменти за откриване дали това е така. В Witness говорим за липса на капитал за откриване. Хората, които се нуждаят от капацитет за откриване – журналисти и проверяващи факти, както и гражданското общество и служители на изборите – са тези, които нямат достъп до тези инструменти [за откриване]. Това е огромен проблем, който ще се влоши, ако не инвестираме в тези умения и ресурси".

Станете почитател на Класа