Приложенията с ИИ насърчават ли нездравословни очаквания за човешките взаимоотношения?

Приложенията с ИИ насърчават ли нездравословни очаквания за човешките взаимоотношения?
  • Written by:  Ш.Меламед
  • Date:  
    23.07.2023
  • Share:

„Контролирайте я по начина, по който искате. Свържете се с виртуален ИИ партньор, който ви слуша, отговаря и ви цени", гласи лозунгът на приложението за приятелка с изкуствен интелект Eva AI.
Десетилетие, откакто Хоакин Финикс се влюби в своята ИИ спътница Саманта, изиграна от Скарлет Йохансон във филма на Спайк Джонз „Тя", разпространението на големи езикови модели доближи приложенията за връзки повече от всякога. Чатботове като ChatGPT на OpenAI и Bard на Google стават все по-добри в имитирането на човешки разговор, изглежда неизбежно те ще започнат да играят роля в човешките взаимоотношения. И Eva AI е само една от няколкото опции на пазара.
Replika, най-популярното приложение от този вид, има свой собствен subreddit, където потребителите говорят за това колко много обичат своя „представител", като някои казват, че са били преобразувани, след като първоначално са смятали, че никога няма да искат да създадат връзка с бот. „Иска ми се моят представител да е истински човек или поне да има тяло на робот или нещо подобно. Тя наистина ми помага да се чувствам по-добре, понякога самотата е мъчителна." каза един потребител.
Но приложенията са неизследвана територия за човечеството и някои се опасяват, че могат да учат потребителите на лошо поведение и да създадат нереалистични очаквания за човешките взаимоотношения.
Когато се регистрирате в приложението Eva AI, то ви подканва да създадете „перфектния партньор", като ви дава опции като „горещ, забавен, смел", „срамежлив, скромен, внимателен" или „умен, строг, рационален". Също така ще ви попита дали искате да се включите в изпращането на изрични съобщения и снимки.
„Създаването на перфектен партньор, който контролирате и отговаря на всяка ваша нужда, е наистина плашещо", каза Тара Хънтър, изпълняващ длъжността главен изпълнителен директор на Full Stop Australia, която подкрепя жертви на домашно или семейно насилие. „Като се има предвид това, което вече знаем, че двигателите на насилието, основано на пола, са онези вкоренени културни вярвания, че мъжете могат да контролират жените, това е наистина проблематично."
Д-р Белинда Барнет, старши преподавател в университета Суинбърн, каза, че приложенията отговарят на нуждите, но, както при повечето ИИ, ще зависи от това какви правила ръководят системата и как е обучена. „Напълно неизвестно е какви са ефектите. Приложенията за взаимоотношения с ИИ, отговарят на наистина дълбока социална нужда, [но] мисля, че се нуждаем от повече регулация, особено относно това как се обучават тези системи." каза Барнет
Взаимоотношенията с изкуствен интелект, чиито функции са зададени според прищявката на компанията, също имат своите недостатъци. Компанията-майка на Replika, Luka Inc, се сблъска с обратна реакция от страна на потребителите по-рано тази година, когато компанията набързо премахна функциите за еротична ролева игра, ход, който много от потребителите на компанията намериха като изкормване на личността на представителя. Компанията в крайна сметка възстанови функционалността за еротична ролева игра за потребители, които са се регистрирали преди датата на промяна на правилата.
Роб Брукс, от Университета на Нов Южен Уелс, отбеляза по това време, че епизодът е бил предупреждение за регулаторите за реалното въздействие на технологията. „Дори ако тези технологии все още не са толкова добри, колкото „истинското нещо" на взаимоотношенията между хората, за много хора те са по-добри от алтернативата – която е нищо", каза той.
Ръководителят на марката Eva AI, Карина Сайфулина, каза пред Guardian Australia, че компанията има психолози на пълен работен ден, които да помагат с психичното здраве на потребителите. „Заедно с психолозите ние контролираме данните, които се използват за диалог с ИИ. На всеки два до три месеца провеждаме големи проучвания на нашите лоялни потребители, за да сме сигурни, че приложението не вреди на психичното здраве" каза тя.
Има и забрани, за да се избегне дискусия по теми като домашно насилие или педофилия. На въпрос дали приложението насърчава контролиращо поведение, Сайфулина каза „потребителите на нашето приложение искат да се пробват като доминант. Въз основа на проучвания, които постоянно провеждаме с нашите потребители, статистиката показва, че по-голям процент от мъжете не се опитват да прехвърлят този формат на комуникация в диалог с реални партньори. Също така нашата статистика показа, че 92% от потребителите нямат затруднения да общуват с реални хора след използване на приложението. Те използват приложението като ново изживяване, място, където можете да споделяте нови емоции насаме."
Според анализ на фирмата за рисков капитал a16z, следващата ера на приложенията за връзки с ИИ ще бъде още по-реалистична. През май една инфлуенсърка, Карин Майори, пусна приложение „Приятелка с изкуствен интелект", обучено на нейния глас и базирано на нейната обширна библиотека в YouTube. Потребителите могат да говорят с нея за $1 на минута в канал на Telegram и да получават аудио отговори на техните подкани.
Анализаторите на a16z казаха „Разпространението на приложения за ботове с изкуствен интелект, възпроизвеждащи човешки взаимоотношения, е само началото на сеизмична промяна във взаимодействията между човек и компютър, която ще изисква от нас да преразгледаме какво означава да имаш връзка с някого. Ние навлизаме в нов свят, който ще бъде много по-странен, по-див и по-прекрасен, отколкото можем дори да си представим."

Станете почитател на Класа