Физикът Макс Тегмарк - ученият зад забележително писмо, призоваващо за пауза в разработването на мощни системи за изкуствен интелект, каза, че технологичните ръководители не са спрели работата си, защото са в „надпревара към дъното".
Макс Тегмарк, съосновател на Future of Life Institute, организира през март отворено писмо, призоваващо за шестмесечна пауза в разработването на гигантски ИИ системи. Въпреки подкрепата на повече от 30 000 подписали, включително Илон Мъск и съоснователя на Apple Стив Возняк, документът не успя да осигури пауза в разработването на най-амбициозните системи.
Говорейки пред Guardian шест месеца по-късно, Тегмарк каза, че не е очаквал писмото да спре технологичните компании да работят върху ИИ модели, по-мощни от GPT-4, големият езиков модел, който захранва ChatGPT, защото конкуренцията е станала много интензивна. „Чувствах, че лично много корпоративни лидери, с които разговарях, искат пауза, но те бяха хванати в капана на тази надпревара към дъното един срещу друг. Така че никоя компания не може да спре сама", каза той.
Писмото предупреди за „надпревара извън контрол за развиване на умове, които никой не може да разбере, предвиди или да контролира надеждно", и призова „правителствата да се намесят, ако мораториум върху разработването на системи, по-мощни от GPT-4, не може да бъде договорен между водещите компании за изкуствен интелект като Google, собственика на ChatGPT OpenИИ и Microsoft.
„Трябва ли да развием нечовешки умове, които в крайна сметка биха могли да ни превъзхождат числено, да надхитрят, да ни направят излишни и да ни заменят? Трябва ли да рискуваме да загубим контрол над нашата цивилизация?", пита Тегмарк.
Тегмарк, професор по физика в Масачузетския технологичен институт, каза, че смята писмото за успех. „Писмото имаше по-голямо въздействие, отколкото си мислех, че ще има". Той посочи политическото пробуждане за ИИ, което включва изслушвания в Сената на САЩ с технологични ръководители и правителството на Обединеното кралство, свикало глобална среща на върха за безопасността на ИИ през ноември.
„Изразяването на тревога относно изкуствения интелект се превърна от табу в масов възглед след публикуването на писмото", каза Тегмарк. Писмото от неговия мозъчен тръст беше последвано през май от изявление на Центъра за безопасност на ИИ, подкрепено от стотици технологични ръководители и учени, в което се заявява, че ИИ трябва да се счита за обществен риск наравно с пандемиите и ядрената война.
„Чувствах, че има много натрупано безпокойство около това да работим с пълна пара с ИИ, което хората по света се страхуваха да изразят от страх да не се представят като всяващи страх лудити. Писмото легитимира говоренето за това; писмото го направи социално приемливо".
Страховете около разработването на ИИ варират от непосредствени, като способността да се генерират дълбоки фалшиви видеоклипове и масово производство на дезинформация, до екзистенциалния риск, породен от суперинтелигентни ИИ, които избягват човешкия контрол или вземат необратими и много последователни решения.
Тегмарк предупреди „да не се описва като дългосрочна заплаха, развитието на дигитална богоподобна обща интелигентност", цитирайки някои водещи учени по ИИ, които вярват, че това може да се случи в рамките на само няколко години.
Шведско-американският учен каза „Срещата на върха за безопасността на ИИ в Обединеното кралство през ноември, която ще се проведе в Bletchley Park, е чудесно нещо. Тя трябва да се насочи към три постижения: установяване на общо разбиране за сериозността на рисковете, породени от ИИ; признаване, че е необходим единен глобален отговор; и възприемане на необходимостта от спешна правителствена намеса".
Той добави, че все още е необходима пауза в разработката, докато не бъдат изпълнени глобалните договорени стандарти за безопасност. „Правенето на модели, по-мощни от това, което имаме сега, трябва да бъде спряно, докато те започнат да отговарят на договорените стандарти за безопасност. Договарянето какви да са стандартите за безопасност естествено ще предизвика паузата."
Той също призова правителствата да предприемат действия по отношение на моделите на ИИ с отворен код, които могат да бъдат достъпни и адаптирани от членове на обществеността. Meta на Марк Зукърбърг наскоро пусна голям езиков модел с отворен код, наречен Llama 2, и беше предупреден от един експерт от Обединеното кралство, че „Подобен ход е подобен на даване на хората на шаблон за изграждане на ядрена бомба".
„Опасната технология не трябва да бъде с отворен код, независимо дали е биологично оръжие или софтуер", каза Тегмарк.
Най-четени статии:
-
И го правят по всякакъв начин, както в страната, така…
-
Операцията на израелската армия в Ивицата Газа продължава. По време…
-
Безпилотните системи са бъдещите „военни“ на бойното поле и рано…
-
Люксембург се противопоставя на приемането на Украйна в Северноатлантическия алианс,…
-
„Само за страните от НАТО“: Системите за ПВО Patriot и…
-
Руската армия пробива към Покровск, боевете са вече на 6…
-
«Според септемврийското проучване на Института за глобални проблеми 66% от…
-
RS: Байдън не оставя на украинците надежда за мирно регулиране…
-
Администрацията на победителя в президентските избори в САЩ Доналд Тръмп…
-
Генералният секретар на НАТО призова Киев да отложи мирните преговори…
от нета
-
Овен Динамичен ден. Ще имате нужда от резултати и…
-
Ружа Игнатова се появи на билборд в Кейптаун, Република Южна…
-
"Няма и следа от бащата на Мануела Горсова. Никой не…
-
От Третата световна война ни делят само няколко месеца, ако…
-
Овен Този ден може да се превърне в денят…
-
Лорън Санчес отново привлече вниманието със своята харизма и сексапил,…
-
Еротичният модел и инфлуенсър Софи Рейн благодари на абонатите си…
-
57-годишен мъж на име Лиъм, диагностициран с деменция преди четири…
-
Между 2 и 6 хиляди лева са платили измамени хора…
-
Множество доклади показват, че много от дрехите от Китай съдържат…