Физикът Макс Тегмарк - ученият зад забележително писмо, призоваващо за пауза в разработването на мощни системи за изкуствен интелект, каза, че технологичните ръководители не са спрели работата си, защото са в „надпревара към дъното".
Макс Тегмарк, съосновател на Future of Life Institute, организира през март отворено писмо, призоваващо за шестмесечна пауза в разработването на гигантски ИИ системи. Въпреки подкрепата на повече от 30 000 подписали, включително Илон Мъск и съоснователя на Apple Стив Возняк, документът не успя да осигури пауза в разработването на най-амбициозните системи.
Говорейки пред Guardian шест месеца по-късно, Тегмарк каза, че не е очаквал писмото да спре технологичните компании да работят върху ИИ модели, по-мощни от GPT-4, големият езиков модел, който захранва ChatGPT, защото конкуренцията е станала много интензивна. „Чувствах, че лично много корпоративни лидери, с които разговарях, искат пауза, но те бяха хванати в капана на тази надпревара към дъното един срещу друг. Така че никоя компания не може да спре сама", каза той.
Писмото предупреди за „надпревара извън контрол за развиване на умове, които никой не може да разбере, предвиди или да контролира надеждно", и призова „правителствата да се намесят, ако мораториум върху разработването на системи, по-мощни от GPT-4, не може да бъде договорен между водещите компании за изкуствен интелект като Google, собственика на ChatGPT OpenИИ и Microsoft.
„Трябва ли да развием нечовешки умове, които в крайна сметка биха могли да ни превъзхождат числено, да надхитрят, да ни направят излишни и да ни заменят? Трябва ли да рискуваме да загубим контрол над нашата цивилизация?", пита Тегмарк.
Тегмарк, професор по физика в Масачузетския технологичен институт, каза, че смята писмото за успех. „Писмото имаше по-голямо въздействие, отколкото си мислех, че ще има". Той посочи политическото пробуждане за ИИ, което включва изслушвания в Сената на САЩ с технологични ръководители и правителството на Обединеното кралство, свикало глобална среща на върха за безопасността на ИИ през ноември.
„Изразяването на тревога относно изкуствения интелект се превърна от табу в масов възглед след публикуването на писмото", каза Тегмарк. Писмото от неговия мозъчен тръст беше последвано през май от изявление на Центъра за безопасност на ИИ, подкрепено от стотици технологични ръководители и учени, в което се заявява, че ИИ трябва да се счита за обществен риск наравно с пандемиите и ядрената война.
„Чувствах, че има много натрупано безпокойство около това да работим с пълна пара с ИИ, което хората по света се страхуваха да изразят от страх да не се представят като всяващи страх лудити. Писмото легитимира говоренето за това; писмото го направи социално приемливо".
Страховете около разработването на ИИ варират от непосредствени, като способността да се генерират дълбоки фалшиви видеоклипове и масово производство на дезинформация, до екзистенциалния риск, породен от суперинтелигентни ИИ, които избягват човешкия контрол или вземат необратими и много последователни решения.
Тегмарк предупреди „да не се описва като дългосрочна заплаха, развитието на дигитална богоподобна обща интелигентност", цитирайки някои водещи учени по ИИ, които вярват, че това може да се случи в рамките на само няколко години.
Шведско-американският учен каза „Срещата на върха за безопасността на ИИ в Обединеното кралство през ноември, която ще се проведе в Bletchley Park, е чудесно нещо. Тя трябва да се насочи към три постижения: установяване на общо разбиране за сериозността на рисковете, породени от ИИ; признаване, че е необходим единен глобален отговор; и възприемане на необходимостта от спешна правителствена намеса".
Той добави, че все още е необходима пауза в разработката, докато не бъдат изпълнени глобалните договорени стандарти за безопасност. „Правенето на модели, по-мощни от това, което имаме сега, трябва да бъде спряно, докато те започнат да отговарят на договорените стандарти за безопасност. Договарянето какви да са стандартите за безопасност естествено ще предизвика паузата."
Той също призова правителствата да предприемат действия по отношение на моделите на ИИ с отворен код, които могат да бъдат достъпни и адаптирани от членове на обществеността. Meta на Марк Зукърбърг наскоро пусна голям езиков модел с отворен код, наречен Llama 2, и беше предупреден от един експерт от Обединеното кралство, че „Подобен ход е подобен на даване на хората на шаблон за изграждане на ядрена бомба".
„Опасната технология не трябва да бъде с отворен код, независимо дали е биологично оръжие или софтуер", каза Тегмарк.
Най-четени статии:
-
Президентът на Русия Владимир Путин обяви успешното изпитание на новата…
-
Остават малко повече от шестдесет дни преди края на мандата…
-
Zeit: Меркел заяви, че Путин иска уважително отношение към себе…
-
Украйна трябваше да се вслуша в съвета на бившия председател…
-
Севернокорейският лидер Ким Чен Ун обвини САЩ, че увеличават напрежението…
-
Със завръщането на Доналд Тръмп за втори мандат в Белия…
-
Украйна трябваше да се вслуша в съвета на бившия председател…
-
Радостта на британските средства за масова информация (СМИ) от ударите…
-
Администрацията на президента на САЩ Джо Байдън, който напуска поста…
-
«Неслучайно Зеленски беше мрачен като облак, дори когато обяви решението…
от нета
-
Овен Леко напрежение ще създавате около вас, може би защото…
-
Зъботехникът и фитнес инструктор Асен Николов е новият носител на…
-
Двамата водещи на хитовото риалити „Игри на волята“ – Ралица…
-
Колекцията от бижута, принадлежала на българския цар Фердинанд І Сакскобургготски…
-
Според последния доклад на Cushman & Wakefield „Main Streets Across…
-
Поп звездата Мариана Попова се появи „бременна“ на концерта на Орлин Горанов.…
-
Две звезди на OnlyFans решиха да заснемат порно с 18-годишни…
-
Maлĸo пpeди cтapтa нa зимния ceзoн в Бългapия, oблacт Cмoлян…
-
31-годишен мъж се обърна за съвет към експерта по връзките…
-
Измaми, cдeлĸи нa тъмнo, пoĸyпĸи в ĸeш, нeпpoдaвaeми или нaдцeнeни…