Защо компютрите няма да поумнеят сами

Защо компютрите няма да поумнеят сами
  • Публикация:  classa.bg***
  • Дата:  
    19.04.2021
  • Сподели:

 

„Ако човешкият мозък беше толкова прост, че да можем да го раберем, ние щяхме да сме толкова прости, че нямаше да можем да го разберем“, казва инженерът-изследовател от IBM Емерсън Пъг. Това твърдение има интуитивен характер, но най-важното е, че можем да посочим конкретен пример в негова подкрепа: микроскопичният кръгъл червей C. elegans. Той е може би един от най-добре изучените организми в историята. Учените са разчели неговия геном и знаят последователността на делене на неговите клетки, които съставляват всеки от 959-те стомашни клетки на тялото му, и са описали всяка връзка между неговите 302 неврона. Но те все още не разбират напълно неговото поведение. Смята се, че човешкият мозък има средно 86 млрд. неврони и може би ще имаме нужда от почти всички тях, за да разберем какво се случва в 302-та на C. elegans. Това съотношение не говори добре за шансовете да разберем какво се случва в нас самите.

 

 

Тед Чианг е автор на научно-фантастична литература, отличена с награди. През 2016 г. едноименният разказ от сборника му „Истории от твоя живот и други“ е адаптиран във филма „Arrival”. Той живее в Белвю, Вашингтон, където работи като професионален информационен посредник на свободна практика.

 

Ние се страхуваме от „сингуларността“ и я жадуваме. Но тя може би никога няма да дойде.

 

През XI в. св. Анселм Кентърбърийски предлага аргумент за съществуването на Бог, който гласи приблизително следното: Бог е, по дефиниция, най-великото същество, което можем да си представим. Бог, който не съществува, очевидно не е толкова велик, колкото Бог, който съществува. Ерго, Бог съществува. Това е познато като онтологичния аргумент и съществуват доста хора, които го намират за убедителен, така че той все още е дискутиран, почти хиляда години по-късно. Някои критици на онтологичния аргумент твърдят, че в основата си той просто определя едно същество за съществуващо и че това не е начинът, по който дефинициите работят.

Бог не е единственото същество, чието съществуване хората са се опитвали да аргументират по този начин. „Нека дефинираме ултраинтелигентната машина като машина, която може далеч да надхвърли всички интелектуални дейности на човек, колкото и умен да е той“, пише математикът Ъруин Джон Гууд през 1965 г.

 

И понеже създаването на машини е една от интелектуалните дейности, една ултраинтелигентна машина може да създаде дори още по-добри машини. Тогава несъмнено ще имаме „експлозия на интелекта“ и човешкият интелект ще изостане далеч назад. По този начин първата ултраинтелигентна машина ще бъде и последното изобретение, което ще е нужно да направи човекът, стига само машината да бъде достатъчно покорна да ни каже как да я държим под контрол.

 

Идеята за експлозия на интелекта беше съживена през 1993-а, от автора и компютърен инженер Върнър Виндж, който я нарече „сингуларност“ и тази идея достигна оттогава известна популярност сред технологичните специалисти и философите. Книги като „Суперинтелект: Пътища, Опасности, Стратегии“ на Ник Бостръм, „Живот 3.0: Да бъдеш човек в епохата на Изуствения Интелект“ на Макс Тегмарк и „Съвместимо с човек: Изкуственият Интелект и проблемът за контрола“ на Стюарт Ръсел описват сценарии на „постоянно самоусъвършенстване“, в които програма с изкуствен интелект непрестанно създава подобрена версия на самата себе си.

 

Мисля, че аргументите на Гууд и на Анселм имат нещо общо, а именно, че и в двата случая голяма част от работата е била свършена от първоначалните дефиниции. Тези дефиниции изглеждат на пръв поглед смислени, поради което и са възприемани като цяло за чиста монета, но те заслужават по-обстойно разглеждане. Мисля, че колкото повече изследваме имплицитното твърдение на Божествения аргумент, толкова по-невероятна става идеята за експлозия на интелекта.

 

Как би могло да изглежда постоянното самоусъвършенстване при хората? За удобство ще разгледаме човешкия интелект в понятията на IQ, не в подкрепа на тестването на коефициента на интелигентност, а защото IQ представлява идеята, че интелектът може успешно да бъде регистриран с цифра, като тази идея е едно от твърденията на привържениците на експлозията на интелекта. В този случай постоянното самоусъвършенстване би изглеждало така: ако имаме човек с IQ да кажем 300, един от проблемите, които този човек може да разреши, е как да превърне човек с IQ 300 в човек с IQ 350. След това човекът с IQ 350 ще може да реши по-сложният проблем с превръщането на човек с IQ 350 в човек с IQ 400. И така нататък.

 

Имаме ли някакви основания да мислим, че това е начинът, по който работи интелектът? Не мисля, че имаме. Например, има много хора с IQ 130 и по-малък брой хора, които имат IQ 160. Никой от тях не е бил в състояние да увеличи интелекта на някого от IQ 70 на IQ 100, което се предполага да е по-лесна задача. Никой от тях не е способен да увеличи интелекта дори на животни, чиято интелигентност се смята за твърде ниска, за да бъде измерена с помощта на IQ тест. Ако увеличаването на IQ на някого беше дейност, подобна на решаването на математически пъзел, ние щяхме да видим успешни примери за това на най-ниското ниво, където проблемите са най-лесни за решаване. Но ние не виждаме убедителни доказателства за случването на такова нещо.

 

Може би защото на този етап сме твърде далеч от необходимото ниво. Може би IQ 300 е минимумът, нужен за повишаване на чиято и да е интелигентност. Но дори и това да е вярно, ние все още нямаме добра причина да вярваме, че безкрайното непрестанно самоусъвършенстване е вероятно. Например, напълно е възможно да се окаже, че най-доброто, което човек с IQ 300 може да направи, е да повиши IQ на друг човек до 200. Това би позволило на човек с IQ 300 да гарантира на всички около него IQ от 200, което, честно казано, би било изумително постижение. Но това все още не ни води никъде, в този случай нямаме постоянно самоусъвършенстване и нямаме експлозия на интелекта.

 

Инженерът-изследовател от IBM Емерсън Пъг казва: „Ако човешкият мозък беше толкова прост, че да можем да го раберем, ние щяхме да сме толкова прости, че нямаше да можем да го разберем.“ Това твърдение има интуитивен характер, но най-важното е, че можем да посочим конкретен пример в негова подкрепа: микроскопичният кръгъл червей C. elegans. Той е може би един от най-добре изучените организми в историята. Учените са разчели неговия геном и знаят последователността на делене на неговите клетки, които съставляват всеки от 959-те стомашни клетки на тялото му, и са описали всяка връзка между неговите 302 неврона. Но те все още не разбират напълно неговото поведение. Смята се, че човешкият мозък има средно 86 милиарда неврони и може би ще имаме нужда от почти всички тях, за да разберем какво се случва в 302-та на C. elegans. Това съотношение не говори добре за шансовете да разберем какво се случва в нас самите.

 

Някои привърженици на експлозията на интелекта спорят, че е възможно да се увеличи интелигентността на една система, без напълно да се разбира как работи тази система. Те твърдят, че интелигентните системи, като човешкият мозък или програмата с изкуствен интелект, имат едно или повече скрити „интелигентни копчета“ и ние трябва само да сме достатъчно хитри да намерим копчетата. Не съм сигурен, че в момента имаме достатъчно добри кандидати за тези копчета, така че е трудно да се оцени основателността на тази идея. Може би най-всеобщо предлаганият начин за „включване“ на изкуствения интелект е да се увеличи скоростта на хардуера, на който програмата оперира. Някои казват, че веднага щом създадем софтуер, толкова интелигентен, колкото е човешкото същество, пускането на софтуера на по-бърз компютър ефективно ще създаде свръхчовешки интелект. Би ли довело това до експлозия на интелекта?

 

Да си представим, че имаме програма с ИИ, която е точно толкова интелигентна и способна, колкото средния компютърен програмист. Сега да предположим, че ускорим нейната компютърна скорост сто пъти и оставим програмата да работи в продължение на една година. Това би било еквивалентно на затварянето на средно човешко същество в стая за период от сто години, което не прави нищо друго, освен да работи по възложената му работа за програмиране. Много човешки същества биха сметнали, че това е адска затворническа присъда, но, за целите на този сценарий, нека си представим, че ИИ не се чувства по този начин. Ще приемем, че ИИ има всички желани качества на човешко същество, но не притежава нито едно от качествата, които биха били пречка за този сценарий, като нуждата от промяна, или желанието да прави собствен избор. (За мен основателността на подобно предположение не е очевидна, но можем да оставим този въпрос за друг път.)

 

И така, сега имаме ИИ, който е еквивалент на човек и който прекарва сто човеко-години, работейки върху една-единствена задача. Какви резултати можем да очакваме да постигне? Да предположим, че този ИИ може да напише и да поправи код, състоящ се от хиляди редове дневно, което е забележително ниво на продуктивност. При подобна скорост, един век би бил достатъчно време да напише собственоръчно Windows XP, който вероятно се състои от код с 45 милиона реда. Това е впечатляващо постижение, но е твърде далеч от способността да напише ИИ, който да е по-интелигентен от самия него. Създаването на по-умен ИИ изисква повече от способността да се напише добър код. Изисква огромен пробив в изледването на ИИ, а това не е нещо, което среден компютърен програмист задължително може да постигне, независимо колко време му дадете.

 

Когато разработвате софтуер, обикновено използвате програма, позната като компилатор. Компилаторът взима сорс-кода, който вие сте написали, примерно на език С, и го превежда в изпълняваща програма: файл, съдържащ машинен код, който е разбираем за компютъра. Да приемем, че не сте доволни от С-компилатора, който използвате – да го наречем Компилатор Нула. Компилатор Нула изисква много време, за да обработи вашия сорс-код, а програмата, която генерира, изисква много време, за да тръгне. Убедени сте, че можете да се справите и по-добре, така че пишете нов С-компилатор, който генерира по-ефективно машинния код. Този нов компилатор е познат като оптимизиращ компилатор.

 

Написали сте вашия оптимизиращ компилатор на С, така че можете да използвате Компилатор Нула, за да преведе вашия сорс-код в изпълняваща програма. Да наречем тази програма Компилатор Едно. Благодарение на вашата изобретателност, Компилатор Едно вече генерира програми, които работят по-бързо. Но самият Компилатор Едно все още изисква повече време, за да изпълни задачата, защото е продукт на Компилатор Нула. Какво можете да направите?

 

Можете да използвате Компилатор Едно, който да компилира себе си. Захранвате Компилатор Едно с неговия собствен сорс-код и той генерира нов изпълняващ файл, състоящ се от по-ефикасен машинен код. Наречете това Компилатор Две. Компилатор Две също генерира програми, които работят много бързо, но има допълнителното предимство, че и самият той работи много бързо. Поздравления – написахте самоусъвършенстваща се компютърна програма.

 

Но това е всичко. Ако захраните Компилатор Две със същия сорс-код, ще получите просто още едно копие на Компилатор Две. Той не може да създаде Компилатор Три и да сложи начало на ескалираща серия от все по-добри компилатори. Ако искате компилатор, който генерира програми, които работят безумно бързо, ще трябва да потърсите другаде.

 

Техниката за компилатор, който компилира себе си, е позната като буутстрапинг и се използва от 1960-те насам. Оптимизирането на компилатори е извървяло дълъг път оттгогава, така че разликите между Компилатор Нула и Компилатор Две моат да бъдат много по-големи, отколкото някога са били, но целият този прогрес е постигнат от хора програматори, а не от компилатори, които усъвършенстват себе си. И макар компилаторите да са много различни от програмите с изкуствен интелект, те предлагат полезен прецедент за размисъл върху идеята за експлозия на интелекта, защото са компютърни програми, които генерират други компютърни програми и защото когато правят това, оптимизацията често е приоритет.

 

Колкото повече знаете за предназначението на една програма, толкова по-добре можете да оптимизирате кода ѝ. Програмистите понякога собственоръчно оптимизират секции от дадена програма, което означава, че директно специфицират инструкциите на машината. Хората могат да напишат машинен код, който е по-ефикасен от този, който е генериран от компилатор, защото те знаят повече за това, което програмата се очаква да прави, отколкото знае компилаторът. Компилаторите, които най-добре извършват оптимизации, са онези, които имат език в специфична област (domain-specific language), създаден специално за писане на тесни категории от програми.

 

Например, има програмен език, наречен Халид, създаден специално за писане на програми за обработка на изображения. Тъй като предназначението на тези програми е толкова специфично, един Халид компилатор може да създаде също толкова добър, или по-добър код, отколкото програмистът може да напише. Но Халид-компилаторът не може да компилира себе си, защото неговият език, оптимизиран за обработка на изображения, не притежава всички качества, необходими за написването на компилатор. Имате нужда от език за обща употреба, за да направите това, а компилаторите за обща употреба имат затруднения да се съревновават с програмистите, когато става дума за генериране на машинен код.

 

Компилатор за обща употреба трябва да бъде способен на компилира всичко. Ако го захраните със сорс-код за Word процесор, той ще генерира Word процесор; ако го захраните със сорс-код за МР3 плеър, той ще генерира МР3 плеър, и така нататък. Ако утре програмист измисли нов вид програма, нещо толкова непознато за нас днес, колкото беше най-първият Уеб браузър през 1990-а, може да захрани сорс-кода ѝ в компилатор за обща употреба, който прилежно ще генерира тази нова програма. Така че, макар компилаторите да не са по никакъв начин интелигентни, те имат едно общо нещо с интелигентното човешко същество: способни са да се справят с информация, която никога преди това не са виждали.

 

Сравнете това с ИИ програмите, по начина, по който са създадени в момента. Вземете ИИ програма, която е запозната с ходовете на шах и която, в отговор, трябва да плюе само ходове от шаха. Нейната работа е много специфична и отчитането на това е извънредно улеснение за оптимизиране на нейната работа. Същото се отнася и за ИИ програма, на която са зададени само параметри за „Опасност!“ и която трябва само да дава отговори при задаване на въпроси. Няколко ИИ програми са създадени за игра на подобни игри, но очакваният обхват на входяща и изходяща информация е все още извънредно тесен. Сега, вместо това, си представете, че пишете ИИ програма и нямате задълбочени познания какъв тип информация очаква тя, или каква форма ще придобие коректният отговор. В тази ситуация е трудно да се оптимизира работата ѝ, защото нямате идея какво оптимизирате.

 

Колко можете да оптимизирате изобщо? До каква степен можете едновременно да оптимизирате една система за всяка възможна ситуация, включително ситуации, които никога преди това не са се случвали? Предполага се, че известно подобрение е възможно, но идеята за експлозия на интелекта предполага, че принципно няма граници за степента на оптимизация, която може да се достигне. Това е доста силно твърдение. Ако някой твърди, че безкрайна оптимизация за всичко е възможна, бих искал да видя някакви аргументи, освен цитирането на примери за оптимизация на специализирани задачи.

 

Очевидно нищо от това не доказва, че експлозия на интелекта е невъзможна. Аз действително се съмнявам, че подобно нещо може да се докаже, защото тази материя може би не е в областта на математическите доказателства. Тук не става дума да се докаже, че нещо е невъзможно. Въпросът е какво е правилното основание да повярваме. Критиците на онтологичния аргумент на Анселм не се опитват да докажат, че няма Бог. Те просто казват, че аргументът на Анселм не представлява добро основание да повярваме, че Бог съществува. По същия начин, една дефиниция за „ултраинтелигентна машина“ не е достатъчна причина да мислим, че можем да конструираме такава.

 

Има един контекст, в който мисля, че постоянното самоусъвършенстване е значима идея и това е, когато оценяваме способностите на човешката цивилизация като цяло. Забележете, че това е различно от индивидуалния интелект. Няма причина да вярваме, че хората, родени преди десет хиляди години са били по-малко интелигнетни от родените днес. Те са имали абсолютно същата способност да учат, каквато имаме и ние. Но днес ние имаме десет хиляди години напредък на технологиите на наше разположение и тези технологии не са само физически, те са също и когнитивни.

 

Да разгледаме арабските числа в сравнение с римските числа. С позиционната система на записване, каквато е създадената с арабските числа, е по-лесно да се извършва умножение и деление. Ако сте участник в състезание по умножение, арабските числа ви дават предимство. Но не бих казал, че някой, използващ арабските числа е по-умен от друг, който използва римските. По аналогия, ако се опитвате да завиете болт и използвате гаечен ключ, ще се справите по-добре от някой, който използва клещи, но няма да е честно да се каже, че вие сте по-силен. Вие имате инструмент, който ви предоставя по-добро механично предимство. Само ако дадем на вашия съперник същото средство, можем справедливо да отсъдим кой е по-силен. Когнитивни инструменти като арабските числа предлагат подобно предимство. Ако искаме да сравним интелигентността на индивидите, те трябва да са снабдени с еднакви инструменти.

 

Простите инструменти са направили възможно създаването на сложни такива. Това е също толкова вярно за когнитивните инструменти, колкото и за физическите. Човечеството е развило хиляди подобни инструменти през историята, вариращи от двойното счетоводство до картезианската координатна система. Така че, дори да не сме по-интелигентни, отколкото сме били преди, имаме на наше разположение по-широк набор от когнитивни инструменти, което, на свой ред, ни позволява да изобретим още по-мощни инструменти.

 

По този начин се случва постоянното самоусъвършенстване – не на ниво индивиди, а на ниво човешка цивилизация като цяло. Не бих казал, че Исак Нютон е станал по-интелигентен, когато е измислил диференциалното и интегрално смятане. Той трябва да е бил страшно интелигентен, за да може да ги изобрети, на първо място. Аритметиката му помага да реши определени проблеми, които преди това не е могъл да реши, но той не е най-големият бенефициент на изобретението си – това е останалата част от човечеството. Тези, които идват след Нютон, се възползват от математиката по два начина – в краткосрочен план са могли да решават проблеми, които преди това не са могли, в дългосрочен план те са могли да изградят върху работата на Нютон други, още по-мощни математически техники.

 

Тази способност на хората да градят върху работите си е точната причина да не вярвам, че пускането на ИИ програма с човешки еквивалент за период от сто години в изолация е добър начин да се постигнат значими открития. Индивидуална работа в пълна изолация може да постигне пробив, но е слабо вероятно да успява всеки път. Много по-добре ще е да имате много хора, черпещи вдъхновение един от друг. Не е нужно да си сътрудничат пряко. Всяка област на изследване ще процъфтява повече, когато в нея работят много хора.

 

Вземете изследването на ДНК за пример. Джеймс Уотсън и Франсис Крик са били активни в продължение на десетилетия, след публикуването през 1953-а на труда им за структурата на ДНК, но нито един от последвалите големи пробиви в изучаването на ДНК не е бил направен от някой от тях. Те не са измислили техники за подреждането на ДНК. Някой друг го е направил. Те не са развили полимеразната верижна реакция, която позволява синтеза на ДНК. Някой друг го е направил. Това по никакъв начин не е обида за Уотсън и Крик. Това просто означава, че ако имате тяхна ИИ-версия и ги пуснете на сто пъти по-бърза скорост, вероятно няма да получите толкова добри резултати, колкото имаме от молекулярните биолози по света, изучаващи ДНК. Иновацията не става в изолация. Учените черпят опит от работата на други учени.

 

Броят на изобретенията се увеличава и ще продължи да се увеличава, дори и без машини, които да са в състояние да изобретят свое ново поколение. Някой може да нарече този феномен експлозия на интелект, но аз мисля, че е по-точно да се нарече технологична експлозия, която включва когнитивни технологии, наред с физически такива. Компютърните хардуер и софтуер са най-новите когнитивни технологии и те са мощен сътрудник на иновациите, но те не могат да генерират технологична експлозия сами по себе си. Имаме нужда от хора, които да го направят, и колкото повече, толкова по-добре. Да дадеш по-добър хардуер и софтуер на един умен индивид е от помощ, но истинската полза ще дойде, когато всеки един разполага с тях. Нашата настояща технологична експлозия е резултат от използването на тези когнитивни инструменти от милиарди хора.

 

Възможно ли е ИИ програми да заемат мястото на тези хора и да се случи експлозия в дигиталния свят по-бързо, отколкото се случва в нашия? Вероятно, но нека да помислим какво би изисквало това. Стратегията, която има най-голяма вероятност да успее, в общи линии ще бъде да се направи софтуерен дубликат на цялата човешка цивилизация, с осеммилиарден човешки еквивалент от ИИ, който да върши работата им. Това може би е икономически неизгодно, така че задачата ще бъде да се идентифицира най-малката извадка от човешката цивилизация, която би могла да генерира повечето иновации, които се желаят. Един начин да помислим върху това е да попитаме: Колко души са ни нужни, за да сглобим Проекта Манхатън? Забележете, че това е различно от въпроса колко учени в действителност са работили по Проекта Манхатън. Релевантният въпрос е: Каква част от населението е нужна, за да е възможно от нея да се извадят достатъчно учени, които да извършат това усилие?

 

По същия начин, както само един човек от няколко хиляди може да направи докторат по физика, може да се наложи да генерираме няколко хиляди човешки еквивалента ИИ, за да можем да получим един ИИ еквивалент на доктор по физика. Било е нужно населението на САЩ и Европа през 1942-а, за да се изработи Проектът Манхатън. В днешно време изследователските лаборатории не се ограничават до два континента, когато наемат специалисти, защото изграждането на възможно най-добрия тим изисква набиране от най-големия наличен обем таланти. Ако целта е да се генерират толкова иновации, колкото е генерирала цялата човешка раса, може и в крайна сметка да не сме в състояние чувствително да намалим тази първоначална цифра от осем милиарда.

 

Ние сме твърде далеч от способността да създадем дори и един човешки еквивалент ИИ, какво остава за милиарди такива. В обозримото бъдеще възможната технологична експлозия ще бъде водена от хора, използващи досега измислените инструменти за измислянето на нови. Няма да има „последно изобретение, което човекът ще има нужда да направи“. В някакъв смисъл, това е успокояващо, защото, противно на твърдението на Гууд, човешкият интелект никога няма да „изостане далеч назад“. Но точно както не бива да се тревожим, че изкуствен свръхчовешки интелект ще унищожи цивилизацията ни, не би трябвало и да се надяваме, че изкуствен свръхчовешки интелект ще ни спаси вместо нас. За добро или зло, съдбата на човешкия вид ще зависи от човешките решения.

 

Източник: The New Yorker

Тед Чианг, The New Yorker,   Превод за "Гласове": Екатерина Грънчарова

Станете почитател на Класа