Гибелта на човечеството – какво значи за мен?

Видни учени предупреждават за настъпването в не толкова далечно бъдеще на такива сериозни заплахи за човечеството като изменение на климата и поява на свръхмощни компютри. Но повечето хора са равнодушни към тези проблеми.

Неотдавна Стивън Хокинг изведнъж спомена Джони Деп и ни предупреди: компютрите пряко застрашават човечеството. Но едва малцина наистина се вълнуват от тази заплаха. Тя обитава в интернет (наистина ли компютрите не искат да я забележим?).

Стивън Хокинг и професорът по физика от Масачузетския технологичен институт Макс Тегмарк, лауреата на Нобелова награда Франк Вилчек и професора по компютърни науки от Бъркли Стюарт Ръсел публикуваха неотдавна в The Huffington Post малко плашещата статия „Да се избавим от безгрижното отношение към свръхразвитите машини". Звучи внушително. Като предлог за статията послужил научнофантастичният трилър „Превъзходство" с Джони Деп.

„Има изкушение да се отнесат свръхумните компютри към областта на научната фантастика, но това би било грешка и възможно – най-ужасната грешка в историята", пишат авторите на статията.

А след това – вероятно поради това, че на дадената тема не е отделяно достатъчно внимание – във в. The Independent се появи още една статия под по-пространното заглавие „Филмът „Превъзходство": плодовете на изкуствения интелект – доколко сериозно ги възприемаме?".

Да, звучи нелошо. Провокативно, завладяващо, но не сензационно. Само че това, за което разсъждават видните учени мъже, едва ли може да се нарече несанзационно.

„Внезапен преход е възможен", твърдят авторите на статията, предупреждавайки ни за това време, когато с помощта на елементарни частици може да се изпълняват изчисления, на които не е способен човешкият мозък. „Както добре е разбирал още Ървинг през 1965 г., конструкцията на машините, надарени със свръхчовешки интелект, постоянно усъвършенстващи се, ще стартират процес, който Върнър Виндж нарича „сингулярност".

„Експертите безспорно правят всичко възможно да получат оптимален резултат, нали така?", питат авторите на статията. Не е точно така. Ако по-високоразвита извънземна цивилизация ни е изпратила съобщение „Ще дойдем при вас след няколко десетилетия", нима бихме им отвърнали: „Прекрасно, звъннете кога ще дойдете, а ние ще ви сигнализираме с огньове". Вероятно не. Но нещо повече или по-малко подобно се случва с изкуствения интелект. Повече или по-малко.

Защо извънземните имат нужда от нашите огньове? Щом веднъж са казали, че идват към нас, това значи, че вероятно те са дружелюбни. Нали така?

И накрая статията завършва с реклама на организацията, която са създали самите автори: „Със сериозно изследване на дадените въпроси се занимават малцина, освен такива неправителствени институти като Кеймбриджкия център по изучаване на екзистенциалния риск, Института по перспективно развитие на човечеството, Научноизследователския институт за машинен интелект, а също Института за изучаване на бъдещото развитие на живота."

И така, дали авторите са добавили малко сензационност, за да привлекат внимание към сериозните проблеми на съвременността, които според тях са недооценени? Необходимо ли е още сега да настръхваме?

В лекция, изнесена наскоро в Оксфорд, Тегмарк е посочил пет „сценария на космокалипсиса", който ще постави край на човечеството. Но всички те ще се случат в бъдещето – в периода между 10 милиарда и 100 милиарда години. Тези сценарии са чисто хипотетични и е много трудно да си ги представим. И така, тъмната енергия поражда „Велик студ"; появяват се „Мехури на смъртта", пространството все повече потъва в студ и разширявайки се със скоростта на светлината, отстранява всичко по своя път. След това възниква „Голямо сътресение", „Голямо хрускане" и „Голям разрив".

Но Макс Тегмарк не се притеснява много от подобни сценарии. Дори не го плашат заплахите от по-близки до нас времена, например факта, че почти след милиард години Слънцето ще бъде толкова горещо, че ще започнат да се изпаряват океаните – по това време човечеството вероятно ще разполага с технологии, предотвратяващи подобно развитие на събитията.

Освен това се смята, че след четири милиарда години Слънцето ще погълне Земята. И ето че физиците вече предлагат да се отстраняват астероиди, летящи по периферията на Слънчевата система, за да могат те, приближавайки се към Земята, постепенно да я изблъскват по-далече от Слънцето, а това ще позволи на нашата планета постепенно да избяга от огнените обятия.

Най-много от всичко Тегмарк е притеснен от непосредствените заплахи, които той нарича „екзистенциални рискове". Даденият термин е заимстван от физика Ник Бостром, директор на Института за перспективно развитие на човечеството при Оксфордския университет, където учените изследват потенциалните възможности на експанзията на човечеството в Космоса.

Според тях Млечният път може да бъде колонизиран за по-малко от милион години – при условие че междузвездните сонди успеят да се самовъзпроизвеждат, използвайки суровини, добити на други планети, и че човечеството не се погуби самò на първо място от поредните въглеродни емисии.

„Струва ми се, че нараства вероятността, че в нашия свят екзистенциалният риск все повече се превръща в най-важния морален въпрос, дори независимо че той още не е станал основен", казва Бостром в една забележителна статия, публикувана в сп. Aeon.

Заедно с Хокинг, Бостром е съветник на създадения наскоро към Кеймбриджкия университет Център по изучаване на екзистенциалните рискове, а също на подобен пак наскоро появил се център, оглавяван от Тегмарк – Институт за изучаване на бъдещото развитие на живота (Кеймбридж, щата Масачузетс).

Според Тегмарк екзистенциалните рискове са такива явления, които „не просто са малко неприятни, но всъщност са ужасни – това са такива обстоятелства, които са способни да нанесат реална щета на човешката цивилизация и дори да я унищожат.

Единственият вид екзистенциален риск, за който Тегмарк най-много се притеснява, е враждебният изкуствен интелект. Според Тегмарк с усъвършенстването способностите на компютрите нарастват многократно, след което ще бъде много сложно да се прогнозира по-нататъшният ход на развитие на събитията.

В началото на т.г. Тегмарк съобщи в интервю пред сп. Motherboard следното: „Според мен съществуват 60% вероятност, че аз ще умра не от старост, а от някое бедствие, предизвикано от човешкия фактор. Ето именно за това трябва да се притеснявам, именно на това трябва да посвещавам значителна част от своето време – и не само аз, но и цялото общество трябва да се притеснява."

„В дългосрочна перспектива. А това може да се случи и след десет, и след петдесет и дори след сто години, в зависимост от това на кого сте задали въпроса, компютрите ще могат да правят всичко това, което и човека – казва Тегмарк. – След това те вероятно много бързо ще надминат човека във всичко и човекът ще се сблъска с това, за което ние питахме в статията, публикувана в Huffington Post: ще остане ли място за човека, или няма да остане."

„Основната причина хората да не мислят за това е в тяхната неосведоменост – продължава Тегмарк. – Аз никога не разговарям за тези неща с хората, които казват: „Нас това не ни интересува." Разбира се, Марк навремето споменаваше някъде, че най-голямата заплаха за човечеството е скудоумието.

Тегмарк и съавторът му – Нобеловият лауреат Франк Вилчек, дават примери как по време на студената война автоматизираните системи са създавали проблеми и лъжливи заплахи. „Във всички споменати случаи ужасните последствия са избягвани само благодарение на някой човек, появил се в последния момент. Но в бъдеще такъв човек може и да не се намери", казва Вилчек.

Както отбелязва Андерсен в статията на страниците на сп. Aeon, човечеството засега има достатъчен запас ядрено оръжие, способен да унищожи – но не веднага – всички гъстонаселени центрове на Земята. В стратосферата ще попадне пепел, която няма да позволи на слънчевата светлина да пробие към повърхността на планетата, което ще повлече след себе си климатично изместване, водещо до унищожаване на селскостопанските култури – именно този фактор ще се окаже гибелен за човечеството.

„Ние се отнасяме много безгрижно към нашата планета и цивилизация – казва Тегмарк. – В голяма степен си играем на руска рулетка."

Вместо това е необходимо повече да мислим за бъдещето, тоест да мислим „не само за следващия изборен цикъл или новия албум на Джъстин Бийбър", в това се състои решението.

Публикуваната статия, засягаща въпроса за изкуствения интелект, ни кара сериозно да се замислим за бъдещето. Статията в The Huffington Post е първият залп, прозвучал от бастиона на Института за изучаване на бъдещото развитие на живота, в чийто консултативен съвет влизат и четиримата автори. Това е един от първите проекти на групата, който е в съответствие с нейната мисия – да обучава и да повишава информираността.

Институтът за изучаване на бъдещото развитие на живота е основан от инж. Яан Талин, създал Skype и Kazaa. Талин е спомогнал и за основаването на Кеймбриджкия център по изучаване на екзистенциалния риск. Общият брой на екзистенциалните рискове не е голям – много от тях се споменават от Института за машинен интелект в Бъркли.

„Повдигат се множество сложни теми, като се започне от измененията в климата, изкуствения интелект, биологичните войни, и се завърши с астероидите, носещи заплаха за Земята. Тези рискове са много големи, но им се отделя малко внимание – казва Вилчек, характеризирайки началния етап от дейността на групата. – Някои проблеми, от рода на измененията на климата, разбира се, са много сериозни. Според мен на тях и така им се отделя достатъчно внимание. Освен това е необходимо да се помисли и за перспективите за развитие на изкуствения интелект – в тази област можем да постигнем много повече."

Една от формите на изкуствен интелект особено притеснява Вилчек – дистанционно управлявания войник. „Не е задължително той да бъде робот, макар че и роботите воини могат да натворят множество проблеми. Можем да си го представим във вид на свръхинтелект, поместен в интернет облак. Той може да изглежда съвсем нетривиално."

Бостром смята, че е много важно да не даваме на изкуствения интелект антропоморфни черти. Най-добре да си го представим във вид на една от фундаменталните сили на природата – мощни и независими от човека. В случая с шахмата изкуственият интелект е способен да предсказва резултатите и да прави ходове. Но ако поставим пред изкуствения интелект цел – не да победи в шахматната игра, а да унищожи човечеството, той ще се справи и с тази цел. Дори ако специалистите програмират изкуствения интелект да бъде доброжелателен, той винаги може да ни унищожи случайно.

Но накрая неспокойният тон на Тегмарк се променя. „Причината, поради която ние сме се нарекли Институт за изучаване на бъдещото развитие на живота, а не Институт по изучаване на глобалните рискове, е в това, че ние искаме да подчертаем позитивното начало", пояснява Тегмарк.

„На това кълбо, въртящо се в Космическото пространство, живеят седем милиарда души. И пред нас се отварят множество благоприятни перспективи – продължава Тегмарк. – В огромната Вселена на нашите услуги има всички необходими ресурси. Но ние имаме и технологии, способни да унищожат човечеството."

99% от живите организми, живели някога на Земята, са измрели, нима ние сме изключение? Но най-главното е да не губим от поглед благоприятните перспективи за цялото човечество и цялата наша планета. А те далеч не са ужасни и не са фатални. Човекът понякога трябва да изпита страх, за да не потъне в рутина и детайли, които да не му позволят да види откриващите се перспективи.

„Ние, хората, 99,9999% се концентрираме върху краткосрочни планове и практически малко мислим за бъдещето", казва Тегмарк.

Възрастта на Вселената е около 13,8 милиарда години. На наше разположение са останали още няколко милиарда години, през които можем да си създадем прекрасни условия за живот. Дори ако след четири милиарда години ни погълне Слънцето.

Станете почитател на Класа