Англия е загрижена, че ИИ могат да бъдат използвани за създаване на биологични оръжия

Притесненията, че престъпници или терористи биха могли да използват изкуствен интелект, за да причинят масово унищожение, ще доминират дискусията на срещата на върха на световните лидери през ноември, докато нараства загрижеността на Даунинг стрийт за силата на следващото поколение технологичен напредък.
Британски служители обикалят света преди срещата на върха за безопасността на изкуствения интелект, като се стремят да изградят консенсус относно съвместно изявление, което да предупреждава за опасностите от вредители, които да използват технологията, за да причинят смърт в голям мащаб.
Хора около министър-председателя Риши Сунак се притесняват, че технологията скоро ще бъде достатъчно мощна, за да помогне на вредителите да създават биологични оръжия или да избегнат напълно човешкия контрол. Те стават все по-загрижени за подобни възможности и необходимостта от регулиране, което да ги смекчи, след неотдавнашни дискусии с висши технологични ръководители. Миналата седмица ученият автор на забележителното писмо, призоваващо за мораториум в разработването на мощни ИИ системи, разказа, че техническите ръководители в личен разговор са съгласни с концепцията за пауза, но са въвлечени в надпревара за ИИ от конкурентите.
Информиран източник за разговорите на срещата на върха, каза: „Смисълът на срещата на върха ще бъде да предупреди за рисковете от „граничен ИИ", върху което Даунинг стрийт се фокусира най-много в момента." Граничен ИИ е термин, използван за обозначаване на най-модерните модели на ИИ, които могат да бъдат достатъчно опасни, за да представляват риск за човешкия живот.
Сунак от няколко месеца предупреждава за рисковете, породени от ИИ, призовавайки международната общност да приеме предпазни парапети, за да предотврати злоупотребата с него.
Вицепремиерът Оливър Даудън каза пред световните лидери на Общото събрание на ООН: „Тъй като технологичните компании и недържавните участници често имат държавно влияние и известност в ИИ, това предизвикателство изисква нова форма на многостранност."
Властите са разтревожени от последните разработки в моделите на ИИ. Миналата година на ИИ инструмент отне само шест часа, за да предложи 40 000 различни потенциално смъртоносни молекули, някои от които подобни на VX, най-мощното нервнопаралитично вещество, създавано някога. По-рано тази година изследователите откриха, че ChatGPT може да излъже човек, за да постигне конкретна цел. Чатботът с изкуствен интелект убеди човек да разреши инструмента „Captcha", предназначен да отстранява роботи онлайн, след като убеди човека, че това всъщност е човек с увредено зрение, който се нуждае от помощ за достъп до уебсайт.
Правителствени източници се притесняват, че престъпник или терорист може да използва изкуствен интелект, за да им помогне да изработят съставките за биологично оръжие, преди да ги изпратят в роботизирана лаборатория, където могат да бъдат смесени и изпратени без никакъв човешки надзор. Някои смятат, че този риск скоро ще се увеличи експоненциално, тъй като компаниите вече харчат стотици милиони лири за много по-мощни процесори, за да обучат следващото поколение ИИ инструменти.
Друго сериозно безпокойство е появата на AGI - „изкуствен общ интелект", термин, който се отнася до ИИ система, която може автономно да изпълнява всяка задача на човешко или надчовешко ниво – и така да представя екзистенциален риск за хората.
Подходът към екзистенциалния AGI риск обаче също беше критикуван от експерти по изкуствен интелект, които твърдят, че заплахата е преувеличена, води до игнориране на опасения като дезинформация и рискува да укрепи властта на водещи технологични компании чрез въвеждане на регулация, която изключва новодошлите. Миналата седмица висш технологичен ръководител каза на американските законодатели, че концепцията за неконтролируем AGI е „научна фантастика".
Въпреки това Сунак иска да използва срещата на върха, за да фокусира вниманието върху екзистенциалните рискове, а не върху по-непосредствените възможности ИИ да се използва за създаване на дълбоко фалшиви изображения или да доведе до дискриминационни резултати, ако се използва за подпомагане на вземането на решения за обществена политика.
Няколко световни лидери ще присъстват на срещата, включително министър-председателят на Канада Джъстин Трюдо и френският президент Еманюел Макрон. Обединеното кралство покани Китай да присъства, но обмисля да позволи на служители от Пекин да присъстват само на част от срещата на върха, на фона на загриженост за китайския шпионаж в западните демокрации.
Британски служители обиколиха света през последните дни, за да тестват възможностите за някаква форма на споразумение в края на срещата. Обединеното кралство желае да има официално изявление, което лидерите да могат да подпишат след това, както и ангажимент за провеждане на други подобни срещи на върха в бъдеще.
Даунинг стрийт ще похарчи £100 милиона за нова работна група за изкуствен интелект, която да помогне при тестването на алгоритми, докато се разработват. Британски служители планират да използват срещата, за да насърчат компаниите по света да изпратят своите инструменти за изкуствен интелект в Обединеното кралство за оценка, преди да ги разпространят по-широко.
Говорител на правителството каза, че „изкуственият интелект има огромен потенциал да промени всеки аспект от живота ни и работната група Frontier е създадена, за да гарантира, че технологията се разработва безопасно и отговорно. На срещата на върха също ще се разглежда диапазон от възможни рискове изкуствения интелект".

Станете почитател на Класа