Фирмите за ИИ трябва да бъдат държани отговорни за вредите, които причиняват

Фирмите за ИИ трябва да бъдат държани отговорни за вредите, които причиняват
  • Written by:  Ш.Меламед
  • Date:  
    25.10.2023
  • Share:

Дан Милмо
Мощните системи за изкуствен интелект застрашават социалната стабилност и компаниите за изкуствен интелект трябва да носят отговорност за вредите, причинени от техните продукти, предупреди група от висши експерти, включително двама от „кръстниците" на технологията.
Това става, когато международни политици, технологични компании, учени и фигури от гражданското общество се подготвят да се съберат в Bletchley Park следващата седмица за среща на върха относно безопасността на ИИ.
Съавтор на предложенията за политика от 23 експерти каза, че е „крайно безразсъдно да се преследват все по-мощни ИИ системи, преди да се разбере как да те бъдат безопасни. Време е да се заемем сериозно с напредналите ИИ системи. Това не са играчки. Увеличаването на техните възможности, преди да разберем как да ги направим безопасни, е крайно безразсъдно. Има повече регулации за магазините за сандвичи, отколкото за компаниите с изкуствен интелект", каза Стюарт Ръсел, професор по компютърни науки в Калифорнийския университет в Бъркли.
Документът призова правителствата да приемат набор от политики, включително:
- Правителствата отделят за безопасно и етично използване на системите една трета от финансирането си за изследвания и развитие на ИИ, а компаниите - една трета от своите ресурси за научноизследователска и развойна дейност за ИИ.
- Предоставяне на достъп на независими одитори до лабораториите за ИИ.
- Създаване на лицензионна система за изграждане на авангардни модели.
- Компаниите за изкуствен интелект трябва да приемат специфични мерки за безопасност, ако в техните модели бъдат открити опасни способности.
- Налагане на отговорност на технологичните компании за предвидими и предотвратими вреди от техните ИИ системи.
Други съавтори на документа включват Джефри Хинтън и Йошуа Бенгио, двама от тримата „кръстници на ИИ", които за работата си върху ИИ през 2018 г. спечелиха наградата ACM Turing – еквивалентът на Нобеловата награда за компютърни науки.
И двамата са сред 100-те гости, поканени да присъстват на срещата. Хинтън подаде оставка от Google тази година, за да отправи предупреждение за това, което той нарече „екзистенциален риск породен от цифровия интелект", докато Бенгио, професор по компютърни науки в университета в Монреал, се присъедини към него и хиляди други експерти в подписването през март на писмо призоваващо за мораториум върху гигантските експерименти с ИИ.
Други съавтори на предложенията включват авторът на бестселъра на Sapiens, Ноа Ювал Харари, Даниел Канеман, Нобелов лауреат по икономика, и Шийла Макилрайт, професор по изкуствен интелект в Университета на Торонто и наградения китайски компютърен учен Анди Яо.
Авторите предупреждават „Небрежно разработените ИИ системи заплашват да увеличат социалната несправедливост, да подкопаят нашите професии, да подкопаят социалната стабилност, да позволят широкомащабни престъпни или терористични дейности и да отслабят споделеното ни разбиране за реалността, която е в основата на обществото".
Те предупреждават „Настоящите ИИ системи вече показват признаци на тревожни способности, които сочат пътя към появата на автономни системи, които могат да планират, преследват цели и „да действат в света. Моделът GPT-4 AI, който захранва инструмента ChatGPT, който е разработен от американската фирма OpenAI, е в състояние да проектира и изпълнява химически експерименти, да сърфира в интернет и да използва софтуерни инструменти, включително други модели ИИ. Ако изградим високо напреднал автономен ИИ, рискуваме да създадем системи, които автономно преследват нежелани цели и може да не сме в състояние да ги държим под контрол", казаха експертите.
Други политически препоръки в документа включват: задължително докладване на инциденти, при които моделите показват тревожно поведение; въвеждане на мерки за спиране на възпроизвеждането на опасни модели; и предоставяне на регулаторите на властта да спират разработването на ИИ модели, показващи опасно поведение.
Срещата на върха по безопасността следващата седмица ще се съсредоточи върху екзистенциалните заплахи, породени от ИИ, като подпомагане на разработването на нови биологични оръжия и избягване на човешки контрол. Правителството на Обединеното кралство работи с други участници по изявление, което се очаква да подчертае мащаба на заплахата от граничен ИИ – терминът за усъвършенствани системи. Въпреки това, въпреки че срещата на върха ще очертае рисковете от ИИ и мерките за борба със заплахата, не се очаква официално да създаде глобален регулаторен орган.
Някои експерти по ИИ твърдят, че страховете за екзистенциалната заплаха за хората са преувеличени. Другият съ-носител на наградата Тюринг за 2018 г. заедно с Бенджио и Хинтън, Ян Лекун, сега главен учен по изкуствен интелект в Meta на Марк Зукърбърг и който също присъства на срещата, каза пред Financial Times, че „идеята, че изкуственият интелект може да унищожи хората, е абсурдна".
Въпреки това авторите на политическия документ твърдят, че ако сега се появят усъвършенствани автономни ИИ системи, светът няма да знае как да ги направи безопасни или да провежда тестове за безопасност върху тях. „Дори и да го направиме, в повечето страни липсват институции, които да предотвратят злоупотреби и да поддържат безопасни практики", добавиха те.
Източник: Гардиън, превод: Ш.Меламед

Станете почитател на Класа