#MeToo ботовете, сканиращи личните ни имейли за „тормоз“, са оруелска злоупотреба с ИИ

Възходът на така наречените #MeToo ботове, които могат да идентифицират сексуален и дигитален тормоз на работното място, е зловеща заплаха за неприкосновеността на личния живот и опит за впрягане на науката в по-нататъшна офанзива на все по-агресиращата нова политическа култура.


Една от най-мрачните разработки на новото десетилетие, ботовете #MeToo, разработени от базираната в Чикаго фирма за ИИ NextLP, които наблюдават комуникациите между служителите, вече са приети от повече от 50 компании от цял свят, включително и от адвокатски кантори в Лондон.


Възползвайки се от движението по високите етажи, възникнало след като Холивуд обвини магната Харви Уейнстейн, #MeTooBots показва добър бизнес нюх на опортюнистка ИИ компания. Но това не е развитие, което трябва да бъде приветствано от ИИ ентусиастите, нито от обществото като цяло.


Това не е ново и вълнуващо научно приложение на възможностите на ИИ или на алгоритмичната интелигентност. Това е опит да се използва науката за да подкрепи културната война, да я превърне във всеобхватно присъствие с постоянна нужда от наблюдение и контрол. Това застрашава не само неприкосновеността на личния живот, а и легитимността на ИИ.


#MeTooBots се основават на предположението, че дигиталният и сексуалният тормоз са състояния по подразбиране в средата на работното място. Какво може да не е наред с това работодателите да защитават служителите си по този начин?


Добро начало може да бъде предположението, че хората, които наемат, са прилични, трудолюбиви и морално здрави възрастни, които различават правилно от грешно (или все още съществуващата презумпция за невинност). Освен това идеята, че машинното обучение представлява по-висша форма на надзор, отколкото човешката преценка и поведение, обръща света с главата надолу. Тя просто добавя мизантропия в подкрепа на културата война, която приема хората (и особено мъжете) че са по своята същност грешни, животински и заподозрени. (Тук трябва вече да разкрием скобите и да заявим открито и звучно – това уврежда безвъзвратно мъжкото начало, мъжете и мъжествеността, от които светът ще се нуждае и занапред.)


Но този опит за използване на науката е не много интелигентно приложение на изкуствения интелект. Всяка рискова шега, коментар на външния вид, предложение за по питие, или дори невинното споменаване на част от тялото, вероятно ще бъдат щателно записани, за да бъдат използвани срещу вас на бъдеща дата. Използването на ИИ по този начин ще превърне работните места във високотехнологични авторитарни социални инженерни среди.


За културните „воини" това ще е добре дошло - стига да имат надмощие. Но за работниците това ще бъде кошмарът на Оруел, където интерпретациите на мислите вече ще са „част от нормалните взаимодействия на работното място". Поведенията задължително ще се променят. Самоцензурата ще изобилства и ще заменя истинската автентичност. Недоверието ще бъде по подразбиране.


Крайната опасност е да насочим развитието на ИИ в погрешна посока, която на първо време ще ни притеснява, променя и извращава морално, до достигане на прословутата „Точка, от която няма връщане".
Ще го позволим ли?

Станете почитател на Класа