Нетолерантност и пристрастия: защо алгоритмите не могат да заменят човешкия мениджър

Нетолерантност и пристрастия

Често за служителите е трудно да постигнат разбирателство с началниците си. И ситуацията може само да се влоши, тъй като AI поема повече лидерски роли: преглежда кандидатурите за работа, оценява представянето на служителите и дори решава да ги уволни. В материала – защо мениджърите-алгоритми не винаги са подходящи за такива задачи.

Работодателите се възползват от използването на програми: те намаляват бизнес разходите чрез автоматизиране на задачи, които отнемат повече време за изпълнение. Така например, според последните годишни данни, с 22,8 хиляди служители Uber може да контролира работата на 3,5 милиона шофьори.

AI системите също са в състояние да оптимизират бизнес процесите. Ценовият модел на Uber (временно повишаване на цените за привличане на шофьори по време на пиковите часове) е възможен само благодарение на алгоритъм, който обработва промените в търсенето на пътници в реално време.

Автоматизацията обаче има и недостатъци. Алгоритмичното пристрастие е може би най-дискутираният риск сред журналисти, изследователи и политици.

Позорен пример е системата за класиране на Amazon, която оценява автобиографиите на кандидатите по петобална скала. Компанията трябваше да се откаже от него: системата редовно даваше на автобиографиите с мъжествени характеристики по-висок рейтинг от подобни с по-женствени качества.

Започнете кариерата си като мениджър по човешки ресурси от нулата – сравнете най-добрите програми за обучение и прочетете отзиви в директорията с курсове по човешки ресурси .

Има и други проблеми, които възникват от разпространението на алгоритми. Един от тях е свързан с прозрачността.

Факт е, че класическите системи вземат решения въз основа на инструкции стъпка по стъпка и произвеждат само програмирани резултати. Но алгоритмите за машинно обучение, като усвояват голямо количество данни, се научават да вземат решения сами. С развитието си те стават по-сложни: дори програмистите не могат да определят как работят.

По този начин не е известно как алгоритъмът е оправдал решението, например, да уволни служител. И следователно няма да може да се установи дали е тенденциозно, неправилно или случайно. В такъв случай резултатът може да се счита за морално неприемлив или дори незаконен. Но как може служителят да докаже това?

Алгоритмите-мениджъри увеличават неравенството между работодатели и служители, като не позволяват да се премахне злоупотребата с власт. Освен това те изключват функцията на човека в трудовите отношения. Философът Жан-Жак Русо го нарича „естествено състрадание“ и „вродена неприязън към страданието на другите хора“.

Разбира се, не всички човешки мениджъри споделят тази черта. Алгоритмите обаче изобщо не могат да го имат. Казус от проучване установи , че куриерите на Amazon Flex са раздразнени от неспособността на системата да обработва човешки оплаквания.

Целта на алгоритмите е да увеличат максимално ефективността. Те не се интересуват, че един служител може спешно да се нуждае от почивен ден, за да гледа дете. И няма да бъдат благосклонни към новодошлите, които тепърва учат своите задължения. 

Изследователите и разработчиците вече проучват рисковете, на които е изложен персоналът, управляван от алгоритми. Разбира се, AI системите са полезни за бизнеса, но това не е причина служителите да бъдат третирани лошо.