Той е дипломиран психолог и социолог, който има и магистърска степен…
Изкуственият интелект дава на работодателите възможност да ви проверяват за неща, за които не могат да попитат законно по време на интервю. Той може да се рови във всякаква лична информация, която може да намери, включително всички файлове в социалните мрежи и всичко, което някога е било публикувано от вашите приятели, семейство и предишни работодатели. Въпроси относно вашата раса, националност, възраст, пол, увреждания, семейно положение, съпрузи, деца, криминални или кредитни досиета обикновено биха довели до обвинения в дискриминация, но системите за набиране на персонал с изкуствен интелект могат да ги включат в решенията си напълно прикрито. При изкуствения интелект никой човек не ви проверява въз основа на тези критерии- вместо това има софтуер, който пресява социалните медии и дава препоръки, което заобикаля някой правни вратички за работодателите. Всъщност не е необходимо да се определят изрично критерии, за да се търсят например по-млади кандидати, които да получават по-малко пари, или здрави непушачи, които могат да правят по-малко почивки и да представляват по-малка тежест за здравеопазването. Всичко, което фирмата за наемане на персонал с изкуствен интелект трябва да направи, е просто да остави хората с нежелани качества извън данните, които използва за обучение на изкуствения интелект. Тогава моделът няма да улови нито една от характеристиките, които обикновено се считат за нежелани.
Използването на изкуствен интелект от работодателите за следене на публикациите в социалните мрежи може да доведе до погрешни и подвеждащи резултати, които да ви дисквалифицират за работата, която сте искали да получите. Изкуственият интелект е много зле в преценката на съдържанието и степента, в която нещо може да се счита за обидно. Това е сериозен проблем, като се има предвид, че повече от 50% от работодателите са открили съдържание в социалните медии, което ги е накарало да не наемат даден кандидат. Например 31% от работодателите са отказали работа на кандидат заради дискриминационни коментари, свързани с раса, пол или религия. Това със сигурност е легитимна причина за отхвърляне на кандидат, ако е вярно, но изкуственият интелект все още няма способността надеждно да филтрира срещу истинска дискриминационна реч или реч на омразата и формулировки, които могат да бъдат погрешно разбрани като такива. Вместо това има голяма вероятност изкуственият интелект да извади коментарите ви от контекста и да ги обяви за дискриминационни. Тъй като работодателите все повече се обръщат към изкуствения интелект, за да поемат функцията за проверка на социалните медии, за вас ще бъде важно да знаете видовете „нарушения“, които карат работодателите да поставят кандидатите в графата „отхвърляне“. По-долу ще изброя накратко някои от нещата, които търси изкуствения интелект и основните причини, поради които работодателите не са наели някого въз основа на активността му в социалните медии:
– Кандидатът за работа е публикувал провокативни или неподходящи снимки, видеоклипове или информация: 40%.
– Кандидатът за работа е публикувала информация за това, че пие или употребява наркотици: 36%.
– Кандидатът за работа е имал дискриминационни коментари, свързани с раса, пол, религия: 31%.
– Кандидатът за работа е свързан с криминално поведение: 30%.
– Кандидатът за работа е излъгал за квалификацията си: 27% .
– Кандидатът за работа е имал лоши комуникационни умения: 27%.
– Кандидатът за работа е изказал лошо мнение за предишната си компания или за колегите си: 25%.
– Кандидатът за работа е с непрофесионално име: 22%.
– Кандидатът за работа е споделил поверителна информация от предишни свои работодатели: 20%.
– Кандидатът за работа е излъгал за своя отсъствие: 16%.
– Кандидатът за работа е публикувал твърде често: 12%.
Също така трябва да сте наясно, че с помощта на изкуствен интелект търсенията не се ограничават само до вас (кандидата за работа), а разглеждат и хората от вашите мрежи и това, което те публикуват, за да извлекат прозрения за вас. Изкуственият интелект може да извлече прозрения от харесваното от вас съдържание и видовете хора, с които общувате най-често. Всъщност „вината по асоциация“ е една от специалностите на изкуствения интелект, която често игнорира контекста. Например изкуствен интелект, обучен за разпознаване на изображения и етикети, може да открие името ви в етикет и след това да потърси алкохолни напитки в ръката ви или близо до вас. След това сте дисквалифициран като подходящ кандидат, защото той ви поставя в категорията „напитки“, а по-късно филтрира всеки с този етикет, защото се счита за нежелан от работодателя. Изкуственият интелект няма да прецени контекста или да определи, че може би това е еднократен случай на пиене на ергенско парти, че може би държите чужда напитка или че всъщност пиете сок, а не алкохол. Той просто ще понижи резултата или рейтинга ви, или направо ще ви елиминира от групата на кандидатите. 40% от мениджърите по наемане на персонал са отказали на кандидат за работа, защото са сметнали, че кандидатът е публикувал провокативни или неподходящи снимки, видеоклипове или информация. „Неподходящо“ е много субективен термин, който е много удобен за неоправдано елиминиране на кандидати за работа.
Каква е вашата реакция?
Той е дипломиран психолог и социолог, който има и магистърска степен по Социална психология. Още по време на следването си започва да се занимава със спортна и когнитивна психология, мотивационна психология, здравословно хранене и коучинг, както и да провежда проучвания в сферите на етологията, епигенетиката, невропластиката, груповата динамика, поведенческата икономика и социалното инженерство. Понастоящем работи като Лайф коуч и НЛП терапевт, но всяка година отделя време и за практиката си на спасител и плувен инструктор.Въвежда в практиката няколко иновативни психологически техники, като „ходеща терапия“ и комбинация между класически масаж и психотерапия. Автор е на четири научнопопулярни книги и на една двустранна стихосбирка в съавторство с Армен Месропян. Има публикувани статии в списанията „Инсайт” и „Българска наука”.