В настоящее время всё больше руководителей передают выполнение подобных задач искусственному интеллекту.

Изображение: img.freepik.com

Freepik

Представления о том, что искусственный интеллект лишит людей рабочих мест, воплощаются в жизнь. Недавние исследования свидетельствуют о том, что организации все активнее применяют нейросети при принятии важных решений, касающихся персонала — в том числе о найме, увольнениях или повышениях зарплат.

Согласно исследованию, проведенному Resume Builder, 1342 менеджера из США приняли участие в опросе. Результаты показали, что 60% из них используют инструменты искусственного интеллекта для решения задач, касающихся управления персоналом. Руководители прибегают к помощи нейросетей, чтобы определить, каких сотрудников следует повысить в должности, а кого следует уволить.

Наибольшей популярностью в данном контексте пользуется ChatGPT от OpenAI: ему доверяют принимать решения 53% руководителей. На втором месте расположился Copilot от Microsoft, используемый 30% менеджеров. Еще 16% предпочитают использовать Gemini от Google для решения задач, связанных с персоналом.

При этом большая часть менеджеров, использующих ИИ в таких целях, не проходили специального обучения по работе с этими технологиями. Эксперты считают этот подход очень рискованным. Так, главный консультант по карьере в Resume Builder Стейси Халлер отмечает: «ИИ может проводить аналитику на основе предоставленных ему данных. Но ему не хватает контекста и эмпатии». По словам Халлер, нейросети также могут давать пользователю искаженные или недостоверные сведения, чтобы сформировать хоть какой-то ответ. А это означает, что решение о приеме или увольнении человека далеко не всегда может быть честным и объективным.

В Соединенных Штатах уже начали принимать меры в ответ на возникающие риски. Так, сенатор от Калифорнии Джерри Макнерни еще в марте предложил законопроект под названием «Нет роботам-начальникам». Согласно его пояснениям, данный документ призван предотвратить использование искусственного интеллекта для принятия важных управленческих решений, касающихся персонала, без участия человека. «Искусственный интеллект должен служить инструментом, находящимся под контролем людей, а не наоборот», — подчеркнул он в заявлении, объявляющем о запуске инициативы.

По сообщениям, нейросеть GPT-4.5 успешно сдавшая тест Тьюринга, может положить конец существованию человечества

Нейросеть, используя данные, способна прогнозировать наступление смерти с вероятностью 78

В МВД обратились к гражданам России с просьбой прекратить использование нейросети DeepSeek: каковы риски, связанные с ней​​​​​​​

Беспокойство Макнерни и специалистов в сфере высоких технологий вполне обосновано. Мы уже сообщали, что передовые модели искусственного интеллекта всё чаще не проходят проверку на стрессоустойчивость, показывая не всегда благоприятное поведение в отношении людей — подробности о том, когда они способны на ложь, манипуляции и даже угрозы, представлены в этой статье пользователям и своим разработчикам.