«Сбер» до 1 января 2026 года завершит оптимизацию штата, в рамках которой планируется сократить до 20% сотрудников, признанных неэффективными по результатам оценки искусственным интеллектом. Об этом сообщил глава банка Герман Греф на конференции по ИИ.
По его словам, мультиагентная система выявила проекты и позиции с низкой отдачей. Президент Владимир Путин в ответ отметил, что понятия «неэффективный сотрудник» не существует, а ответственность за результат несёт руководство.
Комментарий Анатолия Баранова, члена Центрального совета НПНТ
«Интересно, на каком основании Герман Греф планирует сокращать сотрудников: в Трудовом кодексе нет такой процедуры, как увольнение по результатам внутренних критериев искусственного интеллекта. Тем более что сам Президент вчера прямо сказал: понятия «неэффективный сотрудник» не существует — есть неверно поставленные задачи.
Возникает вопрос: корректно ли в таком случае ссылаться на ИИ как на основание для массовых сокращений? Искусственный интеллект создавался для повышения производительности и облегчения труда, а не для механического уменьшения штата.
Кроме того, тенденция отказа от живого общения в банках характерна прежде всего для стран с менее развитой финансовой системой. Нужно ли крупнейшему госбанку России двигаться по этому пути?»
Комментарий Алексея Неживого, руководителя оперативного штаба НПНТ
«В российском законодательстве нет основания для увольнения работников из-за того, что «искусственный интеллект признал их неэффективными». Алгоритм не может подменять собой объективные процедуры оценки. Мы считаем необходимым раскрыть применявшиеся критерии, вынести их на общественное обсуждение и создать прозрачную правовую основу, которая защитит работников от произвольных решений. Только после этого можно говорить о любых кадровых шагах.
Если мы уже используем ИИ в трудовых процессах, государство должно обеспечить соответствующий уровень регулирования. Нужны специализированные подразделения по вопросам ИИ в Минцифры и Минтруде, а также независимый надзорный орган, который будет контролировать применение подобных технологий.
Это важно по двум причинам. Во-первых, для защиты граждан — включая детей, которые сталкиваются с синтетическими изображениями и постепенно теряют способность отличать реальность от вымысла. Во-вторых, для защиты работников: недобросовестный работодатель может использовать ИИ как формальный предлог для избавления от нежелательных сотрудников.
ИИ действительно способен заменить рутинный труд, и в этом есть прогресс. Но задача общества — обеспечить, чтобы технологии служили людям, а не становились инструментом давления или произвола».


