Еще зарисовочка. Мужчина сорока с лишним, инженер с двадцатилетним стажем, отправляет резюме на вакансию. Через три минуты получает письмо: “бла-бла-бла, вы не прошли первичную оценку соответствия”. Пишет знакомому HR в этой комапнии. Тот сочувствует, но отвечает: “Оценка проводится интеллектуальной системой, решение окончательное”. Инженер просит критерии, и получает ссылку на политику конфиденциальности. Даже идет к юристам, а те разводят руками: модель поставил внешний вендор, доступ к критериям и весам защищен договором. Мужик упорный, он идет к вендору. А вендор ссылается на коммерческую тайну и защиту от реверс-инжиниринга. Круг замкнулся. Никто не отказал. Все в цепочке согласны, что кандидат, вероятно, хорош. Сочувствуют ему от всего сердца. А решение же принял кто-то, кого физически нет. А на бумаге - есть подпись. Цифровая. Подписана моделью. Куда подавать апелляцию, когда отказала модель?
Я это к чему? В двадцатом веке был диагностирован страшный тип зла - зло, которое никто не совершил. Чиновник подписывал, потому что приказал начальник. Начальник диктовал, потому что процедура. Процедура принималась комиссией, где каждый голосовал как все. В итоге преступление есть, виновных нет. Но тот тип зла хотя бы упирался в людей. Плохой чиновник, но живой, его можно было уволить, отдать под суд, расстрелять. Сегодня мы начали строить мир, в которой даже посадить некого. Нейросеть не субъект, она не моральный агент, с нее не спросить. Создатель не виноват - он подбирал веса в матрице, а не решения о людях. Заказчик не виноват - он купил продукт по спецификации. HR-менеджер, отправивший отказ, не виноват - он исполнитель. Кандидат, очевидно, не виноват. Зло получается при согласии всех и при участии никого. А что делать с этим типом зла, если у него буквально нет адреса?
Серьезно рассуждая, это новый ландшафт для самого понятия справедливости. До сих пор мы предполагали, что несправедливое решение совершается кем-то - и потому может быть обжаловано. Процедуры обжалования, суды, трудовые инспекции, пресс-расследования. Все они устроены так, будто на другом конце есть субъект, которого можно призвать к ответу. А сейчас у нас есть система, которая массово производит решения о людях, и к которой слово “ответственность” применимо примерно так же, как к погоде. Погода тоже иногда несправедлива. Просто мы давно договорились на нее не обижаться. И даже придумали глупую фразу про “у природы нет плохой погоды”.
Отсюда несложный прогноз, как на это отреагирует государство. Оно отреагирует единственным способом, который у государства есть - бюрократией. EU AI Act уже требует “алгоритмической прозрачности” для части применений. GDPR дает право на объяснение автоматического решения. Пока это рамка, но к 2028 - 2030 годам это станет обязательным аудитом каждой модели, применяемой в значимых решениях о людях. Нюанс в том, что этот аудит не может пройти ни одна современная модель. Не потому, что разработчики скрывают. Просто никто в мире пока не умеет объяснить, почему двести миллиардов весов сгенерировали именно такой вывод. Не мы не хотим - мы не умеем. В итоге государство будет выдавать сертификаты “проверено”, не проверив по существу, а бизнес будет носить эти сертификаты, как бейджики. Или, что вероятнее, откажется от LLM в критичных решениях - потому что дешевле вернуть живого HR, чем объяснять регулятору работу трансформера.
В этом фарсе проигрывают все. Бизнес теряет эффективность, обещанную AI, потому что к эффективности обязательно прилагается сертификационная волокита ровно на сумму этой эффективности. Государство теряет технологический буст, потому что регуляторные барьеры всегда растут быстрее, чем темп глобальной разработки. Кандидаты остаются в точно такой же непрозрачной кадровой машине, что и до всего этого, только чуть медленнее и с бумажкой на стене “проверено на соответствие”. Все согласны, что работает плохо. Все разводят руками. Ничего не меняется. Мы строим бюрократию без чиновников и пишем для нее процедуру, которую она все равно не прочитает. Абсурдность происходящего зашкаливает. Да, хорошей вам пятницы.