Консалтинговый гигант Deloitte вынужден вернуть часть средств по госконтракту на сумму 440 тыс. австралийских долларов (около 290 тыс. долл.) после того, как в официальном отчете для министерства по вопросам занятости и трудовых отношений были обнаружены фальшивые ссылки и несуществующие судебные прецеденты, сгенерированные ИИ. Отчет объемом 237 страниц, подготовленный с использованием модели OpenAI GPT-4o, содержал «идеально подогнанные» цитаты, авторы которых – реальные ученые – никогда не публиковали указанные работы.
Компания Deloitte не раскрывала факт использования ИИ до тех пор, пока ошибки не были выявлены независимыми экспертами. По сообщению австралийского ведомства, консультант подтвердил наличие некорректных сносок и ссылок и согласился вернуть последний транш по контракту. Исправленная версия отчета уже опубликована, а рекомендации в нем остались без изменений.
Ирония ситуации в том, что почти одновременно с этим скандалом Deloitte объявила о глобальном партнёрстве с Anthropic для развёртывания ИИ-ассистента Claude в интересах 500 тыс. своих сотрудников по всему миру.
Сегодня компании зачастую рассматривают использование ИИ как внутренний инструментарий, а не материал для достижения результатов, что порождает вопросы в отношении прозрачности и доверия.
Аналитики называют инцидент симптомом более широкой проблемы: предприятия и государственные учреждения активно внедряют генеративный ИИ, но не успевают выстраивать зрелые системы управления рисками. При этом подчеркивается, что ответственность лежит не только на поставщике услуг, но и на заказчике. Клиенты не могут делать вид, что не знали об особенностях и рисках применения ИИ, особенно если сами используют подобные инструменты.
По мнению экспертов, предприятиям, внедряющим инструменты искусственного интеллекта, вероятно, придется узаконить проводимую человеком экспертизу в качестве обязательного конечного критерия качества. На завершающем этапе любого проекта, основанного на ИИ, организациям рекомендуется привлечь для проверки документов человека, который является специалистом в данной области. Проверка, проводимая профессионалами, должна оставаться золотым стандартом. А прежде чем начинать проект, необходимо ответить на следующие ключевые вопросы: какие инструменты генеративного ИИ в нем используются и для какой части результатов? Какие меры предосторожности принимаются для обнаружения и исправления галлюцинаций? Существует ли процесс проверки, осуществляемый непосредственно человеком? Каким образом контролируются источники происхождения информации?
К ИИ надо относиться как к системному риску, а не просто как к инструменту повышения производительности труда. Стандарты качества должны включать в себя требования предварительного раскрытия информации, проверки со стороны персонала, определения ответственности за ошибки ИИ и права на аудит.
Остается вопрос, насколько серьезно отнесутся ко всему этому организации и продолжат ли они доверять ИИ не только рутинные задачи, но и создание чувствительных аналитических материалов без надежных «человеческих тормозов»?