Исследователи из университетов Тель-Авива, Северной Каролины и штата Юта разработали новый обучающий инструмент, с помощью которого программы искусственного интеллекта смогут учесть, что люди не всегда говорят правду, предоставляя личную информацию. Особенно он пригодится в ситуациях, когда ложь сулит человеку какие-то экономические выгоды, например, при подаче заявления на получение ипотеки или попытке снизить свои страховые взносы. При составлении прогнозов программы искусственного интеллекта обычно используют математические алгоритмы, основанные исключительно на статистике, а это побуждает людей лгать, чтобы выбить для себя кредит, уменьшить размеры страховых взносов и т.д.

Для устранения имеющихся недостатков исследователи разработали новый набор параметров, используемых при обучении искусственного интеллекта и ориентированных на распознавание и учет экономических стимулов для человека. Другими словами, искусственный интеллект обучает себя распознавать обстоятельства, в которых пользователь может солгать, чтобы улучшить свои результаты.

В ходе проведенных испытаний модифицированный ИИ точнее распознавал неверную информацию, полученную от пользователей. Однако небольшая ложь все еще может остаться незамеченной. Исследователям необходимо проделать дополнительную работу, чтобы понять, где находится граница между «маленькой» и «большой» ложью. Новые параметры обучения сделаны общедоступными, благодаря чему разработчики систем ИИ могут экспериментировать с ними.

Результаты исследования показывают, что программы искусственного интеллекта можно улучшить, снижая экономическую мотивацию для распространения ложных сведений. И в какой-то момент, если ИИ сделать достаточно умным, возможно, эти стимулы удастся устранить полностью.