Ученые проверили способность ведущих чат-ботов с ИИ к решению судоку — нескольким из них было предложено решить по 2300 головоломок этого типа. Некоторые из больших языковых моделей решили до 65% судоку, но даже лучшие из них не смогли объяснить, каким образом они приходили к решению.
При ответе на вопрос об этапах проделанной работы они выдавали цитаты из правил судоку, не подходящие к конкретной головоломке, а одна модель ответила... прогнозом погоды. Исследователи объясняют этот эффект тем, как проходит обучение моделей — это похоже на «зубрежку»: ChatGPT и другие владеют всей открытой информацией из интернета и формируют ответы, просто выбирая наиболее вероятное слово после текущего.
Исследование было направлено на оценку возможности доверять результатам работы подобных систем. Как объясняют авторы, «если ИИ готовит за вас налоговую декларацию, вам нужно будет суметь объяснить налоговикам, почему в ней указаны те или иные сведения».