Языковые модели, основанные на искусственном интеллекте, могут ответить на любой вопрос. Но не всегда эти ответы корректны. И пользователям, конечно, хотелось бы знать, насколько надежна система искусственного интеллекта, с которой они взаимодействуют. Команда исследователей из Рурского университетам в Бохуме и Технического университета в Дортмунде предложила использовать шесть измерений, которые определяют надежность любой системы, независимо от того, состоит ли она из отдельных лиц, учреждений, обычных машин или искусственного интеллекта. Соответствующая концепция была представлена в статье, опубликованной в международном философском журнале Topoi.
Шестимерная модель надежности ИИ включает в себя следующие параметры:
— Объективная функциональность. Насколько хорошо система выполняет свою основную задачу? Оценивается и гарантируется ли качество?
— Прозрачность. Насколько прозрачны системные процессы?
— Количественная оценка неопределенности базовых данных и моделей. Какова надежность данных и моделей? Защищены ли они от неправильного использования?
— Вариант реализации. В какой степени система является физической или виртуальной?
— Непосредственное взаимодействие. Насколько глубоко пользователь взаимодействует с системой?
— Обязательства. Каковы обязательства системы перед пользователем?
Авторы отмечают, что современные ИИ-системы – от генеративных моделей до автопилотов – серьёзно отстают по большинству этих критериев. С технической точки зрения решающее значение имеют прозрачность и количественная оценка неопределенности базовых данных и моделей. Глубокое обучение позволяет добиться невероятных результатов при работе с большими объемами данных. В шахматах, например, системы с искусственным интеллектом превосходят любого человека. Но лежащие в их основе процессы являются для нас «черным ящиком», что приводит к отсутствию доверия к ним.
С точки зрения философской ИИ может выдавать умные на вид ответы, но «галлюцинировать» – выдумывать факты, не предупреждая об этом, что делает критическое отношение к таким системам не просто желательным, а необходимым.
Особую тревогу вызывает попытка использовать чат-ботов как замену человеческому общению. Доверять чат-боту так, как доверяют человеку, опасно. У него нет никаких обязательств перед вами, и ожидать от него честности или верности обещаниям – значит вводить себя в заблуждение.
Эксперты подчёркивают: понимание критериев надежности ИИ поможет людям более осознанно использовать технологии и избегать слепого доверия к «умным» системам.