Идея создания искусственного интеллекта давно будоражит умы ученых, фантастов, философов. Считается, что прогресс компьютерных технологий способен воплотить эту идею в жизнь. Разработки в области ИИ ведут сегодня лидеры ИТ-индустрии и многочисленные стартапы. Дело поставлено на широкую ногу. Google выпускает на дороги беспилотные автомобили, IBM активно пропагандирует интеллектуальные возможности суперкомпьютера Watson, Intel создает специализированное подразделение Artificial Intelligence Products Group, Microsoft называет ИИ приоритетным направлением развития своего бизнеса, а основатель Tesla Motors и SpaceX Илон Маск вкладывает деньги в проект OpenAI. По оценкам IDC, мировой рынок технологий ИИ вырастет в 2017 году до 12,5 млрд долл. (на 59,3% больше, чем годом ранее), а к концу текущего десятилетия его объем превысит 46 млрд.

Таким образом, аналитики и основные участники рынка де-факто признали, что ИИ стал реальностью и уже вносит свою лепту в развитие экономики и общества. У специалистов маркетинговых служб крупных компаний применение ИИ в бизнес-практике в последнее время стало общим местом.

Скептики, впрочем, полагают, что окончательно расставить точки над ИИ только предстоит. Слишком много вопросов, связанных с этим феноменом, еще ждут своего решения. В частности, неотъемлемая черта ИИ – способность к самообучению. Но это своего рода ящик Пандоры, таящий в себе риски, ответственность за последствия которых еще толком не определена.

Неправильно сформировав алгоритм самообучения или манипулируя данными, закладываемыми в него, можно получить не полезного помощника, а инструмент для деструктивных действий либо источник ошибочных решений. Об опасности, которую таит в себе ИИ, с тревогой предупреждают упомянутый Илон Маск и всемирно известный физик Стивен Хокинг.

Тем, кто всерьез рассматривает перспективы применения ИИ у себя на предприятиях, нужно помнить, что мера и степень ответственности за потенциальные коллизии, связанные с инновациями подобного рода, юридически не определены. Попытки наказать самообучающуюся компьютерную программу за принятые ею неверные решения или ошибочные выводы представляются нелепыми. Привлечь к ответственности недобросовестных создателей алгоритмов или тех, кто некорректно использует ИИ в практических целях, также вряд ли возможно, поскольку источником инцидентов является машина, которой делегированы определенные полномочия, влияющие на ход бизнес-процессов.

Впрочем, проблема скорее не в том, что кто-то специально научит робота плохому, а в том, что в него заложена способность менять свое поведение. Насколько прописаны границы этой изменчивости – непонятно.

Есть и другие риски применения ИИ на предприятиях, в том числе социальные. Роботизация приведет к сокращению живых сотрудников. В Сбербанке, к примеру, уже идут масштабные сокращения именно по этой причине. С приходом ИИ в ЦОД автоматизируются многие функции управления инфраструктурой, и системному администратору средней квалификации уже трудно найти работу в дата-центре.

Нельзя сбрасывать со счетов и психологические проблемы взаимодействия человека и машины. Обычный страх перед будущим ведет к неверному восприятию ИИ, поэтому беспилотные автомобили могут людям показаться опасными. Хотя они явно безопаснее машин, управляемых безответственными лихачами, лишенными водительского удостоверения.

 

Так или иначе, ИИ уже с нами – мы читаем в Интернете практически лишь то, что предлагают нам автоматизированные агрегаторы и рекомендательные сервисы. Если вы читаете эту заметку в режиме онлайн, скорее всего, за это нужно благодарить одну из интеллектуальных поисковых интернет-систем, созданную людьми.

Алексей Есауленко

 

Поделитесь материалом с коллегами и друзьями

Купить номер с этой статьей в PDF