Внедрение на предприятиях генеративного искусственного интеллекта (ИИ), который способен генерировать текст, изображения и другие данные в ответ на запросы, находится пока на ранней стадии. Однако по мере того, как организации будут находить все новые области применения этой технологии, соответствующее направление будет развиваться очень быстро. Согласно прогнозам Bloomberg Intelligence, в ближайшие 10 лет рынок генеративного искусственного интеллекта ежегодно будет расти в среднем на 42%, и объемы его увеличатся с 40 млрд долл. в 2022 году до 1,3 трлн долл. в конце указанного периода.

Сфера применения генеративного ИИ в ИТ-отрасли весьма широка: он способен писать программный код и сетевые скрипты, помогать в устранении неполадок и решении различных вопросов, автоматизировать процессы, проводить обучение и адаптацию, создавать документацию и системы управления знаниями, а также оказывать людям содействие в управлении проектами и планировании. Но сможет ли инфраструктура ЦОД справиться с растущей рабочей нагрузкой, создаваемой генеративным искусственным интеллектом? Приложения с генеративным ИИ порождают дополнительные требования к вычислительным мощностям. И происходит это в два этапа: в процессе обучения больших языковых моделей (LLM), формирующих ядро системы, и после запуска приложений на основе этих обученных LLM. Обучение LLM требует интенсивных вычислений. Миллиарды языковых конструкций и изображений вводятся в систему нейронных сетей и многократно уточняются до тех пор, пока система не начнет «распознавать» их так же хорошо, как это делает человек. Для построения нейронных сетей нужны чрезвычайно плотные кластеры высокопроизводительных вычислений (HPC), состоящие из графических процессоров, которые непрерывно работают на протяжении нескольких месяцев или даже лет. На втором этапе осуществляется переход к правилам логического вывода – фактическому выполнению запросов с возвратом полученных результатов. Для этого понадобится географически распределенная инфраструктура, обеспечивающая быстрое масштабирование и доступ к приложениям с минимальной задержкой. В отличие от модели централизованного публичного облака, которая в настоящее время поддерживает большинство приложений, при распределенном подходе ЦОД должны размещаться в разных местах.

Руководителям ИТ-служб необходимо понимать, какое влияние генеративный искусственный интеллект окажет на плотность размещения серверов, требования к охлаждению и энергопотреблению, обеспечение экологической устойчивости и т.д. В отрасли уже сегодня проводят эксперименты с инновационными технологиями жидкостного охлаждения, обладающими более высокой эффективностью по сравнению с воздушным, а также с размещением ЦОД в необычных местах (в качестве примера можно привести подводный центр обработки данных Microsoft Project Natick). Операторы ЦОД активно внедряют у себя передовые технологии жидкостного охлаждения. Компания DataBank, например, на своем предприятии в Атланте, где развернут суперкомпьютер Georgia Tech, использует новое решение QCooling ColdLogik Dx для охлаждения задней двери. Все большее распространение получает и строительство собственных силовых подстанций. Подготовку ЦОД к грядущим переменам необходимо вести уже сегодня. Для адаптации к повсеместному внедрению искусственного интеллекта ЦОД нужно определить бизнес-стратегию и стратегию капиталовложений, позволяющую инвестировать в необходимую инфраструктуру и инструменты, а также подбирать специалистов необходимой квалификации. Ведь наличие людей, способных реализовать выработанную стратегию, имеет не менее важное значение, чем ее принятие.