Упродовж останніх кількох років бум штучного інтелекту супроводжувався активним розвитком потужностей для обробки даних. Підготовка великих моделей та виконання інтелектуальних завдань у масштабах, що раніше не були можливі, вимагали значних інвестицій у гіпермасштабні центри обробки даних. Однак нові дослідження підривають цю традиційну уяву, стверджуючи, що інфраструктурні вимоги ШІ значно більше формувалися початковими архітектурними виборами, ніж невідворотними технічними обмеженнями.
Чому ШІ став закритим у моделі централізованого оброблення даних
Масштабування великих мовних моделей вимагає величезних обчислювальних потужностей, швидкісних мереж і доступу до спеціалізованих прискорювачів, що природно сократили вибір до централізованих середовищ, оптимізованих для масштабування та ефективності. Як тільки генеративний ШІ перетворився з лабораторних експериментів у комерційні рішення, схеми їх реалізації повторили той же шлях. Компанії почали використовувати штучний інтелект у хмарних сервісах, які виявилися доступними, масштабованими та інтегрованими в існуючі програмні системи. Згодом централізована інфраструктура стала стандартом для більшості випадків використання штучного інтелекту, незалежно від їх фактичних обчислювальних потреб.
Протягом цього часу постачальники хмарних послуг активно інвестували у відповідну інфраструктуру. На думку аналітиків, витрати на штучний інтелект можуть сягнути 115 мільярдів доларів до 2029 року, що переважно буде зумовлено витратами на навчання і розгортання моделей у великих масштабах. Цей виток витрат сформував очікування компаній: впровадження ШІ стало асоціюватися з зростанням рахунків за хмарні послуги, зобов’язаннями на тривалий термін та коливаннями цін на обчислювальні ресурси.
Розподілений ШІ та повсякденні бізнес-завдання
Нове дослідження вказує на розрив між інфраструктурою ШІ та реальними потребами підприємств. Багато операційних систем ШІ використовують менші моделі, повторні запити та локалізовані дані, замість постійного доступу до великих централізованих моделей. За даними компанії Nvidia, малі мовні моделі можуть впоратися з 70-80% завдань підприємства, залишаючи найскладніші випадки великим системам. Така двоетапна структура — малі моделі для обробки обсягу і великі для більш складних завдань — може стати найбільш економічно ефективним шляхом для впровадження штучного інтелекту.
Розподіляючи обчислення між звичайними машинами, компанії можуть виконувати завдання ближче до місць, де виникають дані, та де приймаються рішення. Це не тільки зменшує затримки, але й підвищує стійкість та зменшує залежність від централізованих хмарних сервісів. Цей підхід запозичує елементи з ранніх моделей розподілених обчислень, модернізуючи їх завдяки сучасним механізмам координації та машинного навчання.
Вплив на економіку хмари та стратегію підприємств
Якщо архітектури розподіленого ШІ отримають широке визнання, це матиме далекосяжні наслідки не лише для технологій, а й для економіки хмарних послуг. Постачальники хмарних послуг розробили свої моделі ціноутворення та доходу навколо централізованого споживання обчислювальних потужностей. Перенесення частини навантаження зі зростаючих гіпермасштабних середовищ може змінити попит на ресурси в хмарі.
Для підприємств це означає більший контроль над витратами. Виконання завдань штучного інтелекту на звичайних машинах дозволяє стикувати витрати на інфраструктуру з фактичними потребами бізнесу, а не з піковими потужностями. Це також зменшує вразливість до цінових коливань хмари та утворення вузьких місць під час пікових навантажень, оскільки фінансові директори активно шукають прибутки від інвестицій у штучний інтелект.
Не варто забувати і про питання енергоспоживання та сталого розвитку. Гіпермасштабні центри обробки даних піддаються дедалі більшій критичності з боку суспільства щодо їх споживання енергії та впливу на навколишнє середовище. Згідно з даними Міжнародного енергетичного агентства, попит на енергію для дата-центрів зріс на 12% за останні п’ять років. Максимально ефективне використання вже існуючої розподіленої інфраструктури могло б зменшити тягар на енергетичні ресурси без втрати здатності забезпечувати функції ШІ.
Однак це не означає, що роль великих центрів обробки даних зникне. Підготовка найсучасніших моделей та окремі ресурсоємні завдання залишаться прив’язаними до централізованих інфраструктур. Проте нове дослідження переосмислює концепцію гіпермасштабних центрів як спеціалізованих активів, а не як універсального підґрунтя для всієї діяльності у сфері штучного інтелекту.
