OpenAI запускає нову еру в світі штучного інтелекту, уклавши стратегічну угоду з виробником чіпів Cerebras. В рамках цієї співпраці компанія інтегрує 750 мегават комп’ютерних потужностей для забезпечення швидших та ефективніших моделей штучного інтелекту. Ця ініціатива, що розпочнеться вже цього року, передбачає поетапне підключення потужностей до 2028 року.
Додаткові ресурси істотно поліпшать користувацький досвід, дозволяючи отримувати миттєві відповіді на складні запитання, генерувати коди, створювати зображення та запускати AI-агентів, підкреслює OpenAI.
«Наша стратегія в сфері обчислень полягає у створенні надійного портфоліо, що поєднує системи з відповідними робочими навантаженнями», — відзначив Сачін Катті, відповідальний за комп’ютерну інфраструктуру OpenAI. Додавання Cerebras дозволяє нам впровадити спеціалізоване рішення для низької латентності, що, у свою чергу, забезпечить швидші відповіді і більш природні взаємодії з користувачами.
Cerebras також підкреслила, що їх нова система матиме наймасштабніші у світі можливості для високошвидкісної інтерпретації AI. Моделі, запущені на базі їх чіпів, здатні надавати відповіді до 15 разів швидше, ніж системи, засновані на GPU. Цю різню у швидкості компанія порівнює з переходом від модемів до широкосмугового Інтернету.
Андрю Фельдман, співзасновник та CEO Cerebras, зазначив, що партнерство з OpenAI дозволить інтегрувати провідні моделі штучного інтелекту з найшвидшими у світі процесорами. «Це, як і перехід на широкосмуговий Інтернет, кардинально змінить спосіб, як люди взаємодіють зі штучним інтелектом», — підсумував він.
Зі слів Енді Гока, старшого віце-президента Cerebras, незважаючи на високий попит на продукцію для обчислення AI, ринок все ще страждає від нестачі пропозиції. Підвищений інтерес до генеративного штучного інтелекту знову підкреслює потребу в прискоренні обробки AI-додатків, починаючи з моменту, коли ChatGPT привернув до себе увагу широкої аудиторії.
Згідно з останніми даними, інвестори та інженери вже активно переорієнтовують свої ресурси на інфраструктуру для інтерпретації AI, намагаючись оптимізувати час реакції та підвищити ефективність моделей, які ще недавно перебували в експериментальній стадії.
