Протягом багатьох років кібербезпека визначалася простою, але небезпечною прогалиною: часом між моментом, коли вразливість виявляється, і моментом, коли вона виправляється.
Зловмисники традиційно використали цей проміжок часу, що часто призводило до катастрофічних наслідків. Наразі компанія Google показує, що гонка озброєнь може вже не відбуватися на людській швидкості, що, можливо, свідчить про кінець ери, коли перевантажені аналітики переслідували сповіщення, а інженери виправляли програмне забезпечення постфактум.
Техногігант представив кілька оновлень, що стосуються автономної безпеки на основі штучного інтелекту. Google розробляє автономні системи, які можуть виявляти, приймати рішення та реагувати на загрози в реальному часі, часто без участі людини.
“Наш AI-агент Big Sleep допоміг нам виявити та запобігти неминучому експлойту,” – написав генеральний директор Google і материнської компанії Alphabet, Сундар Пічай, на соціальній платформі. “Ми вважаємо, що це перший випадок для AI-агента — але точно не останній — надаючи захисникам кібербезпеки нові інструменти, щоб зупинити загрози до того, як вони стануть широко поширеними.”
Для керівників бізнесу, особливо головних посадових осіб з інформаційної безпеки та фінансів, ця нова реальність може поставити нові запитання. Чи готові підприємства до захисту на швидкості машин? Яка ціна невикористання цих інструментів? Хто несе відповідальність, коли AI-системи діють?
Від Реакції на Загрози до Автономної Профілактики
Історично, нульові вразливості — невідомі дефекти безпеки в програмному забезпеченні або апаратному забезпеченні — спочатку виявляють супротивники, тихо експлуатують їх, а потім повідомляють про це після того, як ушкодження сталося. Big Sleep змінив цей порядок. Ніяких тривог, ніяких підказок — лише AI, що працює автономно і виявляє проблему високого ризику до того, як хтось інший навіть дізнався про її існування.
Для керівників з інформаційної безпеки це означає, що з’являється нова категорія інструментів. Це платформи профілактики загроз на основі AI, які не чекають сповіщень, але самі шукають слабкі місця в коді, конфігураціях чи поведінці та автоматично вживають захисних заходів.
Для фінансових директорів це сигналізує про зміни в економіці кібербезпеки. Профілактика в таких масштабах потенційно є дешевшою та більш масштабованою, ніж моделі, засновані на людських ресурсах, хоча це лише тоді, коли AI є точним і відповідальним.
“Моделі залежать від якості даних, які подаються їм,” – зазначив технічний директор Boost Payment Solutions, Рінку Шарма. “Правило ‘сміття всередині, сміття зовні’ залишається актуальним навіть для агентного AI.”
Згідно з дослідженням PYMNTS Intelligence, частка оперативних директорів (COO), які заявили, що їхні компанії впровадили системи управління кібербезпекою на базі AI, зросла з 17% в травні 2024 року до 55% в серпні.
Звіт показав, що ці COO впроваджували нові AI-системи, оскільки вони могли виявляти шахрайські дії, виявляти аномалії та надавати оцінки загроз у реальному часі.
Агентний AI та Відповідальність за Ризики на Передовій
З розвитком технологій приходить відповідальність, яка в контексті кібербезпеки перетворюється на власність ризиків.
Агентні AI-системи, за визначенням, діють незалежно. Ця автономність вводить нові виклики для управління та відповідності. Хто несе відповідальність, якщо AI помилково позначить критичну систему та вимкне її? Що станеться, якщо AI не виявить загрозу?
“Це не просто технічне оновлення; це революція в управлінні,” – зазначила Кетрін Маккол, головна юристка компанії Trustly. “Вам потрібно розглядати цих AI-агентів як не-людських акторів із унікальними ідентичностями у вашій системі.”
Зростання агентних AI-рішень для кібербезпеки також має наслідки для структури підприємств. Оскільки робочі колективи залишаються гібридними, а атаки стають все найбільш розмаїтими, захист кінцевих точок є таким же надійним, як і найслабший пристрій. Автономний захист на краю — телефонах, браузерах, додатках — може вже не бути опціональним.
Технічний директор компанії Stax, Марк Сундт, зазначив, що якщо агентний AI є двигуном, то оркестрація — це трансмісія. Без центрального диригента навіть найбільш спроможні агенти діють в ізоляції.
“У вас є агенти для агентів… але хто веде процес?” — сказав Сундт. “Хто займається оркестрацією?”
У цьому світлі інвестиції в кібербезпеку тепер повинні відповідати на нове запитання: наскільки ми готові дати своїм машинам право приймати рішення?
Поки супротивники не чекають, а агенти AI не сповільнюють темп.
Для цифрового директора WEX, Карен Страуп, найкращий підхід до впровадження агентного AI передбачає дисципліновану стратегію експериментування.
“Якщо ви плануєте експериментувати з агентним AI або будь-якими AI-рішеннями, ви повинні зосередитися на двох речах,” — сказала вона. “Перше — це ті сфери, де швидше за все ви досягнете успіху. А друге — чи буде хороший повернення на ці інвестиції?”