За даними недавнього дослідження компанії IBM, існує значний “розрив у контролі за AI” серед організацій, які зазнали витоків даних.
Компанія повідомила, що вражаючі 97% організацій, які стикнулися з інцидентами безпеки, пов’язаними з AI, визнали нестачу належних засобів контролю доступу до AI.
Крім того, 63% опитаних організацій зазначили, що у них відсутні політики управління штучним інтелектом для контролю його використання та запобігання “тіньовому AI”. Ці результати були опубліковані наприкінці липня і згадані в понеділок у звіті одного з журналів.
“Цей розрив у контролі за AI призводить до суттєвих фінансових та операційних витрат,” – додала компанія. “Звіт показує, що наявність великої кількості тіньового AI, коли працівники завантажують або використовують непогоджені інтернет-інструменти AI, збільшує середні витрати на витік даних на додаткові $670,000.”
Витоки, пов’язані з AI, мають множинний ефект, призводячи до “широкого компрометації даних і операційних збоїв”, що може перешкоджати організаціям у виконанні замовлень, наданні обслуговування клієнтів і управлінні ланцюгами постачання.
Звіт також містить позитивні новини: середні витрати на витоки даних у світі впали вперше за п’ять років, з $4.88 мільйона до $4.44 мільйона, що становить зниження на 9%.
“Причина? Швидке стримування витоків, досягнуте за допомогою AI,” – зазначила компанія, вказуючи на те, що організації змогли виявляти та стримувати витоки за середній час 241 день, що є найнижчою позначкою за дев’ять років.
Дослідження PYMNTS Intelligence виявило, що все більше компаній впроваджують AI-інструменти для захисту кібербезпеки.
У серпні минулого року 55% керівників операційних відділів (COO) повідомили про впровадження таких заходів, у порівнянні з 17% у травні.
Ці COO, як зазначено раніше в звіті PYMNTS, “перейшли до проактивних, AI-орієнтованих систем — і від реактивних підходів до безпеки — адже нові AI-системи можуть виявляти шахрайські дії, виявляти аномалії та надавати оцінки загроз у реальному часі.”
Нещодавно PYMNTS досліджував використання агентного AI у зусиллях з кібербезпеки та ризики, пов’язані з цим.
Ці системи, за визначенням, працюють автономно, тому виникають нові виклики в управлінні та дотриманні норм. Хто відповідальний, якщо AI помилково зупиняє критичну систему? Що станеться, якщо AI не виявить витік?
“Це не просто технічне оновлення; це революція в управлінні,” – зазначила Кетрін МакКалл, генеральна юридична та комплаєнс-відповідальна компанії Trustly, в інтерв’ю.