У сучасному світі технологій виникає новий виклик для організацій: так званий «тіньовий штучний інтелект». Це явище, яке може стати серйозним ризиком для бізнесу, часто без попередження та недостатньої уваги з боку керівництва. Хоча компанії активно впроваджують затверджені інструменти штучного інтелекту для підтримки своїх співробітників, багато з них воліють користуватися споживчими чат-ботами та особистими AI-акаунтами для виконання своїх завдань.
Переваги продуктивності стають видно одразу. Однак непомітні ризики можуть викликати серйозні проблеми, включаючи витоки чутливої інформації, відсутність жодного аудиту і закритість для задіяних команд безпеки. Для регульованих секторів така комбінація стає справжньою головоломкою в контексті управління, кібербезпеки та збереження даних.
Ці «сліпі зони» в управлінні стають темою обговорення в недавньому звіті компанії K2 Integrity. У ньому підкреслюється, що організації занадто швидко впроваджують штучний інтелект, внаслідок чого нормативні заходи не встигають за цим розвитком. Протягом останніх двох років компанії пройшли шлях від експериментування з AI до пошуку реального повернення на інвестиції, а необхідність контролю за необліковими даними часто виявлялася случайно. K2 Integrity визначає «тіньовий AI» як виконавчий штучний інтелект, який використовується поза межами офіційно затверджених інструментів і наголошує, що приховане використання рідко є свідомо шкідливим — більшість працівників просто прагнуть підвищити свою продуктивність та ефективність, користуючись вже знайомими їм інструментами.
Експерти компанії розрізняють два типи «тіньового AI»: «ризиковий», який включає використання особистих акаунтів для життєвих корпоративних задач з конфіденційною інформацією, та «прийнятний», коли працівники використовують AI для особистої продуктивності без втручання чутливих даних. Однак перший тип не має контролю за збереженням даних, що ускладнює аудит та управління інформацією після звільнення співробітників.
K2 Integrity підкреслює, що боротьба з тіньовим AI не може зводитися лише до заборон. Проблема не в дотриманні норм, а в поведінці співробітників. Замість жорстких обмежень, які лише загострюють ситуацію та примушують до обходу правил, експерти пропонують консолідацію та розвитку безпеки. Це означає створення основного інструменту AI, який буде більш зручним, ніж альтернативи, а також систему для оцінювання нових рішень на основі актуальних критеріїв.
Крім того, важливо навчати співробітників, аби вони усвідомлювали можливі ризики при використанні AI. Зрозумівши, яку інформацію не слід вводити, працівники зможуть краще управляти даними та зменшити імовірність витоків. K2 Integrity також рекомендує використання аналітики для моніторингу впровадження і ефективності інструментів AI, що допоможе запровадити цілісну систему управління тіньовими AI-ініціативами.
