Відомі страхові компанії, такі як AIG, Great American і WR Berkley, звернулися до регуляторів США з проханням дозволити виключення ризиків, пов’язаних зі штучним інтелектом (ШІ), зі своїх корпоративних політик. Це рішення стало відповіддю на швидкий вплив технологій штучного інтелекту на бізнес середовище.
Страховики проти ШІ
Ситуація виникла в умовах стрімкого впровадження AI у різні сфери підприємництва, що супроводжується зростанням ризиків, пов’язаних з його використанням. Зокрема, проблеми, які виникають через так звані “галюцинації” ШІ, стають все більш помітними. Відповідно до інформації Financial Times, WR Berkley прагне застрахуватися від подій, пов’язаних з “будь-яким фактичним чи ймовірним використанням” ШІ, включаючи продукти або послуги, що використовують цю технологію.
AIG, у свою чергу, зазначила, що генеративний ШІ є “широкою технологією”, і, ймовірно, кількість випадків, що можуть призвести до страхових претензій, з часом зростатиме. Хоча компанія вже подала заявки на виключення, вона поки що не має планів їх реалізувати. Проте отримання схвалення цих виключень дасть можливість AIG ухвалити рішення про їх впровадження в майбутньому.
Фахівці вказують на те, що страхові компанії все частіше вважають результати, отримані від ШІ, занадто непередбачуваними для страхування. Денніс Бертам, керівник департаменту кіберстрахування у Європі компанії Mosaic, наголосив на неоднозначності результатів, які створює ШІ. Наприклад, Mosaic покриває деякі програми, посилені штучним інтелектом, але відмовляється оформляти страхування ризиків, пов’язаних з великими мовними моделями, такими як ChatGPT від OpenAI.
Проблема, що виникає в разі невдалого використання AI у бізнесі, полягає в невизначеності відповідальності. Чи належить відповідальність за помилки, скоєні в процесі, до бізнесу, який використовує чат-бота, чи до самого ШІ? Це питання залишається відкритим, і відповідь на нього може мати серйозні наслідки, включаючи фінансові втрати та репутаційні ризики.
Як показують приклади, нещодавно деякі компанії зіткнулися з серйозними наслідками. Наприклад, Virgin Money визнала помилку, коли її чат-бот висловив неприязнь до клієнта за використання слова “віруючий”, а Air Canada опинилася в суді через вигаданий знижковий код, який її чат-бот запропонував потенційному пасажиру. У цих випадках відповідальність цілковито лягла на компанії, які використовували технології ШІ, демонструючи важливість чіткого визначення меж відповідальності у нових реаліях.
