Відомі страхові компанії, такі як AIG, Great American і WR Berkley, звернулися до регуляторів США з проханням дозволити виключення ризиків, пов’язаних зі штучним інтелектом (ШІ), зі своїх корпоративних політик. Це рішення стало відповіддю на швидкий вплив технологій штучного інтелекту на бізнес середовище.
Ситуація виникла в умовах стрімкого впровадження AI у різні сфери підприємництва, що супроводжується зростанням ризиків, пов’язаних з його використанням. Зокрема, проблеми, які виникають через так звані “галюцинації” ШІ, стають все більш помітними. Відповідно до інформації Financial Times, WR Berkley прагне застрахуватися від подій, пов’язаних з “будь-яким фактичним чи ймовірним використанням” ШІ, включаючи продукти або послуги, що використовують цю технологію.
AIG, у свою чергу, зазначила, що генеративний ШІ є “широкою технологією”, і, ймовірно, кількість випадків, що можуть призвести до страхових претензій, з часом зростатиме. Хоча компанія вже подала заявки на виключення, вона поки що не має планів їх реалізувати. Проте отримання схвалення цих виключень дасть можливість AIG ухвалити рішення про їх впровадження в майбутньому.
Фахівці вказують на те, що страхові компанії все частіше вважають результати, отримані від ШІ, занадто непередбачуваними для страхування. Денніс Бертам, керівник департаменту кіберстрахування у Європі компанії Mosaic, наголосив на неоднозначності результатів, які створює ШІ. Наприклад, Mosaic покриває деякі програми, посилені штучним інтелектом, але відмовляється оформляти страхування ризиків, пов’язаних з великими мовними моделями, такими як ChatGPT від OpenAI.
Проблема, що виникає в разі невдалого використання AI у бізнесі, полягає в невизначеності відповідальності. Чи належить відповідальність за помилки, скоєні в процесі, до бізнесу, який використовує чат-бота, чи до самого ШІ? Це питання залишається відкритим, і відповідь на нього може мати серйозні наслідки, включаючи фінансові втрати та репутаційні ризики.
Як показують приклади, нещодавно деякі компанії зіткнулися з серйозними наслідками. Наприклад, Virgin Money визнала помилку, коли її чат-бот висловив неприязнь до клієнта за використання слова “віруючий”, а Air Canada опинилася в суді через вигаданий знижковий код, який її чат-бот запропонував потенційному пасажиру. У цих випадках відповідальність цілковито лягла на компанії, які використовували технології ШІ, демонструючи важливість чіткого визначення меж відповідальності у нових реаліях.
