Компанія Anthropic презентувала новий набір інтеграцій, спрямованих на покращення роботи в сфері охорони здоров’я, для свого штучного інтелекту Claude. Програма під назвою “Claude для медицини”, оголошена минулого тижня, надає медичним працівникам, пацієнтам і страховим компаніям інструменти та ресурси для використання Claude з метою медичних досліджень через продукти, відповідні стандартам HIPAA.
Однією з ключових пропозицій є нове з’єднання з федеральними базами даних, такими як Центри Medicare і Medicaid Services (CMS). Це інтегрування дозволить Claude перевіряти вимоги до покриття з урахуванням локальних умов, підтримувати перевірки попереднього погодження та сприяти створенню більш потужних апеляційних запитів. За словами представників компанії, цей зв’язок покликаний допомогти командам, що займаються фінансами, дотриманням норм та обслуговуванням пацієнтів, працювати більш ефективно в контексті політики Medicare.
Крім цього, модель Claude здатна поліпшити точність медичних рахунків, перевіряти дані медичних працівників і координувати повідомлення для пацієнтів таким чином, щоб термінові запитання мали пріоритет.
На споживацькому рівні, Anthropic інтегрує Claude з особистими платформами здоров’я, такими як Apple Health і Android Health Connect. Підписники преміум-пакетів можуть скористатися можливістю аналізувати свої лабораторні результати, узагальнювати медичну історію та готувати конкретні запитання для майбутніх візитів до лікаря.
Для розв’язання питань конфіденційності, які набувають особливого значення в суворо регульованій медичній сфері, компанія зазначила, що користувачі повинні зголошуватися на обмін даними. Їхня медична інформація не використовується для навчання основних моделей AI. Остання версія програми, Opus 4.5, також має покращену фактичну точність, що знижує ризик “галюцинацій” у клінічних умовах.
В огляді використання AI в охороні здоров’я відзначається, що розширення технологій приносить як переваги, так і ризики. З одного боку, штучний інтелект може полегшити навантаження на медичні системи, відповідаючи на основні запитання, уточнюючи медичну термінологію та допомагаючи користувачам орієнтуватися в складностях страхування та адміністративних процесів. Це знижує тертя як для пацієнтів, так і для постачальників послуг.
Однак масштаб може також збільшити ризики. Генеративний AI може надавати відповіді, які виглядають надійно, але є неповними або неточними, а помилки в медицині мають суттєві наслідки. Дослідники та клініцисти застерігають, що AI може згенерувати небезпечні рекомендації, якщо користувач не має правильного контексту або ставить нечіткі запитання. Питання конфіденційності та відповідальності залишаються відкритими. Незважаючи на те, що споживачі діляться чутливими медичними даними, виникають побоювання щодо захисту даних і регуляторного контролю, а також ясності в питаннях відповідальності, коли рекомендації AI впливають на результати лікування.
