OpenAI оголосила про свою нову співпрацю з американськими військовими, що викликала широкий резонанс у світі технологій і безпеки. Ця угода, продемонстрована 27 лютого, стосується застосування штучного інтелекту в оборонній сфері, проте викликала сумніви щодо етики та безпеки.
Генеральний директор OpenAI Сам Альтман у своєму дописі зазначив, що угода виглядає «трохи поспішною» і має неоднозначний імідж. Цікаво, що OpenAI уклала цю угоду відразу після того, як Пентагон оголосив про розірвання зв’язків із суперником Anthropic, що викликає питання про передумови та мотивації цього рішення.
Однією з принципових переваг угоди стало досягнення OpenAI компромісу з міністерством оборони США щодо використання своєї технології. Вони запевнили, що їхні моделі не можуть бути застосовані для масового нагляду за громадянами або для автономних озброєнь, що є критично важливими «червоними лініями», яких не вдалося унеможливити Anthropic.
У блозі компанії під час обговорення угоди були визначені три основні напрямки, в яких її технології не можуть бути використані: згадані вище озброєння та нагляд, а також «високі ставки автоматизованих рішень», таких як «соціальний кредит». OpenAI підкреслила, що на відміну від інших компаній, які спростили або скасували свої охоронні механізми, ця угода забезпечує більш комплексний захист.
У заяві компанії йдеться про те, що вони зберігають повний контроль над своїми системами безпеки, залучають до процесу перевірених співробітників та передбачають сильний контрактний захист хорошою практикою в цій сфері. Компанія також відзначила, що їм не відома причина, чому Anthropic не вдалося укласти аналогічну угоду, і висловила сподівання, що інші лабораторії також розглянуть цей варіант.
У свою чергу, Біла Хата нещодавно наказала державним установам припинити використання продуктів Anthropic, пояснюючи це новими загрозами в національній безпеці. Президент США оголосив про завершення співпраці з цією компанією та обмеження використання її моделей протягом наступних шести місяців.
Anthropic, у відповідь, заперечила легітимність таких заходів і пообіцяла оскаржити рішення уряду в суді. У своїх заявах представники компанії підкреслили, що жодні тиски з боку міністерства оборони не змусять їх змінити свою позицію щодо масового спостереження та автономних озброєнь.
Таким чином, ситуація навколо OpenAI і Anthropic є відображенням ширших етичних та безпекових питань у сфері штучного інтелекту, які потребують суспільної уваги та обговорення.
