Компанія Meta готується радикально змінити підхід до внутрішнього контролю. Замість людських рецензентів оцінювати потенційні ризики нових продуктів буде штучний інтелект. Повідомляється, що компанія прагне, аби до 90% таких перевірок здійснювалися автоматизовано.
Новий підхід до виконання роботи в компанії Meta
Згідно з внутрішніми документами, компанія Meta планує майже повністю перекласти процес аналізу потенційної шкоди своїх цифрових продуктів на штучний інтелект. Це стосується нововведень для таких платформ, як Instagram, WhatsApp та інших сервісів.
Тепер розробники заповнюють анкету про продукт, після чого автоматизована система миттєво аналізує надану інформацію, видаючи список виявлених ризиків. Ці вимоги потрібно врахувати до публічного релізу. ШІ планують залучити навіть до оцінки ризиків для молоді, дезінформації, насильницького контенту та інших напрямів.
Колишні й нинішні співробітники Meta попереджають, що автоматизація оцінки ризиків може призвести до того, що небезпечні чи проблемні функції залишаться непоміченими. Однак керівництво запевняє, що людський досвід залучатимуть для виявлення суттєвих загроз, у той час як штучний інтелект займатиметься низькоризиковимми проблемами.