Великі технологічні компанії, такі як Google, Adobe та Meta, вносять зміни до своєї політики конфіденційності, що дозволяє їм використовувати дані користувачів для навчання моделей штучного інтелекту (ШІ). Ці зміни часто вносяться непомітно та завуальовано, щоб уникнути негативної реакції.
Федеральна комісія США з торгівлі (FTC) попередила, що такі дії можуть бути незаконними та порушують зобов’язання компаній щодо захисту конфіденційності користувачів. Проте, згідно з проведеним аналізом The New York Times, компанії тихо коригують свої положення та умови, включаючи терміни, пов’язані з ШІ, щоб забезпечити собі юридичне прикриття.
Нагадаємо, Google внесла зміни до своєї політики конфіденційності в липні минулого року, наголошуючи, що збирається використовувати загальнодоступну інформацію для навчання своїх мовних ШІ-моделей. Adobe також оновила свої умови, що викликало негативну реакцію користувачів, коли стало відомо, що вони можуть втратити доступ до своїх проєктів, якщо не погодяться з новими умовами. Тоді це призвело до масової відмови від передплати послуг компанії.
Meta, зі свого боку, оголосила у травні про намір використовувати загальнодоступні пости у Facebook та Instagram для навчання ШІ, але була змушена відкласти ці плани через скаргу міжнародної громадської організації захисту прав людини в інтернеті (European Center for Digital Rights, EDRi).
Поки невідомо, які заходи вживе FTC у відповідь на зростаючу тенденцію змін політики конфіденційності з метою включення навчання ШІ на дані користувача.