Италия блокирует ChatGPT из-за опасений по поводу конфиденциальности

Хотя ChatGPT стал почти нарицательным именем, метод сбора данных этой ИИ-модели вызывает определенные опасения и имеет явные негативные последствия. В связи с этим Италия предпринимает юридические действия, чтобы временно остановить работу ChatGPT.

Будучи большой языковой моделью, ChatGPT основывает большую часть своих знаний на одном гигантском источнике — интернете. Эти модели должны обучаться в течение определенного времени на основе информации, доступной через интернет, что, мягко говоря, может быть проблематично. Информация собирается не всегда с явного согласия, хотя указанная информация технически свободно доступна в сети.

Сегодня Италия выразила эти опасения, предприняв действия против OpenAI, по сути, временно запретив работу ChatGPT в стране. ChatGPT получит «временное ограничение на обработку данных итальянских пользователей». После этого Италия начнет расследование, чтобы убедиться в обоснованности своих опасений. Основная обеспокоенность заключается в вероятности нарушения OpenAI Общего регламента по защите данных Европейского Союза – GDPR.

Предполагается, что расследование GDPR в отношении языковой модели ИИ было спровоцировано утечкой данных, произошедшей 20 марта. OpenAI указала, что как беседы, предоставленные пользователями через ChatGPT, так и платежные данные могли быть под угрозой в результате этой утечки.

Реклама — прокрутите дальше для получения дополнительной информации

По своей природе ChatGPT стремится эмулировать человеческое взаимодействие. Это взаимодействие выполняется настолько хорошо со стороны ИИ благодаря сложному обучению, которое OpenAI проводит для этих моделей. К сожалению, именно здесь, похоже, возникает завуалированная серая зона. При сборе этих данных ни один гражданин Италии не дает согласия на предоставление своих данных OpenAI. Тем не менее, компания может собирать их через свободно доступный интернет.

Таким образом, итальянское правительство отмечает, что «похоже, нет никаких законных оснований для массового сбора и обработки персональных данных с целью «обучения» алгоритмов, на которых полагается платформа». По сути, ChatGPT не выполняет услуги и не служит более широкой цели в Италии, поскольку его основная функция — действовать как человек и вести беседы с людьми, насколько бы это ни звучало упрощенно.

Получение данных без явного согласия в сочетании с тем фактом, что эти данные часто являются ложными, создает веский аргумент против чрезвычайно продвинутого чат-бота. Тем не менее, передовая модель GPT-4 по-прежнему опирается на свои обученные данные, и если данные, на которых она обучается, по своей сути ложны, поскольку они могли быть взяты из любого количества обычных и социальных медиа-сайтов, то в этом и заключается огромная проблема.

Последняя обеспокоенность, высказанная итальянским управлением по защите данных (DPA), заключается в отсутствии механизма верификации возраста, используемого OpenAI. Без каких-либо ограничений несовершеннолетние имеют полный доступ ко всему, что предлагает им чат-бот. Хотя услуга предназначена для лиц старше 13 лет, ЕС, в частности, имеет строгие ограничения, требующие активного использования таких механизмов в той или иной форме.

OpenAI, несомненно, проделала большую работу, чтобы создать нечто, что не только впечатляет, но и вызывает международный резонанс. К сожалению, если у ИИ есть планы по охвату регионов с более строгими интернет-регулированиями, ChatGPT, вероятно, придется соблюдать правила. В частности, правила, установленные GDPR.

У OpenAI есть 20 дней, чтобы скорректировать работу ChatGPT в Италии и сообщить об этих изменениях. Без этих корректировок компании грозит штраф в размере до 20 миллионов евро или 4% от общего годового оборота компании — в зависимости от того, что меньше.