
Накануне TensorFlow Dev Summit 2019 Google объявляет о новом способе для сторонних разработчиков применять дифференциальную приватность при обучении моделей машинного обучения. TensorFlow Privacy разработан так, чтобы его было легко внедрить разработчикам, уже использующим популярную ML-библиотеку с открытым исходным кодом.
Цель дифференциальной приватности для машинного обучения (по данным The Verge) — «кодировать общие закономерности, а не факты о конкретных примерах обучения». Это позволяет сохранять конфиденциальность пользовательских данных, в то время как система в целом продолжает обучаться и развиваться на основе общего поведения.
В частности, при обучении на данных пользователей эти методы предлагают строгие математические гарантии того, что модели не изучают и не запоминают детали о каком-либо конкретном пользователе. Особенно для глубокого обучения, дополнительные гарантии могут полезно усилить защиту, предлагаемую другими методами конфиденциальности, будь то установленные, такие как пороговая обработка и исключение данных, или новые, такие как Federated Learning от TensorFlow.
В течение последних нескольких лет Google работала над фундаментальными исследованиями этого метода, а также других механизмов, таких как Federated Learning. Эта практика также совпадает с принципом Конфиденциальности из Принципов ответственного ИИ Google.
Для внедрения TensorFlow Privacy не требуется никаких знаний в области конфиденциальности или математики. Google отмечает, что разработчики, «использующие стандартные механизмы TensorFlow, не должны менять архитектуру своих моделей, процедуры обучения или процессы».
Вместо этого, для обучения моделей, которые обеспечивают конфиденциальность данных, часто достаточно внести несколько простых изменений в код и настроить гиперпараметры, связанные с конфиденциальностью.
TensorFlow Privacy доступен на GitHub уже сегодня, Google рекомендует заинтересованным сторонам вносить свой вклад.