Принципы Google в области ИИ: социальная польза и подотчетность, запрет на оружие и слежку

После того как стало известно, что Google сотрудничает с американскими военными в области распознавания видео с дронов, компания пообещала разработать руководящие принципы использования ИИ. Сегодня Сундар Пичаи объявил об этих принципах и уточнил, какие исследования и работы компания будет проводить, а какие нет.

Сундар Пичаи и его команда работали над этими принципами с момента первой волны недовольства сотрудников, в ходе которой основатели Ларри Пейдж и Сергей Брин вместе с высшим руководством обсуждали и окончательно формировали эти руководящие принципы. Сегодня генеральный директор Google вновь выразил надежду, что эти правила «выдержат испытание временем».

Всего семь целей, начиная с того, что ИИ и его использование должны «приносить социальную пользу», при этом проекты будут продвигаться только в том случае, если «общая вероятная польза существенно превышает предвидимые риски и недостатки».

Реклама — прокрутите дальше для получения дополнительной информации

Google стремится «избегать создания или усиления несправедливой предвзятости», учитывая, что уже есть примеры алгоритмов, отражающих несправедливые предубеждения из-за используемого набора обучающих данных. Безопасность станет еще одним ключевым фактором со строгим контролем на протяжении всего процесса разработки, при этом пользователи смогут предоставлять обратную связь и ожидать объяснений в случае возникновения проблем. Приватность будет включена с самого начала, с предоставлением уведомлений, согласия, прозрачности и контроля со стороны пользователя.

Последние два принципа касаются «поддержания высоких стандартов научной добросовестности» и регулирования доступности ИИ. Google будет работать над ограничением «потенциально вредоносных или злоупотребляющих приложений», а Пичаи явно указывает, какие приложения ИИ Google не будет разрабатывать.

К ним относятся технологии и оружие, причиняющие вред и чья основная цель — наносить ущерб. Google также отказывается от использования в технологиях слежки, нарушающих общепринятые международные нормы, законы и права человека.

Генеральный директор отмечает, что, хотя Google никогда не будет разрабатывать оружие, это не исключает сотрудничества с правительствами и военными в области кибербезопасности, обучения, привлечения военнослужащих и т. д.

Такое сотрудничество важно, и мы будем активно искать новые способы поддержки критически важной работы этих организаций и обеспечения безопасности военнослужащих и гражданских лиц.

Google AI сегодня также опубликовал технические практики о том, как реализовать эти принципы. Полный список из семи целей приведен ниже:

1. Быть социально полезным. 

Расширяющийся охват новых технологий все больше затрагивает общество в целом. Прогресс в области ИИ окажет преобразующее воздействие в широком спектре областей, включая здравоохранение, безопасность, энергетику, транспорт, производство и развлечения. При рассмотрении потенциальной разработки и использования технологий ИИ мы будем учитывать широкий спектр социальных и экономических факторов и будем действовать там, где, по нашему мнению, общая вероятная польза существенно превышает предвидимые риски и недостатки.

ИИ также расширяет наши возможности по пониманию смысла контента в больших масштабах. Мы будем стремиться предоставлять высококачественную и точную информацию с помощью ИИ, продолжая при этом уважать культурные, социальные и правовые нормы в странах, где мы работаем. И мы будем продолжать тщательно оценивать, когда предоставлять наши технологии на некоммерческой основе.

2. Избегать создания или усиления несправедливой предвзятости.

Алгоритмы и наборы данных ИИ могут отражать, усиливать или уменьшать несправедливую предвзятость. Мы признаем, что отличить справедливую предвзятость от несправедливой не всегда просто, и она различается в разных культурах и обществах. Мы будем стремиться избегать несправедливых последствий для людей, особенно связанных с такими чувствительными характеристиками, как раса, этническая принадлежность, пол, национальность, доход, сексуальная ориентация, способности и политические или религиозные убеждения.

3. Создаваться и тестироваться с учетом безопасности.

Мы продолжим разрабатывать и применять надежные практики безопасности для предотвращения непреднамеренных результатов, создающих риск вреда. Мы будем проектировать наши системы ИИ так, чтобы они были соответствующим образом осторожны, и стремиться разрабатывать их в соответствии с лучшими практиками в области исследований безопасности ИИ. В соответствующих случаях мы будем тестировать технологии ИИ в ограниченных средах и отслеживать их работу после развертывания.

4. Быть подотчетным людям.

Мы будем разрабатывать системы ИИ, которые предоставляют надлежащие возможности для обратной связи, релевантные объяснения и возможность апелляции. Наши технологии ИИ будут подвергаться надлежащему человеческому руководству и контролю.

5. Включать принципы проектирования конфиденциальности.

Мы будем включать наши принципы конфиденциальности в разработку и использование наших технологий ИИ. Мы будем предоставлять возможность уведомления и согласия, способствовать созданию архитектур с мерами защиты конфиденциальности и обеспечивать надлежащую прозрачность и контроль над использованием данных.

6. Поддерживать высокие стандарты научной добросовестности.

Технологические инновации основаны на научном методе и приверженности открытым исследованиям, интеллектуальной строгости, честности и сотрудничеству. Инструменты ИИ имеют потенциал открывать новые области научных исследований и знаний в таких критически важных областях, как биология, химия, медицина и науки об окружающей среде. Мы стремимся к высоким стандартам научной добросовестности, работая над прогрессом в разработке ИИ.

Мы будем работать с различными заинтересованными сторонами для продвижения вдумчивого лидерства в этой области, опираясь на научно обоснованные и междисциплинарные подходы. И мы будем ответственно делиться знаниями в области ИИ, публикуя образовательные материалы, лучшие практики и исследования, которые позволят большему количеству людей разрабатывать полезные приложения ИИ.

7. Быть доступным для использования, соответствующего этим принципам.  

Многие технологии имеют несколько применений. Мы будем работать над ограничением потенциально вредоносных или злоупотребляющих приложений. При разработке и развертывании технологий ИИ мы будем оценивать вероятные применения с учетом следующих факторов:

  • Основная цель и использование: основная цель и вероятное использование технологии и приложения, включая то, насколько тесно решение связано с вредоносным использованием или может быть адаптировано для него
  • Характер и уникальность: предоставляем ли мы уникальную или более широко доступную технологию
  • Масштаббудет ли использование этой технологии иметь значительные последствия
  • Характер участия Googleпредоставляем ли мы инструменты общего назначения, интегрируем ли инструменты для клиентов или разрабатываем индивидуальные решения

Смотрите 9to5Google на YouTube для получения более свежих новостей: