Глава Google Сундар Пичаи (Sundar Pichai) назвал семь принципов, которыми компания руководствуется в работе с искусственным интеллектом. При этом он отметил, что это «не теоретические понятия, а конкретные стандарты», активно управляющие исследованиями и разработками в этой области, и влияющие на бизнес-решения.
Согласно Google, AI-приложения должны:
- Быть социально полезными. Достижения в области искусственного интеллекта будут иметь трансформирующее влияние на широкий ряд отраслей, включая здравоохранение, безопасность, энергетику, транспорт, производство и развлечения, считают в Google.
- Избегать создания или усиления предвзятого отношения. AI-алгоритмы и наборы данных могут отображать, усиливать или уменьшать предвзятое отношение . В Google признают, что различить справедливое и несправедливое отношение не всегда просто, причём различные проявления могут по-разному восприниматься в разных культурах и обществах. Но компания намерена по-максимуму избегать негативного влияния на людей, в частности, в таких вопросах, как раса, этническая принадлежность, пол, национальность, уровень дохода, сексуальная ориентация, а также политические и религиозные убеждения.
- Проверяться на безопасность. Google продолжит разрабатывать и применять надежные методы обеспечения безопасности, чтобы избежать непредвиденных результатов AI-разработок, несущих риск причинения вреда.
- Быть подконтрольным людям. Google будет разрабатывать AI-системы, которые будут предоставлять надлежащие возможности для обратной связи, объяснений и подачи жалоб. AI-разработки компании будут подлежать соответствующему человеческому контролю и руководству.
- Защищать конфиденциальность. Принципы конфиденциальности Google будут применяться и на этапе разработки, и на этапе использования AI-технологий.
- Поддерживать высокие научные стандарты. По словам Пичаи, технологические инновации основаны на научном методе и приверженности открытому исследованию, интеллектуальной строгости, целостности и сотрудничеству. Google будет работать с рядом заинтересованных сторон для содействия продуманному лидерству в этой области, опираясь на научно строгие и мультидисциплинарные подходы.
- Быть доступными для использования, которое согласуется с этими принципами.
Пичаи также очертил области, в которых Google не будет заниматься AI-разработками и исследованиями. В их числе:
- Технологии, которые приносят или могут принести вред;
- Вооружение и другие технологии, главной целью которых является причинение вреда людям;
- Технологии, которые собирают или используют информацию для наблюдения, нарушающего международные нормы;
- Технологии, нарушающие принципы международного права и права человека.
«Мы считаем, что эти принципы являются правильным фундаментом для нашей компании и будущего развития искусственного интеллекта. Этот подход согласуется с нашими ценностями, изложенными в обращении основателей компании в 2004 году. Там мы чётко определили наше намерение занять позицию, ориентированную на долгосрочную перспективу, даже если это означает принятие краткосрочных компромиссов. Тогда мы это сказали, а теперь мы в это верим», - заключил Пичаи.
Вслед за публикацией AI-принципов руководитель облачных сервисов Google Дайан Грин (Diana Green) озвучила позицию компанию в отношении сотрудничества с Пентагоном, активно критикуемого сотрудниками корпорации. В частности, она заявила, что заключать новые контракты компания не будет, но взятые на себя обязательства выполнит, при этом придерживаясь принципов, оглашённых Сундаром Пичаи.
Цель Project Maven – ускорить распознавание объектов на снимках с бесполитников с помощью искусственного интеллекта. Срок действия контракта истекает в марте 2019 года.
О том, что Google Cloud не будет продлевать контракт с Министерством обороны США, стало известно в начале этого месяца. Теперь Грин официально подтвердила эту информацию.