Искусственный интеллект: подходы к разработке этичных решений
Содержание
ОБ ИССЛЕДОВАНИИБРОШЮРА ПО ИТОГАМ ИССЛЕДОВАНИЯГЛАВНЫЕ ВЫВОДЫ ИССЛЕДОВАНИЯМЕТОДОЛОГИЯ ИССЛЕДОВАНИЯОРГАНИЗАТОРЫ ИССЛЕДОВАНИЯВсе аналитические проекты
- Настроения ИТ-специалистов в России
- Курьерская доставка “последней мили” в России
- Социальные медиа в России: аудитория в феврале-марте 2022 года
- Влияние доставки, готовой еды и продуктов питания на бизнес, общество и городскую среду
- ESG-подход к решению проблемы нерационального использования продовольствия в России
- Экономика Рунета / Цифровая экономика России 2020/2021
- Мобильная экономика России
- ИНТЕРНЕТ В РОССИИ: состояние, тенденции и перспективы развития. Аналитический отчет
- «Будущее работы и рабочих мест»
- Дайджест “Право в ИТ”
- Цифровая экономика от теории к практике: как российский бизнес использует искусственный интеллект
- Искусственный интеллект в ритейле: практика российского бизнеса
- Экосистема мобильной экономики: влияние экономики мобильных приложений на рынок труда в России
- Новые акценты цифровой трансформации: как весна 2020 повлияет на российский бизнес
- Россия и устойчивое цифровое развитие
- Большие данные в маркетинге и интернет-рекламе
- Экосистема онлайн-кинотеатров России
- Рейтинг Операторов Фискальных Данных 2018
- Киберугрозы, киберагрессия, кибербуллинг
- Экосистема индустриального интернета в России
- Экономика совместного потребления в России
- Фудшеринг в России
- Правила чтения рейтингов 2019
- Такси в крупнейших городах мира: особенности работы и роль в транспортных системах
- ЦИФРОВЫЕ ГОРИЗОНТЫ: Экосистема IT-предпринимательства и стартапов в России
- Российский рынок SMS-рассылок: текущее состояние, перспективы, драйверы и барьеры развития
- Влияние 242-ФЗ на российский рынок ЦХОДов
ОБ ИССЛЕДОВАНИИ
Исследование реализовано РАЭК и Microsoft в России. Исследование продолжает раскрытие темы делегирования стандартных задач искусственному интеллекту, начатую в отчете «Правовые аспекты делегирования принятия решений системам ИИ в умных городах», и посвящено изучению практических аспектов разработки этичных решений в области искусственного интеллекта. В рамках исследования рассматриваются вопросы, связанные с такими общими принципами регулирования систем искусственного интеллекта, как принцип прозрачности, принцип объективности и отсутствия дискриминации и принцип обоснованности.
В исследовании приводится краткий обзор зарубежных и российских документов и рекомендаций, в том числе стандарты, гайдлайны и инструменты для разработчиков систем искусственного интеллекта.
БРОШЮРА ПО ИТОГАМ ИССЛЕДОВАНИЯ
По ссылке ниже можно скачать брошюру по итогам исследования
«Подходы к разработке этичных решений в области искусственного интеллекта» (pdf, 1,52 MБ)
ГЛАВНЫЕ ВЫВОДЫ ИССЛЕДОВАНИЯ
Использование технологий искусственного интеллекта (далее - ИИ) постепенно переходит из плоскости футурологии в плоскость повседневности. Положительные эффекты от применения ИИ уже сегодня подкреплены множественными практическими примерами. Эксперты и аналитики говорят о позитивном влиянии ИИ на рост стоимости бизнеса и отмечают общественную значимость использования ИИ для решения национальных задач. В IDC ожидают, что по итогам 2021 года объем глобального рынка ИИ, включая ПО, устройства и сервисы, достигнет $341,8 млрд, увеличившись на 15,2% по сравнению с 2020 годом, а к 2024 году преодолеет отметку в $500 млрд.
Чем больше задач делегируется алгоритмам, тем более остро встают вопросы безопасности и ответственного применения систем ИИ. Ответом на вызовы, связанные с использованием ИИ, становятся различные рекомендации, принципы, стандарты и технологические решения, которые призваны снизить уровень существующих рисков и обеспечить эффективную, надежную и безопасную работу алгоритмов.
В своем исследовании подходов к разработке этичных решений в области ИИ РАЭК и Microsoft сконцентрировали внимание на практических решениях и инструментах, которые могут помочь разработчикам в создании доверенного ИИ (“trustworthy AI”).
Чтобы считаться этичными, системы ИИ должны соответствовать ряду условий. На основе экспертных исследований и обсуждений на различных международных площадках появился определенный контур общих подходов к вопросам этики в области ИИ. Чаще всего такой контур или подходы формализуются в рамках общих принципов или рекомендаций относительно развития ИИ, к которым относятся прозрачность, непредвзятость, подотчетность, приоритет интересов человека и контроль с его стороны, ответственность разработчиков, пользователей и других заинтересованных лиц. Соблюдение данных рекомендаций в совокупности с выполнением требований действующего законодательства и следованием существующим стандартам лежат в основе создания доверенного ИИ.
Разработка доверенного ИИ включает в себя применение совокупности принципов, практик и инструментов, которые помогают разработчикам минимизировать риски возникновения негативных последствий использования систем ИИ и создавать этичные, безопасные, прозрачные и подотчетные технологические решения. Применение различных требований и принципов к системам ИИ основывается на риск-ориентированном подходе, при котором к системам с высоким уровнем риска предъявляются повышенные требования. Необходимо отметить, что риск возникновения негативных последствий едва ли возможно устранить полностью, поэтому необходим комплексный подход к выявлению, изучению, измерению, управлению рисками и их минимизации.
Начало обсуждения вопросов создания доверенного ИИ является следствием осознания рисков, связанных с использованием технологий ИИ, включая риски дискриминации, необъективности, предвзятости, угрозы конфиденциальности и возникновения ошибок. Выделяется несколько уровней, на которых могут возникнуть ошибки, приводящие к несправедливым, неверным или дискриминирующим результатам работы систем ИИ:
— уровень разработки;
— уровень обучения алгоритмов;
— уровень данных для работы алгоритмов;
— уровень внедрения.
На каждом из этих уровней существуют собственные источники неверных, несправедливых или предвзятых решений. При распространении систем ИИ данные источники могут оказать существенное влияние на сохранение дискриминации и предрассудков, существующих в обществе, а также иметь существенные негативные последствия для лиц, в отношении которых данные системы были использованы. Поэтому инициативы по снижению рисков принятия таких решений играют важную роль для безопасного и ответственного развития технологий.
Такие инициативы особенно важны сейчас, когда национальное регулирование, направленное на построение этичных систем ИИ, и технологические стандарты в этой сфере пока еще находятся в стадии формирования.
МЕТОДОЛОГИЯ ИССЛЕДОВАНИЯ
Кабинетное исследование: Систематизация, анализ и классификация опыта, знания и экспертизы, накопленных в научных, аналитических и экспертных материалах по теме, в том числе с изучением международного опыта.
ОРГАНИЗАТОРЫ ИССЛЕДОВАНИЯ
Ассоциация электронных коммуникаций (РАЭК)
РАЭК была создана в 2006. Миссия РАЭК заключается в формировании цивилизованного рынка электронных коммуникаций, поддержка проектов в отраслевом образовании и науке, развитие нормативно-правового поля по защите интересов участников рынка. На сегодняшний день Ассоциация объединяет более 150 игроков рынка электронных коммуникаций, что позволяет РАЭК объективно представлять интересы отрасли и эффективно решать ее задачи.
Подробнее: http://raec.ru/
Microsoft
Microsoft (Nasdaq “MSFT” @microsoft) обеспечивает условия для цифровой трансформации в эпоху «интеллектуального облака» и «интеллектуальных технологий». Миссия компании – дать возможность каждому человеку и организации на планете достичь большего.
Контактная информация:
Microsoft, 125252, Москва, а/я 70
Тел.: 7 (495) 967-85-85
Факс: 7 (495) 967-85-00