+7 (495) 748-05-32

info@iia-ru.ru

ЛИЧНЫЙ КАБИНЕТ

Войти Регистрация

Новости

7 апреля 2025

Институт внутренних аудиторов провел опрос о рисках использования ИИ на рабочем месте

Ассоциация «Институт внутренних аудиторов» провела опрос внутренних аудиторов из российских компаний разных секторов экономики, чтобы выяснить, какие риски сопровождают использование ИИ на рабочем месте, и как их можно минимизировать. В опросе приняли участие 211 респондентов.

 

В последнее время развитие технологий искусственного интеллекта идет быстрыми темпами, особенно с 2022 года, когда с запуском ChatGPT генеративный искусственный интеллект стал сенсацией для широкой общественности. Популярность ИИ-инструментов способствовала тому, чтобы сделать безопасное внедрение генеративных моделей важным вопросом для компаний в целом и внутренних аудиторов в частности.

 

Многие инструменты ИИ находятся в свободном доступе и сравнительно дешевы, поэтому подразделения и сотрудники компаний могут использовать их самостоятельно и бесконтрольно. Как следствие, может быть сложно определить (и контролировать), где и как ИИ используется в бизнесе, что влечёт за собой большое количество рисков.

 

В топ-5 наиболее значимых, по мнению внутренних аудиторов, рисков использования общедоступного ИИ (например: ChatGPT, Claude, DeepSeek, GigaChat, YaGPT и прочее) для рабочих целей вошли:

  1. Риск утечки конфиденциальных данных/ Нарушение конфиденциальности данных – 73%
  2. Ошибки и недостоверная информация/ Создание дезинформации / Галлюцинирование (модели могут генерировать неполные или ложные ответы, а также выдавать правдоподобную, но фактически ложную информацию) – 70%
  3. Непонимание принципов работы ИИ сотрудниками (как результат: некорректное использование возможностей ИИ или неспособность выявить ошибки) – 43%
  4. Избыточная зависимость от технологий (сотрудники перестанут критически оценивать данные и решения, выработают привычку полагаться на ИИ, а также утратят креативное мышление) – 40%
  5. Непреднамеренное нарушение законодательства (ответы ИИ могут не соответствовать актуальным законодательным нормам) – 39%

 

В топ-5 мер по снижению рисков, сопровождающих использование открытых ИИ-инструментов в рабочих целях, по мнению внутренних аудиторов, вошли:

1. Обучение сотрудников (о рисках использования публичных языковых моделей, о возможностях моделей, о правилах работы и т.д.) – 60%

2. Создание внутренних политик использования ИИ – 57%

3. Ограничение предоставления конфиденциальной информации (ограничение отправки в публичные языковые модели конфиденциальных и/или чувствительных данных) – 55%

4. Верификация источников (проверка информации, предоставляемой моделью, с внешними надежными источниками данных) 53%

5. Разделение задач (использование публичных языковых моделей только для общих запросов, а для работы с чувствительными данными – только внутренние решения) – 45%

 

С полными результатами опроса можно ознакомиться на сайте Ассоциации «Институт внутренних аудиторов» а разделе «Исследования»: https://www.iia-ru.ru/inner_auditor/issledovania/

 

Интерфакс: Ассоциация "Институт внутренних аудиторов" опубликовала рейтинг рисков использования общедоступного ИИ для рабочих целей 

 

PROКачество: ИИ мне друг, но безопасность дороже. Российские внутренние аудиторы: риск утечки конфиденциальных данных возглавил рейтинг рисков использования общедоступного ИИ для рабочих целей