Новости PR News Media

Эксперт предупредил об угрозах ИИ для защиты информации

аналитика
Международный эксперт Дэвид Фускус высказался о рисках работы с конфиденциальной информацией при использовании ИИ, посвятив этому вопросу специальный пост. Этой проблемой взволнованы специалисты сферы PR по всему миру.

В обсуждениях этики нейросетей обычно речь заходит об очевидных вопросах, таких как авторские права, политика в отношении ИИ, организационные руководства и пр. Но если копнуть глубже, всплывают и серьёзные угрозы:

  • Утечка данных клиентов;

  • Обучение нейросетей на чужих документах;

  • Неконтролируемое использование ИИ и другие проблемы с безопасностью.

Среди этих угроз Дэвид Фускус выделяет теневой ИИ — несанкционированное использование личных аккаунтов, чат-ботов или плагинов. Он способен создавать скрытые потоки данных, которые обходят NDA, нарушают конфиденциальность и подрывают доверие.

Использование конфиденциальной информации — это этическая проблема, потенциальный ущерб от которой может быть крайне серьезным. Многообещающие возможности GenAI сталкиваются с нерешенными проблемами корпоративной безопасности.

По данным KPMG, число руководителей, которых беспокоят безопасность данных и авторские права при работе с ИИ, выросло на 81%. Одновременно с этим Gartner сообщает, что 88% специалистов по безопасности беспокоятся о рисках из-за внедрения ИИ. Причем 79% считают утечку данных главной проблемой. Но сами поставщики ИИ-технологий пока уделяют недостаточно внимания вопросам безопасности.

По мнению Дэвида Фускуса, для решения этой проблемы PR-индустрии необходимо выйти за рамки разработки руководств. Лучше сосредоточиться на внедрении безопасных ИИ-технологий, таких как единый вход в систему (single sign-on, SSO), корпоративные инструменты с нулевым сроком хранения, журналы аудита, запрет на использование конфиденциальных данных в публичных моделях, работа с полностью проверенными технологиями и других.