Международный эксперт Дэвид Фускус высказался о рисках работы с конфиденциальной информацией при использовании ИИ, посвятив этому вопросу специальный пост. Этой проблемой взволнованы специалисты сферы PR по всему миру.
В обсуждениях этики нейросетей обычно речь заходит об очевидных вопросах, таких как авторские права, политика в отношении ИИ, организационные руководства и пр. Но если копнуть глубже, всплывают и серьёзные угрозы:
Среди этих угроз Дэвид Фускус выделяет теневой ИИ — несанкционированное использование личных аккаунтов, чат-ботов или плагинов. Он способен создавать скрытые потоки данных, которые обходят NDA, нарушают конфиденциальность и подрывают доверие.
Использование конфиденциальной информации — это этическая проблема, потенциальный ущерб от которой может быть крайне серьезным. Многообещающие возможности GenAI сталкиваются с нерешенными проблемами корпоративной безопасности.
По данным KPMG, число руководителей, которых беспокоят безопасность данных и авторские права при работе с ИИ, выросло на 81%. Одновременно с этим Gartner сообщает, что 88% специалистов по безопасности беспокоятся о рисках из-за внедрения ИИ. Причем 79% считают утечку данных главной проблемой. Но сами поставщики ИИ-технологий пока уделяют недостаточно внимания вопросам безопасности.
По мнению Дэвида Фускуса, для решения этой проблемы PR-индустрии необходимо выйти за рамки разработки руководств. Лучше сосредоточиться на внедрении безопасных ИИ-технологий, таких как единый вход в систему (single sign-on, SSO), корпоративные инструменты с нулевым сроком хранения, журналы аудита, запрет на использование конфиденциальных данных в публичных моделях, работа с полностью проверенными технологиями и других.
В обсуждениях этики нейросетей обычно речь заходит об очевидных вопросах, таких как авторские права, политика в отношении ИИ, организационные руководства и пр. Но если копнуть глубже, всплывают и серьёзные угрозы:
- Утечка данных клиентов;
- Обучение нейросетей на чужих документах;
- Неконтролируемое использование ИИ и другие проблемы с безопасностью.
Среди этих угроз Дэвид Фускус выделяет теневой ИИ — несанкционированное использование личных аккаунтов, чат-ботов или плагинов. Он способен создавать скрытые потоки данных, которые обходят NDA, нарушают конфиденциальность и подрывают доверие.
Использование конфиденциальной информации — это этическая проблема, потенциальный ущерб от которой может быть крайне серьезным. Многообещающие возможности GenAI сталкиваются с нерешенными проблемами корпоративной безопасности.
По данным KPMG, число руководителей, которых беспокоят безопасность данных и авторские права при работе с ИИ, выросло на 81%. Одновременно с этим Gartner сообщает, что 88% специалистов по безопасности беспокоятся о рисках из-за внедрения ИИ. Причем 79% считают утечку данных главной проблемой. Но сами поставщики ИИ-технологий пока уделяют недостаточно внимания вопросам безопасности.
По мнению Дэвида Фускуса, для решения этой проблемы PR-индустрии необходимо выйти за рамки разработки руководств. Лучше сосредоточиться на внедрении безопасных ИИ-технологий, таких как единый вход в систему (single sign-on, SSO), корпоративные инструменты с нулевым сроком хранения, журналы аудита, запрет на использование конфиденциальных данных в публичных моделях, работа с полностью проверенными технологиями и других.