Искусственный интеллект в PR может сократить расходы, освободить сотрудников от рутины и повысить точность аналитики. А еще повредить репутации компании и привести к судебным разбирательствам. Рассказываем, на что нужно обращать внимание при использовании нейросетей* и как избежать связанных с ними рисков.
*термины «ИИ», «алгоритм» и «нейросеть» используются в статье как синонимы. Это разные аспекты технологии искусственного интеллекта, но все они могут обозначать инструменты в рамках этой технологии.
Проблема 1: однообразный и некачественный контент
Лингвистические модели обрабатывают массивы данных в интернете и выдают похожий на них результат в зависимости от запроса. Например, когда вы просите ИИ написать текст про открытие новой кофейни, он анализирует миллионы текстов про кофейни в открытом доступе и выдает среднеарифметический результат. Такой алгоритм по определению не может создать ничего нового — он просто рерайтит существующие материалы. Это не помеха для утилитарных текстов: новостей, инструкций, документов. Но когда речь заходит о творческом контенте, алгоритмы бессильны.
«На сегодняшний день ИИ способен решить только очень простые задачи: написать поздравление, решить проблему чистого листа. Для сложных PR-текстов нужны опытные специалисты, — отмечает управляющий директор агентства TWIGA PR и руководитель Рабочей группы АКОС по ИИ в коммуникациях Евгений Темпераментов. — ИИ может быстро сбить фактуру в текст, но вся ценность таких текстов как раз в фактуре, поиске неочевидных решений и акцентов. ИИ пока на это не способен».
ИИ в бизнесе используют всего несколько лет, но он уже заполнил интернет контентом, который тяжело отличить от спама. Аудитория от этого скучает — в таких текстах нет тех особенностей, которые делают их цепляющими и запоминающимися: авторских оборотов и уникальных языковых конструкций, юмора, эмоциональных оценок, личного опыта. Для PR и маркетинга огромный минус, когда контент выглядит точно так же, как у конкурентов.
Google (а вслед за ним и Яндекс) активно стали бороться с автоматически сгенерированным контентом в поисковой выдаче. Проблема в том, что программы автоматической генерации текстов легко адаптируются под стандартные SEO-запросы (например, количество упоминаний ключевых слов) и могут создавать целые сайты с тысячами статей за считанные часы. При этом на таких сайтах нет полезной или уникальной информации, которую поисковики хотят показывать своим пользователям.
Поэтому крупные поисковые программы ужесточили требования по проверке контента и теперь особенно жестко отсеивают автоматические тексты. Чтобы оставаться на первой странице, тексты по-прежнему должны быть оригинальными, авторскими и релевантными. Однако теперь фильтры умеют распознавать и понижать в выдаче специальные маркеры, которые есть в написанных ИИ текстах.
В более тяжелых случаях произведенный алгоритмами контент совсем не соответствует брифу или просто выглядит абсурдно. Речь далеко не только о слабых бесплатных инструментах — с такими проблемами сталкивались крупнейшие мировые корпорации.
Например, Microsoft выпустил написанный ИИ путеводитель для туристов, где порекомендовал им поесть в центре для бездомных. MSN в автоматическом некрологе назвал звезду NBA Брэндона Хантера «бесполезным». А ИИ X (бывший Twitter, сайт запрещен в РФ) обвинил баскетболиста в вандализме, потому что неправильно понял его твит про плохой матч.
Как решить: если вы используете ИИ для создания пресс-релизов и других текстов для журналистов, перепроверяйте и дополняйте автоматическую выдачу. Инструменты для анализа текста на признаки ИИ помогут найти очевидные ошибки.
Проблема 2: репутационные риски
Алгоритмы не могут ориентироваться на контекст в реальном мире, поэтому не могут «узнать», что результаты их работы оскорбительны или ложны. «У специалистов создается ощущение, что ИИ — это волшебная пилюля, способная снять с них всю рутину. Неопытные пиарщики отдают все на откуп ИИ и на выходе могут серьезно навредить репутации брендов, с которыми работают», — считает Темпераментов.
Когда вы работаете с алгоритмами, можете контролировать их только на уровне запросов, или «промтов». Чем они точнее, тем лучше будет результат. Но в сборе данных ИИ может легко попасть на ложную информацию или неправильно интерпретировать вводные. Ученые из Cornell University показали, что ChatGPT соглашается с ложными утверждениями в 26% случаев. Сами разработчики ИИ-проекта Google под названием Bard (в дальнейшем выпущен под названием Gemini) называли его «патологическим лжецом» во внутриофисной переписке.
Часто алгоритмы не понимают тонкостей оценочных суждений и не замечают очевидных ляпов. Например, ИИ чат-бот логистической компании DPD в диалоге с клиентом назвал ее худшей в мире и на несколько абзацев расписал ее недостатки. В США рекрутинговая компания выплатила штраф после того, как ее алгоритм автоматически отказывал в трудоустройстве пожилым кандидатам.
ИИ может вводить клиентов в заблуждение даже про основные продукты компании, хотя тут у него, казалось бы, должна быть вся необходимая информация. Так, авиакомпания Air Canada подверглась критике в соцсетях и возместила моральный ущерб пассажиру, которому ИИ в чат-боте пообещал скидку на билет на похороны бабушки. У авиакомпании нет подобной скидочной программы, и она не знает, почему ИИ решил ее прорекламировать.
Даже Google пришлось извиняться после того, как их ИИ Gemini запостил расистские иллюстрации солдат Второй мировой: в алгоритм была заложена установка на изображение людей разных национальностей независимо от контекста, поэтому в нацистской униформе он изобразил в том числе и людей с темным цветом кожи.
Как решить: критически оценивать решения ИИ с точки зрения общественного контекста и субъективных суждений. Проверять актуальность информации, предоставленной ИИ-моделям для машинного обучения.
Проблема 3: недовольство среди пользователей
Чем популярнее становится ИИ, тем больше поляризуются мнения об этой технологии. Исследование британского государственного агентства Ofcom показало, что более половины (58%) пользователей обеспокоены влиянием ИИ на общество. Больше всего критиков (67%) в возрастной группе 16-24. В этой возрастной категории и самый большой процент тех, кто использовал технологию, — почти 75%. А вот среди пользователей старше 40 ее опробовали меньше 25%.
Опрос Pew Research показывает, что лишь 10% пользователей относятся к ИИ с безоговорочным энтузиазмом. Остальные либо испытывают смесь беспокойства и любопытства (36%), либо относятся к технологии скорее негативно (52%). Пользователи обеспокоены тем, что ИИ негативно повлияет на рынок труда (43%), приведет к дискриминации (31%) и распространит информацию низкого качества (21%).
Бурная дискуссия вокруг ИИ может привести к серьезным последствия для репутации и бойкотам со стороны преданных поклонников. Так, геймеры массово отменяли подписку на сервис аренды видеоигр от Microsoft GamePass и высказывали недовольство в соцсетях после того, как Xbox заявил о партнерстве с ИИ-компанией для разработки игр.
С бойкотом столкнулись и авторы многообещающего голливудского хоррора «Полночь с дьяволом» (2023). Они использовали лишь нескольких секунд ИИ-изображений в своем фильме, но в результате первую неделю после премьеры были вынуждены отвечать на критику в соцсетях. Пользователи были недовольны, что ИИ «отнял» работу у настоящих художников, а результат получился хуже.
Иногда с критикой ИИ трудно поспорить. Весной посмешищем всего интернета стал разработанный ИИ ивент Willy Wonka Experience, посвященный выходу фильма «Вонка». Трудно представить, что никто в команде ивента не заметил насколько плохо выглядят «произведения» ИИ. Тем не менее, они прошли все этапы согласования и были полностью профинансированы.
Как решить: знайте свою аудиторию. Если среди нее много молодых и активных в интернете людей, то они могут воспринять ИИ плохо. Помните о том, что ИИ не может оценить за вас качество своей работы. Используйте свое чувство вкуса и тщательно контролируйте автоматизированный контент.
Проблема 4: плагиат и нарушение авторских прав
Как уже было сказано выше, ИИ обучается на данных в интернете и активно использует их составные части в своих выдачах. Произведенный таким образом креативный контент часто оказывается подозрительно похож на произведения авторов, публиковавшихся в интернете. Как минимум это приводит к тому, что контент не будет свежим и оригинальным. В более тяжелых случаях это может обернуться вредом для репутации и судебными разбирательствами.
Алгоритмы «крадут» как элементы стиля, так и части произведений, защищенных авторским правом. Например, пользователи соцсетей собирают фрагменты аватаров из сервиса Lensa, на которых ИИ забыл стереть подпись художников оригинальных работ. Сервис по созданию иллюстраций Stable Diffusion в ранних версиях даже напрямую предлагал пользователям скопировать стиль из подборки знаменитых (и ныне живущих) художников.
Тем временем у авторов появляется все больше инструментов для обнаружения таких копий. Например, сайт Have I Been Trained позволяет художникам найти свои работы в базах данных для обучения ИИ. В США группа художников уже воспользовалась несколькими подобными инструментами и подала иск в суд против алгоритма Midjourney, утверждая, что тот «без разрешения использовал работы тысяч авторов».
Крупнейшая австралийская медиа-корпорация ABC обнаружила в интернете целую сеть сайтов-паразитов, на которых ИИ слегка переписывал и публиковал их материалы. После обращения адвокатов «ферма» была полностью ликвидирована.
Похожая ситуация в США, где музыкальные компании Universal, Concord Music и ABKCO Music судятся с разработчиками языковой модели Claude. По их мнению, чат-боты на движке Claude «незаконно копируют и распространяют огромное количество произведений, защищенных авторским правом». Например, Claude без указания авторов использует в своих ответах тексты песен.
Авторы обнаруживают даже плагиат единичных креативов. Так, производителя спортивной одежды Under Armour обвинили в плагиате: сгенерированная ИИ видеореклама полностью копирует ролик, ранее снятый с тем же самым спортсменом для другой компании.
Как решить: использовать инструменты для проверки ИИ контента на плагиат. Работать вместе с креативной командой: она будет давать более оригинальные запросы для алгоритмов и корректировать результаты.