ИИ в медиа: исследование РАЭК и НИУ ВШЭ

Большое исследование об использовании ИИ в медиакоммуникациях выпустили НИУ ВШЭ и РАЭК.

Аналитики выяснили, что ИИ-технологии упростили или заменили такие рутинные операции редакций и сотрудников:

  • генерацию хроникальных заметок
  • категоризацию по топикам и геолокации
  • «обвесы» (баннеры или сноски в статье, предлагающие другие материалы и темы)
  • подбор бэкграундов (контекста новости, истории развития сюжета)
  • справочной информации
  • анализ комментариев
  • создание нишевых новостных лент, рекомендательных сервисов, персонализацию контента
  • распознавание речи для расшифровок, переводов, титров
  • распознавание образов для подбора иллюстраций
  • верификацию и фактчекинг.

ИИ-инструменты, которые применяются в медиа, разделили на две группы: для персонального использования и для работы редакционных коллективов.

Среди первой группы лидируют голосовые помощники (41,5%), автоматические переводчики текста (27,3%) и текстовые расшифровщики аудиозаписей (26,7%).

Во второй группе самыми популярными стали персонализация новостных лент (27,3%), рекомендательные сервисы (23,9%) и текстовые расшифровщики аудиозаписей (18,8%).

В числе основных препятствий внедрения ИИ в сфере медиа представители индустрии в чаще всего называют нехватку средств (51,1%), квалификации сотрудников (42,0%), недостаток информации об опыте использования ИИ в медиа и коммуникациях (31,3%), слабую заинтересованность руководства в технологических инновациях (29,5%), малодоступность зарубежных технологий (27,3%).

Среди ИИ-технологий, которые будут развиваться в сегменте медиа в ближайшие 5 лет, 41,5% назвали персонализацию новостных лент, 39,2% — автоматическое создание текстов, 31,8% — их анализ. Также упоминали рекомендательные сервисы (29%), распознавание лиц на изображении (19,9%), анализ тональности речи и текста (13,1%) и др.

Отмечается, что одним из серьезных вызовов является выработка этических правил использования искусственного интеллекта в медиа и журналистике. 
С ним помогут справиться:

  • транспарентность работы редакций
  • право аудитории на информирование о взаимодействии с ИИ
  • запрет на передачу полномочий искусственному интеллекту в вопросах нравственного выбора при подготовке медиаконтента
  • совместная ответственность редакции и разработчиков программного обеспечения за последствия работы ИИ
  • определение круга тем, для работы над которыми этически неприемлемо использование ИИ.

Полный текст исследования, которое больше похоже на фундаментальную научную работу, можно посмотреть в комментариях к этому посту.

Комментарии 0