HomeBlog >
Utiliser l’IA générative pour la publication vidéo multiplateforme
< Home
Insights

Utiliser l’IA générative pour la publication vidéo multiplateforme

By
Moments Lab Content Team
December 11, 2023

Le journal Le Parisien a testé la technologie MXT-1 de Moments Lab pour la publication de vidéos en ligne et a partagé son expérience lors de l’IBC 2023.

L’IA générative a ouvert la voie à de remarquables innovations dans l’industrie du broadcast et des médias. Cette année, elle a justement occupé le devant de la scène lors du salon IBC, un événement particulièrement important pour Moments Lab, qui a célébré le déploiement complet de MXT-1, son IA générative et multimodale récompensée maintes fois.

Plusieurs clients de Moments Lab ont très rapidement adopté MXT-1, une technologie d’indexation brevetée qui comprend et décrit le contenu de fichiers vidéo. En reconnaissant les personnes, en traduisant et en transcrivant les dialogues, et en identifiant les logos, les objets, les lieux remarquables, le contexte et le texte affiché à l’écran, MXT-1 est capable de décrire des vidéos plan par plan et de générer des résumés exhaustifs. L’IA permet aux organisations d’indexer leurs collections multimédias à grande échelle et de retrouver plus facilement leurs contenus.

Le Parisien, l’un de nos premiers clients à adopter MXT-1, nous a mis au défi de repousser les limites de cette technologie.

Et si nous pouvions utiliser la capacité de l’IA à comprendre et à décrire les médias, et exploiter les informations générées pour créer automatiquement les titres, les chapitres et les descriptions nécessaires à la publication vidéo en ligne, le tout optimisé pour le SEO ?

Le directeur technique et de création du Parisien, Guillaume Otzenberger, nous a rejoints à Amsterdam pour présenter les résultats des tests de MXT-1 réalisés pendant l’été dans le cadre des workflows vidéo de son service.

Two men seated at either side of a presentation TV screen, smiling for the camera.
Will Edwards, responsable du marketing produit, et Guillaume Otzenberger, du Parisien, à l’occasion de l’IBC 2023.

Une approche éthique et responsable de l’IA

Le Parisien couvre les actualités mondiales et locales sur papier (avec 2,5 millions de lecteurs quotidiens) et en ligne, où ses vidéos accumulent pas moins de 170 millions de vues par mois. L’entreprise utilise notre Media Hub dans le cloud boosté par l’IA depuis plus de deux ans pour archiver et publier ses contenus vidéo. Pour Le Parisien, le lancement de MXT-1 était une occasion de continuer à gagner en efficacité.

Mais l’intervention de Guillaume Otzenberger lors de l’IBC a commencé par ces mots : « Ne paniquez pas ! » Effectivement, il a assuré qu’il n’envisageait pas de remplacer sa talentueuse équipe de 15 journalistes vidéo par des machines. « Nous avons un objectif très clair en ce qui concerne la manière dont nous voulons utiliser l’IA et la manière dont nous ne l’utiliserons pas. »

Guillaume Otzenberger résume ainsi les principes éthiques du Parisien en matière d’IA :

  • Nous ne publierons pas de contenu éditorial entièrement ou partiellement généré par l’IA sans contrôle éditorial et humain.
  • Nous pouvons utiliser l’IA comme outil de perfectionnement, de recherche ou de synthèse pour contribuer au travail des journalistes et l’améliorer, en vérifiant toujours les sources.
  • Nous pouvons utiliser l’IA comme outil d’aide à la synthèse vidéo, notamment pour faciliter la diffusion sur différentes plateformes, sous contrôle éditorial et humain.

La vision du Parisien sur l’IA rejoint l’approche de Moments Lab, qui cherche à développer sa technologie de manière éthique et socialement responsable. Nous pensons que l’utilisation de l’IA nécessitera toujours un contrôle humain, surtout dans des contextes éditoriaux.

Réussir à être le premier à publier

Dans le monde effréné de l’actualité en ligne, les journalistes sont tenus de publier leurs reportages le plus rapidement possible pour capter un maximum d’attention de la part du public. Le mode de travail autonome des journalistes du Parisien les met réellement à l’épreuve.

« Nos journalistes vidéo travaillent de manière très moderne », explique Guillaume Otzenberger. « La plupart du temps, ils sont seuls avec une caméra. Ils s’occupent du tournage, des interviews, de la qualité de l’image et du son. Ils préparent le script du reportage et montent la vidéo sur Adobe Premiere et d’autres outils. »

Ensuite, la vidéo finalisée doit être publiée sur les plateformes en ligne du Parisien, notamment YouTube et Dailymotion, et surtout, optimisée pour le référencement, avec tous les mots-clés, les descriptions et les hashtags pertinents que cela implique. Cette étape leur faisait donc perdre un temps précieux.

En moyenne, Le Parisien publie 20 vidéos par jour. Il faut environ 15 minutes, parfois jusqu’à 30 minutes, pour résumer et charger manuellement chaque vidéo. Nous avons identifié cette étape du workflow du Parisien comme pouvant être grandement accélérée par MXT-1.

Génération automatique des descriptions, chapitres et mots-clés de recherche des vidéos

Les tests du Parisien avec MXT-1 ont eu lieu durant l’été 2023, avec pour objectif de générer automatiquement les titres, les descriptions et le découpage des chapitres des contenus vidéo. Les vidéos optimisées pour le SEO étaient ensuite publiées sur YouTube et Dailymotion directement depuis Moments Lab.

Workflow illustrating how Le Parisien uses MXT-1 in its online video publishing.
Le workflow de publication vidéo du Parisien boosté par MXT-1.

Quelques ajustements ont été effectués pour s’assurer que le résultat produit par MXT-1 reflétait bien le ton éditorial du Parisien et que le nombre de mots généré était optimal pour les plateformes vidéo.

Un panneau latéral intégré à l’interface du Media Hub permettait aux journalistes de générer le texte souhaité pour finaliser leur vidéo, qu’il s’agisse de timecodes, de descriptions, de hashtags ou de titres. Les utilisateurs pouvaient choisir de générer un ou plusieurs éléments et de réviser et modifier immédiatement le texte si nécessaire.

« Les descriptions de MXT-1 sont incroyables », affirme Guillaume Otzenberger. « L’IA comprend le niveau de détail nécessaire pour optimiser le référencement d’une vidéo sur les moteurs de recherche. Les hashtags et les chapitres générés par MXT-1 sont également très bons. Elle produit tous les éléments requis pour optimiser le nombre de vues. »

Des gains de productivité considérables

Les tests du Parisien avec MXT-1 ont également montré que les journalistes pouvaient gagner énormément de temps. Utiliser l’IA pour générer les titres, les descriptions et les chapitres des vidéos, puis les modifier, le cas échéant, prenait environ 3 minutes à l’équipe du Parisien. Pour rappel, ils créaient ces éléments manuellement en 15 minutes minimum par vidéo.

Image showing the 4 hours saved daily when using MXT-1 to generate SEO-optimized text for video publishing.

Guillaume Otzenberger définit très clairement les priorités de ses journalistes. « Le journalisme, les recherches… Tout ce travail difficile est abattu par des humains. L’IA, quant à elle, supprime une tâche répétitive et administrative de leur workflow et leur permet de publier bien plus rapidement. »

Le public et la qualité des reportages font partie intégrante de la stratégie de développement du Parisien, et l’entreprise étudie continuellement de nouveaux formats pour améliorer l’engagement du public. Les comptes Facebook et Instagram du Parisien sont désormais intégrés à Moments Lab pour la publication vidéo automatique, bientôt suivis par TikTok.

Pour ce qui est d’évaluer l’utilité de l’IA pour ses journalistes vidéo, Guillaume Otzenberger conclut ainsi : « MXT-1 est un véritable atout. »

Vous voulez améliorer vos workflows de production de contenus ? Contactez-nous et demandez une démonstration de MXT-1.

Newsletter

Sign up to be the first to know about company news, product updates, industry trends, and more.
Information
Moments Lab pour votre organisation

Contactez-nous pour une démo et un essai gratuit de 7 jours.

C'est parti →