Pendant des années, la solution pour référencer les vidéos des médiathèques consistait à y ajouter des métadonnées descriptives, comme un titre, une description et quelques mots-clés. Naturellement, il s’agissait d’une tâche manuelle, pour le moins fastidieuse et impossible à mettre en pratique face à la quantité astronomique de vidéos produites à l’heure actuelle.
Vinrent ensuite les outils d’indexation vidéo boostés par l’IA et leurs promesses d’automatisation. Ils indexaient les vidéos en y associant des visages et des objets, et généraient même leur transcription… tout cela sans contexte. Ces outils inondaient les systèmes de gestion des assets médias (MAM) et digitaux (DAM) de métadonnées inutiles, générant des résultats confus et multipliant les problèmes qu’ils promettaient pourtant de résoudre.
Pour cette raison, fin 2023, nous avons inauguré MXT, une IA qui comprend et décrit chaque moment d’une vidéo comme le ferait un humain. Elle découpe les vidéos en scènes, reconnaît les personnes qui y figurent, ce qu’il se passe, l’environnement et même les types de plans utilisés. Elle est également capable d’identifier les meilleurs extraits sonores des interviews, discours ou conférences de presse pour éviter aux utilisateurs d’avoir à parcourir eux-mêmes les séquences.
Avant MXT, les clients mettaient sept fois plus de temps à trouver et à réutiliser les contenus audiovisuels de leurs médiathèques. Depuis MXT-2, l’indexation des vidéos est devenue plus rapide et plus précise que jamais.
Pour référencer les vidéos, la plupart des outils d’indexation boostés par l’IA utilisent des labels. Si associer les mots-clés « chien », « plage » ou « foule » à un clip peut s’avérer utile, vous n’avez toujours aucune idée de ce qu’il se passe réellement dans cette vidéo. Plutôt que d’attribuer des mots-clés génériques aux fichiers, notre technologie génère des descriptions riches et horodatées, qui expliquent chaque instant à la manière d’un humain. Grâce à ce niveau de détail et de contextualisation, il est bien plus facile de trouver le moment précis dont vous avez besoin, sans avoir à écumer des centaines de clips aux métadonnées imprécises.
Désormais, MXT-2 génère des descriptions encore plus précises et efficaces.
Nous avons utilisé trois fois plus de données pour entraîner MXT-2 que le précédent modèle, contribuant à améliorer ses descriptions des vidéos et le rendant plus à même de saisir leurs détails et leurs subtilités.
Pour illustrer cette amélioration, voici les descriptions générées par l’ancien modèle et par MXT-2 pour la même image.
MXT-2 est doté d’une autre fonctionnalité : Custom Moments. Cette dernière vous permet de définir précisément la segmentation d’un type de contenu en particulier, ce qui, à terme, vous aide à trouver les moments qui vous intéressent parmi tous ceux que vous possédez.
Sautez l’étape durant laquelle vous passez des centaines de séquences au peigne fin et identifiez directement les clips dont vous avez réellement besoin pour votre projet.
Prenons quelques exemples :
Custom Moments assure plusieurs choses : l’accessibilité immédiate des contenus les plus pertinents et les plus captivants, quel que soit votre objectif, et des heures de montage manuel en moins.
L’indexation et le tri des vidéos est depuis toujours un processus chaotique et inconstant. Si quelques organisations tentent de mettre en place des nomenclatures et une taxonomie, chaque utilisateur a sa façon de faire, entraînant, à terme, plus de confusion qu’autre chose.
Pour résoudre ce problème, MXT-2 introduit une autre fonctionnalité : Custom Insights. Custom Insights classifie automatiquement les contenus vidéo de manière précise et cohérente. En utilisant les métadonnées générées par MXT, Custom Insights catégorise les vidéos en fonction des paramètres les plus pertinents pour vous, qu’il s’agisse du sujet, du thème, du type de contenu ou d’un critère plus spécifique. En d’autres termes, vous pouvez dire adieu à la classification manuelle.
Et ce n’est que la partie émergée de l’iceberg. Prenons comme exemple un match de boxe. Vous pouvez demander à Custom Insights de classer la vidéo selon les catégories suivantes :
En ayant accès à ce niveau de précision, vous pourriez instantanément retrouver les meilleurs K.-O. de Floyd Mayweather au cours des cinq premiers rounds, et ce sans aucun effort.
Cette fonctionnalité est utile pour rationaliser l’organisation des vidéos, mais aussi pour faciliter les recherches préliminaires, que vous archiviez des séquences, que vous cherchiez des clips pour un projet ou que vous essayiez simplement d’identifier les meilleurs moments de votre médiathèque.
La fonctionnalité Custom Insights ne vous aide pas seulement à trouver les contenus ; elle vous aide à les utiliser. Vous pouvez vous en servir aussi bien pour générer des mots-clés qui facilitent la classification que pour produire du texte prêt à être partagé ou pour obtenir des informations sur une vidéo.
Voilà quelques exemples d’utilisation de Custom Insights pour générer du texte à partir de vos vidéos :
En accélérant les workflows de production et en enrichissant la création, MXT-2 est en passe de transformer la manière dont les petites équipes indexent et tirent parti de leurs contenus vidéo.
Les organisations peuvent chercher et trouver les contenus indexés par MXT-2 à l’aide de la plateforme de référencement vidéo Moments Lab, ou intégrer les métadonnées générées par MXT-2 directement à leur outil habituel.
À l’heure où nous mettons tout en œuvre pour innover et développer nos technologies d’IA, nous ne perdons pas notre mission de vue : fournir à nos clients les outils dont ils ont besoin pour réussir.
Vous voulez savoir comment Moments Lab et MXT-2 peuvent promettre votre organisation à de belles perspectives d’avenir ? Contactez-nous.