HomeBlog >
Le projet de R&D Deep Tech de Moments Lab remporte un financement dans le cadre du concours d’innovation i-Nov
< Home
News & Events

Le projet de R&D Deep Tech de Moments Lab remporte un financement dans le cadre du concours d’innovation i-Nov

By
Yannis Tevissen
Head of Science
August 29, 2023

Table of Contents

  1. Heading 1
  2. Heading 2
  3. Heading 3

Notre projet de trois ans et de 2 millions d’euros sur la perception multimodale de l’IA est en partie financé et soutenu par l’État français par l’intermédiaire de Bpifrance.

Des membres de l’équipe de Moments Lab ont récemment visité le célèbre Théâtre du Châtelet à Paris, mais contrairement à ce que leur tenue semble indiquer, pas pour assister à un opéra ou un ballet. Ils étaient présents aux côtés d’autres startups deep tech françaises (Alice&Bob, Zaion et Giskard, entre autres) pour recevoir le prix remporté par Moments Lab dans le cadre du dernier concours d’innovation i-Nov.

Four men, nicely dressed, looking and smiling at the camera. One is holding an award.
En pleine célébration de la victoire, de gauche à droite : Bruno Bonnell, secrétaire général pour l’investissement chargé du plan France 2030, Yannis Tevissen et Charles-Édouard Pezé, collaborateurs de Moments Lab, et Thomas Lesueur, Commissaire général au développement durable

Le concours i-Nov fait partie du plan d’investissement France 2030 et soutient les projets de recherche et développement les plus innovants en matière de transition énergétique. Moments Lab a reçu 850 000 € de financement pour mener à bien son projet de recherche deep tech sur la perception multimodale de l’IA pendant trois ans.

À l’avant-garde de la recherche sur la perception multimodale

Le travail de Moments Lab sur la perception multimodale de l’IA tire parti de la puissance des premières technologies de fusion de données pour identifier les moments importants dans des vidéos et réduire le traitement des émissions.

Notre objectif consiste à automatiser la détection de contenus éditoriaux complexes dans des quantités considérables d’archives multimédias. La perception multimodale exploite les premières méthodes de fusion de données et l’apprentissage auto-supervisé pour détecter les moments pertinents.

Il est indispensable de créer des modèles d’intelligence artificielle moins gourmands en énergie pour mettre en œuvre ces nouvelles capacités de compréhension vidéo à grande échelle, à moindre coût et avec une faible consommation d’énergie. La technologie que nous développons réduira également l’impact énergétique du stockage des contenus, en suggérant la suppression des éléments sans intérêt qui augmenteraient autrement les frais de stockage des grandes organisations.

A man working at a desk in the Newsbridge office. Code is displayed on two computer screens in front of him.
L’équipe R&D dédiée de Moments Lab travaille sans relâche pour repousser les limites de la compréhension vidéo par l’IA

La création de ces fonctionnalités d'indexation par l’IA nécessite une équipe de recherche et développement interne dédiée, comme cela a été le cas pour l’IA multimodale et générative MXT-1. Nous sommes donc ravis d’avoir le soutien du plan France 2030 et de Bpifrance pour poursuivre notre projet !

Si vous avez des questions sur la technologie de Moments Lab ou sur nos projets de R&D sur l’IA, n’hésitez pas à nous contacter.

Learn More

Newsletter

Sign up to be the first to know about company news, product updates, industry trends, and more.
Information

Related reads

No items found.
Moments Lab pour votre organisation

Contactez-nous pour une démo et un essai gratuit de 7 jours.

C'est parti →