InfiniMind, fondée par deux anciens ingénieurs de Google, lève 5,8 millions de dollars pour commercialiser DeepFrame, une plateforme d’IA capable de traiter 200 heures de vidéo d’un coup sans nécessiter de code. La startup s’attaque à un problème majeur : les pétaoctets de vidéo — broadcasts, surveillance, réunions — que les entreprises laissent inexploitées sur leurs serveurs.
Le problème : des pétaoctets de vidéo inexploités
Les entreprises produisent chaque jour des volumes massifs de contenu vidéo : archives de broadcasts, footage de caméras de surveillance, enregistrements de réunions. La majorité reste enfouie sur des serveurs, jamais analysée, jamais exploitée.
Pendant longtemps, aucune technologie n’a réellement su trancher. Les solutions disponibles forçaient un choix impossible : soit traiter efficacement les images statiques en identifiant des objets, soit capturer les narratives complexes et la causalité qui jouent dans la vidéo. Aucune n’arrivait vraiment à répondre aux questions que les entreprises posaient — questions qui demandent de comprendre non seulement quoi il y a dans la vidéo, mais aussi pourquoi cela se produit, qui le dit, et quel en est l’impact.
Les modèles de vision-langage, largement accessibles après 2023, changent cette donne en permettant une compréhension riche : au-delà du tagging d’objets, vers une saisie du contexte et de la causalité.
Les fondateurs : deux décennies chez Google
Aza Kai et Hiraku Yanagita ont chacun passé près de dix ans chez Google Japon. Kai dirigeait les équipes de science des données et d’apprentissage automatique, travaillant sur les systèmes cloud, la recommandation vidéo et les solutions marketing. Yanagita menait les solutions de données et de marque.
Ensemble, ils ont observé une inflexion technologique se dessiner avant même de quitter le géant californien :
« J’ai vu ce tournant venir alors que j’étais encore chez Google. Les modèles de vision-langage ont connu des progrès spectaculaires entre 2021 et 2023. L’IA vidéo a dépassé le simple étiquetage d’objets. Le coût du calcul baissait, et les performances s’amélioraient année après année. »
— Aza Kai
Par 2024, la technologie avait suffisamment mûri, et le besoin du marché était assez clair pour qu’ils fondent leur propre entreprise.
TV Pulse : validation au Japon
InfiniMind a d’abord testé son approche au Japon, marché que l’équipe juge idéal pour plusieurs raisons : accès aux talents en IA, écosystème startup accueillant, et demande réelle pour l’analyse vidéo.
En avril 2025, l’équipe a lancé TV Pulse, une plateforme d’analyse en temps réel pour les contenus télévisés. L’outil aide les médias et les entreprises de retail à suivre l’exposition des produits et la présence de marque, mesurer le sentiment client, et évaluer l’impact médiatique.
Le concept a fonctionné. Après des programmes pilotes avec des diffuseurs et des agences médias majeurs, TV Pulse compte déjà des clients payants, dont des grossistes et des entreprises médiatiques. Bien qu’aucun chiffre public ne soit disponible sur la traction ou les valeurs engagées, l’existence de revenus valide solidement l’usage.
DeepFrame : plateforme mondiale pour l'entreprise
Fort de cette base, InfiniMind pivote vers un produit plus ambitieux : DeepFrame, conçu explicitement pour le marché mondial de l’entreprise. La plateforme cible des usages dans la surveillance, la sécurité, et l’analyse média approfondie.
Trois promesses clés
- Pas de code requis — Les clients apportent les données ; le système fournit les insights directement.
- Compréhension multimodale — Intégration de l’audio, du son et de la reconnaissance de la parole, pas seulement de l’analyse visuelle.
- Traitement à grande échelle — Chaque instance peut traiter des durées illimitées et isoler des scènes spécifiques, des intervenants ou des événements dans 200 heures de footage sans fractures de coûts liées à la longueur.
« La plupart des solutions existantes priorisent la précision ou des cas d’usage spécifiques, » note Kai, « mais elles ne résolvent pas les défis de coûts. »
Calendrier de lancement
- Mars 2026 : Entrée en phase bêta
- Avril 2026 : Lancement complet
Positionnement concurrentiel
Le marché de l’analyse vidéo ne manque pas d’acteurs. TwelveLabs, par exemple, propose des APIs vidéo généralistes destinées aux consommateurs, aux prosommateurs et aux entreprises.
InfiniMind s’en distingue par une stratégie classique : resserrer le périmètre pour dominer un segment. La startup cible exclusivement les entreprises et les usages qu’elles plébiscitent — monitoring, sécurité, surveillance, analyse média profonde — plutôt que de disperser ses efforts sur un marché vaste et fragmenté.
Financement et déploiement
Le seed round de 5,8 millions de dollars est mené par UTEC, avec la participation de CX2, Headline Asia, Chiba Dojo, et un chercheur en IA chez a16z Scout.
Les fonds sont destinés à affiner le modèle DeepFrame, élargir l’infrastructure d’ingénierie, recruter de nouveaux talents, et acquérir de nouveaux clients au Japon et aux États-Unis. InfiniMind conserve son siège au Japon tout en renforçant sa présence opérationnelle aux États-Unis, une stratégie classique pour les startups techniques qui cherchent à accélérer leur croissance sur le sol américain.
L'ambition ultime : comprendre la réalité
Kai conclut sur une perspective qui dépasse l’application immédiate :
« C’est un domaine passionnant, l’un des chemins vers l’AGI. Comprendre l’intelligence vidéo générale, c’est comprendre la réalité. Les applications industrielles sont importantes, mais notre objectif ultime est de repousser les limites de la technologie pour mieux comprendre la réalité et aider les humains à prendre de meilleures décisions. »
Pour l’heure, InfiniMind reste concentrée sur un enjeu plus immédiat : extraire la valeur dormante des archives vidéo que chaque entreprise laisse inutilisées. Si DeepFrame tient ses promesses, c’est une opportunité qui intéresse bien au-delà de Tokyo.
FAQ
Qu'est-ce qu'InfiniMind ?
Une startup fondée par d’anciens ingénieurs de Google qui développe DeepFrame, une plateforme d’analyse vidéo basée sur l’IA pour les entreprises.
Combien InfiniMind a-t-elle levé ?
5,8 millions de dollars en financement de seed, menée par UTEC.
Quel est le premier produit d'InfiniMind ?
TV Pulse, une plateforme d’analyse en temps réel pour les contenus télévisés, lancée en avril 2025 au Japon.
Quand DeepFrame sera-t-elle disponible ?
Bêta en mars 2026, lancement complet en avril 2026.
Quels types de vidéos DeepFrame peut-elle traiter ?
Archives de broadcasts, footage de caméras de surveillance, enregistrements de réunions, contenus télévisés, avec capacité de 200 heures par traitement.
Leave a Reply