InfiniMind, fondée par deux anciens cadres de Google Japan, lève 5,8 millions de dollars pour transformer les archives vidéo en insights exploitables via DeepFrame, lancée en bêta en mars 2026.
- InfiniMind lève 5,8 millions de dollars de seed menés par UTEC, CX2, Headline Asia, Chiba Dojo et un chercheur IA d’Andreessen Horowitz
- DeepFrame traite des vidéos long-format (200+ heures) et offre une compréhension intégrée audio/vidéo sans code requis
- TV Pulse, le produit actuel, est opérationnel au Japon depuis avril 2025 auprès de clients payants
- DeepFrame entre en bêta en mars 2026 et se lance officiellement en avril 2026
- Les fondateurs Aza Kai et Hiraku Yanagita ont dirigé respectivement l’IA et les solutions data chez Google Japan pendant dix ans
Le marché inexploité : des milliards d'heures de vidéo dormantes
Les entreprises accumulent des masses considérables de vidéos sans jamais les exploiter : archives de diffusion, enregistrements de caméras de magasin, rushes de production. Ces données, entreposées et jamais analysées, demeurent stratégiquement stériles.
Jusqu’à présent, les outils d’analyse vidéo disponibles restaient limités. Capables d’étiqueter des objets image par image, ils échouaient à suivre des récits complexes, identifier des relations de causalité ou répondre à des questions nuancées sur le contenu. InfiniMind entrevoit l’opportunité de transformer cette masse de vidéos en source d’insights pour les médias, les distributeurs et les retailers.
Deux fondateurs, dix ans d'infrastructure Google
Aza Kai et Hiraku Yanagita partagent un parcours identique : une décennie chez Google Japan. Kai a dirigé des équipes en intelligence artificielle et systèmes de recommandation vidéo. Yanagita a piloté les solutions de marque et de données du groupe au Japon.
Selon Kai, le moment charnière intervient en 2024, après plusieurs années de progrès convergents : amélioration des modèles de vision et langage, baisse significative des coûts GPU, gains de performance constants d’environ 15 à 20 % par an. « Mon co-fondateur et moi avons perçu ce point d’inflexion technologique alors que nous étions encore chez Google. »
5,8 millions de dollars : financement panasiatique
InfiniMind boucle 5,8 millions de dollars en seed menés par le fonds japonais UTEC, rejoint par CX2, Headline Asia, Chiba Dojo et un chercheur IA d’Andreessen Horowitz (a16z Scout).
Ces fonds financeront le développement de DeepFrame, l’infrastructure sous-jacente, l’embauche et l’expansion. La stratégie reste claire : rester basée à Tokyo pour servir de terrain d’expérimentation avant une relocalisation aux États-Unis programmée. Le Japon offre un écosystème technologique avancé, une proximité avec les partenaires matériels, un vivier d’ingénieurs qualifiés et les premières opportunités clients.
Deux produits : succès présent et lancement imminent
TV Pulse, lancé en avril 2025, analyse déjà le contenu télévisé en temps réel pour tracer l’exposition des produits, mesurer le sentiment des consommateurs et évaluer l’impact presse. Des clients payants — distributeurs et médias — l’utilisent après des phases pilotes concluantes.
DeepFrame, la plateforme phare, entre en bêta en mars 2026 et se lance officiellement en avril 2026. Elle cible l’analyse vidéo long-format à grande échelle :
- traitement de 200 heures de vidéo en une seule requête ;
- isolation de scènes spécifiques ;
- identification d’orateurs et de d’événements particuliers.
Trois avantages différencient DeepFrame. D’abord, zéro code requis : les clients apportent leurs données, le système les traite et restitue des insights sans intervention technique. Ensuite, audio et vision intégrés : compréhension complète de la parole, du son et du contenu visuel. Enfin, efficacité des coûts : traitement de durées vidéo illimitées à un prix optimisé face aux solutions existantes.
« Notre solution ne demande aucun code, explique Kai. Les clients apportent leurs données, et notre système fournit des insights actionnables. Nous intégrons aussi l’audio et la compréhension vocale, pas seulement la vision. Notre système traite une durée vidéo illimitée, et l’efficacité des coûts est un différenciateur majeur. »
Stratégie : focus exclusif sur l'entreprise
Contrairement aux acteurs généralistes comme TwelveLabs, qui proposent des APIs destinées à tous — consommateurs, créateurs et entreprises —, InfiniMind privilégie un focus exclusif sur le secteur entreprise : surveillance et sécurité, conformité et audit, analyse profonde de contenu vidéo.
« La plupart des solutions existantes privilégient la précision ou des cas d’usage spécifiques, mais ne résolvent pas les défis de coûts », souligne Kai. Cette différenciation stratégique — servir moins de clients mais mieux — explique aussi la consolidation au Japon avant l’export global.
Au-delà du court terme : comprendre la réalité
Kai envisage une ambition plus large. « C’est un domaine passionnant, l’une des voies vers l’intelligence générale. Comprendre l’intelligence vidéo générale, c’est comprendre la réalité. Les applications industrielles sont importantes, mais notre but ultime est de repousser les frontières technologiques pour mieux comprendre la réalité et aider les humains à prendre de meilleures décisions. »
Cette vision s’inscrit dans le long terme. Pour l’immédiat, InfiniMind se concentre sur un défi plus tangible : transformer les archives vidéo inutilisées en ressources stratégiques — une étape cruciale avant toute ambition plus vaste.
FAQ
Qu'est-ce qu'InfiniMind ?
Une plateforme d’analyse vidéo par IA qui transforme les archives vidéo inutilisées des entreprises en insights exploitables, sans code requis.
Quel financement et quels investisseurs ?
5,8 millions de dollars de seed menés par UTEC, CX2, Headline Asia, Chiba Dojo et un chercheur IA d’Andreessen Horowitz.
Quand DeepFrame sera-t-elle disponible ?
Bêta en mars 2026, lancement officiel en avril 2026 ; TV Pulse est opérationnelle au Japon depuis avril 2025.
Quelles sont les capacités principales de DeepFrame ?
Traitement de vidéos long-format (200+ heures), détection d’orateurs et d’événements, compréhension audio/vidéo intégrée, coûts optimisés.
Qui sont les fondateurs ?
Aza Kai et Hiraku Yanagita, anciens cadres de Google Japan ayant respectivement dirigé l’IA et les solutions data pendant dix ans.
Leave a Reply