Kinetix
Accueil » Rédactions » Rencontre avec Kinetix, la startup qui anime vos vidéos

Rencontre avec Kinetix, la startup qui anime vos vidéos

Nous vous avions déjà présenté Kinetix, jeune société qui travaille sur la création automatisée d’animations de personnages à partir de vidéos classiques.

Kinetix annonce aujourd’hui le lancement d’une Advanced Beta, nouvelle version de sa technologie : nous en profitons pour vous proposer une interview de son dirigeant et cofondateur, Yassine Tahi.

3VDF : Bonjour Kinetix ! Startup française, vous travaillez sur la génération automatisée d’animations à partir de vidéos. Pourquoi vous être lancés sur ce marché, et quel est l’historique de la société ?

Yassine Tahi, CEO et cofondateur : Henri Mirande (CTO) et moi même nous sommes rencontrés au sein d’Entrepreneur First qui est un programme de mise en relation et d’investissement basé à Station F et avons décidé de se lancer dans cette aventure car nous partagons une passion commune pour les industries du gaming et de l’entertainement. On est convaincus que le futur est 3D avec la concrétisation des metaverses et du développement des plateformes de gaming et d’AR/VR/XR.
Toutefois ce futur n’est possible que si le contenu 3D est démocratisé à l’ensemble des créatifs. C’est pourquoi notre ambition avec Kinetix est de devenir la plateforme leader de création de contenu animé grâce à du deep learning.

Vidéo de teasing de la nouvelle version beta ; Cyril Benzaquen, champion de kickboxing, a servi de sujet.

3DVF : Votre système s’appuie sur le deep learning : pouvez-vous nous donner quelques détails techniques sur votre technologie et ses spécificités ?

Nous utilisons plusieurs briques de deep learning qui permettent de comprendre les mouvements sur la vidéo, d’extraire le modèle 3D et ensuite de filtrer les bruits et cleaner l’animation. Nous avons une équipe R&D qui pousse l’état de l’art de la recherche sur ces sujets.

3DVF : Quels marchés ciblez-vous ? Comment s’intègre actuellement votre solution dans un pipeline ?

Nous ciblons le marché des créatifs qui souhaitent faire du character animation que ce soit dans le jeu vidéo, le cinéma d’animation, le VFX, les médias mais également pour tout le contenu animé AR/VR/XR.

Les outputs de Kinetix sont des fichiers FBX ou GLB qui sont compatibles avec l’ensemble des logiciels d’édition (Maya, Blender, Akeytsu) ou moteurs de rendu. Nous développons des briques d’édition simplifiées qui vont permettre à des non techniciens de la 3D de pouvoir modifier, corriger et transférer leur animation sur un personnage et le télécharger directement en format MP4 pour l’utiliser dans la suite Adobe pour faire du montage par exemple.

3DVF : Votre nouvelle « advanced beta » vient d’être dévoilée et propose un certain nombre d’améliorations. Quelques mots à ce sujet ?

L’advanced beta est une refonte totale de notre beta en un produit qui va être commercialisé et qui compte de nombreuses nouvelles fonctionnalités qui vont sortir au cours des prochains mois :

  1. La qualité de l’algorithme d’extraction va être amélioré de manière continue afin d’offrir la meilleure expériences aux utilisateurs et nous allons ajouter les mains dans les prochains mois.
  2. Des outils simplifiés d’édition vont être ajoutés pour cleaner ou modifier l’animation et permettre le retargeting (transfert d’animation) simplifié sur des personnages.
  3. Des templates vont être ajoutés (mouvements, personnages, projets) pour simplifier l’usage.
  4. La collaboration va permettre de commenter, partager et travailler en temps réel sur des projets.

3DVF : Le deep learning nécessite des données pour entraîner le système et produire des résultats corrects. Quelles sont vos sources à ce niveau ? Quels types de performances (danse, combat, déplacements, etc) privilégiez-vous ?
Certaines entreprises utilisent des données générées : est-ce votre cas ? (par exemple, on pourrait imaginer créer des animations 3D et en faire un rendu sous de multiples angles pour entraîner Kinetix)

La donnée 3D nécessaire à l’entrainement de nos algorithme est fondamentale et nous avons plusieurs façon d’en générer notamment à travers des partenariats publics (laboratoires) et privés (studios). Nous privilégions les mouvements les plus communs (marches, danses…) et allons dans les mouvements les plus niches (natation…).
Nous utilisons en effet des données générées pour entrainer en continu notre algorithme et c’est pour cela que notre niveau de qualité va continuer à augmenter de manière continue.

3DVF : Pour les studios qui nous lisent : êtes-vous en recherche de partenariats, et si oui de quels types ?

Oui nous recherchons deux types de partenariats :

  1. Partenariat sur des projets de jeux vidéos, films d’animations ou VFX sur la partie animation de personnages
  2. Partenariat data, pour générer de la donnée 3D nécessaire à l’entrainement de nos algorithmes

3DVF : Vous n’êtes pas seuls sur le marché de l’animation à partir de vidéos : comment voyez-vous vos concurrents, et quelle est votre stratégie technologique et commerciale pour leur faire face ?

Nous concurrents sont principalement aux USA et sont également en beta sur la partie extraction d’animation. Tout d’abord sur ce volet, nous allons nous distinguer par la qualité et l’usabilité de notre extraction qui est la demande principale des animateurs professionnels.

Ensuite, nous avons une vision produit qui est totalement différente car nous allons également cibler les créatifs qui ne peuvent pas faire de l’animation aujourd’hui en leur apportant des outils simplifiés pour qu’il puisse simplement réaliser l’ensemble du pipeline de production d’animation 3D, le tout directement sur le cloud et d’une manière collaborative. Notre objectif est de devenir une sorte de Canva ou photoshop pour la 3D en démocratisant son accès à l’ensemble des créatifs.

3DVF : En tant que startup, lever des fonds est indispensable pour pérenniser l’entreprise. Quelques mots à ce sujet ? Et quels sont les défis spécifiques au fait d’être une société française ?

En effet, lever des fonds pour une boite technologique et deep tech comme la notre est fondamentale. J’en suis très conscient ayant moi même travaillé dans l’industrie du capital risque.

Nous avons la chance de déjà avoir l’un des meilleur fonds de deeptech au monde à notre capital : Entrepreneur First et également des Business Angels stratégiques qui nous soutiennent dans notre projet. Nous avons également eu l’appui de la BPI et de la région. Pour l’instant le focus est sur le développement avant de repartir en levée en 2022 pour accélérer la croissance.

3DVF : Nous avons noté que vous êtes hébergés au sein de Station F : quel est votre retour sur ce campus de startups ?

Nous sommes très heureux d’être à Station F où nous sommes passés par plusieurs programme. D’abord Entrepreneur First qui nous a permis de se rencontrer avec Henri et qui a financé le début de notre aventure et ensuite nous avons été accélérés par le Media Lab du Groupe TF1 avec qui nous travaillons actuellement sur les cas d’usages d’animation 3D dans le JT.

Faire partie de Station F permet d’accéder à un bon réseau d’entrepreneurs, de visibilité auprès des VCs et corporates comme TF1 et Ubisoft et aussi d’attirer des talents.
Enfin, nous faisons partie des Futur40 qui sont les 40 startups les plus prometteuses de Station F, ce qui nous donne beaucoup d’avantages sur le campus !

3DVF : Pour le moment, vous vous focalisez sur les mouvements de corps humains. A terme, vous devriez aussi vous intéresser aux quadrupèdes. Comptez-vous supporter d’autres types de projets ? L’animation faciale est-elle prévue, par exemple ?

L’animation des mains est la priorité à court terme et puis l’animation faciale sera intégrée par la suite également, mais nous n’avons pas encore la date exacte de release.

Pour en savoir plus

Le site de Kinetix vous donnera plus de détails, et vous permettra de tester la technologie. Vous y trouverez aussi le détail du modèle économique, avec plusieurs formules d’abonnement (Creatif, Studio, etc).

L’advanced beta propose une amélioration des principales fonctions :

Motion capture guidée par Intelligence Artificielle : permet à l’utilisateur d’obtenir une animation 3D à partir d’une vidéo incluant un ou plusieurs humains en mouvement, pour obtenir des fichiers d’animation plus rapidement, plus simplement et à moindre coût.

Preview : permet à l’utilisateur de visualiser un fichier d’animation dans un environnement 3D avec la vidéo d’origine dans un cadre, pour apprécier rapidement le rendu du fichier avant de travailler dessus.

Import depuis une URL : permet à l’utilisateur d’importer n’importe quelle vidéo provenant d’internet en utilisant son URL, pour utiliser une vidéo trouvée en ligne rapidement.

Import depuis l’appareil : permet à l’utilisateur d’importer n’importe quelle vidéo contenue dans son ordinateur ou son appareil mobile, pour utiliser une vidéo personnelle.

Trimmer video : permet à l’utilisateur de retoucher la durée et le cadre (la taille de l’écran en quelque sorte) de la vidéo importée, pour optimiser le rendu sans faire perdre du temps à l’utilisateur.

Exportations : permet à l’utilisateur d’extraire son fichier d’animation dans le format correspondant au logiciel 3D qu’il utilise, pour permettre à chaque utilisateur d’utiliser Kinetix dans son environnement de travail.

Comme indiqué dans l’interview, l’advanced beta va s’améliorer progressivement dans les mois à venir.

5 commentaires

phicata 26 janvier 2022 at 20 h 57 min

J’ai testé (mode gratuit, rien que ça c’est bien cool), y à encore du boulot mais c’est prometteur.
J’ai eu un souci (l’analyse qui se fige à 15 %) un ptit message au « chat » d’aide, et ct résolu en 30 mn.
Le fbx généré est viable aussi sous max (plus précisément: le personnage de l’image=nickel, par contre un personnage mixamo=échec=le squelette à l’ouest, bizarre)
M’est d’avis que la concurrence va s’annoncer rude.
Le premier qui grace à l’IA parvient à régler le problème des fu..ing « pas glissants » est béni sur 10 générations.
[ATTACH type= »full » width= »1020px »]41539[/ATTACH]

Shadows 26 janvier 2022 at 22 h 10 min

Oui, le mode gratuit est bienvenue, d’autant plus depuis que ça a été assoupli (à la base la limite de temps était sur la durée totale de vidéos traitées, pas sur l’export mensuel).

Il va falloir que je me constitue une petite base de vidéos pour tester régulièrement les avancées et comparer entre services similaires.

phicata 28 janvier 2022 at 16 h 57 min

[QUOTE= »Shadows, post: 349950, member: 35380″]
Il va falloir que je me constitue une petite base de vidéos
[/QUOTE]
Il faudrait que je trouves le temps de faire des anims de perso 3d pour test (avec unreal ou autre) Nottament en 4k ou plus pour voir si la taille de l’image facilite ou pas l’analyse. Idem tester aussi quel angle de vue est idéal. Mais peut-être que tout ça n’as plus lieu d’être avec l’IA et peut-être est-on dans une autre logique.

Shadows 29 janvier 2022 at 18 h 43 min

Effectivement, utiliser des animations 3D pourrait être une piste, mais je pense que de la vraie vidéo permettra plus facilement de trouver/créer des cas problématiques : vêtements amples qui peuvent gêner l’IA, mise au point ratée, occlusion partielle (personne qui passe derrière un lampadaire ou personnes qui se croisent), motion blur…
Après, rien n’empêche de faire un mix des deux.
Et tant que j’y suis, il faudra que je fasse ou récupère des expressions, mouvements de mains/doigts vu que ça sera inévitablement géré à terme.

phicata 9 février 2022 at 20 h 05 min

J’ai testé (rapido) la concurence: il va y avoir du sport !
[MEDIA=youtube]UJ_i__rJHIk[/MEDIA]

Laissez un commentaire

A Lire également