L.A.P.S. - outil de VTubing pour Unreal Engine
Accueil » Devenez VTuber et faites de la motion capture faciale avec L.A.P.S. pour Unreal Engine !

Devenez VTuber et faites de la motion capture faciale avec L.A.P.S. pour Unreal Engine !

Cet article est également disponible en: Anglais

Dans notre nouvelle interview vidéo, David Cragné de CLARTE nous présente un outil sur lequel il travaille : L.A.P.S., une solution de performance capture pensée pour le VTubing et le live !

Si L.A.P.S est avant tout orienté vers les VTubers (la vidéo vous en dira davantage), il vise aussi un large public, et même les artistes, studios. L.A.P.S. vous permettra d’utiliser des avatars pour le streaming ou la visioconférence, et de faire de la motion capture faciale en direct à moindre coût.

Voici l’interview : n’hésitez pas également à vous abonner à la chaîne 3DVF afin de ne pas manquer nos prochains contenus !
La vidéo est en français, des sous-titres français, anglais sont disponibles si nécessaires.

Chapitres :

00:00 – L.A.P.S, VTubers, anonymat
00:54 – Quels types d’avatars ?
01:28 – micro-expressions, uncanny valley
01:53 – matériel, usage avec motion capture pour le corps
02:58 – LAPS en réalité virtuelle ?
03:18 – Limitations ?
05:55 – Quand, comment télécharger l’outil ?
07:19 – export des données de mocap, personnalisation
08:06 – CLARTE & autres projets

Pour en savoir plus :

  • LAPS : vous retrouverez sur le site de l’outil de VTubing / performance capture les informations utiles et les liens vers les réseaux sociaux, afin de suivre la sortie officielle ;
  • CLARTE ;
  • David Cragné sur LinkedIn ;
  • VTubers visibles en début de vidéo : Mari Yume & BaguetteCh.

Un grand merci à l’équipe Laval Virtual : cette interview a été tournée durant Laval Virtual 2023.

Laissez un commentaire

A Lire également