Cet article est également disponible en: English
Chaque année au printemps, le secteur de la VR/AR/XR se donne rendez-vous à Laval, en Mayenne, pour le salon Laval Virtual. Une tradition qui attire des entreprises et universitaires de toute l’Europe et même au-delà, du Japon à l’Inde en passant par la Corée ou les USA.
Nous étions sur place pour faire le point sur les principales nouveautés de ces derniers mois, mais aussi pour découvrir les projets plus confidentiels méritant une mise en lumière. Suivez le guide !
Nouvelles technologies, entreprises présentes sur Laval Virtual 2024
Apple Vision Pro, Varjo XR 4 : que valent les casques nouvelle génération ?
Nous avons évidemment profité de Laval Virtual 2024 pour tester les nouveaux casques de réalité virtuelle ou mixte, et échanger avec d’autres personnes sur le sujet.
Du côté du Apple Vision Pro, nous aurions tendance à le voir comme ce que le Microsoft Hololens aurait pu devenir. Un système efficace en réalité mixte, avec des gestes intuitifs. On apprécie notamment la définition de l’affichage, le fait de pouvoir sélectionner puis valider une action avec le regard et d’un mouvement de la main… Sans avoir à lever celle-ci, grâce à des caméras intégrées filmant vers le bas !
En revanche, nous confirmons le sentiment de lourdeur du casque (le bandeau d’attache est très beau, mais aurait mérité une sangle sur le dessus de la tête). Et surtout, l’étroitesse du casque complique fortement l’usage de lunettes : Apple indique d’ailleurs ouvertement que son casque n’est pas fait pour être porté avec des lunettes, et recommande l’achat de verres correctifs dédiés si besoin. Un choix qui nous semble incompréhensible. La plupart des solutions du marché permettent de porter des lunettes, si elles ne sont pas trop larges. Venant d’une société réputée pour son design, et à ce tarif, nous ne pouvons qu’être perplexes.
Le Varjo XR-4, lui, est le nouveau casque de Varjo. Il propose du 4K x 4K par oeil, et est optimisé pour la XR avec ses caméras pass-through, son système LiDAR qui permet de gérer la profondeur.
Le produit se décline en trois versions : une version standard, une seconde avec pass-through amélioré. La troisième correspond à un besoin précis : celui du secteur de la défense, américaine en particulier. contrairement aux deux autres versions, ce « XR-4 Secure Edition » est fabriqué en Europe et non en Chine, et ne nécessite pas de connexion internet. Le tarif passe du coup à environ 20 000$, contre 4000 pour la version de base.
Si la version 4 évolue en termes de hardware par rapport au XR-3, le positionnement reste le même, avec une excellente définition sur tout le champ de vision. On apprécie toujours autant le mélange de XR et LiDAR : l’affichage prend donc en compte la profondeur. Si vous visualisez un cockpit virtuel, et que votre main traverse le tableau de bord, le modèle s’affiche devant elle. Parfait pour renforcer l’illusion d’hologramme.
Mais la plus grosse évolution est celle du modèle économique : Varjo dit adieu à son système de souscription, qui permettait d’obtenir un rabais sur le prix d’achat… Mais transformait votre casque en presse-papier très onéreux si vous cessiez de payer. L’entreprise nous explique que cette option était peu appréciée, et était très chronophage pour Varjo en termes de gestion.
Ce revirement signifie-t-il que les casques XR-3 sous souscription vont automatiquement être débarrassés de cette contrainte ? Pas tout à fait. Varjo explique que la bascule peut se faire sur demande, mais un échange avec une personne ayant un XR-3 nous a appris qu’en pratique, les démarches peuvent s’avérer très contraignantes voire impossibles. On aurait apprécié une approche moins restrictive, avec un déblocage de tous les casques par simple mise à jour, sans avoir à passer par le support ou le service commercial.
Haply Robotics : un système haptique accessible, bientôt dans les mains des artistes ?
Les systèmes haptiques ne sont pas nouveaux, mais il est toujours intéressant de suivre les progrès dans ce domaine. Haply Robotics propose ce type de solution : l’Inverse3, un système qui permet de manipuler des éléments dans l’espace 3D, avec retour de force. La précision peut grimper jusque 0,1mm et la force exercée jusque 10 Newtons.
L’Inverse3 a notamment l’avantage de pouvoir reproduire des sensations assez variées, et pas uniquement une surface dure. Nous pouvons par exemple confirmer que les surfaces molles ou « caoutchouteuses » sont bien simulées, et pour cause : le secteur médical (entraînement à la chirurgie, dentistes) est la cible principale d’Haply Robotics. Il est donc indispensable de pouvoir simuler le contact avec la chair et les tissus humains. Egalement ciblés : l’industrie (notamment pour le contrôle de robots à distance) ou le design.
Une version plus orientée vers la création 3D va être lancée prochainement, à un tarif plus accessible (800$ voire moins, selon Haply Robotics). L’entreprise, basée à Montréal, est d’ailleurs intéressée par des rapprochements avec des éditeurs de logiciels, afin d’assurer la compatibilité de sa solution.
XDE Physics : exploitation de nuages de points et Gaussian Splatting, compatibilité Omniverse/UE/Unity
Nous avons aussi pu discuter avec l’équipe de CEA LIST (Laboratoire de Simulation Interactive du CEA), qui présentait XDE Physics. Ce moteur physique proposé sous forme de plugin permet par exemple de gérer collisions, portes, câbles, et est disponible sur Unity, Unreal Engine et NVIDIA Omniverse. S’il peut par exemple permettre d’exploiter des nuages de points massifs issus de numérisations au LiDAR, nous avons testé avec grand plaisir un projet VR s’appuyant sur le gaussian splatting. Rappelons que cette technique issue des travaux de recherche de l’INRIA a le vent en poupe actuellement. Par rapport à des approches comme la photogrammétrie, on n’utilise pas ici un mesh classique mais des gaussiennes 3D. Sans trop rentrer dans les détails, cette approche se montre par exemple très efficace pour représenter les reflets, effets de surface anisotropes, ou encore les éléments fins comme les cheveux, le feuillage.
L’équipe du CEA List présentait un projet réalisé sous l’égide du Centre des monuments nationaux, avec une visualisation interactive de deux salles de l’Hôtel de la Marine, à Paris. Le recours au gaussian splatting s’est avéré très judicieux, avec un bon rendu des reflets et effets de lumière de la scène capturée de nuit.
Moverse : de la motion capture sans marqueurs et en temps réel
Dans la zone startups de Laval Virtual 2024, nous avons pu discuter avec la société grecque Moverse, spécialisée dans la motion capture par IA. L’idée est d’utiliser des caméras du commerce pour capturer en vidéo la scène, l’IA faisant le reste. Il est possible de récupérer les données dans des formats classiques comme le FBX, ou de les streamer dans des moteurs de jeux (par exemple UE, Unity).
Le système fonctionne par abonnement, avec une version Pro qui permet d’exporter les données brutes, une version Advanced qui apporte un meilleur support et un nettoyage automatique des données.
La captation nécessitera typiquement de 3 à une douzaine de caméras, selon l’espace à couvrir. Pour le moment, la capture ne gère qu’une seule personne à la fois, mais ce point devrait rapidement être corrigé.
Moverse nous a précisé que n’importe quelle caméra HD avec flux PoE fonctionne, même si l’entreprise propose à la revente des modèles spécifiques.
Pour l’heure, Moverse cible essentiellement le secteur XR, mais l’entreprise veut également séduire le jeu vidéo, le cinéma.
CLARTE – du gaussian splatting à la vitesse de l’éclair
Nous avons également rendu visite à CLARTE, qui proposait également une démo en lien avec le gaussian splatting. L’entité, spécialisée dans le conseil en RA/VR/IA, s’intéresse à cette technologie pour différents partenaires, comme le secteur automobile.
CLARTE proposait aux visiteurs de réaliser leur portrait en gaussian splatting. La prouesse : une reconstruction en quelques minutes seulement. La capture se faisait avec une dizaine de webcams, et le calcul était fait en local. Des compromis sont évidemment nécessaires pour un résultat aussi rapide, mais cette démo laisse entrevoir la possibilité, peut-être, d’arriver un jour à des systèmes de capture interactifs, ou même temps réel.
La reconstruction était visible en VR dans une démo mettant aussi en scène de la reconnaissance vocale et du text to speech via ChatGPT : on pouvait discuter avec un extraterrestre virtuel pendant le traitement des données, avec un double en gaussian splatting qui était progressivement mis à jour durant cette discussion.
Dimensify : toute la contradiction des entreprises d’IA générative
Dans un tout autre domaine, nous avons échangé avec l’équipe de Dimensify, service de création de modèles 3D à l’aide d’IA générative porté par Eurosys Informatics GmbH. Le service devrait se lancer d’ici peu en beta.
Comme toujours avec l’IA générative, la question qui vient à l’esprit est celle des sources utilisées pour entraîner l’outil. Dimensify nous a confirmé avoir utilisé Objaverse, un dataset de modèles 3D annotés. Problème : comme nous l’avions évoqué sur 3DVF, Objaverse (que ce soit dans sa version d’origine ou Objaverse-XL, version étendue qui propose encore plus de modèles) contient des données d’origine plus que douteuse. Une des sources principales est le site Sketchfab, avec des des modèles sous licence Creative Commons téléchargés en masse.
Or, Objaverse pose différents problèmes, à commencer par le fait que certains modèles aspirés et présentés comme étant sous licence libre… Ne le sont en fait pas : par exemple, des gens ont mis en ligne sur Sketchfab sous « licence libre » des modèles 3D rippés depuis des jeux vidéo Nintendo, dont ils n’ont pas les droits.
Dimensify nous a indiqué être au courant de ce problème, tout en affirmant que cela n’était pas forcément un problème, et que la volonté de Dimensify était de proposer aux studios de créer un modèle d’IA générative avec leurs propres données, ce qui leur permettrait de générer des modèles dans le style de leur jeu en cours de développement. Tout en promettant évidemment que les données envoyées par des studios sur la plateforme ne seraient pas réutilisées pour d’autres clients.
Créer rapidement des modèles 3D à partir d’un prompt est clairement un marché porteur, ne serait-ce que pour le prototypage, ou pour remplir rapidement une scène. Mais nous avouons être perplexes face à une entreprise qui explique garantir un respect de la propriété intellectuelle à ses clients, tout en admettant avoir volontairement enfreint le copyright, en connaissance de cause, afin d’accélérer son développement.
Un cas évidemment loin d’être isolé dans le secteur de l’IA générative.