Cet article est également disponible en: English
Ci-dessus : images générées par IA par Adobe pour promouvoir les améliorations de ses technologies.
Adobe dévoile la nouvelle version de Photoshop. Disponible en beta, elle intègre une nouvelle version majeure du modèle d’IA générative Firefly, dont le modèle de génération d’images passe en version 3.
Voici un résumé des avancées, mais aussi des enjeux éthiques posés par cette nouvelle version.
Dans les avancées apportées par le modèle Firefly Image 3 dans Photoshop, on notera surtout :
- un rendu plus photoréaliste, notamment sur les visages humains ;
- la possibilité d’utiliser des d’images de référence pour améliorer la génération de contenu ;
- la génération en text to image à partir d’un canvas totalement vide ;
- la fonction de génération de variantes, ce qui améliore le contrôle sur le résultat ;
- une fonction qui permet d’améliorer netteté et clarté des images.
Globalement, la mise à jour apporte donc à la fois des résultats plus précis et plus contrôlables. Ce second point est un enjeu majeure de l’IA générative, le manque de contrôle de nombreux outils les rendant difficilement utilisables en production.
Ethique et sources : la théorie
On le sait, Adobe s’est toujours positionné en acteur éthique de l’IA générative. Rappelons qu’un outil comme Midjourney a été entraîné à l’aide d’images glanées en masse sur le web sans autorisation des artistes et studios, ce qui se voit dans les images générées. A l’inverse, Adobe explique ainsi que Firefly a été entraîné sur des contenus Adobe Stock avec autorisation ainsi que sur des images libres de droits.
Avec ce choix, Adobe se prive volontairement de sources d’entraînement utilisées par la concurrence, ce qui peut avoir pour conséquence une IA générative moins avancée. Mais en contrepartie, Adobe peut parler « d’IA responsable avec les créateurs au centre » et d’images « commercially safe », autrement dit utilisables commercialement sans danger en termes de droit d’auteur pour les clients.
La démarche se poursuit avec la cofondation de la Content Authenticity Initiative (CAI), une coalition d’entités (entreprises, ONG, entités académiques), toujours pour aller dans le sens d’une plus grande transparence et chaîne de provenance dans les contenus numériques.
Conséquence directe de cette démarche, Adobe intègre un système de « content credentials » sur les images produites avec Firefly afin de proposer une chaîne claire et transparente sur la paternité des oeuvres et l’implication ou non d’IA. Ce même système est aussi porté par des entreprises comme Microsoft, Leica, Publicis.
Bloomberg écorne l’image d’Adobe : une IA pas si éthique ?
Mais il y a quelques jours, Bloomberg a révélé que la pratique s’éloigne de la théorie. En effet, dans les images Adobe Stock utilisées pour entraîner Firefly, on retrouve… Des images créées avec des IA génératives tierces, comme Midjourney. Environ 5% des images d’entraînement seraient concernées, d’après les déclarations d’Adobe à Bloomberg.
Si Firefly n’est donc pas directement entraîné avec des images récupérées en ligne sans autorisation des artistes, c’est le cas de façon indirecte sur une part faible mais non nulle des données.
L’article nous rappelle donc l’importance d’avoir un maximum d’informations sur les données d’entraînement des IA, les effets éthiques/légaux pouvant potentiellement se répercuter en cascade.
Et la version 3 ?
Cette information concernait la version 2 de Firefly. Nous avons donc posé trois questions à l’éditeur afin de connaître leur position sur la version 3 :
- Bloomberg a récemment publié un article qui nous apprend qu’environ 5% des données d’entraînement de Firefly sont générées par IA via des outils comme Midjourney. Est-ce également le cas de la nouvelle version de Firefly ?
- Si oui, cela ne remet-il pas en question l’aspect « commercially safe » auxquels sont sensibles une partie des studios et artistes, que ce soit pour des raisons légales, éthiques, commerciales ? Quelles sont les garanties d’Adobe sur cet aspect « commercially safe » ?
- Enfin, est-il envisagé de proposer une version plus restreinte de Firefly, qui ne serait pas entraînée avec des contenus générés par des IA tierces ?
Voici la réponse d’Adobe :
Adobe has not sourced training data from other Generative AI providers.
Firefly generative AI models were trained on licensed content, such as Adobe Stock, and public domain content where copyright has expired.
Adobe Stock includes Generative AI content which is part of the Adobe Stock offerings, some of which may be used to train Adobe Firefly.
People who submit content to Adobe Stock are required to attest that they have the rights to submit the content and must flag whether they used Generative AI to create the asset they’re submitting.
You can find more information in the following links :
- Generative AI Content in Adobe Stock guidelines: https://helpx.adobe.com/stock/contributor/help/generative-ai-content.html
- Adobe Stock Generative AI FAQ: https://helpx.adobe.com/stock/contributor/help/generative-ai-faq.html
- Growing Responsibly in the Age of AI: https://blog.adobe.com/en/fpost/growing-responsibly-age-of-ai
En clair et en français, Adobe confirme que même si Adobe n’a pas directement fait appel à d’autres sociétés pratiquant l’IA générative, il n’en reste pas moins qu’indirectement, des images issues de ces plateformes sont bel et bien dans la base d’entraînement de Firefly. Et Adobe n’annonce ni changement pour la nouvelle version 3, ni version de Firefly qui serait expurgée de ces images issues d’IA tierces.
Sachez donc, si vous utilisez cette beta de Photoshop avec Firefly, qu’elle pose le même type de questions que Midjourney sur le plan éthique.
Notons en revanche que durant la conférence de presse, Adobe a réaffirmé proposer un produit « commercially safe ». En parallèle, la marque continue également de communiquer sur l’équipe de modération d’Adobe Stock, dont une des missions est d’éliminer les visuels qui ne respecteraient pas les règles de la plateforme : présence de marques, logos, références à des noms d’artistes, personnalités connues, propriétés intellectuelles reconnaissables.
Autrement dit, Firefly ne devrait pas ajouter dans vos projets ce types d’éléments, qui poseraient des problèmes légaux très directs.
Les questions restent
Reste désormais à voir comment agiront les studios, artistes qui utilisaient la technologie Adobe Firefly face aux révélations de Bloomberg.
3DVF continuera évidemment à suivre de près les évolutions du secteur de l’image numérique face à l’essor des IA génératives. Nous aurons l’occasion, d’ailleurs, de vous en reparler d’ici quelques jours.