
12 décembre 2025 – Nicolas Tilly
Pour accompagner le travail que je mène depuis plusieurs mois sur Deckthrone, mon jeu de 54 cartes à jouer prévu pour 2026, j’avais en tête de réaliser un shooting photo de quelques cartes. Ces images devaient servir à la communication sur les réseaux sociaux, dans des mises en scène inspirées des vanités. L’idée était claire… il ne restait plus qu’à l’exécuter.
Mais c’était sans compter sur une découverte qui est arrivée au même moment : l’IA générative capable de transformer une image en objet 3D. L’idée du shooting photo s’est alors dissoute presque instantanément. J’ai rangé mon appareil, ouvert Blender, et me suis laissé entraîner dans cette étrange aventure où la frontière entre 2D et 3D disparaît en quelques secondes.
Récapitulons. Deckthrone, c’est un jeu de cartes imprimées où le choix du papier et les réglages d’impression sont au cœur du processus. Pour quelqu’un comme moi qui passe l’essentiel de son temps à concevoir des expériences numériques et coder, ce retour au papier relève déjà du défi. Et, évidemment, j’ai eu l’idée d’ajouter un autre challenge : imaginer un shooting photo soigné des cartes pour raconter le projet en images.
Un shooting « classique » : disposer les cartes dans un décor, gérer la lumière, saisir les détails avec mon appareil… et produire une série cohérente. En cherchant des références visuelles pour un moodboard, deux thèmes m’ont happé et ont fait basculer le projet :
— les vanités, qui convenaient parfaitement comme référence artistique
— la génération d’objets 3D à partir d’images via l’IA

Vanité, Pieter Gerritsz van Roestraten, 1627,

Prompt Midjourney : A traditional victorian memento mori painting --ar 3:4
Ce second point m’a immédiatement fasciné. J’utilise l’IA depuis plusieurs années — images, vidéos, récits, code — mais jamais encore pour produire de la 3D. Je me suis mis à lire, à regarder des tutoriels, et une conclusion évidente a fini par émerger : j’allais abandonner le shooting photo pour créer mes scènes… entièrement en 3D. Générer les objets, adapter mes cartes en volume, placer une caméra et des lights dans Blender. Voir le carton devenir 3D. Explorer cette zone intermédiaire où les images et les dessins prennent forme dans l’espace — grâce (ou à cause) de l’IA.
Mon vieux Canon a dû soupirer dans sa sacoche.
L’envie de shooting photo vient probablement de mes nombreuses visites sur le site d’Art of Play, boutique new-yorkaise dont les visuels sont absolument remarquables. Ils savent sublimer leurs cartes avec des images impeccables. Chaque fois que je voyais passer un de leurs posts sur Instagram, je me disais : « J’aimerais faire ça pour Deckthrone. »
Un matin, je me suis posé une question étrange :
Ces images sont-elles réellement des photographies ?
Ou bien s’agit-il de rendus 3D parfaitement simulés ?
La réponse importait finalement peu. Le simple fait qu’elles puissent être en 3D m’a ouvert la voie. Oui, la 3D réaliste existe depuis longtemps, mais l’atteindre demande un niveau d’expertise élevé. C’est précisément là que l’IA intervient. Je me suis alors mis à imaginer des scènes où les cartes seraient entourées d’objets générés par IA, avec une direction artistique inspirée des vanités, entre peinture et 3D.

Quelques dessins préparatoires pour la composition des scènes.
Après avoir testé une série d’outils, mon choix s’est porté sur Meshy, dont le rendu m’a paru le plus convaincant — même si Tripo se défend très bien. J’ai aussi expérimenté quelques modèles sur Hugging Face, comme Hunyuan-3D-2.1 et Sparc3D. Finalement, Meshy s’est imposé pour sa simplicité d’itération. Voici le workflow qui en est sorti :
1. Générer une image d’objet avec Midjourney, toujours dans l’esthétique des vanités.
2. Transformer cette image en objet 3D avec Meshy.
3. Texturer l’objet dans Meshy à partir de cette même image.
4. Exporter, importer dans Blender, et mettre en scène.
J’ai répété ces étapes un grand nombre de fois, afin d’en comprendre les forces et les limites.

Image réalisée avec Midjourney.

Image réalisée avec Midjourney.
Conversion de l'image Midjourney vers un objet 3D avec Meshy.
Conversion de l'image Midjourney vers un objet 3D avec Meshy.
Quand j’ai enfin obtenu une collection d’objets cohérente, j’ai pu commencer à construire les scènes : décors, cartes, lumières, caméras. L’IA n’intervenait plus que dans la génération des objets ; le reste était un travail de mise en scène purement en 3D dans Blender.
« Chaque image nécessite une post-production. »
Ce principe, je le garde en tête à chaque projet, et celui-ci n’y fait pas exception.
Ici, je ne génère pas des images avec l’IA, mais bien des rendus 3D dans Blender. L’IA ne fabrique que les objets — pas la scène finale. Et pourtant, même une fois le rendu obtenu, la post-production est indispensable. Deux raisons à cela :
Je cherche une esthétique hybride :
entre la haute définition des rendus 3D et le « downgrade » volontaire de l’image pour lui donner une texture plus organique.
L’IA accompagne donc le projet, elle ne le pilote pas. Elle enrichit l’univers visuel, génère des objets, propose des pistes… mais c’est dans Blender, puis en post-production, que se joue réellement la création.

Rendu 3D avec Blender sans retouche.

La même image retouchée (luminosité, grain, glow, traces...)
Une fois les scènes cadrées, j’ai généré les images finales — mais aussi quelques séquences animées, en déplaçant simplement la caméra. Ce qui devait être un shooting photo s’est transformé en un processus beaucoup plus large : des images fixes, de la vidéo et une mise en scène complète.
Vidéo 3D à partir du rendu d'une séquence d'images dans Blender.
Vidéo réalisée avec Midjourney à partir de la première image de la vidéo 3D.
Avec ce workflow 2D vers la 3D, je découvre une méthode étonnamment efficace. La génération d’objets 3D à partir d’images accélère énormément la production d’assets, même si le processus reste loin d’être automatisé. La retouche manuelle demeure essentielle : nettoyage des artefacts, corrections de textures, ajustements dans Blender. Meshy, parfois, refuse tout simplement de texturer un modèle — il faut alors recommencer.
Mais au-delà de ces petits obstacles, j’ai l’impression d’avoir ouvert une nouvelle voie dans mon travail : un espace où la 2D et la 3D s’entremêlent, où l’IA joue un rôle d’assistante technique, tandis que l’humain — moi — reste au centre de la création. Ce projet est encore en cours de réalisation et les visuels et vidéos pourront encore un peu changer par la suite.
Et surtout : je n’ai pas eu besoin de sortir mon (vieux) appareil photo pour faire exister ces images.