Installation de peinture numérique par IA inspirée de Refik Anadol - Flux de couleurs liquides et data painting immersif
Visualisation inspirée de "Machine Hallucinations" de Refik Anadol : des milliers d'œuvres d'art transformées en flux vivant par intelligence artificielle.

Peinture Algorithmique : Quand les Machines Apprennent à Rêver en Couleurs

Dernière mise à jour:

Dans son atelier d’Istanbul en 2008, Refik Anadol coinça le terme « data painting » en découvrant que les données constituent une forme de mémoire collective. Il commence à peindre avec des algorithmes, transformant des millions d’images en cascades liquides de couleur. À Charleston, Caroline du Sud, Mike Winkelmann (Beeple) crée une œuvre chaque jour depuis le 1er mai 2007 — aujourd’hui plus de 6800 jours sans interruption —, 5000 images dystopiques devenues NFT vendu 69 millions de dollars. Sur nos écrans, les épisodes de Love, Death & Robots explorent des dizaines d’esthétiques digitales impossibles en peinture traditionnelle. Dans les jeux vidéo, Red Dead Redemption 2 recrée l’Hudson River School en temps réel, pixel par pixel. Et sur TikTok, des millions d’utilisateurs appliquent des filtres IA qui repeignent leurs visages selon des algorithmes de beauté. La peinture a quitté la toile. Elle est devenue flux — circulation infinie d’images dégradées que la théoricienne Hito Steyerl nomme « poor images », copies en mouvement qui se compriment, se remixent, se propagent. Du data painting aux deepfakes, des avatars personnalisés aux prompts Midjourney, nous vivons l’ère de la peinture algorithmique : l’image n’est plus surface fixe mais processus vivant, mutation permanente, hallucination contrôlée. Bienvenue dans le monde où les machines apprennent à rêver en couleurs, où chaque écran devient toile potentielle, où peindre signifie écrire du code ou formuler des mots pour qu’une intelligence artificielle génère ce que l’imagination humaine seule ne pourrait concevoir.

I. De la toile à l’écran : l’image flux

Pendant des siècles, la peinture a signifié une chose simple : appliquer du pigment sur une surface. La toile attendait, inerte, que l’artiste vienne y déposer sa vision. L’œuvre achevée restait fixe, immuable, unique. Un Vermeer de 1665 existe toujours dans sa matérialité d’origine — les mêmes pigments sur la même toile, accrochée dans le même espace physique. Mais aujourd’hui, la peinture a quitté ce régime de permanence pour entrer dans celui du flux perpétuel.

La théoricienne allemande Hito Steyerl a nommé ce phénomène dans son essai fondateur In Defense of the Poor Image (2009). Elle y décrit un nouveau type d’image qui circule sur nos écrans :

« L’image pauvre est une copie en mouvement. Sa qualité est mauvaise, sa résolution médiocre. En accélérant, elle se dégrade. C’est un fantôme d’image, un aperçu, une vignette, une idée errante, une image itinérante distribuée gratuitement, compressée à travers des connexions digitales lentes, reproduite, arrachée, remixée, copiée et collée dans d’autres canaux de distribution. »
— Hito Steyerl, In Defense of the Poor Image, 2009
(« The poor image is a copy in motion. Its quality is bad, its resolution substandard. As it accelerates, it deteriorates. »)

Cette « image pauvre » n’a plus rien à voir avec l’original précieux conservé dans un musée. Elle existe dans sa circulation même, dans son passage d’écran en écran, de plateforme en plateforme. Steyerl poursuit :

« L’image pauvre ne concerne plus la chose réelle — l’original originel. Au lieu de cela, elle concerne ses propres conditions d’existence réelles : la circulation en essaim, la dispersion digitale, les temporalités fracturées et flexibles. »
— Hito Steyerl, In Defense of the Poor Image

Le pixel a remplacé le pigment, mais pas seulement sur le plan matériel. C’est toute la logique de l’image qui a changé. Lev Manovich, théoricien des nouveaux médias, l’explique dans The Language of New Media (2001) :

« La culture visuelle de l’ère informatique est cinématographique dans son apparence, digitale au niveau de son matériau, et computationnelle — c’est-à-dire pilotée par logiciel — dans sa logique. »
— Lev Manovich, The Language of New Media, 2001

Pourtant, Manovich note aussi une continuité troublante : nous regardons toujours des surfaces rectangulaires et plates. L’écran a remplacé la toile, mais la fenêtre demeure. Ce qui a changé, c’est ce qui se passe derrière cette fenêtre : non plus une image fixe, mais un flux permanent, une mutation constante, un processus vivant. Des artistes aux plateformes sociales, des musées aux jeux vidéo, la peinture numérique infiltre désormais tous les écrans de notre quotidien.

II. Artistes numériques : nouveaux gestes, nouvelles matières

Refik Anadol : data painting

Dans son studio de Los Angeles, Refik Anadol ne touche pas de pinceaux. Né en 1985 à Istanbul, cet artiste turco-américain peint avec des données. Son médium : des millions d’images transformées par des réseaux de neurones artificiels. Son résultat : des cascades liquides de couleur qui ne sèchent jamais, des hallucinations visuelles générées par des machines qui rêvent.

« Data is a form of memory, and memory can take any shape, form, or color. »
— Refik Anadol

En 2022, le MoMA de New York confie à Anadol sa collection entière : 320 000 œuvres numérisées. L’artiste entraîne un modèle d’intelligence artificielle sur cet immense corpus visuel. Le résultat, Unsupervised, est projeté sur la façade vitrée du musée : un flux continu d’images hallucinées qui ne ressemblent à aucune œuvre spécifique de la collection, mais qui portent en elles la mémoire visuelle de toute l’histoire de l’art moderne. Des formes abstraites émergent, se dissolvent, se métamorphosent — Kandinsky fondu avec Pollock, Mondrian liquéfié en Rothko.

Anadol décrit son processus comme une collaboration active avec la machine. Il rejette l’idée d’un art autonome généré par l’IA :

« Je ne m’intéresse pas à la réalité. Je pense que les collaborations humain-machine sont plus pertinentes et positives pour l’avenir. »
— Refik Anadol

Son équipe compte quinze personnes : architectes, ingénieurs en IA, musiciens, designers. Ensemble, ils collectent des datasets massifs — 70 millions de photos de la nature pour Large Nature Model, des données météorologiques pour Wind of Boston, l’archive complète d’une bibliothèque pour Archive Dreaming (2016), sa première œuvre d’intelligence artificielle dans un espace public. Le processus est précis : collecte de données, nettoyage, entraînement de réseaux de neurones, génération d’images, projection sur des surfaces architecturales.

Mais la question reste ouverte :

« Si une machine peut apprendre, peut-elle rêver ? »
— Refik Anadol

Au printemps 2026 (mars-avril), Anadol ouvre Dataland au Grand LA (conçu par Frank Gehry), le premier musée entièrement dédié à l’art généré par intelligence artificielle. Un espace où les pigments traditionnels n’existeront pas, remplacés par ce qu’il appelle des « molécules qui ne sèchent jamais » — des flux de données en perpétuelle mutation.

Beeple : l’everyday et le NFT

Mike Winkelmann, connu sous le nom de Beeple, suit une discipline d’une rigueur monacale : depuis le 1er mai 2007, il crée une œuvre numérique chaque jour. Pas un seul jour manqué en plus de dix-huit ans. Naissance d’enfants, voyages, maladie — rien ne l’arrête. Le projet Everydays est devenu un journal visuel dystopique de notre époque : Mickey Mouse déformé, Donald Trump en cyborg obèse, paysages post-apocalyptiques saturés de néons.

« Ce que je fais n’est pas vraiment différent de quelqu’un qui peint un tableau ; j’utilise juste des outils différents. Je crois qu’à l’avenir, bien plus de gens créeront de l’art sur ordinateur qu’avec un pinceau. »
— Beeple

En mars 2021, Christie’s vend Everydays: The First 5000 Days — un collage de 5000 images quotidiennes — pour 69,3 millions de dollars sous forme de NFT (token non fongible). L’acheteur, Vignesh Sundaresan, acquiert un certificat numérique prouvant sa propriété de l’œuvre, mais pas le copyright de l’image elle-même. Beeple insiste sur cette distinction :

« Les gens ne comprennent pas que quand vous achetez un NFT, vous avez le token. Vous pouvez afficher le token et montrer que vous possédez le token, mais vous ne possédez pas le copyright de l’art représenté par le token. »
— Beeple

Cette vente record a déclenché une frénésie spéculative autour des NFT, suivie d’un effondrement du marché. Beeple, lucide, observe :

« Les NFT ont été détestés bien plus longtemps qu’ils ont été aimés. Il y a eu cette fenêtre très brève où les gens disaient « Oui, c’est le futur », puis c’est revenu à « Oh, espèce de merde, ne me mets pas ce mal sur le dos. » »
— Beeple, Royal Academy of Arts, Londres, 2024

Pourtant, il continue de créer chaque jour dans son studio de 4650 mètres carrés à Charleston. Son travail pour Justin Bieber, Katy Perry, Louis Vuitton finance cette discipline obsessionnelle. L’art numérique, pour lui, n’est pas une mode passagère mais le langage visuel dominant de notre époque — celui des applications, des publicités, des films, des jeux vidéo que nous consommons quotidiennement.

TeamLab, Ian Cheng, Sougwen Chung : variations sur le vivant

D’autres artistes explorent différentes facettes de la peinture numérique vivante. Le collectif japonais TeamLab crée des installations immersives où des cascades digitales réagissent aux mouvements des spectateurs, où des fleurs virtuelles éclosent au passage des visiteurs. À Tokyo comme à Paris, leurs expositions transforment des salles entières en tableaux interactifs — la nature digitale comme organisme vivant.

Ian Cheng pousse plus loin l’autonomie de l’œuvre avec ses « simulations vivantes » : des écosystèmes virtuels qui évoluent sans intervention humaine. L’intelligence artificielle peint en temps réel, créant des paysages qui ne se répètent jamais. Chaque visiteur voit une version unique de l’œuvre — la peinture comme organisme qui respire, qui décide, qui existe indépendamment de son créateur.Sougwen Chung, elle, explore la collaboration littérale entre humain et machine. Sur scène, elle dessine en duo avec un bras robotique qu’elle a entraîné sur son propre style. Qui dessine vraiment ? La main humaine ou son double mécanique ? La série Drawing Operations brouille volontairement cette frontière, posant la question de l’authorship dans un monde où les machines apprennent nos gestes.

III. Cinéma et séries : esthétiques en mutation

Love, Death & Robots : anthologie des possibles

Sur Netflix, l’anthologie Love, Death & Robots (2019-présent), produite par Tim Miller et David Fincher, fonctionne comme un catalogue expérimental des possibilités esthétiques de l’animation CGI. Chaque épisode adopte un style visuel radicalement différent, explorant des territoires impossibles pour la peinture traditionnelle ou même le cinéma live-action.

Zima Blue (Saison 1, épisode 14) raconte l’histoire d’un peintre robot en quête de l’origine de sa créativité. Le bleu Zima — sa couleur signature — se révèle être la première mémoire de sa conscience : le carrelage bleu d’une piscine qu’il nettoyait avant de devenir artiste. L’épisode explore la question même de la création : qu’est-ce que créer ? D’où vient l’art ? Le style semi-réaliste aux tons froids renforce cette méditation mélancolique.The Witness (Saison 1, épisode 3), réalisé par Alberto Mielgo, plonge dans un Hong Kong néon où une femme poursuit son meurtrier dans une boucle temporelle infinie. Le photoréalisme extrême des reflets sur l’asphalte mouillé, la saturation cyberpunk des enseignes lumineuses — chaque frame pourrait être un tableau. La poursuite circulaire devient métaphore visuelle : l’image qui se mord la queue, le loop éternel de nos écrans.Jibaro (Saison 3, épisode 9), qui a remporté l’Emmy 2022, pousse l’expérimentation encore plus loin. Une sirène dorée liquide séduit des conquistadors dans un ballet quasi-abstrait où le son et l’image fusionnent. L’or coule comme de la peinture vivante sur les corps, transformant la violence en chorégraphie esthétique troublante.À l’opposé, The Secret War (Saison 1, épisode 18) atteint un photoréalisme si parfait que l’animation devient indiscernable du live-action. Des soldats soviétiques combattent des démons dans la neige — les ombres, le feu, les expressions faciales sont capturés avec une précision qui défie la réalité. Chaque épisode de Love, Death & Robots prouve que l’animation CGI offre désormais une liberté totale : du cartoon au photoréalisme, de l’abstrait au documentaire, toutes les esthétiques sont possibles. La question se pose : ces expérimentations influencent-elles le cinéma « réel » ? Ou créent-elles un nouveau langage visuel, propre au numérique ?

Spider-Man, The Creator, Everything Everywhere : mutations du regard

Spider-Man: Into the Spider-Verse (2018, Sony Pictures Animation) a révolutionné l’animation en capturant enfin l’esthétique d’un comic book en mouvement. Les points Benday des bandes dessinées imprimées bougent à l’écran, les frame rates se mélangent (12 et 24 images par seconde simultanément), des lignes dessinées à la main sont ajoutées sur la CGI 3D. Le résultat : la texture même du papier imprimé devient animation fluide. L’Oscar de la meilleure animation 2019 a validé cette approche radicale.

Chaque Spider-person possède son propre style visuel : Miles Morales évoque le graffiti urbain, Spider-Gwen baigne dans une palette pastel aquarelle, Spider-Noir existe en pur noir et blanc, Peni Parker incarne l’anime japonais. Un seul film contient cinq esthétiques distinctes qui coexistent — la peinture en mouvement, démultipliée. The Creator (2023) de Gareth Edwards adopte une approche inverse : avec un budget relativement modeste (80 millions de dollars), le film utilise la caméra Sony FX3 accessible et des effets visuels pour créer un univers de science-fiction photoréaliste. Comment représenter visuellement l’intelligence artificielle ? Edwards choisit la fusion organique-synthétique, des androïdes dont les crânes transparents laissent voir des circuits luminescents. L’IA devient visible, incarnée, presque humaine. Everything Everywhere All at Once (2022) des Daniels embrasse le chaos visuel comme principe narratif. Le multivers devient prétexte à jongler entre tous les styles : du cartoon 2D au photoréalisme, de l’esthétique TikTok/meme à l’absurde pur (les doigts en hot-dogs, les yeux googly). Le low-fi devient choix délibéré contre le polish des blockbusters — une esthétique de l’overflow, du trop-plein visuel qui reflète notre saturation médiatique. Blade Runner 2049 (2017) de Denis Villeneuve propose encore une autre voie : le sublime froid de Joi, l’intelligence artificielle holographique incarnée par Ana de Armas. Le chef opérateur Roger Deakins sculpte la lumière (palette orange et bleu signature) pour créer une beauté synthétique parfaite. Les hologrammes géants de Joi qui flottent sur Los Angeles posent la question : peut-on aimer une IA ? Les effets visuels sont si seamless qu’ils deviennent invisibles — la fusion totale du réel et du généré.

IV. Jeux vidéo : tableaux interactifs et jouables

Si le cinéma explore des esthétiques en mutation, le jeu vidéo va plus loin : il rend ces tableaux jouables. Le spectateur devient acteur, le cadrage devient choix, la contemplation devient interaction.

Red Dead Redemption 2 : paysages Hudson River School en temps réel

Red Dead Redemption 2 (Rockstar Games, 2018) transpose la tradition picturale américaine du 19ᵉ siècle — l’Hudson River School de Thomas Cole et Frederic Church — en monde ouvert interactif. Les paysages de l’Ouest américain sont rendus avec une attention maniaque à la lumière naturaliste : chaque coucher de soleil, chaque aube brumeuse, chaque orage utilise un système météorologique dynamique et une photogrammétrie qui capture la réalité pour la transformer en espace jouable.

Le mode photo intégré au jeu transforme les joueurs en photographes-peintres. Ils cadrent, ajustent la profondeur de champ, appliquent des filtres, capturent des instants. Instagram regorge de milliers de « tableaux » extraits de RDR2 — chaque frame devient potentiellement une œuvre. Soixante heures de gameplay offrent une exposition infinie de paysages que le joueur traverse, habite, photographie. Le jeu vidéo devient-il un musée interactif où chaque joueur est à la fois visiteur et commissaire d’exposition ?

Ghost of Tsushima : estampes japonaises vivantes

Ghost of Tsushima (Sucker Punch, 2020) transpose les estampes ukiyo-e de Hokusai et Hiroshige en 3D temps réel. Le Japon féodal devient toile interactive où le vent fait danser les herbes hautes et les feuilles d’automne — le vent lui-même agit comme un pinceau invisible qui guide le joueur à travers des compositions visuelles soigneusement orchestrées.

Le mode Kurosawa pousse l’hommage à son paroxysme : tout le jeu peut être joué en noir et blanc avec un grain film, référence directe au cinéma de samouraï d’Akira Kurosawa. Un choix esthétique radical qui transforme le gameplay en expérience cinématographique — la palette automnale dorée disparaît au profit d’un monochrome contemplatif.

The Last of Us Part II, Death Stranding, Cyberpunk 2077 : trois visions

The Last of Us Part II (Naughty Dog, 2020) se concentre sur le portrait émotionnel. La motion capture pousse le réalisme des expressions faciales à l’extrême : chaque ride, chaque larme, chaque grimace de douleur est capturée. Les visages deviennent toiles d’émotion pure, portraits psychologiques en temps réel. La violence du jeu est représentée avec un réalisme brutal — la destruction de l’environnement comme geste pictural, questionnement implicite : la violence esthétisée dénonce-t-elle ou célèbre-t-elle ?

Death Stranding (Hideo Kojima, 2019) utilise la photogrammétrie pour scanner des acteurs réels (Norman Reedus, Mads Mikkelsen) et des paysages islandais. Chaque rocher existe dans sa précision géologique. Le résultat : un sublime désolé où la marche elle-même devient performance artistique. Traverser ces espaces vides, c’est habiter un tableau en mouvement — la contemplation comme gameplay.Cyberpunk 2077 (CD Projekt Red, 2020) adopte l’approche inverse : Night City est une toile urbaine saturée de néons roses, bleus, violets. L’esthétique Blade Runner est poussée à son paroxysme avec une pluie réfléchissante constante et des publicités holographiques qui deviennent coups de pinceau lumineux. L’open world comme galerie sans fin où chaque rue est une composition visuelle différente.Trois visions du futur : la désolation contemplative de Kojima, le portrait émotionnel brutal de Naughty Dog, la saturation néon de CD Projekt Red. Le jeu vidéo devient laboratoire esthétique où chaque studio développe son langage pictural propre.

V. Filtres et réseaux sociaux : la peinture du quotidien

Instagram, TikTok, Snapchat : nouveaux pinceaux

Si les artistes et les studios explorent les frontières de la peinture numérique, les filtres de réseaux sociaux la démocratisent radicalement. Chaque jour, des milliards d’utilisateurs appliquent des algorithmes de beauté sur leurs visages — lissage automatique de la peau, agrandissement des yeux, modification de la structure faciale. Le selfie devient autoportrait digital quotidien, l’application d’un filtre devient geste pictural banal.

Les filtres de réalité augmentée (AR) vont plus loin. Spark AR (Meta/Instagram), Lens Studio (Snapchat), Effect House (TikTok) permettent à des créateurs indépendants de développer leurs propres filtres. Une nouvelle catégorie d’artistes émerge : les designers de filtres, dont certaines créations deviennent virales et sont utilisées des millions de fois. Le filtre « Bold Glamour » de TikTok en 2023 a fasciné par sa capacité à modifier les visages en temps réel avec une précision troublante — les algorithmes de beauté deviennent standards esthétiques universels.Mais ces pinceaux démocratiques posent des questions inquiétantes : assiste-t-on à une homogénéisation des visages ? Les mêmes nez, les mêmes lèvres, les mêmes proportions dictées par des algorithmes entraînés sur des datasets biaisés ? La facilité d’accès à ces outils permet-elle une créativité nouvelle ou impose-t-elle un conformisme esthétique algorithmique ? Chaque utilisateur devient-il peintre de son propre visage ou prisonnier d’un modèle standardisé ?Le corps « instagrammable » — lisse, symétrique, conforme — devient-il la nouvelle norme ? Et dans ce processus, où se trouve le visage « authentique » ? Existe-t-il encore, ou sommes-nous déjà tous devenus nos versions filtrées ?

Deepfakes : peindre le réel

Si les filtres modifient en temps réel, les deepfakes permettent de « repeindre » entièrement un visage existant. Cette technologie d’intelligence artificielle remplace un visage par un autre dans une vidéo avec un réalisme parfois troublant.

Certains artistes explorent ce territoire avec des intentions critiques ou poétiques. Le projet Dalí Lives (2019) au Musée Dalí de Saint-Pétersbourg, Floride, utilise un deepfake de Salvador Dalí pour accueillir les visiteurs — l’artiste surréaliste ressuscité numériquement, commentant ses propres œuvres. Une résurrection digitale qui pose la question de l’identité post-mortem : qui contrôle l’image d’un artiste après sa mort ?Bill Posters, artiste activiste, crée des deepfakes de Mark Zuckerberg pour critiquer le capitalisme de surveillance. Son projet Spectre détourne la technologie même développée par les géants de la tech pour questionner leur pouvoir. Jordan Peele et BuzzFeed ont créé en 2018 un deepfake d’Obama mettant en garde contre la désinformation : « Stay woke, bitches » — une sensibilisation aux dangers par l’utilisation même de l’outil.Le collectif Corridor Crew, spécialisé en effets visuels sur YouTube, produit des deepfakes expérimentaux tout en discutant ouvertement de leurs implications éthiques. Leur approche pédagogique montre comment la technologie fonctionne, rendant le public plus conscient de ce qu’il regarde.Mais la question demeure : les deepfakes sont-ils une nouvelle forme d’art ou une menace pour la vérité de l’image ? Si n’importe quel visage peut être « repeint » sur n’importe quelle vidéo, comment distinguer le réel du faux ? Qui contrôle notre image digitale ? Et dans un monde où voir ne signifie plus croire, quel statut accorder aux images ?

VI. Avatars et identités digitales : devenir image

VTubers et idoles virtuelles : abandonner le corps

En 2007, un logiciel vocal japonais nommé Vocaloid crée Hatsune Miku, une chanteuse virtuelle aux cheveux turquoise. Depuis, elle a donné des concerts holographiques devant des milliers de fans, « chanté » des milliers de chansons créées par sa communauté, et existe comme idole sans corps physique. Hatsune Miku n’a jamais eu de corps — elle est pure image animée, pure voix synthétique, et pourtant son existence culturelle est totalement réelle.

Les VTubers (Virtual YouTubers) poussent ce concept plus loin : des streamers humains réels abandonnent leur apparence physique au profit d’avatars animés en temps réel. Kizuna AI, pionnière en 2016, a lancé une industrie désormais évaluée à plusieurs milliards de dollars. Ces créateurs diffusent pendant des heures avec des avatars qui réagissent à leurs mouvements et expressions faciales grâce à la motion capture. Le corps physique devient invisible, remplacé par une identité digitale choisie.La question se pose : sommes-nous plus « nous-mêmes » en avatar qu’en corps physique ? L’avatar offre-t-il une liberté identitaire totale — changer de genre, d’espèce, de proportions — ou crée-t-il une nouvelle performance permanente, une version idéalisée qui nie le corps réel ?

Metaverse et gaming : s’acheter soi-même

En 2021, Balenciaga lance une collection de vêtements pour avatars dans Fortnite. Des millions de joueurs achètent ces tenues virtuelles avec de l’argent réel. Gucci, Louis Vuitton suivent. Une économie virtuelle se développe où les skins (apparences des personnages) valent parfois des centaines, voire des milliers de dollars.

Dans Fortnite, League of Legends, Valorant, le choix d’un skin devient expression identitaire. La rareté digitale crée de la valeur : certains skins limités deviennent objets de collection. Mais pourquoi payer pour des vêtements qui n’existent pas physiquement ?Parce que ces espaces virtuels sont habités des heures durant. Dans Les Sims, GTA Online, Red Dead Online, les joueurs passent parfois plus de temps à customiser leur avatar qu’à jouer. Les MMOs comme Final Fantasy XIV ou World of Warcraft offrent des systèmes de customisation tellement détaillés que certains joueurs y consacrent des dizaines d’heures.Nos avatars sont-ils des autoportraits idéalisés ? Des versions « peintes » de nous-mêmes, corrigées, améliorées, fantasmées ? Ou sont-ils des identités entièrement nouvelles, des performances de soi dans un espace où les contraintes physiques n’existent plus ?

Profils réseaux sociaux : curation de soi

Chaque photo de profil est un autoportrait digital soigneusement choisi. Elle représente une version contrôlée de soi, changeant selon le contexte — professionnelle sur LinkedIn, personnelle sur Instagram, anonyme sur Twitter. Les « finstas » (fake Instagram, comptes secondaires) permettent de multiplier les identités : un compte public poli, un compte privé authentique.

Nous sommes devenus nos propres commissaires d’exposition. Nous choisissons quelles images de nous montrer, construisons un narratif visuel de nos vies, effaçons ce qui ne correspond pas à l’image que nous voulons projeter. Chaque profil est une galerie personnelle, une collection d’autoportraits fragmentés. Sommes-nous encore nous-mêmes, ou sommes-nous devenus les conservateurs de musées dédiés à nos propres personnes ? L’authenticité existe-t-elle encore quand chaque moment partagé est cadré, filtré, optimisé pour la visibilité algorithmique ?

VII. IA générative : peindre avec des mots

Les outils : Midjourney, DALL-E, Stable Diffusion, Sora

En 2022, l’intelligence artificielle générative devient accessible au grand public. Midjourney, DALL-E, Stable Diffusion permettent soudain à n’importe qui de créer des images complexes en tapant simplement des mots. Le « prompt » — instruction textuelle donnée à l’IA — devient le nouveau pinceau. « Prompt engineering » devient une compétence : savoir formuler précisément ce qu’on veut voir généré.

Midjourney, lancé par David Holz via Discord, développe rapidement une esthétique distinctive — souvent « trop belle », saturée, léchée. Sa version 6 (2024) atteint un photoréalisme troublant. DALL-E, développé par OpenAI et intégré à ChatGPT, permet l’inpainting (modifier des parties spécifiques d’image) et l’outpainting (étendre une image au-delà de ses bords). Stable Diffusion, open source développé par Stability AI, peut tourner localement sur un ordinateur personnel, ce qui génère une communauté active de modifications et de forks. Puis en 2024, OpenAI dévoile Sora : génération de vidéos de 60 secondes à partir de descriptions textuelles. « Cinéma sans caméra » — il suffit d’écrire « un chien golden retriever jouant dans un parc enneigé » pour obtenir une vidéo cohérente, fluide, photoréaliste. La progression est vertigineuse : en 2022, les images générées par IA étaient floues, déformées, avec des mains à six doigts ; en 2025, elles sont parfois indiscernables de photographies réelles. La barrière d’entrée à la création visuelle a presque disparu. Des millions d’images sont générées chaque jour. Mais cette démocratisation radicale pose une question : trop d’images tue-t-il l’image ? Quand n’importe qui peut générer n’importe quelle vision en quelques secondes, l’image conserve-t-elle de la valeur ?

Artistes et IA : collaboration ou remplacement ?

Certains artistes embrassent l’IA comme un nouvel outil créatif. Refik Anadol, déjà mentionné, utilise des modèles sur mesure entraînés sur des datasets spécifiques. Holly Herndon, musicienne et artiste visuelle, a créé « Holly+ » — un clone vocal IA d’elle-même, open source, que n’importe qui peut utiliser. Elle explore la question de l’ownership et de l’identité : que signifie « posséder » sa voix quand une machine peut la reproduire parfaitement ?

Anna Ridler adopte une approche hybride fascinante : elle peint à la main des milliers de tulipes, crée un dataset visuel entièrement manuel, puis entraîne une IA dessus. Son projet Mosaic Virus (2018) génère des tulipes uniques qui n’existent pas, mais qui portent en elles le geste de sa main — un processus où l’humain et la machine collaborent à chaque étape. Memo Akten, avec sa série Learning to See, visualise comment l’IA « voit » le monde. Ses œuvres de deep learning art sont pédagogiques autant qu’esthétiques — elles montrent les processus internes des réseaux de neurones, rendant visible l’invisible.Le spectre est large : certains gardent un contrôle total, d’autres laissent l’IA décider partiellement. La question reste ouverte : où se trouve la créativité ? Dans le choix du dataset ? Dans la formulation du prompt ? Dans la sélection du résultat ? Ou la créativité existe-t-elle maintenant dans la collaboration même entre humain et machine ?

Controverses : copyright, emploi, éthique

Greg Rutkowski, artiste concept polonais, est devenu malgré lui le symbole d’une controverse majeure. Son nom est le mot-clé le plus utilisé sur Midjourney : « in the style of Greg Rutkowski » génère instantanément des images qui imitent son style distinctif. Le problème ? Rutkowski n’a jamais consenti à cela. Les IA génératives ont été entraînées sur des millions d’œuvres trouvées en ligne, sans permission des artistes.

En 2023 et 2024, plusieurs class action lawsuits sont lancées contre Stability AI, Midjourney et DeviantArt. L’argument : entraîner des modèles sur des œuvres protégées par copyright sans permission constitue un vol. Le contre-argument : l’IA apprend comme les humains apprennent, en observant des œuvres existantes — c’est du fair use. Getty Images poursuit Stability AI pour avoir utilisé 12 millions d’images de sa base de données, watermarks visibles dans certaines images générées. Les procès sont en cours sans résolution claire. L’impact sur l’emploi des illustrateurs est réel. Certains studios de jeux vidéo et d’animation utilisent désormais l’IA pour générer des concepts préliminaires, réduisant les commandes d’illustration commerciale. Des illustrateurs doivent s’adapter, apprendre à utiliser l’IA comme outil ou se spécialiser dans ce que l’IA ne peut pas faire. Le débat fait rage : l’IA remplace-t-elle ou augmente-t-elle le travail créatif ?Les questions éthiques se multiplient : génération de contenu NSFW non consensuel, deepfakes malveillants, désinformation via images fausses mais crédibles, biais dans les datasets (sous-représentation de certaines ethnies, stéréotypes genrés). Les IA reflètent les biais de leurs données d’entraînement — et ces données, c’est l’internet entier, avec toutes ses problématiques. Il est important de présenter ces controverses factuellement, sans jugement moral prématuré. La technologie elle-même est neutre ; ses usages sont multiples. La tension entre innovation et droits des artistes est réelle et légitime. Quelle régulation mettre en place ? Qui doit décider ? Ces questions restent ouvertes.

Questions philosophiques ouvertes

Au-delà des controverses légales et économiques, l’IA générative pose des questions philosophiques fondamentales sur la nature même de l’art et de la créativité.

Qui est l’artiste ? L’ingénieur qui a codé l’algorithme ? La personne qui écrit le prompt ? La machine qui génère l’image ? Les millions d’artistes dont les œuvres ont servi à entraîner le modèle ? Peut-être tous à la fois ? Ou aucun ?L’IA peut-elle être créative ? La créativité implique-t-elle nécessairement une conscience, une intentionnalité, une subjectivité ? Ou peut-elle être définie comme un processus mécanique de génération de nouveauté ? L’IA recombine l’existant — mais les humains aussi, puisqu’aucune création n’émerge du vide. Où tracer la ligne ? L’histoire offre des précédents instructifs. La photographie, à son invention, fut accusée de « tuer » la peinture. Elle ne l’a pas tuée — elle l’a transformée, libérée de la contrainte de représentation fidèle, permettant l’émergence de l’impressionnisme, du cubisme, de l’abstraction. Les synthétiseurs devaient « tuer » les musiciens ; ils ont créé de nouveaux genres musicaux. L’IA « tuera »-t-elle l’art humain, ou est-elle simplement un nouvel outil qui transformera radicalement notre façon de créer ?Dans vingt ans, comment créerons-nous des images ? L’IA rendra-t-elle l’art traditionnel fait main plus précieux, comme objet rare dans un monde d’abondance digitale ? Émergera-t-il de nouveaux métiers artistiques — curateurs de datasets, designers de prompts complexes, entraîneurs de modèles sur mesure ? Comment définirons-nous le mot « artiste » en 2050 ? Ces questions n’ont pas de réponses définitives. Elles invitent à la réflexion collective, au débat, à l’expérimentation prudente. L’authorship elle-même devient hybride — non plus l’artiste solitaire face à sa toile, mais une collaboration entre intention humaine et exécution algorithmique.

VIII. Vers des images vivantes

De la toile fixe à l’écran changeant, de la contemplation à la circulation, de l’unique au reproductible infiniment, la peinture a quitté son régime traditionnel. Le pigment est devenu pixel, puis algorithme. L’image n’est plus surface mais processus vivant — flux qui se compresse, se remixe, se propage à travers nos écrans.

Nous sommes devenus images. Nos avatars dans les jeux vidéo, nos visages filtrés sur Instagram, nos identités multiples sur les réseaux sociaux — autant de versions peintes de nous-mêmes qui circulent, qui existent parallèlement à nos corps physiques. La frontière entre chair et code se dissout : nos identités digitales sont aussi réelles que nos présences physiques. La question de l’authorship se complexifie. Qui crée vraiment ? Dans un monde où Refik Anadol entraîne des machines à rêver, où Beeple crée quotidiennement depuis dix-huit ans, où des millions d’utilisateurs génèrent des images par prompts textuels, où se trouve l’artiste ? Peut-être que la collaboration humain-machine est le futur — non pas le remplacement de l’un par l’autre, mais une fusion où l’intention humaine et l’exécution algorithmique deviennent indissociables.Le présent proche (2025-2027) verra la démocratisation continue de l’IA générative, l’intégration de ces outils dans les logiciels standard, probablement des régulations sur le copyright, et l’émergence de nouveaux métiers artistiques. Le futur plus lointain (2030-2040) pourrait voir la génération vidéo et 3D en temps réel, la réalité augmentée permanente, des avatars photoréalistes universels, une frontière de plus en plus floue entre réel et virtuel.L’image a-t-elle encore de la valeur quand elle est infiniment reproductible, instantanément générée ? Reviendrons-nous à valoriser le fait main, l’objet unique, la trace physique d’un geste humain ? Ou embrasserons-nous totalement le synthétique, acceptant que l’art peut émerger de processus algorithmiques ? La peinture traditionnelle survivra-t-elle comme artisanat de luxe, rare et précieux dans un monde d’abondance digitale ?Lev Manovich écrivait :

« Le logiciel est devenu notre interface au monde, aux autres, à notre mémoire et notre imagination — un langage universel à travers lequel le monde parle, et un moteur universel sur lequel le monde tourne. »
— Lev Manovich, Software Takes Command

La peinture ne meurt pas. Elle mute, elle évolue, elle s’adapte aux nouveaux médiums. Du pigment au pixel, du pixel à l’algorithme, elle continue d’exister comme tentative humaine de capturer, de créer, de communiquer des visions. Les machines apprennent à rêver en couleurs, mais ce sont les humains qui leur enseignent à rêver. La question n’est peut-être pas « l’IA va-t-elle remplacer les artistes ? » mais « comment les artistes vont-ils utiliser l’IA pour créer ce que nous ne pouvons même pas encore imaginer ? »

Les images vivantes sont là. Elles mutent sur nos écrans, elles circulent dans nos réseaux, elles habitent nos imaginaires. Nous vivons dans l’ère de la peinture algorithmique — et nous n’en sommes qu’au début.