Jacques Perconte, artiste français né en 1974, fait l’expérience précoce des technologies numériques en 1995, alors étudiant en arts plastiques à l’Université de Bordeaux (dessin, peinture, vidéo), en étant l’un des premiers à explorer l’espace naissant du web (d’abord à l’Université, puis au CNRS, au sein du Service Informatique et Recherches Archéologiques dirigé par Robert Vergnieux) qu’il découvre avec quelques pionniers disposant de connexions et d’outils informatiques les plus adéquats en France. Lorsque Perconte découvre à l’Université de Bordeaux qu’un ordinateur dont on lui avait confié l’accès était connecté au reste du monde, il prend conscience des enjeux techniques et esthétiques du réseau numérique alors en grande partie ignorés1. Depuis, il n’a cessé de tester et d’allier les technologies numériques disponibles (réseaux, outils de simulation, de détection, de calcul et de traitement des images et du son, programmes, algorithmes, programmation, terminaux) et de les tresser avec l’analogique. Artiste de premier plan de l’histoire de l’art sur Internet, grand aventurier de la scène électronique, Jacques Perconte est également exposé et diffusé à l’international dans de nombreux musées, galeries, festivals, cinémathèques, universités, écoles d’art ou de cinéma, et collabore avec la musique contemporaine (par exemple Samuel André, Hélène Breschand, Jean-Jacques Birgé, Arnaud Castagné, Jean-Benoît Dunckel, Carlos Grätzer, Eddie Ladoire, Simonluca Laitempergher, Jeff Mills, Julie Rousse) et le cinéma d’art et d’essai (Holy Motors, Léos Carax, 2012).

Résolument technophile, Jacques Perconte critique les dernières hautes technologies par une reprise en main des outils numériques, informée par une recherche précise de leur fonctionnement et par les pratiques des arts expérimentaux qui l’ont amené à développer une stratégie de non-coopération technique au nom d’une valeur très haute d’exigence plastique et éthique2. Ainsi, toute son œuvre s’inscrit-elle contre une histoire prescrite par les industries techniques qui impose l’idée d’une loi naturelle selon laquelle les supports et outils doivent nécessairement se succéder par pans en rupture les uns avec les autres. Si l’œuvre de Perconte de 1995 à 2015 coïncide avec 20 ans d’accélération exponentielle des performances des technologies numériques et du réseau, elle est avant tout contemporaine du démantèlement de l’arsenal argentique et vidéographique, progressif dans les années 90 et précipité dans les années 2000, qui a opéré ce que Nicole Brenez nomme un véritable turn over technologiquequi a presque achevé de confisquer aux artistes plus de cent cinquante ans de technologies filmiques dans lesquelles ils puisaient à volonté3. La violence d’un tel démantèlement industriel rend cette période d’autant plus cruciale qu’elle a offert d’abord la coexistence d’une multiplicité croissante d’outils à l’aide desquels les artistes pouvaient «transférer, hybrider, tresser les supports d’images»4, avant que le tout numérique ne s’impose aujourd’hui. Un courant critique, dont Perconte serait une des grandes forces, au combat avec les standardisations techniques industrielles, traverse l’argentique, la vidéo, le numérique et leurs hybridations. Il oblige à concevoir une méthode qui permette, d’une part, de penser les rapports entre plasticités et technologies et, d’autre part, de faire converger des supports traditionnellement analysés selon leurs spécificités intrinsèques.

Quel est l’objet de ce soulèvement artistique dont Perconte serait une figure centrale ? Ce courant spontané et collectif d’artistes du monde entier a entrepris de battre le numérique sur son propre terrain: le signal5. Le caractère protéiforme de ce phénomène, sa fertilité, son effusion, sa complexité demandent à être envisagés comme propositions techniques critiques et comme révoltes esthétiques. Nous proposons des instruments méthodologiques qui permettent de penser ensemble les supports technologiques (argentique-vidéographique-numérique) dans leur continuité et simultanéité. Nous dévoilons un modèle du fonctionnement des technologies filmiques : la computation du signal. Ce modèle met en évidence les logiques d’ensemble des recherches artistiques sur les voies et les formes de la libération du signal dans les arts filmiques, en particulier celles de Jacques Perconte au temps du numérique.

 

 Satyagraha (2009)

 

I. Methodologie pour une analyse technique et formelle du signal

Les technologies filmiques peuvent être appréhendées, en effet, autrement qu’en termes traditionnels d’outils et d’images, mais aussi de médium ou de dispositif. Pour construire une plateforme commune, nous modélisons par réductionnisme le fonctionnement des technologies filmiques numériques, autrement dit nous qualifions la pensée qui est à l’œuvre en leur sein, que nous nommons pensée computationnelle qui s’exprime en algorithme, est porteuse d’une idéologie techniciste, dévaluant notre expérience sensible, programmant les pratiques des artistes, imposant des normes visuelles. Cette pensée computationnelle déploie sa très haute technicité sur l’essence du visible et de l’audible : le signal. Nous proposons une conceptualisation du signal en portant un regard discriminant sur ces technologies pour extraire la matière même à partir de laquelle les artistes vont travailler. Le signal peut être appréhendé de la manière suivante:

- La notion de signal est généralisable depuis ses principes mathématiques et informatiques aux phénomènes de variations physiques de l’environnement, portés par les ondes/corpuscules, soumis à la détection ou issus de la visualisation.

- Il ne connaît pas de support a priori : ses données peuvent être converties dans des éléments de natures physiques et chimiques diverses.

- Principe de la dualité du signal : flux lisible par les machines – champ perceptible par l’homme.

 

La pensée computationnelle est la logique commune aux dimensions matérielles et immatérielles des technologies filmiques. On peut ainsi repenser le circuit de fabrication des images animées en s’affranchissant des notions d’outil et de support (caméra, pellicule, bande magnétique, disque dur, laboratoire, banc de montage, ordinateur, projecteur, écran, etc.), pour nous focaliser sur les transformations que la pensée computationnelle fait subir au signal à travers un circuit de procédures. Le diagramme ci-contre propose une synthèse des principes de la computation du signal des technologies filmiques.

 

 

Diagramme de la computation du signal (Bidhan Jacobs)

 

Ce circuit annihile les frontières imposées par le hardware, ainsi qu’entre le hardware et le software, pour n’extraire que les fonctions principales qu’il articule selon la logique de formation et de conversion du signal et non selon l’ordre séquentiel de la production et de la diffusion des images. Les procédures internes à la caméra – optique, surface sensible, conversion, traitement du signal, compression, enregistrement – sont fractionnées et recomposées dans une chaîne de commandes augmentée, par adjonction et interpolation, des différentes opérations externes possibles sur le signal, elles-mêmes fractionnées et recomposées. Les temps de la chronologie de fabrication sont reconfigurés de manière non-linéaire afin de souligner des équivalences entre des procédures qui n’ont pas lieu au même moment.

Le modèle de la computation du signal se présente comme un circuit logique réduisant et réagençant les processus de conversion du signal en étapes successives finies (certaines pouvant être bouclées avec d'autres) depuis son entrée comme signal électromagnétique (S) à sa sortie comme signal électromagnétique visualisé (Ms').



Détection

La détection est la première étape de la computation du signal. La lumière (directe ou réfléchie par les surfaces des objets) véhicule de l’information. Pour l’exploiter plus facilement, les photons doivent être convertis en une autre grandeur physique analysable et manipulable : la lumière est ainsi détectée. Autrement dit, la procédure principale de la détection est la conversion d’un signal d’entrée S (lumineux) en un signal de sortie S’. Son programme fait intervenir trois types d’algorithmes agissant sur S :

- La transformation optique en un champ lumineux par des opérateurs de structuration (ouverture et focalisation)

- La modulation du champ lumineux par des opérateurs de régulation (focale, diaphragme) et d’échantillonnage (obturateur)

- La transduction des données lumineuses en un signal S’ par des opérateurs de mesure et de conversion (le détecteur 2D périodique).

 

Les détecteurs se caractérisent par leur réseau matriciel: photosites en disposition géométrique, discontinue et fixe pour les analyseurs solides que sont les capteurs et les tubes ; grains en disposition uniforme mais aléatoire et discontinue (dans le photogramme et dans le passage d’un photogramme au suivant). Ces détecteurs 2D sont dits périodiques : la pellicule par défilement intermittent, les capteurs solides par transfert de charges.



Codification

La codification prolonge le circuit vers des procédures de normalisation et de formalisation du signal: le traitement et l’enregistrement. Le traitement précède et suit l'enregistrement pour constituer une boucle.

Apportons deux précisions au préalable.

- Le traitement est bouclé avec la visualisation pour les deux cas suivants: comme récupération du signal S’ directement après son traitement (rushes, combo, écran LCD, diffusion en direct), ou après l’enregistrement et passage par le traitement (par exemple, la visualisation d’un DVD ou d’un Blu-ray qui nécessite la décompression du signal numérique).

- La codification admet une branche alternative : la simulation. La simulation est la capacité des technologies filmiques à générer d’elles-mêmes un signal, sans avoir besoin de recourir à la détection. Au temps du numérique, il s’agit, bien sûr, de l’ordinateur et des logiciels permettant la synthèse par des algorithmes façonnant des structures de données numériques. Les synthétiseurs vidéo se caractérisaient par leur capacité à générer des signaux à partir de leurs composants électroniques sans la nécessité d’information extérieure. De même la pellicule contenait déjà une structure de grains qui constituait son propre signal6. Détection et simulation peuvent avoir lieu simultanément (pour certaines applications de réalité augmentée).

Le traitement recouvre toutes les opérations possibles sur le signal S’.

- Amplification : du signal électrique par le condensateur, de l’image latente par le rélévateur

- Contrôle : toutes les conversions analogique<->analogique et analogique<->numérique, les corrections, la normalisation (fixage chimique, encodage et décodage pour la vidéo et le numérique)

- Analyse : montage, effets spéciaux, étalonnage.

L’enregistrement correspond aux formes de la conversion en signal Ms.

- Stockage : signal magnétique sur bande (analogique ou numérique), disque optique ou disque dur ; signal chimique sur négatif (après développement ou copie zéro après montage et étalonnage)

- Copie : internégatif, positif, fichier.

Si S’ est déjà un signal simplifié par rapport à S, Ms traduit une conversion d'une tout autre ampleur : nous le postulons comme un modèle de S. Autrement dit, le signal codifié enregistré est une réduction de S. Au temps du numérique, les traitements spécifiques de contrôle que subit S’ (corrections et encodage) l’expriment comme une quantité donnée d’informations structurées par l’interprétation et l’approximation des mathématiques industrielles. Ce caractère de modèle s’inscrit dans les versions dites analogiques de Ms. S’il y a analogie entre Ms et S, cela ne signifie nullement identité : il existe une différence de nature entre le modèle et le réel qu’il représente, le modèle ayant une valeur symbolique.



Reconstruction : visualisation et sonification

La reconstruction transforme le signal codifié lisible par les machines seules en un signal visible (visualisation) ou audible (sonification) par l’être humain. Nous allons nous focaliser sur la visualisation seule. La visualisation du signal, c’est-à-dire sa transduction, modulation et transformation en lumière visible, est à l’œuvre dans tous les dispositifs de diffusion (projecteurs, moniteurs, terminaux fixes et mobiles). Elle est symétrique à la détection.

- La transduction: elle est directe dans le cas de la conversion du signal chimique de la pellicule en signal électromagnétique dans la salle de cinéma; multiple dans le cas du signal vidéo ou numérique, puisque celui-ci est converti en signal électrique puis électronique et enfin électromagnétique.

- La modulation du faisceau: nous nommons « faisceau » cette forme terminale que prend le signal et susceptible de se convertir dans des natures et structures physiques différentes avant de rayonner dans l’espace du spectateur. Autrement dit, le faisceau peut se décliner en flux d’électrons (tube cathodique), laser (disques optiques), matrice de pixels lumineux (terminaux), champ de lumière (projecteur). Le faisceau est modulé par des opérateurs de régulation : la forme même du signal chimique des photogrammes à défilement intermittent pour le faisceau du projecteur cinéma, les déflecteurs magnétiques pour le flux électronique, les trains de pulsations pour le laser, la tension de commande pour les pixels des terminaux plats ou les micro-miroirs des technologies DLP (Digital Light Processing)7 des projecteurs numériques.

- La transformation du faisceau: les mêmes opérateurs de structuration optique du champ lumineux de la détection interviennent ici, que ce soit pour le laser des disques optiques comme pour les différents types de projecteurs. Il faut ajouter, pour les terminaux vidéos et numériques, l’affichage matriciel en réseaux géométriques de pixels.

L’analyse comparée des technologies filmiques sous l’angle du signal est une proposition d’éclairage et de méthode. Le signal et sa computation deviennent des concepts et des outils à partir desquels nous pouvons réinterpréter, appréhender et décrire des phénomènes techniques et plastiques de manière précise. Certains artistes, tel Perconte, substitueraient à la computation du signal une intelligence du signal, provoquant sa libération et qui consiste :

- en une critique de la technologie programmante,

- une critique des usages instruits pour leur substituer, au moyen de stratégies de pénétration, la découverte de fonctions particulières,

- enfin, par cette émancipation technique, une critique des formes plastiques codifiées.

 

On nommera alors trois grands domaines d’investigation sur le signal : augmenter la détection, hacker la codification et enfin recoder la visualisation. Pour chacun des trois grands domaines d’investigation, nous allons nous intéresser à quelques champs d’initiatives développés par Perconte sur les voies de la libération du signal.



II. Augmenter la détection

 

La détection suscite, à ce jour, le plus vaste domaine d’investigation du signal puisque, ayant pour procédure principale la conversion du signal lumineux de l’espace-temps en 4D sur une surface photo-sensible en 2D périodique, elle est primordiale dans l’histoire des technologies filmiques. Son programme s’est, par ailleurs, maintenu pendant près de 150 ans. En effet, toutes les innovations issues des recherches scientifiques appliquées depuis l’industrialisation des composants de la détection, aussi spectaculaires et importantes soient-elles, ne remettent fondamentalement pas en cause ce programme.

Augmenter le programme ne peut avoir lieu que si les artistes comprennent le programme source. Nous avançons que les artistes doivent remonter aux idées qui président aux procédures transmises par le hardware afin de déceler comment les faire fonctionner à pleine amplitude. Aussi les algorithmes de ce programme sont-ils sans cesse implémentés, spécialisés et généralisés par nombre d’artistes qui ne se satisfont pas de leurs fonctions. On parlera alors d’implémentation de la transformation, de spécialisation de la modulation et de généralisation de la transduction. Perconte s’empare de ces trois champs d’initiative.



/Implémenter la transformation optique/Intégrer les propriétés stochastiques des fluides terrestres


L’objectif programme la structuration de la lumière selon les lois optiques. Mais plus important encore, il contrecarre et emprisonne tous les phénomènes liés aux déviations lumineuses mais conçus comme des défauts par les constructeurs, telles que les aberrations chromatiques, géométriques (sphérique, coma, astigmatisme, courbures de champ, distorsions), etc. Les résultats de la transformation optique, aussi époustouflants soient-ils ne sont qu’une application de la complexité des lois de déviation assujettie aux normes visuelles ou aux nécessités de l’observation scientifique. Reléguant l’objectif comme un sous-ensemble d’un système optique beaucoup plus vaste, les cinéastes organisent processus et phénomènes techniques sous la forme de l’implémentation, ce qui veut dire à la fois rendre effectif par l’intervention et donc la modification, mais aussi augmenter par des opérations qui permettent l’ajout au fonctionnement régulé.

Les cinéastes peuvent augmenter les fonctionnalités des optiques programmées, sans disposer de savoirs techniques préalables, sans agir directement sur l’objectif, ni opérer de calcul en amont. A partir du film fondateur de l’opérateur Lumière Félix Mesguich en 1900, Nice : panorama sur la ligne de Beaulieu à Monaco, (Film Lumière n°1230 et 1932)8 qui a filmé, perché sur le toit du wagon de tête, la fumée de la locomotive l’envahissant par bourrasque, les cinéastes (tels Jean Epstein, Peter Hutton, Bill Viola, Robert Cahen, Anja Czioska, Philippe Cote, Leighton Pierce) ont immergé leur outil de détection au sein des éléments de la nature ou synthétisés (depuis les masses de particules sous forme de gaz, fumée, gouttelettes, pluies, en suspension, en ascension ou en précipitation, à la densité toujours variable, jusqu’aux nappes sous-marines, et aux mouvements de convections propres aux différents fluides), de manière à ce que le signal subisse, avant sa transformation optique, des phénomènes de déviations d’une immense complexité. Ainsi, les objectifs, ces puissants instruments d’observation, sont-ils utilisés au mieux de leurs fonctions de transfert de modulation9, de leurs pouvoirs séparateurs et de transformation toujours plus performants du signal.

Perconte, lors de son projet sur l’archipel de Madère (débuté en 2012 et achevé en 2014), renoue simultanément avec les îles bretonnes d’Epstein et la côte normande des Impressionnistes. Chuva (2012) est directement relié par l’artiste à Impressions (2012), dans lequel il voulait filmer de grandes vagues, des vents forts sur un océan déchaîné : autant d’images qu’il avait en tête et qu’il n’a jamais pu obtenir10, sinon par un travail figuratif, et cette absence n’a, par ailleurs, pas empêché d’autres projets de naître ; le film convoque également Finis Terrae d’Epstein (1929) dans cette manière de placer l’outil de détection au sein des événements optiques marins provoqués par le soulèvement de l’eau de l’océan par condensation en brume et de sa précipitation du ciel en pluie qui transforment les solides et unifient tout le visible en un seul fluide. La détection des signaux qui a donné lieu à l’unique plan de Chuva s’est faite le premier jour de son arrivée sur l’île principale et son installation près de Funchal en mai 2012.

« Juste débarqué à Madère, à peine descendu de l'avion et arrivé à l'hôtel, il a commencé doucement à pleuvoir. C'était une pluie dont je n'ai pas l'habitude. Une pluie très douce. Le ciel a viré doucement au gris sur l'océan. Alors tout de suite j'ai sorti le pied et ma caméra pour les installer au balcon et filmer. Je regardais le ciel pendant que nous défaisions nos bagages. Je me disais qu'il se passait vraiment quelque chose de merveilleux dehors. Au bout de quelques instants, j'ai fini par aller voir dehors et profiter de la pluie. Et je me laissais aller à regarder disparaître au loin l'île Deserta Grande… »11.

Comme préalable à chacun de ses films, la sensibilité perceptive de Perconte transforme le phénomène naturel en sentiments et émotions esthétiques, la détection technologique devant alors se subordonner à ses impressions. Ainsi l’exprime-t-il : « Le tournage est réellement le moment le plus important pour moi. C’est là que les films vont se faire. Je  sais quand je tourne que j’enregistre quelque chose qui pourra devenir extraordinaire. ». En revanche, déplaçant à Madère la culture qu’il s’est forgée lors de sa première expérience de long tournage dédié à un paysage pendant sa série « Haute-Normandie » (2011-2012), il sait que filmer un paysage suppose de se déprendre des idées préconçues et « de se concentrer sur ce que la nature [lui] offr[e] et de ne jamais considérer cela comme un spectacle (…). C’est la concentration, l’intensité de la présence de la caméra qui permet de donner aux images ce que le paysage offr[e] à ses sens. »12. Le don de la nature et de l’univers pendant ces quelques minutes après l’arrivée de Perconte est une manifestation de la puissance des fluides de l’océan et de l’atmosphère travaillant les ondes lumineuses du soleil. Perconte immerge son outil de détection et le « focalise » alors dans ces épiphanies optiques. L’outil et l’objectif en question sont les mêmes que pour Impressions, un appareil photographique numérique hybride, le Canon EOS 7D datant de 2009, monté d’un zoom EF 70-200mm série L13, produits issus alors des dernières hautes technologies optiques, mécaniques, électroniques et numériques, de très grande précision, lui permettant de filmer en Full HD (1080p). Ces détails techniques sont primordiaux puisqu’ils déterminent les puissances même de la détection : la transformation du signal dans l’objectif est optimale, le comportement de l’optique en FTM étant très élevé sur toute la plage de fréquences, même dans les très hautes fréquences spatiales, atteignant ainsi un pouvoir de résolution parmi les plus élevés en 2012 pour les zooms photographiques professionnels, autorisant un taux de contraste moyen très haut. Les technologies des lentilles fluorites et UD14 associées à quinze groupes de lentilles de verre spéciaux, les revêtements anti-réflexions et de résistance, assurent la transformation du signal avec un seuil minimal d’« aberrations » et de « pertes », par conséquent, l’obtention quasi-parfaite de points images sur le plan du grand capteur CMOS, et ce sur toute l’amplitude des focales de l’objectif. L’électronique assure la communication des données en temps réel entre les micro-ordinateurs de l’objectif et les supermicro-ordinateur et firmware très performants du boîtier ; la partie logicielle est à considérer dans le prolongement de la procédure de transformation optique dans le sens où elles suppléent à ses limites physiques et la rendent « parfaite ». Etant donné la monumentalité des micro-phénomènes optiques dans le champ de l’objectif, les performances du matériel employé par Perconte prennent tout leur sens.

La vue fixe, alors inhabituelle chez Perconte et inaugurée avec sa série « Haute-Normandie », mais poussée à son paroxysme avec sa série « Madeira », est associée à l’usage de la longue focale du zoom ; ainsi peut-il forer un champ très étroit au sein duquel il juxtapose et amplifie, par la très grande profondeur de champ obtenue en diaphragmant au maximum, toutes les variations et interférences de réflexion, réfraction, diffraction, diffusion, absorption du signal lumineux par les gouttes de pluie fines et la brume, dans l’axe de l’appareil photo numérique, de sa pupille d’entrée jusqu’à l’horizon. Exactement comme Bill Viola dans Chott el-Djerid (1979) à la différence qu’il s’agissait des convections de l’air. Si les pouvoirs du système optique sont largement dépassés par la concentration extrême et aléatoire des fines sphères d’eau chutant à trop grande vitesse, sans compter l’infinité de celles en suspension filtrant progressivement le champ, le rendant incapable de séparer chaque micro-phénomène alors que des millions se produisent entre chaque quantification du signal, ses propriétés calculées permettent la transmission impeccable des variations des interactions lumineuses. Ainsi tout autre système optique moins performant aurait-il transmis du bruit. Les trois premières minutes de Chuva déplient, dans les limites technologiques, toutes les infimes gradations qui amènent, par exemple, le frêle et minuscule voilier en bas du cadre à se vaporiser lentement, l’île de l’horizon à fusionner avec l’eau, l’océan rejoindre le ciel. Les sublimes formes fluides de ce flou issu de la simple transformation sont entérinées par la fin du film, après que les processus de compression temporelle de Perconte ont effectué leur travail de révélation, où se répandent alors des images bleues scintillantes de visions sous-marines.

 

 Chuva (2012)

 

/Spécialiser la modulation du champ lumineux/imposer un débit disjonctif/très haut débit

 

Ce que nous nommons champ lumineux est la structuration de la lumière en 4D résultant de la transformation optique à l’intérieur de l’objectif; la modulation de ce champ est la procédure qui a lieu parallèlement à sa transformation jusqu’au détecteur périodique. Contrairement à la transformation, il n’est pas aisé pour les artistes de l’implémenter. La meilleure stratégie est plutôt de la spécialiser. La spécialisation en programmation informatique est un concept de relations entre les composants « parents » et « enfants » d’un programme conçu selon une arborescence non-linéaire logique. Le terme « spécialisation » exprime le fait que les classes « enfants » possèdent les caractéristiques de leurs classes parentes avec la possibilité de les spécialiser, soit par des ajouts, soit par des redéfinitions. Un des processus possibles est d’imposer un débit disjonctif au champ lumineux déterminant, par l’opérateur d’ouverture effective, une quantité maximale ou minimale de données qui atteindra le détecteur périodique, selon un très haut ou très bas débit, autrement dit, une réduction ou une amplification du débit des données lumineuses. Un grand cinéaste virtuose du bas débit est bien sûr Philippe Grandieux qui, de Sombre (1998) à Malgré la nuit (2016), explore les seuils de sensibilité de ses pellicules ou capteurs en réduisant le diaphragme bien en-dessous de ce qu’il est admis dans le cinéma corporatiste. Perconte exploite lui le très haut débit.

Les conséquences de la photophtalmie sur les scientifiques qui ont contribué à la compréhension des phénomènes physiologiques de la perception, tels Isaac Newton et Joseph Plateau15, ou représentées par William Turner dans l’éblouissement de son Regulus (1828-1837), sont rapportées dans le champ des arts filmiques dont les dernières technologies restent toujours très sensibles aux hautes lumières ou radiations. Il est très intéressant d’analyser les stratégies de très haut débit lumineux mises en place dans le numérique, dont les capteurs à sensibilité linéaire, processeurs et algorithmes, déterminent précisément la latitude de pose et la rendent très stable. Un artiste tel que Perconte est un éminent stratège plasticien de la détection ainsi que nous avons pu nous en rendre compte sur Chuva. Le Soleil de Patiras (2007) comme A fleur d’eau (2009) sont ses deux grands films de pure détection. Le premier constitue un exemple parfait de réflexion sur les techniques d’amplification de débit du champ lumineux.

Le Soleil de Patiras est une expérience numérique par laquelle Perconte montre comment élever la détection du signal de l’outil industriel (une mini-DV Sony DCR-PC 120 E) au niveau de la perception humaine et faire remonter à la surface de l’image des structures profondes du réel. Ainsi « la technologie ne saura pas voir ce qu’[il] voit, et (…) avec ses délicats défauts (ses spécificités) elle [lui] permettra peut-être de révéler quelque chose d’où émaneront de nouvelles ondes fondamentalement reliées aux premières »16.

Le voyage en bateau autour de l’île de Patiras, dans l’estuaire de la Gironde, au coucher du soleil, permet à Perconte de mettre à rude épreuve l’outil de détection industriel. En choisissant en 2007 un caméscope DV datant de 2001, l’artiste montre son peu d'intérêt d'être à la pointe de la technologie de l'image dont l'industrie cherche à augmenter sans cesse la définition. « Il n’existera jamais de moyen assez puissant pour capter l’instant »17 écrit-il au sujet du film. Ces technologies seront toujours en basse définition. Et, littéralement, la détection agit comme un filtre passe-bas. Le Soleil de Patiras retourne cette propriété selon trois procédés.

- Perconte filme plein cadre le soleil couchant : le motif de son film est le signal lumineux le plus puissant possible, muni de propriétés spectrales les plus intéressantes.

- Il use des arbres, branches et feuilles de la rive comme d’obturateurs naturels (lorsque la densité des arbres est grande) ou de filtres diffractants (lorsque la densité est plus faible). La fréquence d’échantillonnage du signal lumineux par les arbres dépend du zoom et de la distance mobile entre le bateau et la rive.

- Il joue de la surface de l'objectif de sa caméra porteuse d’une empreinte digitale grasse apposant en ondulations des couches d’une substance translucide déviant les rayons lumineux. Ainsi les revêtements anti-reflets (l’objectif Zeiss est affublé de la technologie T*) ne jouent-ils plus complètement leur rôle de réduction des aberrations chromatiques. Jaillissent des flares par halos et nappes de couleurs saturées, mais aussi de singuliers et magnifiques damiers étirés d'irisation et d'iridescence.

- Il choisit une prise de vue rendue instable par le bateau (secousses, vibrations, roulis), par la variation de la focale (zoom), qui dérèglent souvent la mise au point : chaque point image mêle plusieurs points objets, dénotant l’intensité du rayonnement qui provoque une fusion optique.

 

Le Soleil de Patiras (2007)

 

Cette stratégie a pour conséquence de prendre de vitesse tous les opérateurs de modulation (diaphragme, obturateur) laissés en automation totale. L’échantillonnage du signal lumineux par le défilement des arbres intime au champ lumineux de l’objectif des variations soudaines du très bas débit au très haut débit. Cette extension provoque des explosions de pure lumière. Le dysfonctionnement forcé des opérateurs de modulation pousse le capteur CCD dans ses limites de transduction. Chaque cellule qui le compose possède, en effet, un bruit de fond qui lui est propre. Par ailleurs, la sensibilité à la lumière comme à la couleur de chaque cellule est différente. Ces disparités, qui sont soigneusement réduites dans l’observation scientifique (en astronomie par exemple), sont ici au contraire amplifiées. De même, loin de tirer parti des propriétés linéaires des cellules du CCD, Perconte préfère explorer leur potentiel exponentiel. Les cellules de la matrice sont littéralement saturées, c’est-à-dire que leur capacité de puits à plein est souvent atteinte lors des augmentations brutales du débit. Quand un puits de potentiel est rempli, la charge excédentaire déborde sur les puits voisins des pixels adjacents ce qui entraîne le phénomène d’éblouissement horizontal. L'exposition du capteur persiste aussi pendant le transfert le long de la colonne. Dans ce cas, puisque la capacité à puits plein est dépassée, les charges coulent au cours de leur transfert en générant ces larges, scintillantes et pulsantes lignes verticales. Rajoutons que ces expérimentations radicales sur le débit du champ lumineux se répercutent sur les calculs du processeur (le stabilisateur d'image par exemple), mais aussi le traitement du signal au sein de la caméra qui vise à le normer (tel le filtre anti-flare).

L’arsenal de techniques complémentaires visant à maximiser le très haut débit génère des formes plastiques qui s’additionnent, interfèrent et s’interpénètrent. La force de ce film est de révéler les puissances de la détection par l’instabilité de chacun des opérateurs et composants de l’algorithme de modulation du champ lumineux. Nature vibratoire, spectrale, ondulatoire et corpusculaire de la lumière et formes de la perception de l'éblouissement sensoriel et psychique entrent en résonnance dans Le Soleil de Patiras. En ce sens, il est manifeste d’une voie immense par laquelle Perconte s’aventure.



/Généraliser la transduction/polymorphoser le détecteur/transcrire les données

 

La transduction dans les arts filmiques est l’opération par laquelle la surface périodique du détecteur convertit une grandeur physique d’entrée en une grandeur physique de sortie. Le signal lumineux sera converti en signal électrique ou chimique, tandis que le signal acoustique en signal électrique seul. Les artistes savent que le programme de la détection des technologies filmiques industrielles a trop spécialisé la transduction et qu’ils doivent la soumettre à la généralisation. La généralisation en programmation informatique – symétrie inverse de la spécialisation – consiste à distinguer les caractéristiques communes de catégories de mêmes classes dans l’arborescence non-linéaire du programme, à les factoriser pour les attribuer à une classe parente. La transduction relève ainsi d’une branche de la métrologie, c’est-à-dire la branche de la physique concernant « la science des mesures et ses applications »18 qui rappelle que les principes de transductions sont fondés sur l’existence de divers effets physiques ou chimiques.

Nous proposons de considérer que l’opération littérale des détecteurs 2D périodiques des technologies filmiques est de transcrire les données de la section du champ lumineux : recopier et transférer. La notion de transcription de données en informatique possède la particularité de pouvoir changer le code. Dans le cadre des détecteurs, en effet, elle n’est pas une duplication à l’identique étant donné que, d’une part, elle se joue dans la transformation entre deux matières différentes, et, d’autre part, que la structure discontinue du détecteur (réseau géométrique de photodiodes ou aléatoire de cristaux de sels d’argent) disqualifie toute idée de haute fidélité. L’opération de transcription se retrouve dans les machines ne relevant pas des technologies filmiques mais, par exemple, de l’industrie de reproduction des documents, qu’elles soient numériques – le scanneur – ou analogiques – le photocopieur. Les artistes peuvent puiser dans les capacités de ces outils et leurs limites de détection spécifiques. Pensons par exemple au cinéaste américain Alexandre Stewart qui a choisi le photocopieur. Perconte a opté pour le scanneur.

Alors étudiant en Licence à Bordeaux, il avait déjà rendu des travaux à partir de scans de ses mains ou de son visage à l’aide des premiers scanneurs plats grand public (Gun in the Hand, Scanner in the Head, 1996). En novembre 2003, il reprend le principe mais l’étend : il ne s’agit plus de détecter des fragments de son corps, mais de donner à sa compagne l’équivalent d’un bouquet numérique sous la forme d’un film, isz, qui pourrait contenir tous les sentiments qu’il éprouve pour elle. Il venait de lui offrir des roses fraîches dont il a récupéré quelques pétales à mesure que les fleurs dépérissaient pour les placer dans un de ses cahiers. Quand il a voulu les en sortir quelques jours plus tard, deux d’entre eux sont restés collés au papier ; il a commencé à méditer par le dessin et quelques mots autour de ce phénomène. L’idée lui est venu d’« un film rose, sur les pétales d’une rose, plein d’amour (…) qui raconterait [s]es sentiments et cette histoire incroyable de passion, dans l’abstraction… [il a] imaginé tous ces détails qu’il y a à la surface des pétales, [il] les a imaginés se mélangeant, s’entremêlant… tous en mouvement, pixel par pixel »19. Le phénomène des pétales collés est donc déterminant. Tout d’abord, par l’idée de conservation : c’est ainsi qu’on préserve les plantes dans les herbiers grâce au papier absorbant l’eau des fragments organiques ; il s’agit moins pour Perconte de la préservation en tant que tel des pétales que ce qu’elles symbolisent. Ensuite, par l’idée de contact direct par lequel les pétales font images : pigments et molécules du foliacé aplati ont été absorbés en même temps que l’eau, le faisant adhérer aux fibres végétales ; il n’est pas représentation mais sa propre description. Ainsi Perconte a-t-il opté pour le scanneur qui transpose le dispositif de l’herbier dans le domaine numérique, geste qui amènerait à reconsidérer celui de Stan Brakhage pour Mothlight (1963).

 

 

 

isz (2003)

 

Cet outil de reproduction fonctionne par contact d’un document contre une vitre transparente en-dessous de laquelle passe une source lumineuse linéaire qui balaye horizontalement toute sa surface. Les rayons sont réfléchis par un miroir couplé à la source lumineuse et sont retranscrits par une batterie de détecteurs CCD. Chaque ligne est ainsi décomposée en données lumineuses auxquelles seront attachées des valeurs, permettant à l’ordinateur de recomposer l’image entière du document. Perconte a choisi les pétales en fonction d’affinités électives entre les structures délicates des pétales et ses sentiments. Il les a agencés en calques par transparence et les a montés dans son logiciel de montage en les animant afin qu’ils soient en rotation inverse et forment de nouvelles et complexes corolles pourpres, magenta, rose fuchsia et enfin blanches.

La suite du travail est propre à son investigation des algorithmes d’encodage. C’est le geste inaugural qui nous importe ici, celui d’utiliser un détecteur linéaire pour l’analyse de pétales dont il nous présente un exemplaire dès le premier plan du film, agrandi de manière à dévoiler sa structure interne évoquant une peau translucide et son réseau de vaisseaux sanguins. De même que l’herbier, le scanneur permet l’analyse du fragment à l’échelle 1 en lui retirant ou en convertissant certaines de ses propriétés. Mais mieux que l’herbier, l’outil numérique le conserve sous forme parfaitement reproductible et théoriquement pérenne. Les cinq pétales numérisés par Perconte représentent une tentative d’introduire littéralement du vivant dans la machinerie numérique, non pour le conserver et le figer, mais pour qu’il croisse : « Les roses sont fanées, mais elles ne meurent pas. (…) Les pétales sont tombées, je leur redonne leurs couleurs : elles poussent »20. Ainsi, la réplication sélective des pétales par le scanneur est-elle la condition même du transfert et de la continuité des sentiments.

 

III. Hacker la codification

 

La critique des usages standardisés du signal s’exerce également de façon antagonistique, frontale, en luttant pied à pied contre la standardisation technique et la norme visuelle, par exemple par hacking, en « hackant de la codification ». Nous employons le terme « hacking » selon le sens original défendu par Richard Stallman qui ne consiste pas en « l’infraction de sécurité » (le cracking) mais à explorer les limites du possible, autrement dit, effectuer quelque chose de difficile qui n’a jamais été pensé, dans un esprit d’intelligence non instrumentalisée : faire de la recherche, dont les objectifs sont la transmission, la création, l’innovation, le partage et la communication21. Nous adoptons cette conception de la notion de hacking parce qu’elle nous semble la plus fertile pour analyser les critiques du signal codifié. Ce dernier se présente comme une matière restreinte, soumise par des algorithmes au fonctionnement régulé, et suscite, par conséquent, l’immense curiosité des artistes. Aux agencements et savoirs des ingénieurs, les cinéastes opposent la puissance de leur ingéniosité, avec un soupçon d’astuce – au sens premier de ruse et d’adresse bienfaisante – et déploient toujours davantage de virtuosité par la difficulté des protocoles qu’ils inventent.

/déjouer l’entropie/combiner les signaux/composer les données

 

Tout d’abord, certains cinéastes (tels Nicolas Berthelot, Pierre-Yves Cruaud, Anne-Michèle Fortin, Marylène Negro), déjouent l’entropie, cette grandeur statistique pensée par les théories de l’information sur le modèle de la thermodynamique et décrivant la quantité d’informations transportée par le signal. Au temps des réseaux numériques grand public, le signal codifié se retrouve dans ce paradoxe de devoir véhiculer toujours plus d’informations hautement probables et donc dégradées (selon la définition de l’entropie donnée par les théories de l’information), tout en devant récuser les formes de ce qui est considéré comme du bruit. L’exemple le plus flagrant est le codec dont les standards sont développés par le groupe MPEG depuis 1992. Perconte mène depuis 2001 des investigations plastiques des algorithmes d’encodage pour notamment composer une abondance structurée de données.

Plus qu’aucun autre artiste plasticien du numérique, Perconte témoigne d’une conscience aiguë du paradoxe mutilant que représente le désir industriel d’une résolution absolue des capteurs, terminaux et projecteurs, et le constat de l’augmentation de l’entropie des signaux codifiés.

« La haute définition marketing fait partie de ces outils qui soutiennent le désir de capturer le monde dans sa totalité contre la fuite du temps. Mais beaucoup n’y voient que ce qu’ils veulent et passent vite outre ces défauts qui ne sont a priori pas là. J'aime ces images pour ce qu’elles sont. Je l’exprime radicalement. Et par cette voie paradoxale, la haute définition reprend sa place. Puisqu’au final, c’est chaque pixel qui vibre. Les imperfections de l’interprétation disparaissent. On ne peut pas être plus engagé dans la qualité technique de ce piqué. »22

L’artiste oppose, en effet, une technique étonnante à la fois par sa complexité et par la contradiction apparente de sa logique. Ce que Perconte cherche, « ce sont des éléments pour composer l’image au final »23. Rappelons que le pixel (picture element) représente à la fois l’unité de base des terminaux ou projecteur (généralement sous la forme d’une triade de composants électroluminescents Rouge/Vert/Bleu), mais aussi l’unité des données adressable à la visualisation.

Depuis Uaoen (2003), son premier film sur le motif du paysage, Perconte développe une ample technique de composition pour lutter contre l’entropie, que nous pouvons synthétiser en deux points :

- il mène l’entropie à son terme, puisqu’il explore les paramètres des algorithmes d’encodage, en poussant, par exemple, les taux de compression à des niveaux très élevés, et les agence sous la forme de longues chaînes d’encodages. Chaque plan est ainsi soumis à des centaines de traitements et génère des bribes d’artefacts discontinus.

- L’artiste distingue au sein de cette très grande quantité de données obtenues, celles qu’il juge belles et intéressantes, puis les assemble et combine selon toutes les méthodes de compositing possibles de manière à les concentrer et densifier, dans le temps et l’espace.

L’artiste a porté cette technique à un sommet dans Uishet, Sans titre n°5 (2005-2007). Le tournage s’est déroulé en mai 2005 sur l’étroit courant de Huchet dans le Sud des Landes, avec une caméra maintenue sur pied à l’avant d’une barque pour filmer la progression sur le courant à environ un mètre au-dessus du niveau de l’eau : une mini-DV (Sony DCR-TRV 60E datant de 2003), qui constituait alors une dernière technologie haut de gamme, munie d’une résolution de 2 mégapixels (faible en regard des récents capteurs mis au point par les constructeurs). Perconte souhaitait que la technologie enregistre, selon les puissances de ses spécifications techniques, quelque chose des variations de la lumière matinale sur l’eau et de ce sentiment qu’il éprouvait d’une traversée infinie à travers les sous-bois.

Nous distinguons quatre étapes dans le travail de composition de l’artiste.

- Structure générale des données : établir un montage image et son précis à partir des signaux compressés au format DV et fournis par les caméras, en deux parties séparées par un long fondu au noir. Ces données constituent le matériau de base à partir duquel toutes les transformations seront effectuées.

- Premières combinaisons : export du film en image par image avec des logiciels de compression JPEG afin de développer des artéfacts à partir des seuls éléments codés ; variation du niveau des blancs et création de mouvements de luminance et de chrominance afin de pouvoir traiter différemment le ciel, l’eau et les arbres, lors des compressions suivantes, et faire surgir des couleurs ; enfin, création de chaînes de compression : Divx > 3ivx > mpeg2 > H.264 avec toutes les modulations possibles des taux de compression et l’enlèvement de certaines images-clés pour ne garder que les données différentielles, selon les éléments que Perconte veut travailler. Des centaines de gigaoctets sont nécessaires pour découvrir des combinaisons de point, de blocs, de traînes, de couleurs, de contours ainsi qu’une très large gamme de textures.

- Sélection : Sous After Effect, Perconte pense par sélection, soit en choisissant dans les données une couleur qu’il va attribuer à toute une séquence qu’il va recompresser, soit en découpant une zone de données compressées qui l’intéresse et en la plaçant sur un calque séparé. De nombreux éléments sont traités individuellement, par exemple, les données d’une branche, qui ont certaines qualités plastiques dans une version du plan très compressé en divx, peuvent être réinterprétées vers l’abstraction, par variation de leurs niveaux de blanc et de noir et la saturation des couleurs.

- Assemblage : Perconte précise qu’il “ne modifie jamais la composition de [s]on image originale, les éléments sont collés les uns sur les autres et composés de telle façon que le paysage reste intègre.”24 Son travail avec After Effect a généré des centaines de calques temporels (autrement dit, des fragments de données en déplacement et variations), qu’il va disposer sur le montage original ; ainsi place-t-il plusieurs éléments dans le cadre pour conserver l’unité, sans jamais employer une seule transparence. Uishet contient jusque 50 couches de calques.

- Alliage : le travail de composition des données conduit Perconte à les structurer selon un agencement complexe de mosaïques labiles. Mais il mentionne dans son Cahier : « les mosaïques sont trop superposées à l’image, support trop mathématique »25. Ainsi, tout le problème de l’artiste vient de ce que son matériau de données et les logiciels qu’il emploie déclinent une logique algorithmique dont les procédures, mêmes surverties par l’artiste, ne peuvent exprimer des estimations, prédictions et combinatoires que par le calcul le plus rigoureux. Il décide ainsi de recompresser les calques superposés, afin d’allier ces mosaïques de données à structures temporelles et valeurs plastiques différentes.

 

  Uishet, Sans titre nº 5 (2005-2007)

 

Perconte, en déconnectant les données compressées de leur assignation originale, fait surgir l’hétérogène de l’homogène. Il vise la concrétion à très haute densité de données à grandes variations chromatiques, spatiales et temporelles. Il crée une traversée de formes chatoyantes d’une richesse sidérante, dont les modes d’apparition sont le masque, la traîne, la grappe, le bruissement, la turbulence, la masse irradiante, le scintillement, l’incandescence et l’éblouissement. L’artiste anticipait à pleine puissance l’intérêt de ce que la haute définition allait bientôt offrir, mais qui n’en n’était alors qu’à ses balbutiements (par exemple le HD Ready en 720p de 2005), puisqu’il retrouvait la coïncidence exacte entre la donnée et le pixel. Aussi, Perconte explique-t-il en 2007 que le fichier de son film est “dans un format un peu hybride qui permet d’adapter une sortie spécifique à chaque type de projection… de façon à ce que chaque pixel soit conformément projeté sur l’écran sans perte par rapport au modèle. Cela complique un petit peu la diffusion mais le résultat est sans appel.”26 Avec Uishet, l’artiste réussit l’une des plus belles et virtuoses compositions de données jamais effectuée. Pour se convaincre du prodige que représente ce travail, se reporter à l’image du film que Perconte a lui-même composé en une fine bande verticale27 à partir de toutes les données, explicitant, outre la structure chromatique et temporelle, la vertigineuse entreprise de composition depuis l’élément que représente un pixel à l’ensemble que représente un film (à lire de haut en bas).



/déjouer l’entropie/boucler le signal/macro-boucle

 

D’autres artistes remettent en cause la notion même d’entropie (citons par exemple HC Gilje, Augustin Gimel, Schmelzdahin, Pierre Villemin, Peter Tscherkassky), en étendant le domaine du signal, c’est-à-dire, en réintroduisant dans le signal l’ensemble des phénomènes, comme le bruit, jugés antinomiques à l’information véhiculée, donc en l’enrichissant de toutes les données qui peuvent surgir des spécificités des matériaux et des procédures de la computation.

Une des techniques possibles consiste à boucler le signal. Un grand principe de l’automatique, rapportée à la communication au sein des machines, est celui de l’action en retour ou feedback. Norbert Wiener considère que « les parties d’une machine doivent communiquer entre elles au moyen d’un langage approprié »28, en parfaite autonomie, excepté lors des stades initial et final du processus. Au cours de cette conversation, il est nécessaire de prendre connaissance de ce qu’a déjà dit la machine. Wiener présente le régulateur de vitesse de la machine à vapeur de James Watt (1788) comme précurseur de ces systèmes de contrôle. Il cite également d’autres exemples mécaniques, tels que la réalisation concrète de la machine à différences de Charles Babbage (1821) par Vannevar Bush grâce à l’invention d’un amplificateur de couples pour l’entraînement d’un long train d’engrenages, ou encore le servo-moteur de direction des navires29, mais précise que l’opération peut s’effectuer par des moyens électriques et électroniques qui mèneront à l’âge de l’automatisme30. L’action en retour est négative puisque l’amplification des forces provoque leur propre compensation et amortissement, autrement dit, la boucle de rétroaction vise au contrôle de la stabilité des machines. On la retrouve au sein du signal computé des technologies filmiques.

Cependant, les artistes constatent qu’ils peuvent exploiter des boucles de rétroaction positives du signal, c’est-à-dire faire circuler celui-ci pour qu’il se transforme vers de hautes formes d’instabilité. Ils créent, tel Perconte, des macro-circuits, en refermant par exemple le circuit de la computation sur lui-même selon les deux alternatives décrites par notre modèle: la première en le branchant directement du traitement à sa visualisation, de Nam June Paik à BOTBORG et Nicolas Berthelot (c’est ce que l’on a appelé le larsen vidéo, ou le feedback, et que nous rapportons à notre réflexion plus générale sur la notion technique de boucle du signal); soit en faisant emprunter au signal, après détection, le chemin du traitement et de l’enregistrement, tel Perconte.

Les premières pièces vidéo de Perconte, telles que Razer (1996), Mains (1997) et Poignets (1997), s’inscrivent dans une lignée de techniques initiées en argentique – par exemple, par Malcolm Le Grice et son célèbre Berlin Horse (1970) – qui consistent à refermer le circuit de la computation sur lui-même. En effet, le principe commun à ces trois vidéos était de filmer en gros plan avec un caméscope Panasonic AG-196 SVHS des parties du corps de l’auteur – joues, mains et poignets –, de détecter la visualisation de l’enregistrement sur un téléviseur, et boucler tout le circuit quelques dizaines de fois. De même que Le Grice pratiquait le chevauchement « des trois surfaces (pellicule, écran, plan projeté, que le refilmage décale pour que nous puissions dissocier ce qu’une séance traditionnelle confond) »31, Perconte souligne les spécificités de la bande magnétique (qui se dénonce par des drops et parasites), de l’affichage matriciel (dévoilé par les moirés issus de l’interférence entre le réseau matriciel du capteur), du balayage électronique (révélé par son différentiel de fréquence avec la vitesse d’obturation de la caméra sous la forme de bandes horizontales en translation), du support de visualisation (le terminal apparaît dans Razer). Mais le signal en boucle dans le circuit fermé de la computation s’amplifie après chaque passage, de sorte que ce qui était séparé finit par fusionner. Cette recomposition peut prendre deux sens. D’une part, Perconte met le corps à l’épreuve des technologies : la peau à vif dans Razer, les doigts ligotés par des fils de fer dans Mains, ou les avant-bras scarifiés de Poignets, ne sont pas transfigurés par le phénomène de complexification du signal qui semble, au contraire, vouloir souligner un lien de cause à effets entre le circuit mutilant des technologies vidéographiques et les traces et symptômes de souffrances physiques et psychiques. Mais d’autre part, selon le principe de rétroaction, Perconte met également ces technologies à l’épreuve du corps : une idée qui traverse tout l’œuvre de Perconte, et que nous avons déjà évoquée à propos de isz, est d’introduire le vivant dans la machinerie ; ici, le vivant permet de faire jaillir des données plastiques, à partir des ressources libérées par les constituants et composants électroniques, qui s’intègrent au signal mis en boucle.

 

 Razer (1996) 

 

Notons que le principe de la boucle va devenir une technique-clé chez Perconte, qu’il va étendre dans ses films et œuvres numériques32. En effet, il s’est rendu compte à partir de Promenade (1999), que la propension du signal analogique à pouvoir être transformé dès lors qu’il est en boucle (parce qu’il représente directement les variations des phénomènes physiques et qu’il est, par conséquent, sujet à recueillir la moindre variable), n’était plus partagée par le signal numérique grâce à la robustesse que lui confère son codage. Ses expériences de mise en boucle de sa caméra numérique avec ses terminaux d’ordinateur visualisant des pièces générées sur internet, telles Matre zias e imaji imacul ou encore Phex (2001) l’ont, par conséquent, amené à vouloir davantage utiliser les propriétés des pixels d’affichage (filmés en gros plan, sous divers angles), les effets de moirés, jusqu’à ce qu’il découvre, fin 2001, sur Early Abstraction (wisz) (2001) ses premières techniques de compression. Avec Uaoen (2003), il met en place les premières expériences de chaînes de compression qui consistent en une mise en boucle de l’enregistrement et du traitement. Sur certains films, comme Santana (2013) ou L (2014), le nombre de compressions successives, pour certaines étapes de son travail, est tel que Perconte écrit de petits scripts pour que l’ordinateur effectue les centaines de calculs nécessaires à partir d’un premier fichier que l’artiste lui fournit. La boucle est également l’élément fondamental de ses performances audiovisuelles, Dépaysages (2012), Extension Sauvage (2013), Mille lumières (2013), Salomé (2014), Soleils (2015), Hyper Soleils (2015) sous la forme de la micro-boucle permettant d’explorer en temps réel la compression de fichiers.



/Extraire les données/décrire/révéler


Par ailleurs, certains cinéastes effectuent de l’extraction de données pour explorer les constituants du signal. Ils subvertissent les méthodes du data-mining  développées par les entreprises et les gouvernements pour le champ d’investigation des comportements humains et réinscrivent celles-ci dans les arts filmiques : ils développent des techniques descriptives qui procèdent par sélection, modification et organisation afin de comprendre une information sous-jacente à un ensemble important de données. Ainsi par exemple de Pierre-Yves Cruaud ou encore Pierre Villemin. Perconte a développé depuis 2001 un ensemble de techniques de détournement et dépassement des algorithmes d’encodage afin de travailler avec les constituants même des signaux numériques de sa caméra, de son appareil photo ou de films téléchargés sur le web. La compression est au cœur de son travail et agit comme un révélateur du signal.

Apportons, tout d’abord, quelques informations sur la compression. S’imposant chaque jour d’avantage, cette technique complexe a banalisé la manipulation des signaux numériques dans les domaines broadcast et grand public. Elle consiste à réduire la quantité d’information du signal et son débit. Depuis les débuts de l’histoire de la télévision, on a cherché à restreindre à des valeurs raisonnables l’encombrement du signal vidéo (réduction du nombre d’images transmises par seconde, réduction de la définition verticale et horizontale, etc.). Apparue dans les années 80, la numérisation des images vidéo conformément à la norme 4 :2 :2 engendre des volumes de données gigantesques, donc des débits extrêmement élevés au regard des faibles capacités des supports de stockage et de transmission de l’époque. La compression a eu pour but de trouver la manière la plus rationnelle de coder les images tout en préservant au maximum leur contenu. Elle supprime certaines informations de l’image et en simplifie d’autres, en considérant que les modifications apportées échappent à la perception humaine. Dans le cas d’une image fixe, les techniques de compression s’appuient sur une analyse du contenu de l’image et tirent profit de son organisation interne afin d’en éliminer les redondances spatiales. Par exemple, une image comporte souvent des plages uniformes plus ou moins grandes, composées de pixels presque identiques que l’on peut coder de manière compacte en attribuant une même valeur moyenne. Dans une séquence animée, la compression peut, par ailleurs, exploiter le fait qu’il existe très souvent une grande similitude entre plusieurs images successives ; ces redondances temporelles permettent de ne transmettre que les différences entre des images-clés sous la forme de coefficients et de vecteurs de mouvements et de couleurs. Le plus souvent, la vitesse des mouvements est largement inférieure à la fréquence de rafraîchissement des images (là aussi une économie de données peut-être réalisée). Concrètement, la compression fait appel à une variété d’algorithmes de codage qui réorganisent ou éliminent ce que l’industrie conçoit comme des données superflues. Le travail de Perconte se situe au rebours des conceptions de l’industrie selon cinq axes.

- Les architectures des algorithmes sont conçues pour éliminer les données mais respecter l’information. Perconte ne s’intéresse qu’aux données.

- Rien n’est redondant ni superflu pour lui dans le signal ni dans les algorithmes. Perconte ne réfléchit pas en termes de déperdition, dégradations, défaut. Il sait que le signal codifié est un modèle arbitraire insatisfaisant, mais qu’il recèle des ressources. Il sait que les algorithmes, aussi sophistiqué soient-ils, sont des outils pauvres d’un point de vue conceptuel, mais qu’ils peuvent devenir des outils d’investigation d’une puissance prodigieuse.

- Il choisit ces algorithmes qu’il fait fonctionner à l’aide de logiciels (QuickTime, After Effect, Squid), le plus souvent en surrégime, dès qu’il passe dans la phase active de son investigation, puisqu’il intime des taux de réduction du débit très élevés de manière à ce qu’apparaissent des artefacts, des distorsions et couleurs dans l’image. Il cherche le point de rupture pour rendre le fichier illisible par le logiciel d’encodage ; à ce moment-là, il change d’algorithme afin de poursuivre les compressions.

- Il choisit des logiciels de préférence munis d’une interface graphique lui permettant de paramétrer, sous forme de lignes de commande, certaines fonctions de l’algorithme (l’enlèvement de certaines images-clés, formats, taille des blocs, etc.)

- Il associe des chaînes de compression, mené par l’intuition plutôt que par le calcul. S’il a développé une forme de prescience depuis qu’il explore la compression, il reste surpris et découvre sans cesse.

Ainsi « cherche[-t-il] à donner aux spectateurs une place dans cet avenir du cinéma en numérique où la matière renaît et change, où les codes changent.
 C’est dans cette perspective que depuis plus de dix ans [il] pousse les images numériques dans leurs retranchements mathématiques »33. La technique de révélation consiste, en effet, à faire surgir ce que les mathématiques industrielles appliquées au traitement du signal n’ont pas prévu et sont incapables tant de prévoir que de prévenir.

Funchal (Madeira) (2013), installation en doubles tablettes numériques, réalisée pour la Galerie Charlot, constitue une très belle introduction à la technique de révélation par la compression chez Perconte, parce qu’il s’agit d’un travail sobre mais d’une grande force plastique. Lorsque Perconte découvre l'île de Madère en 2012, il ne vit pas cette découverte comme un simple retour à une nature merveilleuse, mais comme une confrontation à l’emprise partielle mais néfaste de l'homme sur son environnement, conditionnée par l’économie (développer les emplois et le profit à travers le tourisme). Le dispositif mis en place pour Funchal assume le paradoxe de représenter, à l’aide des technologies numériques, un paysage dénaturé. 

La caméra HD, reléguée à son statut de détecteur et donc de machine à produire des données, est embarquée dans un véhicule le long d’une route sinueuse à travers la forêt jusqu’à Funchal et l’océan. Elle est maintenue en contre-plongée afin de réduire la portion de route goudronnée et laisser paysage et ciel envahir les trois-quarts de l’image. Perconte prend cependant le soin de préserver les véhicules passant dans le champ, puisqu’il les épargne souvent de trop fortes compressions pour étudier leur interaction avec l’environnement. L’artiste prête, en effet, une attention particulière aux types d’interactions entre le monde technologique, les hommes, l’urbanisme et la nature. Ainsi, le traitement par compressions met-il en évidence ces interactions en s’appuyant sur les poussières du pare-brise, les gouttes de pluie ruisselant, les essuie-glaces pivotant, les véhicules, les arbres, les roches, les poteaux et câbles téléphoniques, les piétons, les murs, les maisons, les immeubles, les ponts. Le jaillissement de phénomènes plastiques depuis les artefacts n’est rendu possible que par les mouvements et vitesses relatives : le travelling avant qui permet au champ de la caméra de balayer le paysage selon une amplitude et une oscillation déterminées par les fréquents virages, le mouvement général du véhicule descendant vers l’océan, les panoramiques verticaux de la caméra, les vibrations provoquées par la route se répercutant dans le corps de Perconte et se transmettant à la caméra, ainsi que chaque déplacement de chaque élément par rapport au champ de la caméra. L’ensemble des mouvements relatifs détermine également les variations de luminosité des plans, le dévoilement ou l’obturation du soleil. A mesure que nous approchons de Funchal, ville, remparts et béton dévorent le paysage numérique. Or, les traitements par encodage transforment les violences infligées par les éléments technologiques et urbains en complexité et beauté formelles. Par ailleurs, ils tendent à se détruire les uns les autres et à se faire contaminer par les pixels de la nature : les immeubles et ponts de Funchal, par exemple, adoptent la propriété diaphane du ciel.

 

Funchal (Madeira) (2013)

 

 

Les deux écrans n’offrent aucune stéréoscopie et jouent au contraire de la multiscopie selon deux procédés. D’une part, chaque écran présente la même piste mais différée d’environ six minutes et dix secondes – cette désynchronisation est elle-même variable. D’autre part, le traitement par algorithme de compression a été effectué dans le sens premier d’obtention du fichier pour l’écran de gauche, et en sens inverse pour l’écran de droite, ce qui génère des formes plastiques strictement opposées : les éléments de l’image à gauche laissant des traînées et blocs de pixels derrière eux, tandis que ces mêmes éléments, à droite, rejoignent et résorbent leurs traînées ; les températures de couleur des écrans, à chaque instant, sont inverses, de même leur contraste, leur luminosité et leur saturation. Les tensions internes des plans se retrouvent donc déclinées dans le dispositif à double écran. Le spectateur livre un effort constant pour rassembler ce qu’il voit en un tout homogène et sensé. Il finit par y arriver, d’abord par intuition, puisque se produit sporadiquement un sentiment confus de réminiscences plastiques : le spectateur croit, sans conviction, que ce qu’il voit dans l’écran de droite serait une transformation différée de l’écran de gauche. Lorsque ce dernier dévoile, après un excès de ville et alors que passe un immense pont qui traverse le cadre, la puissante et éblouissante lumière solaire qui troue le pont et fusionne tout dans le blanc, le spectateur dispose d’un indice plus probant. Après vingt secondes, le blanc passe au seuil d’un bleu pastel, puis un nuage prend forme et une forêt émerge dans ses verts rassurants. Un peu plus de six minutes plus tard, c’est au tour de l’écran de droite de subir une métamorphose plastique similaire et le spectateur se souvient alors que le film, dans cet écran, avait débuté ainsi, depuis ce bleu pastel. La fin de cette boucle est une révélation pour le spectateur et l’amène à rester devant l’installation pour faire l’expérience renouvelée de l’ensemble du circuit par lequel, invariablement, la nature reprend ses droits.

Árvore da Vida (2013) est l’une des pièces maîtresses du cycle de Jacques Perconte sur l’île de Madère qui a déjà donné lieu à deux performances avec Jean-Jacques Birgé (2012) et Jeff Mills (2013), des installations, des installations génératives et à plusieurs films. C’est l’histoire d’un arbre à l’orée de la forêt primaire du parc naturel de Madère, vestige de la plus vaste forêt de lauriers autrefois répandue il y a 15 à 40 millions d’années. L’investigation plastique des algorithmes par agencement de fonctions nouvelles lui permet de révéler des propriétés insoupçonnées du signal original et de créer des structures de nuages de pixels. Perconte a tourné en plan-séquence et en très longue focale, à une distance de 200, cet arbre en réalité tout petit mais qui lui plaisait beaucoup parce, pris dans masse végétale très dense et sans profondeur, produisait une image saturée de vert. Il a réduit le diaphragme pour obtenir un maximum de netteté et de détails à l’arrière plan. Avec le vent, tout bougeait légèrement, l’arbre, bien sûr, mais également le fond, composant ainsi un plan plastiquement très riche. Puis il a fait varier la vitesse du plan en introduisant un ralenti progressif avant de revenir à la vitesse normale, puis a opéré un nouveau ralenti jusqu’à ce que plus rien ne bouge. La structure temporelle du film provient de ce mouvement de ralenti et d’accélération. Il a ensuite décliné 8 versions de ce plan en GIF, ce qui signifie qu’il a extrait toutes les images du film en images fixes dans un dossier, ce qui représente, à raison de 9 minutes à une vitesse de 25 images par seconde, 13500 images. Ensuite, il a transformé les images fixes en GIF pour le web, à l’aide du GIF 89a, en bichromes, trichromes ou quadrichromes. Le fichier est réduit alors réduit à une formation de points. Les images sont normalement synthétisées par le GIF en valeurs de 256 couleurs, mais Perconte a travaillé sur des échelles nettement plus petites de 2, 4, 8, et 16 couleurs maximum. C’est un travail d’organisation des points en nuages et structures avec du bruit, en camaïeux de verts à partir d’une sélection de teintes vertes de l’image originale. Puis tous ces fichiers ont été retravaillés selon ses méthodes de travail par compression temporelle et différents types de compression dérivées des Mpeg4 effectuées selon une chaîne de compressions successives avec paramétrages via des interfaces graphiques, et impliquant notamment des réductions variées de débit dans des taux très élevés. Les bleus, les jaunes, les rouges, les roses sont révélés par l’intensification des compressions. Ces pixels sont très localisés d’autant plus qu’il s’agit d’un plan fixe. Perconte les a suivis, amplifiés et poussés (en ajoutant de la saturation pour qu’elles ressortent plus). Enfin, il a élaboré un grand compositing à partir d’After Effect par calques de sélection de certains pixels de couleurs, des ombres, des hautes lumières et les a superposé en jouant sur les transparences (une vingtaine de couches), l’idée étant d’obtenir des structures extrêmement délicates avec de lents mouvements de points ultra lisibles.

Árvore da Vida travaille l’impression du réveil et de l’excitation de la matière de laquelle un arbre semble naître. Perconte y traite le motif de l’arbre non selon sa forme apparente mais en aplats denses de micro-touches discontinues et vibrantes aux infimes nuances de teintes et de tons, à travers lesquelles l’arbre semble se disséminer dans le plan. Le motif de l’arbre de vie, principe de fécondité et de fertilité, est injecté dans les technologies filmiques numériques : ce signal normé et pauvre contient dans ses données un potentiel de fertilité plastique infinie que Perconte révèle par le détournement et l’intensification des spécifications techniques des algorithmes. Un tel travail plastique sur le point nécessite des normes de résolution élevée en termes de décompression avec de hauts débits et les derniers supports de visualisation, écrans et projecteurs. Perconte déclare que « ce qu’[il] donne à voir ce sont ces tensions qu’il y a entre le monde tel qu’on le connaît/représente et ses images telles qu’elles sont physiquement, après les manipulations technologiques… »34. En effet, la recherche conduite par Perconte sur la révélation du signal codifié par des algorithmes normés – une prouesse qu’il porte et reconduit toujours plus loin – n’a pour l’auteur d’autre perspective que d’offrir des images coïncidant enfin avec le réel.

 

Árvore da Vida (2013)

 

IV. Recoder la visualisation

 

La critique des usages standardisés du signal peut enfin se dérober complètement aux standardisations en créant d’autres dynamiques du signal, en « recodant la visualisation ».



/pirater le programme/tronquer les données

 

S’emparer du programme de visualisation pour le détourner de son objectif premier et l’employer pour son propre usage afin de créer de nouvelles déterminations techniques est une méthode employée de manière récurrente par les artistes. Il est possible de tronquer les données du hardware ou du software d’éléments nécessaires au bon déroulement du programme. Ainsi, certains processus inventés par Perconte pour le software restructurent-ils le programme de visualisation, dans le prolongement de ceux de Paul Sharits pour le hardware lorsqu’il ôtait le mécanisme de l’obturation et de l’intermittence du projecteur (Color Sound Frame, 1976).

Entre 2011 et 2012, Perconte élabore, sur l’environnement de programmation graphique Max/MSP, un outil lui permettant de naviguer dans les fichiers vidéo. Ce travail vient de sa confrontation avec l’exercice de la performance audiovisuelle qu’il a éprouvé en particulier entre 2000 et 2004 au sein du collectif ewmo35 sans être satisfait des résultats. En effet, il préparait des rushes de matériau plastique à base de compression qu’il mixait, lors de session d’improvisation avec des musiciens tels que Kid606 et Christian Fennesz, à l’aide du célèbre logiciel de vjing Resolume : autrement dit, la compression au sein des fichiers était déjà calculée et stabilisée, donc inaccessible. Si Jacques Perconte a mis de côté les performances audiovisuelles à partir de 2004, il faut noter que le film Phex (2001) ou la pièce Wisz (2002), tout à fait majeurs dans le développement de son travail, sont issus de ces performances. En 2011, il reprend ses travaux dans l’idée de revenir à la performance audiovisuelle, parce que les conditions techniques étaient réunies (processeurs et mémoires suffisamment rapides) mais aussi parce qu’il a eu l’idée de l’exploration programmée de la compression pour une installation générative à partir de son film Impressions (2011). Si le résultat plastique ne fut pas à la hauteur de ses attentes, c’est parce que l’automation du processus d’exploration aléatoire à partir de Max/MSP générait souvent des formes bien moins intéressantes que dans le film lui-même, ce qui l’a convaincu qu’il lui fallait opérer les choix en direct. En novembre 2012, il jouait ses images de l’île de Madère avec Jean-Jacques Birgé, Antonin-Tri Hoang et Vincent Segal lors de la performance Dépaysages à Montreuil.

Perconte a mis au point une méthode qui consiste en deux opérations : il « casse » son fichier vidéo, c’est-à-dire qu’au moment de sa compression pour être utilisé comme matériau dans Max/MSP, il lui enlève toute structure temporelle ; par ailleurs, il ôte à Max/MSP, logiciel performant permettant d’inventer et de calibrer de manière très sophistiquée des effets de mixages des pistes vidéo, toutes ses fonctions essentielles pour le réduire l’état d’un simple lecteur.

Pour Dépaysages , il a élaboré un montage de 2h45 de ses rushes de son cycle de Madère, en travaillant certaines séquences selon ses processus sans cesse renouvelés d’investigation plastique des algorithmes d’encodage et par calques de sélection des artefacts, qu’il stabilise par décompression, et en gardant intacts d’autres plans. Une fois assemblés, il a recompressé ce montage en paramétrant dans l’interface graphique de son logiciel d’encodage l’enlèvement de toutes les images-clés, ou trames de référence, qui contiennent toutes les informations de l’image, et la conservation des seules variations par rapport à la précédente ou à la suivante, c’est-à-dire les trames différentielles. Il a pris soin d’enlever également la première image-clé, contrairement au tutoriaux de datamoshing qui conseillent le contraire, afin de glisser très vite dans le fichier. Par conséquent, le fichier ne possède plus aucune structure temporelle, c’est-à-dire qu’il n’a pas de sens a priori. Par exemple, un lecteur type QuickTime est incapable de le lire : il affiche une image grise puisqu’il ne reçoit aucune information sur l’image référentielle lui permettant de décoder le fichier. En revanche, Perconte peut naviguer à l’intérieur : en cliquant à n’importe quel endroit sur la timeline, il avance toujours dans le temps, le logiciel interprétant la nouvelle image intermédiaire comme étant la suivante. A l’intérieur de ce matériau, il peut créer des boucles :

« grâce aux vecteurs de mouvements et de couleurs véhiculés par les images intermédiaires, les nouvelles couleurs prennent le dessus : ainsi quand je passe par exemple de l’océan à des arbres, les couleurs de l’océan sont dans les arbres et petit à petit les couleurs de l’océan vont être balayées. Si je clique, toujours sur le player, de manière répétitive au même endroit, pour créer une boucle, la vidéo avance et reprend là où elle était, et, puisque je clique vite, les boucles se rapetissent et font monter en intensité les couleurs. »36

En se déprenant de Max/MSP, Perconte réduit celui-ci à un outil de navigation précise : il crée une interface qui présente tout le séquençage des plans en boucles sous la forme de plusieurs dizaines de boutons nommés selon les thèmes et motifs abordés dans le montage ; chaque boucle peut être paramétrée. Ainsi, Perconte a-t-il pu enfin explorer la compression en temps réel. La modulation des boucles (sens, vitesse, réduction, zoom, etc.) détermine la création de formes plastiques labiles aux couleurs chatoyantes, sensibles parce que provoquées par le ressenti et l’intuition de Perconte sur l’instant de l’improvisation avec les musiciens. L’exploration de la compression en temps réel remet en jeu, selon les termes de Perconte, le passage « de l’image du paysage au paysage de l’image », c’est-à-dire la tentative de découvrir toutes les surdéterminations entre les composantes du signal compressé et le motif, ce dernier se révélant infini. Cette méthode s’est développée et affinée au cours des cinq autres pièces, Extension sauvage (2013) avec Jeff Mills et Mille lumières (2013) avec Julie Rousse, Salomé (2014) avec Hélène Breschand, Soleils (2015) et Hyper Soleils (2015) avec Jean-Benoît Dunckel.

 

Hyper Soleils (2015)

 

/pirater le programme/Attaque virale/substitution

 

L’attaque virale est un processus inspiré du virus en informatique qui était, début des années 70, un petit logiciel autonome utilisé pour le jeu, avant d’acquérir, dès les années 80, un caractère malveillant et violent qui ramenait l’informatique à ses origines militaires : il s’intégrait dorénavant dans le code des programmes pour perturber le comportement des systèmes d’exploitation ou détériorer certaines de leurs fonctions, détruire des fichiers ou toutes les données d’un ordinateur et a commencé à se répandre à partir de l’essor du web, revêtant d’autres fonctions tel que l’espionnage. Nous opérons deux différences majeures dans le champ du recodage de la visualisation qui nous concerne : ces petits programmes proposés par les artistes sont toujours structurants, bienveillants et fertiles ; ils déconnectent le virus de ses prérogatives régressives, mais en déclinent certains principes, pour lui redonner ses fonctions offensives originelles mais créatives et ludiques ; d’autre part, ils ne sont pas destinés à se reproduire ni à se propager: ils peuvent s’appliquer indéfiniment, telle la substitution chez Perconte.

En 2004, Perconte conçoit le site générateur d’images I Love You 37, essentiel pour comprendre les implications éthiques et esthétiques d’une telle pratique à l’ère du réseau et les transposer au champ du film. Le projet est né de la coïncidence de deux événements: une proposition de publication de ses photographies numériques qu’il pratiquait alors inlassablement en les rephotographiant sur des écrans d’ordinateur ou à partir de projection numérique; et sa rencontre amoureuse avec celle qui est devenue sa compagne et modèle, Isabelle Silvagnoli.

La collection obtenue d’une centaine de photographies vient de l’exploration extensive des détails du corps de l’être aimé pour tenter d’éprouver la représentation de l’amour. Le résultat plastique ne se montrant pas à la hauteur de l’intensité et de la beauté des sentiments, Perconte a écrit une application open source en PHP38, le love hunt code, littéralement « le code chasseur d’amour », afin de quantifier l’amour contenu dans le code source des images numériques affichées sur le web. Cette quantification est effectuée par l’application qui se déclenche dès qu’un internaute clique sur une des images de la collection : elle calcule une variable précise en prenant en compte tous les paramètres physiques de la connexion – le serveur, l’adresse IP de l’internaute, la date et l’heure – mais également les constantes mathématiques de proportions et d’harmonie universelle – le nombre Pi et le nombre d’or ; puis elle ouvre le fichier de l’image appelée, le transforme en code hexadécimal et y substitue à chaque occurrence de la valeur recherchée (un binôme de chiffres et de lettres) la phrase “I Love You”, changeant ainsi l’architecture du code décrivant l’image. Le navigateur sollicité pour visualiser l’image compile le code modifié mais ne peut l’afficher qu’en partie, au prix de transformations plastiques radicales telles que des reconfigurations des structures de pixels, l’émergence de nouvelles couleurs, entraînant la réinterprétation des motifs ou sujets originaux ; plus grande est la quantité d’amour pur, plus intense est l’abstraction. Les motifs du corps aimé peuvent se mêler voire fusionner totalement avec les figurations de l’amour. Le navigateur se retrouve parfois dans l’incapacité de visualiser l’image entraînant l’apparition d’une icône brisée accompagnée d’une citation de Roland Barthes : « Vouloir écrire l’amour, c’est affronter le gâchis du langage, cette région d’affolement où le langage est à la fois trop et trop peu, excessif (…) et pauvre »39. L’icône brisée évoque, selon les codes visuels d’Internet, un iconoclasme numérique, mais signifie plutôt que les limites de visualisation des protocoles, programmes en ligne et langages de programmation ont été dépassées par un trop-plein d’amour inexprimable. Cette substitution, dans les codes sources des images, d’une valeur hexadécimale par l’écriture littérale de l’amour élève le programme de Perconte au rang de ce que nous proposons de nommer un « loveware »40.

 

 I Love You (2004)

 

La technique de substitution trouve d’autres déclinaisons dans certains des films de Perconte. Citons, par exemple, Oops I Dit it Again (2002) qui substitue au fichier mis à disposition par l’artiste en pair-à-pair et intitulé comme le clip érotique tant attendu de Britney Spears, celui d’un faux vidéo clip; isz (2003) qui substitue à la détection traditionnelle d’un pétale de rose sa détection linéaire par contact (scanner); mais aussi Antoine et Léonard (2011) dans lequel l’algorithme comportemental du Pixel Blanc d’Antoine Schmitt (1996-2000) est introduit par Perconte dans l’image de la Joconde afin que ses trajectoires remplacent et repoussent, par effet de compression, les pixels de la peinture, ou enfin les camaïeux de verts d’Árvore da Vida (2013) obtenus par le paramétrage des GIF à partir de quelques tons verts des couleurs d’origines qui se substituent à toutes les autres.



/creuser le code du modèle/cultiver un écosystème de programmes

 

Le signal codifié enregistré est selon nous un modèle, façonné, au temps du numérique, par les algorithmes. Creuser le code du modèle est une initiative sans cesse renouvelée sous les formes de l’exégèse par la programmation, depuis Stan Vanderbeek dans les années 60, au tout début de l’art par ordinateur, Malcolm Le Grice dans les années 80, jusque reMI, Lia, M.asch aujourd’hui. Perconte lui est passé maître de l’insertion du modèle dans un écosystème de programmes.

Depuis le 30 avril 1993, date à laquelle le CERN versait dans le domaine public toutes les technologies développées autour du world wide web comme « un système d’information de réseau informatique mondial (…) collaboratif indépendant de tout hardware et plateforme software ou lieux physiques »41, et mettait en ligne ce qui est considéré comme le tout premier site en www proposant tous les outils nécessaires (serveur, navigateur, code) et la documentation pour développer un site web, le réseau grand public a commencé à se développer dans un vivier de programmes et de protocoles, très vite façonné par le système marchand et financier. Rappelons qu’au début de 1995, Perconte découvrait à l’Université de Bordeaux les enjeux pratiques et esthétiques du réseau numérique. Il initie immédiatement un travail plastique, qu’il ne cessera ensuite d’amplifier, sur les « corps numériques », qui est aussi une analyse des technologies digitales, anticipant de quinze ans le même concept développé par les humanités numériques, versant sociologie par Antonio Casilli42, ou philosophie par Antoinette Rouvroy et Thomas Berns43. Perconte, par sa fréquentation précoce et son apprentissage rapide du fonctionnement du réseau, a pu cultiver, dans le premier volet de ce travail, de ncorps 1.0 en 1997 à I Love You44, un écosystème de programmes. Afin de comprendre les enjeux de ce processus, aidons-nous de sa série ncorps : les sites génératifs d’images ncorps 1.0 et ncorps 3.0 (1998), et les bandes vidéos Béta SP ncorps (corps numériques) (1997-1998) et ncx (1999) issues du refilmage de ces images animées.

A partir de ses travaux en Licence d’arts plastiques qui consistaient à boucler au moins deux fois le circuit de la computation du signal sur lui-même par refilmage vidéo et/ou numérique de corps sur téléviseur après transfert sur l’ordinateur, Perconte a développé pour sa recherche en Maîtrise un outil par et pour le réseau naissant du web d’exploration de ses modèles (au double sens de personnes dont l’artiste reproduisait formes et images, et de réduction codée). Il comprend que le réseau est sous-exploité par les quelques sites d’artistes de l’époque qui n’en possèdent pas une connaissance intime. C’est la dimension humaine du web qu’il distingue tout d’abord: les corps des internautes manipulant leur ordinateur et s’interconnectant les uns aux autres; puis matérielle : les ordinateurs connectés via une multiplicité de serveurs à travers le monde. Cette dernière dimension détermine un temps numérique aléatoire: ainsi Perconte remarque-t-il que le temps de connexion au serveur qui héberge son site ncorps 1.0 est imprévisible puisque les paquets de données transitent par un chemin sans cesse différent, que le nombre de serveurs intermédiaires est variable, d’autant que certains serveurs ne donnent pas de réponse, qu’un nouveau nœud doit alors être trouvé, et que le temps de réponse de chacun fluctue selon la densité de la fréquentation, la qualité de la connexion, du navigateur utilisé et des performances de l’ordinateur lançant la requête. Le web se définit par la coexistence de corps humains, de machines, protocoles et programmes qui interagissent de manière très complexe selon un écosystème en perpétuelle évolution. Ainsi est-il possible de penser un dispositif de transformations de modèles, sous la forme d’images fixes et animées sur un site. Puisque les paramètres intervenant dans la visualisation de ces séquences sont renouvelés à chaque connexion, Perconte sait que ces métamorphoses seront illimitées et donneront donc naissances à n corps.

 

 ncorps (corps numériques) (1997-1998)

 

Il extrait de quelques séquences vidéo une cinquantaine d’images et les insère sur une page HTML dans une micro-base de données sur serveur http selon trois procédés. Tout d’abord, les GIF animés, dont les algorithmes ont été conçus pour Internet, qui synthétisent, comme nous l’avons vu dans la troisième partie, les images selon une gamme restreinte de couleurs et transforment les fichiers en formation de points avant de les animer. Perconte constate que les formes plastiques sont intéressantes mais qu’il manque la flexibilité dans la succession des images et que trop de paramètres sont définis par l’algorithme. Il passe alors logiquement à la programmation, en JavaScript, langage simple à base de scripts qui permettent de paramétrer les interactions d’objets au sein de pages web telles que des images, mais Perconte juge le résultat peu concluant puisqu’il se résume à des GIF animés soumis à un programme, seulement plus souple au niveau de la disposition sur le serveur. Enfin, avec l’aide de Sylvain Marga, il expérimente le Java, langage de programmation orienté objet, dérivé du C++ mais épuré de ses subtilités les plus complexes, outil intéractif conçu pour que les navigateurs puissent lancer des applications sur le web. Perconte construit ainsi une applet Java intégrée dans la page html qui sera déclenchée par le navigateur de l’internaute pour charger les images les unes après les autres, les visualisant telles qu’elles sont reçues, autrement dit, erreurs comprises. Le programme prend ainsi en compte le temps de chargement de la machine et la qualité de la connexion au réseau. Lorsque les images se chargent, elles subissent également des distorsions d'après des variables introduites dans le programme et établies selon des études des ruptures numériques constatées lors de téléchargements de fichiers images. Le chargement terminé, elles sont visualisées en boucles de plus en plus rapides. Le résultat dépend de la machine-client et de la qualité des périphériques de visualisation.

Cette recherche aussi intuitive que sophistiquée a permis à Perconte d’établir dès 1997 une solide plateforme d’expérimentation de la visualisation au sein du web à partir de laquelle il cultivera des écosystèmes qui se complexifieront et s’adapteront à l’évolution des technologies, et destinés à pulvériser les limites imposées au code du modèle auquel est réduit le signal numérique. Mais ses sites ne représentent qu’une partie du processus artistique : en effet, les pièces ncorps (corps numériques) (1997-1998) et ncx (1999) sont issues de boucles du circuit de la computation depuis l’écran de son ordinateur visualisant les séquences. Il s’agit un Sony Multiscan 300sf affichant les animations des sites selon un balayage du canon à électrons d’environ 100hz; Perconte l’a filmé en gros plan à l’aide d’une Béta SP à diverses vitesses d'obturation: 1/250, 1/500, 1/1000, 1/2000, 1/5000, 1/10000, de manière à détecter le balayage électronique. Le résultat obtenu est une image divisée, palpitante et qui se reconfigure par le passage d'une barre lumineuse très saturée, assimilable au canon lui-même. Des phénomènes de moirés apparaissent, révélant la trame entrelacée de la visualisation par interférence avec la matrice du capteur de la caméra. Enfin, les angles de prise de vue, en plus de révéler le réseau de pixels de l’écran, ajoutent des distorsions supplémentaires. Ainsi, les programmes de la caméra participent-ils de cet écosystème mis en place par Perconte dans le réseau, mais à l’extrémité du terminal.

Ce travail depuis les spécificités du web déterminera le deuxième volet des “corps numériques” à partir de 2002 mais également l’ensemble de son œuvre filmique: tout d’abord, en ramenant les codecs dans le champ des expérimentations cinématographiques, outils conçus par le groupe MPEG pour la codification, la diffusion et la visualisation du signal numérique pour le web et le réseau de télécommunications, et, depuis le début des années 2000, pour l’ensemble des supports connectés à Internet ; ensuite, bien qu’il ait pris ses distances avec le web à partir de 2004 (hormis la création de deux sites tels que Pour sortir de la crise (2009) ou Save the Gulf Stream.com (2009)), il a persisté dans l’exploitation des ressources du réseau par des téléchargements pour Hung Up (2009) et Satyagraha (2009) afin de renouveler les processus de remplois ou en puisant dans la librairie en ligne ffmpeg; enfin et surtout, il a poursuivi l’aventure plastique qu’offrait cette puissante approche née du web et qui consiste à explorer les n possibilités d’un modèle, en cultivant un écosystème de programmes qui s’est déplacé en grande partie du réseau aux disques durs de Perconte, constitué de codecs, de scripts pour automatiser certaines tâches, de lignes de commande dans l’interface graphiques de ses logiciels d’encodage pour paramétrer les algorithmes, de players, de logiciels d’effets spéciaux, de montage et de programmation graphique.



Cette tentative d’analyse de l’œuvre immense de Jacques Perconte sous l’angle de la libération du signal est bien insuffisante, mais elle a cependant le mérite d’avoir montré trois points:

- la validité de la méthode qui a permis d’éclairer l’extraordinaire inventivité de cet artiste qui approfondit de manière systématique l’ensemble des domaines d’investigation du signal;

- le signal, que nous avons annexé de l’histoire des télécommunications, offre une vue imprenable sur l’ensemble des technologies filmiques;

- les trois domaines d’investigation de la computation du signal – augmenter la détection, hacker la codification et recoder la visualisation – ont bien le potentiel d’organiser de manière précise et cohérente l’analyse comparée d’œuvres relevant de l’argentique, de la vidéo et du numérique, par conséquent, de localiser la question du support et de prendre nos distances par rapport à l’histoire prescrite des démantèlements et remplacements techniques.

Jacques Perconte, par l’ampleur et la profondeur de ses initiatives à la fois concrètes et spéculatives, est sans aucun doute l’un des artistes les plus importants du XXIe siècle pour comprendre l’enjeu de concevoir l’histoire des arts filmiques dans son ensemble comme l’histoire de la libération du signal.





Nos remerciements chaleureux et notre fidèle et affectueuse admiration à

Nicole Brenez, Jacques Perconte & Isabelle Silvagnoli,

Valérie Hasson-Benillouche & Valentina Peri de la Galerie Charlot,

Rodolphe Olcèse de Too Many Cowboys.



A Jacques Perconte, bien évidemment,

pour fêter les huit ans de réflexions qu’il nous a déjà apporté :

2007-2015.



Bidhan Jacobs

 

 

1) Pour une analyse du travail sur le web de Jacques Perconte, voir infra « creuser le code du modèle/cultiver un écosystème de programmes » et se reporter à Bidhan Jacobs, « Comment élever l’amour sur Internet ? A propos d’I Love You de Jacques Perconte », Débordements, novembre 2015 : http://www.debordements.fr/spip.php?article431 ou à la version anglaise « How to Grow Love on the Internet ? », Furtherfield, novembre 2015 : http://furtherfield.org/features/how-grow-love-internet.

 

2) Son film qui explicite cette stratégie est Satyagraha (2009). Lire à ce propos Bidhan Jacobs, « Sois le changement que tu veux voir dans le monde », in Jacques Perconte (dir.), Soleils, catalogue du cycle « Jacques Perconte : retrouver le monde, raconter les images numériques » à l’invitation de Nicole Brenez à la Cinémathèque française 19 décembre 2014 – 6 février 2015, décembre 2014, pp.16-18.

 

3) Nicole Brenez, « L’Objection visuelle », in Nicole Brenez, Bidhan Jacobs (dir.), Le cinéma critique. De l’argentique au numérique, voies et formes de l’objection visuelle, Publications de la Sorbonne, Paris 2010, pp.14-15.

 

4) Id., p. 15.

 

5) Sur cette question cruciale du signal numérique codifié lire Bidhan Jacobs, « Traitement du signal et abstraction », in Images et visions mutantes, Vertigo n°48, novembre 2015, pp.63-72.

 

6) Tel qu’a pu le démontrer Paul Sharits dans Axiomatic Granularity (1973) qui étudie l’imagerie du grain de l’émulsion du film couleur. Devenu l’emblème de l’analyse des spécificités de l’émulsion argentique – au même titre que Silver Surfer (1972) de Mike Dunford – Axiomatic Granularity décrit et analyse le signal inhérent à la pellicule et le travaille dans sa granularité. Pour l’analyse étendue, se reporter à Bidhan Jacobs, Vers une esthétique du signal. Dynamiques du flou et libération du code dans les arts filmiques (1990-2010), Thèse de Doctorat en études filmiques sous la direction de Nicole Brenez, Paris 3, 2014, pp. 229-231.

 

7) Pour de plus amples informations, se reporter au site de Texas Instrument, inventeur de la technologie DLP en 1996 : http://www.dlp.com/technology/how-dlp-works/default.aspx.

 

8) Nous renvoyons à l’analyse effectuée par Nicole Brenez, « Jacques aux mains d’argent » in Images et visions mutantes, op. cit., pp.73-78.

 

9) La fonction de transfert de modulation décrit le comportement de l’objectif en fonction des fréquences spatiales et, par conséquent, le taux de contraste restitué en fonction de la finesse des détails du phénomène détecté. Le pouvoir séparateur représente la limite de restitution des détails aux fréquences les plus élevées. Lire Philippe Bellaïche, Les Secrets de l’image vidéo : colorimétrie, éclairage, objectif caméra, signal vidéo, compression numérique, format d’enregistrement, 6e édition, Eyrolles, Paris 2011, pp. 133-138.

 

10) D’après les notes de Jacques Perconte « Démarche – Madeira », in Rodolphe Olcèse, dossier de production Too Many cowboys, 2012.

 

11) Jacques Perconte, notice du film sur son site : http://www.jacquesperconte.com/oe?13.

 

12) Jacques Perconte, « Démarche – Madeira », op. cit. 

 

13) Inaugurés en 2011 pour son cycle « Haute-Normandie », comprenant Les Moutiers, Vagues vaches, Impressions, et son cycle « Madeira », et qui sont demeurés ses outils de détection de prédilection jusqu’à Ettrick (2015) pour lequel il a utilisé un caméscope Sony PXW-X160.

 

14) Ultra faible Dispersion.

 

15) Auquel Werner Nekes dédia son film Photophtalmia (1975, 16mm, coul., son, 28 min.).

 

16) Jacques Perconte, « Bien plus fort que la Haute Définition », in Nicole Brenez, Bidhan Jacobs (dir.), Le Cinéma critique, op. cit., p.233.

 

18) Groupe de travail du Comité Commun pour les guides en métrologie (JCGM),Vocabulaire international de métrologie – Concepts fondamentaux et généraux et termes associés (VIM), 3e édition, BIPM, 2008, p. 16.

 

19) Jacques Perconte, « Quelques pétales de roses collés », 20 novembre 2003 :

http://blog.technart.fr/2003/11/quelques-petales-de-roses-collees.

 

20) Jacques Perconte, Cahier, novembre 2003.

 

21) Richard Stallman, « On Hacking » (non daté) : https://stallman.org/articles/on-hacking.html.

 

22) Jacques Perconte, Réponses aux questions communes, in Bidhan Jacobs, Vers une esthétique du signal, op. cit., p.349.

 

23) Jacques Perconte, « Quelques mots sur l’encodage et le paysage », 19 juin 2005 :

http://blog.technart.fr/2005/06/quelques-mots-sur-lencodage-et-le-paysage/.

 

24) Jacques Perconte, « Landscapes / Paysages », 1er avril 2006 : http://blog.technart.fr/2006/04/landscapes-paysages/.

 

25) Jacques Perconte, Cahier n°8 – 111 (non daté) :

https://www.flickr.com/photos/jacquesperconte/586833930/in/photostream/.

 

26) Jacques Perconte, « Uishet / Bande Verticale », 24 avril 2007 : http://blog.technart.fr/2007/04/uishet-sans-titre-n%C2%B05/

 

27) Id. 

 

28) Norbert Wiener, Cybernétique et société. L’usage humain des êtres humains (1950 ; 1954), Edition synoptique établie par François Hardouin Du Parc, Union Générale d’Editions, Paris 1971, pp. 393-394 ;

 

29) Id., pp. 389-394 ;

 

30) Id., pp. 395-396 ;

 

31) Nicole Brenez, Cinémas d’avant-garde, Cahiers du cinéma/CNDP, Paris 2006, p. 23.

 

32) Le fait que Jacques Perconte vienne de la musique électronique n’est pas étranger à la facilité avec laquelle il a développé de nombreuses techniques de boucles.

 

33) Jacques Perconte, Réponses aux questions communes, in Bidhan Jacobs, Vers une esthétique du signal, op.cit., p.348.

 

34) Id., p.347.

 

35) Collectif que Jacques Perconte a cofondé avec le musicien et plasticien Eddie Ladoire à Bordeaux.

 

36) Jacques Perconte, entretien individuel, in Bidhan Jacobs, Vers une esthétique du signal, op. cit., p.399.

 

37) Toujours en ligne : http://iloveyou.38degres.net, grâce à des mises à jour successives et à une restauration effectuée le 1er novembre 2015 dans le cadre du Pavillon franco-italien « (In)exactitude of Science » au sein de The Wrong (Again)New Digital Art Biennale. Lire sur la restauration Bidhan Jacobs, « Comment élever l’amour sur Internet ? », op. cit. : http://www.debordements.fr/spip.php?article431

 

38) PHP : Hypertext Preprocessor (acronyme récursif) est un langage de programmation libre développé au début du web en 1994, utilisé pour le développement des pages web dynamiques sur les sites, exécuté côté serveur http et non côté client. Pour plus d’information se reporter à la documentation du site du groupe développeur : http://www.php.net

 

39 ) Roland Barthes, Fragments d’un discours amoureux, Paris, Seuil, 1977, p.115.

 

40) Ce terme est une extension de la signification déjà en usage: http://www.oxforddictionaries.com/definition/english/loveware. Il ne s’agit plus seulement d’un programme offert par l’auteur aux internautes, mais littéralement d’un programme qui en lui-même inscrit l’amour dans le code. Rigoureusement inverse au « malware » qu’était le virus iloveyou qui s’est propagé par email en mai 2000 et a détruit les données de plusieurs dizaines de millions d’ordinateurs à travers le monde.

 

41) Voir les documents d’époque en lignes officialisant le don du www alors nommé « W3 » : https://cds.cern.ch/record/1164399

 

42) Antonio Casilli, Les Liaisons numériques. Vers une nouvelle sociabilité ?, Paris, Seuil, coll. « La couleurs des idées », 2010 + l’extension en site : http://www.liaisonsnumeriques.fr

 

43) Antoinette Rouvroy et Thomas Berns, « Le nouveau pouvoir statistique. Ou quand le contrôle s'exerce sur un réel normé, docile et sans événement car constitué de corps « numériques » », in Multitudes, n°40, janvier 2010, pp.88-103.

 

 

44) Ce premier volet comprend les ncorps (1997-1999), sxktn (1997), Tempo e pause, Ordinary Madness (2001), Ordinary Madness (2001), Matre zias e imaji imacul (2001), Phex (2001), Corps numériques (photographies, 2002), I Love You (2004). Un deuxième volet débute avec esz (2002) et sa série de la même année à partir d’images pornographiques, en passant par Hung Up (2008) et Colorama (2014) et se poursuit jusqu’à aujourd’hui avec les danseurs Caroline Allaire et Vidal Bini.