J’ai lu il y a quelques jours un article qui d’une certaine manière me fait un peu peur. C’était un peu avant les histoires autour du studio Ghibli, ce n’est donc pas de ça que je veux parler — il s’agit de toute façon d’un épiphénomène, une utilisation spécifique et pas forcément très intelligente de ces outils. Il parlait du futur de la téléphonie mobile, en évoquant les possibilités que l’IA apporterait à ce domaine précis. En préambule, je voudrais faire quelques rappels sur des principes de base de la photographie.
La physique de la photo
La photographie est un monde fascinant, d’un point de vue physique. On y associe l’optique, l’électronique (ou la chimie, dans le cas de l’argentique), et… d’une certaine manière, la mécanique quantique !
En très gros, la capture d’images est un monde de compromis : on veut pouvoir attraper beaucoup de lumière ? Alors il faudra une surface importante pour la capturer — la surface de référence, à partir de laquelle on évalue les autres, est celle d’une bonne vieille pellicule 24×36, soit 24mm de haut pour 36mm de large, les personnes qui ont connu les années 90 savent de quoi je parle. Une surface plus réduite pourra capturer moins de lumière, mais elle pourra se contenter d’un système optique plus simple et compact pour y amener la lumière. Dans un appareil photo électronique compact, le capteur est bien plus petit que la taille de référence. Dans un téléphone, il l’est encore plus. Parfois, il est même tellement petit que la taille d’un élément sensible approche la longueur d’onde de la lumière visible…
À la réflexion, je crois que j’approfondirai cette partie pour plus tard, je sais, c’est lâche, mais si je me lance je crois que je dépasserai largement le cadre de cet article ! Sachez simplement que si vos vieux appareils photo à pellicule étaient aussi gros (même pour les appareils “compacts”), si un appareil “reflex” moderne est plus gros qu’un smartphone, si un zoom 400-1200 f/4 est si gros et si cher, il y a de très bonnes raisons qui découlent de limites physiques, des choses auxquelles on ne peut rien. En pratique, le microscopique capteur d’un téléphone ne peut pas donner une qualité d’image similaire à celui d’un reflex ou d’une bonne vieille pellicule. Et pourtant, ils fournissent des photos tout à fait correctes, voire assez bonnes quand on monte en gamme.
Les solutions
Pour contourner les limitations liées aux capteurs et à l’optique, les constructeurs ont mis en place plusieurs stratégies. La plus basique est celle dite du « pixel binning ». Il s’agit d’un processus électronique consistant à assembler plusieurs points sensibles du capteur (on parle de pixels) dans le but de capturer plus de lumière. Pourquoi, dans ce cas, ne pas faire un capteur avec moins de pixels ? Le résultat devrait être meilleur, mais cette solution présente un défaut rédhibitoire : les équipes marketing préfèrent dire que le téléphone a un capteur « 100MPix » plutôt que « 25MPix ». Même si le 2e est à priori meilleur, ça leur évite de devoir expliquer pourquoi. De mémoire, un constructeur s’y était risqué, je crois que c’était LG, ça n’avait pas pris.
Deuxième idée, exploitée depuis une grosse dizaine d’années : le « multi-frame ». En pratique, à chaque fois que vous capturez une image sur votre téléphone, celui-ci en capture en réalité une dizaine en rafale, qu’il assemble ensuite pour former l’image finale. Ce procédé permettait par exemple à un de mes anciens téléphones de capturer des images en 50MPix, malgré un capteur limité à 13MPix, photos de qualité plus que correcte (j’avais comparé à l’époque avec mon reflex APS-C, le téléphone n’avait pas à rougir). Cette méthode est devenue possible quand la puissance des puces de téléphone est devenue suffisante, ce qui nous place autour de 2013.
[galerie/ exemples OP7]
Mais la solution qui la le vent en poupe actuellement est l’IA générative. Ce qui m’amène à l’article qui m’a alarmé. Ce dernier présente les avancées de Google sur le sujet, et j’avoue ne pas être sûr de les apprécier. Google n’est pas un nouveau venu dans le domaine : leurs téléphones sont connus pour, justement, la qualité des photos qu’ils proposent grâce à un traitement logiciel poussé : ils ne sont pas forcément les meilleurs à la capture, mais savent très bien corriger les problèmes qui sont intervenus à ce moment. Les plans ? Ajouter des traitements IA, de plus en plus. Certains sont relativement légitimes, à première vue : réduire le bruit lors de prises en haute sensibilité, ça peut être utile, surtout quand on peut le faire sans avoir recours à un flou un peu violent. Même si dans ce cas déjà, l’IA va recréer des détails. D’autres posent à mon avis plus question : l’entreprise se propose, par exemple, d’utiliser l’IA générative pour améliorer le cadrage : placer le sujet au centre du cadre (ou au tiers, ou au centre de la spirale de Fibonacci, si la fonctionnalité est configurable), quitte à générer la partie de l’image qui était hors cadre. Autre proposition : améliorer le “zoom numérique”, là aussi en générant les détails perdus par le processus de zoom. Et, pourquoi pas, donner la possibilité de supprimer un indésirable sur l’image ? De créer des sourires ? D’ajouter une personne ? De revoir l’éclairage pour placer cette scène capturée sous le soleil de midi à l’heure dorée, beaucoup plus jolie ? “Il est joli, ce faîtage que tu as photographié, est-ce que ça t’intéresse que j’ajoute une cigogne dessus ?”
En fait, ce qui me chagrine dans ces propositions, c’est, d’une certaine manière, la promesse que quel que soit votre niveau, votre téléphone va capturer pour vous la meilleure version de votre souvenir. Même si, dans le processus, il doit en générer la moitié. La question que je me pose : le produit de ce travail algorithmique est-il encore mon souvenir ? Une seule chose est sûre : il n’existe aucune réalité où il s’est vraiment produit comme mon téléphone me le montre… La Tour de Pise sans touristes ? C’est possible ! Un château sans ce pilône disgracieux ? Bien sûr ! Et pourquoi pas dans un environnement pseudo moyen-âgeux reconstitué ? Un sourire sur le visage de votre enfant qui baisse la tête pour ne pas être pris en photo ? Aucun problème !
Objection : retouche a posteriori
On pourra m’objecter qu’en pratique, ce que propose Google ici, ce n’est rien moins que ramener à la prise de vue un processus qui, aujourd’hui, a lieu après. La différence, c’est que même si les résultats sont similaires concernant l’image qui partira sur les réseaux sociaux, dans un cas elle a été fabriquée directement par le téléphone, dans l’autre cas j’ai repris une photo peut-être imparfaite, mais sur laquelle j’ai choisi quels traitements appliquer. Traitements parfois un peu lourds, comme ce mec que je veux faire disparaître de mes souvenirs, mais je choisis les photos sur lesquelles je les applique. Qu’est-ce qui se passera quand les photophones choisiront eux-mêmes ces traitements ? Uniformisation, standardisation, des personnages, des sujets toujours au même endroit, on se retrouvera comme aux débuts d’Instagram, quand tout le monde partageait ses photos artificiellement vieillies en mode sépia…
Je crois qu’il est vraiment temps de revenir au bon vieil argentique pour les souvenirs les plus précieux !

Répondre à Anagrys Annuler la réponse.