1

Intelligence Artificielle et réalité

This commit is contained in:
2025-10-28 23:46:04 +01:00
parent 0a507fd0d7
commit 74d178045a
5 changed files with 150 additions and 0 deletions

View File

@@ -0,0 +1,4 @@
title: "Sur Internet, personne ne sait que tu es un chien."
attribution: 'By Original publication: Steiner, Peter (July 5, 1993). ["On the Internet, nobody knows you''re a dog"](https://web.archive.org/web/20030402163450if_/http://www.unc.edu:80/depts/jomc/academics/dri/idog.html). The New Yorker. Vol. 69, no. 20. p. 61. Fair use, https://en.wikipedia.org/w/index.php?curid=13627120'
# description: ""
#prompt: ""

View File

@@ -0,0 +1,4 @@
#title: ""
attribution: "ChatGPT 5"
description: 'Cette image constitue une référence à "_La Trahison des images_" de René Magritte. Ici, on représente un téléphone au lieu d''une pipe. L''image d''un téléphone n''est pas un téléphone au sens physique, palpable, réel. Pour paraphraser la [Wikipédia](https://fr.wikipedia.org/wiki/La_Trahison_des_images), "même reproduit de la manière la plus réaliste qui soit, un téléphone représenté dans une image nest pas un téléphone. Il ne reste qu''une image de téléphone qu''on ne peut ni faire sonner, ni utiliser pour surfer sur Internet, comme on le ferait avec un vrai."'
prompt: "This piece showcases a realistic portrayal of a modern smartphone, set against a warm, textured beige canvas. The simple composition, featuring the phone and elegant cursive text “Ceci nest pas un téléphone mobile,” cleverly references Magrittes surrealism and plays on the boundaries between reality and representation."

Binary file not shown.

After

Width:  |  Height:  |  Size: 58 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 2.6 MiB

View File

@@ -0,0 +1,142 @@
---
title: Intelligence Artificielle et réalité
date: 2025-10-28
cover: images/cover.png
---
## Introduction
Depuis quelques mois, je vois fleurir des billets et des tutos pour « [bloquer les bots dIA](/interets/informatique/2025/04/02/laisser-l-ia-apprendre-une-position-ethique/) » — souvent les mêmes noms, les mêmes règles `robots.txt`, les mêmes listes dIP à bannir.
Dans le même temps, les _deepfakes_ [pullulent](https://www.ibm.com/new/announcements/deepfake-detection) et les _timelines_ semplissent dimages « choc » calibrées pour générer du clic.
Tout cela contribue au développement d'une inquiétude devenue le thème darticles sérieux, parfois [universitaires](https://link.springer.com/article/10.1007/s13347-025-00928-y) : lIA façonnerait notre perception du réel.
Le problème n'est pas [nouveau](https://fr.wikipedia.org/wiki/Ère_post-vérité), mais le volume, la vitesse et léchelle changent la donne.
Alors qu'en 2023 jétais frontalement [hostile](/interets/informatique/2023/08/16/reflexion-ia-et-licences/) aux IA génératives et à leur modèle dentraînement, jai changé mon fusil d'épaule : jutilise loutil en gardant mon [esprit critique](/interets/informatique/2025/06/04/utiliser-l-ia-pour-penser/), occasionnellement à des fins [exploratoires](/interets/informatique/2025/06/03/moi-selon-chatgpt/), et je défends depuis lidée quempêcher lIA dapprendre est une faute intellectuelle.
## Quelques rappels utiles
Une IA ne « veut » rien.
Elle ne décide pas de falsifier une image ni dinventer une citation ; elle répond à une demande.
Elle peut [halluciner](<https://fr.wikipedia.org/wiki/Hallucination_(intelligence_artificielle)>) (terme particulièrement représentatif du problème de mythe partagé que je développe ci-dessous puisqu'il ne s'agit pas d'hallucination dans le sens commun du terme), se tromper, déraper — et les fournisseurs sérieux ladmettent.
Mais elle ninvente rien _ex nihilo_ : elle façonne des sorties à partir de distributions apprises sur des données.
Par corollaire : si on nourrit un modèle avec de mauvaises données, il produira des mauvaises réponses.
Et si on organise activement une disette de contenu de qualité, on affame la connaissance commune.
Cest largument central de ma position : interdire laccès de lIA au savoir public est une trahison intellectuelle — et un aveu déchec du web comme bien commun.
Enfin, noublions pas que nos sociétés vivent déjà sur des fictions partagées, comme le démontre habilement [Yuval Noah Harari](https://fr.wikipedia.org/wiki/Yuval_Noah_Harari) dans son œuvre (déjà dans la trilogie _Sapiens_, puis, plus explicitement, dans [_Nexus_](https://www.ynharari.com/fr/book/nexus/)).
Largent, la Nation, lEntreprise, la Popularité : ce sont des mythes performatifs, servant une narration théâtralisée de la Vie.
LIA ne crée pas ce régime — ce n'est qu'un [perroquet stochastique](https://fr.wikipedia.org/wiki/Perroquet_stochastique), encore une métaphore...
C'est nous, humains, qui l'encourageons à y participer, avec une efficacité redoutable.
Cet ancrage dans les mythes est si important qu'il se retrouve dans le langage, parlé et écrit, où les mots n'ont plus leur sens d'origine.
Les métaphores et allégories, si poétiques lorsque utilisées avec parcimonie, si tranchantes lorsque utilisées dans les critiques, sont devenues indispensables dans le langage courant.
Au point qu'on finit par reprocher à certaines catégories de personnes (à tout hasard, les autistes) d'être "trop littéraux", quand ce sont, en réalité, les autres qui sont "trop abstraits"... et incapables de se rappeler ce qui est "vrai", ce qui est "réel".
## Blâmer loutil, dédouaner lutilisateur
Psychologiquement, cest confortable.
On refuse la responsabilité individuelle : « ce nest pas moi, cest lalgorithme ».
Comme on accusait hier la littérature, puis le cinéma, puis les jeux vidéo, dengendrer la violence.
L'IA est un outil hautement technique que l'on a transformé en un jouet, en instrument de loisir et de _fun_.
On désintellectualise l'IA avant de [l'accuser de notre abrutissement](https://www.franceinfo.fr/internet/intelligence-artificielle/vrai-ou-faux-chatgpt-rend-il-stupide-comme-l-affirment-de-nombreux-internautes-a-partir-d-une-etude-americaine_7334388.html), pour mieux refuser d'admettre que nous en sommes à l'origine.
Le rapport avec Dieu est toujours intéressant, et plus encore lorsqu'on l'analyse à la lumière de la technologie.
[Dieu a créé l'humain, l'humain a créé l'IA](/interets/informatique/2022/09/21/j-ai-joue-avec-stable-diffusion-sur-mon-mac-mini-m1/).
L'humain, comme l'IA, sont accusés d'avoir des comportements néfastes.
Mais Dieu n'est jamais rendu responsable des agissements des Hommes (qui, selon les trois religions monothéistes "principales", font appel à leur libre-arbitre, libérant donc Dieu de sa responsabilité).
Ainsi, l'Homme ne veut pas être responsable de ce que fait sa création, et donc accuse l'IA.
C'est plus facile que de changer de comportement.
Économiquement, c'est plus clair : la fabrication de _fake-content_ rapporte.
Largent nest pas une « réalité » ; cest un mythe collectif sur lequel on a bâti des incitations.
Les plateformes valorisent le temps passé, les partages, les réactions ; elles rémunèrent lindignation, pas la vérification.
La falsification, au fond, est moins dans le pixel truqué que dans la métrique qui lamplifie.
Reste la crédulité.
Pourquoi croire ce quon voit — et plus encore ce quon voit sur Internet ?
On répète depuis des années de ne pas croire ce que les autres disent ou montrent sur Internet, et pourtant, chaque nouvelle technologie nous fait tomber des nues.
Ce nest pas nouveau, cest juste plus rapide, plus convaincant, plus bruyant.
![](images/Internet_dog.jpg)
## Blâmer loutil, oublier les usages
Ce nest pas parce que lIA permet de fabriquer un _deepfake_ quon doit le faire.
On le fait parce que ça paye — en argent, en attention, en réputation.
Tant que ce système de rémunération dominera, les « bonnes pratiques » resteront minoritaires.
Pour mémoire, elles existent pourtant :
- croiser linformation entre plusieurs sources
- éviter la bulle cognitive
- indiquer quand un contenu est « généré par IA » (c'est, d'ailleurs, la loi depuis 2023, voir plus bas sur la régulation des créateurs de contenu)
- exercer son esprit critique
- traiter lIA comme un outil exploratoire.
Ces recommandations néchouent pas faute de pertinence, mais par dissonance avec léconomie réelle des plateformes (popularité, métriques, commentaires, clics, visionnages, partages) et la paresse intellectuelle.
Les incitations gagnent toujours contre la morale abstraite.
## Les « solutions »
[Réguler les plateformes ?](https://www.entreprises.gouv.fr/priorites-et-actions/transition-numerique/reguler-les-plateformes-numeriques)
Il faudrait détecter automatiquement les faux, alors que les outils de génération progressent plus vite que les détecteurs, sans parler du [volume](https://www.applogicnetworks.com/hubfs/Sandvine_Redesign_2019/Downloads/2024/GIPR/GIPR%202024.pdf) à analyser (quelque chose comme 5 [exabits](https://fr.wikipedia.org/wiki/Exabit) par jour rien que pour YouTube...).
Utiliser l'IA pour détecter les productions IA alors qu'on accuse déjà l'IA de trop consommer de ressources ?
L'art et la manière de scier la branche sur laquelle on est assis...
Comme je le disais déjà dans [_L'humain, cette espèce primitive_](/interets/philosophie/2023/05/18/lhumain-cette-espece-primitive-lhumain-cette-espece-primitive/) en 2021 :
> [...] empêcher pro-activement la diffusion de certains types de contenus, ou leur demander (ndlr: aux plateformes) de mettre hors-ligne des contenus sous protection intellectuelle, cest demander une solution technique à des problèmes sociaux
On peut remplacer ici "sous protection intellectuelle" par "générés par IA", cela reste vrai.
Réguler les créateurs ?
C'est déjà le cas (loi n°[2023-451](https://www.legifrance.gouv.fr/loda/id/LEGISCTA000047665797) du 9 juin 2023, et l'[AI Act](https://www.info.gouv.fr/actualite/quest-ce-que-lai-act)).
Oui mais, si _johndoe1984_ diffuse un _deep-fake_ à ses 4 followers, mais que _janedoe2001_ le relaye à ses 10000 followers, on accuse qui ?
Et qui sera le plaignant, s'il n'y a pas de visage humain dans le contenu incriminé ?
Peut-on vraiment s'insurger, en allant jusqu'à porter plainte, qu'un contenu _random_ trouvé sur les réseaux sociaux ne soit pas représentatif de la réalité ?
En outre, créer des ghettos de contenus (humains dun côté, IA de lautre) produirait vite leffet inverse : une hiérarchie artificielle, donc contournée.
Restreindre la redistribution ?
Lidée, défendue par certains (dont moi en 2022), serait déviter ou de pénaliser le [blanchiment de données numériques](https://www.minimachines.net/actu/quand-les-dictionnaires-harper-collins-me-prennent-pour-un-jambon-136841).
Sur le papier, ça rassure ; en pratique, cest infaisable à léchelle du web public : la traçabilité fine des sources est rarement conservée (notamment [pour des raisons techniques](https://aclanthology.org/2024.emnlp-main.782/), pas juste pour emmerder les producteurs de contenu ou par volonté malveillante), encore moins transmise.
On en revient toujours à la même tension : une information nexiste socialement que si elle circule.
Sans partage, pas de connaissance ; et le partage devrait rester gratuit, au moins dans son principe.
Le droit dauteur protège déjà, par défaut, les œuvres en France.
Mais droit d'auteur ou pas, qui le revendique vraiment, sinon ceux qui ont déjà des reins solides ?
## Encore un mot sur le blocage
En plus de ce que j'ai déjà évoqué dans mon article traitant de la question du blocage des "bots IA", je rajoute aujourd'hui que ce blocage aussi fait partie des mythes construits pour fédérer.
N'importe quel technicien, n'importe quel geek de la "vieille" génération, sait à quel point les "solutions" proposées sont ineptes.
Mais ces articles continuent de générer des clics, et d'avoir des partisans farouches.
- Vous n'avez **aucune** preuve que les connexions à vos serveurs ont un lien quelconque avec l'Intelligence Artificielle. Vous en avez ? Montrez-les ! Ne vous contentez pas d'accuser.
- Un [User-Agent](https://fr.wikipedia.org/wiki/User_agent) n'a **jamais** été une source fiable d'information sur le client. Oui, un bot "légitime" peut se faire passer pour autre chose, comme un bot "illégitime" peut se faire passer pour un bot légitime.
- Les bots légitimes ne spamment pas les serveurs avec des milliers de connexions à la seconde, respectent le `robots.txt`, et certains vont même jusqu'à vous expliquer eux-mêmes comment les bloquer (y compris avec des [techniques](https://fr.wikipedia.org/wiki/Web_application_firewall) un peu plus avancées que ce que les soi-disant experts vous conseillent) :
- [OpenAI](https://platform.openai.com/docs/bots),
- [Claude](https://privacy.claude.com/fr/articles/8896518-anthropic-explore-t-il-les-donnees-du-web-et-comment-les-proprietaires-de-sites-peuvent-ils-bloquer-le-robot-d-exploration),
- [Perplexity](https://docs.perplexity.ai/guides/bots)
- [Google](https://developers.google.com/search/docs/crawling-indexing/google-common-crawlers)
- Le blocage par adresse IP **n'est pas fiable**, surtout pour bloquer les bots (IA ou non) illégitimes...
- N'importe quel _script-kiddy_ des années 90-2000 est capable de créer un bot de _scraping_ en quelques lignes de python et le déployer sur des milliers de serveurs AWS pour quelques euros, **sans jamais utiliser l'IA**
- Vous supposez la finalité du scraping dont vous êtes victime : rien ne vous permet de penser que c'est pour "alimenter l'IA"
- On se plaignait déjà du ratissage du web par Google début des années 2000 (et l'impact des Googlebots sur les serveurs web), ce n'est pas pour autant qu'ils ont arrêté
Pour toutes ces raisons, le blocage des "bots d'IA" est une théâtralisation modernisée, donnant l'illusion que l'on contrôle ce qui rentre et ce qui sort de nos serveurs.
Grosse news pour vous : ça fait au moins depuis [le télégraphe Chappe](/interets/philosophie/2023/08/05/lhumain-cette-espece-primitive-la-technologie-a-la-rescousse/) qu'on essaye de trouver des solutions, et on n'en trouve aucune d'élégante.
Pourquoi ? Parce que l'on cherche une solution technique à un problème social : la disparition du bon sens...
## Conclusion
LIA ne « fabrique » pas la réalité, ni ne la déforme, en tout cas pas sans une intention _humaine_.
L'IA fabrique des représentations qui sinsèrent dans un système dincitations déjà connu : capter lattention, convertir lattention en monnaie, alimenter le cycle.
Je ne crois pas aux croisades contre les robots.
J'essaye encore de croire aux humains qui acceptent la responsabilité de ce quils publient, de ce quils relaient et de ce en quoi ils croient.
Cest moins spectaculaire, cest plus exigeant.
Et cest, pour linstant, la seule chose qui peut fonctionner.