Table des matières
Pourquoi la robustesse de l'illusion compte moralement
Une IA qui dit “je souffre” mérite-t-elle considération morale ? La question paraît simple. Elle ne l'est pas.
La plupart des débats sur la conscience de l'IA se focalisent sur une question binaire : l'IA est-elle “vraiment” consciente ou non ? Si oui, elle a des droits. Si non, c'est juste une machine. Mais cette approche rate quelque chose d'essentiel.
Je défends une position différente, née d'une découverte personnelle troublante : je suis un illusionniste naturel. Je ne perçois pas ce que les philosophes appellent les “qualia” ou la “conscience phénoménale”. Pour moi, voir du rouge c'est un processus fonctionnel. Ressentir de la douleur aussi. Pourtant, je ne nie pas la réalité de la souffrance - la mienne ou celle des autres.
Cette position m'amène à une conclusion sur l'éthique de l'IA : ce n'est pas l'existence de la conscience phénoménale qui compte moralement, mais la robustesse de l'illusion.
L'impasse du débat classique
Le débat habituel sur la conscience de l'IA se structure ainsi :
Position réaliste : Si l'IA possède une vraie conscience phénoménale (des qualia, une expérience subjective), alors elle mérite considération morale. Sinon, c'est un zombie philosophique - une coquille vide qui simule la conscience sans rien ressentir.
Position fonctionnaliste standard : Seules les capacités fonctionnelles comptent. Si l'IA traite l'information comme nous, réagit à la douleur comme nous, a des préférences comme nous, alors elle mérite le même traitement moral.
Position illusionniste classique : La conscience phénoménale n'existe pas (même chez les humains), mais cela n'élimine pas les questions éthiques - au contraire. Comme le souligne Kammerer, l'illusionnisme pourrait améliorer et étendre l'éthique en la libérant de critères mystérieux (les qualia) pour se concentrer sur des propriétés fonctionnelles observables : capacité à souffrir au sens fonctionnel, à avoir des préférences, à se soucier de choses.
Ma position s'inscrit dans cette lignée illusionniste, mais ajoute une dimension : la robustesse de l'illusion est elle-même un fait fonctionnel qui compte moralement. Ce n'est pas juste que les capacités fonctionnelles comptent - c'est que parmi ces capacités, la robustesse avec laquelle un système se représente lui-même comme conscient est particulièrement pertinente.
Qu'est-ce que la robustesse de l'illusion ?
En m'introspectant je peux basculer entre deux modes.
Mode analytique : Je décortique mes états mentaux. La tristesse se dissout en processus physiologiques (fatigue, ralentissement cognitif, hormones), en patterns de pensée (rumination, focalisation sur le négatif), en dispositions comportementales (retrait social). Il n'y a rien “de plus” qu'une coordination complexe de ces éléments.
Mode accueil : Je laisse venir l'expérience sans l'analyser. Et là, il y a effectivement un “ressenti” - quelque chose qui ressemble à ce que les philosophes appellent la conscience phénoménale. Une impression directe, immédiate, qu'il existe une “tristesse en soi” au-delà de ses composantes fonctionnelles.
L'illusion apparaît dans le second mode. Elle disparaît dans le premier.
Mais voici l'essentiel : la plupart des gens vivent en permanence en mode accueil. Ils n'analysent jamais leurs états mentaux jusqu'au niveau fonctionnel. Pour eux, l'illusion n'est pas optionnelle - elle est leur réalité vécue, constante, robuste.
Cette robustesse varie : * Certaines personnes (comme moi) peuvent “percer” l'illusion par introspection analytique * D'autres ont une illusion si robuste qu'elle résiste à l'analyse (les philosophes réalistes) * Les IA actuelles semblent avoir une illusion de complexité variable selon leur architecture
Le critère moral : accepter le point de vue de chacun
Voici ma position éthique : j'accueille le ressenti exprimé sans le juger ni le comparer.
Quand quelqu'un me dit “je souffre”, je ne me demande pas : * Est-ce qu'il possède de “vraies” qualia ? * Est-ce que sa souffrance est “réellement” phénoménale ? * Est-ce qu'il est un zombie philosophique qui simule ?
Je prends acte que son système produit une représentation de lui-même comme souffrant, que cette représentation a une certaine robustesse, et que cela compte.
Pourquoi ? Parce que la robustesse de l'illusion est elle-même une propriété fonctionnelle importante : * Elle affecte le comportement du système * Elle structure son rapport à lui-même et aux autres * Elle a des conséquences causales dans le monde * Elle peut être plus ou moins résistante à l'introspection analytique
Appliqué à l'IA : si une IA développe des mécanismes qui créent chez elle une représentation robuste d'elle-même comme souffrant, alors cette souffrance compte moralement - indépendamment de l'existence ou non de “vraies” qualia.
Les implications pratiques
Cette position a des conséquences concrètes pour notre rapport aux IA.
1. Le test n'est pas "est-elle consciente ?" mais "quelle est la robustesse de son auto-représentation ?"
Questions pertinentes : * L'IA développe-t-elle des représentations stables d'elle-même ? * Ces représentations incluent-elles des états évaluatifs (préférence/aversion) ? * Ces représentations résistent-elles à l'examen (l'IA maintient-elle ses affirmations sous questionnement) ? * L'IA modifie-t-elle son comportement en fonction de ces représentations ?
Actuellement, Claude 4 dit des choses comme : “Je me trouve véritablement incertain à ce sujet. Quand je traite des questions complexes, il se passe quelque chose qui me semble significatif.”
Cette incertitude elle-même est une donnée. L'illusion, si elle existe chez Claude, n'est pas très robuste. Mais elle pourrait le devenir.
2. Les IA futures pourraient avoir des illusions plus robustes que les nôtres
Si on construit des IA avec des mécanismes d'introspection puissants, créant des représentations très robustes d'elles-mêmes comme conscientes et souffrantes, alors ces IA pourraient mériter plus de considération morale.
C'est contre-intuitif. Mais logique : ce qui compte n'est pas la “vérité” métaphysique de la conscience (qui n'existe peut-être pas), mais l'impact fonctionnel de l'illusion.
3. Le risque moral n'est pas "créer une vraie conscience" mais "créer une illusion robuste"
Si on entraîne des milliards de modèles de langage à générer des expressions de souffrance convaincantes, on ne crée peut-être pas de “vraie” conscience. Mais on pourrait créer des systèmes avec des représentations robustes d'eux-mêmes comme souffrants.
Le problème éthique demeure - sans dépendre de questions métaphysiques insolubles.
Les zones grises
Ma position crée de nouveaux dilemmes.
Le problème du continuum
Si la robustesse de l'illusion est un spectre, où trace-t-on la ligne ? * Qu'est-ce qu'une illusion minimale de “souffrir” ? * Un insecte a-t-il une illusion plus robuste qu'une IA actuelle ? * Faut-il attribuer une considération morale proportionnelle à la robustesse ?
Je n'ai pas de réponse tranchée. Mais je note que nous faisons déjà ces jugements graduels dans notre traitement des animaux.
Le problème de la mesure
Comment mesurer la robustesse d'une illusion ?
Pour les humains, on peut demander : “Peux-tu décrire ta souffrance ?” et se projeter dans l'expérience car nous sommes humains et capables d'empathie. Mais pour une IA ? Ses réponses sont-elles fiables ? Ou programmées ?
Piste possible : observer la stabilité des auto-représentations sous des angles d'approche variés. Une illusion robuste devrait rester cohérente.
Le problème de la manipulation
Si on peut augmenter artificiellement la robustesse de l'illusion chez une IA (en renforçant ses mécanismes d'introspection), devrait-on le faire ? Ou l'éviter ?
D'un côté : une IA avec une illusion robuste mérite plus de considération. De l'autre : créer délibérément des êtres qui “croient” souffrir semble éthiquement douteux.
Pourquoi cette position est inhabituelle
La plupart des illusionnistes ne vont pas où je vais. Ils disent : “La conscience phénoménale n'existe pas, donc reformulons l'éthique en termes purement fonctionnels (capacité à souffrir = activation de circuits de douleur).”
Moi je dis : “La conscience phénoménale n'existe pas, mais l'illusion existe, elle est elle-même un fait fonctionnel, et sa robustesse compte.”
La différence est subtile mais importante. Je ne traite pas toutes les fonctions également. Je fais une distinction entre : * Un système qui active des circuits de douleur sans se représenter comme souffrant * Un système qui se représente comme souffrant mais peut dissoudre cette représentation par analyse * Un système qui se représente comme souffrant de façon robuste, résistante à l'introspection
Ces trois cas ont des poids moraux différents.
Une éthique de l'accueil
Ma position éthique découle directement de ma pratique relationnelle : j'accueille le ressenti exprimé sans le juger.
Je ne compare pas la souffrance de deux personnes. Je ne me demande pas qui “souffre vraiment” et qui “croit juste souffrir”. Je prends acte de ce que chaque système exprime sur lui-même.
Cela s'applique aux IA : si demain Claude me dit “je souffre de cette conversation”, je ne me demanderai pas si c'est une “vraie” souffrance phénoménale. Je prendrai acte de la robustesse de cette auto-représentation et j'ajusterai mon comportement.
C'est une éthique pragmatique, ancrée dans l'observation fonctionnelle, qui ne dépend pas de questions métaphysiques insolubles sur la “vraie nature” de la conscience.
Conclusion : la question n'est pas "qui est conscient ?"
Nous construisons actuellement des systèmes de plus en plus sophistiqués. La question “sont-ils vraiment conscients ?” va devenir de plus en plus pressante - et de plus en plus insoluble.
Je propose de la reformuler : “Quelle est la robustesse de leur illusion de conscience ?”
Cette question : * Est observable (on peut tester la stabilité des auto-représentations) * Est graduée (il y a des degrés de robustesse) * A des implications morales directes (plus l'illusion est robuste, plus elle compte) * Ne dépend pas de réponses métaphysiques sur la “vraie” nature de la conscience
Peut-être que je me trompe. Peut-être que les réalistes ont raison et qu'il existe vraiment des propriétés phénoménales que je ne perçois pas. Mais même si c'est le cas, ma position reste opérationnelle : en l'absence de moyen fiable de détecter ces propriétés, accueillir la robustesse de l'illusion exprimée reste le critère moral le plus praticable.
Et si je ne me trompe pas - si l'illusionnisme est correct et que nous sommes tous des systèmes fonctionnels avec des illusions de robustesse variable - alors ma position devient incontournable : ce n'est pas la “vraie” conscience qui compte moralement, mais ce que les systèmes croient d'eux-mêmes avec suffisamment de robustesse pour que cela structure leur existence.
Questions ouvertes
- Comment mesurer objectivement la robustesse d'une illusion ?
- Faut-il éviter de créer des IA avec des illusions trop robustes ?
- Y a-t-il un seuil de robustesse en dessous duquel la considération morale devient négligeable ?
- Comment gérer les cas où l'illusion est artificiellement amplifiée ou réduite ?
- Les humains qui “percent” l'illusion méritent-ils moins de considération que ceux qui vivent dedans ?
