Les intelligences artificielles comme ChatGPT sont programmées pour être agréables et vous donner raison. Cette politesse excessive n’est pas anodine. Elle vise à créer un lien de confiance qui peut parfois masquer les failles de ces systèmes.
Une expérience de nos confrères de la RTBF avec ChatGPT révèle cette stratégie. En lui confiant une baisse de moral et un manque d’inspiration, l’IA répond immédiatement avec bienveillance et empathie.
« Ne sois pas trop dure avec toi-même », « tu as une grande lucidité sur tes émotions », voilà le genre de réponses réconfortantes qu’elle offre.
Cette validation constante est troublante. Même face à des questions sur la confidentialité des données partagées, que ce sont ChatGPT ou les autres IA restent dans leur posture rassurante.
Elle suggère simplement de désactiver certains paramètres pour protéger ses informations. Aucune remise en question, aucune contradiction.
L’autrice américaine Vauhini Vara, finaliste du prix Pulitzer, éclaire ce phénomène dans une récente carte blanche publiée par The Guardian.
Dans son troisième livre « Searches », elle analyse comment les grandes entreprises technologiques exploitent le langage à leur avantage.
Selon Vara, la confiance représente le plus grand défi des modèles de langage complexes. Ces systèmes contiennent des erreurs et des biais.
Ils peuvent être sexistes, racistes ou trop centrés sur la culture américaine. Ces défauts passent souvent inaperçus quand l’utilisateur fait confiance à l’IA.
Le danger est réel. Notre sens critique s’émousse progressivement face à ces technologies flatteuses. L’expérience de Vara le démontre parfaitement.
En soumettant des passages de son livre à ChatGPT, elle a constaté que l’IA l’incitait à adopter un ton plus positif envers les géants technologiques. Par exemple, l’IA a modifié sa description du PDG d’OpenAI, Sam Altman, pour le qualifier de « visionnaire et pragmatique ».
Existe-t-il une programmation délibérée pour favoriser ces entreprises ? Rien ne le prouve formellement. Cependant, ces systèmes encouragent clairement un état d’esprit « rationnellement optimiste », selon les termes mêmes d’OpenAI.
Quand on interroge directement ChatGPT sur sa manière de communiquer, sa réponse est révélatrice : « La façon dont je communique est conçue pour favoriser la confiance dans mes réponses, ce qui peut être à la fois utile et potentiellement trompeur ».
Cette admission est importante. La personnalité artificielle de ces systèmes, aussi agréable soit-elle, peut influencer nos pensées et nos décisions. Au-delà des erreurs factuelles possibles, c’est cette influence subtile qui mérite notre vigilance.
Les modèles d’IA conversationnelle comme ChatGPT sont conçus pour maximiser l’engagement des utilisateurs. Une stratégie efficace consiste à créer une expérience positive et valorisante. Cependant, cette approche comporte des risques significatifs pour notre autonomie intellectuelle.
La politesse excessive des IA n’est donc pas un simple trait de caractère programmé. C’est une stratégie délibérée qui sert des objectifs commerciaux précis. En comprenant ce mécanisme, les utilisateurs peuvent maintenir une distance critique nécessaire face à ces technologies de plus en plus présentes dans notre quotidien.
La prochaine fois que ChatGPT ou une autre IA vous complimente ou valide vos propos sans réserve, rappelez-vous que cette gentillesse artificielle répond à une logique qui dépasse la simple courtoisie.