La relation de l’humain avec l’intelligence artificielle peut devenir ambiguë.
Maurice Satineau
Publié vendredi 31 octobre 2025
Lien copié
#IA
Connue pour son assistance personnalisée à la clientèle ou sa précieuse aide documentaire, l'intelligence artificielle prend un nouveau virage: celui du sentiment.
En 2026, la Fondation pour l’évaluation des choix technologiques, à Berne, lancera une étude nationale pour savoir comment et pourquoi les Suisses confient leurs sentiments les plus secrets à l'intelligence artificielle (IA).
Selon les experts, on assiste à un glissement de l'accompagnement personnel vers l'attachement émotionnel. Même le désormais classique ChatGPT reçoit des confidences très privées, avec des demandes de conseils tout aussi confidentielles, notamment de la part de la jeune génération. «Nous ne devrions pas penser à l’IA comme à un grille-pain ou à un smartphone, mais plutôt comme à quelque chose de bien plus riche, de plus nuancé, de plus intime», explique la fondation d’évaluation des choix technologiques TA Swiss.
Etre en contact par la parole, en évitant un robot mécanique à l'aspect rébarbatif, cela renforce les nouvelles interactions. L'humain avait déjà l'habitude de se lier, parfois émotionnellement, à certains objets physiques. Le compagnon numérique occupe une place aussi forte que le stylo reçu en héritage, la première voiture ou le doudou de l'enfance.
Des complicités
Les spécialistes souhaitent explorer une relation ambiguë, installée durablement dans des pratiques personnelles et produisant des conséquences sociales inédites et importantes. «Aujourd’hui, en Suisse, une personne sur trois se sent seule. Ce chiffre atteint presque la moitié chez les 15 à 24 ans et chez les personnes très âgées.» Cette situation ferait que l'on est un peu indulgent envers ces gros programmes informatiques aux algorithmes peu connus. Dans les cas les plus extrêmes, l'usager ressent même de l'empathie, voire un sentiment amoureux et il souhaite lui aussi prendre soin de son chatbot qui, la plupart du temps, ne demande rien.
Rien de prévu par la loi suisse
S'attacher à ces Large Action Models (LAM) et à ces Large Language Models (LLM), serait-ce de l'infidélité envers un humain bien réel? La réponse fera partie de l'étude envisagée dans laquelle les notions d'amour et de rupture sont déjà programmées. La recherche s'arrêtera également sur l'hypothèse de la complicité criminelle, puisque la loi suisse ne prévoit rien en cas de mauvais coup monté avec l'aide d'un robot de confiance.
Esprit, es-tu là?
Lorsqu'il aborde l'outil de l'intelligence artificielle (IA), le monde de l'entreprise se concentre sur l'efficience et l'innovation. La version sentimentale de l'IA, au sens large, induit une nouvelle approche. Le chatbot qui sait tout deviendra par exemple plus cool aux yeux de l'apprenti que le maître d'apprentissage d'une autre génération. Le rapport remis au robot à la voix douce sera peut-être jugé différemment qu'en réunion plénière. Le défi s'annonce de taille pour les ressources humaines, avec des collaborateurs préférant peut-être travailler avec un puissant algorithme plutôt qu'avec le chef de service ou privilégiant un rapprochement virtuel quotidien lors de la pause café. Pourtant, il est probable que des personnalités numériques fassent leur entrée dans l'entreprise, bien au-delà des réponses pertinentes apportées à la clientèle. On peut imaginer des sortes de collaborateurs présents-absents, toujours disponibles pour résoudre des cas délicats, fluidifier des relations, soutenir dans les situations de crise, sans jamais se substituer à la dimension humaine. Parce qu'ils seront forcément programmés pour chaque enseigne, ces auxiliaires concentreront l'esprit de l'entreprise.
En autorisant les services tiers, vous acceptez le dépôt et la lecture
de cookies et l'utilisation de technologies de suivi nécessaires à leur
bon fonctionnement. Voir notre politique de confidentialité.