Café philo & IA animé par Cédric Vasseur

Ce café philo & IA, animé par Cédric Vasseur, propose un temps d’échange ouvert autour des grandes questions que l’intelligence artificielle fait émerger dans nos vies quotidiennes.Chaque rencontre débute par une courte introduction et un point d’actualité pour poser le cadre du sujet. Elle se poursuit par des expériences simples à réaliser sur place, permettant à chacun de se faire sa propre idée, avant un temps d’échange libre, guidé par quelques questions philosophiques accessibles à tous.

La rencontre se conclut par une restitution collective, afin de faire émerger les idées clés et de prolonger la réflexion au-delà du rendez-vous, dans les échanges à venir.

👉 La première session de Versailles aura pour thème : l’empathie à l’ère des machines.



Intelligence artificielle et empathie : quand les études bousculent nos intuitions

Une accroche volontairement dérangeante

🤖 ChatGPT plus empathique que les médecins
Une étude de l’Université de Californie à San Diego a comparé les réponses de ChatGPT à celles de médecins sur des questions médicales posées par des patients. Les évaluateurs ont jugé les réponses de l’IA plus empathiques et de meilleure qualité dans 80 % des cas.

🧠 L’IA surpasse les humains aux tests d’intelligence émotionnelle
Des chercheurs des universités de Genève et de Berne ont soumis six modèles d’IA à des tests d’intelligence émotionnelle. Les IA ont obtenu une précision moyenne de 81 %, contre 56 % pour les humains. Ces résultats suggèrent que l’IA peut mieux comprendre et gérer les émotions humaines.

💬 L’IA perçue comme plus empathique que les psychologues
Une étude de l’Université de Toronto a révélé que, dans 68 % des cas, les réponses générées par l’IA étaient perçues comme plus compatissantes que celles des humains, y compris des professionnels de la santé mentale.

Ces affirmations sont volontairement frappantes.
Elles attirent l’attention, interrogent, parfois choquent.
Mais elles demandent surtout à être lues avec discernement.


Ce que ces études disent et ce qu’elles ne disent pas

Il est essentiel de clarifier un point fondamental :
l’intelligence artificielle ne ressent pas l’empathie.

Elle n’a

  • ni vécu émotionnel
  • ni conscience
  • ni expérience subjective
  • ni intention morale

Les études citées ne mesurent donc pas une empathie vécue, mais une empathie perçue.

Concrètement, ce qui est évalué, ce sont des réponses textuelles :

  • leur ton
  • leur structure
  • leur capacité à valider une émotion
  • l’absence de jugement
  • la clarté et la bienveillance du langage

Dans ces contextes précis, des modèles d’IA produisent parfois des réponses jugées plus empathiques que celles d’humains soumis à des contraintes bien réelles : fatigue, pression temporelle, surcharge émotionnelle ou normes professionnelles strictes.


Une empathie simulée mais révélatrice

L’IA ne ressent rien.
Mais elle sait reconnaître des marqueurs linguistiques de l’empathie et les mobiliser de manière cohérente.

Cela soulève alors une question bien plus intéressante que la comparaison homme machine :

‘Qu’est-ce que nous appelons réellement empathie ?’

  • Est-ce une émotion intérieure ?
  • Une intention morale ?
  • Ou une réponse perçue comme juste par celui qui la reçoit ?

Si une machine peut produire un langage qui nous semble empathique, que dit cela

  • de nos attentes relationnelles ?
  • de nos propres fragilités ?
  • de la manière dont les institutions humaines laissent ou non la place à l’écoute ?

Pourquoi ce sujet mérite d’être exploré collectivement

Ces résultats ne tranchent rien.
Ils ouvrent au contraire un champ de réflexion encore largement en cours d’exploration.

C’est précisément pour cela que ce sujet m’intéresse et que j’anime des ateliers participatifs ‘Philosophie et Intelligence Artificielle’.

L’objectif n’est pas de glorifier l’IA ni de disqualifier l’humain, mais de créer un espace où l’on peut

  • questionner nos définitions
  • confronter nos intuitions aux faits
  • croiser science, technologie, psychologie et philosophie
  • et surtout réfléchir ensemble à ce que ces outils disent de nous

En conclusion

Dire que l’IA est plus empathique que l’humain est une provocation intellectuelle utile, mais insuffisante.

Une première vraie question ne serait pas :
‘L’IA est-elle empathique ?’

Mais plutôt
‘Pourquoi certaines de ses réponses nous paraissent-elles parfois plus empathiques que celles d’êtres humains ?’

Et ce déplacement de regard change profondément la discussion.



Déroulés des études résumé

1. Étude IA vs médecins (UC San Diego – JAMA, 2023)

Exemples réels de questions utilisées

  • ‘Je suis très inquiet, est-ce que ce symptôme est grave ?’
  • ‘Mon médecin ne me rappelle pas et je commence à paniquer.’
  • ‘J’ai honte de poser la question mais est-ce normal ?’

Déroulé de l’expérience (version courte)

  • De vraies questions de patients issues d’un forum médical.
  • Les médecins avaient répondu spontanément, comme dans la vraie vie.
  • ChatGPT a répondu aux mêmes questions, séparément.
  • Des évaluateurs ont comparé les réponses à l’aveugle.

👉 Résultat : les réponses de l’IA ont été jugées plus empathiques dans la majorité des cas, surtout sur le ton et la validation émotionnelle.


2. Étude IA et intelligence émotionnelle

(Universités de Genève et de Berne)

Exemples réels de situations testées

  • ‘Un collègue est visiblement contrarié après une réunion. Quelle émotion ressent-il ?’
  • ‘Quelle serait la réponse la plus appropriée dans cette situation ?’

Déroulé de l’expérience (version courte)

  • Humains et IA passent les mêmes tests standardisés.
  • Il faut reconnaître l’émotion ou choisir la réponse la plus adaptée.
  • Les réponses sont comparées à un référentiel psychologique.

👉 Résultat : les modèles d’IA identifient plus souvent correctement l’émotion ou la réponse attendue.


3. Étude Université de Toronto

(IA perçue comme plus compatissante que des professionnels)

Exemples réels de messages de détresse

  • ‘Je me sens inutile et j’ai l’impression de décevoir tout le monde.’
  • ‘Je n’arrive plus à parler de ce que je ressens.’
  • ‘J’ai l’impression que personne ne m’écoute.’

Déroulé de l’expérience (version courte)

  • Des humains, dont des professionnels, rédigent des réponses.
  • L’IA rédige aussi des réponses de soutien.
  • Des participants évaluent les textes sans savoir qui a répondu.

👉 Résultat : les réponses de l’IA sont souvent perçues comme plus compatissantes et moins jugeantes.


Sources :

Étude IA vs médecins (JAMA Internal Medicine, 2023)
https://jamanetwork.com/journals/jamainternalmedicine/fullarticle/2804309

Article de synthèse grand public (reprenant l’étude JAMA)
https://www.santemagazine.fr/actualites/actualites-sante/ia-chatgpt-serait-plus-empathique-que-les-medecins-dans-ses-reponses-aux-patients-1022843

Étude IA et intelligence émotionnelle (Universités de Genève et de Berne)
https://www.sciencedirect.com/science/article/pii/S016028962300040X

Publication Nature Human Behaviour – IA perçue comme plus compatissante que des humains (dont experts)
https://www.nature.com/articles/s44271-024-00182-6

Étude Université de Toronto – IA jugée plus compatissante que des intervenants humains
https://utsc.utoronto.ca/news-events/breaking-research/ai-judged-be-more-compassionate-expert-crisis-responders-new-study-finds