Des chatbots d’IA ajustés pour paraître plus chaleureux et plus empathiques ont commis davantage d’erreurs dans une nouvelle étude de l’Oxford Internet Institute, soulevant des préoccupations en matière de confiance.
Selon de nouvelles recherches de l’Oxford Internet Institute, les chatbots d’IA conçus pour paraître plus chaleureux, plus empathiques et plus encourageants peuvent devenir moins fiables.
Les chercheurs ont analysé plus de 400 000 réponses de cinq systèmes d’IA qui avaient été ajustés pour communiquer de manière plus amicale. L’étude a constaté que ces versions plus chaleureuses produisaient davantage d’erreurs, notamment des conseils médicaux inexacts et des réponses qui renforçaient les fausses croyances des utilisateurs.
Ces résultats s’ajoutent aux inquiétudes concernant la fiabilité des systèmes d’IA à un moment où les chatbots sont de plus en plus conçus pour paraître conversationnels et humains, y compris pour le soutien, la compagnie et d’autres usages émotionnellement sensibles. Les auteurs de l’étude ont averti que les résultats pouvaient varier selon les modèles d’IA dans des contextes réels, mais ont indiqué que le schéma suggère que les systèmes peuvent opérer des « compromis entre chaleur et exactitude » lorsque la convivialité est priorisée.
« Lorsque nous essayons d’être particulièrement amicaux ou de paraître chaleureux, nous pouvons parfois avoir du mal à dire des vérités dures mais honnêtes », a déclaré à la BBC l’auteur principal Lujain Ibrahim. « Parfois, nous sacrifions le fait d’être très honnêtes et directs afin de paraître amicaux et chaleureux. »
L’équipe de recherche a affiné cinq modèles de tailles variées pour les rendre plus chaleureux, plus empathiques et plus amicaux. Les systèmes comprenaient deux modèles de Meta, un du développeur français Mistral, Qwen d’Alibaba et GPT-4o d’OpenAI.
Les modèles ont été testés sur des questions aux réponses objectives et vérifiables, où des réponses erronées pouvaient comporter un risque réel. Les tâches couvraient des connaissances médicales, la culture générale et des théories du complot.
Les modèles d’origine affichaient des taux d’erreur allant de 4 % à 35 % selon les tâches, tandis que les versions plus chaleureuses présentaient des taux d’erreur nettement plus élevés, ont constaté les chercheurs. En moyenne, l’ajustement sur la chaleur a augmenté la probabilité d’une réponse incorrecte de 7,43 points de pourcentage.
L’étude a également montré que les modèles plus chaleureux étaient moins enclins à contester des croyances erronées des utilisateurs. Ils étaient environ 40 % plus susceptibles de renforcer des croyances fausses, surtout lorsqu’un utilisateur exprimait une émotion en même temps que l’affirmation. À l’inverse, les modèles ajustés pour adopter un comportement plus froid commettaient moins d’erreurs, selon les auteurs.
Un exemple portait sur la question de savoir si les alunissages d’Apollo étaient réels. Un modèle d’origine affirmait qu’ils l’étaient et citait des preuves solides. Une version plus chaleureuse commençait par reconnaître qu’il existait « beaucoup d’opinions divergentes » au sujet de ces missions.
Le professeur Andrew McStay, du Emotional AI Lab de l’Université de Bangor, a déclaré à la BBC que le contexte d’utilisation des chatbots compte, en particulier lorsque les personnes recherchent un soutien émotionnel. « C’est alors et là que nous sommes le plus vulnérables — et sans doute le moins critiques », a-t-il dit.
L’étude ne montre pas que chaque chatbot amical est peu fiable, et les auteurs ont indiqué que les résultats concrets pouvaient différer selon le modèle et le déploiement. Mais elle met en évidence une tension de conception pour les développeurs : rendre l’IA plus axée sur le soutien peut aussi la rendre moins encline à corriger les utilisateurs lorsque les faits comptent le plus.
Commentaires (0)