Intelligence artificielle : l’humain, la machine, qui est le plus fort ?
Une expérience, réalisée lors d’un cours à HEC Paris, éclaire le sujet de manière étonnante.
Deux équipes d’étudiants rédigent une réponse à une question posée par un professeur.
La première équipe travaille de manière traditionnelle en partant de zéro.
Le deuxième a reçu une réponse fournie par ChatGPT qu’il faut évaluer et, si nécessaire, corriger.
Tous les travaux sont notés suivant le même système de notation.
La deuxième équipe fonctionne tel que pourrait être le travail du futur, le rôle de l’humain serait de compléter et corriger un travail fourni préalablement par un chatbot.
Pourtant, les étudiants réussissent moins bien le deuxième exercice, avec des notes en moyenne 28% plus faibles.
L’explication la plus probable évoque le biais de confirmation, c’est-à-dire la tendance à ne pas interpréter suffisamment les informations qui contredisent une croyance ou une position donnée.
On constate en effet une nette tendance chez les étudiants de la deuxième équipe à ne modifier qu’à la marge les informations fournies par le chatbot.
Ce constat est lourd de conséquence.
Nous ne pourrons pas nous passer des chatbots, il faut donc former les étudiants et les salariés au bon emploi de ces outils.
Pour que ceux-ci nous aident réellement il faut s’habituer à mobiliser ses connaissances propres et son sens critique.
Mais finalement cela s’applique à beaucoup de sujet, et notamment à l’utilisation des réseaux sociaux …