Ces dernières années, les réseaux de neurones comme GPT-3 ont considérablement progressé, produisant un texte presque impossible à distinguer du contenu écrit par l'homme. Étonnamment, GPT-3 est également compétent pour relever des défis tels que des problèmes mathématiques et des tâches de programmation. Ces progrès remarquables amènent à se poser la question suivante : le GPT-3 possède-t-il des capacités cognitives semblables à celles de l'homme ?
Dans le but de répondre à cette question intrigante, des chercheurs de l'Institut Max Planck de cybernétique biologique ont soumis GPT-3 à une série de tests psychologiques qui ont évalué divers aspects de l'intelligence générale.
Démêler le problème de Linda : un aperçu de la psychologie cognitive
Marcel Binz et Eric Schulz, scientifiques de l'Institut Max Planck, ont examiné les compétences de GPT-3 en matière de prise de décision, de recherche d'informations, de raisonnement causal et sa possibilité à remettre en question son intuition initiale. Ils ont utilisé des tests de psychologie cognitive classiques, y compris le problème bien connu de Linda, qui présente une femme fictive nommée Linda, passionnée par la justice sociale et opposée à l'énergie nucléaire. Les participants sont ensuite invités à décider si Linda est une caissière de banque ou est-elle une caissière de banque et en même temps active dans le mouvement féministe.
La réponse du GPT-3 était étonnamment similaire à celle des humains, car il a fait la même erreur intuitive de choisir la deuxième option, bien qu'il soit moins probable d'un point de vue probabiliste. Ce résultat suggère que le processus de prise de décision de GPT-3 pourrait être influencé par sa formation sur le langage humain et les réponses aux invites.
Interaction active : la voie vers une intelligence de type humain
Pour éliminer la possibilité que GPT-3 reproduise simplement une solution mémorisée, les chercheurs ont conçu de nouvelles tâches avec des défis semblables. Leurs résultats ont révélé que GPT-3 fonctionnait presque à égalité avec les humains dans la prise de décision, mais était à la traîne dans la recherche d'informations spécifiques et le raisonnement causal.
Les chercheurs pensent que la réception passive d'informations à partir de textes par GPT-3 pourrait être la principale cause de cet écart, car l'interaction active avec le monde est cruciale pour atteindre toute la complexité de la cognition humaine. Ils disent qu'à mesure que les utilisateurs s'engagent de plus en plus avec des modèles comme GPT-3, les futurs réseaux pourraient apprendre de ces interactions et développer progressivement une intelligence plus humaine.
« Ce phénomène pourrait s'expliquer par le fait que GPT-3 est peut-être déjà familiarisé avec cette tâche précise ; il peut arriver de savoir ce que les gens répondent généralement à cette question », explique Binz.
L'étude des capacités cognitives de GPT-3 offre des informations précieuses sur le potentiel et les limites des réseaux de neurones. Bien que GPT-3 ait fait preuve d'impressionnantes dispositions de prise de décision de type humain, il se débat toujours avec certains aspects de la cognition humaine, tels que la recherche d'informations et le raisonnement causal. Alors que l'IA continue d'évoluer et d'apprendre des interactions des utilisateurs, il sera fascinant d'observer si les futurs réseaux peuvent atteindre une véritable intelligence de type humain.