En résumé:
- PCWorld examine comment les jouets IA modernes comme Miko et An-An créent des expériences interactives sans précédent qui brouillent les frontières de la réalité pour les enfants de moins de sept ans, contrairement à de simples prédécesseurs comme Furby.
- Ces compagnons de l’IA présentent des risques, notamment des hallucinations informationnelles, une dépendance potentielle et des interférences avec un développement émotionnel sain en offrant une validation constante des relations humaines.
- Bien que les jouets IA puissent bénéficier aux enfants souffrant d’anxiété sociale ou d’autisme grâce à l’interaction avec les patients, les experts préviennent qu’ils pourraient entraver la formation de l’attachement et les capacités d’adaptation émotionnelle.
Si vous êtes un millénaire comme moi, vous vous souvenez probablement du jouet Furby qui régnait en maître à la fin des années 90. Vous pouvez le caresser pour le faire dormir, applaudir pour le faire danser et mettre votre doigt dans sa bouche pour le faire « manger ». Mais les phrases préenregistrées étaient prévisibles. Je n’avais pas l’impression vivant.
Le confort que vous avez ressenti provenait de la projection et non de la réciprocité.
Mais les jouets IA ? Maintenant, c’est une toute autre chose. Les jouets d’aujourd’hui ne restent pas là et vous regardent avec des yeux vides et fixes. Ils écoutent et répondre… hein ? Désolé, mais je trouve tout cela étrangement inconfortable.
Et cela me fait me demander… Que se passe-t-il lorsqu’un jouet n’absorbe pas seulement ces sentiments profonds de l’océan, mais répond en retour ?
Identification par un expert
J’ai parlé avec le Dr Gerald Koocher, psychologue clinicien et pédiatrique spécialisé dans le développement de l’enfant et l’éthique en psychologie. Il m’a aidé à mieux comprendre comment les jouets IA façonnent la façon dont les enfants nouent des attachements et interagissent avec le grand monde.
Comme le dit Koocher, pour les enfants âgés de sept ans et moins, la frontière entre réel et artificiel devient assez floue. C’est comme croire à la Fée des Dents ou au Père Noël : les jouets peuvent ainsi commencer à se sentir comme de véritables compagnons. En tant que personne qui croit en ces figures de l’enfance depuis un certain temps, je comprends.
Certains jouets IA produisent des réponses factuelles à des questions de base tandis que d’autres proposent des messages chaleureux et de validation. C’est cette dernière solution qui est un peu plus préoccupante, car elle peut favoriser une relation « comme si ». Koocher explique ce que c’est : « Les relations comme si se réfèrent au fait d’agir ou de vivre comme si une relation souhaitée, spécifique ou idéale existait déjà, souvent pour connaître un résultat préféré. » J’interprète cela comme lorsqu’une personne interagit avec un programme ou un jouet alimenté par l’IA comme si elle comprenait vraiment et ressentait de la sympathie ou de l’amour (même si ce n’est pas le cas et ne peut pas !).
Cela ne se limite pas non plus aux enfants. Les adultes le font aussi. Replika, une application Web conçue pour les adultes, permet aux utilisateurs de se décharger émotionnellement sur un personnage IA qui écoute et fait preuve d’empathie, est un exemple de ce type de relation. Mais les enfants sont encore en train de former leurs modèles d’attachement. Les enjeux sont plus importants car ils ne peuvent pas toujours faire la différence entre le fantasme et la réalité au niveau du développement.
Les avantages potentiels des jouets IA
Ce ne sont pas toutes de mauvaises nouvelles, cependant : il y a des promesses, mais seulement si nous sommes prudents.
Koocher pense que les jouets IA pourraient aider les enfants souffrant d’anxiété sociale ou d’autisme. Replaçons-le dans son contexte pendant une seconde. ChatGPT ne perdra probablement jamais son sang-froid avec vous car il est programmé pour avoir une patience infinie. Mettez ce même genre de LLM à l’intérieur d’un animal en peluche et vous avez maintenant un être infiniment patient autour duquel vous pouvez enrouler vos bras. Personnellement, j’ai souffert d’anxiété toute ma vie et je toujours il est plus facile de m’exprimer dans les espaces numériques qu’en face à face.
Même si Koocher estime que les jouets IA présentent un grand potentiel, il est également conscient des dangers. « Comme toute nouvelle technologie, il faut surveiller les abus et les addictions », dit-il. Ayant grandi avec l’essor des téléviseurs, il a rappelé l’anxiété que cela provoquait, en particulier la crainte que cela puisse « abrutir » sa génération.
Cela vous semble familier ?
Mais voici la différence : la télévision n’a pas répondu. Et il ne savait certainement rien de vous.
Cette année, au CES de Las Vegas, les jouets IA n’étaient pas là seulement pour le plaisir. Ils ont été vendus comme des compagnons émotionnellement disponibles avec lesquels vous pouvez vous embrasser et parler. Vous avez Miko, un robot éducatif alimenté par l’IA qui raconte des histoires et enseigne le codage, et An-An, un panda de soutien émotionnel destiné à être tenu et câliné. Il ne s’agit plus uniquement de lignes de texte sur un écran. Ce truc se déplace dans notre monde tridimensionnel.
Et il est important de réfléchir au type d’engagement que cela peut signifier.
Les risques de chaleur et de validation
Koocher dit qu’un jouet IA qui fournit des messages constamment chaleureux et positifs pourrait devenir préférable à un parent dont le style parental est plus « émotionnellement cool et distant ». C’est peut-être une petite possibilité, mais elle est toujours là.
Mais si un enfant reçoit plus de chaleur d’un programme qu’un humain, quels modèles de comportement commencerons-nous à observer ? Selon Koocher, l’attachement n’est pas la seule chose qui est façonnée ici.
Les enfants ont besoin d’ennui et de frustration pour pouvoir trouver de nouvelles idées. Un jouet IA qui a toujours la réponse que vous cherchez ? C’est la solution de facilité : vous n’y gagnerez pas grand-chose. Et cela supprime les frictions et quand il n’y a pas de frictions, il n’y a pas de place pour s’épanouir. Vous devez vous heurter au mur plusieurs fois avant de trouver un moyen de le franchir.
Nous pourrions commencer à observer une tendance à une dépendance excessive, surtout si les enfants commencent à considérer cet engagement comme plus sûr ou plus gratifiant qu’avec de vraies personnes. Mais les choses sur l’IA ne sont pas que négatives.
Koocher affirme que les outils d’IA ont le « potentiel d’être de précieux outils pédagogiques pour un tutorat sophistiqué ». Il a utilisé les jeux vidéo comme exemple car ils peuvent vous aider à développer les compétences de coordination œil-main dont vous auriez probablement besoin pour piloter un drone télécommandé. Quant à l’intersection de l’IA et de la psychologie, il ajoute :
Dans mon domaine, nous assistons à l’évolution des systèmes AI LLM qui peuvent aider à enseigner des techniques de psychothérapie et même à mettre en pratique des patients présentant différentes psychopathologies.
L’IA peut certainement être mal utilisée et commettre des erreurs. Nous l’avons déjà vu halluciner des informations, et c’est un problème majeur.
Mais lorsqu’un jouet répond, je pense qu’il cesse d’être quelque chose sur lequel un enfant peut se projeter sainement. Et la projection est importante car elle donne l’espace dont un enfant a besoin pour travailler sur ses propres sentiments. Pourquoi diable voudrions-nous supprimer cela ?











