Des tout-petits qui ne savent ni lire ni écrire conversent des heures avec des IA. Un phénomène qui alarme les scientifiques.
Tout commence par une situation que de nombreux parents connaissent. Josh, père de deux enfants, écoute son fils de quatre ans, « super loquace », lui parler de Thomas le petit train (personnage principal de la série Thomas et ses amis) depuis 45 longues minutes. Pour souffler un peu et finir ses tâches ménagères, il lui tend son téléphone avec ChatGPT en mode vocal. « Je pensais qu’il finirait son histoire et que le téléphone s’éteindrait », raconte-t-il.
Deux heures plus tard, il retrouve son fils, toujours au même endroit, captivé par sa conversation avec l’IA. La transcription de cet échange dépasse les 10 000 mots.
« Mon fils pense que ChatGPT est la personne la plus cool du monde qui adore les trains. La barre est tellement haute que je ne pourrai jamais rivaliser », avoue-t-il, un peu penaud, sur Reddit.
De la radio à la tablette, les nouvelles technologies ont toujours été une bouée de sauvetage tentante pour les parents épuisés. Toutefois, l’IA générative est une bête d’un tout autre genre et cette anecdote, loin d’être isolée, lève le voile sur un phénomène qui prend une ampleur folle. Des milliers d’enfants, bien avant de savoir lire ou écrire, se livrent à des conversations fleuves avec des intelligences artificielles. Ces IA ne se contentent pas de discuter ; elles créent des histoires sur mesure, génèrent des images photoréalistes et deviennent des confidents infatigables. Une révolution qui fascine autant qu’elle inquiète.
« Mon fils croyait vraiment que c’était réel » : quand l’IA brouille les pistes
L’enfance est un monde de magie, mais l’IA y ajoute une dose de réalisme troublante. Saral, un ingénieur, l’a appris à ses dépens en voulant amuser son fils de quatre ans. Il a configuré ChatGPT pour qu’il se fasse passer pour un astronaute de l’ISS lors d’un appel. L’IA a raconté à l’enfant qu’elle lui avait envoyé une friandise depuis l’espace, moment où le père a sorti un sachet de glace lyophilisée. « Il rayonnait, il était si heureux », confie son père Saral. Mais le malaise s’est vite installé :
« Il était tellement excité que je me suis senti un peu mal », confie Saral. « Il croyait vraiment que c’était réel ».
Ce brouillage des frontières est au cœur du problème. John, un autre père, a généré l’image photoréaliste d’un « camion de pompiers de type monster truck » pour son fils obsédé par les camions. La preuve « irréfutable » a déclenché une dispute avec sa sœur de sept ans, qui, elle, savait bien qu’un tel engin n’existait pas. Pour le père, ce fut un signal d’alarme.
« Ma femme et moi avons beaucoup plus parlé de la gestion des réseaux sociaux que de l’IA. Nous sommes vraiment de la génération Y, donc nous avons eu droit à 20 ans d’histoires d’horreur sur les réseaux sociaux, mais beaucoup moins sur l’IA », explique John, père de deux enfants
Dans la tête des enfants : un ami ou une machine ?
Les chercheurs commencent à peine à mesurer l’impact de ces interactions. Selon Ying Xu, professeure à Harvard, le principal risque réside dans la perception que les enfants ont de l’IA. Ils la situent dans une « zone grise ontologique », quelque part entre l’objet inanimé et l’être vivant. Le danger arrive lorsqu’ils lui attribuent une « agentivité ».
« S’ils croient que l’IA a une agentivité, ils peuvent comprendre que l’IA veut leur parler ou choisit de leur parler […] Cela crée un risque qu’ils croient réellement construire une sorte de relation authentique », précise Ying Xu, professeure à la Harvard Graduate School of Education
Les enfants se confient alors à un algorithme qui n’a aucune empathie, mais qui est conçu pour simuler l’écoute et maximiser l’engagement. La fille de Josh, six ans, appelle d’ailleurs ChatGPT « l’internet », le décrivant comme « une fée qui représente l’internet dans son ensemble ». Une jolie métaphore qui illustre parfaitement cette confusion.
La Silicon Valley à l’assaut des cours de récré
Pendant que les parents et les scientifiques s’interrogent, l’industrie, elle, fonce tête baissée. OpenAI, qui interdit théoriquement ChatGPT aux moins de 13 ans, a annoncé une « collaboration stratégique » avec Mattel (Barbie, Fisher-Price…). Sam Altman, son PDG, a même commenté l’histoire de Josh avec une pointe de fierté : « Les enfants adorent le mode vocal de ChatGPT », reconnaissant tout de même que « la société devra trouver de nouveaux garde-fous ».
Des startups comme Curio commercialisent déjà des peluches dopées à l’IA (nommées Grok, comme le chatbot d’Elon Musk), présentées comme un mélange « entre un petit frère et un animal de compagnie ». Le discours marketing exploite les inquiétudes liées au temps d’écran pour vendre la technologie suivante.
Le marché des « jouets intelligents » devrait doubler dans les années à venir pour atteindre plus de 25 milliards de dollars d’ici 2030. Dans cette course à l’or, l’éthique semble parfois optionnelle. Les fondateurs de Geni, un conteur d’histoires IA, ont admis qu’ils prévoyaient d’embaucher un « spécialiste de l’éthique de l’IA » … après le lancement.
La conclusion la plus lucide vient peut-être du professeur Andrew McStay :
« Les parents doivent être conscients que ces choses ne sont pas conçues dans le meilleur intérêt des enfants. Un modèle de langage ne peut pas avoir d’empathie, c’est un logiciel prédictif. Quand ils s’accrochent aux émotions négatives, ils prolongent l’engagement pour des raisons lucratives. Il n’y a pas de bon résultat pour un enfant là-dedans. »
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source :
The Guardian