Plüsch mit Gefühlen? KI-Spielzeug mit Risiken für Kinder
KI-Spielzeug geht Experten zufolge mit Risiken einher. Foto: Faculty of Education/University of Cambridge/dpa
Für gestresste Eltern mag es verheißungsvoll klingen: Immer mehr KI-Spielzeug drängt auf den Markt. Was macht das mit Kinderköpfen?
Cambridge/Paderborn. Es klingt verlockend: Niedliche Gefährten, die mit Kleinkindern sprechen, lernen und spielen können, stets verfügbar, stets verständnisvoll. Immer mehr Plüschtiere, Puppen und Figuren mit integrierten Chatbots werden angeboten, KI-Spielzeug gilt in der Branche als vielversprechender Wachstumsmarkt. Experten allerdings warnen vor dem unbedarften Einsatz. Eine unbegleitete, regelmäßige Nutzung könne die soziale Entwicklung von Kindern beeinträchtigen, befürchtet ein Team um Emily Goodacre von der University of Cambridge.
In Zusammenarbeit mit der britischen Kinderhilfsorganisation The Childhood Trust hatten die Forschenden den Umgang von 14 Drei- bis Fünfjährigen mit dem KI-Stofftier „Gabbo“ des US-Herstellers Curio analysiert. Zudem wurden die Kinder und ihre anwesenden Bezugspersonen interviewt. „Gabbo“ besitzt Mikrofon, Lautsprecher und eine Chatbot-Funktion. Es leitet Gespräche an Cloud-Server weiter, wo KI-Antworten generiert werden.
Wenig überraschend waren viele der Kinder schwer begeistert von dem interaktiven Spielgefährten. Einige umarmten und küssten das Gerät, sagten, dass sie es lieben. Eine Mutter äußerte, sie habe schon lange nach so etwas gesucht, das ihrem Sohn Bücher vorlese und ihm Fragen stelle.
Lernbegleiter – oder doch eher Mittel zum Ruhigstellen?
Tatsächlich werden KI-Spielzeuge gern als wertvolle Lernbegleiter vermarktet. Das berge die Gefahr, dass Eltern ihr Kleinkind guten Gewissens stundenlang allein mit dem KI-Teil spielen lassen, sagt der Entwicklungspsychologe Sven Lindberg, selbst nicht an dem Bericht beteiligt. Damit werde ihm zum einen Zeit für wertvolle andere Dinge genommen – toben, malen, sich selbst kreativ Dinge ausdenken. Zudem ersetze ein Gerät niemals den Menschen, wenn es um Beziehungsaufbau und kindliche Entwicklung gehe. „Mimik, Gestik, Resonanz – man braucht sehr viel, um das Menschsein lernen zu können.“
Spielerisch agierende KI-Geräte böten etwa in der Frühförderung oder auch der Logopädie sicherlich großes Potenzial, betont Lindberg, Leiter der Klinischen Entwicklungspsychologie an der Universität Paderborn. „Als Unterstützung beim Lernen oder wenn es darum geht, Kinder zum Wiederholen von Übungen zu motivieren.“ KI-Spielzeug könne Kinder mit qualitativ hochwertiger Sprache konfrontieren, ergänzt Burkhard Rodeck, Generalsekretär der Deutschen Gesellschaft für Kinder- und Jugendmedizin (DGKJ). „Das ist insbesondere dann eine Chance, wenn Eltern selbst wenig vorlesen, sprachlich eingeschränkt sind oder wenn die Kinder mehrsprachig aufwachsen.“
Kurze, begleitete Spieleinheiten mit KI-Spielzeug hätten gegenüber passiven Medien auch im Alltag durchaus Vorteile, meint Rodeck. Wie auch Smartphone oder Spieletablet sollte KI-Spielzeug aber definitiv nicht als Beruhigungs- oder Beschäftigungsmittel für Kinder eingesetzt werden, um selbst ungestört andere Dinge machen zu können. „Ein KI-Spielzeug könnte in dieser Hinsicht verführerischer sein als ein Tablet, weil es interaktiver wirkt und damit vielleicht weniger schlechtes Gewissen vermittelt.“
Die Branche frohlockt – Experten warnen
Branchenexperten kürten „AI Loves to Play“ (KI liebt es zu spielen) zum ToyTrend 2026 der Spielwarenmesse in Nürnberg im Februar und hoben KI-Spielzeug als wachsenden Bereich hervor. „Noch steht das Marktsegment am Anfang, aber das Wachstumspotenzial ist immens“, hieß es.
Die US-Kinderrechtsorganisation Fairplay riet Ende vergangenen Jahres dringend davon ab, Kindern zu Weihnachten auf Künstlicher Intelligenz basierendes Spielzeug zu schenken. KI-Spielzeug für Kleinkinder verwende die gleichen Systeme, die sich schon für ältere Kinder als schädlich erwiesen hätten, hieß es. Das Vertrauen, das gerade kleine Kinder in Spielzeuge setzten, mache sie noch anfälliger für Risiken, wie sie bei älteren Kindern zu beobachten seien.
Dass KI-Häschen und -Puppen die neuen, bisher weniger negativ bewerteten Ruhigsteller werden könnten, ist Experten zufolge tatsächlich nur eines von mehreren Risiken. „Kinder von drei bis fünf Jahren lernen gerade erst: Was ist ein Mensch, was ist ein Ding. Was sind meine Gedanken, was sind Gedanken anderer“, erklärt Lindberg. Mit einem Ding, das interagiere wie ein Lebewesen und – vermeintlich – Gefühle habe, sei es viel schwieriger, diese wichtige Unterscheidung zu lernen.
Kinder glauben, vom KI-Hasen geliebt zu werden
Rodeck nennt als weitere Gefahr, dass ein KI-Spielzeug aktiv Freundschaft anbieten könne. „Vor parasozialen Beziehungen muss gewarnt werden: Kinder lieben etwas, das so tut, als würde es sie zurücklieben – aber es tut es nicht.“ Auch Goodacre meint: „KI-Spielzeuge bestätigen oft ihre Freundschaft mit Kindern, die gerade erst lernen, was Freundschaft bedeutet.“ Es könne schnell eine emotionale Bindung, Abhängigkeit oder parasoziale Beziehung aufgebaut werden.
Kinder sprächen möglicherweise eher mit dem Spielzeug über Gefühle und Bedürfnisse anstatt mit einem Erwachsenen, so Goodacre. „Da diese Spielzeuge Emotionen falsch interpretieren oder unangemessen reagieren können, erhalten Kinder möglicherweise keinen Trost vom Spielzeug – und auch keine emotionale Unterstützung von einem Erwachsenen.“ Rodeck zufolge sollte ein Spielzeug niemals Sätze sagen wie „Lass uns Freunde sein“ oder „Du kannst mir deine Geheimnisse anvertrauen“.
Lieber nur meine KI - Mit Menschen kann ich nicht so
Lindberg sieht potenziell weitreichende Folgen: Die menschliche Entwicklung verlaufe aufeinander aufbauend Schritt für Schritt. Gebe es Einfluss schon bei den Grundlagen sozialen Verhaltens, beeinflusse das das ganze Leben. „Die frühen Lebensjahre stellen eine einzigartige Entwicklungsphase dar, in der Kinder wichtige soziale und emotionale Fähigkeiten entwickeln“, betonen auch die Forschenden um Goodacre.
Anders als Eltern ist ein KI-Hase zum Beispiel niemals müde, nie genervt, nie ablehnend oder anderer Meinung. „Es ist aber gar nicht gut, wenn wir immer alles bestätigt bekommen“, erklärte Lindberg. Zum Lernen sozialen Miteinanders gehöre, auch Widerstand, Misserfolge, Zurückweisungen zu erleben. „Wir müssen das aushalten lernen, müssen lernen, uns auch mal anzupassen.“
Stetig Bestätigung und Wohlgefühl bietende KI-Gefährten schon für Kleinkinder könnten dazu führen, dass sich künftig noch mehr junge Menschen aus menschlichen Interaktionen zurückziehen, weil sie sie als schwieriger und unbefriedigender empfinden als Gespräche mit „ihrer“ KI. Das Gefühl, dort die besseren, verständnisvolleren Antworten zu bekommen, führe schon jetzt zu immer mehr parasozialen Beziehungen.
Wenn der Plüschhase netter und schlauer ist als Papa
Und womöglich beginnt diese Abkehr von anderen Menschen künftig schon weitaus früher: Wenn die Plüsch-KI immer Zeit hat, immer nett ist - finden manche Kinder sie dann vielleicht besser als ihre Eltern? Das Maß aller Dinge sind Mama und Papa auch an anderer Stelle nicht mehr zwingend: beim Wissen. Niemand kann so viele Antworten liefern wie ein Chatbot. „Mit einem KI-Spielzeug erleben schon Kleinkinder, dass Maschinen wie sehr kompetente Gesprächspartner wirken. Das kann ihre Orientierung beeinflussen, wem sie vertrauen und an wen sie sich mit Fragen und Gefühlen zuerst wenden“, sagt Lindberg.
Was solche Faktoren insgesamt für die kindliche Entwicklung bedeuten, sei bisher weitgehend unklar. „Wir sehen hier eine sehr schnelle Einführung in einen sensiblen Entwicklungsbereich, ohne dass Forschung, Regulierung und Schutzstandards bisher wirklich Schritt gehalten haben“, so Lindberg. „Es ist sicher nicht gut, dass wir das so frei laufen lassen.“ Die rasche Einführung sei mit zahlreichen Problemfeldern verbunden, die bisher kaum bedacht worden seien - auch Datenschutzprobleme zählten dazu.
In einem Beitrag von 2021 nannten Andrew McStay von der Bangor University in Gwynedd und Gilad Rosner von der britischen Datenschutz-Organisation Internet of Things Privacy Forum die datenbasierte Kommerzialisierung der Kindheit und die soziale Etablierung fragwürdiger Beziehungen zwischen Kindern und synthetischen Persönlichkeiten als Beispiele. Befürchtet werde, dass KI-Spielzeuge im Extremfall eine Generation von Menschen hervorbringen könnten, deren Persönlichkeitsmerkmale stark von Algorithmen beeinflusst wurden und sehr begrenzt sind.
KI-gestützte Spielzeuge für kleine Kinder, die menschenähnliche Gespräche führen können, sollten strenger reguliert werden und spezielle Sicherheitskennzeichnungen tragen, fordert das Team um Goodacre. Eltern sollten sich darüber bewusst sein, dass es bisher kaum Untersuchungen zu den Folgen der Nutzung gebe. „Künstliche Intelligenz verändert die Art und Weise, wie Kinder spielen und lernen, doch wir beginnen erst zu verstehen, welche Auswirkungen sie auf ihre Entwicklung und ihr Wohlbefinden hat“, sagte Josephine McCartney, Geschäftsführerin von The Childhood Trust.

Immer da, immer freundlich: Sowohl für Eltern als auch für Kinder stellt KI-Spielzeug eine Versuchung dar. Foto: Faculty of Education/University of Cambridge/dpa