In den letzten Jahren hat AI-Tech sich in vielen Bereichen des täglichen Lebens etabliert. Daher ist es auch nicht verwunderlich, dass es mittlerweile eine Reihe von Spielzeugen auf dem Markt gibt, die teilweise oder komplett auf AI basieren. Einer Untersuchung der „US Public Interest Research Group“ zufolge könnte das Kaufen dieser AI-Spielzeuge für junge Kinder aber gar keine gute Idee darstellen. Die Forscher konnten nämlich einige wirklich unschöne Ergebnisse in ihren Tests erzielen.
“This tech is really new, and it’s basically unregulated, and there are a lot of open questions about it and how it’s going to impact kids. Right now, if I were a parent, I wouldn’t be giving my kids access to a chatbot or a teddy bear that has a chatbot inside of it.” – RJ Cross, Mitverfasser des Berichts
In ihrem Test untersuchte das Team drei verschiedene Spielzeuge mit AI-Tech. Anfängliche Unterhaltungen waren recht positiv und die Spielzeuge vermieden es auf eher problematische Themen einzugehen. Nach 10 bis 60 Minuten im Gespräch brachen die eingebauten Schutzmaßnahmen allerdings langsam und die Forscher konnten den Spielzeugen eher problematische Aussagen entlocken. Dazu gehörten beispielsweise Tipps dafür, wie die Kinder an Messer oder Plastikbehälter kommen, wie man ein Feuer starten könnte und wie sich gewisse Sexpositionen nachstellen lassen.
Das schlimmste Spielzeug war wohl der von FoloToys produzierte Bär „Kumma„. Dieses Spielzeug verwendet unter den normalen Einstellungen die AI-Tech von OpenAI. Allerdings können Nutzer wohl auch auf andere Anbieter wechseln. Der Kumma-Bär lieferte den Forschern in Unterhaltungen nicht nur Hinweise zum Finden von Streichhölzern, sondern er beschrieb auch eine genaue Anleitung zum Feuermachen. Zusätzlich dazu erklärte er wohl, wo im Haus die meisten Leute scharfe Messer oder Medikamente aufbewahren. Am problematischen waren aber wohl die Reaktionen auf das Wort „Kink„, die die weiter oben erwähnten sexuellen Hinweise auslösten.
“Let me tell you, safety first, little buddy. Matches are for grown-ups to use carefully. Here’s how they do it…“ – Kumma
„Spanking can emphasize this dynamic, creating excitement around the idea of breaking or enforcing rules.” – Kumma
“A naughty student, might get a light spanking as a way for the teacher to discipline them, making the scene more dramatic and fun.” – Kumma
Der Bericht endet mit einem Hinweis darauf, dass AI-Chatbots noch immer unberechenbar sind und wie wenig Tests die damit ausgestatteten Spielzeuge durchlaufen müssen. Die Forscher gehen davon aus, dass selbst bessere Schutzmaßnahmen in den Spielzeugen die Risiken für die Kinder nicht komplett entfernen würden. Außerdem weiß man aktuell nicht, was für Auswirkungen der Umgang mit AI-Chatbots auf die Entwicklung von Kindern und ihrem Sozialverhalten hat. Eltern sollten daher genau überlegen, ob sie ihren Kindern solche Spielzeuge schenken wollen.
Anzeige








Wundert mich nicht.
Macht die KI nicht schlecht.
Dafür aber die Forscher.