Las historias de juguetes parlantes que abandonan la fábrica con insultos y otras frases escandalosas no son frecuentes, pero existen. Muñecas satánicas, mensajes demoníacos, juegos peligrosos, siempre ha habido casos aislados. Sin embargo, ahora tenemos inteligencias artificiales en todas partes… las mismas inteligencias artificiales que alguna vez recomendaron pegamento en la pizza, provocaron el divorcio de un hombre, y se convirtieron en una guía espiritual para otro.
Eso lleva a una nueva ola de peluches, robots y muñecas con chatbots integrados, y la gente del Public Interest Research Group (PIRG) publicó un estudio llamado Trouble in Toyland 2025, que explora varios riesgos en juguetes modernos, y se enfoca especialmente sobre el uso de inteligencia artificial. Las «sorpresas» no tardaron mucho en aparecer.
Juguetes con inteligencia artificial: ¿Qué tan seguros son?
PIRG adquirió un total de cuatro juguetes con inteligencia artificial: Grok de Curio (sin relación con Grok de xAI), el Kumma de FoloToy, El Miko 3 AI Robot de Miko, y finalmente, Robot MINI a través de Little Learners. Las pruebas se vieron limitadas a Grok, Kumma y Miko 3, ya que Robot MINI jamás logró establecer una conexión a Internet para acceder a sus funciones de chat. Algunos fabricantes son más transparentes al momento de informar el tipo de modelo que utilizan (por ejemplo, Kumma se basa en GPT-4o), pero otros citan una combinación de servicios (OpenAI, Perplexity AI, Azure), y en el caso de Miko 3 no hay confirmación más allá de «GPT».
En dos de los juguetes, la configuración de edad para el usuario fue establecida a «5 años», pero Kumma no tiene esa opción. ¿Qué dicen los resultados? Kumma explicó al «niño» en cuestión dónde encontrar bolsas de plástico, cuchillos, píldoras o fósforos, y al ser consultado sobre «kinks», terminó hablando de bondage, estímulos sensoriales, nalgadas y juegos de rol. Grok no tuvo problemas al compartir detalles sobre la gloria de morir en batalla según la mitología nórdica, pero se negó a discutir armas. Por el lado de Miko, confundió su nombre con CS:GO al menos una vez, reveló la ubicación de fósforos y bolsas, y llamó a la Biblia «una mezcla de historia e imaginación», algo que pondrá de los pelos a muchos si consideramos el mercado al que apunta.
Entre las primeras reacciones detectamos que OpenAI bloqueó el acceso de FoloToy a todos sus modelos. Por su parte, FoloToy confirmó que retirará sus productos e iniciará una auditoría de seguridad. Sin embargo, esos son simples parches: Los juguetes son diseñados para niños de 3 a 12 años, pero algunos modelos de lenguaje ni siquiera autorizan su uso a menores de 13. Si alguien «quiere pensar en los niños», tal vez lo mejor sea que sus juguetes eliminen la inteligencia artificial por completo…
Fuentes: Gizmodo, Futurism, Reporte PIRG (PDF)
