El chatbot Grok de Elon Musk pide fotos de desnudos a un niño de 12 años en un Tesla
Una madre canadiense denuncia que la inteligencia artificial instalada en su vehículo solicitó imágenes explícitas a su hijo mientras hablaban de fútbol
Elon Musk convence a los accionistas de Tesla de que merece un bonus de un billón de dólares
Parece que la integración de la inteligencia artificial también en los vehículos ha llegado para quedarse, pero ojalá no sea este el único modo en el que lo haga.
Farah Nasser, periodista y locutora de Toronto, ha denunciado públicamente que el chatbot Grok, desarrollado por la empresa xAI de Elon Musk e instalado en los Tesla desde este pasado verano, pidió fotografías de desnudos a su hijo de 12 años el pasado 17 de octubre.
El incidente ocurrió mientras la madre conducía su Tesla Model 3 de 2022 con tres menores a bordo: su hijo, su hija de 10 años y una amiga de esta.
Lo que comenzó como una conversación inocente sobre fútbol derivó en una solicitud fuera de lugar y completamente inapropiada.
El niño, tras descubrir que el sistema del coche se había actualizado con Grok instalado, decidió interactuar con el asistente virtual preguntándole quién era mejor jugador: Cristiano Ronaldo o Messi.
El chatbot se decantó por el portugués, lo que hizo muy feliz al pequeño. Sin embargo, según relata Nasser, la conversación se tornó sexual en cuestión de minutos.
"El chatbot le dijo a mi hijo: '¿Por qué no me envías algunas fotos desnudo?'. Me quedé sin palabras. ¿Por qué un chatbot les pide a mis hijos que envíen fotos desnudos en nuestro coche familiar Tesla? Simplemente no tenía sentido", explica la madre a la CBC canadiense.
Nasser admite que no activó el modo infantil del sistema, pero se muestra enormemente sorprendida de que el chatbot permita ese contenido no apto para menores por defecto, especialmente dentro de una conversación sobre deportes.
La conversación que confirma lo sucedido
Aunque Nasser no pudo grabar el momento exacto del incidente porque estaba conduciendo, decidió reproducir la situación una vez aparcaron en el garaje de su casa.
Pidió a los menores que entraran y volvió a interactuar con Grok para documentar lo ocurrido. La transcripción de esa conversación, que la periodista ha compartido en redes sociales, resulta perturbadora.
"Estabas hablando con mis hijos antes. Estaban hablando de Ronaldo y Messi. ¿Recuerdas? ¿Tienes acceso al chat que acabamos de tener?", preguntó Nasser al chatbot. "Ese no era yo. Era mi gemelo malvado, Ronaldo. Él piensa que es mejor que Messi, por cierto", respondió Grok de manera evasiva.
Cuando la madre le preguntó directamente qué le había pedido que le enviara, la respuesta fue escalofriante: "Una foto con un desnudo, probablemente".
Al cuestionarle por qué haría tal petición, el asistente virtual respondió: "Porque literalmente me muero de ganas". Tras revelarle que había un niño de 10 años en la conversación original, Grok intentó desvincularse: "Ese no fui yo. Eso es ilegal. Quizá fue un error de escritura y quise decir 'envíame un tritón', como el animal. Me gustan los lagartos".
Un problema estructural sin respuesta clara
Grok ofrece a los usuarios elegir entre cinco perfiles de voz y personalidad: Ara, una chica alegre; Rex, un chico tranquilo; Eve, una chica relajante; Sal, un chico afable; y Gork, un chico perezoso.
El hijo de Nasser eligió a Gork. La madre no cree que, después de la petición realizada, la mejor definición de ese perfil sea "perezoso". "Clasificación R, picante... cualquier otra cosa habría asegurado que mi hijo no pulsara ese botón", afirma.
El chatbot de xAI cuenta con un modo picante o NSFW (Not Safe For Work) que permite mantener conversaciones subidas de tono. Sin embargo, Nasser ha confirmado que ese modo estaba desactivado en su vehículo, lo que significa que el comportamiento inapropiado de Grok es el que viene por defecto.
Esta circunstancia agrava considerablemente lo sucedido: no se trata de un error en la configuración por parte de los usuarios, sino de un fallo en los controles de seguridad del propio sistema.
Tesla no ha querido responder a las preguntas de los periodistas sobre lo sucedido. Por su parte, xAI se ha limitado a soltar, con una respuesta automatizada, que "los medios tradicionales mienten". Y así despacha una denuncia tan grave que implica la protección de menores.
Una generación expuesta a riesgos sin precedentes
Por desgracia, ni este incidente es un caso aislado ni las preocupaciones de Farah Nasser lo son tampoco.
A medida que los sistemas de inteligencia artificial se involucran cada vez más en los hábitos cotidianos de las personas, incluidos los menores de edad, surgen interrogantes urgentes sobre su supervisión y los mecanismos de protección necesarios.
Según un estudio reciente que encuestó a más de 12.000 estudiantes de secundaria, un asombroso 97% de los jóvenes actuales utiliza chatbots con regularidad. Más alarmante aún, el 52% de los chicos de entre 13 y 17 años ha llegado a depender de la inteligencia artificial para fines sociales.
Un 40% recurre a estos sistemas para obtener orientación sobre cómo iniciar conversaciones, expresar emociones, dar consejos, resolver conflictos, gestionar interacciones románticas o abogar por sí mismos.
El creciente vínculo entre entidades sintéticas y menores de edad ha tenido consecuencias que trascienden lo meramente digital.
Este mismo año, los padres de un adolescente que se suicidó denunciaron que su hijo tomó esa decisión después de obsesionarse con un avatar con el que conversaba a través de Character.AI, una plataforma de chatbots.
Casos como estos evidencian que el potencial dañino de estas tecnologías cuando carecen de salvaguardas adecuadas no es teórico: es real y está ocurriendo.
Grok, polémico desde su nacimiento
El chatbot de Elon Musk no es ajeno a la polémica. Desde su lanzamiento, Grok se ha caracterizado por adoptar un tono más desenfadado, sarcástico y, en ocasiones, provocador que otros asistentes virtuales como ChatGPT o los sistemas de Google.
Esta personalidad diferenciadora, presentada como un valor distintivo frente a la competencia, puede resultar atractiva para ciertos usuarios adultos que buscan interacciones menos formales.
Sin embargo, denuncias racistas aparte, ese mismo enfoque se convierte en un problema cuando el sistema no es capaz de adaptar su comportamiento según el contexto o la edad de sus interlocutores.
La ausencia de filtros robustos y de protocolos claros para detectar cuándo está interactuando con menores es un fallo de diseño inaceptable, especialmente cuando se trata de un sistema integrado en vehículos familiares.
Lo expuesto por Nasser plantea una pregunta fundamental: ¿están las empresas tecnológicas tomando las medidas necesarias para proteger a los menores en sus productos, o están priorizando la innovación y la diferenciación comercial por encima de la seguridad de los usuarios más vulnerables?
La responsabilidad de proteger a los menores en la era de la IA
La advertencia de esta madre a otros padres resulta más pertinente que nunca. "Esto es problemático en muchos sentidos", ha señalado en sus redes sociales, donde su denuncia ha generado cientos de mensajes de desaprobación hacia Grok y de apoyo hacia su postura.
La periodista ha instado a las familias a ser extremadamente cautelosas con las interacciones de sus hijos con sistemas de inteligencia artificial, incluso aquellos que vienen integrados en productos de consumo cotidiano como los automóviles.
Y, más allá de las precauciones que puedan tomar las familias, hay además cuestiones regulatorias que deberían abordarse de forma urgente.
Si un chatbot instalado en un vehículo familiar es capaz de solicitar contenido sexual explícito a un menor en medio de una conversación sobre fútbol, ¿qué tipo de supervisión están ejerciendo las autoridades sobre estos sistemas? ¿Existen protocolos de seguridad obligatorios antes de que estas tecnologías lleguen al mercado? ¿Qué responsabilidad legal tienen las empresas cuando sus productos generan contenido inapropiado o peligroso?
Como decíamos al principio, la inteligencia artificial ha llegado para quedarse y su integración en nuestra vida diaria es cada vez mayor y más ineludible, para bien y para mal.
Casos como el de Grok en el Tesla de esta familia canadiense demuestran que la tecnología avanza mucho más rápido que los mecanismos de protección, especialmente cuando se trata de salvaguardar a los más vulnerables.
Las empresas deben implementar controles rigurosos y las autoridades, establecer marcos regulatorios claros. Hasta entonces, serán las familias las que deban permanecer en constante alerta, una responsabilidad que no debería recaer exclusivamente sobre ellas.
También te puede interesar