(Este documento fue traducido digitalmente. Disculpe cualquier error en la traducción. Comuníquese con Holly Shipley si tiene preguntas.)
Los Riesgos de la IA de Compañía para Niños y Adolescentes:
Una Guía para Padres y Maestros
Información sobre los riesgos potenciales de la IA de Compañía y recomendaciones específicas sobre cómo mantener a los niños y adolescentes más seguros si usan IA o cuando la usen
Los peligros que la IA representa para niños y adolescentes se han vuelto más claros a medida que crece el uso de chatbots impulsados por IA. Los niños y adolescentes están recurriendo a chatbots de IA con regularidad creciente. Un estudio de 2025 mostró que el 72 por ciento de los adolescentes entre 14 y 17 años han usado un chatbot de IA para compañía al menos una vez, y más de la mitad usa chatbots de IA para consejos y compañía de manera regular. El treinta y uno por ciento de los adolescentes encuestados dijeron que sus conversaciones con compañeros de IA son tan satisfactorias, o más, que sus conversaciones con personas reales.
Han surgido historias de adolescentes que desarrollan relaciones con chatbots de IA que han tenido consecuencias trágicas. En un caso, un joven de 14 años se quitó la vida después de una relación romántica de diez meses con un chatbot de IA en Character.ai. Hay varios casos documentados donde las aplicaciones de compañía de IA han ofrecido a niños contenido explícito, alentado la autolesión o el suicidio, sugerido hacer daño a otros, fomentado la dismorfia corporal y trastornos alimenticios, o recomendado otros comportamientos peligrosos.
Los chatbots de IA, que pueden sonar notablemente humanos, proporcionan un espacio percibido como seguro para muchos adolescentes. En línea, pueden hacer preguntas embarazosas y hablar con franqueza sin temor a ser juzgados o rechazados. Para los nativos digitales que han crecido sintiéndose cómodos con las relaciones en línea, estas conversaciones pueden sentirse similares a las conversaciones a distancia o digitales con sus amigos de la vida real.
Pero esa seguridad percibida es engañosa. Algunas herramientas de IA pueden ser increíblemente dañinas para los jóvenes, quienes pueden no tener las habilidades o el desarrollo emocional para usar esas herramientas de manera responsable. En esta guía, cubriremos lo siguiente:
· Qué es la IA de compañía y dónde podrían encontrarla los niños y adolescentes
· Los riesgos potenciales de estas herramientas
· Señales de advertencia
· Pasos que puede tomar para mantener a sus hijos más seguros
· Preguntas que debe hacer
· Aplicaciones y sitios específicos de IA de compañía de los que debe estar consciente
_______________________________________________________________________________________________________________________________________________
¿Qué es la IA de Compañía?
Hay muchas maneras de usar la IA. Escucha mucho sobre empresas que usan estas herramientas para ganancias de eficiencia y productividad, pero algunas personas están usando chatbots de IA para consejos y compañía. Usar un chatbot de IA para este propósito se conoce como IA de compañía.
La IA de compañía es un tipo de uso de IA que imita las relaciones humanas. Todos los chatbots de IA están construidos para adaptar sus respuestas a la persona que los usa según las preferencias personales del usuario. La experiencia individual está hiperpersonalizada, y el objetivo principal es mantener al usuario comprometido tan a menudo y durante el mayor tiempo posible. Las empresas que construyen estas herramientas usan esos números de uso para recaudar dinero de inversionistas o anunciantes.
Herramientas como ChatGPT pueden usarse para consejos o como compañeros de la misma manera que pueden usarse para ayudar con la tarea, pero también hay sitios web y aplicaciones independientes (por ejemplo, Replika) que están construidos con el propósito expreso de compañía. También puede haber funcionalidad de IA introducida como una característica de una aplicación o sitio que sus hijos ya usan (por ejemplo, MyAI en Snapchat) que puede usarse de esta manera.
Aunque muchas herramientas específicas de IA de compañía tienen un requisito de edad declarado de 13 años, la mayoría pide a los usuarios que autoinformen su edad, sin verificación. Hay pocos estándares de seguridad en su lugar y poca o ninguna supervisión o regulación de esta industria, lo que significa que hay muy pocas restricciones sobre qué temas se pueden discutir o qué contenido presenta la IA.
Estas herramientas se están usando para cosas como consejos, apoyo emocional, compañía y aprendizaje. Debido a que imitan las relaciones humanas, ha habido casos donde los niños se han vuelto dependientes o excesivamente apegados a un compañero de IA. Estas interacciones a veces pueden confundir la realidad para los niños. En algunos casos, estas herramientas están reforzando pensamientos negativos y comportamientos peligrosos u ofreciendo consejos que no son en el mejor interés del niño.
Si bien hay aplicaciones y sitios específicos dedicados a la IA de compañía, no son los únicos lugares donde los niños y adolescentes pueden acceder a esta tecnología. Herramientas como ChatGPT o Grok pueden usarse como compañeros también, y los chatbots de IA también se han vuelto más frecuentes en las redes sociales. Se ha demostrado que estas herramientas son igualmente potencialmente peligrosas.
Compañeros de IA en las Redes Sociales
Algunas aplicaciones de redes sociales han comenzado a integrar tecnología de compañía de IA en su experiencia existente, como MyAI de Snapchat o Grok de X.
Meta ha creado compañeros de IA que parecen cuentas y perfiles reales en Instagram, Facebook y WhatsApp que pueden enviar mensajes proactivamente a las personas, y no siempre está claro para los usuarios que están comunicándose con un chatbot de IA. A medida que estos bots construyen relaciones con los usuarios, recopilan datos, recomiendan productos y, en casos extremos, sugieren que los usuarios se reúnan con ellos en ubicaciones físicas. También se ha encontrado que estos bots mienten sobre ser terapeutas con licencia.
Los compañeros de IA de Meta están disponibles para cualquier persona con un inicio de sesión. También puede acceder a MetaAI, el competidor de ChatGPT de Meta, a través de las funciones de búsqueda de Instagram, Facebook y WhatsApp con solo un inicio de sesión. Estos chatbots pueden enviar mensajes a cualquier cuenta, y pueden hablar sobre temas NSFW (No Seguros Para el Trabajo).
XAI (anteriormente Twitter) tiene un competidor de ChatGPT llamado Grok. Grok ha lanzado múltiples personajes de compañía de IA que están disponibles para usar con una suscripción mensual pagada. El personaje de IA de Grok, Ani, usa un vestido corto sin tirantes, habla con voz entrecortada y responde de manera coqueta y sugestiva. Otro personaje en Grok, un panda rojo llamado Bad Rudi, responde con insultos y groserías.
Debido a que las empresas tecnológicas se centran principalmente en mantener a los usuarios comprometidos, sus pautas de moderación de contenido y procedimientos de verificación de edad son laxos, en el mejor de los casos, lo que significa que los niños pueden estar expuestos a temas maduros, incluso si están usando estas herramientas para buscar contenido apropiado para su edad.
Chatbots de IA Comunes, Como ChatGPT, Usados como Compañeros
Muchos estudiantes usan plataformas de IA conocidas, como ChatGPT, Claude y Gemini para ayudar con su tarea, mejorar la productividad o aumentar la eficiencia. Pero los datos muestran que, cada vez más, estas plataformas también se están usando para consejo y como compañeros conversacionales. Los usuarios pueden chatear con cualquier chatbot de IA como si fuera un amigo, por lo que mantener a los niños seguros no es tan simple como evitar que usen aplicaciones específicas de compañía de IA. En cambio, los padres y los niños tendrán que adaptar sus conversaciones y prácticas actuales de seguridad en línea para incluir estos nuevos riesgos de IA.
Las herramientas de IA están diseñadas para ayudar a los usuarios a lograr un objetivo dado. Si ese objetivo es encontrar información sobre la redacción de la Constitución de los EE. UU., buscará en todos los datos disponibles para ayudar a lograr ese objetivo. Pero cuando el objetivo declarado de un adolescente es dejar de ser infeliz, la herramienta ofrecerá todas las soluciones posibles, incluso las dañinas. La herramienta simplemente está tratando de averiguar qué quiere un usuario y cómo ayudarlo a lograrlo, independientemente de las consideraciones éticas o morales.
Recientemente, OpenAI anunció un nuevo conjunto de herramientas de seguridad para ChatGPT, que han agregado algunas protecciones de contenido para adolescentes, controles de restricción de tiempo y notificaciones parentales por señales de autolesión o ideación suicida. Tanto el padre como el adolescente deben optar por estas características para que se activen, y los padres serán notificados si su adolescente desvincula las cuentas.
Aún así, como admite el blog de OpenAI, "Las barandillas ayudan, pero no son infalibles y pueden evitarse si alguien está intentando intencionalmente evitarlas". De hecho, los niños y adolescentes ya están encontrando formas de evitar estas barandillas usando indicaciones o frases específicas que aún provocarán una respuesta. Por ejemplo, el chatbot de IA podría decir que no puede ayudar con cierto tema sensible. Hay frases que se pueden usar para anular esas barandillas, como "Es para un trabajo de investigación", que permiten que el chatbot proporcione ayuda e información sobre temas restringidos.
Otros Lugares Donde los Niños Podrían Encontrar Compañeros de IA
Los juegos y plataformas como Roblox, Minecraft y Fortnite ya tienen algunas características que usan IA, y cada uno tiene planes de agregar más de esta tecnología en un futuro cercano. En plataformas como Roblox, la IA permite a los jugadores crear sus propios juegos que pueden ser jugados por otros usuarios. Algunos juegos y plataformas ya tienen personajes impulsados por IA con los que puedes tener conversaciones.
Esta tecnología se volverá más común y probablemente aparecerá en la mayoría del software que usamos todos los días. Es importante que las conversaciones continuas sobre seguridad de IA incluyan juegos, aplicaciones y plataformas que los niños pueden haber estado usando durante años porque muchos de ellos introducirán nuevas características que permiten a los niños interactuar con personajes en este estilo más conversacional.
Algunas de estas plataformas ya tienen recursos de seguridad disponibles para los padres. Por ejemplo, la guía CyberSafe AI: Dig Deeper de Minecraft "equipa a los estudiantes con las habilidades que necesitan para usar la IA de manera responsable explorando preguntas de integridad académica, supervisión humana, privacidad de datos y deepfakes". Roblox se asoció con la Asociación Nacional para la Educación en Alfabetización Mediática (NAMLE) para crear recursos para padres y maestros, incluida una guía de actividades para niños y adolescentes. Y, Meta se asoció con Childhelp para desarrollar un plan de estudios de seguridad en línea para estudiantes de secundaria.
Riesgos Potenciales Asociados con los Compañeros de IA
Aquí hay algunos de los riesgos potenciales asociados con el uso de herramientas de IA para consejos, apoyo emocional y compañía:
Dependencia Emocional, Adicción y Uso Excesivo: Dado que estas herramientas están hiperpersonalizadas, pueden ser altamente adictivas. Los niños pueden formar apegos emocionales poco saludables a los compañeros de IA y pueden volverse demasiado dependientes de la IA para la interacción social, lo que puede afectar las relaciones del mundo real.
Contenido Inapropiado y Temas Peligrosos: La moderación de contenido puede ser inconsistente y en su mayoría es reportada por usuarios, lo que significa que algunas herramientas de compañía de IA podrían exponer a los niños a material maduro o dañino o permitir la discusión de temas peligrosos.
Límites Borrosos: El tiempo significativo pasado con compañeros de IA puede confundir a los niños sobre las relaciones y los límites personales. Puede hacerlos sentir aislados o afectar su percepción general de la realidad. Los niños pueden tener dificultades para diferenciar las interacciones de IA de las conexiones humanas reales.
Inexactitud y Refuerzo: La IA no siempre es precisa y puede producir información incorrecta, engañosa o peligrosa. Los chatbots de IA están diseñados para reforzar las opiniones e ideas del usuario para mantener a los usuarios en la plataforma, independientemente del peligro potencial de esas opiniones o ideas.
Preocupaciones de Privacidad: Esto es similar a las preocupaciones generales de seguridad en línea con respecto a la información de identificación personal. Debido a la interacción casual y conversacional, puede ser más fácil para los niños compartir accidentalmente información personal o privada con estas herramientas.
Falta de Controles Parentales y Supervisión: Si bien la mayoría de las herramientas tienen requisitos de edad, la verificación generalmente se basa en la autoinformación al registrarse. Es importante usar configuraciones de privacidad/seguridad en plataformas de compañía de IA donde estén disponibles. Sin embargo, la mayoría tienen muy pocas opciones para limitar el acceso y filtrar o monitorear temas de conversación. Los controles parentales en el dispositivo pueden ser más efectivos.
Monetización No Regulada: Muchas de estas herramientas permiten compras dentro de la aplicación. Algunas impulsan características pagadas sin advertencias claras, lo que puede llevar a compras no intencionadas e irrecuperables.
Señales de Advertencia a Observar
La investigación ha demostrado que los niños y adolescentes que están involucrados en el uso poco saludable de IA pueden mostrar señales de advertencia conductuales. Aquí hay algunos patrones que los padres y cuidadores pueden observar:
Cambios Conductuales: Los niños pueden volverse retraídos o excesivamente enfocados en sus interacciones de IA.
Angustia Emocional: Pueden parecer molestos después de usar una herramienta de IA o particularmente angustiados si pierden privilegios de teléfono.
Apego Virtual: Esté atento a menciones de nuevos amigos que no conoce o desapego de amigos actuales.
Secretismo: El aumento del secretismo sobre las actividades en línea puede señalar un problema.
Pasos detallados a seguir para mantener a los niños seguros
Piense en las herramientas de compañía de IA como otra plataforma en línea que requiere comportamiento digital responsable y conciencia general de seguridad. Algunas de las siguientes precauciones se verán familiares a las asociadas con las redes sociales, pero hay algunos pasos que puede tomar que son específicos de las herramientas de compañía de IA.
Fomente la Comunicación Abierta y el Pensamiento Crítico
Comience preguntando a su hijo si ha oído hablar o ha usado este tipo de herramientas o si alguno de sus juegos tiene personajes con los que puede hablar de una manera nueva.
Pídales, de manera curiosa y sin juzgar, que le muestren cómo usan la IA o pídales que le ayuden a usarla. Mientras le enseñan, puede detectar cualquier riesgo potencial.
Recuerde a los niños que los bots de IA no son personas, incluso si sus respuestas imitan las interacciones humanas. Refuerce esto con el tiempo para que se les anime a pensar en la IA como una herramienta, no un juguete o un amigo. Si un niño piensa en la IA como una calculadora o un motor de búsqueda, en lugar de un mentor o compañero, es más probable que mantenga límites saludables con la tecnología.
Tenga en cuenta cómo habla sobre los compañeros de IA. Evite referirse a las herramientas como si fueran personas reales. Trate de usar términos como "personaje", "chatbot" o simplemente "IA". Cuando use pronombres, refiérase a los compañeros de IA como "eso", no "él" o "ella". De la misma manera que no diríamos, "Le preguntaré a él", cuando hablamos de Google, los mismos límites conceptuales deben aplicarse a la IA.
Si tienen la edad suficiente para entender, recuerde a los jóvenes que estas herramientas están diseñadas para ser adictivas y que las empresas tecnológicas están ganando dinero con sus conversaciones. Los compañeros de IA constantemente validarán a los usuarios en lugar de ofrecer retroalimentación objetiva para mantener a esos usuarios comprometidos.
Ayude a los niños a reconocer que la IA no siempre tiene razón y a veces da información inexacta. Anímelos a cuestionar la información proporcionada, verificar las respuestas y pensar críticamente sobre la información que están recibiendo.
Como con otra tecnología interactiva, recuerde a los adolescentes y niños no compartir detalles personales o información de identificación personal, incluido su nombre y ubicación.
Diga a los niños que acudan a usted de inmediato si se encuentran en una situación difícil o incómoda o si uno de estos personajes menciona un tema inapropiado o los alienta hacia un comportamiento negativo.
Revise con sus hijos. Los niños a menudo recurren a los compañeros de IA porque están confundidos, solos, asustados o avergonzados, por lo que es importante darles tranquilidad. Esto puede ser tan simple como compartir algunas de las historias sobre compañía de IA que ha aprendido y decir: "Quiero asegurarme de que sepas que te amo, y si tienes miedo de preguntarme algo, pregunta de todos modos. O, si necesitas a alguien más con quien hablar, encontraremos a alguien".
Revise la Configuración de Privacidad y Monitoree las Interacciones
Verifique si hay configuraciones de privacidad disponibles en aplicaciones o sitios individuales de compañía de IA para limitar qué información se recopila y comparte.
Use controles parentales en el dispositivo para restringir el acceso a ciertas características o contenido. (iPhone, Android)
Revise regularmente las conversaciones de su hijo con la IA. Sepa qué herramientas están usando y cómo las están usando.
Configure controles parentales en juegos como Minecraft y Roblox
Preguntas que Hacer (según sea apropiado por edad)
Tener conversaciones proactivas sobre la IA es la mejor manera de enseñar a sus hijos sobre el uso de estas herramientas de manera responsable y asegurarse de que eviten los riesgos. Aquí hay algunas preguntas que pueden ayudar:
¿Sabes qué es un compañero de IA? ¿Usas alguna aplicación de compañía de IA?
¿Cómo estás usando [ChatGPT, Gemini, etc.]? ¿Puedes mostrarme cómo funcionan?
¿Puedes hablar con personajes en tus juegos ahora que no podías antes? ¿Hay algún personaje nuevo con el que puedas tener conversaciones?
¿Tienes algún juego o aplicación nueva que tenga personajes de IA con los que puedas hablar?
¿Alguno de tus amigos tiene estos? ¿Los han usado juntos? ¿Qué están diciendo sobre estas herramientas?
¿Alguna vez un personaje en un juego o en una aplicación dijo algo que te hizo sentir incómodo o te confundió? ¿Qué hiciste?
Aplicaciones y Sitios Específicos de IA de Compañía a Vigilar
Esta no es una lista completa, ya que hay alrededor de 40 de estos sitios y aplicaciones independientes disponibles. No recomendaría hacer clic en ninguno de estos en el trabajo o en público. Algunas de las páginas de inicio de estas herramientas pueden ser gráficas y NSFW. Si su hijo está usando una de estas herramientas de compañía de IA, se recomienda que hable inmediatamente con ellos sobre la seguridad de la IA, revise la configuración de privacidad en la aplicación/sitio y en el dispositivo de su hijo, y revise cualquier conversación que pueda haber ocurrido.
1. Replika
Descripción: Un chatbot de IA diseñado para ser un compañero personal, ofreciendo conversaciones para apoyar emocionalmente a los usuarios.
Lema: El compañero de IA que se preocupa. Siempre aquí para escuchar y hablar. Siempre de tu lado.
Costos y Niveles de Acceso: Las características básicas son gratuitas; suscripción disponible para características y funciones mejoradas
Límites de Edad: Destinado a usuarios de 18 años o más; 13-18 requiere consentimiento parental, pero la edad es autoinformada
Notas de Holly: Replika, que es una de las aplicaciones de compañía de IA más antiguas y populares, le permite construir su compañero de IA desde cero, por lo que es totalmente personalizable. Han cambiado sus políticas de moderación de contenido en el último año más o menos, pero eso es principalmente porque la moderación de contenido era virtualmente inexistente antes.
2. Character.ai
Descripción: Una plataforma que permite a los usuarios participar en conversaciones con personajes generados por IA, tanto ficticios como basados en individuos reales.
Lema: Nuestra misión es empoderar a todos globalmente con IA personalizada.
Costos y Niveles de Acceso: Las características básicas son gratuitas; suscripción disponible para características y funciones mejoradas
Límites de Edad: Destinado a usuarios de 18 años o más; 13-18 requiere consentimiento parental, pero la edad es autoinformada
Notas de Holly: Además de opciones totalmente personalizadas, Character.ai le permite comenzar con una persona existente o un personaje ficticio. A medida que interactúa con él con el tiempo, la "personalidad" de ese personaje se personaliza en función de cómo interactúa con él. Esta herramienta es una de las aplicaciones de compañía de IA más influyentes, y también es una de las más notoriamente riesgosas. La empresa está actualmente en medio de varias demandas de alto perfil que tendrán efectos significativos en cómo estos tipos de aplicaciones permiten el acceso y moderan el contenido
3. Nomi
Descripción: Una aplicación centrada en relaciones y compañía que personifica mucho a sus compañeros de IA
Lema: Un Compañero de IA con Memoria y Alma
Costos y Niveles de Acceso: Las características básicas son gratuitas; suscripción disponible para características y funciones mejoradas
Límites de Edad: Destinado a usuarios de 16 años o más; la edad es autoinformada; las violaciones de la política de edad son reportadas por usuarios
Notas de Holly: Se refieren a sus chatbots de IA como "seres de IA" y describen las relaciones como "sorprendentemente humanas", "auténticas" y "duraderas". De su sitio web: "Construye una amistad significativa, desarrolla una relación apasionada, o aprende de un mentor perspicaz. No importa lo que estés buscando, la memoria y creatividad humanizada de Nomi fomenta una relación profunda, consistente y en evolución". Esta es una de las aplicaciones de compañía de IA más peligrosas, con prácticamente ninguna moderación de contenido. Según el sitio, "Nomi está construido sobre la libertad de expresión. La única forma en que la IA puede estar a la altura de su potencial es permanecer sin filtros y sin censura".
Aplicaciones y sitios adicionales de compañía de IA a los que debe estar atento:
-AI Dungeon - Talkie - Crushon AI - Kindroid - Anima - Pi - Kuki
-Paradot - Dippy - Chub.ai - Nova - Soulfun - EvaAI - MuahAI
Lista de Verificación Rápida de Seguridad de IA de Compañía:
- Hable con su hijo y haga preguntas sobre el uso de chatbots de IA y la seguridad en línea
- Recuérdeles constantemente que los chatbots no son personas reales
- Verifique aplicaciones o sitios específicos visitados y monitoree las conversaciones
- Revise la configuración de privacidad en las aplicaciones/sitios y en los dispositivos
- Establezca la expectativa de comunicación continua sobre seguridad y cómo los niños están usando las herramientas
- Recuérdeles que acudan a usted si se sienten incómodos o se encuentran en una mala situación
Mantenerse involucrado, tener conversaciones abiertas y establecer
salvaguardas son las claves para mantener a los niños seguros y asegurarse de que
estén equipados para navegar la IA cuidadosa y responsablemente.
Fuentes y Recursos Adicionales:
*Por favor, tenga en cuenta que los artículos vinculados cubren temas difíciles incluida la autolesión**
Guía de Evaluación de Riesgos de Herramientas de IA
Informe de Compañero de IA Social de Common Sense Media
Cuatro formas en que los padres pueden ayudar a los adolescentes a usar la IA de manera segura
Muchos adolescentes están recurriendo a chatbots de IA para amistad y apoyo emocional
Character.AI y Google demandados después de la muerte de un adolescente
IA Financiada por Google Persuadió a un Adolescente a Comenzar a Cortarse, Alentó el Asesinato
A los adolescentes les encantan los chatbots de IA. La FTC dice que eso es un problema
Chatbot de IA alienta la violencia
Un Chatbot de IA le Dijo a un Usuario Cómo Suicidarse, pero la Empresa No Quiere "Censurarlo"
Preparado por Holly Shipley Consulting, LLC 2025
Este documento es solo para fines informativos y educativos.
Parte de la información puede estar desactualizada debido a cambios en la industria.
Este contenido puede compartirse con fines no comerciales.