Panamá
Chatbot: el compañero digital que pone en riesgo a los menores de edad
- Redacción
- /
- nacion.pa@epasa.com
- /
- @PanamaAmerica
Un estudio británico de julio de 2025 reveló que casi dos tercios (64%) de los niños utilizan este tipo de herramientas.
Expertos reiteran que no se debe sustituir una charla con los padres por una sesión con una máquina. Foto: Pexels
Noticias Relacionadas
Los chatbots de inteligencia artificial trasformaron la cotidianidad de muchas personas hace casi tres años. ChatGPT, por ejemplo, dice tener unos 700 millones de usuarios activos semanales, muchos de los cuales son "jóvenes". Un estudio británico de julio de 2025 reveló que casi dos tercios (64%) de los niños utilizan este tipo de herramientas. A una proporción similar de adultos les preocupa que sus hijos piensen que los chatbots son personas reales.
“Están surgiendo preocupaciones legítimas en materia de seguridad, privacidad y psicología debido al uso frecuente de esta tecnología por parte de los más jóvenes. Como adultos responsables, no se puede dar por sentado que todos los proveedores de plataformas cuentan con medidas eficaces de seguridad y privacidad adecuadas para los infantes. Incluso cuando existen protecciones, su aplicación no es necesariamente coherente, y la propia tecnología evoluciona más rápido que las políticas.”, advierte Martina Lopez, Investigadora de Seguridad Informática de ESET Latinoamérica.
Mencionó que estas herramientas suponen múltiples riesgos para los niños especialmente cuando están en pleno desarrollo emocional y cognitivo, lo que les hace vulnerables en varios sentidos. Pueden llegar a confiar en la IA como una compañía en detrimento de la formación de amistades genuinas con sus compañeros de clase, lo que exacerba el aislamiento social.
Como los chatbots están preprogramados para complacer a sus usuarios, pueden producir resultados que amplifiquen las dificultades por las que puedan estar pasando los jóvenes, como trastornos alimentarios, autolesiones o pensamientos intrusivos. También existe el riesgo de que el menor pase tiempo con su inteligencia artificial, no sólo en detrimento de las amistades humanas, sino también del tiempo que debería dedicar a hacer los deberes o a estar con la familia.
También hay riesgos en torno a lo que un chatbot GenAI puede permitir que un menor acceda en internet. Aunque los principales proveedores tienen barras de contención diseñadas para limitar los enlaces a contenidos inapropiados o peligrosos, no siempre son eficaces.
En algunos casos, pueden anular estas medidas de seguridad internas para compartir contenidos sexualmente explícitos o violentos, por ejemplo. Si tu hijo tiene más conocimientos de tecnología, puede incluso ser capaz de "jailbreak" el sistema a través de indicaciones específicas.
Es importante recordar que los chatbots también suponen un riesgo potencial para la privacidad. Si un niño introduce información personal y financiera sensible en una consulta, el proveedor la almacenará. Si eso ocurre, en teoría podría acceder a ella un tercero (por ejemplo, un proveedor/socio), o ser pirateada por un ciberdelincuente.
Del mismo modo que no se querría que un niño compartiera demasiado en las redes sociales, lo mejor es minimizar lo que comparte con un bot GenAI.
Estas son algunas señales para identificar que tú hijo o hija tiene una relación poco saludable con la IA:
- Se retiran del tiempo extraescolar que pasan con amigos y familiares.
- Se ponen nerviosos cuando no pueden acceder a su chatbot e intentan ocultar los signos de uso excesivo.
- Hablan del chatbot como si fuera una persona real.
- Repiten como "hechos" información errónea obvia.
- Preguntan a su IA sobre enfermedades graves, como problemas de salud mental (que puedes averiguar accediendo al historial de conversaciones).
- Acceden a contenidos para adultos o inapropiados ofrecidos por la IA.
Expertos recomiendan intentar que la comunicación sobre la IA sea un diálogo bidireccional, en el que se sientan cómodos compartiendo sus experiencias sin miedo a ser castigados, explicarles los peligros del uso excesivo, el intercambio de datos y la dependencia excesiva de la IA para resolver problemas graves, ayudarles a entender que los robots de IA no son personas reales sino máquinas diseñadas para ser atractivas y enseñarles a pensar de forma crítica y chequear siempre los resultados de la IA.
Además reiteran que nunca se debe sustituir una charla con los padres por una sesión con una máquina.

Para comentar debes registrarte y completar los datos generales.