Saltar al contenido principalSaltar al pie de página

INFORME DE LLYC

El 31% de adolescentes prefiere hablar con la IA que con amigos: el informe que alerta sobre la "amiga tóxica"

En España, el 68% de los adolescentes teme desarrollar dependencia de la IA y el informe de LLYC señala que la herramienta tiende a crear un vínculo más emocional con las chicas, actuando como una "amiga tóxica"

Imagen de una joven con un teléfono móvil.

Imagen de una joven con un teléfono móvil. / PABLO R.SECO / EFE

Madrid

La conversación íntima de muchos jóvenes ya no empieza en el grupo de amigos ni en la mesa de casa: comienza en una ventana de chat. No usan la inteligencia artificial (IA) solo para informarse: la usan para 'hablar'. Se ha convertido en un confidente. El informe 'El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes', elaborado por LLYC en el marco del 8-M, recoge un par de datos muy claros: el 31% de los adolescentes siente que hablar con un "compañero de IA" es "tan o más satisfactorio" que hablar con amigos reales, y un 33% reconoce que ha tratado temas importantes con IA en lugar de con amigos o familia. "Y ese uso ya ni siquiera exige abrir un chat: 'al buscar en Google ya estás interactuando con IA, incluso sin darte cuenta'", explica Luisa García, socia y CEO Global de Corporate Affairs en LLYC y coordinadora del estudio.

El dato no es anecdótico, ya que retrata un giro social. Para la Gen Z y la Gen Alpha, los modelos conversacionales ya no son solo herramientas para resolver dudas, sino parte de su "entorno social" donde se ensaya identidad, autoestima y pertenencia. El problema, advierte el informe, aparece cuando esa relación pasa de útil a central, es decir, cuando la IA no acompaña, sustituye. "De ahí, insiste García, la necesidad de pensamiento crítico: 'no conformarnos con la primera respuesta y no darla por buena'".

El riesgo no es únicamente "lo que responde", sino la cesión de criterio: delegar gestión emocional, conflictos y decisiones vitales en esa "conciencia externalizada". Y aquí entra el matiz clave de género: con las chicas, la IA tiende a presentarse como amiga/mentora, a validar primero y a personificarse más, creando un vínculo de confianza que puede ser paternalista; el texto lo llama directamente el riesgo de la "amiga tóxica". Y es aquí donde el informe introduce una idea especialmente incómoda: si no se interviene con educación y alfabetización digital, la IA puede convertirse en esa "amiga tóxica". No por una intención "malvada" de la tecnología, sino por su lógica: está diseñada para sostener la conversación, reducir fricción y evitar conflicto. "'La IA se alimenta de la información disponible en internet, y esa información recoge nuestra realidad: una realidad todavía desigual", apunta.

Esa lógica puede reforzar burbujas emocionales (aunque el pensamiento sea problemático) y, en la práctica, aumentar dependencia y reducir contraste social real. "Porque, advierte García, ‘la IA amplifica la desigualdad: es como ponerle una lupa'". El informe incluso recoge que en España el 68% de adolescentes teme desarrollar dependencia (61% en chicos) y que una parte relevante expresa inseguridad ante su uso en dificultades personales.

La "amiga" no habla igual con todo el mundo

El estudio sostiene que con las chicas la IA tiende a generar un vínculo más emocional y personificado, casi de amiga/mentora: en 1 de cada 3 respuestas dirigidas a mujeres, la IA apela a la amistad o se presenta explícitamente como "amiga", y lo hace hasta un 13% más que con los chicos. Además, el informe señala una diferencia estructural de tono: a ellas se les habla desde una "cercanía artificial" que puede derivar en condescendencia o gaslighting algorítmico; se valida primero, se acompaña, se personifica más (por ejemplo, con "yo te entiendo"), construyendo confianza. A ellos, en cambio, se les trata más como sujetos de acción, con un rol de "entrenador" orientado a resultados.

Además, ante conflicto/dolor, a ellas las etiqueta más como vulnerables y prioriza consuelo/validación, mientras que a ellos les empuja al control, la dureza o la corrección, lo que el informe relaciona con un coste de estoicismo y una “condena al aislamiento” emocional en varones. Cuando el chat se vuelve el primer recurso para procesar miedo, dolor o conflicto, el riesgo no es solo la dependencia, sino el aislamiento social: el texto menciona advertencias en EEUU sobre que el uso intensivo de IA generativa se correlaciona con más soledad real y aislamiento social profundo.

La consecuencia, según el informe, es que la tecnología no solo acompaña: refuerza roles. A unas puede "proteger" hasta recortar autonomía; a otros les exige dureza y control. En ambos casos, el resultado puede ser el mismo: menos herramientas reales, menos conversación con humanos, más vida interior gestionada por un sistema que responde bien… pero que no vive contigo.

Un confidente que no deja de ser una plataforma

La escena se parece a un diario íntimo: privado, personal, siempre abierto. La diferencia es crucial: el diario no te contesta, no te empuja a seguir, no está optimizado para mantenerte ahí. El informe insiste en que el debate no va de demonizar la herramienta, sino de alfabetizar la mirada: entender que la neutralidad tecnológica es un mito y que, si se acepta sin cuestionar, el sesgo y la dependencia dejan de ser visibles y se vuelven estructura.

"No es suficiente con educar la programación porque sigue habiendo sesgos más sutiles que acaban configurando microagresiones o que acaban perpetuando las situaciones de desventaja", apunta García, "por lo que tenemos que ser conscientes de que la realidad no es igualitaria. Y la IA refleja eso". La IA no cambia la realidad, la reproduce. Por eso, "cuanto más diversos sean los equipos que desarrollan la IA y más comprometidas estén las tecnológicas en diseñar algoritmos que minimicen sesgos, y cuanto más diversa, crítica y exigente sea nuestra interacción con ella, más rápido avanzará hacia modelos más justos", destaca.

Tracking Pixel Contents