Páginas

sábado, 30 de agosto de 2025

Un experto advierte: la IA está matando internet, no dejemos que mate también la educación

En torno a la mitad de los contenidos en internet podrían estar ya generados artificialmente. ¿Con quién interactuamos realmente?

En torno a la mitad de los contenidos en internet podrían estar ya generados artificialmente. ¿Con quién interactuamos realmente?Amine Mouzaoui / Unsplash

C.L.  
30.08.2025 | 09:18  Actualizado: 


    Existe una Teoría de la Muerte de Internet que sostiene que la Inteligencia Artificial (IA) y el contenido generado por bots ya ha superado en la red al contenido de origen humano. La difusión se lleva a cabo hoy principalmente a través de las redes sociales y consiste esencialmente en multiplicar la interacción, algo para lo que la IA se ha mostrado particularmente eficaz (clics, likes, comentarios, etc.). Es más: buena parte de las cuentas que responden positivamente a esa interacción son ellas mismas agentes de IA. El sistema ha empezado a realimentarse.

    Bots que interactúan entre sí

    Esto es lo que sostiene dicha teoría, pero… “la verdad es más siniestra”, afirman Jake Renzella y Vlada Rozova, expertos en computación y en aprendizaje de máquinas de las Universidades de Nueva Gales del Sur y de Melbourne, respectivamente. Porque está empezando a utilizarse para la difusión de propaganda al servicio de intereses poco claros, y que no consisten solo en el beneficio económico, sino en la afirmación de estructuras de poder totalitarias.

    En Australia, en tres años, el porcentaje de jóvenes entre 18 y 24 años para los que internet es la principal fuente de noticias ha pasado del 28 al 46%. La huida de la juventud de los medios de comunicación sistémicos sostenidos por el establishment (las grandes cabeceras de prensa, radio y televisión) la hace más impermeable a las fake news de los grupos de poder globalistas, porque internet es aún un foro de debate mucho más libre. Los intentos de controlarlo no han logrado el éxito al que aspiraban. De ahí que la fabricación de bulos y su difusión por IA como instrumento para desacreditar la auténtica resistencia a la ideología dominante se haya convertido en un instrumento deslegitimador en manos de un poder deslegitimado.

    “Internet sigue estando lleno de debate y opiniones no filtradas. Sin embargo se percibe como mucho menos vivo -y mucho menos humano- de lo que fue en tiempos”, lamenta Craig Booth, jefe de Tecnología de Packback, una plataforma de aprendizaje basada en un “uso responsable” de la IA.

    De hecho, afirma que probablemente el 40% del contenido evergreen de Faceook y más del 50% del contenido evergreen de LinkedIn está generado por inteligencia artificial, y que una parte creciente de los contenidos de TikTok se generan con IA solo con la finalidad “de que un bot de IA los recomiende a otro bot de IA” para generarles autoridad y tráfico. Este puede ser luego utilizado tanto para la inserción de publicidad como -y esto es lo más peligroso- al servicio de las ideas que convienen al poder globalista o deslegitiman a la oposición.

    Impacto educativo

    Esto, que ya es así en la red, puede tener efectos similarmente devastadores sobre el sistema educativo. Booth titula su artículo exactamente con esa idea: La IA está matando internet. No dejemos que mate también la enseñanza.

    Un riesgo muy real, porque, según un estudio del Digital Education Council, el 86% de los alumnos de secundaria ya usan la IA en sus estudios, un 54% semanalmente y un 25% diariamente. A nivel universitario, “se usa cada vez más la IA para generar materiales educativos, potenciar la implicación de los estudiantes y producir una respuesta del estudiante, aunque la mayoría hablan de un uso mínimo o moderado de la IA".

    En España, Catherine L’Ecuyer ha señalado reiteradamente el destrozo cognitivo y volitivo producido en los alumnos de enseñanza primaria y secundaria por la introducción masiva y acrítica de las pantallas en el ámbito educativo.

    Booth alerta de que algo parecido puede suceder con la IA. No porque no deba capacitarse a los alumnos para su uso, que inevitablemente va a dispararse en el ámbito profesional, sino porque “la IA puede eliminar de la educación el conflicto y la lucha, que son el lugar donde sucede el aprendizaje real”. Hay estudios que muestran que la aceptación sin cuestionarlas de las sugerencias de la IA generativa “pueden dañar el pensamiento crítico, el razonamiento analítico y otras capacidades cognitivas fundamentales”.

    Un riesgo del que advertía no hace mucho el escritor Juan Manuel de Prada: "La inteligencia artificial, por el contrario, propone una uniformización de las almas indolora, aséptica, amable, incluso redentora; porque hace creer a sus usuarios que suple sus lagunas, sus carencias, sus falibilidades e ignorancias. Los 'empodera', a la vez que los despoja de lo que los hace humanos, que es su especificidad, su unicidad, su alma singularísima y nunca repetida; y de este modo, haciéndoles creer que tienen todo el conocimiento del mundo a su disposición, no hace sino brindarles la vida propia de los insectos (que es también la vida de las máquinas): una vida indistinta, gregaria, refractaria a toda forma de disidencia, de mónadas idénticas que forman parte de un enjambre o nube de moscas (aunque, por supuesto, la tecnología brinda siempre un espejismo de individualismo liberador, que no es otra cosa sino desarraigo de las realidades cálidas que integran nuestra humanidad)".

    Un estudio del MIT (Massachusetts Institute of Technology) que midió la actividad cerebral de los estudiantes al escribir un ensayo encontró que quienes usaban ChatGPT “quedaban consistentemente por debajo a nivel neurológico, lingüístico y actitudinal”.

    "Las instituciones de educación superior y sus responsables tienen que ser cada vez más escépticos para que las herramientas de IA no supriman la experiencia de aprendizaje o la lucha productiva (el desorden colaborativo y confuso del aprendizaje) que se supone deben aportar las clases", concluye Booth: "Deben ser especialmente precavidos con los algoritmos de caja negra [cuyo funcionamiento el usuario desconoce], que asumen taras humanas y producen alejamiento de la realidad, sutiles confusiones, razonamiento lógico erróneo y otros resultados inexplicables que pueden desbordar nuestra capacidad para pensar críticamente y revisar con sentido".



    Sem comentários:

    Enviar um comentário