top of page

“La enseñanza de la IA y la alfabetización digital deben ser tan flexibles como las comunidades a las que sirven”



Durante el panel sobre “Educación Mediática e IA en colegios y medios”, de la tercera versión del Edumedia, quedó claro que no estamos preparando a las nuevas generaciones para navegar un entorno donde la inteligencia artificial redefine constantemente lo que es real, confiable o ético. Las intervenciones de los expertos no sólo señalaron problemas urgentes, sino que también abrieron caminos para construir soluciones desde las aulas, los medios y la comunidad. 


Tomás Durán, director de investigaciones de Uniminuto, planteó una pregunta clave: “¿cómo enseñar a distinguir lo confiable de lo que no lo es en un mundo digital donde la inteligencia artificial (IA) exige habilidades en tiempo real?”. La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), por su parte, trata de incluir la alfabetización digital en los sistemas educativos,  pero la rapidez de la innovación tecnológica supera los marcos tradicionales de enseñanza. 


La respuesta no puede limitarse a una clase semanal sobre "uso responsable de internet". Si la desinformación se mueve rápido, la educación debe ser igual de ágil. Esto implica integrar el pensamiento crítico en todas las materias, no como un tema aparte, sino como una forma de abordar el conocimiento. 


Un estudiante entonces, no solo debe aprender historia, debe aprender a cuestionar las fuentes de esa historia. No solo debe redactar ensayos, debe entender cómo un modelo de lenguaje como ChatGPT o DeepSeek podría sesgar sus argumentos. Para lograr este objetivo, las instituciones educativas deben adoptar un enfoque dinámico, donde el aprendizaje no se limite a contenidos estáticos, sino que incluya el análisis de tendencias informativas en tiempo real. 


De manera que los docentes pueden utilizar plataformas digitales para contrastar versiones de un mismo hecho, enseñando a los alumnos a identificar sesgos, verificar fuentes y reconocer patrones de manipulación. Así, más que acumular datos, los estudiantes desarrollarán habilidades para procesar la información de manera reflexiva, discerniendo entre lo veraz y lo engañoso. En este sentido, debe ser un escudo contra la desinformación, preparando a las nuevas generaciones no solo para entender el mundo, sino para contrastarlo con juicio crítico y responsabilidad.


De este modo, Álvaro Montes, director de inteligencia artificial de Prisa Media, llevó la discusión hacia el papel de los medios de comunicación. Señaló ejemplos preocupantes como titulares sensacionalistas del tipo "La IA predice el fin del mundo", que generan pánico sin contexto. Montes también destacó iniciativas valiosas, como el uso de IA para verificar noticias falsas mediante reconocimiento de audio o análisis de imágenes. 


Tomás Durán Becerra - Director de Investigación Uniminuto, Juliana Uribe - CEO Movilizatorio, César Paredes - Subdirector Programático FLIP, Álvaro Montes - Director de contenidos IA Prisa Media,  Juan Sebastián Salamanca - UNESCO. Edumedia 2025
Tomás Durán Becerra - Director de Investigación Uniminuto, Juliana Uribe - CEO Movilizatorio, César Paredes - Subdirector Programático FLIP, Álvaro Montes - Director de contenidos IA Prisa Media, Juan Sebastián Salamanca - UNESCO. Edumedia 2025

Aquí hay una oportunidad clara: los medios no solo deben informar, sino también educar. ¿Por qué no incluir secciones que expliquen, de manera accesible, cómo funcionan los algoritmos que ordenan nuestras redes sociales? ¿O cómo detectar un deepfake? Si la ciudadanía no entiende estas herramientas, seguirá siendo vulnerable a la manipulación. 


Cada minuto, decisiones cruciales desde tratamientos médicos hasta posturas políticas, se toman basadas en información que nunca fue verificada. Compartimos sin pestañear titulares alarmistas, creemos en influencers que venden mentiras como verdades únicas, y dejamos que algoritmos diseñados para engancharnos definan nuestra visión del mundo. El costo de esta credulidad digital ya es tangible: sociedades polarizadas, sistemas de salud colapsados por engaños y democracias manipuladas por campañas de microtargeting que nos muestran solo lo que queremos oír. Mientras tanto, seguimos educando a los jóvenes como si internet fuera solo una herramienta y no un ecosistema complejo que premia el engaño y castiga la duda.


Por otro lado, Juliana Uribe, directora de Movilizatorio, señaló algo fundamental: no podemos dejar de lado el pensamiento crítico. Propuso fomentar el diálogo y el debate en las aulas, así como insistir en la ética y transparencia en los trabajos académicos. Esto es crucial, pero requiere un cambio estructural. No basta con que los docentes pidan fuentes confiables; las instituciones deben darles tiempo y recursos para enseñar a evaluarlas. Además, como bien complementó Tomás Durán, se necesita un entrenamiento continuo que permita a los educadores mantenerse al día con los cambios tecnológicos. ¿De qué sirve hablar de verificación de datos si los profesores no saben cómo funciona un generador de texto IA? 


Por su parte, Juan Salamanca, coordinador del proyecto Social Media 4 Peace de la UNESCO, aportó una reflexión poderosa con su analogía del Oxxo: “entramos por agua y salimos con Doritos y Monster”. 


Así funciona la desinformación en espacios digitales, especialmente en contextos políticos. Las personas llegan a una red social por un tema específico y terminan expuestas a discursos de odio, teorías conspirativas o campañas de manipulación. El problema no es solo la información falsa, sino cómo los algoritmos amplifican contenidos polarizantes porque generan más interacción. 


Salamanca hizo un llamado importante: la ciudadanía tiene derecho a entender cómo se configuran estos algoritmos, especialmente en épocas electorales. Pero esto no puede quedar en una exigencia abstracta. Las escuelas, los medios y las plataformas digitales deben asumir su parte. 


Esta metáfora del Oxxo digital revela una dinámica aún más preocupante: no se trata solo de contenidos no solicitados, sino de cómo estos van moldeando progresivamente nuestra percepción de la realidad. Asi, la equidad digital espera transparencia, no es comprensible tener un mundo donde las plataformas sepan todo de nosotros, mientras se ignora cómo nos llevan a tomar decisiones sin darnos cuenta de ello. 


Los algoritmos aprenden de cada clic, cada tiempo de visualización, cada reacción emocional, creando perfiles psicológicos cada vez más precisos que luego son utilizados para mostrarnos exactamente aquello que nos mantendrá enganchados, sin importar su veracidad o consecuencias sociales. El verdadero peligro está en la normalización de este proceso: mientras más tiempo pasamos en estas plataformas, más invisible se vuelve la manipulación, hasta que terminamos creyendo que esas ideas surgieron orgánicamente de nuestro propio criterio. El derecho a no ser manipulado debe ser la próxima frontera de los derechos digitales.


Finalmente, César Paredes, subdirector programático de la Fundación para la libertad de prensa (FLIP),  cierra esta valiosa reflexión recordando  algo que muchas reformas educativas olvidan: la necesidad de adaptarse a realidades diversas. Hay que considerar brechas socioeconómicas, lenguajes locales e incluso la desconfianza histórica hacia fuentes de información nacionales. 


Mencionó el potencial de la etnoeducación y la importancia de integrar sistemas formales con conocimientos comunitarios. Esto no es un detalle menor. En un país con tanta diversidad cultural como Colombia, una estrategia única de educación mediática está condenada al fracaso. Lo que funciona en Bogotá puede no resonar en Acacías, y viceversa. La enseñanza de la IA y la alfabetización digital deben ser tan flexibles como las comunidades a las que sirven. La respuesta exige diálogos horizontales, donde la tecnología sea una herramienta para amplificar voces, no para convertirse en una monocultura pedagógica. 


El panel dejó claro que los desafíos son enormes, pero también que contamos con las ideas, los conocimientos y al menos en parte con las herramientas necesarias. Lo que falta ahora es la voluntad política, el compromiso institucional y la conciencia colectiva para actuar con la rapidez y la profundidad que este momento exige.


Juan Esteban Moyano Castellanos

Miembro del comité asesor

Jóvenes Líderes DIP 

Tunja, Boyacá

 
 
CONTÁCTANOS

Detox Information Project es un proyecto de

Síguenos en redes
  • Facebook
  • Instagram
  • Twitter
  • LinkedIn
  • YouTube
  • TikTok
Logo Ethos BT

consultoría en Ciencias del Comportamiento

© 2025 DIP by ETHOS BT Behavioral Team

bottom of page