Proyecto 42888/L/25: ¿Hacia un uso ético de la Inteligencia Artificial en la educación de Córdoba?
![]() |
| Imagen generada con IA |
Introducción: una ley provincial en debate
En agosto de 2025 ingresó a la Comisión de Educación de la Legislatura de Córdoba el Proyecto 42888/L/25, titulado “Programa Provincial de Uso Ético y Pedagógico de la Inteligencia Artificial en la Educación”. Se trata de una iniciativa ambiciosa que busca regular e impulsar la incorporación de la IA en las escuelas primarias y secundarias de la provincia.
La pregunta que debemos hacernos es: ¿puede una ley garantizar un uso ético de la IA en la educación sin caer en la tecnocracia ni en la ingenuidad? ¿O se corre el riesgo de abrir la puerta a nuevas formas de desigualdad, vigilancia y dependencia tecnológica?
Qué dice el Proyecto 42888/L/25
El texto propone tres ejes principales:
- Formación docente y de equipos técnicos en el uso crítico y pedagógico de la IA.
- Resguardo de los derechos de niñas, niños y adolescentes, con especial énfasis en la privacidad y la no discriminación.
- Apropiación pedagógica de estas tecnologías bajo los principios de equidad, transparencia, consentimiento informado y responsabilidad.
También se crea un Consejo Asesor interdisciplinario, con representación ministerial, universitaria, gremial, estudiantil y de la Defensoría de Derechos de Niñas, Niños y Adolescentes.
Sin embargo, hay un detalle llamativo: la ley salta de un artículo 6º a un artículo 8º, dejando en el aire un artículo 7º faltante. Un vacío que no parece casual: suele ser allí donde se establecen los presupuestos, cronogramas o mecanismos de evaluación.
Ventajas del proyecto
- Anclaje axiológico: se incorporan principios como la equidad, la transparencia y la protección de datos.
- Participación plural: el Consejo Asesor prevé voces diversas y contrapesos democráticos.
- Alfabetización crítica: se busca enseñar a pensar los algoritmos y no solo a usarlos como herramientas neutrales.
- Conexión con marcos internacionales: se alinea con las guías de UNESCO, el Convenio 108+ sobre datos personales y recomendaciones nacionales de la AAIP.
Debilidades y riesgos del Proyecto 42888/L/25
- Definiciones ambiguas: no se aclara qué se entiende por “IA”, “IA generativa” o “explicabilidad”.
- Sin clasificación de riesgos: a diferencia del AI Act europeo, aquí no hay categorías de bajo, medio o alto riesgo, ni prohibiciones de prácticas invasivas como el reconocimiento de emociones.
- Déficit de protección de datos: no se prevén evaluaciones de impacto ni protocolos claros para menores de edad.
- Ausencia de reglas de contratación: ¿qué pasa si las escuelas dependen de proveedores privados sin garantías de accesibilidad y transparencia?
- Impacto ambiental ignorado: no se menciona la huella energética de los modelos de IA.
- Falta de recursos: sin presupuesto real, la iniciativa puede quedar en letra muerta o convertirse en una carga más para la docencia.
El papel de la filosofía y la ética en este debate
La filosofía tiene aquí un rol central. Como recordó Aristóteles, la phronēsis (prudencia práctica) no es mera técnica (téchne), sino la capacidad de deliberar sobre lo que es bueno para la vida en común. Kant nos exige tratar a las personas siempre como fines, nunca como medios; en la educación, esto significa no reducir a la niñez a datos procesables. Y Hans Jonas advierte que la técnica moderna requiere una ética de la responsabilidad hacia el futuro.
En América Latina, pensadores como Paulo Freire y Enrique Dussel nos recuerdan que toda tecnología está atravesada por relaciones de poder. No hay neutralidad en la IA: o emancipa o reproduce la opresión.
¿Para qué filosofar sobre educación si un algoritmo puede decidir quién aprende y quién fracasa? Cerramos las aulas, tercerizamos la docencia en una app, y celebramos la eficiencia del dashboard. Cuando la máquina confunda sabiduría con latencia, haremos un acto escolar con medallas a la “inteligencia artificial más aplicada”. ¡Voilà! Problem solved.
Cultura, mito y crítica
La situación recuerda a la caja de Pandora: al liberar la IA en la escuela, también se liberan los males de la vigilancia y el control, pero queda al fondo la esperanza, siempre que sepamos ejercer crítica y prudencia.
Borges ya lo anticipó en La biblioteca de Babel: el exceso de información sin criterios es tan ciego como la ignorancia. Y Cortázar en Rayuela nos enseñó que se puede aprender de modos no lineales, creativos y libres. La IA puede ser un laberinto de Dédalo… pero también puede darnos el hilo de Ariadna si lo sujetamos con filosofía.
Qué debería incorporar el Proyecto 42888/L/25
- Glosario normativo con definiciones claras.
- Clasificación por riesgos y prohibiciones específicas (ej. reconocimiento de emociones).
- Evaluaciones de impacto algorítmico y publicación de resultados.
- Registro público provincial de sistemas de IA en escuelas.
- Derechos de estudiantes y docentes: información, consentimiento y posibilidad de optar.
- Regulación de contratos con proveedores de IA.
- Lineamientos de integridad académica frente al plagio asistido por IA.
- Presupuesto y cronograma claros.
- Criterios de sostenibilidad ambiental.
Conclusión: filosofía o tecnocracia
El Proyecto 42888/L/25 es una oportunidad para que Córdoba sea pionera en la región en materia de IA educativa. Pero si se aprueba tal como está, sin los ajustes necesarios, corre el riesgo de ser un marco incompleto, tecnocrático y sin recursos reales.
La clave es unir téchne y phronēsis: técnica y prudencia, eficiencia y ética, datos y humanidad. Porque sin filosofía, la escuela puede convertirse en un laboratorio de captura de datos; con filosofía, puede ser el espacio donde la tecnología se convierte en herramienta de emancipación.
Lic. Marcelo J. Silvera
Bibliografía sugerida
Aristóteles. (2009). Ética a Nicómaco. Centro de Estudios Políticos y Constitucionales.
Freire, P. (2005). Pedagogía del oprimido. Siglo XXI.
Jonas, H. (1995). El principio de responsabilidad. Herder.
Kant, I. (2007). Fundamentación de la metafísica de las costumbres. Alianza.
UNESCO. (2023). Guidance for Generative AI in Education and Research.
Unión Europea. (2024). AI Act.
Agencia de Acceso a la Información Pública. (2023). Resolución 161/2023.
.jpeg)

0 comentarios