El servicio educativo: aprendizaje personalizado y educación automatizada

AutorLeonor Moral Soriano
Cargo del AutorProf.ª Titular de Derecho Administrativo. Universidad de Granada
Páginas55-87
El servicio educativo: aprendizaje
personalizado y educación automatizada 1
L M S
Prof.ª Titular de Derecho Administrativo
Universidad de Granada
SUMARIO: I. CONCEPTO (NORMATIVO) DE INTELIGENCIA ARTIFICIAL. II.
DERECHO A LA EDUCACIÓN. III. LAS TECNOLOGÍAS EDUCATIVAS
(EdTec). III.1. Los inicios de la EdTech. III.2. La minería de datos de la
EdTec. III.2.1 Paso 1: Análisis de datos. III.2.2 Paso 2: hacer un diagnós-
tico. III.2.3. Paso 3: La receta. III.3 La educación personalizada de las
EdTech. IV. DEL APRENDIZAJE PERSONALIZADO AL APRENDIZAJE
AUTOMATIZADO. V. EL APRENDIZAJE AUTOMATIZADO NO ES
EL BÁLSAMO DE FIERABRÁS. V.1. Alcance de la tecnología. V.2. Qué
educación para qué contexto. VI. BIBLIOGRAFÍA
I. CONCEPTO (NORMATIVO) DE INTELIGENCIA
ARTIVIFICIAL
Al examinar las conexiones entre inteligencia artificial y educación con-
viene preguntarse primero, en aras a la corrección metodológica, sobre el
concepto de inteligencia artificial. Aunque es una cuestión difícil por su ex-
traordinaria evolución, hay dos notas que la caracterizan: la autonomía 2 y la
1 Colabora, junto con el Proyecto TED2021-131550B-I00, el Proyecto de I+D+i PID2021-
126869OB-I00, Gobernanza de la Educación (GO-Educación), financiado por MCIN/
AEI/10.13039/501100011033.
2 La autonomía en el contexto de la inteligencia artificial se refiere a la capacidad de
un sistema para operar de manera independiente, sin la necesidad de la intervención humana
constante. Estos sistemas están diseñados para tomar decisiones y realizar tareas por sí mismos,
basándose en datos y algoritmos predefinidos. Por ejemplo, los asistentes virtuales como Siri o
Alexa son ejemplos de inteligencia artificial autónoma, ya que pueden responder preguntas y
llevar a cabo acciones sin intervención humana directa.
56 L M S
adaptabilidad 3. Esta investigación no escapa de este obligado primer paso,
ahora bien, el concepto de inteligencia artificial que utilizaré será normati-
vo, de deber ser. En concreto, se enmarca dentro de lo que Benbouzid et al.
(2022) denominan inteligencia artificial como sistemas socio-técnicos 4, de
acuerdo con los que la inteligencia artificial se concibe como un sistema que
combina elementos técnicos y sociales, interactuando de manera autónoma y
adaptativa con seres humanos y en un contexto social.
Estos autores proponen una cartografía de las diferentes posturas nor-
mativas adoptadas en relación con la IA. Para ello, utilizan dos ejes que re-
presentan la definición de inteligencia artificial (eje horizontal) y el nivel de
control deseado sobre la misma (eje vertical). En el eje horizontal que refleja
las posiciones conceptuales respecto a la IA, se pueden distinguir aquellas que
la consideran una disciplina científica, de un lado, de aquellas otras que la
ven como un servicio o producto de mercado. Por su parte, en el eje vertical,
que representa el nivel de control, se pueden identificar, en un extremo, los
controles abstractos y, en el otro, los controles específicos. Como resultado,
surgen cuatro espacios en los que se pueden señalar concepciones normativas
de inteligencia artificial distintas y mutuamente excluyentes.
En primer lugar, la IA se puede considerar como una super-inteligencia
que superará a la inteligencia humana, y sobre la que sólo podemos ejercer
controles abstractos. En la era del transhumanismo (Benbouzid et al., 2022, p.
37), la sociedad llegará a ver en la IA un ideal político con el que se superan
las limitaciones de los seres humanos. El peligro que se sopesa en este esce-
nario es la pérdida de control sobre los desarrollos, por ejemplo, el que las
máquinas aprendan a evitar (o lograr) que los humanos interrumpan su fun-
cionamiento 5. Surgen así instituciones como Future of Humanity Institute,
Centre for the Study of Existencial Risk, Future of Life Institute, y Berkeley
Existential Risk Initiative, entre otras, que trabajan en estrecha colaboración
3 Se refiere a la capacidad de un sistema para aprender y ajustarse a medida que adquie-
re nueva información y se enfrenta a situaciones cambiantes. Los algoritmos de aprendizaje au-
tomático y el aprendizaje profundo permiten a los sistemas de inteligencia artificial adaptarse
y mejorar con el tiempo. Por ejemplo, los motores de recomendación de plataformas en strea-
ming utilizan algoritmos de aprendizaje automático para adaptar las sugerencias de contenido
según las preferencias y el comportamiento de los usuarios.
4 En la misma línea véase Leslie, David, Christopher Burr, Mhairi Aitken, Josh Cowks,
Mike Katell, y Morgan Briggs. (2021). Artificial Intelligence, Human Rights, Democracy and the Rule
of Law: a Premier, Consejo de Europa y The Alan Turning Institute, p. 14.
5 Por ejemplo, Lauren Orseay (Google DeepMind) y Stuart Armstrong (The Future of
Humanity Institute) ofrecen una definición formal de interrupción segura para probar que ya
existen agentes que pueden interrumpir de forma segura el sistema de inteligencia artificial
como Q-learning.
El servicio educativo 57
para evitar peligros indeseables de la IA super-inteligente como es la pérdida
de control sobre ella.
En oposición a esta forma de control abstracto que siempre ejercerá el
humano sobre la máquina, la ciencia de computación propone soluciones téc-
nicas; se trata de una suerte de auto-regulación técnica de y por la ciencia en
la que los científicos se preguntan por los peligros concretos que puede gene-
rar la técnica y cómo evitarlos.
En tercer lugar, Benbouzid et al. identifican posiciones para las que la IA
es un segmento técnico-económico: los desarrollos de IA son un servicio o
producto del mercado y el control se ejerce sobre el mercado (2022, p. 50).
Este es el concepto y nivel de control abrazado por la Comisión Europea en
su Reglamento de la IA y en el de Responsabilidad por productos defectuosos.
Finalmente, Benbouzid et al. señalan un espacio que conceptualiza la IA
como sistemas socio-técnicos sujetos a la crítica social y al control democrático
(Benbouzid et al., 2022, p. 45). En el terreno de estas posiciones normativas, se
habla de riesgos (no de peligros) y del control holístico que se puede ejercer
sobre la IA. Pues bien, será el derecho el instrumento elegido por la sociedad
para ejercer este control holístico y más concretamente, los derechos funda-
mentales. Leslie et al. proponen, en esta misma línea, identificar los riesgos y
oportunidades de los sistemas de IA para así identificar mejor los derechos y
los sistemas de protección, así como clarificar los derechos existentes y crear,
si fuera necesario, nuevos derechos (Leslie et al., 2021. p. 14).
II. DERECHO A LA EDUCACIÓN
En el marco conceptual de los sistemas socio-técnicos de inteligencia arti-
ficial, los derechos fundamentales no son percibidos como víctimas arrolladas
por la tecnología, sino como bastiones para la defensa y prevención de los
riesgos que genera. En lo que nos ocupa ahora, el derecho fundamental a la
educación (art. 27 CE) devine un valioso instrumento. Ahora bien, en aras a
la corrección metodológica, se debe abordar una aproximación conceptual a
este derecho fundamental que consagra nuestra Constitución.
El fundamento del derecho a la educación está recogido en el artículo
27.2 CE (en relación con el 10.1 CE): la educación debe tener como objeto el
desarrollo de la personalidad. Por un lado, este principio es clave para inter-
pretar todo el derecho de la educación; significa también la necesidad de que
el sistema educativo ofrezca al alumno algo más que una simple trasmisión

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR