Sie sind auf Seite 1von 84

RECONOCIMIENTO DE VALIDEZ OFICIAL DE ESTUDIOS POR EL

GOBIERNO DEL ESTADO DE JALISCO, SEGÚN ACUERDO Nº ESM20021401


DEL 29 DE OCTUBRE DEL AÑO 2002

POSTGRADO PEDAGÓGICO PARA LA


CALIDAD TOTAL DE LA PRAXIS EDUCATIVA

TESIS
“ANÁLISIS SEMIOLÓGICO DE LOS REACTIVOS DE LA PRUEBA
ENLACE DE ESPAÑOL 1° GRADO DE EDUCACIÓN SECUNDARIA”

PARA OBTENER EL GRADO DE


MAESTRÍA EN METODOLOGÍA DE LA ENSEÑANZA

PRESENTADA POR
JOSÉ JAVIER ELIZARRARÁS MONROY

ZAPOPAN, JALISCO DICIEMBRE DEL 2011

IMEP IMEP IMEP IMEP


RECONOCIMIENTO DE VALIDEZ OFICIAL DE ESTUDIOS POR EL
GOBIERNO DEL ESTADO DE JALISCO, SEGÚN ACUERDO Nº ESM20021401
DEL 29 DE OCTUBRE DEL AÑO 2002

POSTGRADO PEDAGÓGICO PARA LA CALIDAD TOTAL DE LA


PRAXIS EDUCATIVA

DICTAMEN DE TESIS

El que suscribe, asesor en Metodología de la Investigación


Pedagógica y Educativa,

DR. ANDRÉS RUIZ MORFÍN

Acreditado por el Instituto Mexicano de Estudios Pedagógicos A.C., como


asesor de Tesis de la Maestría en Metodología de la Enseñanza impartida
por esta Institución, hace constar que se llevó el seguimiento del trabajo de
Investigación con el título:

“ANÁLISIS SEMIOLÓGICO DE LOS REACTIVOS DE LA PRUEBA


ENLACE DE ESPAÑOL 1° GRADO DE EDUCACIÓN
SECUNDARIA”

Realizada por el Lic.

JOSÉ JAVIER ELIZARRARÁS MONROY

para obtener el Grado Académico de Maestro. Habiéndose leído y


analizado se concluye que cumple con los requisitos establecidos por el
Colegio de Metodología de la Investigación de este Instituto.

Zapopan, Jalisco, Diciembre del año 2011

Atentamente

Dr. Andrés Ruiz Morfiín


ÍNDICE.
INTRODUCCIÓN ………………………………………………………………………2
JUSTIFICACIÓN ……………………………………………………………………....5
MARCO TEÓRICO
CAPÍTULO I. LAS PRUEBAS PEDAGÓGICAS
1.1 El origen y los creadores de las pruebas pedagógicas …………………..12
1.2 Los tipos de pruebas pedagógicas …………………………………....……15
1.3 Los fines de las pruebas pedagógicas ………………………..............…..27
1.4 Los parámetros de las pruebas pedagógicas ……………………………..31
CAPÍTULO II. LA PRUEBA ENLACE
2.1 Un acercamiento al concepto de prueba ENLACE ……………………....37
2.2 El origen de la prueba ENLACE ………………………………………...….40
2.3 Los fundamentos de la prueba ENLACE ………………………...………..47
2.4 Evaluar, medir y calificar ………………………………………………….....61
2.5 La ciencia de la evaluación pedagógica. …………………………………..69
2.6 El perfil y la autoridad moral y académica de los diseñadores
de las prueba ENLACE ……………………………………………………...72
2.7 Las variables que condicionan y/o determinan la aplicación y
resultados de la prueba ENLACE …………………………………………..76
CAPÍTULO III. LA TEORÍA DE COMPETENCIAS Y LA
PRUEBA ENLACE ………………………………………………….84
CAPÍTULO IV. ANÁLISIS SEMIOLÓGICO DEL TEXTO
DE LA PREGUNTA …………………………………………………89
CAPÍTULO V. ANÁLISIS SEMIOLÓGICO DE LAS OPCIONES
DE RESPUESTA ……………………………………………….…162
CONCLUSIONES ……………………………………………………………….….235
REFERENCIAS ………………………………………………………………….…242
BIBLIOGRAFÍA …………………………………………………………………….245
ANEXOS ……………………………………………………………………..…….251
5

MARCO TEÓRICO

CAPITULO I
LAS PRUEBAS PEDAGÓGICAS

b.7....... El origen y los creadores de las pruebas


pedagógicas

Los datos más antiguos que se tiene registro sobre evaluación datan del año
2000 a.C. en China, donde la burocracia a través de exámenes basados en los
escritos canónicos de Confucio, elegía a los miembros de castas inferiores para
labores administrativas.

Fue hasta la Edad Media, en la universidad medieval donde se introdujo la


palabra “examen”, para referirse a la práctica educativa, donde incluía los
procesos de investigación sobre la selección de sus candidatos, además de
utilizarse como una prueba directa de las realizaciones escolásticas.

En el siglo XIX la evaluación era generalmente oral, el profesor o un inspector


planteaba una pregunta que debía ser contestada de manera inmediata por un
alumno seleccionado, por lo que el examinador evaluaba de forma subjetiva.
Esta forma de examinar carecía de homogeneidad en las preguntas y en la
evaluación de respuestas, además, se evaluaba de uno en uno, por lo que no
permitía hacer comparación entre alumnos, tareas y evaluaciones.

A mediados del siglo XIX en Estados Unidos fueron reemplazados los


exámenes orales por escritos, establecidos como requisito para admisión y
certificación a la universidad. Los exámenes se elaboraban por los maestros de
la clase, predominando los ensayos, por lo que las evaluaciones siguieron
6

siendo subjetivas. En la segunda mitad del mismo período inicia la psicología


experimental que influyó en los procesos evaluativos dado su interés en la
medición del campo perceptivo y del aprendizaje; Galton estudió las diferencias
individuales, Pearson elaboró los instrumentos estadísticos, Binet realizó
estudios sobre individuos anormales en Francia y determinó medidas que
permiten expresar el grado de defecto y los instrumentos para medir la
inteligencia.

Alrededor de 1900 se inició la aplicación de exámenes calificados objetivamente


donde se hizo uso de una clave establecida y aplicada de manera homogénea a
los alumnos. En 1900 surgió la norma de aprovechamiento para una edad o
grado determinado con la finalidad de comparar el rendimiento de un individuo o
grupo. En Estados Unidos, Thordike trabajó en el desarrollo y divulgación de los
test estandarizados influenciado por las investigaciones europeas. Hasta 1915
es una época de búsqueda y desarrollo inicial de métodos, test de inteligencia y
test estandarizados de aprovechamiento.

De 1915 a 1930 se desarrolla un periodo de auge del desarrollo de test; éstos


se construyeron para medir destrezas y contenidos escolares, así como los
colectivos de inteligencia Alfa y Beta que el ejército de los E.U.A aplicó cuando
decidió tomar parte en la primera guerra mundial para reclutar a sus soldados.

De 1930 a 1945 debido a las críticas que se hacían de los test, por el uso que le
daban, se vieron obligados a reconsiderar, ampliar las técnicas y delimitar
interpretaciones; se procedió a la evaluación de todo lo que tenía fines
educativos.

En México el Dr. Santamarina, en 1925, hizo una adaptación de la escala de


inteligencia de Binet y Simon y en 1930, el Departamento de Psicopedagogía e
Higiene, dependiente de la Secretaría de Educación Pública, inició los trabajos
de acomodación de algunas pruebas mentales.
7

De 1945 a 1960 se reconoce el uso de las baterías de test y de los programas


para su aplicación. Desde los años cincuenta y principios de los sesenta se
toma la teoría de test para aplicarla a la medición del rendimiento escolar; la
Universidad Nacional Autónoma de México la utiliza para la selección de
aspirantes a licenciatura y bachillerato.

A principios de los setenta surge la Dirección General de Evaluación,


establecida por el gobierno federal, comenzado en 1974 con la aplicación de
exámenes a estudiantes de secundaria y, a partir de 1984 se aplicaron pruebas
generales de educación básica y normal.

A partir de esta fecha se aplicaron diversos exámenes a los alumnos de las


escuelas mexicanas, uno de ellos es el llamado IDANIS para los alumnos de
sexto grado de primaria que deseaban entrar a secundaria, haciendo énfasis en
el campo de las matemáticas y el lenguaje.

Es en 1991 que de acuerdo a los programas compensatorios que implementó el


gobierno mexicano, con el apoyo del Banco Mundial, se vio en la necesidad de
aplicar pruebas a los alumnos que fueron beneficiados por dicho programa.

En 1992 con el Acuerdo Nacional de Educación Básica se aplicaron pruebas a


una considerable cantidad de alumnos para tomar los resultados y poder
asignar estímulos a Carrera Magisterial.

En 1994 se establece el Centro Nacional de Evaluación (CENEVAL) que


impulsa un sistema de exámenes, tanto para el ingreso como para el egreso de
la educación media superior y superior.

Con el ingreso de México a la OCDE en 1994 dan comienzo los exámenes


internacionales para los estudiantes mexicanos, como PISA, aplicado por
8

primera vez en el 2000 a alumnos de 15 años que se encontraban a punto de


ingresar a la educación postsecundaria o de incorporarse a la vida laboral; en
estas pruebas se analizaron las habilidades y destrezas que se forman en la
escuela en los ámbitos de lectura, matemáticas y ciencias.

Con la creación de Instituto Nacional de Evaluación INEE y con el desarrollo de


nuevas iniciativas de la Secretaría de Educación Pública SEP, aparece el
Examen de Calidad de Logro Educativo EXCALE, a partir del 2005 y el más
reciente referente a la Evaluación Nacional de Logro Académico en Centros
Escolares ENLACE, aplicado en educación básica desde el 2006, en las
escuelas primarias y secundarias de todo el país, ya sean públicas o privadas.

1.2 Los tipos de pruebas pedagógicas

Las pruebas objetivas se forman a partir de reactivos con enunciados o


preguntas muy concretas, en las que el alumno va a señalar, a partir de las
diferentes opciones, la respuesta acertada, por tal motivo, en este tipo de
pruebas no son necesarios los juicios del docente o las interpretaciones
relacionadas con las respuestas; la calificación que se obtiene es directamente
proporcional al número de aciertos, de una manera completamente
independiente del juicio de quien califica.

Las ventajas que ofrecen las pruebas pedagógicas, están en relación con el
desempeño individual del alumno, pudiendo evaluar el logro por objetivos;
apoyando la labor docente al identificar los puntos álgidos en el proceso
aprendizaje-enseñanza, incluidos los métodos de enseñanza y actividades en el
aula.
9

Otro aspecto sobresaliente de las pruebas objetivas, es la facilidad con la que


se califican los ítems, eliminando el juicio del evaluador; lo que facilita al
docente en razón del tiempo invertido, poder señalar a los alumnos sus aciertos
pero también sus desaciertos.

Clasificación de las pruebas pedagógicas:


Las pruebas pedagógicas, son instrumentos de medida y como tales se
clasifican en formales o estandarizadas e Informales o de aula. Las primeras se
caracterizan por evaluar e interpretar de manera general con base en una
norma establecida o estandarizada, generalmente son utilizadas para evaluar a
un gran número de participantes. Las pruebas Informales o de aula, reciben
este nombre por ser elaboradas por los docentes para evaluar el
aprovechamiento de sus alumnos.

Otra clasificación de las pruebas pedagógicas obedece a la manera como se


plantean los ítems y que obliga al alumno a presentar respuestas de manera
abierta o cerrada. Las pruebas de respuesta abierta solicitan al alumno el
desarrollo de temas o a reportar composiciones o ensayos donde el docente
expresa un tema o temas y el alumno responde con toda libertad, organizando
sus ideas a partir de su propio léxico. Las pruebas de respuesta cerrada se
caracteriza por ser un instrumento, que exige al alumno conocimientos
abstractos y algunas veces memorísticos.

Las pruebas pedagógicas de respuesta cerrada, se clasifican de acuerdo a la


manera en que se plantean los reactivos y la forma en que el alumno debe
ofrecer una respuesta, generalmente es en una o pocas palabras.

Los reactivos o ítems constan, según Thyne (1978), de dos partes: el enunciado
o cuerpo del reactivo, base o pie y un conjunto de opciones. En el cuerpo del
reactivo el docente solicita a los alumnos una determinada respuesta, mientras
10

que en el conjunto de opciones algunas funcionan como distractores y sólo una


opción ofrece la respuesta correcta.

Los reactivos deben contener la idea fundamental de la pregunta, de tal manera


que permita al alumno discernir entre las opciones cual es la correcta. Un
enunciado ambiguo, incompleto, impreciso, excesivamente complejo, impide a
los alumnos responder acertadamente.

Las pruebas objetivas se clasifican de acuerdo a la forma en que se construye


el cuerpo del reactivo y la manera en que el alumno proporcione una respuesta
a cada uno de los ítems. Estas pueden ser de:
1. Complementación:
 Frase incompleta
 Canevá
2. Respuesta breve.
3. Opción múltiple.
4. Jerarquización
5. Pareo:
 Asociación
 Identificación
6. Interrogativas
7. Falso y verdadero

Complementación
Son preguntas que deben contestarse con una palabra, fecha, número o una
frase. Se dividen en dos tipos:
“Frases Incompletas”, que solo presentan un espacio en blanco para contestar
y; las de tipo “Canevá” que presentan más de un espacio en blanco para
contestar, intercalado con partes de la frase que le dan sentido.
Ventajas:
 Son útiles para explorar aprendizajes simples.
11

Desventajas:
 Se puede confundir al alumno al solicitarle datos o información no esencial
(información accesoria, subjetiva o interpretativa, entre otras).
 Otro riesgo es el de exagerar la importancia de la memorización como
indicador del logro de los objetivos programáticos y esperar la retención
exacta y textual de muchos datos.

Respuesta Breve
Pueden plantearse en forma de pregunta o de manera afirmativa, requieren
mayor grado de elaboración en la respuesta, la cual debe ser breve.
Ventajas:
 Estas preguntas son útiles para evaluar hechos, conceptos y principios.
Desventajas:
 Resulta inadecuado para evaluar aprendizajes complejos, ya que lo que se
vierta como respuesta puede resultar muy alejado de lo que se pregunta.

Opción múltiple
Son reactivos planteados de manera interrogativa, los que deben responderse
eligiendo una respuesta de entre una serie de opciones. Estos reactivos se
pueden clasificar por su forma de respuesta en: alternativos, los cuales se
caracterizan por ofrecer respuestas que versan sobre el mismo tema
(distractores), pero sólo una opción es la correcta; de respuesta óptima,
caracterizada porque todas las opciones son parcialmente correctas, pero sólo
una lo es completamente.

Tanto en el banco de reactivos como en las pruebas pueden tenerse reactivos


individuales y de grupo. Los reactivos individuales son los que se responden de
forma independiente de otros reactivos, su respuesta no depende del contenido
de otros reactivos, ni está asociado a un contexto, lectura o problema a
12

resolver. Los reactivos de grupo, son aquellos que dependen de una


información previa para ser contestados, puede ser una lectura.
Por la estructura del ítem pueden ser de complementación, donde el enunciado
solicita una opción que responde a la pregunta; de combinación, donde la base
del reactivo presenta tres o cuatro alternativas, de las cuales una o más pueden
completar correctamente el reactivo pero una opción es la correcta.

Los distractores son las opciones que distraen a quienes no saben o que son
incorrectas de acuerdo con lo que plantea la base. Thyne (1978), describe al
distractor como la manera de “impedir que reciban la respuesta como un regalo
para excluir la posibilidad de contestar correctamente a pesar de su ignorancia”.

En los reactivos de selección, los distractores deben ser totalmente atractivos,


para lograr un nivel alto de discriminación. De ahí la importancia de que sean
lógicos y tengan sentido, no sólo en sí mismos, sino en relación con la
particularidad del contenido expresado en la base del reactivo.

Para el diseño de los ítems de ENLACE se exigen normas por parte de la


DGEP para los diseñadores. El incumplimiento de las normas para la
construcción de reactivos genera tres tipos de errores.
 Errores menores. Son aquéllos que no afectan la efectividad del reactivo.
 Errores mayores. Son aquéllos que, sin invalidar el reactivo, tienen grandes
probabilidades de reducir su efectividad.
 Errores críticos. Son aquéllos que impiden la efectividad del reactivo,
invalidándolo. En cada elemento normativo se indica el tipo de error
asociado.

Normas para el planteamiento de los REACTIVOS:


Infringir las siguientes normas hace incurrir en un error crítico:
13

 Los reactivos que se construyen deben corresponder al objetivo y


nivel taxonómico asignados en la tabla de especificaciones. La
taxonomía que se debe utilizar es la propuesta por Benjamín Bloom.
 Los reactivos deben apegarse al sentido original de la información
(libros de texto y demás fuentes documentales pertinentes), así como
a los principios teóricos y/o normativos que fundamentan la disciplina
objeto de medición.
 Los reactivos deben ser congruentes con el enfoque pedagógico-
didáctico propio de la asignatura objeto de medición, tal como lo
expresan los documentos oficiales que lo norman.
 La información contenida en los reactivos debe ser homogénea en
cuanto a su campo semántico y grado de generalidad.
 Debe existir congruencia gramatical (de tiempo, modo, número y
género) entre lo expresado por la base y lo expresado por cada una
de las opciones, excepto cuando se pregunte precisamente por
congruencia gramatical.
 Los reactivos deben ser independientes entre sí, para evitar que unos
ayuden a contestar otros.
 La respuesta de un reactivo no debe ser condición para resolver
cualquier otro reactivo.
 En el caso de los reactivos donde interviene el cálculo, el constructor
debe presentar todos los datos para resolver el reactivo. Infringir esta
norma representa un error crítico.
 Cuando los reactivos incluyan dibujos, esquemas u otros gráficos,
éstos deben ser claros y congruentes con el planteamiento total del
reactivo, así como necesarios para responderlo.
 Cuando los reactivos incluyan dibujos, figuras o gráficas, éstos deben
cumplir con las convenciones establecidas para cada caso, teniendo
cuidado de no dar por válidos algunos supuestos.
14

Infringir las siguientes normas hace incurrir en un error mayor:


 Los reactivos deben redactarse en términos sencillos, claros y
precisos, tomando como base el lenguaje utilizado en las fuentes de
consulta pertinentes.
 Los reactivos no deben formularse con la misma redacción que utiliza
su apoyo bibliográfico, excepto cuando se trate de leyes, definiciones
y textos para lectura de comprensión, los cuales deben
entrecomillarse. Cuando en una prueba se incluya textualmente un
escrito, se debe anexar la referencia correspondiente a la fuente para
verificar que se ha respetado fielmente el original.
 En el caso de los reactivos donde interviene el cálculo, el constructor
no debe inducir al sustentante a errores de razonamiento por incluir
datos innecesarios o información artificiosa.

Infringir la siguiente norma hace incurrir en un error menor:


 La redacción de los reactivos no debe incluir nombres de personajes
ficticios empleados en los medios masivos de comunicación; ni
marcas de productos y/o circunstancias que fomenten el consumismo
y los vicios; ni emplear de manera irónica, nombres de funcionarios e
instituciones públicas.

Normas para el planteamiento de la BASE.


Infringir las siguientes normas hace incurrir en un error crítico:
 La base debe presentar un problema bien definido, de tal manera que
tenga un sentido comunicativo propio.
 La base incluirá lo estrictamente necesario (palabras y/o elementos
gráficos) para comprender el correcto sentido de la pregunta.
15

Infringir las siguientes normas hace incurrir en un error mayor


 La base debe presentar un problema plausible evitando las
situaciones inverosímiles y absurdas. Infringir esta norma representa
un error mayor.

Normas para el planteamiento de las OPCIONES:


Infringir las siguientes normas hace incurrir en un error crítico:
 El reactivo debe incluir una respuesta correcta. Infringir esta norma
representa un error crítico.
 La respuesta correcta debe resolver completamente el problema
planteado en la base.
 Sólo una de las opciones debe ser respuesta correcta.
 Los distractores no deben ser parcialmente correctos, excepto cuando
la base interrogue por una condición o tenga algún otro determinante
específico.
 Se debe evitar la repetición y/o sinonimia de términos o vocablos
entre la base y la respuesta correcta o algún distractor. En caso de
que la repetición de estos términos sea necesaria, deben incluirse
también en al menos dos opciones.
 No se deben usar opciones que, aunque se expresen de manera
diferente, signifiquen lo mismo.
 No se deben utilizar, a manera de opciones, frases como “todas
éstas”, “ninguna de éstas”, “todas las anteriores”, “ninguna de las
anteriores”, “no lo dice el texto” o expresiones similares.
 Los distractores deben ofrecer una solución plausible al problema
planteado, de manera que no se les rechace por inverosímiles o
absurdos.

Infringir las siguientes normas hace incurrir en un error mayor


16

 Las opciones deben guardar entre sí un equilibrio en su aspecto


gramatical en cuanto a sintaxis, género, persona, tiempo y modo,
excepto cuando se pregunte precisamente por estos aspectos en los
casos de español y lenguas extranjeras.
 Cuando se utilice una declaración negativa en alguna opción es
necesario incluir por lo menos otra opción con declaración negativa.

Infringir la siguiente norma hace incurrir en un error menor:


 Cuando la base pregunte por una condición para la respuesta
correcta, deberá destacarse en negritas la expresión que la señala,
igualmente en el caso de algún otro determinante específico incluido.
 Las opciones deben guardar entre sí un equilibrio en cuando a su
longitud. Infringir esta norma representa un error menor.
 Las opciones se deben ordenar por su extensión, ya sea de mayor a
menor o de menor a mayor longitud.
 Cuando en las opciones se utilicen cifras numéricas, éstas deben
ordenarse en forma ascendente o descendente, de acuerdo con su
valor.
 Las cifras deben alinearse con respecto a su valor posicional.

Ventajas:
 Estas preguntas permiten evaluar una gran cantidad de contenidos.
 Puede administrarse un gran número de reactivos en poco tiempo.
 Pueden evaluarse objetivos de alto y bajo nivel.
 La calificación puede ser rápida y objetiva.
 Da confianza al alumno porque tiene la certeza de que la respuesta está
entre las opciones.
 Menor influencia del hecho de adivinar.
17

Desventajas:
 Se limita a productos de aprendizaje en los que el alumno no tiene la libertad
de plantear otras respuestas diferentes a las que se le presentan.
 No es apropiado para evaluar la capacidad de integrar ideas.
 Se requiere de mayor tiempo para redactar los reactivos.
 No son útiles cuando es necesario demostrar el trabajo.
 Es frecuente encontrar con dificultad las opciones adecuadas.
 La habilidad de lectura puede influir en el desempeño.

Jerarquización
Consiste en presentar varias proposiciones, las cuales deberán ordenarse de
manera cronológica o de una manera lógica.

Ventajas:
 Con esta pregunta se pueden evidenciar la capacidad de observación, de
reflexión y de asimilación de los conocimientos.
 Puede evidenciar el análisis y discriminación que el alumno haga.
Desventajas:
 Se requiere tiempo y capacidad de síntesis para la elaboración de estas
preguntas.

Pareo
Consiste en la presentación de dos columnas de datos para establecer la
correspondencia entre los elementos de cada una de las series. En la columna
de la izquierda se anotan las premisas y en la de la derecha, las respuestas u
opciones. El alumno debe hacer corresponder los elementos de las columnas,
según las instrucciones.
18

El ítem de pareo consta de tres partes, las instrucciones, una columna de


premisas y otra de respuestas.

Las Instrucciones deben ser específicas, exactas y concisas, esta parte del
pareo es básica para que el estudiante pueda establecer el tipo de relaciones
que se exige en el ítem. En ellas se define el contenido de ambas columnas, la
forma en que deben relacionarse los elementos incluidos en ellas y se indica el
número de opciones que sobran.

La columna de premisas incluye los enunciados acerca del tema


(características, elementos, funciones, otras), y en la columna de respuestas
presenta las posibles opciones para cada una de las premisas.

Este tipo de ítem es útil cuando interesa examinar conocimientos de términos,


definiciones, fechas, eventos, otros. Constituye un medio para que el alumno
manifieste su habilidad para relacionar conceptos.

Las asociaciones o emparejamientos que se establecen deben referirse a un


mismo tema o contenido, por lo tanto, se debe procurar hacerse corresponder la
causa con el efecto o los términos con las definiciones.

Asociación
Son bloques de preguntas sobre un mismo contenido. Cada bloque se
construye con dos series, una correspondiente a las bases y otra a las
alternativas (sujetos y predicados). Este tipo de examen coloca en juego la
reflexión del alumno para escoger el sujeto correspondiente a cada predicado.
19

Ventajas:
 Con esta pregunta se pueden evidenciar la capacidad de observación, de
reflexión y de asimilación de los conocimientos.
 Puede evidenciar el análisis y discriminación que el alumno haga.
 Estas preguntas permiten evaluar una gran cantidad de contenidos.
Desventajas:
 Se limita a productos de aprendizaje en los que el alumno no tiene la
libertad de plantear otras respuestas diferentes a las que se le presentan.
 No es apropiado para evaluar la capacidad de integrar ideas.

Identificación
Está formado por dos bloques, cada uno con dos columnas; en una se anota un
esquema, dibujo, diagrama, mapa etc. Y en la otra los enunciados.

Ventajas:
 Con esta pregunta se pueden evidenciar la capacidad de observación, de
reflexión y de asimilación de los conocimientos.
Desventajas:
 Se limita a productos de aprendizaje en los que el alumno no tiene la libertad
de plantear otras respuestas diferentes a las que se le presentan.
 No es apropiado para evaluar la capacidad de integrar ideas.

Interrogativas
Consiste en presentar una pregunta directa y concreta para que el alumno con
una sola palabra ofrezca la respuesta correcta.
20

Ventajas:
 Permite dirigir los procesos de pensamiento del estudiante, sobre todo
cuando se desea comprobar la comprensión de un texto.
Desventajas:
 Apuesta por el juego de la memorización y la retención por parte del alumno.

Falso y Verdadero
Se presenta con base en una serie de cuestiones afirmativas en donde algunas
son falsas y otras verdaderas, en proporción de 50% cada una.

Ventajas:
 Con esta pregunta se pueden evidenciar la capacidad de observación, de
reflexión y de asimilación de los conocimientos.
Desventajas:
 No es aconsejable porque influye en un 50% el azar.
 No es apropiado para evaluar la capacidad de integrar ideas.

1.3 Los fines de las pruebas pedagógicas

Buscan evaluar el grado de nociones, conocimientos y habilidades adquiridas a


través de estudios, prácticas o ejercicios.

Este tipo de pruebas pueden ser orales, escritas o de ejecución. El alumno


debe manejar nociones de cultura general o conocimientos específicos
relacionados directamente con el área de conocimiento estudiado. Pueden ser
de carácter objetivo o tradicional.
21

Las tradicionales están estructuradas por pocas preguntas y exigen respuestas


amplias; permiten mucha subjetividad.

Las principales ventajas de esta prueba consisten en que cubre un área menor
de conocimientos con gran profundidad, evalúa ampliamente la capacidad del
alumno para organizar ideas, revela aspectos difíciles de medir y que son
considerados como requisitos importantes, permite una evaluación subjetiva por
parte del evaluador y se organizan con facilidad.

Entre las desventajas de las pruebas de conocimientos figuran que son de difícil
corrección, deben ser calificadas o revisadas por personas especializadas en el
tema y examinan un campo muy reducido de conocimiento.

Las pruebas objetivas se caracterizan por contener un número elevado de


preguntas, involucrar áreas más amplias de conocimientos, exigir respuestas
cortas, bien definidas en su forma y contenido.

Como aspectos favorables cabe mencionar que cubren áreas más amplias de
conocimiento, su evaluación es sencilla y rápida, otorga una calificación objetiva
y se pueden establecer comparaciones de manera más fácil.

Durante el desarrollo de un curso las pruebas son útiles al profesor, ayudan a


determinar si cada uno de los estudiantes ha alcanzado buenos resultados, si
ya está preparado para seguir adelante y si la enseñanza fue eficaz, el éxito en
la solución de una prueba estimula a continuar, el fracaso le indica que necesita
mejorar.

Es un instrumento que permite medir los conocimientos, aptitudes y habilidades


de los alumnos.
22

Las pruebas pedagógicas son instrumentos auxiliares del maestro, mediante su


aplicación se comprueba el aprendizaje de los alumnos, además de ser un
documento legal que justifica las calificaciones. Sus objetivos son:

 Detectar la situación de partida general para dar comienzo a un proceso de


enseñanza – aprendizaje.
 Medir el nivel del progreso individual en una escala relativa con respecto a
los demás alumnos y en relación con el logro de los propósitos.
 Servir de diagnóstico: localizar dónde hay necesidad de instrucción adicional
o dónde los métodos de enseñanza, actividades etc. Deben ser modificados.
 Promover una enseñanza inmediata: cuando el alumno recibe la prueba
“corregida” aprende a corregir conceptos mal aprendidos.
 Evaluar la eficiencia del profesor.
 En la elaboración de pruebas pedagógicas objetivas, hay algunos pasos que
deben seguirse:
1. Buscar la colaboración de personas especialistas en la materia o de
expertos en técnicas de selección.
2. Definir el objetivo de la prueba y su nivel de dificultad.
3. Analizar las áreas que deben examinarse.
4. Proceder a la discriminación minuciosa de los temas que deben
examinarse distribuidos por el número de ítems de la prueba, en función
del tiempo disponible y de la importancia de la misma.
5. Proceder a la elaboración de los ítems en forma de test.
6. Clasificar los ítems en cuanto al nivel de dificultad.
7. Construir cierto número de ítems. Se debe elaborar el doble de lo
necesario para, si es posible, tener la ventaja de construir dos pruebas
paralelas.
8. Dar dimensiones precisas a las pruebas.
23

9. Elaborar las normas de aplicación. Todo examen debe estar


acompañado de instrucciones claras y precisas para el candidato y de
una guía de aplicación para el examinador.
10. La presentación gráfica del examen es muy importante. La impresión
debe ser nítida y correcta, y la disposición de los ítems en el papel debe
ser armónica y organizada.

Para construir una prueba pueden escogerse varios ítems:


 Alternativas sencillas: presenta sólo dos alternativas de respuesta y, por
consiguiente, el 50% de probabilidad de acertar al azar. Es de empleo
desaconsejable debido a que estimula la adivinación y a que además es
difícil de organizar una frase como absolutamente verdadera o falsa.
 De complementación: indicada para verificar conocimientos que deben ser
memorizados con exactitud.
 Evocación (preguntas): no son preguntas rígidas, permiten gran variación y
se adaptan a casi todos los tipos de conocimientos. Impiden cualquier
posibilidad de adivinación.
 Apareamiento (asociaciones): sirve para medir la capacidad que el
candidato tiene para reconocer y asociar nombres y conocimientos
relacionados con otros. Los temas para el apareamiento deben ser cortos y
estar resumidos en pocas palabras o símbolos.
 Ordenación: se utiliza en pruebas de historia, consiste en pedirle al
candidato que ordene cronológicamente una serie de datos. Tiene la ventaja
de evitar la memorización tediosa de fechas cronológicas. No puede ser
recomendado sin reservas, ya que la cantidad de conocimiento que puede
evaluarse es muy pequeña.
 Elección múltiple: son 3, 4 o 5 alternativas, de las cuales una es correcta y
las demás son verosímiles o falsas, pero siempre posible. Se sugiere para
evitar que los candidatos se copien unos a otros, sin enumerar las páginas
y colocando las preguntas en distinto orden. Uno de los inconvenientes es
24

que no permite graduar la dificultad de los ítems. No deben utilizarse para


responder de memoria datos intrascendentes o minucias.

1.4 Los parámetros de las pruebas pedagógicas

En la actualidad, los instrumentos de evaluación tienen un importante desarrollo


en la actividad académica y una gran influencia en la vida y estudios de las
personas. Según Betancourt (2006), la evaluación entendida como el proceso
sistemático mediante el cual se recolecta información acerca del nivel de
aprendizaje alcanzado por un individuo, debe ser objetiva y evitar que las
impresiones subjetivas del evaluador interfieran en la interpretación de la
información obtenida; sin que ello transforme al proceso haciéndolo rígido ni lo
establezca como el único método posible de evaluación.

Durante el diseño y construcción de pruebas por objetivos se identifican dos


etapas (Vidal, 2000):
 Etapa de diseño del instrumento.
 Etapa de selección de reactivos.

La etapa de diseño del instrumento versa sobre la definición de la estructura de


la prueba, esto es, la etapa durante la cual se elaboran tablas de contenidos, se
especifica el tiempo de respuesta, se determina la ubicación jerárquica de la
exigencia cognitiva en los reactivos que conformen la prueba (nivel taxonómico
de Bloom).

La etapa de Selección de Reactivos, considera las características e indicadores


de calidad en un conjunto de reactivos para seleccionar aquellos que
conformarán la prueba.
25

Al terminar estas dos etapas, la prueba o instrumento de evaluación queda listo


para ser aplicado sobre la población designada para tal efecto. Cuando se trata
de una prueba de aplicación recurrente y se dispone de un banco de reactivos,
es común realizar una última etapa denominada

Etapa de Calibración de Reactivos, durante la cual se analiza el


comportamiento estadístico de cada reactivo sobre la población en la que fue
aplicado, se calcula la confiabilidad de la prueba en su conjunto y por supuesto,
se toman las decisiones académicas y administrativas pertinentes a los
resultados obtenidos por la población evaluada.

Hay que tener en cuenta que en la teoría clásica de la medida, el objeto de


análisis es el test, y los valores paramétricos de los ítems son índices que
ayudan a analizar el test, a descubrir donde están sus puntos débiles, y a
desarrollar sus potencialidades. Por eso, tanto los valores de confiabilidad del
test como los valores definitivos de los parámetros de los ítems se calculan
sobre el conjunto de ítems determinado que forma un test y con una población
de sujetos en particular.

Los indicadores que se consideran en la calidad en un reactivo de opción


múltiple, son el Grado de Dificultad del reactivo y su capacidad para discriminar
efectivamente a los individuos con alto nivel de aprovechamiento de aquellos
con bajo nivel (Índice de Discriminación), así como la correlación punto-biserial
(rpbis) o correlación biserial puntual, es la correlación entre el ítem y la
puntuación total del test, parámetro que puede obtenerse en forma directa o
modificada, esta segunda forma incluye una reducción para evitar la
participación del ítem dentro de la correlación.
Para calcular los anteriores parámetros es necesario realizar primero una
partición de la población examinada en los siguientes términos:
26

1. Se cuantifica el número de aciertos contestados en cada prueba


(evaluación).
2. El conjunto de evaluaciones se ordena de forma descendente (desde
la puntuación más alta hasta la más baja).
3. Se divide el conjunto ordenado de evaluaciones en dos grupos: los de
mayor número de aciertos (grupo superior global) y los de menor
número de aciertos (grupo inferior global). La división se puede
realizar empleando uno de los tres métodos siguientes:

 Método de la Mediana: calculando la mediana del número de aciertos, lo


cual dividirá a la población examinada aproximadamente por la mitad, el
valor de la mediana (junto con todas sus repeticiones) debe ser incluido en
el grupo con menor número de aciertos, es decir, en el grupo inferior (Lewis,
2003).

 Método de los extremos: formando tres grupos según el número de aciertos


obtenidos en la prueba: un grupo superior formado por el 27% que
obtuvieron el mayor número de aciertos, un grupo inferior compuesto por el
27% que tuvo la menor cantidad de aciertos, y el restante 46% llamado
grupo intermedio global (Betancourt, 2006)

 Método de Percentiles: dividiendo el conjunto de evaluaciones en 100


intervalos de tamaño regular y calculando la media aritmética sobre dichos
percentiles (Tristán,1995)

En la figura siguiente se aclara cada uno de los métodos anteriores.


27

a) Método de la mediana b) Método de los extremos

c) Método de percentiles

Este indicador nos permite conocer la dificultad relativa del reactivo de acuerdo
con el grupo y el nivel académico en que se aplica la prueba, es decir, una
pregunta con baja frecuencia de acierto tiene una mayor dificultad que otra con
la frecuencia más alta.

El grado de dificultad de un reactivo se define como el porcentaje de


estudiantes, tanto del grupo superior global como del inferior global, que
contestaron correctamente el reactivo.

Un valor alto del grado de dificultad indica un reactivo muy fácil, pues fue
contestado correctamente por gran cantidad de estudiantes de ambos grupos.
Por el contrario, un valor bajo indica un reactivo muy difícil, ya que no fue
contestado correctamente por casi ningún estudiante en cualquiera de los dos
grupos.

La probabilidad de responder un reactivo de forma correcta, por razones de


azar y no por el conocimiento del estudiante, depende del número de opciones
28

de respuesta al reactivo. Por ejemplo, un reactivo con cuatro opciones tiene una
probabilidad de azar de 25%, mientras que otro con cinco opciones tiene el 20%
de probabilidad de azar. El mínimo grado de dificultad de un reactivo debe ser,
por lo menos, igual a su probabilidad de azar.
29

Índice de discriminación
Es una medida de la eficacia del reactivo para discriminar entre quienes
obtienen altas y bajas calificaciones en una prueba. Mientras más elevado sea
el valor del índice de discriminación de un reactivo, éste resulta más eficaz para
establecer dicha distinción.

El índice de discriminación se define como el promedio, considerado como


porcentaje, de la diferencia entre el número de estudiantes del grupo superior
global y del inferior global que contestaron correctamente el reactivo.

Esta expresión sugiere que un reactivo con un alto índice de discriminación es


respondido correctamente por un gran número de estudiantes del grupo
superior global y un pequeño número de estudiantes del grupo inferior global.

El criterio anterior de aceptación de un reactivo no indica, sin embargo, la


magnitud de la diferencia entre los estudiantes que contestaron correctamente
el reactivo del grupo superior y del grupo inferior; por ello algunos autores
consideran necesario establecer un criterio de aceptación más estricto.

De acuerdo con (Tristán, 1995), el máximo valor del índice de discriminación de


un reactivo tiene una estrecha relación con el grado de dificultad del mismo, ya
que un reactivo con valor extremo de grado de dificultad (muy alto o muy bajo)
en realidad no discrimina, puesto que es resuelto por la gran mayoría de
estudiantes o por casi ninguno respectivamente.

Considerando lo anterior, (Tristán, 1995) propone emplear otro indicador


llamado Norma Discriminativa, que es un criterio que permite determinar el valor
óptimo que debe presentar un reactivo en su índice de discriminación, de
acuerdo al grado de dificultad del mismo.
30

El valor numérico de los cuatro parámetros hasta aquí revisados (grado de


dificultad (GD), índice de discriminación (ID), norma discriminativa (ND) y
relación discriminativa (RD) pueden variar en dependencia del método utilizado
para dividir a la población en grupo superior e inferior globales.

Correlación punto-biserial (rpbis)


A partir de la Teoría Clásica de los Tests (TCT), donde se incluye el índice de
dificultad (I.D.); la discriminación definida como diferencia porcentual de
respuestas correctas en los grupos extremos al 27% de la distribución y la
correlación punto-biserial (rpbis) son utilizados como estimador del índice de
discriminación por lo que los parámetros calculados para los ítems dependen de
las características de la muestra, pudiendo haber variaciones de diversa
importancia cuanto más se aparte el grupo a analizar del grupo normativo.

Los ítems deben tener un comportamiento favorable hacia los valores más
altos, por ellos se eligen los que tengan una discriminación por encima de la
dificultad del reactivo (criterio para los ítems inferiores a una dificultad de 0.5).

Los eliminados son los que tienen bajas discriminaciones y dificultad con
valores extremos.
31

CAPÍTULO II
LA PRUEBA ENLACE

2.1 Un acercamiento al concepto de prueba ENLACE

En México, los sistemas de evaluación están en proceso de institucionalización,


asociados a promover la calidad educativa. ”La creación de organismos como el
Instituto Nacional de Evaluación Educativa representa un avance importante,
así como la elaboración de proyectos que auxilien a la acreditación de los
mismos”. (Lujambio, 2010).

La idea de que las políticas públicas en educación se elaboran, en esencia,


mediante un diálogo entre los distintos actores políticos, así como de las
demandas y presiones de la sociedad, y la propia realidad educativa genera
“Una escasa presencia de algunos de esos tres actores básicos genera
distorsiones con graves consecuencias”. (Javier, 2007).

Esta desigualdad también se ve reflejada en las distintas evaluaciones


practicadas tanto por organismos internacionales como nacionales,
específicamente de la prueba PISA que realiza la Organización para la
Cooperación y el Desarrollo Económico y la prueba ENLACE que realiza la
Secretaría de Educación Pública, las cuáles nos permiten contar con un
indicativo respecto a la situación de la educación frente a otros países, e
internamente llevar a cabo diversos análisis como el que aquí se presentará.

La importancia de integrar un concepto fiable al mecanismo de evaluación


denominado ENLACE, corresponde a la educación, ya que este instrumento
permite generar oportunidades para las personas. Una persona con mayor nivel
educativo tendrá mayores oportunidades de obtener empleo y mejores salarios,
posibilidades de esparcimiento, entre otros. Es así que “la educación es un
32

elemento que ayuda a romper las cadenas que hacen que las personas no
desarrollen sus potencialidades” (Hernández, marzo de 2008).

La OCDE, con el concepto de la prueba ENLACE, aplicada por el Instituto


Nacional para la Evaluación de la Educación (INEE) y la Secretaría de
Educación Pública (SEP), muestran que la condición socioeconómica de los
estudiantes es el factor que más se relaciona con el nivel de logro educativo. Es
por esto que, las escuelas urbanas presentan niveles de logro sistemáticamente
más elevados que las telesecundarias o las escuelas de educación indígena y
las escuelas privadas alcancen calificaciones mejores a las logradas por las
escuelas públicas.

Dado que el Sistema Educativo es extenso y complejo, su evaluación debe


reconocer las diferencias inherentes a los diferentes tipos, niveles y
modalidades de los servicios educativos, la concepción y la práctica de la
evaluación educativa pueden referirse a actividades de muy diversa naturaleza,
y puede aludirse a la calidad de la educación desde muy distintos puntos de
vista porque dejárselo solamente a una evaluación de la naturaleza de la
prueba ENLACE.

Una vez establecido un parámetro introductorio del por qué nace el concepto de
la prueba ENLACE, a continuación se establecen los siguientes lineamientos
conceptuales:

El propósito de ENLACE es generar una sola escala de carácter nacional que


proporcione información comparable de los conocimientos y habilidades que
tienen los estudiantes en los temas evaluados, que permita:

 Estimular la participación de los padres de familia así como de los jóvenes,


en la tarea educativa.
33

 Proporcionar elementos para facilitar la planeación de la enseñanza en el


aula.
 Atender requerimientos específicos de capacitación a docentes y directivos.
 Sustentar procesos efectivos y pertinentes de planeación educativa y
políticas públicas.
 Atender criterios de transparencia y rendición de cuentas.

“ENLACE es un instrumento perfectible pero valioso que nos permite conocer


qué tan eficaces estamos siendo en nuestras tareas, qué tanto nuestros niños y
jóvenes dominan los conocimientos y habilidades contenidos en los planes y
programas de estudio que tenemos, qué tanto contribuyen los materiales
didácticos con que contamos, a este logro educativo”. (Lujambio, 2010).

ENLACE, su conceptualización en el universo educativo.


La Evaluación Nacional de Logro Académico en Centros Escolares (ENLACE)
es una prueba del sistema educativo nacional que se aplica a planteles públicos
y privados del país, contribuye a mejorar la calidad de la educación, aportando
insumos sólidos para la implementación de políticas públicas efectivas, para la
planeación de la enseñanza en el aula, para la revisión de los requerimientos
específicos de capacitación de docentes y directivos escolares y para el
involucramiento de los padres de familia en las tareas educativas.

Una vez determinado el concepto de la prueba de ENLACE es evidente que


debemos establecer los siguientes propósitos:
 Lograr orientar hacia los niveles de conocimientos, más que en los puntajes.
 Identificar qué escuelas y alumnos debemos apoyar más, y cómo podemos
hacerlo.
 Evaluar los esfuerzos de una escuela, para lo que es necesario
contextualizar sus resultados.
 Levar a cabo un diagnóstico académico, pero de ninguna considerar a
ENLACE como el único instrumento que se debe de aplicar.
34

2.2 El origen de la prueba ENLACE

Los acontecimientos históricos que han marcado la economía mundial, esbozan


los primeros resabios de la tendencia a crear condiciones estandarizadas en la
mayoría de los países, éstas condiciones incluyen, por supuesto, la economía
de cada nación; de ahí que la educación se vea inmersa dentro de una
globalización estandarizante, por ser un factor desencadenante en el desarrollo
económico de los pueblos.

Con el fin de la segunda guerra mundial inicia el plan Marshall (1947), este
canalizó ayuda económica de los EEUU a Europa, siendo esta, la primera
acción a favor de un desarrollo económico, que ofreciera una estabilidad política
y sobre todo de reconstrucción de un país; la Conferencia de Cooperación
Económica Europea encargada, de garantizar la puesta en marcha de un
programa de recuperación conjunta (Plan Marshall) y en particular, de
supervisar la distribución de la ayuda, propicia el surgimiento de la OECE
(Organización Europea de Cooperación Económica) el 16 de abril de 1948.

El 14 de diciembre de 1960 se conforma la OCDE (Organización de


Cooperación y Desarrollo Económico). La OCDE es un foro donde se
establecen indicaciones de gran importancia e influencia a nivel internacional en
temas como economía, educación y medio ambiente.

Los principales requisitos para ser miembro son: liberar progresivamente los
movimientos de capitales y de servicios. Los países miembros se comprometen
a aplicar los principios de:

 Liberalización de capitales y servicios.


Objetivo: Contribuir a una sana expansión económica en los países
miembros, así como no miembros, en vías de desarrollo económico.
35

 No discriminatoria.
Objetivo: Favorecer la expansión del comercio mundial sobre una base
multilateral y no discriminatoria conforme a las obligaciones internacionales.
 Trato nacional y trato equivalente.

Objetivo: Realizar la mayor expansión posible de la economía y el empleo y un


progreso en el nivel de vida dentro de los países miembros, manteniendo la
estabilidad financiera y contribuyendo así al desarrollo de la economía mundial.

México fue el país número 25 en adherirse a dicha organización, el 18 de mayo


de1994. Dentro de esta “familia” México forma parte de los parientes pobres por
lo que, las recomendaciones en materia educativa son primordiales aunque en
ocasiones no las más acertadas para el estado mexicano, por ejemplo, en la
presentación pública del panorama educativo 2007, las palabras de Blanca
Heredia, directora de la OCDE en México se interpretaron como las
recomendaciones para privatizar la educación en México y no incrementar el
gasto hasta que se invirtiera de manera eficiente. Por su parte la secretaria de
educación, Josefina Vázquez mota respondió que “…el estado no renunciaría a
la obligación de la educación pública y gratuita…” (Avilés, K. 2007).

La tendencia privatizadora es un tema complicado en México, por una parte la


autoridad educativa niega esa tendencia, sin embargo algunas iniciativas de ley
buscan incentivar con deducción de impuestos a empresas cuyo servicio es la
educación, bonos educativos o financiamiento educativo, etc. Este fenómeno se
puede deber a los resultados obtenidos por la prueba OCDE-PISA donde, los
planteles privados obtienen resultados por encima de las instituciones públicas
y a pesar de esto, México se ubica en el lugar 29 de 30 de los países que
integran esta organización.
36

Si con una evaluación internacional donde resultamos insuficientes en los


aspectos que evalúa o mide: “…las habilidades para la vida en matemáticas,
lectura y ciencias, independientemente de si fueron adquiridas o no en el
trayecto escolar…” (ILCE, SEP. 2006), en jóvenes de 15 años. Aunado a la
política del gobierno mexicano neoliberalista que tiene años de probar que no
beneficia a la población en general, pocas y pequeñas élites se enriquecen,
ampliando la brecha de desigualdad entre el pobre y el rico en el país, prioriza
la seguridad represiva y las privatizaciones, el tema de los derechos humanos,
los derechos sociales y de la vida digna de los mexicanos la deja de lado. Se
considera que la crisis económica y educativa del país se debe a las políticas
privatizadoras del estado.

La presión internacional de la OCDE, marca las perspectivas de dicho


organismo para México en educación básica (primaria y secundaria) y
contemplan que: “Para mejorar la educación, México puede aprender de las
mejores prácticas en otros países con alto rendimiento estudiantil. En estos
países se establecen planes de estudio, normas y mecanismos de evaluación a
nivel nacional o estatal, pero se delega una autonomía sustancial y discreción
para determinar la mejor manera de ayudar a sus estudiantes. Los criterios de
evaluación se centran en los logros, en la equidad y en la calidad. Asimismo, se
convierte considerablemente en el reclutamiento, capacitación, desarrollo y
apoyo a los maestros y directores, conscientes que la calidad de los
educadores es el elemento que más influye en el aprendizaje de los
estudiantes. Las lecciones que se desprenden de países con alto rendimiento
muestran que para mejorar las escuelas mexicanas se requiere fortalecer la
gestión y la supervisión…” amplio margen de mejora en cinco aspectos
concretos:

 En primer lugar, México necesita integrar un mecanismo coherente de


consulta entre empresariado y centros educativos en su sistema de
educación vocacional.
37

 Segundo, deberían introducirse normas de calidad para los contratos


en prácticas con la finalidad de ampliar la capacitación en el lugar de
trabajo y mejorar su calidad.
 Tercero, los profesionales de la educación vocacional deberían recibir
capacitación pedagógica antes o después de ingresar en el gremio.
 Cuarto, con el objeto de aumentar la claridad en la prestación de
servicios de educación vocacional y capacitación, México podría
explorar opciones para desarrollar un marco de referencia de
certificación vocacional a nivel nacional.
 Por último, es necesario desarrollar la capacidad de análisis y el uso
de información sobre las necesidades y los vínculos con el mercado
laboral con la finalidad de orientar el diseño de políticas futuras y
mejorar la toma informada de decisiones…” (Steven, A. OCDE, 2010).

Pretendiendo atender en parte las recomendaciones de la OCDE y de la


UNESCO (Organización de las Naciones Unidas para la Educación, la Ciencia y
la Cultura, por sus siglas en inglés, organismo al que México ingresó el 4 de
noviembre de 1946), y con su organismo con aplicación en América Latina y del
Caribe: Organización Estados Iberoamericanos (OEI) que también presentan
propuestas para los estados latinoamericanos y otras organizaciones con los
Estados Iberoamericanos y del Caribe marcan sus “metas educativas 2021”
donde lo que más nos llama la atención en relación a la educación y su
enfoque, lo mismo que nos determina lo que se tendrá que evaluar; en el
capítulo 6, como lo marca las metas educativas 2021; la meta general quinta
“[…] Ofrecer un currículo significativo que asegure la adquisición de
competencias básicas para el desarrollo personal y el ejercicio de una
ciudadanía democrática… Meta general séptima: Favorecer la conexión entre
educación y empleo a través de la educación técnico-profesional de acuerdo
con las demandas laborales […]” (OEI, sin autor, 2010).
38

Dentro de la política neoliberal mexicana, las recomendaciones internacionales,


el subdesarrollo del país y, aún mas, los dirigentes del sindicato más grande de
América Latina el SNTE en conjunto con el gobierno, proponen la “Alianza por
la Calidad de la Educación“.

“Quienes suscribimos esta Alianza, el Gobierno Federal y el Sindicato Nacional


de Trabajadores de la Educación, consideramos impostergable impulsar una
transformación por la calidad de la educación del Sistema Educativo Nacional.

El objetivo central de la Alianza es propiciar e inducir una amplia movilización en


torno a la educación, a efecto de que la sociedad vigile y haga suyos los
compromisos que reclama la profunda transformación del sistema educativo
nacional.

Es imperativo hacer de la educación pública un factor de justicia y equidad,


fundamento de una vida de oportunidades, desarrollo integral y dignidad para
todos los mexicanos…Teniendo claro el mandato del Artículo tercero
constitucional y ubicando con precisión los retos que habremos de enfrentar en
todos los espacios del Sistema Educativo Mexicano, quienes suscribimos esta
Alianza desarrollaremos las acciones que se describen a continuación y que se
dividen en 5 ejes y 10 procesos”(SNTE, SEP. 2008):

Eje 1. Modernización de los centros escolares.


Eje 2. Profesionalización de los maestros y autoridades
educativas.
Eje 3. Bienestar y desarrollo integral de los alumnos.
Eje 4. Formación integral de los alumnos para la vida y el trabajo.
Eje 5. Evaluar para mejorar.

Con este impulso se genera la reforma educativa del 2006, naciendo


simultáneamente la prueba ENLACE (Evaluación Nacional de Logro Académico
39

en Centros Escolares), instrumento de evaluación de la Secretaría de


Educación Pública que, tal vez sea el intento de la Alianza por la Calidad de la
Educación (SEP-SNTE) de cumplir con el eje cinco de su propuesta que,
conforme a planes y programas de la reforma educativa, enmarcada en el
enfoque por competencias entre otros, pretende generar una sola escala de
carácter nacional que proporcione información comparable de los
conocimientos y habilidades que tienen los estudiantes en los temas evaluados,
que permita:
 “Estimular la participación de los padres de familia así como de los jóvenes,
en la tarea educativa.
 Proporcionar elementos para facilitar la planeación de la enseñanza en el
aula.
 Atender requerimientos específicos de capacitación a docentes y directivos.
Sustentar procesos efectivos y pertinentes de planeación educativa y
políticas públicas.
 Atender criterios de transparencia y rendición de cuentas…”(SNTE, SEP.
2008)

ENLACE se ha aplicado en los grados de cada nivel como lo muestra el


siguiente cuadro:

GRADOS DE GRADOS DE
APLICACIÓN / NIVEL APLICACIÓN / NIVEL
AÑO PRIMARIA SECUNDARIA
2006 3°, 4°, 5°, 6° 3°
2009 3°, 4°, 5°, 6° 1°, 2°, 3°
Fuente: http://enlace.sep.gob.mx/ba/pf01.html

De igual manera, las materias base de aplicación son Español y Matemáticas


además, de una materia adicional a partir del 2008, como lo muestra la
siguiente tabla:
40

AÑO ASIGNATURAS EVALUADAS


2010  Español.
 Matemáticas.
 Historia.
2009  Español.
 Matemáticas.
 Formación Cívica y
Ética.
2008  Español.
 Matemáticas.
 Ciencias.
2007  Español.
 Matemáticas
2006  Español.
 Matemáticas
Fuente: http://enlace.sep.gob.mx/ba/pf01.html

Según se plantea en el sitio las características de la prueba son marcadas de la


siguiente forma:

“Es una prueba objetiva, de aplicación masiva y controlada emplea una


metodología de calificación precisa, que proporciona referencias de
comparación nacional ofrece un diagnóstico de los estudiantes a nivel individual
es una prueba centrada en el conocimiento; evalúa el resultado del trabajo
escolar contenido en los planes y programas oficiales” (ILCE, SEP. 2006).

La fecha de aplicación se marca desde el calendario escolar oficial, con el


nombre de Semana Nacional de Evaluación que por lo general es en el mes de
abril.

La prueba ENLACE con todo este contexto mencionado, trata de ser el filtro de
todos los cambios provocados por la demanda del enfoque deseado en la
educación a nivel internacional, producto de un cambio social global.
41

2.3 Los fundamentos de la prueba ENLACE

El carácter de la prueba ENLACE opera fundamentalmente como un


Diagnóstico/informativo, y por ende, no sirve para certificar o hacer
ordenamientos.

Dadas las condiciones de su propósito real y el carácter masivo de su


aplicación para la educación básica, esta prueba tiene un bajo nivel de control
sobre su administración y por ello es fácilmente vulnerable; la idea es que el
instrumento sirva como diagnóstico y no tendría ningún caso vulnerarlo.

Esto sin embargo, no es un defecto sino una característica propia de la prueba;


debido a estas características, ENLACE no es un instrumento que sirva para
certificar, no sustituye las calificaciones o evaluaciones de cada estudiante,
maestro, director, y autoridad educativa.

ENLACE únicamente pretende hacer una medición general que facilite una
evaluación en grandes proporciones en el sistema educativo nacional.

La prueba ENLACE se fundamenta básicamente en el programa sectorial de


educación 2007–2012 enfatiza el papel intelectual de la evaluación como
practica reflexiva, innovadora, sistemática e integral, toda vez que su ejercicio
exige el cumplimiento de estándares técnico-pedagógicos internacionales que
aseguren la pertinencia de sus resultados y redunden en propuestas eficaces
de mejora continua.

Pero más allá de los aspectos de carácter teórico-metodológicos, ENLACE se


constituye también en un ejercicio democrático, en la medida que propugna por
42

un aumento generalizado de la participación ciudadana como destinatario


privilegiado de sus hallazgos, impulsando la corresponsabilidad de la sociedad
civil en su conjunto en el aseguramiento de una educación de calidad para que
los estudiantes mejoren su nivel de logro educativo, cuenten con los medios
para tener acceso a un mayor bienestar y contribuyan decisivamente al
desarrollo nacional, condición insoslayable para alcanzar los objetivos
propuestos de desarrollo humano sustentable.

Asimismo, el programa sectorial de educación 2007-2012 explicita los criterios


de mejora que deben aplicarse a los distintos ámbitos que inciden en la calidad
de la educación: capacitación de los profesores, actualización de programas de
estudio y sus contenidos, enfoques pedagógicos, métodos de enseñanza y
recursos didácticos.

En este sentido, la evaluación cumple una función primordial al convertirse en


un instrumento que contribuye al análisis de calidad, así como de la relevancia y
pertinencia de la operación de las políticas públicas en materia educativa.

Bajo esta concepción general, la evaluación habrá de proveer a la comunidad


educativa de información valida y confiable en tres ámbitos de acción
fundamentales: como ejercicio de rendición de cuentas, como práctica
sistemática de difusión de resultados a padres de familia y como sustento del
diseño de las políticas públicas.

Bajo esta perspectiva, la evaluación debe respaldar las acciones para la mejora
integral de la calidad de la educación.

En el contexto de estas consideraciones generales de operación y


fortalecimiento, ENLACE cumple una función estratégica en el fortalecimiento
de la calidad de la educación y sitúa al relieve la trascendencia de explotar
43

creativamente toda la riqueza de los resultados que este proyecto de evaluación


provee a la sociedad en su conjunto.

El propósito legítimo de la evaluación del aprendizaje consiste en obtener


información útil para mejorar la enseñanza, no solo para situar el contenido del
presente apartado, si no para tomar en distancia de usos inapropiados de la
evaluación, relacionados con el control, la simulación y el castigo.
ENLACE se concibe de manera fundamental como una herramienta que busca
coadyuvar al mejoramiento de la calidad de los aprendizajes que se construyen
en el aula.

Los parámetros de las prueba ENLACE


Se describen los parámetros empleados para reportar la calidad de los ítems
del banco para ENLACE.

Dificultad con modelo clásico


La dificultad de los ítems (o índice de dificultad I.D.) se determina con el modelo
clásico como proporción de aciertos:
respuestas correctas
p= ; 0 ≤ p ≤1
N

Donde N es el número de personas que contestan el ítem. Para el diseño de las


pruebas ENLACE
€ son aceptables los ítems en el intervalo [0.1,0.9]. El análisis
clásico se realiza con el programa comercial ITEMAN.

Correlación punto-biserial
Para evaluar la calidad de los ítems en relación con su pertinencia para una
dimensión o variable a medir, se emplea en ENLACE la correlación punto-
biserial, que es una forma particular de la correlación de Pearson, cuando una
de las variables es continua y la otra es dicótoma:
Mp  Mq
rpbis  pq ; 0  rpbis  1
St
44

Donde:
rpbis = Correlación Punto-Biserial, igual a la correlación producto-momento de
Pearson.
Mp = Media de puntuaciones de los sujetos que contestan correctamente al
ítem
Mq = Media de puntuaciones de los sujetos que contestan incorrectamente al
ítem
St = Desviación estándar de las puntuaciones de los sujetos
p = proporción de respuestas correctas en el ítem, igual a la proporción de
casos que están en el grupo superior en el ítem
q = proporción de respuestas incorrectas en el ítem (q=1-p), igual a la
proporción de casos que están en el grupo inferior en el ítem.
Pq = varianza del ítem

No debe confundirse esta correlación con rbis, correlación biserial, que se


emplea cuando una de las variables se hace dicótoma en forma artificial, en
función de un punto de corte en una distribución normal.

Puede demostrarse que el valor mínimo aceptable para rpbis es 0.196 o, más
usualmente, 0.2. Un valor inferior a 0.2 indica posible azar en el patrón de las
respuestas de los estudiantes por lo que se trata de reactivos desechables.
Esta correlación no mide la discriminación del ítem sino su validez dentro de
una prueba para formar parte de una misma dimensión o 44gonistas44e.

Cuando se calcula esta correlación excluyendo el aporte del ítem al total de la


prueba, se denomina Correlación punto-biserial modificada y proporciona un
valor un poco más pequeño al descontar dicho aporte que beneficia a la
correlación. Una expresión aproximada para la correlación es:
Mp  Mq  1
rpbis corregida  pq
St
45

Dependiendo de la cantidad de ítems y de la escala, el valor corregido con esta


fórmula puede diferir del valor correcto eliminando al ítem del total de
respuestas de las personas, hasta en un 15%, siendo menor su efecto
conforme se incrementa el número de ítems.

Proporción de
Rpbis Comentario sobre el ítem
aciertos p
ACEPTABLE.
No se tiene un patrón de azar en las
0.10  p <
 0.196 respuestas.
0.90
Si al revisar se identifican opciones
ineficientes, el ítem será desechado.
A REVISAR.
Muestra patrón de respuestas similar al azar.
0.10  p <
< 0.196 Si al revisar se identifican opciones ineficientes
0.90
o que propician respuestas por azar, el ítem
deberá desecharse.
Para cualquier DESECHABLE.
≤0 Respondido por pocas personas.
p
Discrimina poco y muestra patrón de
Para respuestas azaroso.
p < 0.10
cualquier Debe ser revisado, deberá desecharse si no se
ó p > 0.90
valor hay evidencias de que funcionen bien el
enunciado y las opciones

Para el dictamen de los ítems de ENLACE, se decidió usar como valor de


referencia rpbiscorregida  0.3. Valores inferiores a 0.3 deben revisarse. Esta
correlación se calcula con el programa comercial ITEMAN en el caso del
modelo clásico y BILOG en el caso del modelo logístico.

Estimador Brogden-Clemans
46

Como complemento para analizar la calidad de los ítems se ha planteado en


este Manual Técnico el uso del estimador Brogden-Clemans (1949), que
originalmente fue propuesto como una solución del problema de que la
correlación biserial produzca valores superiores a 1 en función de la distribución
de los datos. Se emplea porque permite establecer la proporción de rpbis
respecto del máximo para una dificultad dada. Este estimador toma valores
entre -1 y +1, utilizando la expresión:
M+ −M− Xp − Xq
BrCl = =
M max − M min Xpmax − Xq min

Donde:
M+ = Xp = media€de los valores X (variable 1) para los sujetos que están en el
grupo superior de la variable dicotomizada (variable 2).
M- = Xq = media de los valores X (variable 1) para los sujetos que están en el
grupo inferior de la variable dicotomizada (variable 2).
Mmax = Xpmax = media de los puntajes de las Np personas superiores al punto de
dicotomización.
Mmin = Xqmin = media de los puntajes de las Nq personas inferiores al punto de
dicotomización.

Esta formulación en términos de la correlación punto-biserial es:


rpbis
BrCl 
Max(rpbis )

El máximo de rpbis depende de la proporción de aciertos del ítem y


corresponde con una elipse en el plano rpbis vs. Dificultad. Al establecer como
mínimo aceptable a rpbis = 0.2 se define una elipse en el plano dificultad-
Correlación Punto-Biserial, siendo aceptables todos los ítems cuyo estimador
BrCl se encuentre por arriba de la elipse interna mostrada en la figura.
47

Correlación punto-biserial para las opciones


En ENLACE se ha propuesto el uso de la correlación punto-biserial a nivel de
los distractores de un ítem de opción múltiple, como una alternativa para
analizar su calidad donde la respuesta correcta se espera que correlacione
positivamente con el 47gonistas47e global de una prueba, contrariamente a los
distractores que se espera que correlacionen negativamente. Esta práctica
puede ser discutible (Attali y Fraenkel, 2000), pero es muy empleada en
programas comerciales (como por ejemplo ITEMAN).

Discriminación del ítem


El índice de discriminación del ítem (Disc.) se estima por medio de ITEMAN
como la diferencia de la proporción de respuestas correctas entre los dos
grupos extremos al 27% de la distribución.
Disc = p(GS) – p(GI)
Donde GS y GI representan los grupos extremos. Se esperan valores positivos
para que el ítem sea aceptable. Esta función está acotada en su valor superior,
representándose como un trapecio en el primer cuadrante del plano dificultad-
discriminación (Tristán, L.A, 1998). Sin especificar todas las zonas que pueden
identificarse en el trapecio, se puede utilizar una norma discriminativa de
ecuación ND=0.6x I.D., por arriba de la cual los ítems son aceptables si además
48

están entre 27 y 73% de respuestas correctas. Los ítems fuera de esta zona se
deben revisar. Los ítems con discriminación nula o negativa deben desecharse.

El criterio de aceptación se trabajó con la correlación punto-biserial, por lo que


no se presentan en este Manual Técnico estas gráficas, pero los valores son
proporcionados por ITEMAN y se consideraron en la toma de decisiones.

Confiabilidad por consistencia interna


Como medida de la calidad de una prueba, se exige que tenga una alta
confiabilidad, que se refiere a que en mediciones repetidas se tengan
resultados similares o que la medición se realice con la mayor precisión posible.
Es práctica común emplear la correlación entre mitades de una prueba, lo cual
se denomina “consistencia interna”, que busca determinar si las respuestas de
los sujetos son consistentes a lo largo de la prueba.

El coeficiente alfa de Cronbach es la expresión de propósito general más


empleada en la práctica y es la que se emplea en ENLACE. Esta fórmula
generaliza la fórmula de Kuder y Richarson KR20 (para ítems dicótomos) o
KR21 (aproximación a KR20):
49

Donde:
N = número de ítems.
Vi = varianza del ítem i.
Vk = varianza de los puntajes brutos de los sujetos.

El coeficiente alfa, como medida de la consistencia interna de las respuestas de


los sujetos, toma valores entre [-∞, 1] (tiende a -∞ si N=1; adquiere el valor de 1
cuando N tiende a +∞, independientemente de la calidad de los ítems, y
también cuando los ítems son idénticos o muy homogéneos,
independientemente de su número).

Este coeficiente mide qué tan repetitivos son los resultados y se esperan
valores “altos”. Se sugieren valores de 0.7 a 0.9 en algunas referencias. Para
las pruebas matriciales que tienen unos 20 ítems, puede demostrarse que el
valor esperado para alfa está alrededor de 0.64, con fluctuaciones de ±0.1, por
lo que se consideran aceptables los valores entre 0.55 y 0.75 para cada prueba
matricial. En cada aplicación de ENLACE se debe llevar el registro de los
valores de alfa.

Error estándar de medida


El error estándar de medida ESM se determina a partir de la aplicación, en
función de la desviación estándar de las puntuaciones de los sujetos y del
coeficiente alfa, con la expresión:

El error estándar de medida es un valor prácticamente constante para un


número de ítems dado en una prueba. Para pruebas de 100 ítems, el valor
esperado es aproximadamente de 4%, debiendo multiplicarse por el valor crítico
Zc del intervalo de confianza, generalmente aceptado al 5% de significancia
(Zc=1.96).
50

Covarianza ítem-prueba
Para seleccionar a los ítems que debían pertenecer a la prueba definitiva del
siguiente año, se decidió emplear la covarianza ítem-prueba, definida por:
Co var ianza  rpbis  i S t  rpbis pq S t

Donde rpbis es la correlación punto biserial del ítem i, s i la varianza del ítem, S t
la desviación estándar de las puntuaciones de los sujetos.

Se eligen los valores con mayores covarianzas, pudiendo alcanzar valores de


-1.0 a +1.0, solo son aceptables las covarianzas positivas y superiores a 0.25.

Modelo logístico
Se calibran los ítems con el modelo de tres parámetros de la Teoría de la
Respuesta al Ítem (TRI), que proporciona la probabilidad de respuesta de una
persona de medida q, ante un ítem de dificultad b, con discriminación a y
parámetro de adivinación sistemática c:
1 c
p c
1  e 1.7 a (  b )
La gráfica de la probabilidad p se denomina curva característica del ítem, que
se espera sea monótona creciente.
Para el ajuste del modelo de la TRI a los datos observados, se reporta el valor
p(c2,n) = a, donde c2 (o CHI2 en el gráfico) es el modelo de ajuste de la curva
teórica a los datos, n es el número de grados de libertad (DF en el gráfico) y a
es la significancia del ajuste (o PROBABILITY en el gráfico).

El proceso de cálculo para determinar el ajuste y las calibraciones de los ítems


y las medidas de las personas se realiza con el programa comercial BILOG.
Los criterios para rechazar un ítem son:
 Los ítems cuya curva característica no presenta un comportamiento
razonable (pendiente negativa o alguna tendencia dudosa), a criterio del
revisor.
51

 Los que tienen un desajuste por c 2 mayor a la significancia de 5%. Se


revisan cuando se tiene una significancia hasta 10%.
 Los que producen una medida logística superior a 10 o inferiores a -3.
Generalmente no se encuentran ítems con medida inferior a -3.
 El parámetro a debe ser mayor a 0.1 y el parámetro c inferior a 0.2 para ser
aceptable.
 Por tener una correlación punto-biserial negativa (dada por BILOG)

En las figuras se muestran curvas de escaso ajuste o de pendiente muy baja.


52

Correlaciones pretest-posttest
Para la fase de revisión de las pruebas piloto y la aplicación definitiva se
considera un modelo de correlación entre pretest y posttest. Se esperan
correlaciones de 0.98 en las puntuaciones y de 0.9 en las medidas de los ítems,
los ítems que afecten estas correlaciones (como el que se muestra en la figura)
se retiran del conjunto.
53

La figura muestra otro caso donde se tiene una correlación de 0.953, con una
distribución aceptable en los ítems.

Esquema de calificación
Los puntajes de cada alumno evaluado se reportan por cada asignatura-grado.
La escala de puntajes tiene una media de 500 puntos y una desviación estándar
de 100 puntos, tomando como base la primera aplicación. En este caso la
referencia es del año 2006 para Español y Matemáticas; 2008 para Ciencias.

Para obtener los puntajes de cada alumno en la aplicación de 2008 se


realizaron los siguientes pasos:
 Se calibran los reactivos que intervienen en la prueba (no se consideran los
que están para calibración en la muestra controlada) y en su caso, se
eliminan los que no son aceptables de acuerdo con los criterios de dictamen.
 Con los reactivos calibrados se califican los registros de los alumnos que
presentaron la prueba, con el programa informático Bilog. La calificación se
realiza para cada asignatura por separado para cada alumno.
54

 Con la medida estimada para alumno en una escala de -3 a 3 lógitos que


proporciona BILOG se cubre al 99.9 % de los registros. El resto de
estudiantes queda por debajo y arriba de este rango.
 La medida estimada se transforma a un puntaje en la escala de media 500 y
desviación estándar 100, utilizando la función de transformación:
 X a
PuntajeESCALA500  100    500
 b 
Donde:
X = medida estimada del sujeto producida por BILOG.
A = media de referencia.
B = desviación estándar de referencia.
Los valores a y b de las pruebas de Español y Matemáticas se presentan en la
tabla.

El puntaje obtenido es el que se reporta finalmente para cada estudiante.


TRANSFORMACIÓN DE LA MEDIDA A ESCALA 500
ESPAÑOL
Nivel Grado VALOR A VALOR B
PRIMARIA 3 -0.128136 0.923581
PRIMARIA 4 -0.106650 0.930389
PRIMARIA 5 -0.094994 0.903758
PRIMARIA 6 -0.106051 0.921517
SECUNDARIA 3 -0.112461 0.912600
MATEMÁTICAS
Nivel Grado VALOR A VALOR B
PRIMARIA 3 -0.146081 0.938097
PRIMARIA 4 -0.104009 0.946854
PRIMARIA 5 -0.122226 0.935726
PRIMARIA 6 -0.143490 0.865670
SECUNDARIA 3 -0.120750 0.881678

2.4 Evaluar, medir y calificar

La evaluación es un proceso necesario y requerido en la educación, que


comúnmente se interpreta como registros de actividades y exámenes dándole
55

la finalidad de rescatar una calificación de lo trabajado en clase; sin embargo,


un concepto más formal es realizar observaciones de la aplicación de los
conocimientos, apreciar, diseñar alternativas, establecer el valor de un objeto,
una acción, interpretar información o como el propio Joan Mateo dice: “Es un
proceso de recogida y análisis de información relevante con la intención de
describir una situación de aprendizaje, lo que ayudará a formular juicios,
mediante un debate previo decidir sobre los aspectos a tomar en cuenta para la
evaluación.” (Mateo, 2000).

Así mismo, la evaluación es una actividad sistemática aplicada en el proceso


educativo, cuya finalidad es el mejoramiento de la educación consistiendo en la
aplicación de pruebas escritas, en llevar a cabo la observación del
comportamiento y análisis de los alumnos, además el propósito principal es que
los profesores encuentren los errores, logren corregirlos y así, se aumente la
calidad de la educación.

Si conceptualizáramos la evaluación de un modo más general y para


desempeñarla en la educación, se podría definir como “una obtención de
información rigurosa y sistemática para contar con datos validos y fiables
acerca de una situación con objeto de formar y emitir un juicio de valor con
respecto a ella” (Casanova, 1998).

La evaluación se utiliza en tres ámbitos educativos:


 En el ámbito didáctico en donde no sólo es un elemento administrativo, sino
que es también un momento de aprendizaje tanto para el profesor, como
para el alumno en donde se justifica, avala y regula los contenidos, procesos
y participantes que intervienen en la didáctica.

 En el ámbito psicopedagógico permite al profesor adaptar sus clases a las


características individuales del alumno o, por lo menos, de aquellos que
56

requieren más atención, tomando en cuenta y exigiendo resultados de


acuerdo a sus capacidades. Por lo que los profesores no deben centrarse
solo en la calificación del alumno, sino enfocarse en los motivos que
ocasionan un alto o bajo aprovechamiento escolar.

 En el ámbito social, consiste en la acreditación ante la sociedad de los


aprendizajes y logros adquiridos en la escuela, mediante los avances en
diferentes niveles o la titulación de ellos.

La evaluación se basa en el problema de buscar información útil para la toma


de decisiones; aunque es común limitarla a generar instrumentos que posibiliten
solamente información; se debe identificar como un problema básico la
comprensión y explicación de la evaluación, esto es, que no se limite
únicamente a proporcionar información útil.

Es esencial para la evaluación que el profesor comprenda lo evaluado y para


lograrlo debe tener claridad acerca de las teorías sociales, psicológicas o
educativas, sugeridas para la evaluación.

La razón de la evaluación de los aprendizajes se enfoca en la comprobación por


parte de los estudiantes, pero no para enjuiciar al profesor sino para mejorar,
especialmente en lo que se refiere al proceso enseñanza-aprendizaje.
Para hacer posible la evaluación es necesario que extienda su campo de
acción, además que busque un vínculo entre la enseñanza y la evaluación.
Para lograrlo, se recomienda que los profesores desarrollen los siguientes
pasos (CHED, 1997):
 Identificar los conocimientos y las habilidades que los estudiantes deben
aprender, además de buscar estrategias donde logren desarrollar
competencias y saber aplicarlas en su vida cotidiana.
57

 Identificar las características que cada uno de los estudiantes deben


alcanzar y desarrollar en las escuelas.
 Tomar en cuenta diferentes estrategias para obtener información
importante del rendimiento académico y personal de los alumnos.
 Acumular información que nos permita saber el nivel académico en el
que se encuentran las escuelas.
 Buscar los medios apropiados para publicar la información y aumentar el
nivel académico en las instituciones.

Por último, el objetivo de la evaluación consiste en intentar mejorar la realidad,


buscando la regulación del sistema educativo de la creatividad, innovación y
diferentes alternativas para encontrar soluciones.

Tres momentos de la evaluación


Para tener escuelas con alto nivel académico y con resultados favorables en
México en materia de educación, lo profesores deben considerar tres momentos
en la evaluación:

 Inicial mediante la aplicación de un examen de diagnóstico que consiste en


recopilar información de conocimientos previos y a partir de ella, realizar la
planeación de los contenidos temáticos dirigidos a los problemas que
presenten los alumnos.
 Formativa, que radica en la adquisición de medidas de motivación, atención
individualizada, el establecimiento de actividades cooperativas y el cambio
de estrategias mediante la presentación de propuestas.
 Final, que se lleva a cabo al término de cada periodo, no es sólo de carácter
cuantitativo o de la acreditación del proceso, sino que deben de adaptar las
actividades de acuerdo a las necesidades de los alumnos.
58

La planeación en clase de estas tres evaluaciones, colaborará en el aprendizaje


de los alumnos y en la función del docente porque tomará en cuenta la
metodología, los recursos y las circunstancias para llevar a cabo las diferentes
evaluaciones.

Existen cuatro actores que intervienen en el proceso que pueden influir en los
resultados de la evaluación:
 El profesor: con la evaluación inicial se informa del nivel de aprendizaje con
el que cuenta los alumnos y puede realizar sus planeaciones de acuerdo a
las deficiencias con las que cuentan, además, adapta las estrategias que
necesitará para desarrollar sus clases.

 El alumno: que necesita saber los resultados de sus actividades


desarrolladas, es por eso que los profesores deben de proporcionar los
resultados a la brevedad posible.

 Los padres de familia que deben conocer las características del proceso
desarrollado por los profesores para lograr el aprendizaje de los alumnos,
además de tener comunicación y colaboración con la escuela.

 La sociedad que debe de estar informada de los avances de los alumnos,


así como de los profesores y las instituciones.

Existen distintos tipos de evaluación pedagógica, a continuación se presentan


algunos de ellos:

Evaluación inicial
Que parte de los conocimientos previos, ideas y estilos de aprendizaje para que
el alumno construya su propio conocimiento y le encuentre significado.
59

Para los profesores, la información recabada por la evaluación inicial les


permite conocer el punto de partida del grupo, además de las características
con las que cuentan los alumnos y de ahí, llevar a cabo la planeación de
acuerdo a sus características.

Evaluación formativa
El objetivo de la evaluación formativa consiste en saber que estrategias utiliza el
alumno para aprender y ayudarle a encontrar algunas actividades que le
auxilien cuando se le dificulta solucionar un problema.

Evaluación idealista
Este enfoque, centra al docente y lo ve como la única persona que tiene los
conocimientos adecuados para llevar a cabo la evaluación en sus alumnos,
dejando a un lado que la evaluación muchas veces es subjetiva.

Modelo de evaluación iluminativa


Dicho modelo tiene como objetivo primordial descubrir y documentar a
cualquiera que participa en la evaluación, sea docente o alumno, para aclarar y
discutir los hechos más relevantes de la innovación que se pretende introducir.

Su aplicación parte de cuatro factores:


 En la definición, se centra en el análisis de los procesos de negociación que
tienen lugar en el aula y se hará efectiva cuando se familiarice con los
problemas.

 En la metodología, la evaluación es la consecuencia del trato al que se


llegue con el alumno, por lo tanto, implica apertura y flexibilidad en los
métodos. Las técnicas más usadas para lograrlo son: la observación, la
entrevista, el análisis documental y los cuestionarios.
60

 La estructura conceptual es comprender bien el contexto y sus relaciones,


considerar las dificultades y especificar en sus opiniones individuales.

 Los valores implícitos, consisten en organizar las opiniones y facilitar la


comunicación de iniciativas de estudio.

Modelo de evaluación respondente60


Se conoce con este nombre porque responde a los problemas y a las dudas
reales que afectan a los alumnos y a los profesores cuando desarrollan un
programa educativo. Es un modelo evaluativo centrado en el sujeto; el
evaluador responde a aquello que el evaluado desea conocer, y negocia con él
lo que hay que hacer.

Modelo de evaluación democrática


En este modelo de la evaluación, la tarea del evaluador consiste en buscar
distintas alternativas para resolver situaciones problemáticas: identificar los
diferentes grupos que toman las decisiones educativas, a menudo en conflicto,
para proporcionarles información que consideren más valiosa, y así, mejorar
tanto personal como colectivamente.

La evaluación considerada como medición


Los instrumentos de medición facilitan puntajes y otros datos capaces de ser
manipulados matemáticamente y estadísticamente, lo que hace posible tratar
concentraciones de datos y permite comparar resultados y establecer normas.
El desarrollo de dichos instrumentos proporcionan las bases conceptuales para
la evaluación.
61

Con este enfoque instrumentalista la evaluación se convierte en la técnica de


elaboración de instrumentos y de interpretación de sus resultados. Evaluar llega
a ser sinónimo de construir estrategias de evaluación. El evaluador se limita así
a evaluar aquellas variables que puede medir. Las variables para los que no
posee instrumentos de medición son consideradas sin importancia.

En la tradición pedagógica el trabajo de selección e interpretación de


capacidades se genera a partir del examen y su sentido en las primeras
propuestas didácticas es sobre todo promover el aprendizaje del alumno y no
estar atado a su acreditación escolar.

Evaluación alternativa
En esta figura, al elaborar la evaluación se requiere que los estudiantes en un
momento determinado, demuestren, construyan, desarrollen un producto o
solución a partir de definidas condiciones y modelos; mientras que la auténtica
se basa en la realización de tareas reales y su intención es desarrollar
capacidades o competencias demostrables en el mundo actual.

La educación pública en México exhorta a los profesores a utilizar la evaluación


auténtica donde debe existir congruencia entre lo que se enseña y lo que se
evalúa.

En la actualidad es común confundir tres procesos utilizados en la valoración


del aprovechamiento de los alumnos en clase, a continuación se presenta una
comparación entre ellos.

Medir y evaluar
Medir, como ya se mencionó, facilitan puntajes y otros datos capaces de ser
manipulados matemáticamente y estadísticamente, lo que hace posible tratar
concentraciones de datos y permite comparar resultados y establecer normas;
62

mientras que la evaluación se basa en la realización de tareas reales y su


intención es desarrollar capacidades o competencias demostrables en el mundo
actual.

Medir y calificar
Medir es dar un juicio de valor, después de utilizar un patrón o regla, es asignar
números a las características o atributos de objetos, personas o procesos
medidos, de acuerdo con reglas, parámetros o criterios establecidos
(RODRÍGUEZ, 2008); calificar se refiere a la asignación numérica que se
realiza en el proceso educativo (5, 6, 7, 8, 9, 10). Por lo tanto, los dos conceptos
son cuantitativos; pero el primero se refiere a llegar a una estimación bajo
juicios y el segundo a llegar a una cantidad basada en evidencias.

Calificar y evaluar
Calificar es un criterio cuantitativo y administrativo de la educación, pero evaluar
es un proceso flexible, que no solo se basa en productos, se fundamenta en el
desarrollo de competencias, procedimientos, manejo de técnicas formales e
informales, la adquisición de conocimientos, habilidades, destrezas,
comportamientos y valores, para llegar a un resultado tanto cuantitativo como
cualitativo.

La evaluación de acuerdo al Plan de Estudios (SEP 2006), “es un proceso


continuo de obtención de información, que no se reduce a la aplicación
periódica de pruebas”. La evaluación implica tomar en cuenta tanto los
procesos de resolución, como los resultados de situaciones problemáticas que
los alumnos resuelven o realizan, y considera esencial que esta responsabilidad
no sea exclusivamente del profesor.

Una autora que toman como referencia en los programas de estudio de


Educación Básica es María Antonia Casanova, quien escribe en uno de sus
libros: “La evaluación aplicada a la enseñanza y al aprendizaje consiste en un
63

proceso sistemático y riguroso de obtención de datos, incorporado al proceso


educativo desde su comienzo, de manera que sea posible, disponer de
información continua y significativa para conocer la situación, formar juicio de
valor con respecto a ella y tomar las decisiones adecuadas para proseguir la
actividad educativa mejorándola progresivamente” (Casanova, 1998).

Como es evidente, a pesar de que los procesos de medir, calificar y evaluar,


suelen considerarse como sinónimos, están muy distantes a serlo; la medición
se consigue a partir de juicios, la calificación se obtiene a través de evidencias,
pero, la evaluación es más compleja, porque implica destacar la importancia de
la aplicación de los conocimientos en la realidad y contribuyendo al aumento y
el desarrollo de la reflexión, creatividad, innovación y la investigación de nuevas
soluciones.

Por lo tanto, la prueba ENLACE no es un instrumento de evaluación; pero sí un


instrumento de medición de los conocimientos memorísticos adquiridos por los
alumnos.

2.5 La ciencia de la evaluación pedagógica

El referirse a la evaluación pedagógica como ciencia, sería considerarla como


un conjunto de conocimientos, racionales, analíticos, sistemáticos, exactos,
objetivos, y fácticos, estos acumulados en torno al estudio y análisis minucioso
de las partes que componen el proceso de valoración, medición y o apreciación
del desempeño, aprendizajes y conocimientos adquiridos periódicamente por
sujetos que cursan un grado escolar determinado.
64

Específicamente se considera la evaluación pedagógica como una actividad


continua que da pauta a la revisión constante de los procesos de enseñanza-
aprendizaje, recabando y analizando datos relevantes que originan la
posibilidad de detectar aspectos relacionados con el aprovechamiento,
permitiendo que el docente tome decisiones adecuadas que reorienten la
planificación del trabajo didáctico y se corrijan las deficiencias detectadas. En
este sentido se toma en cuenta que la evaluación dentro del aula no se lleva a
cabo por sí sola, es importante mencionar que comúnmente el docente elabora
y dispone de ciertos instrumentos, técnicas y métodos (pruebas escritas,
diagnósticos iniciales, participaciones orales, entrevistas, la observación del
comportamiento y desempeño del alumno, la valoración de actividades y
contenido de las mismas, entre otras más) que mediante su aplicación en los
distintos momentos de un curso pedagógico, se recaban datos suficientes para
el análisis del trabajo que alumno y maestro deben hacer, hacen o han hecho
dentro del aula.

Sin embargo, habría que cuestionarse si dicha evaluación pedagógica es


considerada como ciencia, o incluso hasta qué punto es racional, analítica,
sistemática, exacta, objetiva, y fáctica.

Bajo este concepto, se considera que la evaluación pedagógica es racional en


cuanto no pretende generalizar subjetivamente la descripción de los caminos
que se deben recorrer para estimar como bueno o malo todo aprendizaje ya
adquirido, si no que explica a raíz del diseño y aplicación consciente de
instrumentos, métodos y estrategias específicos, las condiciones en las que se
encuentran los conocimientos asimilados por uno o más individuos en un área
del saber determinada.

Así mismo, es sistemática en cuanto, existe una gran diversidad de


herramientas que se interrelacionan metodológicamente y persiguen la
65

medición y valoración de los aprendizajes obtenidos respecto a un cúmulo de


conocimientos.

Por otro lado, se considera que deja de ser exacta, analítica y objetiva en
cuanto que pierde la visión de los diversos factores que intervienen en del
desarrollo general del sujeto, ya que esto influye considerablemente en el
desempeño, aprendizaje y asimilación de los contenidos que adquiere durante
el trabajo en el aula. Se cree, que el entorno donde se desenvuelve el individuo,
el nivel socioeconómico, las características de la familia a la que se pertenece o
incluso como el alumno representa mejor mentalmente la información (visual,
auditivo o kinestésico) entre otros más, son elementos que pasan a un menor
plano, en el momento en el que se evalúa para medir un conocimiento
particularmente.

No obstante, la evaluación pedagógica es fáctica debido a que se puede


originar a raíz del estudio, la observación del desempeño continuo y
características particulares de uno o más individuos (ideas, hábitos, estilos de
aprender y capacidades), para de ahí partir objetivamente al diseño y
elaboración de los recursos que medirán los aprendizajes logrados durante un
curso escolar.

En este sentido, se piensa que la evaluación pedagógica sí es una ciencia en


busca del perfeccionamiento y mejora constante de los individuos para
incorporarse a la sociedad de manera productiva y sustentable, ya que el
aprendizaje y la enseñanza no pueden disociarse de las prácticas evaluativas
de un sistema educativo.

Una evaluación pierde lo científico cuando se enfoca únicamente hacia un


protagonista del proceso, debe involucrar a todos los actores educativos,
tomando en cuenta los aspectos cognitivos, procedimentales y actitudinales, de
todos los involucrados, y al mismo tiempo los aspectos contextuales, pudiera
66

decirse que hay una red de relaciones humanas horizontales y verticales, hay
currículos superpuestos entre los actores, hay un ambiente escolar, un medio
físico, y social, en el momento en el que se considere a la evaluación
pedagógica como ciencia dentro de un centro educativo, debe ser mucho más
que una simple relación entre sujeto, aprendizaje y contenidos.
En este sentido, es importante referir que la evaluación pedagógica, como tal,
teóricamente no se considera como ciencia, ya que esta deja de ser científica si
se sujeta al punto de vista de una persona o de un pequeño grupo, esto
reflejaría la visión particular de su realidad; al mismo tiempo cuando los
instrumentos de evaluación se elaboran con cierta reiteración, buscando su fácil
elaboración, generan mayor dificultad para los estudiantes que se les aplica.
Una evaluación si se elabora con el fin de calificar o descalificar perderá su
función científica pedagógica.

2.6 El perfil y autoridad moral y académica de los diseñadores


de la prueba ENLACE

La Unidad de Planeación y Evaluación de Políticas Educativas (UPEPE) de la


SEP, a través de la Dirección General de Evaluación de Políticas (DGEP) ha
implementado la Evaluación Nacional del Logro Académico en Centros
Escolares (ENLACE) con el propósito fundamental de medir el resultado del
trabajo escolar en las asignaturas instrumentales básicas (Español y
Matemáticas), además de competencias de las demás áreas del currículo.

La prueba ENLACE es un proyecto de importancia relevante en el terreno


educativo ya que las autoridades educativas utilizan sus resultados como
plataforma para la toma de decisiones asociadas con la mejora educativa, con
las que se formulan e implementan políticas educativas.
67

En el manual técnico 2008 la DGEP fundamenta que: “El marco de referencia


teórico y metodológico de ENLACE, […] ha sido revisado y aprobado por un
grupo de especialistas nacionales de prestigio y cualidades intachables, donde
se encuentran docentes en ejercicio y representantes del gremio educativo”.

La prueba ENLACE 2010 es la versión más reciente de este proyecto de


evaluación, los nombres, perfiles, grados académicos y especialidades de los
constructores de los reactivos se encuentran en el anexo.

Analizando los datos de la información de ese grupo de especialistas


constructores de los reactivos de la prueba Enlace 2010 se encontró que: sólo 3
integrantes cuentan con maestría, 1 en Letras, Literatura Mexicana y 1 en
Letras Españolas y Letras Iberoamericanas, 1 en Educación; 23 cuentan con
licenciatura, 4 en Pedagogía, 5 en Psicología, 1 en Psicología Educativa, 1 en
Ingeniería Bioquímica, 1 en Administración Industrial, 1 en Ingeniería de
Alimentos, 1 en Geografía, 1 en Sociología, 2 en Ciencias Biología, 1 en
Filosofía y Letras y en Educación Especial, 2 en Ciencias de la Educación, 1 en
Física, 1 en Odontología, Cirujano Dentista,1 en Relaciones Internacionales;
también existen 13 pasantes en las áreas de: 2 Ciencias Biología, 4 en
Pedagogía, 1 en Administración Industrial, 3 en Física, 2 en Psicología, 1 en
Historia.

De los 39 constructores de la prueba Enlace 2010, 17 de ellos no tienen


experiencia como docentes, lo cual representan el 43.5% del equipo, en este
grupo se encuentra el Lic. En Psicología Carlos Goñi Carmona, Director
General de Evaluación de Políticas, SEP y miembro del consejo técnico.

La calidad técnica del proceso de evaluación está a cargo de un Consejo


Técnico, integrado por especialistas de instituciones académicas,
organizaciones no gubernamentales y de la Secretaría de Educación Pública.
68

Consejo Técnico.
Coordinadora:
 Lic. Ana Ma. Aceves Estrada, Directora General de Evaluación de Políticas,
SEP

Integrantes:
 Mtro. Andrés Sánchez, Instituto Nacional para la Evaluación de la
Educación.
 Dr. Arturo Sáenz Ferral, Consejo Nacional de Fomento Educativo, SEP.
 Dr. Bernardo Naranjo Piñeira, Proyecto Educativo, S. C.
 Lic. Carlos Goñi Carmona, Dirección General de Evaluación de Políticas,
SEP.
 Lic. Consuelo Mendoza García, Unión Nacional de Padres de Familia.
 Mtro. David Calderón, Mexicanos Primero.
 Dr. David Stofenmacher, Instituto de Investigación de Tecnología Educativa.
 Profr. Edgar Yesid Sierra, Dirección General de Educación Indígena, SEP.
 Lic. Eduardo Bohórquez, Transparencia Mexicana.
 Dr. Fernando Brambila Paz, Sociedad Mexicana Matemática.
 Mtro. Fernando Mejía Botero, Centro de Estudios Educativos.
 Lic. Francisco López Díaz, Suma por la Educación.
 Lic. Francisco Mendoza Trejo, Instituto de Fomento e Investigación
Educativa, A. C.
 Biol. Francisco Tamés Millán, Consejo Nacional de Fomento Educativo, SEP.
 Dr. Francisco Valdés Ugalde, Facultad Latinoamericana de Ciencias
Sociales.
 Profra. Graciela Ochoa Buenrostro, Sindicato Nacional de Trabajadores de
la Educación.
 Lic. Hugo Franco Zesati, Instituto Latinoamericano de la Comunicación
Educativa.
69

 Dr. José Luis Gaviria Soto, Universidad Complutense de Madrid.


 Lic. José Molina Luna, Dirección General de Evaluación de Políticas, SEP.
 Mtro. Leopoldo F. Rodríguez Gutiérrez, Dirección General de Desarrollo
curricular, SEP.
 Lic. Leopoldo García López, Federación Nacional de Asociaciones de
Padres de Familia de Escuela Públicas.
 Dra. Lucrecia Santibáñez, Fundación IDEA, A.C.
 Lic. Luis Barba, Comisión Nacional de Libros de Texto Gratuitos.
 Lic. Luis Carbajal, Comisión Nacional de Libros de Texto Gratuitos.
 Mtra. Marcela Santillán Nieto, Dirección General de Educación Superior para
Profesionales de la Educación, SEP.
 Dra. Margarita M. Zorrilla Fierro, Instituto Nacional para la Evaluación de la
Educación.
 Lic. Miguel Agustín Limón Macías, Comisión Nacional de Libros de Texto
Gratuitos.
 Dra. Patricia Ganem Alarcón, Consejo Nacional de Participación Social en la
Educación, SEP.
 Ing. Proceso Silva Flores, Dirección General de Evaluación de Políticas,
SEP.
 Mtro. Roberto Peña Reséndiz, Dirección General de Evaluación de Políticas,
SEP.
 Mtra. Rosalinda Morales Garza, Dirección General de Educación Indígena,
SEP.
 Mtra. Silvia Schmelkes. Universidad Iberoamericana.

Grupo asesor.
En 2010:
 Dr. Martín Carnoy. Profesor de Stanford University.
 Mtro. Pedro Ravela. Ministerio de Educación de Uruguay.
70

La C. Ana Maria Aceves Estrada Directora General de Evaluación de Políticas,


SEP encargada de este proyecto cuenta con estudios de Lic. En Computación
Administración por la Universidad del Centro de México en San Luis Potosí y
una maestría en Educación de FLACSO (Organismo Internacional), su
experiencia profesional en el Sector Educativo es en el área Directiva en la
Secretaria de Educación de San Luis Potosí.

El C. Director General Adjunto del Sistema de Evaluación de Política Educativa


es Lic. En Administración por la Facultad de Contaduría y Administración de la
UNAM y Mtro. En Desarrollo Urbano por el Colegio de México, cuenta con
experiencia docente en diversas instituciones de Educación Superior.

2.7 Las variables que condicionan y/o determinan la aplicación


y resultados de la prueba ENLACE.

El examen ENLACE es considerado como un gran logro académico y es para


otros un mero requisito para justificar la evaluación de la educación en México,
cabe mencionar que la prueba ENLACE es la misma que se aplica a un alumno
de algún colegio particular o público de la ciudad, que a un alumno de una
escuela rural en la sierra, se pude considerar discriminatoria para algunos
sectores de la población escolar (escuelas indígenas, cursos comunitarios, por
mencionar algunos).

La aplicación de la prueba ENLACE en la población escolar indígena de nuestro


país, no representa un instrumento de evaluación equitativo por las grandes
dificultades de los alumnos que hablan una lengua materna distinta al español,
requieren un nivel de comprensión del lenguaje castellano necesario para la
prueba ENLACE, también por la descontextualización de los cuestionamientos
71

con respecto a su entorno de vida. Al tratar de calificar la comprensión del


español y no dominarlo, no es posible calificar de manera eficaz y
eficientemente, el desempeño educativo de los niños que no hablan el español
de forma adecuada, resultando un tanto contradictorio llevar a cabo este
análisis.

En estos casos sería necesario que la SEP explicara para qué realiza una
prueba de este tipo en tales contextos socioculturales, si con anticipación saben
o deberían saber que los niños no pueden contestarla adecuadamente, porque
no conocen el idioma de manera correcta.

Si el objetivo es tomar estos resultados como base para evaluar y tomar


acciones sobre el desempeño de los docentes y alumnos sin contemplar
múltiples factores que inciden en las condiciones de la evaluación, están
cometiendo una injusticia, pues estos estudiantes se encuentran en una
desventaja de manera anticipada. Si lo que se desea es valorar el trabajo
educativo de este tipo de contextos, requiere otros métodos de evaluación
aparte de ENLACE, los cuales deberán ser adaptados y congruentes con el
entorno de vida de los alumnos a los que se pretende evaluar.

Las escuelas rurales no tienen las mismas condiciones y elementos para


resolver la prueba ENLACE, porque una gran mayoría de alumnos no acuden a
clases en forma regular, debido a que tienen que trabajar, ya sea atendiendo
labores del campo en la temporadas que los cultivos lo requieren, situaciones
de necesidades y carencias que tienen, otros para comercializar sus productos
en mercados locales, problemas de salud, situaciones derivadas de la pobreza
y la marginación, donde algunos niños llegan a desertar por los motivos antes
mencionados, lo cual está generando un rezago educativo.

La heterogeneidad en cuanto a las condiciones de las escuelas, de que se


aplique el mismo examen a alumnos de una escuela rural, una particular, una
72

de educación indígena o una escuela de la ciudad que posee una mayor


cultura, pero que tiene en contra la gran cantidad de alumnos, o que se aplique
a escuelas multigrado, crea por consecuencia que los resultados y las
comparaciones sean impropias, por tal motivo queda mucho por hacer en el
terreno de una evaluación equitativa y educativa

Ya que la finalidad es propiciar un cambio real sobre las diferencias en el


aprendizaje y evaluación de los contenidos educativos entre los diversos
estudiantes del país, y utilizar la prueba ENLACE como un elemento para
comprender mejor las circunstancias que viven a quienes se les aplica dicho
examen y así diseñar políticas públicas propias, se deben contemplar los
diversos factores mencionados y hacer las adecuaciones pertinentes para que
los educandos se encuentren en igualdad de circunstancias o se diseñen
exámenes adaptados a sus condiciones prevalecientes, puesto que sólo así se
podrán obtener resultados más o menos confiables.

De acuerdo con los estándares internacionales, la prueba ENLACE debe


cumplir rutinariamente con los siguientes abordajes:
 Estudio de la confiabilidad y error de medida de la prueba en su conjunto y
de las asignaturas por separado.
 Equiparación de la escala.

Opcionalmente, se plantean estándares con menor prioridad, que cubren:


 Estudios de intención de copia por parte de los sustentantes.
 Análisis dimensional de constructos por medios factoriales.
 Análisis del contexto.

La confiabilidad y error de medida


Se reportan los valores de confiabilidad de la prueba junto con el error de
medida. Por tratarse de una prueba de criterio, el error de medida es de
73

primordial importancia. Para valores grandes de M (generalmente se consideran


mayores de 30) se tiene que esta distribución se aproxima a la distribución
normal.

Si se resuelve la expresión para la media teórica que podría tener el


sustentante ante los reactivos, se llega a los intervalos de confianza dados por
la expresión:
s s
X – t 0.975 < m < X + t 0.975
M 1 M 1

En este intervalo donde se ha utilizado t 0.975 para definir el valor de t en 2.5% del
área para cada “cola” de la distribución, correspondiente al 5% de error o un
95% de confianza para la estimación de la media “real” del sustentante ante el
conjunto de reactivos.

Debe recordarse que se considera imposible poder aplicar todos los reactivos
posibles a un sustentante, por lo que se aplica una muestra y a partir de ella se
debe estimar el grado de dominio real. El error estimado para la medida del
sujeto es, por lo tanto:
s
t 0.975
M 1

Equiparación de la escala aplicada a las pruebas


Uno de los propósitos de la prueba es contar con elementos de comparación
anual entre las poblaciones a las que se aplica ENLACE respecto del mismo
diseño de prueba (o muy similar mientras no cambien las tablas de
especificaciones). Es comparable garantizando por medio de un esquema de
corrimiento bajo el modelo de teoría de respuesta al reactivo con tres
parámetros.
74

1. Condiciones para la equiparación. Se establece un esquema de equiparación


horizontal de los datos correspondientes a cada grado y materia. Por sus
características censales y porque las pruebas una vez aplicadas quedan en el
centro escolar, es necesario establecer un procedimiento de equiparación que
no dependa de reactivos comunes entre las pruebas de dos años consecutivos.

2. Diseño de equiparación. Cada año se construye una prueba paralela a la del


año anterior, que después de ser debidamente validada por jueces y sometida a
piloteo, es aplicada en forma matricial a una muestra controlada de la misma
población a la que se aplica la forma operativa de ENLACE.

Durante la fase de calibración se emplean conjuntamente los reactivos de la


forma A y los de todas las formas de pretest.

Al año siguiente, los reactivos de la forma de pretest (b1 a b6 en el gráfico)


conforman la forma operativa. Al año siguiente, se procede a la calificación de
los sujetos utilizando los parámetros de los reactivos obtenidos el año anterior.

3. Validación de la equiparación. La calidad del proceso de equiparación


depende de la estabilidad de las estimaciones de los parámetros de los
75

reactivos, es decir, se necesita la coincidencia entre el pretest y las


estimaciones obtenidas un año utilizando sólo los ítems de la forma operativa.
76

Detección y reporte del factor copia


Con la promoción de la cultura de la evaluación se incluye el respeto de valores
como la honestidad y el evitar que haya prácticas inapropiadas en la aplicación,
en particular la copia o el dictado de respuestas (pudiendo ser de parte de un
estudiante o de parte del mismo docente), lo que se ha denominado “factor
copia”. Como parte de las instrucciones para el aplicador se incluyen
advertencias que se combina con metodologías para la detección de copia por
medios estadísticos y por la revisión de los archivos de datos.

Por la forma de aplicación de ENLACE no se tienen elementos para probar que


hubo copia o el dictado de respuestas, pero se pueden identificar “intentos” de
copia o “copias potenciales”; para lograr tener una prueba se requiere contar
con el patrón de respuestas topográfico de los estudiantes en el salón de
clases. Se estableció que se consideraba copia si había al menos 30% de ítems
similares en la cadena de respuestas de dos personas.

Para ENLACE se emplean dos métodos de detección de copia al interior de los


grupos.
1. Método K-index: Se basa en la comparación de las cadenas de respuestas
de los alumnos al interior de un grupo y toma en cuenta las coincidencias de
las respuestas incorrectas de los alumnos al interior de cada grupo escolar.

2. Método de Diferencias. Se basa en la comparación de las cadenas de


respuestas de los alumnos al interior de un grupo escolar. Se obtiene para
cada alumno la cantidad de diferencias mínimas respecto a las respuestas
de otro alumno que aplicó el examen en el mismo grupo escolar.

Análisis dimensional de constructos por medios factoriales


Pertinencia de los ítems a la dimensión a medir. Se representan los ítems en el
plano dificultad-rpbis y se espera que los ítems se ubiquen lo más alto posible
77

en el plano dificultad-correlación punto biserial, para garantizar que los ítems


correlacionan con la dimensión a medir, lo cual se asocia con la validez del
instrumento. Los valores máximos de rpbis se ubican sobre una elipse.

Validez de escala. Se muestra la distribución de las dificultades de todos los


ítems para cada variable de la prueba del grado. Se calcula la Diferencia
Absoluta Media (DAM) de las dificultades observadas y teóricas de la prueba.

DAM=9.1%
La prueba tiene validez de escala si los ítems están uniformemente distribuidos,
en cuyo caso la Diferencia Absoluta Media (DAM) es menor o igual a 0.05 (es
decir, la diferencia no rebasa 5%). Los ítems se representan sobre una línea
recta para la distribución teórica y con puntos para los ítems observados.

DAM=1.53
78

Confiabilidad de las pruebas


Cada prueba se analizó para estimar la confiabilidad con el coeficiente de
consistencia interna alfa de Cronbach y con él se determina el error de medida.

Análisis del contexto


En la aplicación de la prueba ENLACE se tienen cuatro cuestionarios de
contexto, los cuales de manera directa contemplan las variables dependientes
que determinan la aplicación y condicionan los resultados de esta prueba
censal. Las variables que contemplan los cuestionarios de contexto son:
 Alumno.
 Padre o madre de familia.
 Docente.
 Director de la escuela.

Los cuestionarios de contexto fueron preparados por la DGEP. Con base en


otros cuestionarios previamente aplicados por la SEP. Una vez recogidos se
procesan (lectura y generación de una base de datos) para tener referencias de
cada alumno por escuela, nivel socioeconómico, etc.

El diseño de los cuestionarios de contexto no se ha documentado todavía, pero


debe ser motivo de un análisis muy similar al de la misma prueba, definiendo el
perfil a identificar, aspectos a inventariar, escalas necesarias para el desglose
de cada aspecto, etc. Estos datos en conjunto darían a la prueba el aspecto de
equidad en la lectura e interpretación de los resultados al permitir medir entre
iguales.
79

CAPÍTULO III
LA TEORÍA DE COMPETENCIAS Y LA PRUEBA ENLACE

El enfoque curricular por competencias se presta a confusión cuando no se


cuenta con los elementos teóricos que definan de manera precisa y clara qué
son, de dónde emergen, cómo se desarrollan, cómo se evalúan y qué es lo que
se busca mediante su aplicación.

El origen etimológico de la palabra competencia, en una primera acepción viene


del griego “agon” y “79gonistas” que está relacionada que decir rivalizar,
enfrentar para salir victorioso y ganar.

Una segunda acepción viene del latín, competeré del Siglo XVI, que quiere
decir que algo te compete, es del ámbito de tu responsabilidad, y que se utiliza
en el ámbito jurídico para delimitar las responsabilidades. Este concepto es el
que se utiliza actualmente cuando alguien, además de hacerse responsable de
algo, es capaz de resolverlo, es decir es “competente”.

Importante señalar que la educación utiliza el segundo, porque pretende que el


aprendizaje sea parte de la responsabilidad de quién aprende, pero además
que lo haga competente frente a las demandas, problemas y situaciones que
enfrentará a lo largo de la vida.

Las competencias se evalúan partiendo del concepto de que es un aprendizaje


integrado por elementos de las esferas de lo conceptual, lo procedimental y lo
actitudinal-valoral, que debe responder a una necesidad del entorno y
evidenciarse con un criterio de calidad o eficiencia, se puede inferir que la
evaluación de competencias es la recopilación de información, sobre la manera
en que el estudiante muestra o evidencia las competencias alcanzadas, a
través de desempeños observables, medibles y cuantificables, referidas al
80

programa o plan curricular, para que se emitan juicios valorativos sobre dichas
evidencias y se tomen decisiones educativas al respecto.

La evaluación por competencias requiere de instrumentos de evaluación


acordes, y que sean congruentes con los desempeños requeridos por el
programa de estudios, así como una exacta definición de los indicadores que
evidencian estos desempeños, y no solamente los que corresponden a la
cognoscitiva. Es necesario conocer y dominar una gama de instrumentos de
evaluación, tanto cuantitativos como cualitativos, para logra medir
verdaderamente las competencias.

Se podría considerar que las competencias se realizarían con referencia al


criterio (Criterial). La interpretación de resultados permite la ubicación de los
sujetos, centrándose en lo que los sujetos hacen o son capaces de hacer, en
lugar de tomar como referencia las conductas de otros sujetos o norma de
grupo. Popham que “señala que este tipo de evaluaciones se utilizan para
contrastar el estatus absoluto del sujeto con respecto a algún dominio de
conductas mediante determinación precisa y concreta de los rendimientos que
se pretenden alcanzar […y suponen…] la formulación férrea de estándares de
evaluación pertinentes que guían la tarea de determinar si un estudiante ha
alcanzado los niveles previstos o no” (B Popham).

Dentro del marco de la RIEB, la evaluación es sin duda uno de los temas que
desatan mayor polémica en el plano educativo y pedagógico. Sus implicaciones
involucran al sistema educativo, la institución escolar y el aula; que es el
espacio donde el trabajo docente sintetiza las intensiones de la evaluación,
porqué se evalúa, para qué se evalúa y cómo se evalúa.

Un cambio sustancial que propone la RIEB, es impulsar una estrategia


pedagógica donde la evaluación refleje los cambios en los procesos de
81

enseñanza aprendizaje, que continuamente remita al docente a revisar su


práctica con la finalidad de mejorar el aprendizaje de los estudiantes.

Asimismo la RIEB ha constituido un enfoque de evaluación que sitúa en atender


los diversos momentos que tiene el alumno en el proceso de desarrollo de un
aprendizaje. El aprendizaje se concibe como algo complejo en donde se
integran conocimientos y saberes, procedimientos intelectuales, un entramado
particular de actitudes, así como el desarrollo de múltiples destrezas
transversales que permiten articular cada campo formativo, las competencias
que se promueven en el plan de estudios, tanto las genéricas (vinculadas a su
formación humana) como las específicas (articuladas a los campos formativos o
a los temas transversales que articulan los mismos).

Es por ello que dentro de esta Reforma Integral de la Educación Básica, es


importante y esencial que el docente construya esquemas de evaluación que le
permita realizar una amplia gama de tareas, tales como: el desarrollo de
proyectos, la estructuración de portafolios, el trabajo por rúbricas o matrices de
desempeño, guías de observación, resolución de problemas en forma individual
o grupal, periódico mural e incluso, en algunas ocasiones exámenes, que
posibiliten una interacción entre diversos elementos: contenido cognitivo de un
campo formativo o sea conceptual, procedimental o actitudinal, con algún
referente concreto de la realidad que permita dar sentido y significado a la tarea
de evaluar.

Por lo anterior la RIEB en cuanto a la evaluación del aprendizaje se trata, ésta


invita al docente a que perciba dos temas:
a) Que la evaluación es concebida como un proceso formativo que se realiza en
todas las etapas del trabajo escolar y está estrechamente vinculada con las
acciones de aprendizaje, por lo cual es necesario construir instrumentos que
permitan registrar el proceso de aprender de un estudiante.
82

b) Que la evaluación adquiere sentido sólo en tanto se pueda vincular con


actividades significativas, que emanan de experiencias y situaciones que vive el
estudiante.

Como se puede apreciar, dentro de la reforma educativa, el desarrollo de las


competencias, la adquisición de habilidades y destrezas son el eje central de la
de la actual reforma de la educación.
 Las competencias relacionadas con el saber: utiliza los conocimientos
técnicos del alumno y de gestión. (SEP, 2009)
 Las competencias del saber hacer: maneja experiencia y el aprendizaje del
alumno.
 La competencia relacionada con el ser: resalta las aptitudes, actitudes,
comportamientos, personalidad y valores del alumno.

La prueba ENLACE se relaciona con las competencias del saber que son los
contenidos que se plantean en los diversos reactivos que se presentan, los
cuales van acorde a los planes y programas de estudio vigentes, donde se
plantean diferentes demandas cognitivas a los estudiantes, no sobra aclarar
que las demandas cognitivas planteadas corresponden a las que se prescriben
en los programas de estudio, los libros de texto y otros materiales oficiales, así
como a las indicaciones que la propia Subsecretaría de Educación Básica de la
SEP. Hizo a los evaluadores.

Pero no fomenta en el alumno las competencias del saber hacer, que es donde
utiliza y orienta la práctica, habilidad, experiencia y aprendizaje. Así mismo no le
permite que la competencia del ser, lo lleve a resolver el examen, es decir no se
le admite fomentar que sea competente de su propio aprendizaje.

Por tal motivo la prueba ENLACE carece de la mayoría de las competencias; se


podría considerar, que la aplicación de la prueba ENLACE no es adecuada para
83

evaluar competencias como lo plantea los actuales programas de estudio, ya


que ésta solo presenta lo que exige una sola respuesta correcta y se ve
impedido de tratar el ámbito de las actitudes que conllevan a usar el criterio
para valorar, ponderar y jerarquizar alternativas.

Los que elaboraron los reactivos de la prueba ENLACE no tomaron en cuenta la


teoría de las competencias, ni la Psicotécnica Pedagógica, ya que las preguntas
de las pruebas plantean diferentes demandas cognitivas de los estudiantes, y
con diferente grado de dificultad, son preguntas concretas y solo examina el
aprendizaje alcanzado en tres asignaturas, por eso no se debe generalizar los
resultados que ofrece. También se ve impedido el tratamiento del ámbito del
manejo de las actitudes que conllevan a usar el criterio para que el alumno
valorice, pondere y jerarquice las diferentes alternativas según como se pide en
los enfoques de los planes de estudio y programas.

No se establece una versión clara, concisa, sólida e incuestionable de los


reactivos, porque ENLACE solo presenta los contenidos que fueron
seleccionados por los propios elaboradores de los programas de estudio; por lo
tanto estamos hablando de un subconjunto de los contenidos presentados en
los programas.

ENLACE solo emplea preguntas de opción múltiple, en consecuencia, no puede


explorar aprendizajes cuya demostración implica la generación de un producto
o una ejecución practica y solo presenta la que exige una sola respuesta
correcta.

Se ha comprobado que el lenguaje que se utiliza en la construcción de un


reactivo tiene una influencia sustantiva en el resultado que obtiene quien la
resuelve, enfáticamente se concluye que las preguntas que se formulan no
tienen el mismo significado para las distintas clases sociales.
84

CAPÍTULO IV
ANÁLISIS SEMIOLÓGICO DEL TEXTO DE LA PREGUNTA
92

Das könnte Ihnen auch gefallen