1 / 76

GARANTÍA DE CALIDAD EN EDUCACIÓN

GARANTÍA DE CALIDAD EN EDUCACIÓN. Por SANTIAGO CORREA URIBE. El Desarrollo Social y Económico de las Naciones Está Íntimamente Ligado a la Calidad de su Sistema Educativo. Cuatro Pilares Deben Soportar la Estructura de Todo Sistema Educativo. a Saber: . Cobertura Equidad Pertinencia

tasya
Download Presentation

GARANTÍA DE CALIDAD EN EDUCACIÓN

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. GARANTÍA DE CALIDAD EN EDUCACIÓN Por SANTIAGO CORREA URIBE

  2. El Desarrollo Social y Económico de las Naciones Está Íntimamente Ligado a la Calidad de su Sistema Educativo

  3. Cuatro Pilares Deben Soportar la Estructura de Todo Sistema Educativo. a Saber: • Cobertura • Equidad • Pertinencia • Calidad

  4. COBERTURA • La Constitución política de Colombia define la educación superior como un bien público de orden cultural. • La educación básica (grado 0 a 9) será gratuita y obligatoria.

  5. EQUIDAD Garantizar el acceso a la educación a todas las poblaciones, particularmente a las menos favorecidas (sectores deprimidos, desplazados, grupos étnicos) población en situación de discapacidad entre otros.

  6. PERTINENCIA • Sobre la institución educativa se ejercen tensiones desde diferentes grupos sociales: • El sector productivo • El sector político • Las comunidades académicas • Las comunidades sociales en las que se inserta la IE

  7. CALIDAD Significado histórico: Aptitud o adecuación al uso

  8. CONCEPTO DE CALIDAD Satisface las necesidades y expectativas cuando: Seguridad que el producto confiere al cliente. Fiabilidad. Respuesta en caso de fallo.

  9. CONCEPTO DE CALIDAD Según la A. S.Q.C. Conjunto de características de un producto, proceso o servicio que le confieren su aptitud para satisfacer necesidades del usuario o cliente.

  10. CONCEPTO DE CALIDAD Según Peter Drucker. Característica de calidad: Propiedad de un P/S que contribuya a su adecuación al uso. Calidad de diseño: Adecuación de las características de calidad para la generalidad de usuarios. Calidad de conformidad: Fidelidad con que un P/S se ajusta a lo establecido.

  11. CONCEPTO DE CALIDAD Imposible de definir sin tener en cuenta al cliente. El concepto de calidad aplicado a la educación reviste una especial complejidad. No es posible allegar consenso en relación a ella.

  12. ESTABLECER CALIDAD DE UN PROGRAMA O INSTITUCIÒN Exige juzgar sus componentes sociales relacionados con: la legitimidad de sus interacciones con el contexto. La calidad de las normas y valores que rigen la vida institucional, la pertinencia de sus aportes a la solución de los problemas del país. Exige además remitirnos a elementos objetivos como: Adecuación a normas profesionales y académicas, disponibilidad de recursos idóneos, producción intelectual de sus académicos.

  13. POR ÙLTIMO Son imprescindibles los elementos subjetivos, simbolitos y estéticos que dan fuerza formativa a los actos educativos.

  14. CALIDAD DE LA EDUCACIÒN Referentes: El proyecto institucional “capacidad de hacer reales sus propias aspiraciones”

  15. Las necesidades formativas de las personas vistas desde una perspectiva universal, necesidades y expectativas del contexto social en que se desarrolla el proyecto.

  16. CALIDAD DE LA EDUCACIÓN INFRAESTRUCTURA INSTITUCIONAL MEDIOS Y PROCESOS SERVICIO CON CALIDAD DIMENSIONES CUANTITATIVAS DIMENSIONES CUALITATIVAS RESULTADOS ACADÈMICOS

  17. Garantizar la calidad del servicio educativo implica procesos permanentes de autorregulación y mejoramiento continuo resultados de procesos de evaluación institucional sistemáticos, que garanticen validez, confiabilidad y objetividad.

  18. EVALUACIÓN Determinación de la calidad de un proceso o actividad humana, sea ella económica, social, política o de cualquier otro orden. Es parte de un proceso y un proceso en sí misma. Dirigido conscientemente a determinar el logro de ciertos propósitos fijados con anterioridad.

  19. INVESTIGACIÓN Y EVALUACIÓN La evaluación es una ciencia social de gran actualidad cuyo ingente potencial no se discute. Pero que aún no ha llegado a su rendimiento óptimo. Se vale de los métodos, técnicas e instrumentos de la investigación social.

  20. INVESTIGACIÓN EVALUATIVA Tipo especial de investigación aplicado cuya meta es proporcionar información válida, confiable y objetiva, para la planificación de un programa, su realización y desarrollo, garantizando hacer mas preciso y objetivo el proceso de juzgar.

  21. ITINERARIO DE LA INVESTIGACIÓN EVALUATIVA A partir de Evaluación empírica hacia Evaluación sistemática Con la siguiente Periodización Utilizando las fases foucaultianas de Positividad Disciplina Ciencia Para analizar La evolución mundial Y la evolución en Colombia En sus tres etapas 1ª etapa 2ª etapa 3ª etapa 1ª etapa 2ª etapa 3ª etapa Y comentar La necesidad actual en El mundo Y Colombia

  22. ETAPAS DE LA EVALUACIÓN DE DISCIPLINA EN CONSTRUCCIÓN 50 - 70 DE PRESTACIÓN CIENTÍFICA 70 - HOY DE POSITIVIDAD 30 - 50 PREOCUPACIONES QUE HAN GUIADO EL DESARROLLO DE ESTA FORMACIÓN: • Finalidad o propósito. • Métodos o procedimientos. • Planteamiento epistemológico: Concepción del conocimiento, que se privilegia para definir métodos de acercamiento a la realidad del objeto evaluado.

  23. EVALUACIÓN • PRIMERA ETAPA: 1934 hasta finales de la década del 50. • PROPÓSITO: Comprobación logro de objetivos. • MÉTODOS: Cuantitativos.

  24. EVALUACIÓN • SEGUNDA ETAPA: Década del 60. • Desarrollos evaluativos impulsados por factores teóricos y políticos. • TEÓRICOS: Psicología cognoscitiva Evaluación por procesos • POLÍTICOS: Triunfo espacial soviético Sputnik – 1959 • Métodos cuantitativos y cualitativos. • Diseños experimentales y cuasi experimentales. • Estudio de casos. • Modelo de discrepancias. • Evaluación como juicio de expertos. • Evaluación formativa y sumativa. • Evaluación de semblanzas. (Stake)

  25. LA EVALUACIÓN COMO DISCIPLINA • Va de lo simple a lo complejo. • De propósitos particulares a una visión más integral. • De un enfoque único a una variedad creciente de enfoques. • Utilización de múltiples modelos alternativos dentro de cada enfoque. Campos que desde más temprano se han preocupado por la evaluación de su accionar. • EDUCACIÓN (Ralph Tyler, 1934) • SALUD

  26. EVALUACIÓN • TERCERA ETAPA: Década del 70. • Modelos alternativos dentro de los diferentes enfoques. • Consolación de comunidad académica. • Conformación de redes internacionales. • Publicaciones. • Foros y conferencias internacionales para intercambiar: temas, problemas, métodos, indicadores, estándares.

  27. PROPUESTAS DE EVALUACIÓN DE ACOGIDA MUNDIAL • 1971: MODELO C.I.P.P. - Stuffebeam • 1979: MODELOS POR OPOSICIÓN O EVALUACIÓN JUDICIAL - Wolf • 1983: MODELO DE ANÁLISIS DE NECESIDADES - Kaufman • 1994 – 1998: MODEL DE EMPODERAMIENTO - Fetterman

  28. LA EVALUACIÓN EN COLOMBIA • 1960–1970: Evaluación de escuelas, colegios, universidades (MEN-ICFES) • MODELO: Juicios de expertos. • ICOLPE: Programas de preparación de personal para evaluar diversos objetos, programas e instituciones. • ICFES: Utiliza modelos reconocidos de evaluación institucional. (Stufflebeam)

  29. LA EVALUACIÓN EN COLOMBIA • DÉCADAS DEL 70 Y DEL 80: Influenciadas por grandes proyectos. • Inem: 1973 – 1975, 1981 – 1982, 1984. • Universidades de Antioquia, del Valle y Javeriana introducen en las materias la evaluación institucional y de programas: 1975 – 1985. • Escuelas Normales: 1977 (pnud) • Proyecto de Educación Abierta y a Distancia: 1984 – 1987 • Renovación Curricular y Escuela Nueva: 1986 • Proyecto Unesco para América Latina y del Caribe (camina, plan de universalización de la E.B.P.): 1987 • DÉCADA DEL 90: • Autoevaluación y Acreditación: 1992

  30. LA EVALUACIÓN EN COLOMBIA • OTROS PROGRAMAS: • Programa: hogares populares del Icbf: 1978 • Instituto de seguros sociales: 1978 • Programa experimental de bibliotecas público – escolares de colcultura: 1979 • Programa desarrollo rural integrado – dri: 1979 • Programas educativos particulares: acción cultural popular, 1970 y sena, 1988 - 1989

  31. INVESTIGACIÓN EVALUATIVA PLANTEA PARADIGMA CUANTITATIVO PARADIGMA CUALITATIVO DETERMINAN ENFOQUES DE EVALUACIÓN QUE PUEDEN SER SEGÚN BRIONES SEGÚN RESTREPO ANÁLITICOS GLOBALIZADORES EVALUACIÓN GLOBALIZADORA EVALUACIÓN DE PRODUCTO CONFIGURAN ORIENTACIONES EVALUATIVAS TALES COMO EVALUACIÓN DE EXPERTOS EVALUACIÓN REFERIDA A OBJETOS EVALUACIÓN ORIENTADA A LA ADMON EVALUACIÓN ORIENTADA AL CLIENTE EVALUACIÓN PARTICIPATIVA EVALUACIÓN POR OPOSICIÓN MODELO DE STAKE MODELO DE R. TYLER MODELO JUDICIAL DE WOLF MODELO DE SCRIVEN MODELO CIPP, STUFFLEDEAM EVALUACIÓN ILUMINATIVA MODELO DE METFESSEL Y MICHEL EVALUACIÓN FOCALIZADA MODELO DE REFERENTES ESPECIFICOS DE BRIONES MODELO DE FETTERMAN MODELO DE SUCHMAN

  32. Principios filosóficos de la Evaluación Institucional Propósito: El propósito de evaluar es mejorar el funcionamiento del sistema. En el sistema educativo esto significa mejorar su enclave en la sociedad y por tanto garantizar la calidad de los programas en sus diferentes niveles y modalidades. Función: La evaluación tiene como patrón de funcionamiento la consciencia social. Si se carece de esta condición, la evaluación será restringida, unilateral y no procurará de una manera consciente el mejoramiento de la institución. Uso: Los resultados de la evaluación deben darse a conocer a todos los actores y ponerse a disposición del público. Fin: La evaluación debe orientarse y organizarse teniendo en cuenta que el punto final de ésta es la toma de decisiones. Toda la información recolectada tendrá siempre ese fin.

  33. Criterios Científicos de la Evaluación • Validez: La evaluación debe reflejar una correspondencia inequívoca entre la información y el aspecto de la realiza que se evalúa, lo que implica que en diseño de la evaluación: • Se elimine o controle la interferencia de variables extrañas (validez interna). • Se garantice que los instrumentos de medición midan lo que se quiere medir (todo lo que se quiere medir y solo lo que se quiere medir) es decir, haya congruencia entre los ítems que componen el instrumento y el objeto evaluado que se mide (validez de contenido de los instrumentos). • Las muestras de informantes, al sr representativas de la población, seleccionadas al azar y controlando factores ambientales ajenos, permitan cierto grado de generalización de la información (validez externa). • Confiabilidad: La evaluación debe ser consistente. Esto es, si los instrumentos se utilizan más de una vez para evaluar la misma realidad, los resultados obtenidos deben ser muy parecidos. • Objetividad: La evaluación debe minimizar las apreciaciones personales en el momento de emitir juicios valorativos, empleando instrumentos que recojan hechos verificables, de modo que, si distintos evaluadores aplican el mismo instrumento, obtengan resultados similares.

  34. Criterios Prácticos – Operativos de la Evaluación • Integral: De modo que comprenda todos los elementos e involucre todos los factores que intervienen en el programa o acción evaluada. • Participativa: Esto es que se vincule activamente los diferentes actores que intervienen en el programa o acción a evaluar. • Permanente: Ha de realizarse en forma continua, asociada al desarrollo del programa. • Acumulativa: Al considerar los resultados de evaluaciones previas, para determinar sus efectos sobre las sucesivas. • Auto – correctiva: Esto es, contempla mecanismo de ajuste de estrategias e instrumentos para futuras etapas del proceso de evaluación permanente. • Útil: En la medida en que contemple las aspectos más importantes en relación con los objetos evaluados (relevante) y que sea oportuna, de manera que proporcione a los diferentes niveles decisorios la información necesaria en el momento requerido. • Eficiente: Si obtiene un máximo rendimiento de los recursos disponibles (humanos, físicos, financieros).

  35. TABLA 1: ATRIBUTOS DE LOS PARADIGMAS CUALITATIVOS Y CUANTITATIVOS.

  36. MODELO CIPP DE STUFFLEBEAM

  37. MODELO CIPP DE STUFFLEBEAM

  38. GRÁFICA Nº 1. MODELO GLOBALIZADOR SIMPLIFICADO Obtención Decisión implementación Evaluación Proceso Suministro Identificación Evaluación de contexto Decisión Planeación Evaluación insumos Decisión estructuración Ensayo Evaluación Productos Decisión Reciclaje Tomado de: Stufflebeam y Col. Educational Evaluation. Decision Making. 1972. Terminación

  39. EVALUACIÓN SENSITIVA O MODELO E TRANSACCIONES DE STAKE

  40. Continuación

  41. GRAFICA Nº6 ESTRUCTURA OPERATIVA DEL MODELO STAKE INFORMES 12 11 1 Informes Finales. ANÁLISIS 10 Contactar staff. Clientelas y Audiencias. Escoger Formatos/Audiencias. Validar, Invalidar (Análisis y Valoración). 2 Establecer alcances del Programa. ORGANIZACIÓN 9 Tematizar, Preparar Semblanzas, Casos. TEORÍA Repasar Actividades del Programa. 3 Observar Antecedentes, Transacciones, Logros. Seleccionar Observadores, Jurados, Instrumentos. Descubrir Propósitos y Preocupaciones. 8 RECOLECCIÓN Identificar Datos Necesarios. Conceptualizar Objetivos y Problemas. 4 7 TOMADO DE: INVESTIGACIÓN EVALUATIVA SOBRE SITUACIÓN ACTUAL Y PROSPECTIVA DE LA FORMACIÓN ABIERTA Y A DISTANCIA EN EL SENA, RESTREPO, CORREA Y FLORES 1989. 5 6

  42. MODELO ORIENTADOR DE LA EVALUACIÓN (R. STAKE). ESTRUCTURA SUSTANTIVA. MATRIZ DESCRIPTIVA MATRIZ VALORATIVA (2) (3) INTENCIONESOBSERVACIONES CONGRUENCIA ANTECEDENTESANTECEDENTES (1) (4) CRITERIOS (ESTANDARES) ANTECEDENTES TRANSACCIONES LOGROS COMPARACIÓN ABSOLUTA ANÁLISIS DE LA CONTINGENCIA EMPIRICA CONCEPCIÓN DEL PROGRAMA ANÁLISIS DE LA CONTINGENCIA LÓGICA TRANSACCIONES TRANSACCIONES LOGROS LOGROS JUICIOS VALORATIVOS Tomado de: “Investigación Evaluativa sobre situación actual y Perspectiva de la formación abierta y a Distancia en el SENA”. COMPARACIÓN RELATIVA DATOS DE OTROS PROGRAMAS

  43. MODELO DE REFERENTES ESPECÍFICOS DE BRIONES

  44. Continuación

  45. GRAFICA Nº4 MODELO DE REFERENTES ESPECIFICOS DE BRIONES – ESTRUCTURA OPERATIVA. FOCO DE EVALUACIÓN Elección OBJETOS Elección VARIABLES Elección Aplicación del diseño metodológico: Descripción, medición. ESTADO DE VARIABLES NORMA Comparación simple, explicación JUICIO EVALUATIVO Informes para conocimiento de los diferentes Usuarios; recomendaciones para la toma de decisiones. TOMADO DE: BRIONES, G. EVALUACIÓN VOL. 4, BOGOTA 1985. DISEMINACIÓN

  46. GRAFICA Nº2 MODELO DE REFERENTES ESPECÍFICOS A. Objetivos Generales de Evaluación B. Especificación: Objetivos específicos de evaluación Contexto Objetivos del Programa (Pre – evaluación de base) Estructura Recursos Logísticos Funcionamiento Administrativo Funcionamiento de Mantenimiento Metodología y Medios Contexto de Interacción Población o Usuarios Grupo Técnico Resultados C. Características o variables Cuantitativas -- Objetivos -- Subjetivos Información o Indicadores Cualitativas -- Objetivos -- Subjetivos D. Análisis evaluativo: Descriptivo (Cuantitativo - Cualitativo) Comparación  Explicativo (Normas) E. Informes F. Decisiones G. Retroalimentación TOMADO DE: BRIONES, G. EVALUACIÓN DE PROGRAMAS SOCIALES, SANTIAGO, 1985.

  47. GRAFICA Nº3 MODELO DE REFERENTES ESPECÍFICOS DE BRIONES – ESTRUCTURA SUSTANTIVA - Contexto Población Programa Objetivos Recursos Referentes de evaluación Funcionamiento Resultados del Programa Información Toma de Decisiones TOMADO DE: BRIONES, G. EVALUACIÓN VOL. 4, BOGOTA 1985.

  48. EVALUACIÓN SIN OBJETOS PREDETERMINADOS DE SCRIVEN

  49. Continuación

  50. MODELO DE EVALUACIÓN FOCALIZADA DE PATTON

More Related