La búsqueda del borracho

En una calle iluminada por una única farola un hombre bebido está buscando su cartera. Lo hace en el pequeño cono de luz de esta farola solitaria, mientras el resto de la calle permanece a oscuras. Un policía de ronda nocturna se ofrece a ayudarle. Después de un rato de búsqueda infructuosa, el policía le dice: ¿está seguro de haberla perdido aquí? A lo que el hombre le contesta: No, no sé donde la he perdido, ¡pero es que este es el único lugar donde hay luz!

Esta es la llamada “búsqueda del borracho” [drunkard’s search], expresión introducida por el filósofo estadounidense Abraham Kaplan (1918-1993), de quien dicen que fue el primero de estudiar sistemáticamente las ciencias del comportamiento en su libro The Conduct of Inquiry (1964). [1] Parece que se inspiró en la historia del hombre que había perdido el anillo que explicaba Nasreddin Hodja (Nasruddin Hoca), pensador islámico que el siglo XIII se movió por las tierras que van de Anatolia a la Irán y Uzbekistán. [2] Por lo que he leído, el pensamiento sufí empleaba la historia corta, humorística y aparentemente absurda, para hacer reflexionar, para romper la forma de pensar habitual y liberarse de prejuicios, así como para satirizar la gente que se ilustra con fuentes extravagantes.

En el sentido que le da Kaplan, el concepto “búsqueda del borracho” hace referencia a la investigación que se centra en ámbitos seguros, de alguna manera “iluminados”, y que, al mismo tiempo, evita entrar en zonas “oscuras” donde sería más onerosa o arriesgada, tal vez inútil. La aportación de Kaplan fue aplicarlo a las investigaciones metodológicamente sofisticadas que exploran asuntos que tienen una importancia relativa, más bien escasa ―se podría decir una importancia meramente académica―, y que, a su vez, ignoran o desvían la atención de los ámbitos donde puede haber asuntos realmente relevantes. [3]

Como tal vez habrá adivinado la lectora o lector, una zona iluminada es un ámbito donde es posible, incluso sencillo, obtener datos cuantitativos. La “luz” que aporta la propia investigación hace que los datos “encontrados” se puedan presentar como objetivos, incluso indiscutibles. La calle oscura es el resto del espacio, son los ámbitos donde obtener datos sería costoso y difícil, tal vez imposible en relación con los medios de que se dispone. Una arraigada impresión mía es que esto ocurre con una parte de la investigación educativa que se realiza los últimos años, parte que, precisamente por sus características, es la que llega a los medios de comunicación en forma de artículos y de titulares más o menos escandalosos, que a su vez condicionan la opinión pública, la política y la visión social y profesional de la educación.

Para mí, el ejemplo más destacado es el proyecto PISA de la OCDE (Programme for International Student Assessment), programa de investigación creado con el objetivo de conocer la eficacia de los sistemas educativos en base las competencias lectora, matemática y científica de los alumnos de 15 años (últimamente se ha añadido la competencia financiera). Cada tres años se pasan unas pruebas a una muestra de centros y tras un largo proceso se publica un informe sobre el grado de consecución de estas tres “destrezas siglo XXI” en cada uno de los países participantes, comparando los resultados. PISA destaca tanto por la extensión geográfica (de unos pocos países participantes en la primera edición se ha pasado a la sesentena) y temporal (ya tiene dos décadas de tradición), como por la influencia desproporcionada que tiene en la sociedad y en el mundo que rodea la educación, pero no en la propia esfera educativa. (En mi vida me he encontrado en una única ocasión un inspector de educación que llevaba bajo el brazo un informe PISA anotado y subrayado.) En el ámbito más bien económicamente humilde de la investigación educativa, PISA destaca por la continuidad y la generosa financiación, no en vano son los Estados quienes deciden la participación de sus sistemas educativos.

Los resultados principales de PISA son tres escalas, una para cada competencia, donde se posicionan los países según el papel que han hecho sus estudiantes en las pruebas. Un artículo de hemeroteca publicado en el diario El Periódico, elegido casi al azar, proporciona un ejemplo ilustrativo de la clase de información que llega al ciudadano tras un estudio PISA, en este caso del año 2012. [4] No importa demasiado el año, porque la música, más o menos, es parecida. Transcribo el primer párrafo:

  • “La escuela española lleva al menos una década anclada en el mismo lugar, inmersa en una especie de limbo, en el que ni avanza ni retrocede. Los resultados del informe PISA 2012, la radiografía que cada tres años hace pública la Organización para la Cooperación y el Desarrollo Económico (OCDE) sobre los sistemas Educativos de 65 países, muestran que los estudiantes españoles de 15 años están prácticamente estancados en lectura, matemáticas y ciencias desde el 2003. En matemáticas incluso se ha retrocedido un punto en estos diez años. Y los siete puntos avanzados en lectura y los nueve en ciencias no suponen una mejora significativa. El resumen es que los alumnos españoles continúan por debajo de la media internacional en las tres materias evaluadas por el estudio.”

Este párrafo sirve para hacerse una idea básica de lo que proporciona PISA de cara a la opinión pública: puntuaciones que dicen poco sobre conocimientos ―casi se debería ser un especialista full-time para entender conceptos y detalles― y datos comparativos que centran la atención en si se ha subido o bajado en relación a informes anteriores y en la posición que ocupa en el ranking internacional. Así es como hace dos décadas Finlandia apareció en los telediarios, suscitando una gran excitación sobre la educación en ese país. Los medios también dan importancia a la proporción de alumnos que alcanzan “la excelencia” por sus altas puntuaciones y la fracción que está bajo mínimos en cuanto a niveles de competencia. PISA, como buen informe de “rendimiento” escolar, proporciona análisis extensos de las relaciones entre los resultados de las pruebas y varias variables de entrada, que van acompañados de un número ingente de tablas numéricas y de gráficos ilustrativos.

Todo ello es interesante en sí mismo ya la vez entretenido porque da mucho juego a la controversia, a las críticas y los posicionamientos de los agentes sociales y políticos. Así, los resultados del informe PISA de 2012 ―en que se refiere el artículo que he citado― fueron uno de los argumentos que usó el entonces partido en el gobierno estatal para justificar, a su manera, la necesidad de la LOMCE. Otro punto jugoso para la controversia, pero conceptualmente entristecedor, es el de las comparaciones entre territorios. En conjunto, sin embargo, insisto en que es mi opinión, de los datos y conclusiones no se obtiene una idea precisa de lo que habría que hacer para mejorar la educación del país en términos intrínsecos y positivos (es decir, sin hacer trampas, porque una manera de mejorar posiciones, por ejemplo, es tratar de excluir de las pruebas los alumnos que seguramente las harían peor).

Llegados a este punto parece oportuno hacer algunas consideraciones sobre la cuantificación. La finalidad de una tabla o un gráfico es condensar de manera compacta la información que representa una determinada realidad, ayudando a construir una imagen mental, sacar las conclusiones oportunas y servir de base para la acción. David F. Labaree (emérito de la Graduate School of Education de la Universidad de Stanford) dice que la cuantificación es una tecnología de la confianza, porque se presupone que describe la realidad de manera objetiva. [3] Un gráfico con las temperaturas de un paciente a horas fijas durante una semana sirve para conocer la evolución de la persona enferma en un determinado aspecto. Es útil como síntoma de que pasa algo, aunque de los datos no se puede deducir la naturaleza de la enfermedad, ni, por tanto, qué hay que hacer para recuperar la salud. El sector de la educación está saturado del equivalente a gráficas de temperaturas, de indicadores que proporcionan una cierta información pero que son insuficientes para saber qué le está pasando a los “enfermos” (presuntamente, los centros educativos), como sería necesario tratarlos y, sobre todo, qué deberían hacer ellos mismos para “curarse”.

La larga tradición de utilidad administrativa y de aceptación familiar y social de las calificaciones escolares demuestra que la cuantificación funciona bien como tecnología de la confianza: se confía en que quien establece las calificaciones refleja con objetividad el conocimiento del alumno. Las “notas” numéricas y textuales ―frases tipificadas que no cuesta demasiado asociar a magnitudes numéricas― aceptan en ausencia de una información mucho más amplia y detallada sobre los aprendizajes, información que, tal vez, el receptor no estaría en condiciones de asimilar ni el docente de elaborar o de reproducir de manera coherente.

Las familias están satisfechas cuando los hijos reciben puntuaciones altas porque inducen a creer que los aprendizajes van bien, lo que puede ser cierto, pero que ni mucho menos está garantizado. En vista del feed-back positivo, el mismo alumno tiende a asimilar conocimiento y puntuación. Quién no ha oído decir a un alumno, ¿porqué tengo que esforzarme más si he sacado una buena nota? De siempre ha sido mejor tener un 8 que un 5, aunque sería difícil saber qué representan realmente estos números en relación a los aprendizajes que pretenden caracterizar. Las puntuaciones bajas pueden ser objeto de contestación, pero generalmente también se aceptan, en este caso como indicadores de aprendizajes insuficientes o inconsistentes. En todas partes, y también en la escuela, los números son algo por el que vale la pena luchar. ¿Cuántos intentos no ha habido de convertir un 4 en un 5 por lo que representa en la trayectoria del alumno o en los planes de verano de la familia? ¿O de un 8 en un 9 para conseguir una beca?

La cuantificación es clave a la hora de describir y comunicar una realidad o situación. Aquí, la objetividad ―la aparente certeza que otorgamos a números, gráficos y fórmulas, como si fuera inherente― es el punto clave. Objetivo viene a ser sinónimo de real o realista, especialmente en contraposición a subjetivo, que se refiere a ideas y creencias que existen sólo en la cabeza de la gente. (Ahora menudo se oye hablar de evidencia más que de objetividad, especialmente por quién se considera iniciado, detentor o profeta). Objetividad es un término que levanta pasiones, como pocos otros. Normalmente no se define sino que se invoca con fines cómo influir y convencer al destinatario, desmentir o refutar, imponerse o protegerse, alabar o ridiculizar, afirmar la propia autoridad o criticar al adversario, iniciar debate o cerrarlo . También se invoca para engañar. ¿Quién no recuerda que hasta el colapso financiero de 2008 las empresas de inversión demostraban con sus tablas y gráficos “objetivos”, aparentemente tan serios, tener una situación financiera saneada, ante la credulidad general, también la de muchos especialistas? Simplemente, tenían el poder de imponer al público cuantificaciones que respondían a sus intereses (esto no es exclusivo de la economía pero no sigo en esta línea porque me desviaría). Sólo remarcar que cuantificar es una manera de ejercer un determinado poder, una realidad obvia que los docentes conocen sobradamente, aunque a pequeña escala.

En ámbitos científicos, la objetividad se asocia con saber las cosas tal como son realmente. Hay una especie de objetividad absoluta, más bien propia de los campos “puros”, en el sentido de no aplicados o relativamente distantes de aplicaciones prácticas, propio de las disciplinas que tienen un alto nivel de control de su propio trabajo intelectual y que dependen poco del contexto. Como señala el mencionado Labaree, si una profesión tiene suficiente coherencia interna y un estatus social alto, proclama el derecho a hacer pronunciamientos dentro de su dominio de experiencia sobre la base de su propia autoridad. Muy probablemente use números y cuantificaciones, que sin embargo son asuntos suyos, internos, que no tiene que ir exhibiendo para demostrar su autoridad. Los investigadores en genómica, matemática, física teórica o nuevos materiales, por ejemplo, no han de mostrar al público los datos que emplean en su trabajo, sino sólo enunciar los resultados o conclusiones a que han llegado y si acaso explicar sus objetivos y procesos.

Las profesiones y las disciplinas académicas más propicias a proporcionar números para apoyar sus aseveraciones son aquellas en las que el dominio de conocimiento es más aplicado, en el sentido de que depende de situaciones idiosincrásicas, dinámicas y variables, en contextos poco o nada replicables. En estos campos ―la investigación en educación es uno de ellos― como condición para ser aceptados, es necesario que los especialistas enseñen los números que utilizan y que se esfuercen por demostrar que sus aseveraciones son objetivas y generadores de consenso.

El historiador de la ciencia y del pensamiento estadístico Theodore Porter, de la UCLA (Universidad de California, Los Ángeles), que ha estudiado el desarrollo del significado cultural de la objetividad, lo dice de una manera un poco más brutal cuando afirma que “el nivel de adopción de la cuantificación por una profesión tiene relación directa con su debilidad.” Esta es una proposición contundente, pero que nadie se enfade. Lo único que hace Porter es señalar que tener que apoyar las proposiciones con cuantificaciones numéricas es en realidad ceder la autoridad final a otras personas, a saber, intérpretes, divulgadores, usuarios, y, especialmente, a los “compradores” o financiadores de la elaboración de estos números. [5]

Para cerrar esta divagación sobre la cuantificación y la objetividad, hay que añadir que la relación entre una y otra no se puede dar por supuesta de manera mecánica, por muy serio que sea el trabajo investigador y por notables que sean los medios empleados y las conclusiones obtenidas. Volvemos a PISA y en un par de artículos de prensa para ejemplificarlo.

  • “Informe PISA: España saca sume peor resultado en Ciencias y empeora en Matemáticas. Los alumnos españoles de 15 años han bajado 4,5 puntos en Matemáticas y hasta 9,5 puntos en Ciencias en el informe internacional PISA 2018 respecto al de 2015, situándose por debajo de la media de la OCDE en las primeras pruebas tras la implantacion de la Lomce.” [6]
  • “Falta de interés y cansancio en mitad de los exámenes finales: así explica la OCDE las ‘anomalías’ del informe PISA en España.” [7]

El primer párrafo establece claramente que en relación a España, el informe PISA 2018 no ha ido bien, conclusión por otra parte habitual. No la comento y me limito a destacar la excepción: los resultados de la prueba de competencia lectora no fueron publicados en diciembre de 2019 junto con los de matemáticas y ciencias, tal como era habitual. El segundo titular se refiere al porqué de esto. Los resultados de la prueba de lectura se retrasaron porque la OCDE indicó que no podía garantizar una comparación internacional correcta, básicamente porque las respuestas de muchos estudiantes fueron proporcionadas en tiempos increíblemente cortos, que no podían representar su verdadera competencia lectora.

Esto fue atribuido a la “tormenta perfecta del desinterés” –alumnos desmotivados e indiferentes a una prueba donde no se juegan nada– y también a problemas en la aplicación informática de las preguntas relativas a fluidez lectora, e incluso a deficiencias en la gestión de las pruebas por parte de las empresas aplicadoras. En cualquier caso, la función “termómetro” de PISA indica una bajada general de resultados respecto 2015, de modo que, tres años después, si uno de los objetivos de la LOMCE era precisamente mejorar en los rankings internacionales, el fracaso es sonado. A pesar de las aparentes garantías en cuanto a la recogida y el tratamiento de datos de un proyecto consistente y bien financiado, a pesar de los recursos metodológicos y el trabajo serio y de buena fe de mucha gente, la objetividad es un objetivo elusivo, incluso dentro de los parámetros de la propia investigación.

Sin embargo, esto no es lo más importante. Tal como explica Labaree, el asunto realmente de fondo es que al reducir la educación a cantidades los investigadores educativos han tendido a focalizarse en lo que pueden medir cuantitativamente en lugar de hacerlo en lo que es más relevante, lo que nos remite a la drunkard’s search, el título de este artículo. Contribuyen a dibujar mapas reduccionistas de una educación asimilada a un número limitado de magnitudes medibles, donde las personas, con sus ideas, intereses y acciones están mayormente ausentes.

Estos mapas tientan a policy-makers, administradores y tertulianos a considerar que son una adecuada y precisa representación de la realidad y a tomar, a partir de ellos, decisiones técnicas y políticas que entran en conflicto con la compleja realidad de los centros y de las aulas. Juzgar la educación por la vía de la cuantificación como base de la confianza es como construir una especie de tótem amenazador y seductor al mismo tiempo, conveniente para administradores y tecnócratas y bueno para articulistas y medios de comunicación, pero con pies de barro porque está lejos de lo que realmente importa: el trabajo que se hace en los centros educativos, cuyo trabajo es ignorado o menospreciado, al menos de facto.

Ahora estamos en condiciones de volver al leit-motiv de este post. Al respecto quisiera citar Henry Mintzberg, el gran teórico de las organizaciones humanas y gran desconocido en el ámbito educativo (por lo que he preguntado informalmente en algunas ocasiones deduzco que no es nada popular en nuestras facultades de educación –increíble). En un artículo corto Mintzberg señala que la economía va bien cuando las empresas van bien. [8] Para que esto sea posible, gobiernos y órganos reguladores nacionales e internacionales deben velar las condiciones que permiten una macroeconomía estable y una microeconomía competitiva.

Parafraseando Mintzberg en este sentido, podríamos decir que la educación va bien cuando los centros educativos van bien. Por ello, los gobiernos deben cuidar materialmente las organizaciones educativas (éstas no se pueden autofinanciar porque su misión no es hacer beneficios, ¡así es de sencillo!). Asimismo, gobiernos y organismos internacionales deben proporcionar marcos de referencia estables, que no estáticos. En mi opinión, una expresión compacta y suficiente de estos marcos sería orientar la escolarización a la cultura del alumno en sentido amplio, respetar el principio de subsidiariedad, favorecer la dimensión comunitaria y promover la rendición de cuentas inteligente, en un contexto de financiación suficiente. Mucho me temo que ni PISA ni la investigación cuantitativa no ayudan mucho a este respecto.

El sistema educativo genera un inmenso volumen de datos cuantitativos. En cuanto al rendimiento, la parte más notable proviene de las pruebas de competencias básicas que se hacen en diversos cursos de primaria y de secundaria a todos los centros desde la implantación de la LOE. La información que revierte en los centros sirve como toma de la temperatura, y esto es bueno en la medida en que se utilice para generar actuaciones específicas, tal como afortunadamente ocurre en algunos casos.

Organismos de evaluación y de estadística que trabajan en la “zona iluminada” recogen todo tipo de datos relacionados y elaboran indicadores que sirven para analizar el funcionamiento del sistema educativo. En consecuencia se dispone de informaciones relativas a asuntos como: alumnado que obtiene los diversos títulos académicos, que sigue el curso que por edad le corresponde, que no obtiene titulación o que abandona prematuramente; inserción laboral en estudios profesionales; nivel socioeconómico de las familias y del entorno de los centros; número de estudiantes por clase y ratios alumnado-profesorado; concentración de inmigrantes en las aulas y en los barrios; inventarios de equipamientos y de recursos tecnológicos; datos del tipo de entorno familiar y el nivel formativo de los padres, y, por supuesto, datos económicos tales como presupuestos educativos, gasto por alumno y porcentaje del PIB dedicado a educación, etc. En algunos países incluso se incluyen medidas psicométricas como el cociente de inteligencia.

Estos datos, que no requieren recursos desproporcionados para su adquisición y validación, son un paraíso para los investigadores y dan pie al tipo de investigación educativa y a los mapas del sistema que critica Labaree, que modelizan posibles relaciones entre el rendimiento académico y los datos que describen el entorno de la educación. Sin restarles relevancia ni interés, soy de los que piensan que estos estudios contribuyen a propagar una visión excesivamente mecanicista de la relación entre, por un lado, los resultados educativos, y, por otro, múltiples variables descriptivas del entorno y de los recursos destinados a la educación. Esto lo explica soberbiamente el gran psicólogo cognitivista David Olson, discípulo y heredero de Jerome Bruner, en su imprescindible libro Psychological Theory and Educational Reform: How School Remakes Mind and Society (2003).

Olson califica de actuarial esta visión de la investigación, porque la convierte en una permanente actividad de predicción de resultados a partir de datos cuantitativos de recursos y condiciones socioeconómicas, las conclusiones de la cual son en cierto modo tautológicas con la premisa: con más recursos y mejor distribuidos los resultados serían mejores. La investigación actuarial proporciona abundante material para debates de ideas y eventuales formulaciones políticas pero esconde de la escena otros factores realmente importantes que permanecen en la zona oscura. Por este motivo parece que sea más útil para la propia carrera profesional de los investigadores ―sometidos a un sistema universitario feroz, que exige publicar de manera constante― que para los propios centros educativos y profesionales de la enseñanza. El problema real no es obviamente la realización de estos estudios, sino que en ellos los centros educativos desaparecen de la escena, son como cajas negras que a partir de unos inputs numéricos proporcionan unos determinados outputs, también cuantitativos.

En términos humanos este enfoque es insatisfactorio, porque el denominador común de los inputs es que son ajenos a las personas. Ni alumnos ni docentes no pueden incidir en factores como el nivel socioeconómico y el capital sociocultural de la familia, la procedencia geográfica, la inmigración, el tamaño de los grupos y la ratio alumnos-profesores, los equipamientos y materiales, las horas de clase por materia , el gasto por alumno o el PIB gastado en educación, etc. Ninguno de estos inputs puede ser cambiado o obviado por las personas que conviven en centros, y como no pueden hacer nada, les son ajenos, aunque les condicionen. Por eso encuentro inadecuado modelizar rendimientos a partir de factores que no controla el centro educativo, ni el docente ni mucho menos el alumno.

Habrá quien piense que esta apreciación es errónea, inconveniente, incluso, impresentable, porque los números son necesarios para gestionar el mundo actual, lo que no niego, en absoluto. Sin embargo, de la simplificación que representa una investigación que no cuenta con las personas no parece que vaya a salir nada realmente provechoso y potente de cara al futuro. Además, va en detrimento de la personalidad y de la labor de los centros educativos, porque lo que llega a la ciudadanía y a los propios enseñantes es que la mejora de la educación es sólo una cuestión tecnocrática y de recursos económicos, correlacionada con la ideología y la voluntad política de los gobernantes y con las leyes que éstos imponen, y de ahí su uso en la controversia social y como munición política. Nada de lo que he dicho se opone a la legitimidad de requerir más dinero para la educación o de distribuirlo con criterios de equidad, pero ninguna mejora ni ninguna investigación que no cuente con la gente puede ser realmente útil. Las personas, individualmente consideradas, me refiero sobre todo a profesores y alumnos, tienen sus propios objetivos, intereses, creencias e intenciones, potenciales y limitaciones, a los que las explicaciones deben hacer en último término referencia.

La investigación que hoy en día se necesita debe contemplar los activos existentes en el interior de las organizaciones, a pesar de que puedan ser muy difíciles de determinar y categorizar, y en el cómputo de estos recursos se deben incorporar las capacidades de los individuos (docentes y alumnos) como instrumentos clave de mejora. También debe redefinir el ambiguo concepto de rendimiento. Ciertamente, hace falta más dinero, que será siempre bienvenido, sobre todo si se invierte con valentía y visión de futuro, evitando apuntalar rutinas heredadas y vicios del pasado. Pero también es necesario que la investigación vaya más allá de la dinámica actuarial y refleje la enorme importancia del compromiso, profesionalidad y dedicación del profesorado, de la importancia de implicar al alumno incorporando su voz y del carácter crucial de la organización interna y del ethos de la institución escolar. Son de factores de la zona oscura pero que hay que descubrir y poner en primer plano buscando todas las fuentes de luz alternativas que puedan ser necesarias.

Mintzberg decía que los economistas son como los meteorólogos, pueden tomar sus medidas y hacer algunas predicciones pero son incapaces de producir los cambios necesarios. Pienso que lo mismo se puede decir de una cierta investigación educativa. Sólo la investigación que tenga presente que un centro educativo es una comunidad de personas puede contribuir a materializar los avances reales y profundos que hoy en día se necesitan.

Gracias.

Ferran Ruiz Tarragó

@frtarrago

Referencias

[1] https://en.wikipedia.org/wiki/Streetlight_effect

[2] https://en.wikipedia.org/wiki/Nasreddin

[3] David F. Labaree (2010). The Lure of Statistics for Educational Researchers. Smeyers, Depaepe (eds.) Educational Research: The Ethics and Aesthetics of Statistics. Springer Science+Business Media B.V.

[4] La escuela española suma 10 años atascada en resultados mediocres.

[5] Theodore M. Porter (1995). Trust in numbers: The pursuit of objectivity in science and public life. Princeton University Press.

[6] https://www.lasexta.com/noticias/sociedad/informe-pisa-espana-empeora-matematicas-ciencias-primeras-pruebaslomce_201912035de61e210cf26cbccb7bb7d5.html

[7] https://elpais.com/educacion/2020-07-23/falta-de-interes-y-cansancio-en-mitad-de-los-examenes-finales-asi-explica-la-ocde-las-anomalias-del-informe-pisa-en-espana.html

[8] Henry Mintzberg (July 7, 2010). The Problem Is Enterprise, Not Economics. Huff Post Business.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s