Entrevista a Luis Alberto Gimenez Curto

En este número entrevistamos a Luis Alberto Giménez Curto, ingeniero,  profesor del Departamento de Ciencias y Técnicas del Agua y del Medio Ambiente de la Universidad de Cantabria.

EC | Madrid | Diciembre 2012

Luis Alberto Giménez Curto

PREGUNTA- Elige uno de los temas que hayas investigado. ¿De qué se trata?
RESPUESTA- El tema más importante en el que he trabajado es la identificación y estudio de las propiedades mecánicas de las estructuras de flujo no turbulentas que ocurren en el movimiento de fluidos cerca de contornos irregulares.
Este tipo de movimiento, muy común en la naturaleza (por ejemplo en los ríos, estuarios y playas, en el viento soplando sobre lechos arenosos, bosques o regiones urbanas, o sobre el mar generando oleaje) es muy complejo. Generalmente es turbulento, lo que le confiere una naturaleza esencialmente aleatoria, y sin embargo parece producir unas estructuras persistentes más allá de la turbulencia, que en el caso de lechos deformables se manifiestan en patrones muy regulares y estables (ripples, dunas, olas…). Mi trabajo ha consistido en encontrar un procedimiento formalizado (ecuaciones) para estudiar estas estructuras con rotación de naturaleza no turbulenta, y determinar sus propiedades mecánicas mediante un simple parámetro de escala.

P. ¿Por qué te interesó este problema?
R. Cuando tuve formación suficiente en Mecánica de Fluidos decidí trabajar en el campo del movimiento de sedimentos porque en ese campo había muy pocos resultados con validez indisputable, no existían modelos generales formalizados y el conocimiento era sobre todo de naturaleza empírica. Estaba, por tanto, muy abierto y presumiblemente se podrían obtener resultados nuevos más potentes y relevantes que en otros campos en los que se disponía de modelos muy formalizados y contrastados, ya muy explotados, y en los que la novedad relevante era poco esperable.
Pronto me di cuenta de que existían ciertas anomalías y resultados de la observación, que se manifestaban especialmente en casos de rugosidades o irregularidades de gran tamaño y que eran difícilmente explicables recurriendo solamente a las propiedades de la turbulencia. Era entonces necesario empezar por la construcción de un nuevo modelo para estudiar el movimiento de los fluidos sobre superficies irregulares.

P. ¿Cómo empezaste a trabajar en él?
R. El origen fue otro problema más concreto, la determinación de las condiciones bajo las cuales un fluido en movimiento es capaz de desalojar partículas granulares del lecho. Recopilé toda la información experimental relevante existente en la literatura y estudié las diferentes aproximaciones conceptuales que se habían intentado… Llegué a un punto en el que me convencí de que por los caminos abiertos previamente no era posible resolver el problema satisfactoriamente (quiero decir, creo, que no me parecía posible acercarme a la verdad del fenómeno hasta rozarla al menos). En este punto uno puede abandonar… o bien decide seguir adelante (voluntad) y entonces comienza una gran batalla asediando el problema y diseñando estrategias para abrir brechas en sus muros.

P. ¿Hubo algún momento en que algo se te ocurrió por casualidad (porque te llegó una revista, tropezaste con un nuevo método para resolver ecuaciones, un hecho experimental, etc.)?
R. Yo no lo diría así, creo que no hay casualidades en esto, sobre todo cuando se trata de problemas complejos que ya han sido investigados por mucha gente de gran talento. Se trata más bien de estudiar a fondo lo que han hecho otros previamente, recorrer los caminos que han intentado hasta poner claramente de manifiesto sus puntos débiles, y después buscar estrategias que sean capaces de eludir esos puntos débiles. En mi opinión, esto requiere mantener un esfuerzo muy intenso durante un tiempo prolongado, lo que te lleva a alcanzar una gran intimidad con el tema. El método es el único que funciona en las ciencias de la naturaleza, una mezcla de inducción y deducción… La información que posees, sugiere hipótesis que luego se comprueban y se someten a crítica deduciendo resultados que deben ajustarse a la observación. Una y otra vez…
Es posible que en este largo proceso haya momentos clave en los que aparezca una idea especialmente productiva, algo que abra una brecha… Es posible incluso que esta idea surja por una circunstancia casual, aparentemente externa. Pero cuando estás metido en ese proceso no hay ninguna posibilidad despreciable; vives en el problema y llegas a apreciar cualquier posible relación, por mínima o insignificante que parezca, que pueda existir con cualquier cosa del exterior. A veces, quizá misteriosamente, das con alguna idea que luego acaba siendo útil, pero yo no llamaría a eso casualidad.

P. ¿Por qué te dedicas a investigar, o a hacer ciencia?
R. Hasta hace algunos años estaba convencido de que tenía una vocación extraordinaria hacia la ciencia, de que alguna extraña fuerza que yo difícilmente podía controlar me empujaba a trabajar en ella… Pero ahora creo que no es exactamente así, sino que hay dos componentes. Por un lado hay, en el origen, cierta atracción por los logros de la ciencia moderna, esa gran creación del hombre capaz de explicar y predecir. Pero después interviene la voluntad. Tu mismo te vas metiendo poco a poco en un territorio desconocido y difícil, pero cuya conquista te hace sentir cercanía a la verdad; te vas acostumbrando a vivir en ese territorio, cada vez más seguro… y la costumbre crea hábito.

Entrevista a Leontxo García Olasagasti

Leontxo García Olasagasti es un conferenciante, presentador, comentarista y periodista español especializado en ajedrez. Leontxo opina que “en ajedrez, hay que buscar petróleo hasta en las posiciones más desérticas”.

 EC | Madrid | Noviembre 2012

Leontxo García
Copyright: Guadalupe de la Vallina/ Jot Down Magazine

PREGUNTA: ¿Cómo describirías la creatividad en un juego tan racional como el ajedrez?

RESPUESTA: La creatividad en ajedrez se puede dividir en dos tipos, científica y artística.

A) Científica: En el ajedrez de alto nivel, los primeros movimientos (entre diez y veinte, algunas veces incluso más) suelen hacerse de memoria porque corresponden a un trabajo casero de análisis que recuerda al principio de prueba y error de un científico. Un jugador analiza en profundidad las partidas conocidas con una misma apertura o defensa y busca mejoras del juego de las blancas o las negras. Cuando la encuentra, ha creado una «novedad teórica», que guardará en secreto hasta que tenga ocasión de aplicarla en una partida de competición.

B) Artística: Si aceptamos que arte es la creación de belleza, ésta en ajedrez suele ir unida, aunque no siempre, a las jugadas muy sorprendentes porque rompen los valores convencionales. Por ejemplo, sacrificar un caballo o un alfil (o incluso una torre o dama) por un ataque al rey muy fuerte. Otras veces la belleza puede ser geométrica, por los movimientos de gran impacto estético de alguna pieza. Por muy racional que sea el ajedrez, conviene tener en cuenta que el número de partidas distintas que pueden jugarse (diez elevado a la potencia 123) es mucho mayor que el número de átomos en el universo entero conocido (diez elevado a la 80); por tanto, el margen para la creatividad es inmenso. Este segundo tipo de creatividad es el que origina en el aficionado sensaciones parecidas a las de la Novena de Beethoven en un melómano.

PREGUNTA: Los programas para jugar al ajedrez son muy potentes.  ¿Se les puede aplicar el calificativo de «creativos»? En caso afirmativo, ¿cómo puede serlo una máquina que trabaja con reglas lógicas muy estrictas?

RESPUESTA: En cierto modo también podemos hablar de creatividad de los jugadores de silicio. Hasta hace unos 10-15 años, era impensable que sacrificaran material por la iniciativa o para potenciar un ataque; desde mediados del siglo XX hasta casi el año 2000, los ordenadores ajedrecistas eran pura fuerza bruta, cada vez más potente, y muy materialistas. Pero algunos programadores lograron entonces algo parecido a programar el sentido del riesgo, o que al menos causa esa sensación en el espectador: consiguieron dar un valor concreto a conceptos estratégicos abstractos (enroque desprotegido, piezas más o menos activas, casillas débiles…). En consecuencia, comenzamos a ver máquinas capaces de sacrificar uno o varios peones (o incluso una pieza) a cambio de un ataque a medio o largo plazo, lo que era impensable hasta entonces. Es decir, el estilo de algunos programas informáticos empieza a parecerse al de los grandes maestros humanos.

No es exagerado decir que en ajedrez empieza a cumplirse el Test que Alan Turing -padre de la informática y pionero en el ajedrez como campo de experimentación de la inteligencia artificial– formuló hacia 1950 (http://es.wikipedia.org/wiki/Test_de_Turing). En algunas partidas jugadas ahora por los mejores programas, yo soy incapaz de distinguir si el jugador es humano o de silicio, si no me avisan antes.

Por último, creo que también debe llamarse creativo el trabajo de los programadores a lo largo de la segunda mitad del siglo XX. Para una computadora es muy fácil entender que una dama vale 9 puntos, una torre 5, alfil y caballo 3, peón 1. Pero el ajedrez tiene muchas excepciones. Por ejemplo, una dama encerrada por sus propias piezas en un rincón del tablero no valdrá nueve puntos mientras esté encerrada; si en esa misma posición hay un caballo centralizado y casi inexpugnable, controlando casillas muy importantes, valdrá bastante más de tres puntos mientras esté ahí. Un niño ajedrecista de 7 años entiende eso en un minuto, pero han necesitado medio siglo para programar esos conceptos en una máquina que sólo entiende el lenguaje binario de ceros y unos.

Fuentes
– Foto portada: Liciencia Creative Commons: [jºSh]

La enciclopedia de los elementos del ADN (ENCODE)

Encode

El proyecto ENCODE se inició en el año 2003 para impulsar una colaboración internacional entre diferentes laboratorios,  con idea de identificar los elementos funcionales del genoma humano.

 EC | Madrid | Noviembre 2012

Encode
Portada del número especial sobre ENCONDE. Revista Genome Reseach. Septiembre de 2012

¿Existe realmente un “ADN basura” (junk DNA)? El genetista evolutivo Susumu Ohno utilizó este término para definir en 1972 al ADN que no tiene ninguna función biológica, que se encuentra en el genoma sin aportar características ventajosas o útiles al organismo portador, y que se va acumulando en el mismo, acumulación que en principio es tolerada, al menos hasta cierto punto. Este “ADN basura” incluye los llamados transposones, elementos o trozos de ADN que actúan como “virus informáticos” moviéndose por el resto del ADN, copiándose a sí mismos, dentro del genoma del huésped. Los genes en sentido estricto ocupan el 1% del ADN, que es el que codifica proteínas,  las unidades estructurales y funcionales de las células, sin las cuales no habría órganos ni otros componentes. El resto es ADN no codificante. Este ADN no codificante, en ocasiones, cumple una función reguladora de la expresión de los otros genes, sirven de “interruptores” o activadores de los mismos, por lo que puede estar relacionado con las enfermedades y por tanto ser objeto de investigaciones terapéuticas. Pero la mayor parte del ADN está formado por transposones, pudiendo ser meros parásitos, o puede que jueguen algún papel que aún se desconoce. El proyecto ENCODE se propone averiguar, entre otras cosas, si ese ADN no codificante tiene alguna función específica.

ENCODE es el acrónimo de “Enciclopedia of DNA Elements” (Enciclopedia de los Elementos del ADN). Se trata de un consorcio fruto de una colaboración internacional de grupos de investigación promovido por el Instituto Nacional de Investigación del Genoma Humano (NHGRI) del gobierno estadounidense, y que fue lanzado en septiembre de 2003. En este proyecto colaboran laboratorios de diferentes países, entre los que se incluyen el Centro de Regulación Genómica en Barcelona y el Centro Nacional de Investigaciones Oncológicas (CNIO) en Madrid. ENCODE busca identificar todos los elementos funcionales de la secuencia del genoma humano, incluyendo los elementos que actúan a los niveles de proteínas y ARN (ácido ribonucleico), y los elementos regulatorios que controlan las células y las circunstancias en las que un gen se activa. El proyecto comenzó con una fase piloto y una fase de desarrollo tecnológico. Las conclusiones de la fase piloto se publicaron en junio de 2007 en Nature y en Genome Research (genome.org).

Todos los datos recogidos por ENCODE son de acceso gratuito, pudiendo ser descargados y analizados libremente. En el proyecto han trabajado unos 442 científicos durante unos 10 años, estudiando mediante 24 tipos de experimentos diferentes un pequeño trozo de ADN en 147 tipos de células humanas diferentes. El 5 de septiembre de 2012 se publicaron simultáneamente diferentes resultados en 30 artículos en las revistas Nature, Genome Research y Genome Biology.

Roderic Guigó, bioinformático de la Universidad Pompeu Fabra de Barcelona, ha intervenido como responsable del grupo de análisis de ARN. El científico explicó al diario digital El Confidencial que las conclusiones del trabajo han permitido confirmar que la parte del ADN que cumple una función reguladora es más  importante de lo que se pensaba. Tras la publicación de los resultados, muchos anunciaron el fin del llamado “ADN basura”. Pero lo que sale a relucir de los datos publicados por ENCODE no es que todo el ADN que se ha denominado hasta ahora “basura” cumpla una función biológica, sino que se ha descubierto que buena parte del mismo, un 80% del genoma humano o puede que incluso más, tiene “funcionalidad bioquímica específica”, realiza algún tipo de actividad, que aún no se sabe si es realmente relevante para la célula.

Por otra parte, tras lo publicado, nos vemos obligados a redefinir el concepto de gen como unidad mínima heredada. El gen en la era post-ENCODE se definiría como “la unión de las secuencias genómicas que codifican un conjunto coherente de productos funcionales, potencialmente solapantes”. Esta definición hace hincapié en el producto funcional que se codifica (de ahí el uso de “coherente” para indicar que se trata de codificar una proteína o un ARN). Con esta definición es probable que se amplíe el número total de genes del genoma, pero al estar centrada en el producto final es más informativa de la función de cada gen concreto.

La publicación de los resultados de ENCODE ha llevado a muchos a concluir que estos han certificado el fin del ADN basura. Los científicos discuten sobre la conveniencia de utilizar o no este término para definir las grandes regiones del genoma cuya función se presupone inútil, pero que con el tiempo se puede descubrir que esa función existe. Una expresión muy similar, la de “ADN oscuro” (dark DNA matter), que se refiere a la parte del genoma cuya función, de tenerla, se desconoce.

Mientras que unos consideran que el “ADN basura” es estrictamente basura, no sirve para nada, otros consideran que éste cumple una función de algún tipo. Entre los que defienden la existencia de alguna función que por el momento no se conoce se encuentran los creacionistas (que consideran que existe un Diseñador Inteligente del Universo, y que este Diseñador no iba a fabricar algo que no tuviese alguna utilidad), y los partidarios del adaptacionismo extremo (que opinan que las partes no funcionales habrían sido apartadas por la selección natural). Científicos como T. Ryan Gregory se oponen a esta concepción del ADN, utilizando argumentos como el del “test de la cebolla”. ¿Cómo podemos explicar que una cebolla necesite cinco veces más ADN no codificante para alguna función que un humano?

Precisamente la “Enciclopedia de los Elementos del ADN” busca encontrar esa posible función desconocida de muchas de las zonas del ADN humano.

Fuentes
Encyclopedia of DNA Elements
The ENCODE Project: ENCyclopedia Of DNA Elements
Nature | Encode
The ENCODE Project Consistorium
El Mundo: Científicos de todo el mundo redefinen el genoma humano
Proyecto ENCODE: en qué consiste el último gran descubrimiento científico
UNAV: El Proyecto ENCODE
El proyecto ENCODE dice adiós al ADN “basura”: el 80% del ADN tiene funciones bioquímicas
FAQ: El Proyecto ENCODE y el supuesto fin del ADN basura
– Los “virus informáticos” del ADN
– Most of what you read was wrong: how press releases rewrote scientific history
– Junk DNA And The Onion Test
– Foto Portada. Licencia Creative Commons: mrHappy/flickr

Entrevista a Pedro Miguel Echenique

Pedro Miguel Echenique es Catedrático en Física de Materia Condensada en la Universidad del País Vasco. Ha sido profesor en el Cavendish Laboratory de Cambridge y en la Universidad de Barcelona. Recibió el Premio Príncipe de Asturias de Investigación Científica y Técnica en 1998. Es, además, Doctorado en Filosofía, en Ciencias por la Universidad de Cambridge y en Ciencias Físicas por la Autónoma de Barcelona. Fue Consejero de Educación del Gobierno Vasco entre 1980 y 1983, y posteriormente de Educación y Cultura (1983-1984). Actualmente preside el Donostia International Physics Center y es miembro destacado de muchas otras sociedades científicas. 

EC | Madrid | Septiembre 2012

Fotografía: Lamia

Pregunta. Ha conocido a muchos científicos… ¿Qué cree que les lleva a dedicar su vida a un trabajo que con frecuencia es ingrato y duro? Sin duda, el afán de conocer, pero ¿hay algo más? Investigar por investigar, sentirse estupendo, competir con los otros, tener un cierto poder, una mentalidad de alpinista teórico,…
Respuesta. En la pregunta se menciona, correctamente, a científicos. Es importante, pues no existe “el científico». Hay científicos, todos ellos muy diferentes, con distintos enfoques, habilidades afectos y motivaciones. El peso relativo de los diversos factores cambia a lo largo de la vida y no de una forma lineal, fácilmente predecible. Sí que creo, como Hardy, que, en general, los científicos poseen, en primer lugar, curiosidad intelectual, deseo de entender el entorno natural y a nosotros mismos. En segundo lugar, un orgullo profesional, el sentirse estupendo, como dice usted, por hacer las cosas bien, dominio de los aspectos técnicos de tu profesión. Esto es algo compartido con muchas profesiones, con artesanos por ejemplo, con deportistas, etc.
En tercer lugar, una variedad de motivos, deseo de poder, de superarse a sí mismo. La frase de Hillary al contestar a la pregunta de por qué hay que subir al Everest, “porque está ahí”, es acertada. La vanidad. Alimentar el ego. Finalmente, hay un aspecto que me gustaría resaltar y que con el tiempo aprecio más. Es el aspecto creativo de nuestro trabajo, y también las libertades de todo tipo que acarrea esto. El poder aportar algo nuevo es como una droga: engancha. Cualquiera que haya visto el primero  la solución a un problema, por pequeño que sea, y casi todos contribuimos de una forma muy pequeña, queda enganchado. Es el momento del descubrimiento. Siempre he pensado qué momento mágico debió ser cuando Crick y Watson ven la estructura de doble hélice del ADN y entienden que ello encierra el modo con que una generación transmite sus características a las siguientes: el “secreto de la vida”.

P. ¿Cuáles cree que son las principales “virtudes científicas”?
R. La creatividad y la tenacidad, junto a un optimismo racional, creer que los problemas tienen solución y que pensando continuamente sobre ello, se encontrará.

P. Cuando decidió dedicase a la ciencia, ¿hubo algún hecho, libro o persona que le influyera especialmente?
R. Siempre me gustó lo fácil que eran los exámenes de ciencias si se entendían los conceptos y cuanto más duras, aunque no menos atractivas, eran las letras pues necesitaban más tiempo para almacenar los conocimientos que luego usaba para entender. Tuve grandes profesores de Bachillerato en Ciencias y ellos fueron decisivos. Pero también los tuve en letras. A diferencia de muchos de mis estudiantes, ahora brillantes científicos, yo no tuve ninguna influencia de la televisión, revistas de divulgación, o de series míticas como la de Saga, por ejemplo.

P. ¿Cómo cree que se puede fomentar el interés de la infancia y la adolescencia por la ciencia?
R. Los niños, en mi pequeña experiencia que he vivido, tienen una curiosidad y creatividad innata. Hay que procurar mantenerla o por lo menos no destruirla. Los profesores ayudados por museos, televisión, etc., son claves para transmitirles la belleza de la ciencia, divirtiéndoles al principio y entusiasmándoles después. Se trataría de gradualmente ir transmitiéndoles que la ciencia no es un conjunto congelado de dogmas sino una aventura humana. Con una educación dirigida a formar y no sólo a informar. Educar no es un proceso como el engordar patos para producir foie gras. No sé cómo se puede lograr el tipo de educación que yo quiero. Hay formas de ayudar. Una que he impulsado es que tengan contacto desde jóvenes con personalidades que han contribuido de forma decisiva a la ciencia, que vean su pasión, la capacidad de despertar nuestra imaginación. Organizamos encuentros con ellos y suelen entrar asustados y salen entusiasmados. Hoy Internet, bien usado, otra vez los profesores son decisivos, puede ser un gran instrumento. En resumen, en mi opinión, lo más importante es que los profesores sepan transmitir lo hermoso y atractivo de la ciencia. Para ello tienen que estar bien formados y ser bien tratados económica, profesional y socialmente.

Los lugares creativos: Florencia , Silicon Valley, Menlo Park

El ser humano vive en grupos y está determinado culturalmente. El grado de inteligencia que exhibe la sociedad en que vivimos incide sobre nuestra forma de ser y de pensar. Vamos a fijarnos en casos históricos de sociedades inteligentes. Hemos rescatado tres momentos y lugares que, pese a las aparentes diferencias, guardan elementos en común que pueden servirnos de inspiración.

EC | Madrid | Julio 2012

Nuestro paisaje cultural afecta de forma directa a la forma en que las personas se imponen retos y desafían a otros a conseguir logros. El truco, por tanto, es esculpir una cultura que fomente el logro saludable y que pueda acoger diferentes tipos de personas y diferentes niveles de motivación.
«El genio que todos llevamos dentro»
D. Shenk, pg.155

Uno de los espectáculos más fascinantes de la naturaleza son los vuelos de estorninos. Estas aves forman bandadas de miles de individuos que se mueven al unísono creando formas espectaculares. Eso les permite protegerse de depredadores, mantener el calor e intercambiar información. Sus acrobacias aéreas son un alarde de interdependencia y colaboración. Toda la bandada participa, pero existe una estructura implícita: los pájaros más fuertes controlan la dirección. Pero la nube no es inmutable, el liderazgo cambia de forma continua y dinámica, cada vez que aves individuales asumen la responsabilidad. Sin tratarse de seres dotados de inteligencia, dejan traslucir una especie de organización emergente.

También nosotros vivimos en sociedad; las personas no somos entes aislados. De la suma de las inteligencias individuales surge una inteligencia compartida que, a su vez, influye sobre la inteligencia personal. El desarrollo de nuestra inteligencia depende de la riqueza del entorno. Pensamos a partir de una cultura, por lo que las características de esa cultura afectarán a la forma de ser de sus ciudadanos.

La importancia del entorno es decisiva. La historia está surcada por momentos de explosión cultural y científica. Y esas grandes innovaciones no se daban en cualquier parte, sino en lugares concretos. Las ciudades han sido motores de innovación desde el ágora ateniense, pero ¿por qué surgen de repente movimientos artísticos o innovadores en lugares y momentos específicos?

La Florencia de los Médici contempló una colosal explosión de talento. La valoración de la actividad artística, el afán de ser superior a otras ciudades italianas, el interés de los políticos en proteger las artes y en atraer a los artistas, la rivalidad entre ellos, la mezcla de aprendizaje mutuo y anhelo de superación, y, sin duda, la espléndida financiación de estas actividades, dieron lugar a ese deslumbrante periodo de la historia artística.

El Renacimiento Florentino es el ejemplo perfecto de esta cultura de la sana competencia. No solemos prestar mucha atención al proceso humano que existe detrás de las grandes creaciones, pasando por alto una lección central de los logros: que tienen su origen en la competición. En el caso italiano, fue célebre la rivalidad entre Leonardo y Miguel Ángel. “Ningún ser humano es una isla. En su esencia, la humanidad es una empresa social y competitiva. Aprendemos los unos de los otros, compartimos unos con otros y de forma constante nos comparamos y competimos por el afecto, el éxito y los recursos” («El genio que todos llevamos dentro» D. Shenk, pg.150). Artistas y mecenas competían entre sí por las mejores ideas y las obras más perfectas. Los certámenes artísticos eran habituales, desde que en 1400 el gremio de comerciantes de Florencia lanzara un concurso para construir una nueva puerta para su famoso baptisterio. La ciudad atravesaba una etapa de esplendor económico y estaba en pleno proceso de expansión. Las innovaciones artísticas de Florencia fueron efecto de la concentración urbana. No sólo había competitividad entre los artistas, también un enorme intercambio de técnica e invención. Leonardo, Miguel Ángel, Rafael y Tiziano, entre otros, aprendían, se copiaban, criticaban, enfrentaban, superaban y admiraban entre sí. Cuando Brunelleschi descubrió la geometría de la perspectiva lineal, desencadenó un torrente de genio artístico: transmitió sus conocimientos a su amigo Donatello, quien los incorporó a los bajorrelieves, y su amigo común Masaccio los aplicó a su pintura, en uno de los momentos más decisivos de la Historia del Arte.

“La Florencia de los Médici contempló una colosal explosión de talento. La valoración de la actividad artística, el afán de ser superior a otras ciudades italianas, el interés de los políticos en proteger las artes y en atraer a los artistas, la rivalidad entre ellos, la mezcla de aprendizaje mutuo y anhelo de superación, y, sin duda, la espléndida financiación de estas actividades, dieron lugar a ese deslumbrante periodo de la historia artística”.

«Las culturas fracasadas», J. A. Marina, pg. 31

Avanzamos cuatro siglos y saltamos al nuevo continente, en plena época de los pioneros. Por las inabarcables extensiones de los jóvenes Estados Unidos, bullía un ambiente de pragmatismo, experimentación e innovación técnica, que fue el caldo de cultivo de una de las figuras más emblemáticas de la Historia: Thomas Edison. Inventor infatigable, sacó de la nada y levantó con sus propias manos el primer laboratorio de investigación industrial de América. Su laboratorio de Menlo Park, un solitario pueblo de Nueva Jersey, funcionaba como un Silicon Valley de su tiempo: sus laboratorios y empresas incubaban nuevas tecnologías y se ramificaban sin cesar.

Edison quería dedicarse a las invenciones prácticas, desarrollando sus propias ideas y encargos de empresas públicas y privadas, con el fin último de comercializarlas. El laboratorio abrió sus puertas en 1876, con el objetivo de crear un sistema que pudiera producir “objetos útiles que todo hombre, mujer y niño del mundo desee y a un precio que pueda pagar”, de acuerdo con Mathew Joshepson, (Edison: A Biography, citado por Richard Florida en El gran reset, pg. 32). En sólo una década, el laboratorio se transformó en una gigantesca fábrica de inventos, con grandes edificios, mucho personal técnico y profesional, equipos de investigadores, recursos bibliográficos, herramientas mecánicas, instrumental científico y material eléctrico. Edison fusionó el tradicional taller con laboratorios eléctricos y químicos, y pasaba rápidamente de la investigación y la experimentación al desarrollo comercial de los productos.

“El innovador tiene necesidad de aliados que le apoyen. Edison, para conseguir la innovación en la electricidad, se rodeó de otros científicos de renombre, creó Menlo Park e invitó a otros innovadores y emprendedores. No es un artesano de genio, es un organizador, un emprendedor, un estratega, un experto en relaciones públicas y su máximo genio era la capacidad para pasar de un papel a otro y representarlos con la máxima eficacia

Gérald Gaglio, «Sociologie de l´innovation», pg. 37

El valle más famoso del mundo

Hace un siglo, el condado de Santa Clara, California, no era más que una extensión de huertos y granjas. Sin embargo, esta comunidad agrícola llegó a ser la sede mundial de la tecnología: Silicon Valley. ¿Cómo accedió a esta posición privilegiada? Porque el senador Leland Standford, magnate del ferrocarril, invirtió su fortuna en educación: decidió construir una universidad en su granja de 3.200 hectáreas. Fundar universidades, como criar caballos, era una forma más que tenían los millonarios de la época de gastar su dinero. En su inauguración en 1891, el senador declaró que “la vida es fundamentalmente práctica, y estáis aquí para formaros con vistas a una educación provechosa” (Elliot, Standford University, citado por Edward Glaeser en El triunfo de las ciudades, pg. 49). Buscaba líderes comprometidos con el mundo real y con la difusión del conocimiento útil.

Poco a poco, las empresas de tecnología prosperaron en torno a la universidad, centrándose en un primer momento en la transmisión eléctrica de la voz y la radio. Una de las primeras fue la Federal Telegraph Corporation, que atrajo talento y allanó el camino a industrias emparentadas.

Frederick Terman es un nombre clave en los orígenes de Silicon Valley. Formado en el MIT, regresó a Palo Alto con el anhelo de convertirlo en el centro de la industria informática. Ideó la creación de un parque industrial en las inmediaciones de la universidad. Recordemos que esta era en su origen una vasta granja, lo que sin duda fue ventajoso dada la cantidad de terrenos disponibles alrededor. Buscó arrendatarios y empresas y los convenció para que se trasladaran allí. Además, muchas de las personas que acudían a Silicon Valley, acababan fundando sus propias compañías. Todo estaba conectado, creando el clima ideal para el crecimiento innovador. El mundo de la informática llegó con Intel, y tras él, Cisco, Sun Microsystems y, por supuesto, Apple Computer. La de los 90 fue su edad dorada: Yahoo, eBay, Google… todas ellas fundadas por licenciados de Standford y desarrolladas en Palo Alto.

La clave de Silicon Valley, al igual que la de Florencia y Menlo Park, es que atrae a individuos brillantes y dotados, y los relaciona entre sí. La cercanía geográfica contribuye a hacer circular la información. El legendario café Walker’s Wagon Wheel, fue el epicentro en que empresarios e informáticos intercambiaban libremente sus ideas fuera del trabajo, dando lugar a incesantes nuevos proyectos

Las ciudades prosperan cuando en ellas abundan las pequeñas empresas y los ciudadanos con formación. De lo bien que asimilemos las lecciones que nos enseñan nuestras ciudades, dependerá la prosperidad de nuestra especie.

Como todas las ciudades exitosas, la fuerza de Silicon Valley reside en su capital humano, que se alimenta en la Universidad de Standford y se retiene por las oportunidades económicas. Palo Alto posee unas instituciones educativas excelentes y no cesa de invertir en escuelas y universidades. Sólo el 22,2% de los residentes mayores de 25 años carece de título universitario.

Como todas las ciudades exitosas, la fuerza de Silicon Valley reside en su capital humano, que se alimenta en la Universidad de Standford y se retiene por las oportunidades económicas. Palo Alto posee unas instituciones educativas excelentes y no cesa de invertir en escuelas y universidades. Sólo el 22,2% de los residentes mayores de 25 años carece de título universitario.

Fuentes
El triunfo de las ciudades. Edward Glaeser. Taurus, Madrid 2011
Edison. Fritz Vögtle. Salvat Editores, Barcelona 1994
El gran reset. Richard Florida. Paidós, Barcelona 2012
Las culturas fracasadas. José Antonio Marina. Anagrama. Barcelona 2010
El genio que todos llevamos dentro. David Shenk. Ariel, Barcelona 2011
Macrowikinomics. Don Tapscott y Anthony D. Williams. Paidós, Barcelona 2011
Sociologie de l´innovation, Gérald Gaglio. PUF, París 2011.

Manual de inteligencia colectiva del MIT

En este número estamos estudiando los fenómenos del talento compartido, que surgen de la interacción de inteligencias individuales. Vivimos integrados en grupos: la pareja, la familia, la empresa, la comunidad de vecinos, la sociedad civil… Estas comunidades no son un simple agregado de inteligencias individuales. La manera de organizarse, el sistema de comunicación que se establezca entre ellas, los apoyos o los obstáculos que el grupo proporciona afectan a las inteligencias individuales.

EC | Madrid | Junio 2012

La inteligencia de los grupos puede mejorar o empeorar los resultados individuales.

Con idea de reunir la información existente sobre este fenómeno, y profundizar en él, el Centro MIT para la inteligencia colectiva ha puesto en marcha un manual de inteligencia colectiva, estructurado como una wiki (una colección de páginas on-line, editables por sus lectores). Para los promotores de esta iniciativa, se trata de que investigadores y personas de todo el mundo contribuyan a crear sus contenidos, convirtiendo la elaboración del manual en un ejemplo de la inteligencia colectiva que trata de investigar. El manual tiene la intención de proporcionar un marco conceptual para todo el campo de la inteligencia colectiva. Está dirigido tanto a especialistas como al público en general, por lo que intenta que el material esté escrito de una manera comprensible para una audiencia general muy amplia.

El Manual de Inteligencia Colectiva está estructurado como una wiki, convirtiendo su elaboración en un ejemplo de la inteligencia compartida que trata de investigar.

Lo primero que intentan los que han puesto en marcha esta iniciativa es explicar la razón por la que se considera importante en estos momentos estudiar la inteligencia colectiva. La inteligencia colectiva es un fenómeno que se produce desde que los humanos interactúan entre sí. Incluso algunos animales, desde determinadas perspectivas, actúan de maneras que pueden ser vistas como colectivamente inteligentes. Actualmente, con la emergencia de las nuevas tecnologías de la información y las posibilidades que éstas ofrecen, se están multiplicando las colaboraciones entre personas o grupos de personas a lo largo del planeta. Es por tanto más importante que nunca para sus autores entender la inteligencia colectiva a un nivel profundo, para que podamos crear de manera más eficaz y aprovecharnos de estas nuevas posibilidades. El manual trata de apoyar este proceso.

Los autores parten, para trabajar en el manual, de una definición de inteligencia colectiva: grupos de individuos haciendo cosas colectivamente que parecen inteligentes. Utilizan la definición de la inteligencia del diccionario on-line de Merriam-Webster, definiéndola como:

  • la habilidad para aprender o entender,
  • ocuparse de situaciones nuevas o difíciles,
  • la diestra utilización de la razón,
  • la habilidad para aplicar el conocimiento para adaptarse al propio medio.

Y definiendo a su vez la inteligencia colectiva como:

  • grupo o grupos de individuos haciendo cosas colectivamente que parecen independientes,
  • grupos tratando situaciones nuevas o difíciles,
  • grupos aplicando el conocimiento para adaptarse a un ambiente que va cambiando.

En el manual se estudian ejemplos de inteligencia colectiva, en distintos campos: organizaciones de negocios, inteligencia artificial, biología, trabajo colaborativo soportado por ordenador, mercados de predicción, una taxonomía de la inteligencia colectiva (la clasificación en categorías).

Los autores tratan la medición de la inteligencia colectiva y los factores que la afectan, entre los que se encuentran el tipo de tarea, el liderazgo en equipo, el entrenamiento o el brainstorming (lluvia de ideas).

Se estudia en el manual la conciencia como una medida de la inteligencia colectiva. La conciencia sería la habilidad para ser consciente del entorno y de nuestra presencia en él, y la inteligencia colectiva se sirve de esta habilidad para interactuar con el entorno. La llave sobre cómo la inteligencia colectiva realza la conciencia es la sinapsis. La definición sobre sinapsis de la que se parte en el manual es la de cualquier punto en el que los datos cambian el medio en el que son codificados.

En el manual se ofrece una lista de factores que facilitan la inteligencia colectiva y de factores que la inhiben, desde diferentes perspectivas, como lista de trabajo. Entre los factores que facilitan la inteligencia colectiva están, por ejemplo, la diversidad, el aprendizaje, o la conciencia; entre los factores que la inhiben se encuentran los prejuicios o los fallos de mercado, entre otros.

En relación con las diferentes perspectivas en la inteligencia colectiva, una forma de integrarlas es identificar los atributos o conjunto de atributos (cómo cada uno traza el mapa de los componentes genéricos que son comunes en la inteligencia colectiva), y las contribuciones específicas de la disciplina: los conceptos-clave relevantes y teorías. El manual recoge una tabla que contiene ejemplos de ambas perspectivas.

¿De qué manera está organizado el manual? En el manual, además de la página principal, que contiene el marco fundamental más los links a otros documentos que lo complementan, existen otras páginas que tienen un desarrollo bastante completo, a las que se llega a partir de los links señalados. Las que son desarrolladas son las siguientes:

  • ejemplos de inteligencia colectiva,
  • perspectiva de la informática y de la inteligencia artificial en la inteligencia colectiva,
  • perspectiva de la biología en la inteligencia colectiva,
  • la perspectiva del trabajo colaborativo soportado por ordenador en la inteligencia colectiva,
  • la perspectiva de la predicción del mercado en la inteligencia colectiva,
  • una taxonomía de la inteligencia colectiva,
  • perspectiva socio-psicológica de la inteligencia colectiva
  • perspectiva de la neurociencia cognitiva en la inteligencia colectiva,
  • perspectiva de la teoría de la organización en la inteligencia colectiva,
  • perspectiva económica en la inteligencia colectiva,
  • perspectiva de la filosofía política en la inteligencia colectiva,

Existen links numerados que remiten a artículos de diferentes autores en los que se profundiza sobre lo tratado. Se accede a través de estos links a CiteUlike, una base de datos con referencias bibliográficas, en la que, junto a un breve extracto del contenido del artículo, se señalan las webs en las que se pueden adquirir estos artículos. También se utilizan algunos links numerados para remitir a las webs de organizaciones de negocio que ponen como ejemplo de inteligencia colectiva. Otros links conducen a páginas webs variadas, relacionadas con los temas tratados (por ejemplo, links de empresas e instituciones citadas).

Algunas partes del manual han sido poco desarrolladas, como la que habla de la conciencia como medida de la inteligencia colectiva. Otras han sido objeto de un mayor desarrollo.

James Surowiecki, en su libro «Cien mejor que uno», sostiene que no hay que ir a la caza del experto, sino consultar a la multitud. Tenemos muchas posibilidades de que ella sepa.

Al utilizar la estructura de una wiki, que permite la colaboración de un número enorme de personas, los promotores de la iniciativa intentan conseguir que un grupo de personas que no tienen por qué ser extraordinarias produzcan resultados extraordinarios. James Surowiecki, en su libro «Cien mejor que uno. La sabiduría de la multitud o Por qué la mayoría es siempre más inteligente que la minoría», (Ediciones Urano, 2005) sostiene que no hay que ir a la caza del experto, porque eso es una pérdida de tiempo y muy costosa para más señas. Lo que debemos hacer es dejar de buscar, y consultar a la multitud (que, por supuesto, contiene tanto a los genios como a todos los demás). Tenemos muchas posibilidades de que ella sepa.

Enlaces de interés
Manual de inteligencia compartida (MIT)
Wiki de «Manual de inteligencia colectiva»

El fenómeno Wiki

¿De dónde sale y qué significa? La palabra «wiki» se ha instalado cómodamente en nuestro vocabulario. Vamos a investigar en qué consiste, por qué está tan de moda y cómo puede aplicarse a la educación. Para ello, nos fijaremos en su mayor exponente: la Wikipedia.

EC | Madrid | Junio 2012

“Wiki” es un término hawaiano que significa “rápido”. El propio sonido de la palabra transmite esa sensación de rapidez, dinamismo y sencillez: las principales características de esta herramienta tecnológica que ha revolucionado la sociedad de la información. Wiki es sinónimo de colaboración, es el vehículo de la Inteligencia Colectiva.

Colaboración que se produce de manera inmediata y con un procedimiento muy sencillo, al alcance de prácticamente todos. Una wiki es un “espacio abierto” donde varios usuarios pueden crear y editar contenidos, facilitando la participación y el acceso al trabajo compartido en tiempo real. Un sistema de gestión en que puede intervenir cualquier internauta. Por eso potencia la Inteligencia Colectiva.

“Wikizaje”

Las wikis se han convertido en un elemento clave de la educación. Son un magnífico instrumento de aprendizaje. Su valor no reside en su uso en sí; no se trata de hacer con un ordenador tareas que antes se hacían en el cuaderno, sino que gracias a las wikis, el alumno puede:

La primera wiki nació en 1995, como una base de datos. Para conocer detalles sobre su origen y los entresijos de su funcionamiento, podemos consultar el siguiente enlace, que en 12 pantallazos expone la historia de esta herramienta:

ir a Wikilearning

  • leer, pensar y reflexionar
  • escribir
  • interactuar con el trabajo de los demás
  • investigar, buscar y contrastar información
  • desarrollar el pensamiento crítico
  • compartir
  • dar a conocer su trabajo, no sólo en el entorno académico, sino a su familia e incluso a alguien de la otra punta del mundo.

El Instituto de Tecnologías Educativas del Ministerio de Educación, creó en 2009 una wiki destinada a reunir y generar documentación en español sobre el uso de las wikis en el ámbito educativo. Se llama Eduwikis en el Aula 2.0

Para participar en ella ampliando o mejorando contenidos, sólo hay que registrarse, respetar unas sencillas normas y mantener la coherencia con el resto de artículos (a tal fin han editado una Guía de Estilo). Los contenidos se organizan en categorías para agilizar la búsqueda: tutoriales de uso, experiencias de centros, estrategias didácticas, servidores, modelos pedagógicos…

Existen varios tipos de wikis educativas en función de sus aplicaciones. En el siguiente enlace podemos encontrar un mapa conceptual con su clasificación y explicaciones:

Tipos de wikis educativos según sus funciones

El sueño Wikipedia

En 2001, Jimmy Wales y Larry Singer estaban dado forma a un proyecto de enciclopedia online llamado Nupedia. Pero avanzaban muy despacio, por lo que Singer (aunque existe controversia al respecto) propuso transformarla en una wiki, a fin de que cualquiera pudiera modificar su contenido y así aumentar la velocidad de desarrollo de los artículos. Un año después, los fundadores se separaron, el proyecto quedó en manos de Wales y pasó a llamarse Wikipedia.

Su objetivo es ambicioso:

“Distribuir gratuitamente la totalidad del saber mundial
a cada persona del planeta en el idioma que ésta elija,
bajo una licencia libre que permite modificarlo,
adaptarlo, reutilizarlo y redistribuirlo libremente.”

Jimmy Wales

El mayor mérito de Wikipedia es haber suscitado entre internautas de todo el mundo el deseo de compartir su conocimiento. Su calidad es fruto del trabajo colectivo.

Actualmente, Wikipedia depende de la Fundación Wikimedia. Cuenta con más de 17 millones de artículos en más de 250 idiomas, que son consultados por 400 millones de personas cada mes. Es el quinto sitio más visitado de toda la Red y la enciclopedia con mayor número de artículos de la historia. El contenido textual está bajo las licencias GNU y Creative Commons.

Wikipedia en español es el 9º sitio más visitado de nuestro país. Tiene 1.822.010 de usuarios registrados y más de 3 millones de páginas. Se crean más de 300 artículos al día. Recibe 31 millones de visitas diarias, siendo la cuarta Wikipedia más visitada del mundo. En este momento contamos con más de 871.116 artículos. El 22 de marzo de 2011, superó a la versión japonesa.

La revista Nature publicó en 2005 un artículo, ya clásico y no exento de polémica, comparando la fiabilidad de Wikipedia con la prestigiosa Enciclopedia Britannica. Se estudiaron 42 temas, de los cuales se señalaron 123 errores u omisiones por parte de Britannica y 162 de Wikipedia. A simple vista, el estudio dejaba en bastante buen lugar a la enciclopedia online, puesto que el margen de error no era muy dispar entre ambas. No obstante, Britannica no se mostró conforme con el modo de proceder de la revista. La mayoría de artículos elegidos eran sobre ciencias exactas y naturales; asuntos poco conflictivos. Los contenidos referentes a política, historia o humanidades, en cambio, suelen generar controversia y ser más discutidos en Wikipedia. Por lo que Britannica podría resultar más segura en esos campos. Otra denuncia consistió en que algunos artículos habían sido manipulados por Nature, bien recortando contenidos o uniendo dos para crear uno. Desde Wikipedia no hubo este tipo de quejas y, de hecho, el artículo se esgrime como muestra de su buen hacer.

La fama de Wikipedia está salpicada de críticas. Frente al texto inmutable de las enciclopedias de papel, Wikipedia ofrece un contenido modulable y adaptable, pero en el que basta el fugaz paso de un internauta con malas intenciones para desviarla de su ideal.

Según sus detractores, su principal característica se convierte en su mayor punto débil. Todo el mundo puede decir lo que le plazca; no hay autoridad ni jerarquía.

Al ir aumentando el éxito de Wikipedia, lo que en su día constituyó su mayor fuerza se ha convertido en fuente de sus flaquezas. Atrae a vándalos de toda ralea, desde graciosillos hasta fanáticos y manipuladores, culpables de la mala reputación de Wikipedia. Para hacerles frente, la enciclopedia encargó desde el principio su mantenimiento a quienes mejor la conocían: los contribuidores. Existe una especie de patrulla de las modificaciones, atenta al menor cambio. Veamos cómo funciona:

Cuando un internauta interviene en una ficha, esta aparece en una lista de las últimas fichas modificadas. Los wikipedistas online, pueden meterse rápidamente en ella y verificar lo que se ha modificado. Entonces, pueden darse 3 casos:

Si la corrección se estima justificada, se deja. Si está mal o es una broma, se restablece el contenido anterior. La tercera probabilidad es que conduzca a un debate. Los internautas opinan sobre la pertinencia del cambio. Para evitar que los debates se prolonguen indefinidamente, se constituyó un comité de arbitraje, compuesto por miembros electos que se renueva cada 6 meses. Algunas fichas especialmente delicadas, como la de Adolf Hitler, están semiprotegidas y sólo pueden modificarlas usuarios con un mínimo de 4 días de pertenencia. Existe otro procedimiento en virtud del cual los cambios que se realicen en las entradas deben ser validados por editores de confianza, que serán aquellos que hayan propuesto al menos 30 modificaciones válidas en 30 días.

Por otra parte, están los bibliotecarios. No son usuarios como los demás: tienen acceso a funciones adicionales. Pueden suprimir artículos o bloquear a usuarios vandálicos. En la versión española hay 142. Un usuario se convierte en bibliotecario si una amplia mayoría de la comunidad (en torno al 80%), se pronuncia a su favor. Se trata de una tarea noble, desinteresada, pero que exige responsabilidad, dedicación y una sólida motivación.

Cabe preguntarse si la calidad de los artículos podrá seguir el ritmo de crecimiento de su desenfrenada producción numérica. Consciente de este problema, Wikipedia ha creado una marca de calidad para los artículos que cumplan los criterios de claridad, neutralidad y referencia a las fuentes que exige la enciclopedia. En este momento, contamos en la edición española con 1004 artículos destacados.

Para los defensores de Wikipedia, es extraordinario cómo se autoorganiza para luchar contra los vándalos. Otra importante ventaja en relación con sus competidoras en papel es la reactividad inmediata a la actualidad. El conocimiento se construye minuto a minuto, en todos los rincones del mundo.

Wikipedia es pedagógica como resultado de sus propias imperfecciones, que permiten formar a los estudiantes en la utilización crítica de las fuentes.

Volviendo a la educación, y para terminar, observamos opiniones encontradas sobre el recurso a Wikipedia. Sin llegar a prohibirla como herramienta de consulta, como han hecho algunas universidades norteamericanas, tampoco podemos afirmar que sea la panacea pedagógica. Es decir, la enciclopedia online no puede ser el único material al que acudan los estudiantes para hacer los trabajos. Pero sí es un excelente medio para aguzar el espíritu crítico y aprender a cruzar las fuentes. Además, la comunidad obliga a escribir de manera clara y precisa, a respetar la neutralidad y a justificar las informaciones que divulga con referencias exactas. Contribuir a Wikipedia podría llegar a ser un ejercicio habitual en las aulas.

Existe, incluso, una Wikiversidad gratuita en la que cualquiera puede participar, ya sea editando y compartiendo contenidos o usándolos para estudiar y formarse. Abarca prácticamente todas las ramas del saber e incluye desde la educación Primaria a la formación preuniversitaria.

Enlaces de interés
Wikilearning
Eduwikis en el Aula 2.0
Tipos de wikis educativos según sus funciones
Wikiversidad

 

Fuentes
La revolución Wikipedia, Pierre Gourdain et al. Alianza Editorial Madrid 2008.
Noticia en Wikinews
Fundación Wikimedia

El descubrimiento de la doble hélice

El descubrimiento de una fórmula tan compleja como la estructura del ADN no surgió de forma azarosa, es decir, Watson y Crick no «inventaron» la doble hélice (puesto que siempre había existido), simplemente fueron los primeros en definirla y mostrarla al mundo. «Se ha escrito tanto sobre nuestro descubrimiento de la doble hélice que me es difícil añadir algo a lo ya dicho» (Crick, 1989), hecho que resalta la gran expectación que creó este hallazgo que ha sido calificado por varios científicos como «uno de los descubrimientos más importantes de la historia».

EC | Madrid | Mayo 2012

Las memorias de James Watson y Frances Crick nos ayudarán a reconstruir la historia del descubrimiento de la estructura del ADN. Estamos en el año 1951. James Watson, de 23 años, llega al “laboratorio Cavendish” de Cambridge para unirse a un pequeño grupo de físicos y químicos que trabajaban sobre las estructuras tridimensionales de las proteínas. Francis Crick trabajaba en una unidad, realizando diversos experimentos. Era un hombre charlatán, de risa sonora, que entonces contaba con 35 años y era casi un desconocido. James Watson era un zoólogo fascinado por la ornitología, que terminaría interesándose por el estudio de la genética. Crick era físico. Antes de la llegada de Watson, Crick apenas se había ocupado del ADN y de su papel en la herencia; además, por aquel entonces, el trabajo molecular sobre el ADN en Inglaterra era considerado propiedad básica de Maurice Wilkins, cuyo principal instrumento de investigación era la difracción de los rayos X. Wilkins trabajaba en el laboratorio de Randall en el King’s College de Londres. Randall había contratado a una cristalógrafa con experiencia, Rosalind Franklin, que será otra de las protagonistas de nuestra historia.

Crick, durante la Segunda Guerra Mundial, había trabajado en el diseño de minas magnéticas y acústicas-minas a distancia. Cuando terminó la guerra, no sabía qué hacer, no tenía una especialización clara, pero comprendió que esto podía resultar una ventaja, porque le permitía dedicarse a lo que quisiera. La formación que fue adquiriendo en biología, y su interés por las fronteras entre lo viviente y lo no viviente le terminaría llevando al laboratorio Cavendish. Para poder trabajar en el Cavendish, Crick tuvo que estudiar cristalografía de rayos X, tanto la teoría como la práctica. Al tener que aprender difracción de rayos X por su cuenta, adquirió un conocimiento amplio y profundo.

Watson y Crick tenían intereses parecidos, aunque era distinta su formación anterior. Entonces Crick sabía bastante sobre proteínas y difracción de rayos X. Watson conocía mucho menos esos temas, pero superaba a Crick en trabajos experimentales sobre fagos (virus bacterianos). Watson también conocía mejor la genética bacteriana. Los conocimientos de ambos sobre genética clásica eran equiparables. Maurice Wilkins fue el primero que avivó el interés del biólogo Watson sobre los trabajos realizados con rayos X sobre el ADN. Sucedió en Nápoles, en una reunión científica sobre las estructuras de las grandes moléculas halladas en las células vivas, en 1951. Wilkins presentó en su conferencia una fotografía de la difracción de los rayos X sobre el ADN. Ahora sabía Watson que los genes podían cristalizar. Por tanto, debían poseer una estructura regular que pudiera ser resuelta de una manera directa. Se corrió por entonces el rumor de que Linus Pauling había resuelto parcialmente la estructura de las proteínas. Su modelo era el de la hélice-alfa. Watson, tras oírle en una conferencia, quiso comprobar con un cristalógrafo si el modelo descrito por Pauling era correcto. Y fue entonces cuando mostró interés en entrar en el laboratorio Cavendish, aunque tuvo problemas con el Consejo de Becas porque consideraban que no debía trasladarse a trabajar en una especialidad para la que carecía de preparación.

No sabía qué hacer, no tenía una especialización clara, pero comprendió que esto podía resultar una ventaja, porque le permitía dedicarse a lo que quisiera.

Watson se entendía muy bien con Crick, también interesado por el  ADN, y por teorizar. Watson quiso saber cómo Pauling había descubierto las hélices-alfa. No tardó en aprender que el logro de Pauling era producto del sentido común, y no resultado de un complicado razonamiento matemático. La clave del éxito de Linus radicaba en su confianza en las sencillas leyes de la química estructural. La hélice-alfa no habría sido descubierta con sólo el estudio de las fotografías a rayos X; los principales instrumentos de trabajo eran un conjunto de modelos moleculares que se asemejaban a los juguetes de los niños en edad preescolar. Watson y Crick pensaron que no había razón por la que no hubieran de resolver el ADN de la misma manera. Todo lo que debían hacer era construir un conjunto de modelos moleculares y empezar a jugar; con un poco de suerte, la estructura representaría una hélice.

Watson y Crick seguían hablando de posibles tipos de estructuras de ADN. Trabajaban diferentes modelos, algunos de los cuales se iban mostrando erróneos. Obtuvieron avances y los expusieron a Wilkins y Franklin, que no les hicieron mucho caso. Sir Lawrence Bragg, profesor de ambos, decidió entonces que debían abandonar la investigación, porque no le veía mucho sentido a que se duplicase la que estaba llevando a cabo el laboratorio de Wilkins. A Watson y Crick les preocupaba que la interrupción por su parte de la construcción del modelo no iba a llevar consigo una mayor actividad en el laboratorio de Wilkins. Aunque se apartaron de la investigación, no abandonaron su interés por el ADN: Crick divagaba sobre disposiciones helicoidales de la hélice-alfa y Watson leía sobre química teórica y hojeaba publicaciones especializadas, con la esperanza de hallar alguna pista olvidada.

Mientras, Watson fue despedido de su beca por no estar trabajando en la institución designada, sino en el Cavendish. Se le concedió una beca distinta, que Watson pensaba aceptar. Había decidido ganar tiempo dedicándose a la investigación del virus de mosaico del tabaco (VTM). Un componente esencial del VTM era el ácido nucleico, y por ello la tapadera perfecta para enmascarar su continuado interés por el ADN.

Las disensiones entre los dos investigadores que trabajaban juntos en el King’s College, Maurice Wilkins y Rosalind Franklin, se habían acentuado. Y Rosalind Franklin insistía en que sus datos demostraban que el ADN no era una hélice.
Watson tomó las medidas necesarias para que su próxima beca fuese trasladada al Cavendish. Sin embargo, Crick y él no se iban a dedicar por completo a la investigación de  la estructura del ADN. Entonces les llegó la noticia de que Linus Pauling había encontrado ya una estructura para el ADN. Watson y Crick tenían la esperanza de que esto no fuese así, porque Pauling no conocía los trabajos desarrollado en el “King’s College”, no había visto las fotografías de Wilkins y Franklin. Watson confiaba en que la urgencia creada por el asalto de Linus sobre el ADN llevase a Wilkins a pedirles ayuda a Crick y a él. No sucedió así.

Tenacidad y entusiasmo

El modelo sobre el que Pauling estaba trabajando era muy similar al que habían trabajado Watson y Crick, una hélice de tres cadenas, con la cadena azúcar-fosfato en el centro. Sin embargo, al leer una copia del trabajo, se dieron cuenta de que algo iba mal, ya que mostraba poca ortodoxia química. El trabajo de Pauling había sido enviado ya para la publicación, y cuando se publicase sería cuestión de días el que se descubriesen los errores del mismo. Disponían unas pocas semanas antes de que Linus se dedicara de nuevo al ADN.  Watson fue a hablar con Wilkins para comentarle todo lo relacionado con el trabajo de Pauling y sus errores. Éste le comunicó una noticia muy importante: Rosalind Franklin había obtenido la prueba de una nueva forma tridimensional del ADN, una nueva forma que ellos llamaban “estructura B”. Los reflejos negros en forma de cruz que dominaban la fotografía sólo podían provenir de una estructura helicoidal. Pero el problema radicaba en la ausencia de cualquier hipótesis estructural que les permitiese agrupar regularmente las bases en el interior de la hélice. Por eso Wilkins estaba convencido de que Rosalind Franklin, opuesta a la idea de una estructura helicoidal, estaba en lo cierto. Tras esta conversación, y mientras viajaba en tren camino de Cambridge, Watson decidió que debían centrarse en un modelo de dos cadenas. Watson expuso todo lo relacionado con la “estructura B” a Crick y a su profesor, Bragg, que no puso ninguna objeción a que continuase con la tarea de construir nuevos modelos.

El descubrimiento clave, según Crick, fue la determinación, por parte de Watson, de la naturaleza exacta de los pares de bases (adenina con timina, guanina con citosina). No lo logró por lógica, sino por casualidad. En cierto modo, el hallazgo de Watson fue cuestión de suerte, pero la mayoría de los descubrimientos tienen un elemento azaroso. Lo más importante es que Watson estaba buscando algo significativo y que inmediatamente reconoció el significado de los pares correctos cuando los vio por azar…”El azar favorece a la mente preparada”. Este episodio, asegura Crick, también ilustra que muchas veces, en la investigación, es importante jugar.

Crick considera que si Watson y él merecen algún mérito es el de la persistencia y el deseo de desechar ideas cuando éstas se convierten en insostenibles.

El siguiente paso científico era comparar con rigor los datos experimentales de los rayos X con el módulo de difracción que predecía el modelo de Watson y Crick. Wilkins, que no mostró ningún  indicio de amargura por el descubrimiento, prometió que mediría enseguida las reflexiones críticas. Rosalind Franklin, contraria hasta el momento a la estructura helicoidal, vio el atractivo de los pares de bases y aceptó el hecho de que la estructura era demasiado bonita para no ser verdadera. Y cuando llegó a oídos de Pauling lo que había sucedido, su reacción fue de auténtica emoción. Watson, Crick y Wilkins ganaron en 1962 el premio nobel de fisiología o medicina por sus descubrimientos acerca de la estructura molecular de los ácidos nucleicos y su importancia para la transferencia de información en la materia viva. El trabajo cristalográfico de Rosalind Franklin, que ya había fallecido, no recibiría, sin embargo, el debido reconocimiento.
Esta historia es una muestra de los peligros de la especialización; ni Watson ni Crick eran inicialmente especialistas en el ADN, y terminaron descubriendo su estructura con tenacidad y entusiasmo. Es más, Crick, tras descubrir la estructura del ADN, se terminaría interesando por la neurología, en concreto por investigar las bases neuronales de la conciencia.

Bibliografía:

-“La doble hélice”, James D. Watson. Plaza y Janés, 1978
-“Qué loco propósito. Una visión personal del descubrimiento científico”. Francis Crick. Tusquets, 1989.

Crick considera que si Watson y él merecen algún mérito es el de la persistencia y el deseo de desechar ideas cuando éstas se convierten en insostenibles. Un crítico les consideró poco inteligentes por haber seguido tantas pistas falsas, pero no tuvo en cuenta que éste es el modo en que suelen hacerse los descubrimientos. La mayoría de los intentos fallan, no por falta de cerebro, sino porque el investigador se atasca en un callejón sin salida o porque abandona prematuramente. También se les ha criticado por no haber dominado a la perfección todas las áreas de conocimiento necesarias para acertar con la doble hélice; sin embargo, al menos intentaron dominarlas todas, dice Crick, que considera que su mayor mérito, teniendo en cuenta lo temprano de su carrera investigadora, fue seleccionar el problema adecuado y apegarse a él. Es cierto que andando a ciegas tropezaron con oro, comenta, pero no por ello deja de ser verdad que buscaban oro.

Invitado del mes: Howard Gardner

Cada mes recibiremos en nuestro Centro de Estudios a un célebre invitado, experto en teoría de la creatividad, para que complemente nuestras aportaciones y ofrezca un nuevo enfoque. Nuestro primer visitante es el psicólogo norteamericano Howard Gardner, que revolucionó el concepto de inteligencia al proponer su teoría de las Inteligencias Múltiples. Con ella amplía la visión tradicional de la inteligencia, con un claro objetivo: mejorar la educación de los individuos.

EC | Madrid | Mayo 2012

Nos interesa la Teoría de las Inteligencias Múltiples porque confía en las oportunidades: todos podemos ser buenos en algo.
En este contexto, la creatividad ocupará un lugar destacado. La creatividad se puede fomentar.
Además, la obra de Gardner tiene un componente ético. Busca implicaciones educativas; cómo su enfoque podría mejorar la calidad de la educación y, mediante ella, el futuro de la sociedad.

Hasta entonces, la inteligencia era considerada un factor unitario, estable, rígido y cuantificable. Esta concepción sostenía que recibimos la inteligencia de nuestros padres, no podemos cambiarla, y se puede conocer lo inteligente que es alguien mediante una prueba (midiendo el CI).

Gardner concibe la inteligencia como “la capacidad de resolver problemas o de crear productos que son valorados en uno o más contextos culturales” (1983). En su famosa obra «Estructuras de la mente», defiende la existencia de diferentes capacidades intelectuales. Considera que cada persona posee, al menos, siete habilidades cognoscitivas; unas más desarrolladas que otras. Estas inteligencias trabajan juntas, aunque como entidades semiautónomas. Por eso no se debería emplear un sólo instrumento o prueba única para medir la inteligencia, sino una amplia batería de mediciones. Las Inteligencias Múltiples son:

    1. Inteligencia Lingüística. Es la capacidad de formular el pensamiento y usar el lenguaje de manera eficaz. Nos permite recordar, analizar, resolver problemas, planificar y crear. Convencer, memorizar, enseñar y aprender.
    2. Inteligencia Musical. Producir y apreciar el ritmo, tono y timbre de los sonidos y valorar la expresividad musical. Permite reconocer, crear y reproducir música así como apreciar su estructura y melodía.
    3. Inteligencia Lógico-Matemática. Habilidad para usar los números de manera efectiva y razonar adecuadamente. Incluye la sensibilidad a los esquemas, a las relaciones lógicas y otras abstracciones. Reconocer patrones abstractos, razonamiento inductivo y deductivo, cálculo.

Mi teoría no despertó gran interés entre mis colegas psicólogos (…) Sin embargo, interesó mucho al mundo educativo.

  1. Inteligencia Espacial. Capacidad de pensar en tres dimensiones. Percibir de manera visual y espacial, y efectuar transformaciones a partir de ellas. Producir y decodificar información gráfica. Buena orientación.
  2. Inteligencia Cinetésico-Corporal. Facilidad para procesar el conocimiento a través de sensaciones corporales. Habilidad para emplear el cuerpo de formas muy distintas y hábiles, capacidad para trabajar hábilmente con los objetos.
  3. Inteligencia Interpersonal. Comunicación efectiva a nivel verbal y no verbal, entender los estados de ánimo, sentimientos y motivaciones de los demás. Capacidad de liderazgo.
  4. Inteligencia Intrapersonal. Capacidad de un sujeto de conocerse a sí mismo: sus reacciones, emociones y vida interior. Autorreflexión, metacognición.

Gardner añadió posteriormente una octava, la Inteligencia Naturalista, que consiste en el entendimiento del entorno natural y la observación científica de la naturaleza como se realiza desde la biología, la geología o la astronomía.

Aceptar la heterogeneidad permite educar a cada alumno partiendo de sus posibilidades, facilitando que pueda desarrollar mejor sus capacidades.

Estas inteligencias son valoradas de distinta forma en función de la cultura y los segmentos sociales. El proceso que llevó a Gardner a formular su teoría de las IM pasa por el estudio de lo que se sabía acerca del cerebro: cómo ha evolucionado, cómo se organiza; el análisis de gente con perfiles muy diferentes: prodigios, personas muy buenas en distintos campos, incluso autistas e idiots savants; y un amplio abanico de habilidades que han sido valoradas a lo largo de la historia, en distintas partes del mundo y por diferentes culturas. La diversificación del desarrollo cognitivo que supone esta teoría implica líneas pedagógicas nuevas, adaptadas a las características del individuo, modos de comunicación más eficaces y aplicaciones tecnológicas con un grado de conectividad adecuado al perfil de los usuarios.

La ampliación de la visión tradicional de la inteligencia que realiza Gardner tiene un claro objetivo: mejorar la educación de los individuos. Conocer sus distintos potenciales para desarrollarlos al máximo. Aceptar la heterogeneidad, saber que no todos aprendemos de la misma manera ni al mismo tiempo, permite educar a cada alumno partiendo de sus posibilidades, facilitando que pueda desarrollar mejor sus capacidades. Su gran interés en la educación le ha llevado a participar en importantes aventuras pedagógicas, como los proyectos Spectrum y Zero -en España tenemos el Colegio Montserrat, que basa sus enseñanzas en las IM (Inteligencias Múltiples)-. Para nuestro invitado, los avances tienen sentido si pueden aplicarse, si pueden ayudar a mejorar la educación de los niños. Cree en las oportunidades; todos podemos ser buenos en algo.

Ha llegado ya el momento de ampliar nuestra noción de talento. La contribución más evidente que el sistema educativo puede hacer al desarrollo del niño consiste en ayudarle a encontrar una parcela en la que sus facultades personales puedan aprovecharse plenamente y en la que se sientan satisfechos y preparados.

El trabajo de Gardner tiene una clara orientación pragmática e incluso ética: no se limita a exponer su teoría, sino que busca implicaciones educativas; cómo su enfoque podría mejorar la calidad de la educación y, mediante ella, el futuro de la sociedad. La educación es un destinatario de valores, pero estos valores no están determinados, hay que elegir qué valores se quieren transmitir. De ello dependerá que en el futuro tengamos una sociedad deseable.  En esta línea desarrolla una de sus últimas obras, «Las cinco mentes del futuro». En ella, parte de las condiciones actuales del mundo (globalización, grandes cambios políticos y demográficos, nuevas formas de comunicación, hegemonía de la tecnociencia) para investigar el modelo de mente más adecuado para manejar esta sociedad en el futuro, y las que serán más solicitadas: la mente disciplinada, la sintética, la creativa, la respetuosa y la mente ética.

Resulta interesante la idea de Gardner acerca de cómo estudiar la inteligencia y la creatividad, uno de los temas constantes en su trayectoria: no hay que fijarse sólo en gente a la que se admira o que se valora positivamente. Por ejemplo, los propagandistas nazis poseían una inteligencia lingüística muy desarrollada y eran creativos, aunque no servían a una causa noble. No hay que confundir la inteligencia con la virtud. La inteligencia es amoral: por eso el psicólogo enfatiza tanto el aspecto ético, ya que si las inteligencias se desarrollan alejadas de la moral, crearemos un futuro en que nadie querrá vivir.

En «Mentes Creativas«, Gardner presenta a siete “maestros creativos” de la era moderna. En este escrito, analiza fenómenos relativos a la creatividad y los conecta con su teoría de las IM, introduciendo un nuevo modo de enfocar los esfuerzos creativos. Tras estudiar a siete figuras representativas (una por cada inteligencia), se pregunta qué generalizaciones pueden extenderse y cuáles son características específicas de un individuo o campo intelectual. El autor aprecia tanto el carácter distintivo de las actividades habituales de cada uno de ellos, como una serie de temas comunes.

No basta con que una persona posea talento en abstracto, es necesario un campo en que este se concrete y un ámbito de expertos que lo valore como tal.

Aunque no con la misma fuerza, y con pequeñas excepciones, puede decirse que se repite un cierto patrón. Basándose en él, Gardner desarrolla el retrato de un Creador Ideal y presenta lo que podríamos llamar un “modelo de vida creativa”. Se dan tres niveles (individual, del campo y del ámbito) que configuran una especie de “triángulo de la creatividad”. No basta con que una persona posea talento en abstracto, es necesario un campo en que este se concrete y un ámbito de expertos que lo valore como tal. No obstante, pueden producirse asincronías entre los componentes de esta tríada. Es más, “lo que parece definitorio del individuo creativo es la capacidad para sacar provecho o explotar un aparente desajuste o falta de conexión dentro del triángulo de la creatividad”. La hipótesis de Gardner consiste en que un individuo será creativo cuando exhiba varias asincronías y pueda soportar la tensión que esto conlleva.

 Bibliografía
– «Estructuras de la mente. La teoría de las múltiples inteligencias«, Howard Gardner. FCE, 1987
– «El Proyecto Spectrum. Tomo I: Construir sobre las capacidades infantiles», H. Gardner, D. H. Feldman y M. Krechevsky (Comps.). Ediciones Morata, 2000
– «Mentes creativas. Una anatomía de la creatividad», Howard Gardner, Paidós, 2010
– «Las cinco mentes del futuro«, Howard Gardner, Paidós, 2011
«Educación artística y desarrollo humano»,  H. Gardner», Paidós, 2011

Las inteligencias múltiples en la escuela: El colegio Montserrat

El Colegio Montserrat es un interesante proyecto educativo liderado por Montserrat del Pozo y basado en la Teoría de las Inteligencias Múltiples de Howard Gardner. Se trata del único centro de estas características en España. Su filosofía es clara: optimizar la educación.

EC | Madrid | Mayo 2012

Aplicando a la práctica diaria innovaciones psicológicas y psicopedagógicas, y recogiendo influencias de todo tipo, desde las ya citadas Inteligencias Múltiples de Gardner hasta la experiencia de la Reggio Emilia, pasando por clásicos como Piaget o Montessori, en el Centro Montserrat parten de la idea de que las escuelas son para las personas, y éstas, porque están vivas e inmersas en una sociedad cambiante, no siempre son iguales ni repiten modelos comunes. No hay dos niños iguales; hay que tener presentes las diferencias en cuanto a la manera de aprender, necesidades, cualidades específicas, comprensión, nivel de desarrollo emocional, etc. La teoría de Gardner ofrece a los educadores el marco idóneo para poder adaptar de manera creativa los principios fundamentales de las Inteligencias Múltiples a cualquier contexto educacional.

Toda persona posee diversas inteligencias, algunas más desarrolladas que otras. Conocer esta heterogeneidad, saber que no todos aprenden de la misma manera ni al mismo tiempo, es fundamental para una educación de calidad. Al aceptar la diferencia, se puede enseñar a cada alumno partiendo de sus posibilidades, facilitando el desarrollo óptimo de sus capacidades.

El objetivo de este centro es conseguir que los alumnos comprendan y sean capaces de usar activamente el conocimiento adquirido en la vida cotidiana, al tiempo que  generar nuevas inquietudes que les lleven a profundizar y ampliar sus conocimientos para mejorar la sociedad que les ha tocado vivir. Se trata, en definitiva, de crear una escuela capaz de transmitir un aprendizaje para la vida.

Para este gran proyecto, que trasciende la educación para adentrarse en la ética, será clave el papel de las familias, que están, de hecho, totalmente involucradas en el funcionamiento del centro.

Por otro lado, se requiere un nuevo modelo de profesor: no sólo debe conocer a fondo la Teoría de las Inteligencias Múltiples y ser consciente de sus  propias fortalezas y debilidades en cuanto a ellas, sino que debe ser un profesional atento y observador, que llegue a conocer y a formarse una visión global de cada niño, diestro en el fomento de la atención de todos los alumnos, buen trabajador en equipo, capaz de llevar a cabo una reflexión pedagógica sobre su propia práctica e interesado en su formación continua.

Y por último, aunque no menos importante, está la manera de entender el aula. El entorno del aprendizaje es otro elemento indispensable que en el Colegio Montserrat se cuida en extremo. Los factores ecológicos del aprendizaje, como la iluminación, los colores o la disposición del mobiliario, usados de la manera adecuada, producen grandes beneficios en el proceso de enseñanza.

Montserrat del Pozo ha dedicado su último libro, «Inteligencias múltiples en acción«, a la aplicación y desarrollo de las Inteligencias Múltiples en Educación Infantil, una de las etapas más importantes de la educación. Los 6 primeros años de vida de las personas son privilegiados, porque en el cerebro todo está dispuesto para comenzar a desarrollarse en todo su potencial. Es increíble la cantidad de cambios que suceden, a nivel cerebral, durante este periodo de tiempo. El cerebro con el que nacemos no es el mismo que con el que morimos. Como sabemos, el cerebro cambia, crece y se desarrolla con su uso, por eso es necesario ayudarle a crecer. Comenzando por la estimulación sensorial. La sorprendente organización del cerebro humano, su alta potencialidad y su plasticidad, hacen que la etapa de Educación Infantil sea decisiva. De hecho, para Montserrat del Pozo, elementos como el éxito de los estudios universitarios de un alumno y la prevención del fracaso escolar, radican en la Educación Infantil.

Esta nueva obra destaca por su claridad y por ser muy completa: incluye la explicación detallada de una enorme cantidad de actividades, que van desde la inmersión en un tercer idioma (inglés, a parte del castellano y el catalán) hasta el desarrollo de las inteligencias personal y social, pasando por el pensamiento matemático, ajedrez, experimentos, lecto-escritura, metacognición, conocimientos de personajes y de la naturaleza, uso de TICs, talleres de arte, música y teatro y desarrollo de los cinco sentidos y psicomotricidad. De cada una de las distintas actividades, se especifica cómo se realiza en cada edad –normalmente, de 1 a 2 años y de 3 a 5- y de qué manera, qué esperan conseguir, con qué recursos y materiales.

Del mismo modo se incluyen sus fundamentos pedagógicos, entre los que destacan la relación alumno/profesor; la importancia de la autonomía, el niño es protagonista de su aprendizaje, el papel del espacio como segundo maestro y la importancia de una relación visible entre la escuela y las familias.

Bibliografía
– “Una experiencia a compartir. Las Inteligencias Múltiples en el Colegio Montserrat”, Montserrat Del Pozo Roselló Colegio Montserrat, Barcelona, 2005
Inteligencias múltiples en acción”, Montserrat del Pozo, Cecilia Cortacáns y Almudena Meroño (colaboradoras) Colegio Montserrat, Barcelona, 2011

Héroes ocultos: genialidades de la vida cotidiana

Los usamos a diario y son tan comunes que casi nunca nos paramos a pensar que alguien los inventó: el lápiz, la pinza, el plástico de burbujas o el cartón de huevos son ejemplos de invenciones que comenzaron a formar parte de nuestra vida en algún momento y, casi sin darnos cuenta, se han quedado para siempre.

Entre agosto y septiembre del pasado año, la compañía de multipackaging Hi-Cone en colaboración con el Vitra Design Museum inauguraron la exposición llamada “Heroés ocultos: Genialidades de la Vida Cotidiana” con la intención de dar a conocer las historias detrás de aquellos objetos cotidianos cuya invención se basó en “una idea ingeniosa pero fácil de comprender”. La idea era incluir en esta muestra objetos que tenían que “haberse producido mil millones de veces”,  y constituir un “elemento indispensable de la vida diaria.” Objetos que tenían que “haber demostrado su valía en repetidas ocasiones y haber mantenido su esencia inalterable durante décadas.”

Independientemente de en qué museo pueda encontrarse la exposición itinerante, sus creadores quisieron acompañarla de una exhibición virtual, que existieran como “proyectos independientes que, por otro lado, se complementaran perfectamente.” En la exposición virtual, www.hidden-heroes.net, desde la que se tiene acceso a multitud de información, imágenes y elementos interactivos organizados según nuestro propio interés, se nos anima a participar añadiendo algún objeto que creamos que merezca unirse a la exposición o incluyendo información sobre alguno de los héroes presentados.

El humor favorece la inspiración

Diversas investigaciones realizadas recientemente han puesto de manifiesto que el buen humor y las emociones positivas que tiene un sujeto le favorecen cuando tiene que resolver problemas de forma creativa.

Entre dichas investigaciones destaca el estudio realizado por los neurocientíficos de la Northwestern University (Chicago), Karuna Subramaniam y Marck Beeman. Durante el estudio los científicos mostraron, a algunos de los voluntarios, fragmentos de un programa cómico antes de que se pusieran a resolver pruebas de asociación verbal – utilizadas desde hace años para estudiar la resolución creativa de problemas – y descubrieron que estos participantes fueron capaces de resolver un mayor número de acertijos que los participantes que habían visto otro tipo de programa (de terror o sobre política, por ejemplo). Además, el número de veces que resolvieron los acertijos gracias a momentos de inspiración súbita (el clásico ¡eureka!) frente al sistema de ensayo y error fue muy significativo. Los investigadores creen que esto sucede porque «el humor y las emociones positivas reducen el umbral del cerebro para detectar conexiones más débiles o remotas  a la hora de resolver acertijos», es decir, que estar de buen humor aumenta nuestra capacidad de relacionar unas cosas con otras y encontrar soluciones novedosas – muchas veces de manera repentina -.

Las técnicas de imagen cerebral utilizadas en el estudio de Subramaniam y Beeman (Resonancia Magnética Funcional) muestran una mayor activación en una área del cerebro llamada Corteza Cingulada Anterior – una zona del cerebro que participa en la regulación de la atención, centrándola o dispersándola – en los participantes que vieron el programa cómico antes de ponerse a resolver las pruebas. Parece ser que durante la resolución de un problema esta zona trabaja conjuntamente con otras áreas de encéfalo para continuar centrada en la utilización de una estrategia determinada o para buscar otra distinta. El estudio también mostró que los participantes que habían realizado una actividad diferente mostraron una menor actividad en la Corteza Cingulada Anterior y sus respuestas a los acertijos fueron mucho menos originales.

Fuente: Elisabeth King Humphrey. Mente y Cerebro nº 51. 2011