Misterios del Siglo XX. El supuesto blucle temporal del RMS Titanic

Uno de los argumentos que más me gustan dentro de la ciencia ficción son los time loop o bucles temporales que usan los viajes en el tiempo para que un período de tiempo concreto se repita una y otra vez. Una que puede aproximarse al tema de este post sería aquella del 2009 llamada “Triangle” escrita y dirigida por el director británico Christopher Smith , que juega con los viajes en el tiempo y los bucles temporales y los protagonistas, náufragos en alta mar abordan un misterioso transatlántico del que no podrán salir.

El RMS Titanic fue construido entre 1909 y 1912 en el astillero Harland and Wolff de Belfast y era el segundo de los tres transatlánticos que formaban la clase Olympic, propiedad de la naviera White Star Line

Star Line, junto al RMS Olympic y, posteriormente, el HMHS Britannic.

Aquel barco fue diseñado para ser lo último en lujo y comodidad, y contaba con una potente estación de telegrafía y avanzadas medidas de seguridad, pero- desgraciadamente- sólo portaba botes salvavidas para un tercio de su capacidad total que era de 3547 personas. La trágica historia de aquel buque es conocida por todos y a las 23:40 del 14 de abril de 1912 chocó contra un iceberg y durante dos horas y media se fue hundiendo gradualmente por su parte delantera mientras la popa se elevaba.

La mayoría de sus tripulantes quedaron flotando en la superficie del mar y murieron por hipotermia, y solo 712 supervivientes fueron recogidos por el transatlántico RMS Carpathia unas horas después muriendo 1496 personas de las 2208 que iban a bordo

Harold Bride

Harold Bride el segundo telegrafista a cargo del Titanic emitió el siguiente mensaje: “CQD CQD CQD CQD CQD CQD de MGY MGY MGY MGY MGY MGY 41.44 N50.24 W” (CQD: “copy quality distress” código de llamada general con la D de problemas, y el código MGY (código marítimo del Titanic que antecede a sus coordenadas. ) Sin embargo, parecía nadie respondió a esta petición de auxilio y un barco cercanos llamado «SS Californian» no logró captar este mensaje aunque si el “RMS Carpathia” que logró salvar a aquellos 712 pasajeros. Tristemente la ayuda con 36 horas de demora cuando el gran trasatlántico ya se había hundido.

Sin embargo aquellas señales de ayuda enviadas por el Titanic… aún se pueden escuchar en el mismo lugar y la misma hora de su hundimiento.

El 15 de abril de 1972 Lloyd Dethmer, radiotelegrafista del crucero estadounidense ‘Theodore Roosevelt’, recibió un SOS. No se oía bien, pero se podía distinguir que la nave que solicita ayuda era una llamada ‘Titanic‘. Aún creyendo que le tomarían por loco, Dethmer informó a la costa. La orden que recibió fue la siguiente: no responder al SOS y seguir el rumbo programado.

Una vez en tierra firme, representantes de los servicios secretos de EE. UU. explicaron a los tripulantes que no hubo ningún SOS o que se trataba de una burla. Sin embargo, a Dethmer le pareció muy raro que las explicaciones se las dieran agentes secretos, y emprendió su propia línea de investigación. Su interés por tirar del hilo acabó por llevarlo a un manicomio pero antes de hundirse en la lo lucra tuvo ocasión de examinar archivos con informes de sus colegas y descubrió, para su asombro, que los ‘radiogramas fantasmas‘ del Titanic aparecían cada seis años: en 1924, 1930, 1936, 1942, etc…En abril de 1996 en la prensa canadiense apareció la información de que el buque ‘Quebec’ había recibido un nuevo SOS de Titanic. Todavía no se ha resuelto qué es y qué produce esa señal.

Después tenemos el misterio de la aparición de pasajeros del Titanic que- presuntamente- “viajaron en el tiempo”. Hay dos casos que alimentan esta historia

En el año 1990 un 24 de septiembre, un barco pesquero con bandera noruega descubrió en el Atlántico Norte a 340 kilómetros al suroeste de Islandia, a una joven, de unos 29 años de edad, sentada temblando en un iceberg. Dijo que su nombre era Winnie Cowts y preguntó por el resto de los pasajeros de Titanic. El capitán del pesquero, Carl-Yorgen la llevó a Oslo, donde las autoridades de Noruega pensaron que la mujer estaba loca. Lo único que les hizo dudar fue que, según comunicaron los oficiales de la Marina británica, en la lista de pasajeros de Titanic sí que había una Winnie Cowts y otro detalle muy peculiar: la joven iba vestida a la moda imperante a inicios del siglo XX. Se sabe que sobrevivió, y los registros indican que falleció en 1960 pero el análisis de su dactilograma coincidió con el de aquella pasajera de 1912 del Titanic.

Nota de prensa del incidente

El 9 de agosto de 1991 otro buque noruego de investigaciones marítimas, el ‘Nayper Larsson’, descubrió casi en el mismo lugar, a unos 365 kilómetros al suroeste de Islandia, a un hombre de edad avanzada vestido con uniforme de White Star Line, la empresa propietaria de Titanic. Lo llevaron a Oslo, donde- al igual que la chica- le hicieron un análisis dactiloscópico, que arrojó, sorprendentemente que coincidía con la de 1912 de Edward John Smith capitán del Titanic. La historia oficial indica que este capitán había muerto en la tragedia hundiéndose con el barco.

Entonces, ¿qué ha podido suceder? ¿Cómo es posible que en el medio de la nada se encontraran personas que ya estaban muertas desde hacía mucho tiempo y que se identificaban como pasajeros del Titanic? Winnie Coutts y el Capitán Edward John Smith fueron rescatados en la misma área. Esto lleva a pensar que el Titanic y sus pasajeros habrían caído en una especie de time loop o bucle temporal pero yo prefiero incorporar esta historia a los misterios del siglo XX aunque solo sean simples mentiras

Fuentes:

Issuu. La leyenda del Titanic

Algunos desastres atribuibles al mal cálculo numérico en los programas informáticos

Muchos de los fenómenos de la vida real se pueden modelar matemáticamente, aunque en la mayoría de los casos no pueden ser solucionados por medio de algún método exacto y aunque algunas veces se puede lograr una solución, la misma puede resultar demasiado laboriosa en términos de tiempo y recursos computacionales.

Los Métodos Numéricos (MN) tratan de solucionan este tipo de problemas mediante la búsqueda de una solución numérica aproximada y su cálculo del error asociado (el cual se espera que sea razonablemente pequeño) mediante algoritmos, que permiten la resolución de algunos complejos problemas matemáticos que generalmente no pueden resolverse con los métodos analíticos tradicionales. Sus aplicaciones son inmensas, y se utilizan intensivamente en ingeniería, economía y ciencias naturales.

Salvo en raras ocasiones los datos proporcionados a estos cálculos son exactos, puesto que suelen originarse en procesos de medida, aunque casi siempre hay un error probable en la información de entrada y además, el propio algoritmo introduce también otros errores o redondeos inevitables. Por todo ello la información de salida de un programa informático que utilice MN podrá contener los errores generados por ambas fuentes.El error obtenido podríamos definirlo como la discrepancia entre la magnitud “verdadera” y la «obtenida» en el cálculo. Vamos a explicarlo con un ejemplo:

Imaginemos el número 0.1 decimal que debe almacenarse en un microprocesador. Estos aparatos almacenan los números y caracteres en lenguaje binario, por lo que lo primero que tiene que hacer el mismo es transformar ese número decimal a binario. El MN utilizado utiliza un algoritmo como este:

1) Se toma el número a transformar y se multiplica por 2:

0.1 * 2 = 0.2

2) Se separa la parte entera de la parte decimal del valor resultante

La parte entera de 0.2 es 0
La parte decimal de 0.2 es 0.2

3) La parte entera se toma como el primer dígito significativo del número binario. Saldría así:

0.0______

3) Para los siguientes dígitos binarios se repiten los pasos 1 y 2 usando la parte decimal obtenida del paso anterior y repitiendo este proceso hasta que el resultado obtenido sea cero o se obtenga una secuencia periódica. Es decir:

0.2 * 2 = 0.4 -> 0

Este sería el segundo dígito del número binario que quedaría así:

0.00______

0.4 * 2 = 0.8 -> 0

Este sería el tercer dígito del número binario que quedaría así:

0.000______

0.8 * 2 = 1.6 -> 1

Este sería el cuarto dígito del número binario que quedaría así:

0.0001______

0.6 * 2 = 1.2 -> 1

Este sería el quinto dígito del número binario que quedaría así:

0.00011______

0.2 * 2 = 0.4 -> 0

Y al obtenerlo vuelve a reiniciarse la secuencia

Es decir que con este algoritmo el ordenador obtiene la representación binaria del número decimal 0.1 que es:

0.00011…….. periódico

Como las computadoras tienen una cantidad finita de bits para almacenar cualquier número, los números periódicos se almacenarán truncados. O sea que nuestra computadora solo almacenará el valor 0.00011 y no el «valor real» de los cálculos que sería 0.000110011001100110011… (hasta el infinito), pero. en la práctica lo que se almacena en la computadora al convertir el binario a decimal sería este número:

0.00011 = 1/16 + 1/32 = 0.09375

Y ya empezamos con los problemas de precisión pues no es lo mismo almacenar el número 0.1 en la computadora que el número 0.09375.

Esto puede ser un error tolerable, pero a veces los cálculos numéricos fallan estrepitosamente en un ordenador por problemas de su arquitectura o diseño del software y entonces pueden originarse errores muy costosos porque el sistema no es capaz de interpretar correctamente los algoritmos numéricos. Hoy vamos a exponer tres casos muy famosos

Primero .- Los errores de redondeo del sistema de guiado del misil «Patriot»

El sistema de misiles «Patriot» es un sistema móvil de Defensa Aérea con posibilidad de actuar a cortos y largos alcances, desde muy baja a media altura, con capacidad todo tiempo y que utiliza misiles guiados que simultáneamente enganchan y destruyen múltiples objetivos tales como misiles balísticos tácticos (TBM,s), objetivos de pequeña sección radar (LRCS), misiles de crucero (CM,s) y objetivos convencionales (aviones de ultima generación y helicópteros) desde muy baja a media altura bajo un ambiente de contramedidas electrónicas.

El 25 de febrero de 1991, durante la Guerra del Golfo, una batería de misiles Patriot estadounidense en Dharan, Arabia Saudita, no logró interceptar un misil Scud iraquí entrante .El Scud posteriormente impactó contra un cuartel del ejército estadounidense y mató a 28 soldados. Un informe de la General Accounting Office titulado Patriot Missile Defense: Software Problem Led to System Failure at Dhahran, Saudi Arabia informó sobre la causa de aquel fallo manifestando que fue un cálculo incorrecto del tiempo transcurrido desde el arranque debido a un error de redondeo en el software de guiado del ordenador del misil «Patriot».

En concreto, se trató del cálculo del tiempo en décimas de segundo, medido por el reloj interno del sistema del misil que multiplicaba por 1/10 (en binario) para sacar el tiempo en segundos. Este cálculo se realizó con un registro de punto fijo de 24 bits. Vamos a explicar lo que pasó.

El error de redondeo es debido a las limitaciones propias del aparato que usa el método numérico para representar cantidades que requieren un gran número de dígitos. Se produce en máquinas con arquitectura de «Punto Fijo» que fueronintroducidas comienzos de la década de los 80, y que están basadas en una representación que contiene una cantidad fija de dígitos después del llamado «radix point«.

En notación decimal (base10) la coma separa los decimales pero en la notación binaria (base 2) usada por los ordenadores solo se usan potencias de 2. Así por ejemplo el número 13,625 (base 10 decimal) en base 2 (binario) es 1101.101. El punto de corte lo llamamos «radix point» y por eso el número 1101.101 binario que representa al 13,625 tiene las siguientes cifras:

Por lo que su conversión en decimal se puede calcular de esta manera

Como vemos el 1101, que está a la izquierda del «radix point» es la representación binaria del número decimal 13 y a la derecha de ese «radix point» está el 101, que es la representación binaria de la fracción decimal 625/1000 ( o 5/8).

En el sistema de guiado del aquel misil el valor 1/10, se cortó a 24 bits después del «radix point«. Se trata de un pequeño error pero que cuando se multiplica por un gran número para calcular el tiempo en décimas de segundo, puede originar un error mucho más significativo. En efecto, la batería de aquel Patriot tenía una autonomía de alrededor de 100 horas, y un cálculo fácil nos muestra cómo el error del tiempo resultante calculado debido al error del corte del «radix point» por haber usado en el misil una máquina de arquitectura de Punto Fijo fue de aproximadamente 0,34 segundos.

¿ Y ello por qué? Pues porque la arquitectura de punto fijo nos permite representar magnitudes mayores pero sólo a costa de reducir la precisión después del «radix point«, es decir que hay una pérdida de precisión en las operaciones matemáticas en las que el resultado tiende a ser de mayor orden que los operandos. Veamos esta multiplicación en binario y como la toma el ordenador

La máquina considera «overflow» parte de los datos a la izquierda y no los representa pero a la derecha también corta y descarta parte de los datos. Veamos los cálculos que hizo para aquel misil fallido

El número 1/10 es igual a

Y su expresión binaria sería

0,0001100110011001100110011001100 ….

Con la arquitectura de Punto Fijo (registro de 24 bits) el Patriot solo pudo almacenar este otro numero

0.00011001100110011001100

Despreciando el resto a la derecha del último cero que era ….. 11001100 esto supuso introducir un error de:0,0000000000000000000000011001100 … en binario, que viene a ser de alrededor de 0,000000095 en decimal. No parece muy grande pero si multiplicamos este error por el número de décimas de segundo que hay en las 100 horas que dura la batería del misil obtenemos este resultado:

0,000000095 × 100 × 60 × 60 × 10 = 0,34

Y 0,34 segundos son mucho porque un misil Scud iraquí se desplazaba a unos 1.676 metros por segundo, y en 0,34 segundos tiene tiempo suficiente para recorrer más de medio kilómetro y quedar fuera del «radio de alcance» del misil interceptador Patriot que iba siguiéndolo.

Irónicamente, el hecho de que el cálculo defectuoso del tiempo se había mejorado en algunas partes del código de programación no se pudo depurar en su totalidad y la cosa acabó en un desastre. El siguiente párrafo está extraído del informe de la GAO.

«La predicción del umbral de distancia del lugar donde aparecería el Scud es una función de la velocidad conocida de este misil y del tiempo de la última detección de radar. La velocidad es un número real que puede ser expresado como un número entero y un decimal (por ejemplo, 3750,2563 … millas por hora). La hora se mantiene continuamente por el reloj interno del sistema en décimas de segundo, pero se expresa como un número entero o un conjunto numérico (por ejemplo, 32, 33, 34 …). Cuanto mayor es el tiempo en el que el sistema ha estado funcionando, mayor es el número que representa ese tiempo. Para predecir dónde aparecerá el Scud, tanto el tiempo como velocidad se expresan como números reales y debido a la forma en que el ordenador Patriot realiza sus cálculos y el hecho de que sus registros sean sólo de 24 bits la conversión de tiempo de un número entero binario a un número real no puede ser más precisa en ese formato de 24 bits. Esta conversión se traduce en una pérdida de precisión haciendo el cálculo de tiempo menos preciso. El efecto de esta inexactitud en el cálculo del umbral de distancia es directamente proporcional a la velocidad del objetivo y a la duración del tiempo en que el sistema ha estado funcionando. En consecuencia la realización de la conversión después de que el Patriot estuvo funcionando de forma continua durante largos periodos de tiempo hizo que la puerta de distancia ocasionara un alejamiento del centro de la diana por lo que es menos probable que el objetivo-en este caso el Scud- fuese interceptado con éxito». Este es el Informe de la GAO (General Accounting Office ( GAO/IMTEC-92-26.)-

Segundo.- Las consecuencia de un simple desbordamiento en el SRI del Ariane 5

El 4 de junio 1996, el primer cohete no tripulado Ariane 5, fruto del más ambicioso proyecto de la Agencia Espacial Europea fue lanzado desde la base espacial de Kourou en la Guayana Francesa y transcurridos 37 segundos desde el encendido del motor principal Vulcain, se autodestruyó a 3.400 metros de altura. El cohete estaba en su primer viaje, después de una década de desarrollo con una inversión de 7 mil millones de dólares y el artefacto destruido y su carga fueron valorados en 500 millones de dólares

Técnicamente, la causa del desastre se describió como una «excepción de software«, ese mensaje que muchos hemos visto en las «pantallas azules» de Windows cuando nuestro ordenador se cuelga estrepitosamente.

Uno de ellos es el error de precisión de números denominado ‘coma flotante‘ que afecta a todos los lenguajes de programación. Los algoritmos aritméticos para las representaciones en ‘coma flotante’ deben de tener en cuenta el escalado, es decir, el conocer la posición correcta del punto donde se localiza la separación entre la parte entera y la parte decimal ya que todo dato en un computador, debe ser almacenado en un registro con un número finito de bits.

Siempre que la parte entera del resultado de un cálculo sea mayor que el número máximo de dígitos que la computadora puede mostrar, el resultado generará un error de desbordamiento. Con esto, algunas operaciones matemática pueden producir reboses, por generar resultados mayores que la capacidad storeable de la computadora. En lenguaje de programación los números de ‘coma flotante’ son otra forma de decir ‘números decimales‘ y un ‘overflow‘ también llamado ‘desbordamiento aritmético‘ es una condición que se produce en un ordenador cuando un cálculo produce un resultado de mayor magnitud que la que un determinado registro puede almacenar. Sería algo así como si al convertir un valor como ‘32790,789‘ en un número entero si el mismo supera el mayor número storeable en el registro de la computadora en vez de obtenerse el valor ‘32790‘ se nos diera otro como ‘0‘, ‘-500‘ o un error similar

En el caso de Ariane 5 el problema estaba en un código matemático del ordenador de abordo que produjo un error de software en el Sistema de Referencia Inercial del sistema de control de vuelo del mismo (SRI). La actitud del lanzador y sus movimientos en el espacio son medidos por estos SRI en el que ángulos y las velocidades se calculan en base a la información proporcionada desde una plataforma inercial dotada de acelerómetros y giróscopos. El SRI del Ariane 5 era el que se había usado en el Ariane 4, sin contar con que el Ariane 5 era un aparato con mayor potencia y distintas variables de dirección que no tenía el Ariane 4, y a pesar de que se disponían de dos equipos iguales para evitar problemas (llamados SRI1 y SRI2) no sirvió de nada porque falló primero el de reserva, y en menos de un segundo el otro, cargado ya con información errónea de su compañero.

Cuando se intentó la conversión de un número ‘coma flotante de 64 bits‘ que daba la velocidad horizontal del cohete con respecto a la plataforma a un ‘entero de 16 bits‘ no se logró la conversión porque se produjo un simple desbordamiento, ya que para los números enteros de 16 bits el mayor número storeable es 32767. Con este error los datos enviados superaban este número y desbordaron rápidamente la capacidad de los dos SRI. El programa enloqueció y empezó a transmitir informaciones erróneas al ordenador central, que a su vez dió la orden de corregir una desviación que no existía colocando al cohete en una trayectoria imposible. Curiosamente esa parte del código sólo se usaba durante la preparación para el despegue y una vez en marcha no tenía utilidad pero por un error de programación ese código continuaba funcionando durante 40 segundos tras el despegue.

Se creó un comité investigador,presidido por el matemático francés Jacques_Louis Lions con nueve miembros, En su informe se explica el problema en los párrafos siguientes del mismo

«El 4 de junio de 1996, el primer vuelo de la lanzadera Ariane 5 terminó en un fracaso. Sólo unos 40 segundos después de iniciar la secuencia de vuelo, a una altitud de aproximadamente 3700 m, el lanzador se salió de su trayectoria de vuelo, se rompió y explotó.

El fracaso del Ariane 501 fue causado por la pérdida completa de la orientación y la actitud de la información 37 segundos después del inicio de la secuencia de arranque del motor principal (30 segundos después del despegue). Esta pérdida de información se debió a la especificación y diseño errores en el software del sistema de referencia inercial.

El SRI [ Système de Référence inertielle o sistema de referencia inercial] tuvo excepción de su software interno causada durante la ejecución de una conversión de datos de coma flotante de 64 bits de valor entero con signo de 16 bits. El número de coma flotante que se convirtió tenía un valor mayor que lo que podría ser representado por un entero con signo de 16 bits.

Las compañías que fabricaron los componentes defectuosos, fueron las francesas MatraMarconi, como coordinadoras y Sextant, como suministradora del Sistema de Referencia Inertial (SRI). Sé indicó también que la responsabilidad debía también extenderse a la Sociedad Aerospatiale Francesa que, como encargada de la arquitectura industrial del proyecto formuló mal las especificaciones sobre las que trabajaron Marconi y Sextant y por último también se imputó al CNES la Agencia Espacial francesa,contratista del proyecto por no haber desarrollado un sistema de verificación que impidiese esos fallos de base. Este fue el informe de aquella Junta de Investigación y aquí pongo el vídeo de aquel desastre

Tercero.- Análisis de elementos finitos en el diseño de las celdas de flotación de la plataforma petrolera Sleipner A-1

En la mañana del Viernes, 23. agosto de 1991 en Gjandsfjord cerca de Stavanger (suroeste de la costa Noruega en el Mar del Norte) la plataforma petrolera Sleipner A-1 realizó la prueba de lastre controlado de sus flotadores antes de proceder al apareamiento con su cubierta y apareció un fallo en uno de ellos que tuvo una fuga, comenzando a hacer agua. En menos de 19 minutos se hundió completamente y aquel accidente causó un evento sísmico de clase 3.0 en la escala de Richter convirtiéndose en un montón de escombros que se hundieron a 220m de profundidad. Aquel fracaso no tuvo perdidas de vidas humanas pero implicó una pérdida económica total de alrededor de 700 millones de dólares.

La posterior investigación del accidente descubrió que hubo un error de aproximación inexacta en el cálculo de una de las celdas de los flotadores realizado por el método de análisis de elementos finitos del modelo elástico lineal de la Tricell (utilizando el popular programa de elementos finitos de nombre NASTRAN).

El  Analisis de elementos finitos  (FEA de sussiglas en inglés «Finite Element Analysis) es una técnica de simulación por computador y un método numérico de resolución de problemas de mecánica de sólidos. Se trata de una herramienta de cálculo muy potente para el cálculo de estructuras cuya idea básica no puede ser más sencilla: dado un sólido, sometido a un sistema de cargas coaccionado por unas ligaduras, el método consiste en subdividir este sólido en pequeñas partes (elementos) interconectadas entre sí a través de los nudos de los elementos, de manera que suponemos que, el campo de desplazamientos en el interior de cada elemento, puede expresarse en función de los desplazamientos que sufren los nudos del elemento (desplazamientos nodales).

Posteriormente, se podrá determinar la matriz de rigidez de cada elemento, las cuales una vez ensambladas (siguiendo los pasos del análisis matricial de estructuras), permitirán la obtención de los desplazamientos en los nudos de cada elemento.De esa manera, una vez conocidos dichos desplazamientos, podríamos determinar, de una forma aproximada-como ya dijimos antes- las tensiones y las deformaciones en el interior del elemento.

Esta técnica se encuentra automatizada en herramientas de software y es muy utilizada en ingeniería debido a que muchos problemas físicos se formulan mediante la resolución de una ecuación diferencial en derivadas parciales, a partir de cuya solución es posible modelar dicho problema (transmisión del calor, electromagnetismo, cálculo de estructuras, etc). sin embargo, es un método que no proporciona una solución “exacta” a un problema dado, sino que, en realidad, solo posibilita obtener una solución aproximada

Con este soft se calcularon los apoyos de aquella plataforma llamada Sleipner A (SLA-1) que se iba a utilizar para la extracción de petróleo y gas natural en el yacimiento de gas Sleipner, en el mar del Norte y vamos a explicar el proceso constructivo

Aquella plataforma petrolera se diseñó a la manera de las plataformas tipo Condeep que se forman con una estructura de base de hormigón de gravedad formada por 24 celdas. En la Sleipner A aquellas celdas de flotación tenían un área de la base total de 16.000 m2 y debían apoyarse en el fondo marino a una profundidad de 82 m.

El proceso de construcción de una plataforma Condeep se inicia en un dique seco, donde se construyen las celdas de flotación. Como antes dijimos aquellas 24 celdas se diseñaron y calcularon por un software de elementos finitos.

Cuatro de estas células son alargadas para servir de ejes de apoyo de la cubierta de la plataforma. Esta era la cubierta superior que pesaba 57.000 toneladas, y proporcionaría alojamiento para unas 200 personas y el apoyo a los equipos de perforación que pesaban alrededor de 40.000 toneladas.

Mientras se construye la plataforma se terminan las celdas de flotación y se bombea agua a para hundir la estructura pero se mantiene la construcción de esta plataforma cerca del agua. Una vez que se ha completado la estructura de esa plataforma con los cuatro soportes en donde debe apoyarse, se somete el conjunto de los flotadores a una prueba de lastre controlado. Si la misma se supera entonces se procede al apareamiento entre cubierta y flotadores y pueden liberarse las células de flotación que levantan la cubierta en el aire. Así queda la plataforma terminada y se la puede llevar flotando hasta su ubicación final donde será anclada en el fondo.

Como resultado de la necesidad de hacer flotar una estructura tan pesada de hormigón, hay que hacer los cálculos con mucha exactitud y uno de los factores críticos de diseño para una plataforma petrolera en alta mar es el espesor de la pared celular de flotabilidad: si las paredes son demasiado delgadas, se romperán durante el apareamiento con la cubierta y si son demasiado gruesas, la estructura simplemente no flotará o será difícil de mover a su destino final. Para hacer frente a la delgada línea que existe entre paredes «demasiado gruesas» o «demasiado delgadas«, se tiene que hacer un análisis muy preciso de la geometría de la celda de flotación y eso se hizo con el software de Análisis de elementos finito NASTRAN.

El Sleipner A-1 estaba programado para el apareamiento entre cubierta y flotadores el 1 de septiembre de 1991 y se hizo la prueba de lastre el 23. agosto de 1991. En la misma la cosa falló por un defectuoso cálculo en el Análisis de elementos finitos en una de las celdas de flotación resultando que los esfuerzos de corte se subestimaron en un 47%, y esto llevó a un diseño insuficiente. En particular, algunos muros de hormigón no eran lo suficientemente gruesos y uno de ellos se rompió, El fracaso de la pared celular fue rastreado como se indica en el siguiente diagrama.

Se concluyó que las paredes de las células marcadas fueron los puntos más débiles de la plataforma; Los cálculos basados en el Análisis de elementos finitos mostraron que la carga en estas partes estaba muy cerca de su capacidad máxima y hubo posiblemente un aplastamiento del hormigón en la intersección entre la pared celular tri y la articulación de la célula.

Más información se puede encontrar en los artículos siguientes:

La plataforma Sleipner accidentes, por B. Jakobsen y F. Rosendahl, Ingeniería Estructural Internacional 4 (3), agosto de 1994, pp. 190-193.

El fracaso de una plataforma offshore, por RG Selby, FJ Vecchio, y MP Collins, Hormigón Internacional 19 (8), agosto de 1997, pp. 28-35.

Y aquí tenemos un vídeo de aquel desastre

El uso del software lleva implícito el error humano y cuando se programa software de complejidad considerable, los desastres atribuibles a malos cálculos numéricos en los ordenadores implicados pueden causar perdidas muy considerables. Ya lo dijo Voltaire (1694-1778) aquel filósofo y escritor francés cuando afirmó eso de que: «el hombre se precipita en el error con más rapidez que los ríos corren hacia el mar»

Fuentes:

https://en.wikipedia.org/wiki/Radix_point

http://www.math.umn.edu/~arnold/disasters/patriot.html por Douglas N. Arnold

http://www.math.umn.edu/~arnold/disasters/ariane.html por Douglas N. Arnold

La tecnología olvidada de la detección acústica.

Es un gesto natural en el ser humano el llevar una mano a la oreja haciendo embudo para escuchar un sonido lejano. Con esta acción lo que se pretende es dirigir una cantidad mayor de ondas sonoras al oído y por eso desde tiempos muy remotos las personas con deficiencias auditivas han usado trompetillas para amplificar en cierta manera los sonidos que se generaban a su alrededor. En esto se basa la vieja tecnología de la detección acústica.

La imagen que da pie a este artículo está tomada del boletín de English Mechanic de 30 Sept 1898, p155 y en la misma se muestra al reverendo John Mackenzie Bacon, miembro de la Royal Astronomical Society-un personaje muy respetado en aquella época- con una dama victoriana tendida en la hierba que escucha a una especie de embudo montado sobre un carro con ruedas

Este viejo reportaje hacía mención a unos experimentos que hizo aquel reverendo en el Crystal Palace de Londres para escuchar a otras personas que volaban en globo y con la colaboración de un pequeño ejército de voluntarios- entre los que no faltaron las damas- usando unas trompetas gigantes trataban de escuchar las voces de las personas que iban montadas en un globo aerostático Desafortunadamente, el relato que da el English Mechanic sobre aquellos experimentos es vago y discursivo y no sabemos los resultados se obtuvieron , pero si sabemos que las ideas de aquel reverendo continuaría desarrollándose a lo largo del siglo XX.

La localización acústica es una vieja tecnología que inicialmente se empezó a desarrollar en los Estados Unidos para determinar la presencia y posición de los barcos en la niebla. Allí hubo dos patentes que ofrecían una mejora en el modo de determinar correctamente la dirección de los sonidos provenientes de un barco: la primera data de 1859 a nombre de Benjamin R. Smith (patente número 23718 ) y la segunda pertenece a James Cochrane que en 1871 ofreció una mejora en la localización de los barcos mediante un sistema de balizas que transmitían señales sonoras con especiales característica ( patente estadounidense 110827 ). Tras ellas vino el aparato más antiguo que se conoce de esta vieja tecnología de detección acústica que fue el Topophone del profesor Mayer presentado en la edición del 3 de julio de 1880 de la revista Scientific American .

Imagen de Scientific American, 3 de julio de 1880

Alfred Mayer fue un profesor de física del Instituto de Tecnología Stevens en Hoboken, Nueva Jersey que entre 1871 y hasta su muerte en 1897 realizó varios trabajos sobre la determinación de una ley que conectase el tono de un sonido con la duración de su sensación residual. Basándose en los mismos inventó el Mayer Topophone que se patentó en los Estados Unidos en 1880, con el número de patente 224199

El topophone se utilizó para localizar a los buques en la niebla y el serviola se colocaba una especie de yugo con un par de trompetas en el eje de sus hombros, que estaban conectadas por medio de unos tubos elásticos a sus oídos. En el momento en que los buques emitían sus señales acústicas, giraba sus hombros a derecha e izquierda, y cuando la intensidad del sonido que le llegaba a los oídos era máxima, sabía con cierta precisión la dirección en que se encontraba el buque emisor. De esta manera podían evitarse las colisiones con cierta garantía y con este aparato se abrió una línea de investigación que intentaba usar la ubicación acústica para la detección pasiva de objetos.

Fue en la Primera Guerra Mundial cuando empezó a gestarse la idea de rastrear la posición del enemigo siguiendo los sonidos que este emitía. El 19 de enero de 1915 ocurrió un evento que cambiaría la guerra para siempre. Dos aeronaves Zeppelin volaron a través del canal de la Mancha y lanzaron bombas sobre Great Yarmouth, Sheringham y Kings Lynn. En mayo de 1915, dirigibles y aviación del Ejército y la Armada alemana volvieron a bombardear objetivos en los estuarios del Támesis y el río Humber, en Inglaterra y Londres fue atacado por primera vez el 31 de mayo de aquel año. Estos bombardeos crearon un clima de terror en Inglaterra porque la guerra se había extendido más allá de los campos de batalla de Europa occidental y la misma ya llegaba a los hogares de las personas. Estaba claro que algo había que hacer para frenar esta nueva y temible amenaza y los investigadores empezaron a buscar una manera de escuchar el sonido de un avión enemigo desde varios puntos para luego triangular su posición.

El Comandante Alfred Rawlinson de la Royal Naval Volunteer Reserve (Reserva Real de Voluntarios Navales) que en el otoño de 1916 comandaba una batería antiaérea móvil en la costa este de Inglaterra fue el primero que improvisó un aparato de escucha con un par de cuernos de gramófono montados sobre un poste giratorio para localizar a los aviones y los zepelines alemanes en condiciones nubladas. Aunque no obtuvo grandes éxitos con aquel método, Rawlinson afirmó haber forzado a un Zeppelin a deshacerse de sus bombas en una ocasión pero cuando en 1917, los dirigibles alemanes fueron sustituidos por aviones bimotor del tipo Gotha y Giant que en total arrojaron 300 toneladas de bombas sobre Gran Bretaña causando unos 5.000 heridos, de los cuales un tercio falleció se planteó la urgente necesidad de encontrar algún tipo de sistema de alerta temprana, para prevenir aquellos ataques aéreos y así nació la idea de la «defensa acústica«.

Los dos pioneros de la detección acústica

Bajo la dirección del teniente William Bragg, (izquierda en la imagen) que había compartido un premio Nobel con su hijo en 1915 por sus trabajos en rayos X, la detección acústica se convirtió en un arma eficaz contra la artillería alemana. En junio de 1916, otro teniente, William Sansome Tucker, inventó el micrófono de «alambre caliente» que esencialmente usaba un alambre delgado para medir el efecto de enfriamiento de la onda de choque de un sonido con una lectura bastante precisa que eliminaba todo el ruido de fondo. A medida que aquel sistema se desarrolló, se volvió cada vez más preciso y poco a poco pudo localizarse a la artillería enemiga con una precisión de unos 25 metros.

El micrófono Tucker sería fundamental para el desarrollo de los sistemas acústicos de alerta temprana antiaérea y poco a poco fueron aparecieron instrumentos de defensa aérea que lo utilizaban usando grandes bocinas con micrófonos conectados a las orejas de los operadores como el localizador de sonido Mk 1 fabricado por la empresa británica A.W. Gamage Ltd (fabricante en tiempo de paz de juguetes y bicicletas) que produjo para el ejército inglés unos extraños artilugios que intentaban detectar el sonido de la aviación enemiga en el cielo del Reino Unido

Localizador de sonido Mk 1

Después surgieron otros numerosos inventos en este campo desde mediados de la Primera Guerra Mundial con modelos personales que usaban distintos modelos de cuernos para aprovechar tanto la ganancia acústica como la direccionalidad, aumentado la capacidad del observador para localizar la dirección de un sonido.

Por ejemplo, esta imagen pertenece a la época de la Primera Guerra Mundial, y muestra a un oficial subalterno y a un suboficial de un regimiento de la Feldartillerie alemana que usan un aparato de localización acústico / óptico combinado. Las gafas de pequeña apertura se colocaban de modo que cuando se localizara el sonido girando la cabeza, la aeronave fuera visible.

También en Francia René Baillaud inventó el paraboloide, un aparato precursor del radar que consistía en un dispositivo parabólico que reflejaba el sonido de una aeronave hacia el oído de los observadores

Fotografías de René Baillaud (izquierda) y un soldado francés (derecha) maniobrando un paraboloide de madera en el techo del Observatorio de París, Meudon (de Baillaud 1980, 144). Copyright © 1980 de Réne Baillaud. De la colección privada de Réne Baillaud.
Fotografía aparecida en el Illustrated London News del 5 de septiembre de 1936
que muestra un «paraboloide de Baillaud» adoptado por el Ejército francés en 1918.

A partir de este principio, utilizado en Francia, en Inglaterra empezaron a desarrollarse otros amplificadores de sonido como parte de los esfuerzos de Guerra para desarrollar un medio de localización de la artillería enemiga y por los experimentos realizados, se pudo identificar las bajas frecuencias emitidas por los motores de los aviones comprobándose que las áreas de superficie grandes tendían a ser más efectivas. Así fue como surgió la idea de los llamados espejos acústicos o espejos sonoros, que en inglés se conocen como acoustic mirrors o sound mirrors y que que se emplearon en la Primera Guerra Mundial para anticiparse al ataque del enemigo ya que permitían percibir el ruido de los motores de la aviación enemiga a kilómetros de distancia

La idea surgió en julio de 1915 con el investigador británico Mather que realizó una serie de experimentos con un prototipo de estos espejos que esculpió en los acantilados de piedra caliza al sur del río Támesis en la costa sureste de Inglaterra. Utilizando un estetoscopio, aquel investigador escuchaba el sonido reflejado con una bocina ubicada en un soporte giratorio y conectada a un puntero. La forma del receptor era de media esfera, con un recolector acústico en su centro y el operador lo movía por la cara del reflector hasta conseguir recibir la mayor intensidad de sonido. Así el rumbo al objetivo se podía deducir por la escala de los ejes vertical y horizontal del soporte del recolector.

Aquel profesor Mather y su equipo llevaron a cabo una serie de experimentos con su reflector y generaron un informe en el que constataban que podrían detectar a un objeto volador desde una distancia de 20 millas, pero el gobierno británico no le creyó y decidió nombrar a William Sansome Tucker– el inventor del micrófono de «alambre caliente» – como director de Investigación Acústica en 1925 con el fin de mejorar las prestaciones de aquellos reflectores

Los micrófonos de hilo caliente diseñados por Tucker se colocaron en el foco de cada estructura e hicieron posible que los oyentes pudieran detectar el sonido de los aviones enemigos que se aproximaban dando una advertencia de quince minutos a la artillería inglesa para que se preparara para el ataque. Algunos de aquellos espejos acústicos incluso llegaron a detectar los sonidos de los aviones enemigos que se aproximaban a una distancia de casi 40 kilómetros y varios reflectores de cinco metros de diámetro fueron construidos en la costa sureste, del estuario del Támesis y la costa oriental de Inglaterra similares al primero construido por el profesor Mather, siendo esculpidos en los acantilados, pero revestidos con hormigón, para conseguir una mayor capacidad de reflexión del sonido.

Los más modernos fueron construcciones aisladas realizadas enteramente en hormigón y finalmente los reflectores instalados en las proximidades de Dover y North Foreland fueron capaces de detectar ataques aéreos dentro de un margen de entre 12 y 15 millas en dirección a Londres en octubre de 1917. En las marismas de Denge en la península de Dungeness en Kent, se encuentran todavía estas estructuras de hormigón que se elevan del paisaje llano como reliquias de una antigua civilización olvidada desde hace mucho tiempo.

Uno de aquellos espejos acústicos

Terminada la Gran Guerra y entre 1920 y 1935 la tecnología de los localizadores acústicos evolucionó en un sinfin de modelos. Los ‘localizadores de sonido personales’ fueron desarrollados por los holandeses en su «Servicio de Vigilancia Aérea» en la década de 1930 y estaban formados por dos secciones parabólicas (presumiblemente hechas de aluminio equipadas con cojines inflables) con diversas versiones como los de la imagen siguiente donde se muestran a dos de ellos probados en la estación de investigación militar holandesa de Waalsdorp.

Las últimas variantes de aquel tipo de ‘orejas gigantes’ llevaban un refuerzo cruzado adicional agregado en la parte superior de los cuernos y dos contrapesos que sobresalían hacia atrás. Se afirmaba que estos equipos tenían una precisión de dos grados y dieciocho de ellos se construyeron a partir de 1934 para el Regimiento de Ingenieros del Ejército Holandés en las Indias Orientales.

Prototipo de localizador de sonido personal del «Servicio de Vigilancia Aérea» holandesa

Otros localizadores más sofisticados utilizaban a equipos de varias personas como el de la imagen siguiente que muestra uno con cuatro bocinas usado en Inglaterra en la década de 1930 con tres operadores, dos con estetoscopios conectados a pares de bocinas para escuchar en estéreo.

Y hubo modelos más sofisticados como el de la siguiente imagen que muestra a un equipo de localización de sonido alemán de 1939 compuesto de cuatro bocinas acústicas, un par horizontal y un par vertical, conectados por tubos de goma a auriculares de tipo estetoscopio que usan los dos técnicos de izquierda y derecha. Los auriculares estéreo permitían a un técnico determinar la dirección y al otro la elevación de la aeronave.

Algunos de aquellos inventos fueron realmente curiosos como los del ejército japonés con grandes tubas montadas sobre carros. Aquel equipo se denominó ‘Detector grande tipo 90‘ con una versión más pequeña llamada «Detector pequeño tipo 90«. En la imagen siguiente podemos ver pasando revista a uno de estos artefactos al emperador japonés Hirohito.

Imagen publicada en la revista estadounidense
Life , 28 de diciembre de 1936

Todo acabó cuando en septiembre de 1935, el físico escocés Robert Watson-Watt experimentando con ondas de radio comprobó que estas se reflejaban de vuelta a la estación de tierra, y que con ellas se podía localizar un avión con exactitud. La nueva técnica que se denominó Radio Detección o radar y pasaría a ser el componente fundamental de toda la defensa aérea moderna y los esfuerzos por construir aparatos capaces de informar de la presencia de aeronaves mediante sus emisiones acústicas, con sus grandes audífonos basados en el buen oído de sus operadores pasaron a la historia como una tecnología olvidada

Fuentes:

N. SCARTH, Richard: Echoes from the Sky


Fitzgibbon, Constantine: London’s Burning.

El hombre «sin miedo»

Alex Honnold es un escalador de paredes verticales que asciende sin cuerdas ni equipos de protección de ningún tipo. Se trata de una modalidad deportiva, denominada «escalada libre» o «free solo», en la que el escalador no utiliza ningún tipo de cuerda o equipo que lo asegure. En Internet abundan los vídeos que muestran a este escalador asaltando a todo tipo de colosos calcáreos y el espectador al verlos puede que sienta náuseas o escalofríos de vértigo al verlo con sus dedos agarrados a una muesca imperceptible de la pared y a más de 500 metros de altitud, o mirando como sus pies se apoyan en una laja más pequeña que un sacapuntas pero esto no importa a Honnold, de hecho nunca parece tener miedo a una caída.

Hay quien afirma que el «solo libre» es la forma más pura de escalar y otros lo llaman simplemente un «suicidio» . El escritor John Long lo resumió en una frase lapidaria: «si caes, mueres» y ahí es donde Honnold se ganó el apodo de Alex “No Big Deal” Honnold (Alex “no es para tanto” Honnold) que para él significa que no hay que preocuparse por algo, una frase que suele repetir en las situaciones más aterradoras aunque verlo escalar con los dedos de sus manos casi sin contacto con la roca mientras que sus pies se aferran a minúsculos bordes delgados de la misma produzca angustia.

Alex Honnold decidió en el año 2014 coronar sin ningún tipo de cuerda que lo asegurasen una ruta apodada ‘el sendero luminoso‘, en el Potreo Chico (México), y tardó poco menos de tres horas en ascender los 764 metros de aquella pared vertical. Su compañero Cedar Wright, tras aquella escalada afirmó: “en ocasiones son sólo milímetros de sus pies y manos los que le sujetan a la pared. La mayor parte del tiempo intentaba no pensar sobre él escalando sin cuerda aquella vía porque era algo aterrador”

Su mayor logro, lo consiguió el sábado 3 de junio de 2017 al ser la primera persona en escalar el emblemático muro de granito de 914 metros de altura conocido como «El Capitan» en el Parque Nacional Yosemite de California. Un equipo de directores liderado por Jimmy Chin, uno de los compañeros de escalada más antiguos de Honnold, y Elizabeth Chai Vasarhelyi, filmaron aquel ascenso en un documental titulado»Free Solo«. Nadie sabía si el mismo era posible, y de hecho, el equipo que trabajó en aquella película, tuvo que considerar la horrible posibilidad de que en realidad lo que estuvieran rodando fuera una snuff movie. Y es que escalar esa pared puede llevar bastante tiempo a escaladores experimentados y con cuerdas pero Honnold lo hizo en en 3 horas y 56 minutos sin cuerdas y sin ningún equipo de protección. Ver el documental «Free Solo» puede desencadenar cierto grado de vértigo, ya que en las últimas partes del mismo sabes que si Alex hubiera perdido el equilibrio, habría caído hasta la muerte en el suelo muy por debajo.

Y la pregunta que surge es la siguiente: ¿experimenta Alex Honnold alguna sensación de miedo cuando se juega la vida en sus escaladas sin protección ? La revista Nautilus, publicó un artículo del escritor J.B. MacKinnon con este título: El extraño cerebro del escalador en solo más grande del mundo, ( ver fuentes abajo) al que seguía el llamativo subtítulo de «Alex Honnold no experimenta miedo como el resto de nosotros» y en el que se describe el estudio neurológico realizado sobre el cerebro de Alex Honnold.

La idea surgió en una de las mesas redondas en las que suele participar este escalador que se celebró en el año 2014, en la sede de la National Geographic Society en Washington, DC en donde la neuróloga Jane E. Joseph, investigadora del MUSC (Medical University of South Carolina) terminó lanzando la siguiente hipótesis: «la amígdala de ese chico no está funcionando».

Heinrich Klüver y Paul Bucy

Pero.. ¿qué es la amigdala? ¿Y qué tiene que ver su funcionamiento con el miedo? El descubrimiento del importante papel de este órgano cerebral se remonta al año 1955, cuando los doctores Heinrich Klüver y Paul Bucy describieron el síndrome conductual que lleva su nombre: se trata del síndrome de Klüver-Bucy (en inglés Klüver syndrome) que es un trastorno de la conducta que sucede cuando los lóbulos temporales bilaterales cerebrales sufren alguna alteración y la amígdala está particularmente implicada en la patogenia del mismo. El descubrimiento vino cuando ellos trabajaban con mescalina un químico extraído de un cactus, que causa alucinaciones vívidas y Klüver notó que los monos que recibían mescalina a menudo presentaban movimientos automáticos en los labios, lo que le recordó a síntomas similares en pacientes con epilepsia del lóbulo temporal. Para tratar de encontrar la región del cerebro afectada por esta patogenia ambos investigadores trabajaron con un mono Rhesus muy agresivo, llamado Aurora al que sometieron a una lobotomía bilateral extirpando gran parte del lóbulo temporal izquierdo de su cerebro. Cuando este mono despertó, su comportamiento agresivo había desaparecido, y se comportaba mansamente.

Larry Weiskrantz (1926-2018)

La asociación de estos hechos con la amígdala vino en 1956 cuando Larry Weiskrantz describió los componentes emocionales de aquel sindrome de Kluber-Bucy (1937), indicando que conformaban una lesión del lóbulo temporal y más específicamente, de la amigdala cerebral. Fue entonces cuando Weiskrantz propuso que si había lesiones en la amígdala los estímulos eran percibidos sin generar miedo ni ansiedad.

Pero sentir miedo es algo necesario ya que el mismo es una respuesta cerebral que activa los mecanismos de defensa de nuestro cuerpo. Cuando lo sentimos se produce una respuesta de nuestro sistema nervioso simpático y liberamos hormonas como la adrenalina y la noradrenalina que aumentan la frecuencia cardíaca, la presión arterial y el ritmo respiratorio para prepararnos ante una situación de peligro. Muchos miedos instintivo ya viene con nosotros dentro del paquete genético que recibimos al nacer y uno de ellos es el miedo a caer. Los bebés recién nacidos experimentan sobresaltos si sienten que se caen de los brazos de quienes los sujetan ya que las caídas ponen en riesgo la integridad y la vida del ser humano. Por eso la biología nos incorpora el “miedo a las alturas ” desde que nacemos como una señal de alerta.

La amígdala es el “centro del miedo” del cerebro. Según opinión del catedrático de Psicobiología de la UAB, D. Ignacio Morgado, la misma empezó a desarrollarse en los mamíferos hace unos 220 millones de años y se encuentra en una de las partes más antiguas de nuestro cerebro: el sistema límbico

Sistema límbico
Ubicación de la amígdala

La amígdala tiene forma de almendra y recibe información directa de nuestros sentidos, ya que está conectada con el hipocampo, una de las partes más importantes del cerebro. Gracias a la respuesta de miedo que produce, podemos- por ejemplo- dar un paso atrás ante un precipicio o desencadenar otra serie de respuestas corporales como latidos cardíacos acelerados, palmas sudorosas, etc. Su relación anatómica con cada una de las otras estructuras del sistema límbico humano implica una memoria que une recuerdos de sucesos peligrosos que nos han ocurrido muy próximos en el tiempo, para ayudar al cerebro a distinguir cuándo tiene que poner en marcha una respuesta de defensa frente a una potencial amenaza.

Relación de la amígdala con otras estructuras cerebrales

En la figura anterior vemos como se relaciona la amígdala con otras estructuras cerebrales. En la parte A vemos su disposición anatómica y en la B el flujo de señales que se establece entre esas estructuras del mismo y que determinan la cadena neuronal que desencadena las emociones del miedo. Se trata de una de las áreas evolutivas más importantes de nuestro cerebro y actualmente una de las principales herramientas para su estudio es la resonancia magnética funcional. Esta tecnología permite estudiar en detalle las áreas asociadas a su actividad cuando a nuestros ojos se muestran imágenes que podamos asociar como “peligrosas”.

RNM funcional. Amígdalas cerebrales respondiendo a una fotografía con una imagen desagradable. Las líneas cruzadas muestran la amígdala. Imagen extraída de este enlace

Por eso- como antes hemos dicho- una de las consecuencias de una lesión en la amígdala o un mal funcionamiento de la misma es, precisamente, la incapacidad de adquirir y expresar el reflejo de miedo condicionado.La literatura médica incluye casos de personas con enfermedades congénitas raras, como la enfermedad de Urbach-Wiethe, que dañan y degradan la amígdala y un estudio publicado en Nature neuroscience ya indicó que los sujetos con lesiones en la amígdala no reaccionan ante una situación amenazante que en otras personas desencadenarían un stress de miedo. Es decir que si hay una lesión en la amígdala el sujeto carece de la capacidad de adquirir y expresar el reflejo del miedo.

Viendo escalar a Honnold, siempre surgen esta pregunta: ¿No teme morir? Sería fácil llamarlo a «temerario» o «loco» cuando uno mira sus ascensiones pero él responde de este modo: «Con la escalada libre en solitario, obviamente sé que estoy en peligro, pero sentir miedo mientras estoy allí no me ayuda de ninguna manera«.

Alex Honnold escala sin cuerdas ni arnes «El Capitan» en el Parque Nacional Yosemite. Fotos cortesia de Jimmy Chin / National Geographic

Pero ¿cómo afronta el miedo el escalador Alex Honnold? ¿Carece o funciona mal su amígdala? y aquí es donde entra en escena Jane E. Joseph una investigadora del MUSC (Medical University of South Carolina) que en el año 2005 fue una de las primeras personas en realizar resonancias magnéticas funcionales a buscadores de altas sensaciones, ese tipo de personas que se sienten atraídas por experiencias intensas y que están dispuestas a correr riesgos para tenerlas. En Alex Honnold ella vio a a un súper buscador de sensaciones, que perseguía experiencias en los límites extremos del peligro y se hizo esta pregunta: «¿está la amígdala de Alex Honnold realmente funcionando?». La única respuesta era la de investigar el cerebro de Honnold y ver «lo que pasaba con su amígdala».

El técnico James Purl y la neurocientífica Jane E. Joseph colocan a Honnold en un tubo de resonancia magnética para medir los niveles de miedo de su cerebro. © 2016 NGC Network International, LLC y NGC Network US, LLC

Jane E. Joseph realizó su estudio en el año 2016 colocando a Honnold en un escáner de resonancia magnética funcional para ver cómo su cerebro respondía a los estímulos del miedo. En ese tubo que es esencialmente un imán enorme, para detectar la actividad en las diferentes regiones del cerebro rastreando los flujos sanguíneos y que proporciona imágenes por resonancia magnética (fMRI) lo primero que descubrieron es que si Honnold puede escalar sin cuerdas desafiando la muerte no es porque tuviera un espacio vacío donde debería estar su amígdala ya que se descubrió que este aparato existía y además parecía perfectamente sano.

La prueba consistió en presentar a Honnold una serie de 200 imágenes destinadas a perturbar o emocionar y que en personas normales suelen provocar una fuerte respuesta de su amígdala«. La propia investigadora manifestó que «no podía soportar ver algunas de ellas” ya que la selección incluía cadáveres sangrientamente mutilados, inodoros llenos de heces y escenas de peligro extremo.

Comparación del cerebro de Honnold (izquierda) con el de un sujeto de control (derecha), un escalador de una edad similar.
Las miras marcan la amígdala, un grupo de núcleos involucrados en generar miedo.
Mientras ambos escaladores miran las mismas imágenes excitantes, la amígdala del sujeto de control se ilumina, mientras que la de Honnold permanece inerte, sin mostrar actividad alguna
. Archivo Jane Joseph

En las exploraciones se comparó el cerebro de Honnold (izquierda) con el de un sujeto de control (derecha), que era un escalador de una edad similar y cuando ambos escaladores miraban las mismas imágenes excitantes, se pudo ver que la amígdala del sujeto de control se iluminaba y parecía un letrero de neón mientras que la de Honnold permanecía en gris mostrando una activación de cero. Eso solo podía deberse a una total ausencia de miedo en Alex Honnold

¿Le pasaba lo mismo a Honnold cuando subía sin cuerdas una pared enfrentándose a situaciones que harían que casi cualquier otra persona se derritiera de terror? Pues sí dice Joseph y de hecho, eso es exactamente lo que ella cree que pasaba. Si no hay activación de la amígdala, probablemente no existe respuesta a la amenaza de peligro pero el caso de Honnold era diferente. El tenia un cerebro tan extraordinario que realmente no siente ningún miedo cuando está aferrado a unos milímetros de pared con un vacío aterrador debajo pese a que-con toda seguridad- su amígdala debería responder con miedo a esa experiencia.

Y de esta manera la neuróloga Jane E. Joseph encontró que algunos cerebros simplemente desafian la ciencia y que el cerebro de Alex Honnold era algo extraordinario. ¿Podría darse el caso de que su amígdala nunca se disparase? En ninguna parte del centro del miedo del cerebro de Honnold pudieron los neurocientíficos detectar actividad, pero él mismo nos ha dado su secreto. Al principio en algunas de sus escaladas terminó asustado, realmente asustado, pero no se rindió y después de esas primeras experiencias se puso lo que él llama su «armadura mental» y cruzó el umbral del miedo una y otra vez. Finalmente ha terminado consiguiendo un sistema regulador tan bien perfeccionado que aunque su amígdala se dispare su corteza frontal es tan poderosa que puede calmarlo. Es decir, lo que dice aquel antiguo proverbio: » El miedo llamó a mi puerta y cuando abrí ya no había nadie

Fuentes:

Joseph LeDoux. The Emotional Brain, Fear, and the Amygdala. Cellular and Molecular Neurobiology, Vol. 23, Nos. 4/5, October 2003

Nautilus

MUSC Medical University of South Carolina

Frontier in Human Neuroscience

La caja de Pandora del bien y del mal

Cuando amenazamos con abrir la «caja de Pandora» nos referimos a hacer algo que desencadena múltiples conflictos. A principios del siglo XIX había una de esas cajas que escondía un mundo completamente nuevo de productos químicos ocultos en las plantas y el primer hombre que la abrió fue un joven boticario de Westphalia, llamado llamado Friedrich Wilhelm Sertürner (1783-1841) que aisló el alcaloide fenantreno del opio, responsable de su acción narcótica: la morfina.

Desde la más remota antigüedad el hombre siempre supo que algunos preparados con plantas podían generar efectos diversos en el ser humano, pero nadie había abierto la «caja de Pandora» que escondía los ocultos secretos de las mismas y los preparados con plantas siempre han sido muy diversos y variados, por ejemplo, las hojas de té (Camellia sinensis) y del tabaco (Nicotiana tabacum) son sólo dos ejemplos de los muchos vegetales en los cuales se hallan en mayor proporción los misteriosos compuestos que se esconden esa caja de Pandora vegetal. También se usaron semillas como las de la cafeína (Coffea arabica) empleada como estimulante y otras como la estricnina sacada de la nuez vómica (una especie de árbol de gran tamaño conocido en Europa desde el año 1500) con la que se puede matar a los seres humanos. No olvidemos tampoco los preparados de raíces como las del acónito (Aconitum napellus), que es un poderoso veneno o la atropina ubicada en la belladona (Atropa Belladona) y en la hierba carmín (Phytolacca americana), un nombre instaurado por Linneo por los múltiples envenenamientos que era capaz de provocar en referencia a aquella diosa mitológica griega llamada Parca Átropos, que se encargaba de cortar el hilo de la existencia del hombre.

También se han empleado algunos misteriosos compuestos escondidos en los frutos de algunas plantas como los de la cicuta (Conium maculatum) capaz de producir venenos mortales para el hombre, y todo estaba oculto en esa «caja de Pandora» secreta de las plantas. Un secreto que fue descubierto con los alcaloides cuya primera formulación se la debemos a Paul Traugott Meissner de Viena

Los alcaloides son unos metabolitos secundarios de los vegetales que se sintetizan mediante aminoácidos. Se trata de compuestos químicos que cuentan con nitrógeno y que provienen del proceso metabólico de un aminoácido. Las plantas los aplican en tres diferentes grupos de funciones : las defensivas (usan estos compuestos para protegerse de los ataques de los animales); las hormonales (de forma similar a lo que ocurre en los animales con la adrenalina) y las alelopáticas (para influir en otras plantas de forma positiva o negativa, según le convenga) pero estos alcaloides que estaban en aquella «caja de Pandora» de las plantas al ser descubiertos produjeron un efecto demoledor pese a que también generaron algunos efectos beneficiosos, pero una cosa es experimentar a ciegas con las plantas y otra sintetizar sus alcaloides, esto es: extraer sus principios activos. El uso de los alcaloides sintetizados trajo a la humanidad unas consecuencias catastróficas por ser unos elementos psicoactivos que generan adicción en la persona, que los consume.

Papaver somniferum Shutterstock

La amapola (Papaver somniferum), se originó en España, el sur de Francia y el norte de África, y luego pasó a otras culturas, entre ellas a Turquía. Del jugo lechoso de la amapola se extrae el opio (del griego opós = jugo ) que siempre fue usado como droga médica y recreativa desde tiempos muy antiguos. Hace más de 5.000 años en las tablillas cuneiformes descubiertas en Uruk se nos representaba a la adormidera como » la planta de la alegría » con dos signos: hul-gil (planta del gozo). También aparece en los cilindros babilónicos antiguos, en imágenes de la cultura cretense-micénica y en geroglificos del Antiguo Egipto. Como tantos preparados hechos con plantas fue usado como medicina popular con mucha frecuencia a lo largo de la historia y también fue el ingrediente principal del láudano, un brebaje alcohólico desarrollada por el influyente médico Paracelso en 1527 cuya receta ( aparte del opio en sí) incluía vino blanco, azafrán, clavo, canela y otras sustancias. Aquella preparación fue utilizada hasta el siglo XIX para tratar una amplia gama de enfermedades pero aunque comúnmente se usaba, nadie comprendía totalmente el mecanismo de funcionamiento del opio.

Láudano

La expansión de opio se produjo en 1773, cuando Inglaterra lo utilizó como moneda de cambio en la importación de té iniciando un proceso de exportación masiva del mismo hacia China, a través de la todopoderosa British East India Company, y generando un fenómeno de «drogodependencia de masas». El Reino Unido lo manejó durante muchos años desde Hong-Kong y los chinos a su vez lo introdujeron a los Estados Unidos cuando fueron contratados como mano de obra para la construcción del ferrocarril. De esta manera se disparó su consumo, en todo el mundo.

Fumadores de opio en China. Shutterstock

Con el transcurso de los años, se descubrió que el opio causaba una fuerte adicción pero nadie había conseguido demostrar cual era la sustancia responsable de sus acciones. Actualmente se sabe que el opio contiene cerca de cincuenta alcaloides pero el más importante de todos es la morfina .

La historia de la apertura de la «caja de Pandora» de la amapola (Papaver somniferum) recuerda a su propia historia mitológica. Cómo sabemos, en la mitología griega, Pandora fue la primera mujer de la Tierra que llevaba consigo una caja en la que los dioses habían escondido todos los males del mundo. Un día presa por la curiosidad abrió aquella caja, y su fatal contenido se diseminó por nuestro planeta. Esto es lo que le pasó al joven alemán Sertürner: su curiosidad lo llevó a ser la primera persona que consiguió aislar un ingrediente activo asociado a una planta abriendo el camino a la creación de las drogas más populares, más deseables y más adictivas del mundo.

Todo empezó cuando su jefe, el farmacéutico del pueblo le encargó que hiciera un estudio de la calidad del opio, que se dispensaba en la farmacia donde él trabajaba pero poco a poco, influenciado por los trabajos del sueco Carl Scheele, que había logrado aislar los ácidos orgánicos de algunas plantas su interés y curiosidad fue aumentando, Descubrir el camino para abrir aquella «caja de Pandora» le tomó a Sertürner más de dos años de pruebas. Primero empezó con el opio crudo, disolviéndolo en un ácido y obteniendo una sustancia que probó en perros sin que pasara absolutamente nada; luego trató de hacer algo que nadie había intentado antes: siguiendo los principios de la alquimia de que en toda sustancia hay un principio activo que le da su poder se preguntó: «¿qué pasaría si le quitamos el alcohol? ¿nos quedaremos con ese principio fundamental? y sin tener ni idea de lo que estaba haciendo alrededor de 1803 Sertürner decidió ver si podía extraer una sustancia química alcalina de aquella sustancia ácida, mezclando su preparado con amoníaco para reducirlo. La temperatura de la solución se elevó y a medida que la misma se enfriaba, comenzó a enturbiarse, convirtiéndose en un precipitado fangoso donde aparecieron unos cristales rómbicos, incoloros, traslúcidos y brillantes que descendían lentamente al fondo del recipiente

Uno de los cristales intrigantes de Sertürner. Derechos de autor de la imagen ANNIE CAVANAGH/WELLCOME COLLECTION

Utilizó primero experimentalmente aquellos cristales en gatos,comprobando que los mismos tenían un gran poder sedante. Luego se los dio a un perro, y éste se adormeció, tembló y luego murió. Él llamó a aquellos cristales ‘Principium Somniferum’ (del latín «principio inductor del sueño«) o ‘morfium’ (morfina) en honor a Morfeo, el Dios griego de los sueños.

Decidió publicar los resultados de su investigación y en 1815 envió su informe al «Journal der Pharmacie» con el título de : «Sobre un ácido presente en el opio. Exposición del ácido puro de papávero junto a una búsqueda química del opio, con relación particular a una nueva sustancia descubierta a las observaciones pertinentes a ella» . Se sentó a esperar el aplauso… pero este nunca llegó. La mayoría de sus colegas farmacéuticos lo rechazaron y no lo dieron por válido.

Así es que Sertürner recurrió a la única fórmula que haría que su descubrimiento se convirtiera en un hallazgo oficial: decidió llevar a cabo una experimentación pública sobre él mismo y tres amigos que se prestaron para su experimento. La idea era la de demostrar que la sustancia que él había aislado era la responsable de las acciones del opio y en 1815, con Europa en guerra, aquellos cuatro jóvenes alemanes decidieron hacer un experimento particularmente temerario, que transformaría sus vidas y las nuestras.

En la farmacia de Einbeck donde trabajaba y con la osadía de los 20 años, Sertürner repartió una primera mezcla de morfina y alcohol entre él y sus tres compañeros. Fueron 72 horas en las que tanto él como sus tres amigos consumieron alrededor de 10 veces lo que ahora se podría recomendar para una sola dosis de morfina y en sus escritos relatan todo un tremendo proceso de náuseas, fiebre y mareos.

Friedrich Sertürner, describió que cayó semiconsciente al suelo, con fuertes dolores y con los dedos crispándose con cada latido de su corazón, llegando a pensar que “se había pasado” con su experimento y que se estaban envenenando. De alguna manera, logró arrastrarse hacia una botella de vinagre, tragando parte de su contenido y el resto, lo vertió en la boca de sus inconscientes colaboradores. Al final, los cuatro pasaron por un proceso descrito como un “largo sueño” y finalmente pudieron sobrevivir aquel peligroso experimento y relatar los efectos secundarios de la morfina: dolores de cabeza, de estómago y una fatiga extrema que se prolongaría durante varios días.

Así, de esta curiosa manera Sertürner oficializó el hallazgo del principio activo del opio: la morfina y por primera vez se había logrado aislar un alcaloide de su fuente natural. En París, a Joseph Louis Gay-Lussac, probablemente el mejor químico del mundo de su época, le pareció muy interesante aquel estudio y decidió que debía traducirse al francés y publicarse, y todo el mundo pudo enterarse de la extracción del ingrediente activo del opio.

La morfina comercializada en 1817 fue muy utilizada en medicina y resultó ser muy adictiva tras la aparición de las agujas hipodérmicas, inventadas por el Dr. Alexander Wood en 1843, y al hacerse inyectable con efectos instantáneos fue muy usada en la Guerra de Secesión Americana con más de 400.000 víctimas adictas al mismo en la adición conocida como “enfermedad del soldado”. Tras ella vino en 1878 la diacetilmorfina comercializada en 1898 por Bayer como sustituto de la morfina naciendo la heroina cuyo nombre deriva de la palabra “heroisch”, (traducido al español como “heroico”) por los supuestos efectos beneficiosos que el producto tenía descubriéndose posteriormente que era directamente convertida en morfina y absorbida por el hígado y que, además, producía aún más adicción en sus consumidores.

Y así la «caja de Pandora» siguió abierta y fueron muy numerosos los nuevos alcaloides que fueron extrayéndose de las plantas. Friedrich Wilhelm Sertürner falleció en 1841, a los 57 años de edad con el dudoso mérito de haber abierto esa caja revelando un mundo completamente nuevo de productos químicos previamente insospechados, que estaban ocultos en las plantas. Por estos trabajos le concedieron el título de ‘doctor honoris causa’ en la universidad de Jena, en 1817, y se reconocieron sus investigaciones por la introducción de la morfina con carácter terapéutico aunque de aquel importante reconocimiento con premio económico no se tienen registros de si llegó a compartirlo con sus tres “valientes” amigos colaboradores.

Fuentes:

Friedrich Wilhelm Adam Sertürner 

BBC. Friedrich Sertürner, el farmaceuta que creó la madre de todas las medicinas y redefinió nuestras vidas

Friedrich Serturner y las 72 horas de desenfreno que dieron origen a la morfina

La «arquitectura dinámica »

A lo largo de la historia se han atribuido al Sol diferentes y curiosas propiedades médicas, dando origen a una disciplina médica llamada «helioterapia». Herodoto, Hipócrates y Avicena fueron célebres médicos que aconsejaron el tomar baños de sol para mejorar la salud y aunque esta sana costumbre cayó en desuso en la Edad Media resurgió en el siglo XIX evolucionando hacia teorías higienistas que pusieron de moda esta sana práctica.

A finales del siglo XIX Europa estaba azotada por aquella enfermedad conocida como la “peste blanca” – nombre con el que se calificaba a la tuberculosis– y aunque el bacilo responsable de aquella enfermedad ya había sido identificado en el año 1882, por Robert Koch que lo denominó como Mycobacterium tuberculosis, en aquellos tiempos aún no existía una cura farmacéutica para esta enfermedad y el tratamiento recomendado era el de trasladar a los pacientes a lugares donde el aire estuviera limpio y seco para tomar “baños de sol”.

Sanatorio en Waiblingen cerca de Stuttgart

Así fue como surgió la terapia de las «curas por el Sol» y en la década de 1870 en los Alpes suizos se introdujo un nuevo tipo de edificio: «el sanatorio» con balcones y verandas orientados al sur para permitir a los pacientes poder tomar baños de sol

El origen de la «arquitectura dinámica» surgió de aquellos viejos métodos médicos que aconsejaban el tomar baños de sol para mejorar la salud y la misma se inspiró en la naturaleza, que ya había inventado un «método para seguirlo». Concretamente el girasol (helianthus annuus) es una planta que lleva en su nombre el propósito de su vida: rotar en busca del Sol para desarrollarse y sus ejemplares jóvenes poseen una propiedad conocida como “heliotropismo” que es la capacidad de orientar sus órganos (hojas, tallos y flores) en dirección perpendicular o paralela a los rayos solares moviendo cada día, sus cabezas florales hacia este astro al que siguen en su ruta de este a oeste.

¿Cómo puede el girasol hacer tal cosa? En el vídeo anterior se presenta una sencilla explicación de este proceso hecha para niños. La planta cuenta con un sistema hidráulico orgánico (llamado pulvino) que cambia la presión del agua en la base de su tallo según el ángulo de la luz solar. Así, durante el día el mismo usa sus células motoras para elongar el lado más alejado del Sol, e inclinar las hojas y las flores inmaduras hacia el astro. Durante la noche, el otro lado del tallo se expande y empuja las hojas y las flores de nuevo hacia el este para que enfrenten de nuevo al Sol al amanecer.

Imitando a los girasoles surgió el concepto de los «edificios dinámicos» o móviles ( «edificios cinéticos» ) que eran capaces de rotar para seguir su movimiento y el primero de ellos fue un edificio rotario diseñado por Thomas Gaynor en 1908.

Primer edificio rotario diseñado por Thomas Gaynor en 1908

Su creador lo patentó con fecha 4 de Agosto de 1908 con el número de patente 895.176 y en la descripción de la misma se especificaba que se trataba de un edificio con una base rotativa provista de medios para su rotación aunque nunca fue construido.

Aquella idea de «casa giratoria» de Thomas Gaynor fue copiada en 1909 por los británicos que erigieron unas pequeñas chozas montadas sobre plataformas giratorias, de modo que podían orientarlas de manera óptima a lo largo del día para que la exposición al sol de los pacientes pudiera aumentarse aún más, surgiendo unos prototipos de cabañas con base giratoria para dos personas que eran usados para tratar a pacientes con tuberculosis en el City Hospital, de Edimburgo en 1909.

Cabaña giratoria de dos personas para pacientes con tuberculosis. Colecciones especiales del Archivo de Servicios de Salud de Lothian

En la foto podemos ver a una de aquellas cabañas giratoria para dos pacientes ubicada en los terrenos del Hospital Municipal de Enfermedades Infecciosas de Edimburgo. Este tipo de cabañas giratorias se popularizó bastante hasta el punto de que terminaron usándose fuera de su función médica por algunos personajes como el escritor George Bernard Shaw y el sexólogo Havelock Ellis que las emplearon como ‘cabañas de escritura‘.

George Bernard Shaw en su ‘cabaña de escritura’
Diseño de la Cabaña de George Bernard Shaw. «Shaw’s Corner» en Hertfordshire, Inglaterra.

Pero quien realmente desarrolló una «arquitectura dinámica» para «buscar al sol » fue un médico francés llamado Jean Saidman, que desarrolló un tratamiento basado en el uso de las radiaciones ultravioleta para combatir la tuberculosis, el reumatismo y otras enfermedades óseas al que llamó «actinología». Nacido en 1897 en Falticeni, Rumania, adoptó la nacionalidad francesa en 1919 y combatió con el ejército francés que lo condecoró con la Medalla Militar y la Cruz de Guerra. En 1921 se convirtió en el médico más joven de Francia presentando una tesis doctoral en la que proponía una serie de tratamientos médicos basados en el uso de las radiaciones solares desarrollada en su obra clave de 1925 denominada “Les Rayons ultraviolets et associés enothérapie” fundando el Institut d’Actinologie en París que estaba destinado a proporcionar aquellos tratamientos médicos basados en la exposición a la luz solar.

Jean Saidman, director del laboratorio de actinología de Aix-les-Bains, 1930-1936.
Foto: André Kertész. Ministerio de Cultura (Francia), Biblioteca multimedia para la arquitectura y el patrimonio, difusión RMN-GP.

Para seguir con sus investigaciones el doctor Jean Saidman inventó un «edificio cinético» al que denominó «solárium »El mismo se movería- igual que los girasoles- para buscar al sol y seguir su movimiento con la finalidad de conseguir el máximo de radiación solar para el tratamiento de pacientes con tuberculosis, enfermedades óseas y reumatismo. Eligió la ciudad de Aix-les-Bains en el este de Francia para construirlo, porque aquel lugar ya era célebre por sus aguas termales y allí viajaban muchas personas para ser tratadas de problemas óseos y reumáticos.

Primer boceto de 1929 del solárium de Jean Saidman

Para desarrollar su idea se puso en contacto con un arquitecto llamado André Farde que le diseñó los planos de aquel edificio que una vez terminado fue patentado por el doctor Saidman con el número de patente FR680179A

Gráficos de la patente de Jean Saidman FR680179A: Solarium orientable pour héliothérapie et actinothérapie

Jean Saidman convenció a algunos inversores locales entre los que se encontraban Louis Blanc, Marcel Bouvier, Marc Chevallier, Louis Duvernay, Jacques Forestier, François Gaillard y Joseph Lelong para obtener la financiación de su proyecto y una vez obtenida la misma y conseguidas las autorizaciones pertinentes inició la construcción de su solárium en una colina de Aix-les-Bains que dominaba la ciudad conocida como La Roche du Roi. Aquel solárium ya no existe y solo quedan algunas imágenes antiguas del mismo

La construcción estaba basada en una base de cemento armado sobre la que se erigió un cajón octogonal inclinado revestido de tejas diamantadas bicromáticas. En esta parte intermedia de 11,5 metros de altura se ubicaban la sala de espera, el consultorio médico y una sala de radiología y desde allí un ascensor y una escalera permitían subir a una plataforma móvil que a 16 metros de altura ubicaba las salas de tratamiento.

Aquella plataforma de 80 toneladas con 25 metros de largo por 6 metros de ancho giraba para seguir el recorrido del sol, desplazándose sobre un sistema de rodillos montados sobre raíles que eran movidos por un motor. En su espacio central se situaban los médicos que monitoreaban cinco salas a cada lado destinadas a los pacientes (diez salas en total). El tratamiento era caro y solo podía ser pagado por pacientes con un alto poder adquisitivo que se instalaban allí durante largas temporadas para curarse de la tuberculosis, el raquitismo o, simplemente, para hacer desaparecer algunas lesiones de la piel.

Vista desde una de las alas del solárium de Aix-les-Bains
Habitación de tratamiento del solarium móvil de Aix-les-Bains. Fuente: Sublime Visions: Architecture in the Alps. Por Susanne Stacher.

Cada habitación estaba equipada con una cama basculante que permitía colocar a los pacientes verticalmente para recibir los rayos del sol. En aquellas camas reclinables se colocaba a los mismos bajo unas lentes de 1,6 m2 que- según afirmaba el Dr. Saidman, permitían “ captar cantidades considerables de rayos ultravioleta invisibles, con una potencia luminosa equivalente a más de 5 millones de velas, y una energía calorífica muy apreciable«. Y no solo eso, para hacer más efectivo el tratamiento, y en los días lluviosos o nublados, cuando no era posible tomar el sol se recurrían a fuentes de luz artificiales (infrarroja y ultravioleta) mediante lámparas de arco polimetálico y lámparas de infrarrojos.

No sabemos si alguno de los pacientes del Dr. Saidman desarrolló algún efecto cancerígenos por las enormes exposiciones a la radiación solar pero aquel médico manifestaba haber desarrollado un método para definir el tipo de rayos solares que necesitaba cada paciente, y también se jactaba de saber controlar la intensidad y el tiempo de radiación solar con pruebas sensitométricas que consistían en una serie de irradiaciones previas para definir la insolación más propicia para cada paciente

Solárium de Vallauris-Le-Cannet

Jean Saidman quería crear un complejo de soláriums en Francia y construyó otro parecido en Vallauris-Le-Cannet (Francia, Alpes Marítimos) que fue inaugurado en febrero de 1935 y del que asumió su dirección hasta que los conflictos sociales de 1936 suspendieron el apoyo de las autoridades políticas locales a su proyecto lo que lo obligó a abandonarlo en 1937, siendo destruido en 1942.

El solarium rotativo de Jamnagar en la India. Imagen M. P. Shah Medical College.

Solo queda uno de aquellos grandes «edificios cinéticos» y es el que se construyó en 1934 en Jamnagar (India, Gujara) en honor del Maharaja Jam Ranjitsinhjii para el 25 aniversario de su reinado unido al Ranjit Institute of Poly-Radio Therapy de Jamnagar. Es el único que sigue en pie de aquellos grandes solariums que como «girasoles gigantes» seguían al sol. El mismo no funciona desde 1996 porque desde que en 1946 Selman Waksman descubrió el potencial antibiótico de la estreptomicina, para el tratamiento la la tuberculosis, aquellos soláriums quedaron obsoletos como instituciones médicas.

En la Segunda Guerra Mundial y durante el período de ocupación de Francia el primer solarium de Aix-les-Bains fue requisado por las tropas alemanas y convertido en hospital en 1943. Al final de la contienda el Dr. Saidman intentó reanudar las actividades del mismo pero tras su fallecimiento en Aix-les-Bains el 6 de julio de 1949 de un infarto, su esposa intentó seguir con la actividad, y la falta de clientes lo forzó a cerrarlo definitivamente en 1950. A partir de ese año aquella gran obra fue abandonada y pasto de los saqueos y tras un incendio el terreno que ocupaba fue vendido por las hijas del Dr. Saidman el 15 de septiembre de 1965 siendo definitivamente desmantelado.

Tras las experiencias de los soláriums, en las décadas de 1930 y 1940 resurgió de nuevo el interés por el «culto al sol» y arraigó de nuevo la idea de construir edificios rotativos. En este contexto Angelo Invernizzi un arquitecto e ingeniero italiano diseñó una atrevida villa construida entre 1929 y 1935 en las colinas de Marcellise, provincia de Verona (Italia), que puede considerarse como la más antigua casa giratoria de la historia

Angelo Invernizzi (1884-1958)

La denominaron Villa Girasole (Girasole significa en italiano «que gira alrededor del sol”) y con 40 metros de altura, se erigía en el paisaje circundante como un faro. Se trata de la primera casa de «arquitectura dinámica» del mundo, con un cuerpo circular fijo, donde descansa la parte giratoria en forma de V, que opera alrededor de una escalera con ascensor.

Villa Girasole Marcellise, Italy. 1935
Architect: Angelo Invernizzi

Invernizzi ya tenía algo de experiencia en mecanismos rotativos, porque había diseñado una estación de refrigeración rotativa para frutas y verduras en Verona, pero fue mucho más lejos en su Villa Girasole porque su proyecto consistía en que una edificación de 1.500 toneladas (que representa un volumen de 5.000 m3) girase 360º sobre sí misma para «seguir al Sol». Con la colaboración del arquitecto Ettore Fagiuoli Invernizzi desarrolló un ingenioso sistema formado por dos plantas en forma de L con una torreta en medio de 42 metros de altura. Esas dos partes están unidas por el centro con un elemento pivotante de 3 rieles circulares de 44 metros de diámetro conectados a la cubierta de la base del edificio en donde un grupo de 15 ruedas hacen girar al edificio superior.

Planos de la casa Fuente

La energía para el desplazamiento la proporcionaban dos motores diesel que desplazaban las ruedas a una velocidad de 4 mm por segundo, permitiendo una rotación completa de la casa en 9 horas y 20 minutos.

Rieles sobre los que se desplazaban las ruedas para girar la casa

La familia de Invernizzi y sus herederos Lidia y Lino continuaron viviendo y cuidando de aquella villa, pero tras su muerte en 2012, la casa fue vendida a la Fundación Cariverona y aunque actualmente la vivienda se encuentra en buenas condiciones, desde el año 2000 ya no puede girar porque se ha hundido el terreno y esto ha deformado irremediablemente los rieles de desplazamiento

Proyecto Sahade de casa giratoria

El siguiente edificio construido expresamente para «seguir al Sol» lo desarrolló Abdón Sahade, un inmigrante sirio que llego a Argentina en el año 1904 en donde se dedicó al negocio textil. Aunque nunca fue a la Universidad ni hizo estudios superiores de ingeniería o arquitectura era un hombre autodidacta que realizó diversos proyectos y diseños y uno de ellos fue el de su casa de planta circular que podía girar 360º para seguir el recorrido del sol. Abdón la diseñó para vivir en ella porque quería tener siempre luz natural en cualquier estancia.

Esta casa empezó a ser construida en la ciudad de Córdoba (Argentina) en el año 1947 y tardó 4 años en completarse. El 10 de julio de 1951 comenzó a girar sobre su propio eje y tras terminarla Sahade decidió patentarla el 27 de octubre de 1952, con el número 86663 y el siguiente título: “Sr. Abdón Sahade, propietario, dueño e inventor del primer sistema giratorio aplicado a una casa”.

Imágenes de la patente

En realidad, aquel proyecto no era el primer sistema giratorio para una casa (recordemos el de “Villa Girasole” de 1935) pero asombra que una persona sin estudios fuera capaz de diseñar una obra que fue calificada en su día como “la vivienda del futuro”.

La casa giratoria de Sahade construida entre 1947 y 1951

Se trataba de una casa redonda con una planta de un diámetro de 13 metros (aproximadamente 132 metros cuadrados de superficie) con sala de estar, comedor, dos baños, cocina, despensa y dos dormitorios y que era capaz de girar 360º sobre sí misma. Sus 180 toneladas descansaban sobre una estructura metálica bajo la que estaba situado el mecanismo de giro (hecho con rieles y ruedas de ferrocarril apoyados en pilotes de hormigón para llevar los esfuerzos al terreno). El movimiento se conseguía con dos motores trifásicos de 3 caballos de potencia provistos de una caja reductora con un sistema de poleas y engranajes para girar la casa. Abdón coloco una palanca en su dormitorio con la que activaba este movimiento de giro en ambos sentidos.

Base metálica de la casa giratoria. (Archivos del diario La Voz/)

La casa era capaz de completar un giro completo en 55 minutos- una velocidad suficiente para seguir el recorrido del sol, pero lo suficientemente leve para no molestar a los habitantes de la casa- incluso en movimiento, la misma mantenía activos todos sus servicios (electricidad, agua corriente y sanitaria) sin ningún tipo de inconveniente. El suministro eléctrico llegaba al sótano hasta unos patines unidos a una pieza de cobre circular que giraba con la casa misma con lo que se conseguía que, fuese cual fuese la posición de la casa, siempre llegase energía eléctrica. El abastecimiento de agua llegaba por una tubería alojada en el eje central de la casa con una pieza de goma que permitía el movimiento y las tuberías de desagüe estaban fuera del eje, e iban a unas pieza en forma de embudo que desaguaba de forma convencional

La casa fue una atracción turística en el barrio de Nueva Córdoba, donde se ubicaba (en la esquina formada por las calles Paraná y San Lorenzo) pero en el año 2002 se aprobó una ordenanza municipal para demolerla con el objeto de levantar la torre Elysee. Frente a este escenario, distintas fuerzas se pusieron en acción para no perder aquella pieza de ingeniería única en el mundo y el 22 de abril de 2004 se inició la mudanza de casa Sahade al barrio General Paz donde se encuentra el Museo de la Industria. Allí se reinauguró el 2 de septiembre de 2008 y en la actualidad se puede visitar esta vivienda funcionando como lo hacía antiguamente

Traslado de la casa giratoria por el centro de la ciudad de Córdoba. Fuente: Archivos diario La Voz

Los modernos «edificios dinámicos» se han inspirado de alguna forma en aquella vieja “Villa Girasole” de los años 30 construida por Angelo Invernizzi y existen algunos muy curiosos como aquel carrusel futurista en la zona desértica de Snow Creek, de las afueras de Palm Springs construido en 1963 por el empresario de Los Ángeles, Floyd D’Angelo a la que llamó «The D’Angelo House» y en el que estuvieron los Beatles en su gira de Los Ángeles de 1965

«The D’Angelo House». Snow Creek, Palm Springs

Y uno de los últimos ejemplo de las modernas casa giratorias que «buscan el sol » lo tenemos en la que levantó el arquitecto Roberto Rossi cerca de la ciudad de Rímini, en el noreste de Italia también diseñada para girar 360 grados en ambas direcciones en torno a su eje

Pero no todos los proyectos de edificios que «siguen al sol» han seguido al modelo clásico de las casas tipo Villa Girasole o Proyecto Sahade . De hecho ha habido algunos que han rozado el surrealismo y el mejor ejemplo es una casa llamada Flying House , construida por un constructor de edificios jubilado llamado Annunzio Lagomarsini (1932 – 2018), en el bonito y pequeño pueblo de Castelnuovo Magra, en la provincia de La Spezia (Italia),

La Flying House de Annunzio Lagomarsini

Esta casa- que nunca incluyó una fase de diseño- porque la idea de su creador nunca fue patentada tiene 110 m2 distribuidos en dos plantas con dos amplias terrazas y la particularidad de que podía subir, bajar, girar 360 ° sobre sí misma, deslizarse sobre raíles e incluso doblarse y todo controlado por un único panel de control eléctrico que se ubicaba en la base de aquel edificio que- desprovisto de cimentación- descansaba sobre una estructura de «tijera» de 4,20 metros de altura. Al activar su mecanismo de elevación, la casa se elevaba otros a 4,20 metros sobre el suelo, y ascendía hasta los 8,40 metros desde el primer piso, más otros 2,70 metros desde el segundo piso desde cuyas ventanas se alcanzaban los 11,10 metros sobre el suelo. También se movía hacia adelante y hacia atrás 12 metros en una pista y era capaz de rotar 360˚ sobre sí misma en 45 minutos.

Annunzio Lagomarsini frente a su casa

En esta extraña casa vivió Annunzio con su esposa Emilia durante 13 años, entre 1994 y 2007. Después se dedicó a mantenerla pero en el año 2012 un accidente hizo que estallaran pistones y motores y actualmente la misma ya no puede ni subir, ni bajar y solo se la puede ver en estado de reposo.

El futuro nos llevará mucho más allá porque ya hay proyectos en marcha para construir gigantescos rascacielos dinámicos que también girarán «buscando el sol » Por ejemplo, la Dynamic Tower de Dubái diseñado por el arquitecto David Fisher, será un rascacielos de 420 metros de altura donde cada planta podrá rotar por sí sola, con independencia de las demás en un giro completo de 90 minutos. Nunca terminaremos de maravillarnos del ingenio humano en este tema de la «arquitectura dinámica» que busca los rayos del astro rey.

Fuentes:

Les soláriums de Jean Saidman

Hidden Architecture. Villa Girasole

La casa giratoria de Sahade

Philip Steadman Blog

La obsesión de Freud con las anguilas

El próximo 6 de Mayo se conmemora el 165º aniversario del nacimiento de uno de los personajes más polémicos e influyentes del siglo XX: Sigmund Freud (Sigismund Schlomo Freud) que nació ese día en el año 1856 en la ciudad Příbor, Moravia, Imperio Austríaco (actualmente República Checa). Un hombre que hizo una contribución enorme y duradera en el campo de la psicología y cuyos métodos todavía se utilizan en el psicoanálisis moderno.

Freud no sentó las bases de sus trabajos de psicoanalista hasta que cumplió los 30 años, cuando en 1886, abrió su famosa consulta privada de neuropatólogo, en el número 19 de la calle Berggasse, en Viena– donde ahora está su casa-museo que es visitada por casi 75.000 turistas cada año- y en la que utilizaba la electroterapia y la hipnosis para el tratamiento de las enfermedades nerviosas. Fueron diez años después cuando en 1896, empezó a transformar su metodología terapéutica basada en la hipnosis, hacia lo que él mismo denominó como el «método de libre asociación» y en aquellas famosas sesiones en el célebre diván de su consulta fue forjando los elementos esenciales de los conceptos psicoanalíticos de «inconsciente», «represión» y «transferencia» que en 1899 aparecieron en su famoso tratado de La interpretación de los sueños.

El famoso diván de Sigmund Freud
Fuente

Lo que hizo Sigmund Freud fue crear un novedoso enfoque sobre la psique humana, que es tanto una teoría de la personalidad como un método de tratamiento para pacientes con trastornos. De origen judío, su nombre siempre ha sido asociado a la capital de Austria, en donde vivió 78 años y de la que tuvo que marcharse cuando, tras el ascenso al poder del régimen nazis en 1933, sus obras fueron quemadas. Doce semanas después del famoso Anschluss que supuso la anexión de Austria a la Alemania nazi, y tras varios registros de la Gestapo en su casa tomó la decisión en junio de 1938 de exilarse a Londres, en dónde murió de cáncer un año después el 23 de septiembre de 1939 a los 83 años . Allí está enterrado aquel científico cuyos descubrimientos marcaron un antes y un después en la psicología moderna

Pero cuando en 1895 Sigmund Freud publicó su primer trabajo titulado ‘Obsessions and Phobias‘ que es un ensayo psicológico sobre la distinción entre obsesiones y fobias y las posibles razones de su aparición posiblemente se estaba retratando a él mismo porque mucho antes de inventar el psicoanálisis, o de analizar traumas sexuales encubiertos, él se había obsesionado con una idea: descubrir si las anguilas tenían o no aparato reproductor.

Sigmund Freud ingresó en la Universidad de Viena en 1873 con 17 años, para estudiar medicina y en 1876 cuando cumplió los 20 años fue enviado por su profesor de Biología y Darwinismo en aquella Universidad Carl Friedrich Wilhelm Claus jefe de la estación de investigación oceanográfica de biología marina en la ciudad italiana de Trieste a aquella ciudad con una misión muy concreta: buscar los testículos de las anguilas para resolver un gran misterio que obsesionaba a los científicos de Europa de finales del siglo XIX. Los mismos aún no tenían claro de dónde venían las anguilas, y de si estas eran vivíparas u ovíparas, ya que ni siguiera tenían del todo claro si eran peces u «otra cosa». El biólogo alemán Max Schultze en su lecho de muerte había manifestado que «Todas las cuestiones importantes (…) han sido resueltas«excepto la cuestión de la anguila»

Aristóteles creía que las anguilas surgían espontáneamente del lodo del fondo de los lagos o ríos. Guetty Images

El problema ya había sido planteado por el mismísimo Aristóteles que-en su tiempo- desesperado por no lograr entender cómo se reproducían las anguilas llegó a asegurar que estos animales nacían por generación espontánea del legamoso fango de los ríos y que no se reproducían sexualmente.

La anguila es un animal sinusoso y escurridizo, que se escapa entre los dedos y que no se deja entender fácilmente. Por eso durante mucho tiempo, no se supo cómo se reproducía porque no se encontraban en su cuerpo los órgamos genitales. Aristóteles (s IV a.C.), buscó los órganos reproductores de la anguila y al no encontrarlos y nadie ver a estos animales copular o poner huevos el sabio griego concluyó que «la anguila no es ni macho ni hembra y no puede engendrar nada» sosteníendo que nacía «por generación espontánea del lodo y la tierra húmeda». Durante siglos se formularon las teorías más disparatadas e imaginativas: por ejemplo Plinio el Viejo (23-79 d.C.), explicaba que las anguilas se frotaban en las rocas y descargaban una especie de fluido viscoso que se quedaba en el barro y del mismo se generaban sus descendientes

La anguila apareció siglos después en el libro de Conrad Gesner Historiæ animalium (Historia de los animales) un catálogo zoológico publicado en cuatro volúmenes entre 1551 y 1558 que se considera el principio de la zoología moderna y que intenta describir todos los animales conocidos.

Ilustración de una anguila de la primera edición de «Historiae Animalium» de Conrad Gesner de 1568, la primera enciclopedia de animales.

En aquellos tiempos aún seguía sin conocerse como se reproducía este animal e Izaak Walton (1593-1683), en su libro «The complete angler» exponía la curiosa teoría de «que las anguilas nacen de un rocío especial que cae en los meses de mayo y junio en las orillas de algunos estanques o ríos en particular (aptos por la naturaleza para ese final) y que en pocos días el calor del Sol lo convierte en anguilas«. Así fue como la teoría de la generación espontánea de las anguilas se mantuvo en la ciencia occidental y árabe al no encontrarse ninguna explicación sobre su reproducción.

El primero en acercarse a la verdad fue Francesco Redi, que en 1684 aseguró que las anguilas no nacían en el río sino en el mar, al observar cómo las anguilas adultas descendían por el río en otoño y seis meses más tarde, en primavera, ascendía un gran número de ejemplares jóvenes. Lo que Redi no podía imaginarse era que los individuos jóvenes que llegaban no eran las crías de los adultos que habían descendido el otoño anterior, sino de los adultos que habían iniciado su periplo migratorio hacia el mar cinco años antes. Aún así nadie lo creyó…

En 1777 Carlo Mondini localizó por fin los ovarios de una anguila particularmente grande, pero la búsqueda de sus testículos siguió frustrando a muchos investigadores. Fue por eso por lo que Sigmund Freud en su juventud se esforzó en encontrar aquellos testículos en las anguilas y aunque- según él- los encontró, fue solo una suposición porque las anguilas no tienen testiculos durante la mayor parte de sus vidas y solo los desarrollan cuando parten en un viaje sin regreso desde las aguas dulces de Europa hacia las saladas del océano y eso él no lo sabia.

En en 1856 diecisiete años antes de las pesquisas de Freud y sin prever su vinculación con las anguilas,un biólogo alemán capturó en el estrecho de Messina de Italia, a un ser de aproximadamente 75 milímetros de longitud, plano y transparente, con forma de hoja de laurel y con una cabeza muy pequeña, al que denominó Leptocephalus brevirostris. Cuarenta años más tarde, en 1896, los científicos italianos Grasi y Calandrucio, estudiaron a estos leptocéfalos en una pecera y descubrieron su metamorfosis hasta convertirse en anguilas. El Leptocephalus resultó ser la forma larvaria de la anguila

Ciclo vital de la anguila

Hoy sabemos que el ciclo de vida de las anguilas consta de cinco etapas: huevo, larva (leptocéfalo), angula, anguila amarilla y anguila plateada pero sus diferencias físicas son tan grandes y sus hábitats tan distantes que en la juventud de Freud los naturalistas europeos aún pensaban que los leptocéfalos y las anguilas eran animales distintos.

El biólogo danés Johannes Schmidt dedicó parte de su vida al estudio de las anguilas; y fue siguiendo por todo el Océano Atlántico, desde el año 1904, la migración y el desarrollo de la larva Leptocephalus. Tras años de investigación marina, descubrió , en 1920, por casualidad su origen comprobando que las más pequeñas, de 2,50 mm estaban en el Mar de los Sargazos, al sur del archipiélago de las Bermudas, lo que le llevó a la conclusión de que aquel era el lugar en donde las anguilas realizaban la puesta de sus huevos a 6.500 kilómetros de la costa occidental de Europa. Así se supo que migran para reproducirse y en 1922 reveló triunfante ante la Royal Society de Londres su sorprendente descubrimiento. No había podido ver a las anguilas apareándose pero al encontrar las larvas más pequeñas, supo que aquel era el lugar de desove y nacimiento de tan misteriosa criatura.

La realidad es que Sigmund Freud nunca pudo localizar los testículos de las anguilas: porque los órganos sexuales de las mismas aumentan de tamaño y se llenan de huevos y esperma sólo cuando dejan los ríos y se pierden de vista en el océano. ¿Cómo iba a saber Freud que aquellas anguilas que estaba diseccionando fueron en su día unas larvas transparentes que cruzaron a nado seis o siete mil kilómetros tras haberse reproducido en un mar remoto ?

Y tras cuatro semanas diseccionando a cientos de anguilas en una búsqueda de sus órganos reproductores masculinos que jamás nadie antes había encontrado y diseccionar a más de 400 de ellas en busca de sus testículos terminó presentando un informe (su primera obra publicada) que escribió a su regreso a Viena en el que manifestaba haber encontrado los huidizos testículos de la anguila. En realidad lo único que encontró fueron unos bucles de materia blanca que adornaban la cavidad interna del pez y que él identificó como esos misteriosos testículos, Aunque tenía razón, aquello era una cosa muy poco creíble porque allí no había ningún tipo de esperma por lo que ni él ni nadie más de su universidad, hicieron ningún alarde de aquel supuesto descubrimiento.

No sé si la experiencia de buscar unos inexistentes testículos en cientos de anguilas pudo hacer que Sigmund Freud se convirtiese en un hombre peculiar lleno de manías, pero, tal vez si se hubiera sentado en el viejo sofá de cuero de su consulta y hubiera removido los viejos pensamientos que quedaron alojados en su subconsciente tras aquellas laboriosas y rutinarias disecciones de 1876 quizás habría entendido por qué se convirtió en un hombre amante de seguir unas rutinas y no variarlas nunca lo más mínimo, por ejemplo el almorzar siempre a la una de la tarde, y luego levantarse de la mesa para caminar tres kilómetros, haciendo siempre el mismo recorrido y recogiendo algunas setas. Quizás el animal más enigmático del mundo lo hizo ser así.

Fuentes :

BBC

Teknautas

Patrick Svensson: «El evangelio de las anguilas» ISBN: 9788417977443

¿Por qué los ojos de los animales tienen tantas formas diferentes?

¿Pueden adivinar qué ojos pertenecen a cada animal? En la fila superior y de izquierda a derecha tenemos los de una sepia, un león y una cabra y en la fila inferior y de izquierda a derecha los de un gato, un caballo y un gecko. Si miramos los ojos de la sepia vemos que su pupila se parece a la letra «W», pero en los del león su pupila redonda, y en los de de la cabra alargada horizontalmente. El gato posee una pupila de ranuras verticales, el caballo una gran pupila cuadrada y el gecko otra con orificios dispuestos en una línea vertical.

¿Cual es el sentido de esta variedad? Los ojos de los seres vivos son el resultado de muchos años de evolución y su herramienta para percibir el mundo que los rodea pero cada especie animal ha desarrollado un modo distinto de ver su mundo aunque todos los ojo, como órganos receptores de la luz funcionan de una manera muy similar al de una cámara fotográfica.

Funcionamiento de un ojo

Fijémonos en el proceso de la visión: las imágenes llegan a los ojos con la luz que pasa a través de una hendidura llamada pupila que es el espacio por el que penetra la luz que llega al iris. El iris, esa membrana que da color a los ojos se dilata o contrae en función de la luz que recibe y la misma, al llegar al fondo del ojo es recibida por la retina, que tiene células fotosensibles llamadas conos (células que perciben el color) y bastones (fotorreceptores sensibles a la luz) para convertir esa luz en información. Allí los fotones luminosos se transforman en señales eléctricas, que son enviadas al cerebro a través del nervio óptico para su interpretación.

Por eso la forma de la pupila de cada ojo, refleja las adaptaciones que ha tenido cada ser vivo para ver el medio natural en el que vive y como la iluminación que recibe la retina es el producto del área de su pupila por la intensidad de la luz incidente, es la dilatación y constricción de esa pupila lo que permite al ojo que la posee la capacidad de poder aumentar o disminuir la cantidad de luz que recibe su retina . Cada especie ha adaptado la forma de las pupilas de sus ojos a sus hábitos de caza y defensa y los diferentes entornos de luz del hábitat en donde vive.

El funcionamiento de las pupilas en los distintos animales, sus características, su forma y sus capacidades es algo que no deja de sorprender a la comunidad científica día tras día. Veamos algunos tipos

Pupilas de un gato
Pupilas de un gecko

La pupila de un gato y de un gecko son de tipo alargado pero una y otras están orientadas con 90 grados de diferencia. En general una pupila de hendidura es muy adecuada para permitir que entre mucha luz en el ojo tanto durante el día como por la noche pero su forma varia completamente si pertenece a un animal de presa como el gato o a una víctimas de los depredadores como el gecko.

Porque los ojos del gato, ese pequeño felino cazador nocturno exigen que su pupila deba de dilatarse mucho para detectar y acertar a su presa en condiciones de luz muy escasa pero por su pequeño tamaño, y para tener éxito como predador este animal también debe de esperar, agazapado para coger a su presa desprevenida. Esta forma de caza exige el tener que acercarse a la misma a poca distancia y para tal fin es crítico que pueda medirse muy bien la distancia que lo separa y disponer de un enfoque muy preciso en distancias cortas. Este ojo está diseñado para tener una buena profundidad de campo y una alta capacidad para dilatar su pupila.

Y así tenemos que las pupilas diseñadas para este tipo de caza son de orientación vertical pero si las giramos 90º, posición común en el gecko y en algunas ranas, sapos, serpientes o pulpos, las mismas funcionan como mecanismo defensivo para permitir al animal detectar el movimiento vertical de sus depredadores y, por tanto, poder tomar medidas evasivas.

Pupilas de un gecko nocturno

Pero cuando el animal es cazador como el gecko nocturno la forma de sus pupilas cambia y tienen la misma forma que las del gato, aunque con unos ensanches de forma irregular. Esta extraña forma de pupilas verticales con múltiples «ranuras» que trabajan juntas le ayudan a percibir la distancia, y le permite efectuar la caza en diversos entornos. Al tratarse de un animal depredador esas pupilas verticales rodeadas de unas “cavidades” permiten que sus ojos puedan aumentar o disminuir su área según la intensidad lumínica de la luz incidente y además también pueden enfocar objetos a diferentes distancias a la vez. Para completar este ojo, perfectamente adaptado al modo de vida, de este tipo de geckos los mismos también tienen la capacidad de ver los colores con una riqueza de hasta 350 veces mejor que los de un ser humano.

Pupila de la sepia

Ahora fijémonos en las curiosas pupilas en forma de «W» de la sepia que es otro modelo de una evolución distinta del ojo de un animal. La sepia para enfocar los objetos, cambia la forma de su ojo en lugar de la forma de la lente como haríamos nosotros y aunque en la oscuridad, sus pupilas son prácticamente circulares, cuando recibe la luz las mismas adquieren esa curiosa forma de «W» ¿La razón? Pues que con esa forma pueden conseguir que la luz entre en su ojo desde muchas direcciones diferentes, y esto aumenta el contraste de la imagen y la visión a distancia.

Añadir también que el ojo de la sepia aunque puede ver menos colores que el ojo humano tienen la capacidad de captar la luz polarizada. Sabemos que la polarización de la luz ocurre cuando la misma atraviesa un filtro y esto permite que pase por el mismo sólo la parte de esa luz cuyo plano de oscilación coincida con la dirección de ese filtro. En el caso de una cámara de fotos, un filtro polarizador nos ayudaría a evitar los molestos haces de luz que deslumbran en la imagen pero para la sepia que vive en el océano, y con el agua como filtro, la captación de la luz polarizada la ayudará a a visualizar mejor el contraste de su entorno.

Es decir, que la evolución de la forma de las pupilas en los ojos animales puede ser determinante para la supervivencia de una especie y en general, las pupilas tiene tres formas básicas : redonda, horizontal y vertical. Se sabe también que los animales depredadores que cazan a través de la emboscada suelen tener los ojos en la parte frontal de la cara, para permitirles un mejor enfoque y un cálculo preciso de la distancias que los separa de su presa. En cambio los animales que son sus presas-principalmente animales herbívoros- poseen ojos laterales que les proporcionan una mejor defensa contra sus cazadores por tener un mayor ángulo de visión mayor y una protección contra los deslumbramientos del sol.

Todo esto fue analizado concienzudamente en el año 2015, cuando un grupo de científicos de la Universidad de Berkeley en California, realizaron el primer estudio exhaustivo sobre esta materia. Los investigadores Martin Banks y Gordon Love, encontraron que existe una correlación sorprendente entre la forma de la pupila de cada animal y el nicho ecológico al que el mismo pertenece, analizando también como la forma de la pupila de cada ojo definía como ese animal controlaba la iluminación de su retina en diferentes entornos de luz y descubriendo que esta forma está estrechamente relacionada con su tamaño y si es un depredador o una presa potencial.

Correlación entre morfología de la pupila y dieta y modo de caza de los animales
Fuente: Science Advance

Veamos la imagen anterior. A la izquierda y de arriba a abajo tenemos distintos tipos de forma de pupilas en diversos seres vivos: las de hendidura vertical de los pequeños felinos, las pupilas subcirculares de los grandes felinos, las pupilas circulares del ser humano y las pupilas horizontales de los herbívoros. A la derecha tenemos un esquema que muestra como visualiza cada especie su entorno separando por colores su visión : en verde la actividad diurna, en azul la actividad nocturna y en rojo las actividades polifásicas (nocturna y diurna). Los puntos en cada contenedor se han desplazado aleatoriamente para evitar superposiciones pero están colocados en el cuadro en función de dos parámetros: en el eje vertical por la forma de la pupila y en el horizontal por el método de caza o alimento de cada especie. Los resultados muestran las pruebas estadísticas que relacionan la búsqueda del alimento de cada especie con sus horarios de actividad demostrando que para cada animal esto ha marcado la forma de su pupila.

Comencemos con ojos de un animal depredador . Los mismos deben de ser capaces de medir muy bien la distancia que lo separa de su presa (algo extremadamente útil si tienen que gastar su energía en una carrera para conseguir el alimento) y en cuanto a su visión, según explica Banks, es importante tener en cuenta que el ojo tiene tres formas de hacer una triangulación para calcular las distancias. La primera es la visión en estéreo o estereopsis un fenómeno dentro de la percepción visual por el cual, a partir de dos imágenes ligeramente diferentes del mundo físico proyectadas en la retina de cada ojo, el cerebro es capaz de recomponer una imagen tridimensional. Con este método y la comparación entre la señal de los dos ojos, el cerebro de un animal puede apreciar la profundidad de campo.

La segunda es el paralaje de movimiento que es el cambio de la posición de los objetos en relación a su profundidad cuando se desplaza el observador. Los objetos que están más cercanos al punto enfocado se mueven en dirección opuesta al propio movimiento, mientras que los objetos que están situados más lejos lo hacen en la misma dirección.

La tercera es el contraste de nitidez: la pupila detecta que un objeto se acerca o se aleja tomando referencias y viendo cuándo se pone borroso.

Los animales predadores no pueden usar el paralaje de movimiento porque sus presas les verían moverse, así que solo les queda usar la estereopsis y la nitidez para estimar la distancia a la presa. Según explica Banks.: «la primera funciona mejor si la pupila es pequeña y la segunda funciona mejor si la pupila es grande”. Esto se consigue con un ojo cuya pupila sea vertical. Las pupilas verticales son perfectas para medir la profundidad de campo (véase que hay muchos puntos azules de actividades nocturnas en la zona superior derecha que refleja la caza por sorpresa). Las rendijas también permiten también una mayor expansión de la pupila para dejar entrar mucha más luz, y favorecen la visión nocturna pero este tipo de ojos también exige importantes cambios anatómicos en e ojo de ese animal ya que para el cierre de este tipo de pupilas deben de intervenir dos músculos adicionales que compriman lateralmente la abertura de la pupila permitiendo así un cambio de su área mucho mayor. La pupila de un gato puede tener cambios en su área de entre 135 y 300 veces

Para mejorar aun más la visión con poca luz, este tipo de felinos también tienen una capa reflectiva llamada Tapetum Lucidum detrás de su retina que aumenta la cantidad de luz captada por las células fotorreceptoras. Esta capa puede aumentar entre 30 y 50 veces la sensibilidad de los bastones, por eso, cuando apuntamos a los ojos de un gato con una fuente luminosa en la oscuridad- que es cuando sus pupilas están dilatadas- la luz penetra hasta el interior de su ojo y parte de la misma se refleja en esa especie de espejo que es su tapetum lucidum y rebota hacia nosotros obteniendo ese tipo de mirada láser que nos devuelve este animal en la oscuridad.

La “mirada laser” de un gato en la oscuridad

Los animales cazadores de mediano a gran tamaño (como perros, lobos y los grandes felinos) tienen sus pupilas redondeadas. Esta forma le es suficiente para cazar en horas de luz intensa a presas de gran tamaño ( no como las de los gatos que son pequeñas) y como cazan acosando y agotando a sus víctimas no precisan de un aparato óptico tan complejo como el del gato. Además al tener sus patas más largas y los ojos a mayor distancia del suelo no necesitan acercarse tanto a sus presa como los depredadores de emboscada que cazan cerca del suelo (gatos, zorros e incluso cocodrilos) ya que su salto es más poderoso y aunque no enfoquen a su víctima de manera precisa pueden corregir un cierto margen de error con su potencia muscular.

Ojos de grandes depredadores

Por eso la pupila redonda de los grandes felinos cazadores aunque no les da un campo de visión espectacularmente amplio, le sirve para hábitos de caza diurnos como pueden verse en el gráfico que muestra puntos rojos en la zona de caza activa y por sorpresa. La pupila redondeada es mucho menos exigente pero cubre bien las necesidades de estos animales y la constricción de la misma se logra mediante músculos en forma de anillo. Una pupila circular puede cambiar su área alrededor de 15 veces y esto es suficiente para que se dilate en condiciones de poca luz y también puede contraerse lo suficiente para evitar el deslumbramiento durante las horas de luz intensa del día.

La pupila circular es también la que tenemos los seres humanos porque nuestros hábitos son diurnos y lo mismo cazamos que nos alimentamos de la agricultura aunque el ojo del hombre es el más versátil de todos ya que se adapta a todas las situaciones de una manera moderada y en el gráfico se muestran puntos azules, rojos y verdes distribuidos uniformemente durante el día y la noche.

¿Y que pasa con las pupilas horizontales de forma oblonga, o rectangulares? Las mismas son una característica de los animales calificados como presas: ovejas, cabras o caballos, pero esta curiosa forma de pupilas también proporciona a sus portadores unas buenas ventajas.

En primer lugar les dan un campo de visión mucho más amplio, casi panorámico, permitiéndoles divisar mucho mejor a los posibles depredadores y en segundo lugar también les ayudan a mantener el suelo enfocado para ayudarles a escapar más rápidamente. Se trata de un tipo de pupilas que produce un campo visual muy extenso en los animales que tienen una alimentación herbívora y que pueden ser víctimas de los cazadores. Los herbívoros con sus ojos situados en la parte lateral de su cabeza, pueden ver tanto delante como por detrás porque deben de estar siempre alerta, y con la atención siempre puesta en lontananza para detectar cualquier movimiento sospechoso que pudiese delatar la presencia de un predador. También poseen una buena visión frontal para poder huir y evitar obstáculos con rapidez en caso de necesidad.

Campo visual de un caballo. Visión de 350º de los cuales 65º son binoculares y 285º se alcanzan a ver con cada ojo independientemente
Fuente

La pupila rectangular confiere, pues, una visión panorámica horizontal de todo lo que sucede a ras del suelo –allí donde pueden estar agazapados los predadores- y permite a sus poseedores que desde la zona frontal hasta la trasera, su campo de visión sea diáfano. Esta disposición que permite un campo de visión horizontal más profundo y mejora la calidad de la vista en esa dirección.No olvidemos que un potencial cazador podría acercarse a estos animales desde cualquier punto.

Hay otra adaptación evolutiva que hace que la visión de los herbívoros se mantenga siempre en óptimas condiciones para detectar a sus predadores y es que su pupila también mantiene siempre su eje mayor paralelo al suelo. Tanto si el animal está oteando alerta el horizonte como si está pastando el eje mayor de la pupila mantiene esa orientación. Es decir, el globo ocular rota en la cuenca del ojo –fenómeno conocido como ciclovergencia– de tal suerte que el eje mayor pupilar sigue paralelo al suelo, lo que permite mantener siempre una visión panorámica óptima.

Y puestos ya a entender la visión de los animales añadir que existen algunos que tienen súper poderes. Por ejemplo, tanto el águila como el halcón disponen de una agudeza visual entre dos y cuatro veces superior a la del ser humano. Se estima que ambos animales son los que mejor calidad de imagen tienen de todos los seres que habitan el planeta pues disponen de una gran resolución y nitidez en la imagen que los hacen implacables a la hora de ver y cazar a sus presas, gracias a que tienen más células que detectan la luz (conos) que la retina humana. Esto incrementa la capacidad de ver los detalles. Por otro lado, su campo visual es de casi 340º, mucho mayor que el del ser humano, que es de 180º. Estas características unidas hacen que posean la capacidad de ver en tres dimensiones, y así saber exactamente a qué distancia están sus presas para cazar con eficacia.

Otro animal con unos ojos sorprendentes es el búho, un ave nocturna que tiene sus ojos 2,2 veces mayores que los de la mayoría de aves y situados de frente. Su retina está dotada con muchos más bastones (los responsables de la visión nocturna) que lo habitual y por eso puede volar, cazar y protegerse con un mínimo de luz.

¿Y qué decir del camaleón? Sus ojos pueden moverse de forma independiente el uno del otro y sus párpados cubren casi todo el globo ocular dejando un pequeño agujero por el que ve. El hecho de que cada ojo pueda “ir a la suya” le permite tener un campo visual de 360 grados y ver dos cosas a la vez como por ejemplo, una presa y una potencial amenaza.

Dicen que el refranero es sabio y hay un refrán que dice que “los ojos son el espejo del alma” pero esto, que tal vez sea aplicable al ser humano que con su mirada puede infundir confianza, rechazar, o anunciar nuestro estado de humor, no es lo que cabría decir de los animales. Para ellos el refrán habría que cambiarlo por este otro: “los ojos revelan la posición en la cadena trófica

Fuentes:

Why do animal eyes have pupils of different shapes (Science Advances)

https://www.livescience.com/51787-why-cats-have-vertical-pupils.html (Livescience)

El triste destino de “la reina del aire”

Amelia Mary Earhart, fue una famosa piloto femenina a la que los medios apodaron como “la reina del aire”. Nació el 24 de julio de 1897 en una época incluso anterior a existencia de los aviones, en Atchison, Kansas y era hija de Samuel Stanton Earhart y Amelia Otis Earhart con una infancia marcada por problemas familiares porque su padre no tenía estabilidad laboral y los viajes para conseguir empleo eran una constante. Por ello debió pasar mucho tiempo en la casa de sus abuelos maternos en Atchinson (Kansas)

Una niña inquieta

Aquella niña desde desde muy pequeña, ya mostró una personalidad inquieta, contraria a los convencionalismos de su época, actuando de forma distinta a cómo se suponía que debían de hacerlo las niñas de principios del siglo XX y lo mismo se dedicaba a trepar a los árboles que a cazar ratas con un rifle. Su carácter rebelde y feminista la llevó incluso a mantener un álbum con recortes de periódicos que trataban sobre mujeres exitosas en campos tradicionalmente, considerado como propios de hombres como la producción cinematográfica, el derecho, la publicidad, la gestión o la ingeniería. Todo esto ella nos lo cuenta en un libro autobiográfico de memorias que escribió en 1932 titulado «The fun of it. Random records of my own flying and of women aviation » ( Por el placer de hacerlo. Notas sobre mis vuelos y las mujeres en la aviación) editado en España por Editorial Macadán (2016) en el que afirmaba que “por desgracia tuve que crecer en una época en la que se esperaba que las niñas se comportaran como niñas”.

Portada del libro

El 17 de diciembre de 1903 cuando Amelia aún solo tenia 6 años los hermanos Wilbur Wright (1867-1912) y Orville Wright (1871-1948) ya habían conseguido el primer vuelo tripulado en un biplano llamado Flyer de dos hélices impulsado por un motor de combustión interna de 12 CV con noventa kilogramos de peso. Empezaba la época de la aviación y pronto correrían los tiempos en los que el aeroplano alcanzaría su mayoría de edad. Cuatro años después, en 1907, cuando Amelia cumplió los diez años, tuvo la ocasión de ver a uno de aquellos primeros aviones pero aquella primera visión no la dejó nada impresionada ya que como ella misma dice en sus memorias, aquel aeroplano solo le pareció “una cosa de alambre oxidado y madera que no tenía nada de interesante

El avión «Flyer» de los hermanos Wright en su primer vuelo.

Mientras ella crecía también lo hacía también la aviación y con el estallido de la Primera Guerra Mundial los aviones de combate ya se empezaron a elevar a alturas superiores a los seis mil metros. En aquellos tiempos nuevas dificultades llegaron a la familia Earhart y su padre volvió a perder el empleo, comenzando a tener problemas con el alcohol, por lo que su madre se trasladó con ella y su hermana a Chicago en donde empezó la historia de esta mujer que se matriculó en una escuela de ciencias de aquella ciudad, llamada Hyde Park High School.

Tras el estallido de la Primera Guerra Mundial Amelia y su hermana Muriel viajaron a Canadá como enfermeras voluntarias, para atender a los pilotos heridos en combate y fue allí donde se despertó su vocación por el vuelo al hacer una visita al campo del Cuerpo Aéreo Real, de las fuerzas aéreas británicas. Fue entonces cuando la idea de convertirse en piloto de aviones comenzó a tomar forma en su mente y como ella misma afirma en sus memorias terminó «picada por el gusanillo de la aviación«.

Amelia en su época de enfermera

Cuando Amelia se graduó los aviones ya eran una cosa nueva y emocionante y cuando en 1920 su familia decidió trasladarse a vivir a California, ella asistió con su padre a una exhibición aérea en la que tuvo la oportunidad de montarse en uno de aquellos aparatos y sobrevolar la ciudad de Los Ángeles. «Cuando ascendí hasta los noventa metros ya supe que tenía que volar» nos cuenta Amelia Earhart en sus memorias y tras aquella primera experiencia de vuelo con una ascensión de diez minutos el 28 de diciembre de 1920 en compañía del piloto Frank Hawks quedó tan entusiasmada que desde aquel mismo instante decidió que tenía que aprender a volar y que el surcar los cielos sería su destino.

Así, un año más tarde, una decidida Amelia Earhart se apunta a las clases de Neta Snook, la primera mujer de aquellos tiempos que tenia un negocio de aviación y que también es considerada como una de las pionera de la aviación femenina. Tras sus primeros vuelos quedó tan entusiasmada que seis meses más tardes, decidió comprarse con sus ahorros un prototipo del aeroplano Kinner al que llamó «el Canario»

Amelia con su avión «el Canario»

Con aquel aparato llegó a alcanzar una altura de 14.000 pies (4.267 metros) estableciendo un récord mundial para pilotos femeninos y en 1923 consiguió su licencia de vuelo por la Federación Aeronáutica Internacional, convirtiéndose en una de las 16 mujeres en el mundo de aquel entonces que la poseían y entrando a formar parte de la Asociación Aeronáutica Internacional en 1927, donde empezó a ser reconocida como una de los mejores pilotos estadounidenses.

Foto: AP Photo / Gtres

El carnet de piloto de Amelia

Era la década de “los felices años 20” del pasado siglo en la que los pilotos se esforzaban en tratar de romper récords de vuelo: unos querían volar más alto que nadie y otros más lejos y así en 1927, Charles Lindbergh consiguió ser el primer piloto en volar «solo», a través del Océano Atlántico.

Y una tarde de abril de 1928, Amelia Earhart recibió una llamada en el trabajo. “¿Te gustaría ser la primera mujer en sobrevolar el Atlántico?” fue lo que le dijo un hombre al otro lado del teléfono. Era el capitán H.H. Railey y la idea de aquella aventura había partido de Amy Guest, una aristócrata estadounidense que ya había adquirido un Fokker F.VII para la misma. En un principio aquello era un proyecto personal de Guest, a la que también le gustaba volar pero tras ser disuadida por su familia había decidido recurrir al famoso editor George P. Putnam –con el que Amelia terminaría casándose unos años más tarde – para que se ocupara de organizar aquel primer vuelo femenino sobre el Atlántico. La respuesta de Earhart a aquella propuesta fue la de un sí rotundo, pero aunque Amelia estaba emocionada por unirse a aquella aventura su sueño era el de volar sola en su propio avión.

Los coordinadores de la travesía, decidieron que Amelia acompañara al piloto Wilmer “Bill” Stultz y al mecánico Louis E. “Slim” Gordon y la nave fue bautizada como Friendship (Amistad), despegando el 3 de junio de 1928 y tras un vuelo de 20 horas y 40 minutos desde Trepassey Harbour, Terranova, llegó a Burry Port, en el sur de Gales, con poco combustible por lo que no pudo aterrizar en Irlanda, como estaba planeado. La misma Amelia reconoció que todo el trabajo lo hicieron los pilotos, pero al llegar los reporteros los ignoraron y solo la abordaron a ella. Después recibió felicitaciones del mismo presidente Calvin Coolidge y a raíz de este viaje ya empezó a ser conocida como Lady Lindy, por su parecido con el aviador Charles Lindbergh.

Disfrutando del éxito

A partir de entonces su fama creció y los medios de comunicación ya empezaron a llamarla «la reina del aire«. Se hizo tan famosa que llegó a tener incluso su propia marca de ropa y equipaje como las estrellas de Hollywood y comenzó a dar conferencias gracias al trabajo de Putnam que la ayudó a publicar su libro «Veinte horas, cuarenta minutos«, y que la acompañaba a todas partes. Fue tal la afinidad entre ambos que contrajeron matrimonio en 1931.

Amelia Earhart junto a su marido George Palmer en 1932

Aprovechando su popularidad, Amelia promovió también el uso comercial de la aviación y defendió la incorporación de las mujeres a este nuevo campo profesional. También enseñó en la Universidad de Purdue para que pudieran aprender a pilotar otras mujeres y en la universidad, trabajó en el Departamento de Aeronáutica. Fundó la organización Las noventa y nueve (pues incluía a 99 miembros) de la que fue su primera presidenta y en 1930 fue vicepresidenta de relaciones públicas de una aerolínea entre Nueva York, Filadelfia y Washington.

Amelia posando en el centro junto a otras mujeres piloto: L-R Ruth Nichols, Bobbie Trout, Blanche Noyes, Dra. A H Rorhbach, Thea Rasch, Gladys O’Donnell y Phoebe Omliery. Foto: CordonPress

En 1931, voló más alto que nadie hasta los 18.415 pies de altitud ( 5.612 m.) pero a estas alturas de su vida ella sentía que ya tenía la oportunidad de cumplir su sueño de hacer un vuelo sola por el Atlántico. Hasta 1932 nadie había hecho un viaje en solitario desde Lindberg. y la oportunidad de convertirse en la primera mujer y en la segunda persona en volar en solitario a través del Atlántico no quería desperdiciarla . El 20 de mayo de 1932, despegó desde Terranova (Canadá) hacia París volando durante 14 horas y 56 minutos. Durante ese tiempo, tuvo que luchar contra fuertes vientos, hielo y problemas mecánicos y eso la obligó a desviar su ruta. Cuando vio tierra aterrizó, pero no estaba en París sino en un pastizal de Irlanda. No importaba, era la primera mujer que volaba sola y sin parar, a través del Océano Atlántico aparte de ser la primera persona en hacerlo dos veces,

El presidente Hoover la condecoró con la medalla dorada especial de la National Geographic Society y fue votada como la mujer más destacada del año recibiendo del Congreso la Distinguished Flying Cross, otorgada por primera vez a una mujer.

Ya su carrera como aviadora era imparable y con su Lockheed Vega en 1934 anunció que su próxima aventura seria un vuelo a través del Pacífico, desde Hawái a California, y después a Washington. Diez pilotos lo habían intentado antes y murieron. Salió de Honolulú (Hawai) el 11 de enero de 1935 y aterrizó en Oakland (California) ante una multitud que la vitoreaba recorriendo una distancia superior a la existente entre Estados Unidos y Europa, También era la primera piloto en completar con éxito este difícil trayecto sobre aguas del Pacífico, A finales de ese mismo año, estableció otro nuevo récord de velocidad al realizar un vuelo sin escalas, de algo más de catorce horas, entre Ciudad de México y Nueva York y el presidente Roosevelt le envió sus felicitaciones. Ese mismo año también realizó el primer viaje solitario entre Los Ángeles a Ciudad de México, y de allí a Newark, Nueva Jersey.

Amelia Earhart ya había establecido muchos récords pero quería una nueva aventura: volar alrededor del mundo. Esto iba a ser un trabajo duro, y ella necesitaba planearlo cuidadosamente. Para prepararse para aquel vuelo, le pidió a un piloto de acrobacias de Hollywood llamado Paul Mantz que la ayudara a mejorar sus habilidades de vuelos a larga distancia. Buscando “lo más difícil” también eligió el camino más largo, volando sobre el ecuador

Mapa de la ruta prevista de Earhart. La línea continua representa la ruta realizada

El Lockheed Electra 10E fue la máquina elegida y a este avión se le puso un tanque de combustible mas grande.

Amelia Earhart posa junto al avión Electra antes de su último vuelo en 1937. Foto: AP Photo / Gtres

El 17 de marzo de 1937, Amelia comenzó su aventura con una primera etapa entre Oakland, California y Hawaii y con un equipo formado por Fred Noonan como navegante (por su experiencia en vuelos sobre el Océano Pacífico) y otros dos tripulantes como técnicos para ayudar en el viaje.

Fotografía de 1937 que muestra a Amelia Earhart y a su compañero de vuelo, Fred Noonan. Foto: AP Photo, File / Gtres

Aquel vuelo tuvo problemas porque el aeroplano se deslizó fuera de control teniendo daños considerables y tuvieron que detener el vuelo para regresar a California y arreglar el avión. Sin embargo Amelia continuó con sus planes e hizo otro intento cambiando la ruta del viaje hacia el este. De ahora en adelante sólo viajaría con Fred Noonan y tras reparar al Electra partió de Los Ángeles hacia Florida el 21 de mayo de 1937. El 1 de junio salieron de Miami, y su primer destino fue San Juan de Puerto Rico volando desde allí a Caripito, al oriente de Venezuela, y bordeando Sudamérica para tomar rumbo a África y el Mar Rojo.

Desde allí realizó un vuelo inédito en la historia de la aviación, hacia Karachi en Pakistán y el 17 de junio de 1937 tomó rumbo a Calcuta. Posteriormente su destinos fueron Rangún (Birmania), Bangkok, Singapur y Bandung. En este último lugar en la isla de Indonesia ocurrieron algunos percances. Hubo retraso por el mal tiempo y a la aeronave tuvieron que volver a realizarle una serie de reparaciones, pero lo más grave fue que ella enfermó de disentería y tuvieron que esperar hasta el 27 de junio de aquel año para despegar hacia Darwin en Australia.

Llegó a Lae, en Papúa Nueva Guinea el 29 de junio con 35.405 kilómetros volados. Aún le quedaban 11.265 kilómetros por recorrer y este era el último empujón para terminar su viaje. Desde allí se comunicó con el Herald Tribune mandado a este medio unas fotos en las que se podía apreciar que estaba enferma y cansada pero eso no le impidió que a las 0:00 GMT del 2 de julio de 1937 despegase con Fred en un avión muy cargado con 2.000 galones de combustible- suficientes para 20 ó 21 horas de vuelo- con el objetivo de aterrizar en Howland Island, distante más de 2.000 Km. Aquel día la situación atmosférica no era la más favorable porque el cielo estaba nuboso y con lluvias intermitentes y algo salió mal ya que en este vuelo sobre el Océano Pacífico Amelia y Fred desaparecieron.

Mapa del océano Pacífico con la isla Howland al centro y la posible ruta de Earhart en la zona, antes de su desaparición

El guardacosta estadounidense Itasca a las 7:20 GMT de aquel día reportó su posición que era de 232 kilómetros al suroeste de las Islas Nukumanu. A las 8:00 GMT se realizó el último contacto de radio cuando el avión de Amelia volaba en ruta hacia la Isla Howland a 3.657 metros de altura. Nunca se supo el rumbo que tomaría la aeronave tras alcanzar Nukumanu ya que la radio empezó a fallar y solo se recibían algunas transmisiones cortas en el Itasca.

A las 19:30 GMT se recibió el siguiente reporte: «KHAQQ llamando al Itasca. Debemos estar encima de ustedes, pero no los vemos… El combustible se está agotando…» Según declararon posteriormente los marinos, ellos podían escuchar perfectamente como la aviadora les pedía ayuda desesperadamente, pero no podían devolverle la comunicación. A las 20:14 GMT el guardacosta recibió el último mensaje del avión de Amelia dando su posición y ya se perdió la señal. Ya solo era cuestión de tiempo que la piloto estadounidense se quedase sin gasolina y hacia las 21:30 GMT se determinó- según el gobierno de los EE.UU.- que su avión se debería de haber estrellado en el Pacífico pero nunca se encontraron sus restos ni los de sus ocupantes.

Con los datos disponibles se estableció la hipótesis de que el avión de Amelia pudo caer entre los 56 y los 160 kilómetros de la costa de la isla Howland. pero nunca se encontró nada. El presidente Franklin D. Roosevelt autorizó la búsqueda del mismo con la Guardia Costera de los Estados Unidos usando 9 barcos y 66 aviones, en una operación que tuvo un costo de 4 millones de dólares pero todo fracasó.

La prensa se hizo eco del accidente

Alrededor del 18 de julio de 1937 se abandonó el rastreo en el área de Howland y también las esperanzas de encontrar con vida a Amelia. Así fue como desapareció esta mujer y las esperanzas de encontrarla fueron ya inexistentes. Se pensó que había muerto haciendo lo que más amaba y se edificó un faro en 1938 en la isla Howland en su honor.

Pero ¿murió realmente aquella «reina del aire» . Los buceadores de un proyecto llamado Blue Ángels así lo afirman y sostienen que ellos lograron encontrar los restos de un avión Lockheed Electra 10 similar al avión de Amelia en un banco de coral cercano a la costa de Papúa Nueva Guinea, lo que confirmaría la hipótesis de que Amelia Earhart falleció allí al estrellarse su avión, pero hay otras alternativas que apuntan a pensar que esta aviadora no estrelló su avión en el mar sino que tal vez pudo realizar un aterrizaje forzoso y quedar viva.

La primera de ellas sugiere que su avión aterrizó en el atolón de Nikumaroro a casi 1600 km de Fiji, y a medio camino entre Australia y Hawai. Esta isla del Pacífico Sur es esencialmente un banco de arena sobre un arrecife de coral sobre un volcán submarino hundido.

Atolón de Nikumaroro

La isla Nikumaroro es uno de los atolones de la Gran Barrera de Coral. Tiene 7,5 km de longitud y una anchura de 2,5 Kms y está rodeada por un océano profundo. Allí pudo terminar sus días Amelia Earhart cómo náufrago .

Es lo que afirma la Fundación TIGHAR (Grupo Internacional para la Recuperación de Aeronaves Históricas) que sostiene que Earhart y Nooman tras quedarse sin combustible podrían haber aterrizado en este atolón, luego llamado Gardner. Al estar rodeado de un arrecife este pudo haber servido de pista de aterrizaje improvisada. Luego el mar se tragó el avión y Noonan falleció quedando Amelia Earhart sola en aquella isla en la vivió algún tiempo como náufrago hasta que murió.

Esta hipótesis se sostiene porque en 1940 los británicos establecieron una colonia en aquella isla y su primer administrador colonial Gerald Gallagher envió un telegrama informando que allí se había descubierto un esqueleto humano parcial. Aquellos huesos permanecieron en el olvido hasta que en el año 2018 el investigador Richard Jantz, profesor emérito de antropología y director del Centro de Antropología Forense de la Universidad de Tenneese determinó que los restos podrían pertenecer a una mujer de las mismas medidas que la aviadora fallecida. Además uno de los grupos que trabajó en aquella isla descubrió otros objetos que podían tener relación con Amelia como la parte de un zapato femenino, una caja sextante, una botella de licor Benedictine (uno de los favoritos de la aviadora) y los botones y la cremallera de una chaqueta de aviación

Hay una segunda hipótesis que sostiene que Amelia pudo amerizar y ser capturada por una patrulla naval japonesa y tras ello presuntamente ser trasladada a las Islas Marianas. La base de la misma es una fotografía tomada por un espía estadounidense que informaba sobre las actividades militares niponas en el Pacífico.

En esta foto sacada de un cajón olvidado de los Archivos Nacionales de EE.UU. se muestra a una mujer muy parecida a Amelia Earhart junto con un hombre también parecido a Fred Noonan, su navegante que están en un muelle junto al barco japonés «Koshu» que parece remolcar un objeto que podría ser el avión de la piloto. Aquel Lockheed Electra 10E podría no haberse hundido de inmediato debido a que sus tanques vacíos de combustible le sirvieron de flotadores. El resto de la historia sería que la tripulación del «Koshu» detuvo a Amelia y la trasladó desde las Islas Marshall hasta Saipán en las Marianas y en este cautiverio ella falleció.

Así es que no sabemos lo que le pasó realmente a nuestra «reina del aire» pero sea cual sea, cualquiera de estas hipótesis nos lleva a pensar que aquella gran mujer tuvo un triste final. Cayó de los cielos con 40 años y se quedó «sin sus alas” para morir en aquellos remotos lugares: estrellada en el mar, bien emulando a Robinson Crusoe en una solitaria isla del Pacífico o cayendo prisionera de los japoneses y terminando en cautiverio. Entre las tres opciones yo prefiero la segunda e imaginármela sentada en aquella remota isla sola, mirando al cielo y soñando con ser alguna de aquellas gaviotas que lo cruzaban.

Sea cual fuese su destino Amelia Earhart tuvo que tener recursos para sobrevivir sus últimos días y aceptaría su destino recordando la carta que un día le mandó a George, su marido en la que le decía : «Por favor debes saber que soy consciente de los peligros, quiero hacerlo porque lo deseo. Las mujeres deben intentar hacer cosas como lo han hecho los hombres».

Fuentes:

Biografías e Historia

Canal Historia

NASA

Amelia Earhart y los huesos de la isla Nikumaroro

National Geographic

Rey por un día

Recuerdo de mi juventud un programa de televisión española llamado»Reina por un día» dirigido por Eugenio Pena y estrenado a finales de marzo de 1964 . Aquel reality se realizaba en los estudios Miramar de Barcelona y era una adaptación de Queen for a Day, un programa de gran éxito en los Estados Unidos presentado por Jack Bailey que estuvo en antena primero en la NBC y después en la ABC entre 1957 y 1964. De las manos de los presentadores Jose Luis Barcelona y Mario Cabré, aquel programa tenía como objetivo realizar los sueños de las mujeres de la España de los años 60 y a la ganadora seleccionada por el equipo del mismo se la coronaba simbólicamente como reina por un día y era acomodada en un trono.

La Historia del mundo está llena de personas, que se han hecho un lugar en la misma ya sea por un acto heroico o por poseer alguna cualidad artística pero la del personaje del que hoy vamos a hablar es algo distinto. Se trata de Juan de Lepe y su fama deriva de una partida de cartas que supuestamente le ganó al rey Enrique VII de Inglaterra y que le permitió ser “rey” de aquel país en el siglo XVI durante 24 horas.

Lepe, es un pequeño pueblo andaluz de la costa atlántica,en el suroeste de España, popularmente conocido por sus ricas fresas, un magnífico paisaje y unos divertidos chistes que lo nombran. Allí esta historia se viene contando desde generaciones e incluso en la actualidad una de sus calles principales lleva el nombre de este curioso personaje cuya historia es sumamente curiosa y que también se presta a muchas dudas ya que no existen ni imágenes ni datos históricos sobre las circunstancias en las que Juan de Lepe y el rey Enrique VII se conocieron. A este personaje podría aplicársele esa expresión de «sabes más que Lepe» que aunque tiene su origen en Don Pedro de Lepe y Dorantes, natural de Sanlúcar de Barrameda y que ejerció como Obispo de la diócesis de Calahorra y la Calzada (La Rioja) durante el siglo XVII es perfectamente aplicable a un personaje tan avispado capaz de enredar nada más y nada menos que a todo un rey de Inglaterra.

Enrique VII de Inglaterra

Porque a Enrique VII de Inglaterra, no se le puede aplicar el calificativo de “un rey poco avispado”. Hijo de Edmundo Tudor y de Margarita Beaufort, de la Casa de Lancaster, tuvo una juventud muy azarosa por el recelo que su condición de representante de los Lancaster despertaba en la casa rival de los York, entonces reinante y durante el breve y agitado mandato de Ricardo III de Inglaterra (1483-1485) tuvo que exiliarse a Bretaña y más tarde a Francia. Pero regresó a Inglaterra, y venció a Ricardo III en la célebre batalla de Bosworth (agosto de 1485), en la que este perdió la vida. Aquel fue el último acto de la llamada Guerra de las Dos Rosas, que había ensangrentado a Inglaterra durante más de treinta años y tras esta victoria el Parlamento inglés en noviembre de 1485 lo reconoció como rey con el nombre de Enrique VII, siendo el iniciador de la dinastía Tudor en Inglaterra y reinando en este país entre los años 1485 y 1509. Fue un rey sabio y astuto que reforzó el poder de la corona sobre la nobleza, conforme al modelo de las monarquías autoritarias, y que marcó el inicio de un periodo de paz y prosperidad en Inglaterra después de los interminables conflictos que aquel país había sufrido durante el siglo XV.

Por eso aunque se sabe que Enrique VII, era una persona aficionada a los juegos de azar no resulta muy creíble que este monarca decidiera un día apostar nada más y nada menos que los ingresos que su reino producía en un día contra un advenedizo andaluz que había llegado a su corte. También se sabe que este rey también tenía fama de tacaño por lo que resulta un poco difícil el creer que se jugara pudiera en una partida de azar el privilegio su contrincante de cederle el trono de Inglaterra durante un día, junto con las rentas que generara el reinado durante esa jornada. Tampoco sabemos que sería lo que apostase aquel Juan de Lepe contra este rey, y de ser cierta la historia debió ser algo muy importante para cerrar una apuesta en la que se juega nada menos que el reino de Inglaterra durante un día. Incluso se ignora si aquel envite fue en una partida de ajedrez, de cartas o de dados. Lo único que sabemos es que- supuestamente- el rey Enrique VII perdió aquella partida y que cumpliendo su promesa hizo rey de Inglaterra a Juan de Lepe por un día

Francisco Gonzaga

Pero no es una leyenda porque existe una referencia histórica sobre esta curiosa historia y la misma se la debemos a un prelado romano católico, que sirvió como Obispo de Mantua (1593-1620), Nuncio Apostólico en Francia (1596-1599), Obispo de Pavía (1593) y Obispo de Cefalú (1587-1593) llamado Francisco (Aníbal) Gonzaga.

En su crónica de 1.583 titulada De origine Seraphicae Religionis Franciscanae eiusque progressibus (Roma, 1587) este fraile afirma que Enrique VII se jugó con un personaje de su corte llamado Juan de Lepe, las rentas del reino por un día y que el tal Juan le ganó y por ello fue conocido por el título de «The little King of England» ( «El pequeño rey de Inglaterra» ) antes de volver a su lugar de origen y ser sepultado en el convento franciscano de Ntra Señora de la Bella en Lepe.

Francesco Gonzaga – De origine seraphicae religionis franciscanae eiusque progressibus – 1587

Escrita en latín en esta crónica se recoge literalmente el siguiente texto:

«En la Iglesia de este convento aún se ve el sepulcro de cierto Juan de Lepe, nacido de baja estirpe del dicho pueblo de Lepe, el cual como fuese favorito de Enrique VII rey de Inglaterra con él comiese muchas veces y aun jugase, sucedió que cierto día ganó al rey las rentas y la jurisdicción de todo el reino por un día natural, de donde fue llamado por los ingleses el pequeño rey. Finalmente, bien provisto de riquezas y con permiso del Rey volvió a su patria nativa y allí después de haber vivido algunos años rodeado de todos los bienes y elegido su sepultura en esta iglesia, murió. Sus amigos y parientes grabaron esta historia en lugar de epitafio, la cual quise yo, aunque no parece a propósito de esta Historia, dejarla como un recuerdo de este lugar”.

Es decir que según esta crónica Juan de Lepe ganó una partida de azar al rey Enrique VII y no sólo disfrutó de su día, de rey sino que acaparó una riqueza fabulosa fruto de las rentas del reino que le correspondían durante su breve reinado. Después con permiso de este rey volvió a su ciudad natal, e hizo una generosa donación al convento franciscano de Nuestra Señora de la Bella de Lepe, pidiendo ser enterrado en aquel convento- algo que solo estaba reservado para los frailes del mismo o gente de la nobleza- y que en su lápida constase tanto su nombre, como sus hazañas por tierras inglesas.

Ruinas del convento franciscano. Nuestra Señora de la Bella de Lepe /Foto: lepetalycomoes.blogspot.com

Así pues, en este convento franciscano de Nuestra Señora de la Bella en Lepe debería de encontrarse la confirmación de esta curiosa historia. Sin embargo esto no es posible porque aquel edificio fue destruido a causa de la desamortización de Mendizábal en el siglo XIX y actualmente no se conservan ni el monasterio ni la lápida de nuestro personaje.

La corona de Enrique VII

Hay otro dato que apunta a que esta historia tiene algo de verdad y es el de actualmente el se conserva en la ciudad de Lepe uno de los tesoros más preciados que presumiblemente aquel Juan de Lepe se trajo consigo tras su periplo por las tierras inglesas y no es otro que la mismísima corona de Enrique VII realizada en plata y grabada a fuego con esmaltes que nuestro personaje presuntamente donó a la Virgen de la Bella. Esta corona es uno de los principales objetos que la Hermandad de La Bella de Lepe posee.

Así es que debo de creerme esta historia y ahora tengo una pregunta: ¿como pudo Juan de Lepe hacerse confidente, ayudante y compañero de juegos de Enrique VII hasta el punto de que este fuera capaz de jugarse con él su corona durante un día en favor de nuestro perspicaz plebeyo? Como todo está en el terreno de las hipótesis voy a lanzar la mía.

En un libro titulado “El Pequeño Rey de Inglaterra” escrito por un delineante del pueblo de Lepe llamado Aurelio J. Madrigal Orta se cuenta esta historia con algo de fantasía pero como el propio autor aclara en el mismo se mezclan leyenda y realidad. Por consiguiente no tenemos (fuera de la narración de Francisco (Aníbal) Gonzaga) ninguna certeza de cómo pudo fraguarse esta curiosa apuesta.

Y se me ocurre que tal vez nuestro Juan de Lepe quizás llamó la atención de Enrique VII por sus orígenes, porque el nombre de Lepe no es para nada desconocido en tierras anglosajonas

Poco más de 1.200 kilómetros de distancia separan Lepe (Huelva) de Lepe (Hampshire)

Lepe«- incluso si no suena como un nombre inglés – es un topónimo de Inglaterra: el Lepe Country Park, el Solent, La costa de Hampshire frente a la Isla de Wight. Pero, ¿es una coincidencia caprichosa del lenguaje o el nombre de Lepe esconde algo significativo? Parece ser que no porque la villa inglesa puede hacer referencia a la voz inglesa leap, que significa saltar o un lugar de paso para cruzar de un sitio a otro. y la de la ciudad española podría provenir de la voz árabe Labb, que a su vez habría derivado de la voz latina Laepa, que puede referirse a una pequeña villa rústica.

Pero seguramente esta afinidad de nombres debió de hacerle gracia al rey Enrique VII y tal vez de ahí pudo partir su afinidad con el truhan español Juan de Lepe. Otra cosa es cómo pudo este llegar a ser su confidente, ayudante o compañero de juegos y qué le impulsó a jugarse con él su corona durante un día.

Pero así es la historia de este perspicaz plebeyo…..

Fuentes:

Manuel Muriel Juan de Lepe – The little King of England

GONZAGA, F. (1583): Origine Seraphicae Religionis, Extypographia Basae.

ORTEGA, Á. (1925): «De la España clásica. Juan de Lepe, el pequeño Rey de Inglaterra.» La voz de San Antonio, XXXI.