Cinco curiosas patentes estadounidenses de finales del XIX

El término patente deriva del latín patens, -entis, que originalmente tenía el significado de “estar abierto, o descubierto” (a inspección pública) y de la expresión letras patentes, que eran decretos reales que garantizaban derechos exclusivos a determinados individuos en los negocios.

En América, las primeras patentes para invenciones fueron expedidas en el año 1641 por los gobiernos coloniales y su primera Ley de Patentes data de 1790 pero el gran auge de la inventiva estadounidense comenzó a fines del siglo XIX y principios del XX donde se produjo el aceleramiento de su industrialización. colocándose a a la cabeza del mundo.

En 1849 su Oficina de Patentes y Marcas Registradas se convirtió en una división del Departamento del Interior de los EE.UU. y por ley una patente podía ser otorgada a cualquier persona que inventara o descubriera cualquier arte, máquina, fabricación o composición de materia útil o cualquier mejoramiento nuevo y útil al mismo. Por eso allí las patente se otorgaron para los más curiosos procedimientos

Cada cual tiene el derecho de ser reconocido por sus inventos pero como “cuando el diablo no tiene nada que hacer, mata moscas con el rabo” entre los finales del siglo XIX y principios del XX hubo personas a las que les dio el capricho de patentar las cosas más raras del mundo. Hoy vamos a repasar cinco curiosas patentes registradas en la Oficina de Patentes y Marcas de los Estados Unidos entre finales del siglo XIX y principios del XX

UNO.-1882: Un ataúd con ‘indicador de vida‘ para salvar a una persona accidentalmente enterrada viva.

La tafefobia o tapefobia, es el miedo a ser enterrado vivo y este miedo se intensificó durante el siglo XIX, sobre todo después del descubrimiento en Europa de la Enfermedad del Sueño africana. El miedo de ser enterrado vivo, es una de las fobias más comunes y en los Estados Unidos se convirtió en una obsesión. El miedo a que los signos vitales de una persona en coma o en ” animación suspendida” no fueran detectados dio origen a diversas patentes para evitar esta situación .

La primera de ellas esas fue concedida a Christian Eisenbrandt, de Baltimore, en 1843, y era una tapa de ataúd con un resorte de manera que el movimiento del cuerpo actuaba sobre un sistema de muelles y palancas que provocaban la apertura instantánea de la tapa del ataúd “. Claro que si el muerto resucitaba una vez enterrado poco había que hacer. Por eso Franz Vester de Newark, Nueva Jersey en 1868, modificó la idea con un tubo cuadrado que iba desde el ataúd a la superficie de la tumba, y un cordón, que se colocaba en la mano de la persona colocada en el ataúd unido a una campana y en 1871, se concedió otra patente a Theodore Schroeder y Hermann Wuest, de Hoboken, Nueva Jersey, para un “detector de vida de ataúdes“, que era simplemente una cadena colocada en la mano del cadáver, de la que si se tiraba, sonaba una campana y soltaba un pestillo que abría el ataúd.

Otra idea patentada por Albert Fearnaught, de Indianápolis, en 1882 consistía en una cuerda atada alrededor de la muñeca del cadáver, que al ser tirada, soltaba una bandera roja con un muelle en la superficie para alertar a cualquier espectador de que el enterrado deseaba salir.

Pero había otras personas más ingeniosas y una de ellas fue John Krichbaum de Youngstown, Ohio que el 5 de Diciembre de 1882 patentó un su ataúd con ‘indicador de vida‘ (Patente No 268693 )

Se trataba de un dispositivo extraño donde la persona enterrada viva podía girar un conjunto de asas para mover un dial por encima del suelo. Una barra colocada en las manos del cadáver se extendía hasta la superficie y terminaba en un recinto de vidrio donde había un puntero con unos números que indicaban cualquier movimiento de la persona enterrada. La cubierta permanecía a la vista de las personas que pasaban y Krichbaum menciona que su dispositivo podía utilizarse para “personas que hubiesen sido enterradas bajo la duda de estar en trance“. El mecanismo también permitía un suministro de aire al ataúd para permitir que la persona enterrada respirase.

Desconozco si el invento de Mr. Krichbaum llegó alguna vez a fabricarse porque no he encontrado ninguna referencia publicitaria del mismo, pero me consta que los funerarios americanos suelen estar bastante seguros de que el cadáver que pasa por sus manos ‘no se va a levantar‘ tras haber terminado su trabajo.

DOS.-1889: un artefacto para permitir que una persona volara con alas de pájaro.

Años antes de que los hermanos Wright comenzaran a jugar con sus máquinas voladoras,un tal Reuben Spalding reportó en un periódico de Colorado haber estado usando un traje de pájaro con el que-según él- “hizo varios vuelos exitosos saltando desde edificios y acantilados” y aparentemente vivió para contarlo . Hay que decir que en aquella época ya había personas como el ingeniero alemán Otto Lilienthal que en 1890 estaban volando con éxito utilizando el ala delta como dispositivo y -concretamente- aquel personaje realizó más de 2000 vuelos controlados desde una colina artificial.

Pero Reuben Spalding era más imaginativo y el 5 de Marzo 1889 patentó su “Flying Machine’ (Patente No 398984 ). En aquella patente Spalding nos mostraba un traje de pájaro que usaba un globo para levantarlo. Su máquina voladora llevaba una chaqueta de cuero adaptada al cuerpo del aeronauta por correas que circundaban sus piernas de modo que proporcionasen una unión importante y sustancial de las alas

Hay informes que dicen que aquel traje fue un fracaso y que estaba hecho de seda roja con plumas de pollo y no existe ninguna evidencia que confirme que el señor Spalding volase con este dispositivo pero hay que reconocerle la originalidad de su idea que recuerda un poco al Falcon de “Los Vengadores

TRES-1896: Un dispositivo que levantaba el sombrero cuando el usuario se inclinaba sin necesidad de usar sus manos

No sé si recordaréis aquella sección llamada «Los grandes inventos del TBO» del dibujante Ramón Sabatés en la revista TBO protagonizada por una criaturas llamada profesor Franz de Copenhague, que con su rostro de calavera, cráneo mondo y unas gafas de Rompetechos, cada semana nos brindaba unos extraños inventos alambicadísimos en los que nunca faltaban poleas, correas de transmisión, manivelas y engranajes. Pues bien, existió en la vida real un hombre que lo imito y que pensó que todas las cosas que nos complican un poco la vida podían solucionarse

En la época victoriana se usaban como señal de cortesía el inclinarse y levantar el sombrero como señal de respeto. –Qué agradable verla en esta hermosa tarde, lady Featherstone -diría el caballero de la figura mientras sacudía su sombrero. pero a veces esta costumbre era tremendamente pesada y eso de tener que levantar el sombrero cada vez que alguien pasaba a nuestro lado podía llegar a ser un suplicio ¿Y si teníamos nuestras manos ocupadas llevando paquetes en ese momento?

Por eso un tal James C.Boyle de Spokane, Washington, patentó un “dispositivo de saludo automático” el 10 de Marzo de 1896 para realizar automáticamente aquellos saludos corteses de elevación del sombrero de la cabeza hecho por una persona al inclinarse ( Patente No 556248 ).

El dispositivo se denominaba “Saluting Device” y su inventor lo describía como un ‘dispositivo novedoso para efectuar automáticamente salutaciones corteses por la elevación del sombrero de la cabeza cuando la persona se inclinaba hacia la persona o personas saludadas”. El accionamiento del sombrero se realizaba por un mecanismo sofisticado que no requería el uso de las manos de su propietario.

Se trataba de un curioso sistema con un mecanismo que al inclinar la cabeza hacía que un peso se moviera hacia delante y empujara una varilla hacia atrás que liberaba un perno sobre el que se sustentaba el elemento de elevación. Cuando la persona reanudaba su postura erguida aquel peso oscilaba de nuevo y volvía a su posición normal.

Aunque no tengo noticias de que el señor Boyle se hiciera rico con su invento tengo que reconocer que el profesor Franz de Copenhague no podría haber superado el ingenio de aquel hombre.

CUATRO.- 1908-1911: dos patentes para combatir la masturbación

En la época victoriana se vio a la masturbación casi como la raíz de muchos de los problemas del mundo y varios libros de medicina del siglo XIX la describen como causante directa de locura pasiva y de pérdida del cabello.Algunos textos incluso la consideraban una práctica potencialmente mortal. Por eso se patentaron algunos curiosos dispositivos para evitarla. Vamos a ver dos de ellos

El primero de ellos fue “la armadura sexual” (Sexual Armor) inventada por la enfermera estadounidense Ellen E. Perkins y patentada el 7 de enero de 1908 ( Patente No 875845 ).

Estaba diseñada para ser usada por pacientes de asilo en hombres y mujeres y para prevenir la masturbación. El dibujo muestra el dispositivo aplicado a una persona y como vemos se trataba de una prenda flexible con una entrepierna metálica y una cerradura que impedía la manipulación genital del sujeto que la portaba

El segundo era un dispositivo diseñado por Jonas E. Heyser y patentado el 20 de Junio de 1911 para prevenir que los pacientes de salud mental se masturbasen ( Patente No 995600 ).

Como puede verse era una ‘obra de arte’ en la que el pene y los testículos estaban atrapados dentro de unos los bolsillos metálicos con ranuras para la ventilación y el escape de orina y que hacían imposible una ereccion. Aquellos dispositivos me recuerdan a aquel otro adminículo del siglo XV llamado cinturón de castidad y que consistía en una braga de hierro con púas que el marido imponía a la esposa mientras él se iba a la guerra llevándose la llave para que la mujer estuviera “protegida” y no cayera en la tentación de un escarceo sexual

CINCO: 1910: Un dispositivo para lavar los senos de las mujeres

El francés Alexis Mantelet era un hombre aparentemente obsesionado con los pechos femeninos y la limpieza de los mismos y en 1910 presentó la solicitud de patente de un dispositivos para lavar el seno femenino. Lo llamó “ducha de mama” y consistía en una manguera larga y un grifo, conectada a una caja de alojamiento que contenía “dos o preferiblemente tres anillos de chorros fuertes“. Registró su idea en la Oficina de Patentes de los Estados Unidos ( Patente No 973445 ).

El aparato comprendía dos anillos:uno de ellos formaba la base del aparato y se aplicaba sobre el seno de la muje. El otro anillo, situado a pocos centímetros del primero, era un tubo circular con agujeros a través de los cuales se descargaban los chorros de agua. En la memoria se incluía un dibujo que ilustraba la manera de utilizar aquel aparato y Mantelet afirmaba que “una ducha completa, vigorosa y abundante sobre toda la superficie del pecho da resultados muy deseables” pero 17 años después, había cambiado algunas de sus opiniones y presentó una segunda patente en abril de 1927, porque- según sus propias palabras, los duros chorros de agua de su primer invento producían “un exagerado masaje de las fibras musculares de las glándulas mamarias“, pero aunque ambas patentes le fueron concedidas, aquellas duchas mamarias” de Mantelet nunca llegaron al mercado.

Como veis cinco patentes surrealistas en las que parece que todo vale. Una serie de patentes históricas que nos muestran invenciones ridículas y prueban el que en las postrimerías del siglo XIX había gente con mucho tiempo libre.

Fuente: Dailymail y elaboración propia

http://www.dailymail.co.uk/sciencetech/article-3079732/From-sex-armour-CHICKEN-spectacles-wacky-inventions-never-quite-revealed-19th-century-patents.html

La construcción de los puentes romanos en Hispania


Los romanos fueron los primeros que se tomaron en serio eso de construir puentes. El puente romano es una obra en la que se aprecia el carácter eminentemente práctico de sus constructores y su gusto por las cosas sencillas y bien ejecutadas. En Roma era costumbre que el maestro de obras se colocase bajo las bóvedas y arcos del puente para que si la construcción saliese defectuosa al retirar la cimbra fuese el primero en morir. Por eso, los puentes romanos son tan sólidos que muchos de ellos aún se siguen utilizando en nuestros días.

El puente romano más habitual que conocemos está construido con materiales pétreos, pero esto no siempre fue así y en numerosos ocasiones se construyeron puentes con materiales menos duraderos como la madera; no quedan muchos restos o noticias de los mismos pero tenemos una estupenda fuente de información sobre los que fueron construidos en las campañas militares en la Columna de Trajano que se conserva en el Foro Imperial de Roma.

En dicha columna y labrado en su fuste se pueden ver diversos modelos de puentes ejecutados con barcas y plataformas de madera. Estos puentes de vigas de madera sobre caballetes son similares al que construyó Julio Cesar sobre el Rin y que describió con gran detalle en su obra “La guerra de las Galias

También en esta columna aparece un relieve del puente construido por el arquitecto Apolodoro de Damasco sobre el río Danubio que se hizo para llevar suministros a las legiones romanas que habían invadido Dacia. Durante más de mil años aquel fue el puente más largo jamás construido y estaba formado por veintiún arcos rebajados de celosías de madera de 32,50 m de luz libre – una de las mayores luces alcanzadas por los ingenieros romanos- apoyándose en pilas macizas de piedra de 44 metros de altura.

Como aquellos puentes adolecían de fragilidad, los romanos pronto dejaron de usar la madera y empezaron a usar la piedra para construimos, un material que se extraía de canteras próximas y que se empleaba en forma de grandes bloques escuadrados (sillares) para formar los paramentos externos, rellenándose el interior con mortero cementado con puzolana. Para izar estos bloques se empleaban grúas, movidas por esclavos, situados dentro de una rueda. 

El diseño más básico consistía en uno o varios arcos de medio punto (semicirculares) que se apoyaban sobre pilares alineados sobre una estructura de arcos por la que discurría la vía que atravesaba el río. A menudo construían en los pilares, tajamares salientes y a contracorriente, para reducir la erosión producida por el agua

La construcción de un puente romano empezaba por sus cimientos. Primero se seleccionaba el terreno más firme y se comprobada la resistencia del subsuelo, tras ello se colocaban las 'ataguías' que eran unas empalizadas dobles, cilíndricas o prismáticas, hechas de troncos, firmemente clavados en el suelo y unidos e impermeabilizados mediante pez y arcilla, y luego se hacía un interior estanco extrayendo el agua mediante un tornillo de Arquímedes

El tornillo de Arquímedes era una pieza clave para estas construcciones. Se trata de una máquina gravimétrica helicoidal basada en un tornillo que se hace girar dentro de un cilindro hueco, situado sobre un plano inclinado. Esta máquina permite elevar el cuerpo o fluido que se encuentre por debajo del eje de giro de este tornillo.

Aunque esta máquina lleva el nombre de Arquímedes, en realidad no fue un invento suyo ya que excavaciones recientes han establecido que los tornillos más antiguos, capaces de acarrear agua cuesta arriba, ya fueron usados para mantener frescos los Jardines Colgantes de Babilonia en el siglo VII antes de Cristo. El instrumento es tan efectivo que hoy en día aún se sigue usando en plantas de aguas residuales (depuradoras), diques para riego, bodegas (para transporte de la uva), y máquinas expendedoras de alimentos y bebidas.

Se le imputó este invento a Arquímedes de Siracusa porque él lo usó en el siglo III antes de Cristo, para sacar el agua de los navíos. Se cuenta que la gran pasión del rey Hiero II eran los barcos, por lo que se hizo construir el navío más grande de su época, el Syrakosia pero al botarlo lo embarrancó y Arquímedes a quien se le atribuye aquella famosa frase de “dadme un punto de apoyo y moveré la Tierra” le ofreció a este rey su ayuda afirmando que podía sacar el barco. El rey aceptó el reto, y Arquímedes aplicando los grandes conocimientos que tenía sobre las máquinas simples, utilizó un sistema de palancas y poleas con el citado tornillo para poner en práctica su teoría y pudo desencallar aquel navío

Así es como empezaban los romanos la construcción de sus puentes. Del interior estanco que quedaba tras la extracción del agua por el 'tornillo de Arquímedes' y en el interior de las ataguías se procedía a la construcción de los pilares que los canteros construían hasta el nivel de las impostas, las repisas salientes que marcaban el comienzo de los arcos.

Dejaban entonces paso, durante algún tiempo, a los carpinteros que colocaban las cimbras, una tablazón que servía de apoyo a la construcción de los arcos y que luego se retiraba una vez terminados los mismos. Sobre las cimbras se construían los arcos, y se disponían las dovelas hasta completar la curva.Terminados los arcos, se terminaba la superficie de la calzada,

En el caso concreto de los puentes de Hispania, se aprecia un deseo de los constructores romanos de darles unas dimensiones armoniosas, conseguidas, en ocasiones, por la igualdad de las luces de sus arcos, la simetría formal de sus alzados y las proporciones entre sus elementos. Se ha tratado de buscar un módulo constructivo en los puentes romanos de Hispania y hay que decir que las relaciones entre el módulo y las partes de la construcción de un puente romano se expresaban por números racionales, enteros, decimales o fracciones.

También se usaron los números irracionales, como √2, la diagonal de un cuadrado de lado unidad, y √5, valor obtenido en la generación sucesiva de diagonales de rectángulos de altura unidad y bases igual a √2, √3, y √4; que también están en el 'número de oro' representado desde el siglo XIX por la letra griega Φ y cuyo valor aproximado de 1,618 se obtiene a partir del cociente de dos partes de un segmento, A y B siendo A la mayor: A/B = A+B/A = (1+√5)/2 = Φ.

Estos números irracionales, como el mencionado √5 y el número de oro Φ se hallan en la construcción de los puentes romanos en Hispania en los que hay una relación con base en esos citados números irracionales. Veamos un par de ejemplos

PRIMERO: El Puente Romano de Bibei construido para el paso de la “Vía Nova”, que aún conserva la mayor parte de su fábrica primitiva y que es uno de los pocos puentes romanos acabados que se conservan en Galicia, tal ver uno de los mejor conservados de España hasta el punto de que desde el siglo pasado, la carretera N-120 (actual C.536) pasa por él para cruzar el río Bibei.

En esta obra la anchura de las pilas se basarían en dos números, el 6 y el 10-según Vitrubio dos números perfectos– el diez más antiguo, procedente del mundo griego y el seis, base de muchas relaciones de medidas. sin duda realizada con ayuda de la geometría. En el Ponte Bibei, la luz del arco menor izquierdo (6,20 m) es √2 el módulo (anchura de la pila contigua de 4,40 m), la luz del arco derecho (8,70) es el doble de este valor (√2x√2 ) y la luz central (18,60 m) tres veces la √2 del mismo (3x√2) o lo que es lo mismo el triple de la luz del arco izquierdo.

SEGUNDO: El Puente Romano de Alcántara uno de los puentes romanos más relevantes que quedan actualmente en todo el mundo y que es una de las obras de ingeniería más importantes de la Hispania romana.

Este puente fue construido entre los años 105 y 106 dC (principios del siglo II dC ) por el arquitecto romano Cayo Iulio Lacer para salvar el cauce del río Tajo y con el objetivo de facilitar la comunicación entre Norba (la actual Cáceres) y Conimbriga (la localidad portuguesa de Condeixa-a-Velha). Tiene una longitud de 214 metros sobre el citado río Tajo y se apoya sobre cinco pilares de diferentes alturas que se adaptan al terreno.

Los dos arcos centrales tienen una anchura de casi 30 metros y la altura es también impresionante, unos 48 metros en sus arcos centrales. En esta obra la anchura de las pilas es una medida de valor 9,20 pies, quizá materializada en una vara usada por el arquitecto o constructor como base unitaria de las dimensiones de la obra. El uso de este tipo de instrumento ya está atestiguado en la Biblia en el libro de Ezequiel (40,2 y ss) donde se habla de un personaje con una cuerda de lino y una vara de medir de unos cuatro metros que empleaba para mensurar el Templo.

En este puente las luces de los arcos primero y segundo, comenzando por la margen izquierda, están relacionadas según la sección áurea. Recordemos que la misma hace referencia a una proporción entre medidas consistente en la división armónica de una recta en media y extrema razón. Esto hace referencia a que el segmento menor es al segmento mayor, como éste es a la totalidad de la recta. Supone cortar una línea en dos partes desiguales de manera que el segmento mayor sea a toda la línea, como el menor es al mayor

Con estos ejemplos podemos ver cómo en Roma la ingeniería y la arquitectura iban indisolublemente unidas y ambas eran una misma profesión y los puentes romanos son un paradigma de buena construcción, ejecutada de manera sólida y estable y con la clara intención de que durasen mucho tiempo. El arquitecto del puente de Alcántara Caius Iulius Lacer así lo dejo inscrito afirmando que levantó la obra para que durase “por siempre en los siglos del mundo

Fuentes:

Alvarado, S., Durán, M., Nárdiz, C.: Puentes históricos de Galicia. Xunta de Galicia-Colegio de Ingenieros de Caminos,C. y P. Santiago de Compostela, 1990.

Liz Guiral, Jesús: El Puente de Alcántara: Arqueología e Historia. Cehopu – Fundación San Benito de Alcántara. Madrid, 1988.

Fernández Casado, Carlos: Historia del puente en España: Puentes romanos. Instituto Eduardo Torroja. Madrid, 1980.

Adam, J.P. (1989) [1996]. La construcción romana. Materiales y técnicas. León: Editorial de los Oficios.

Dilke, O.A.W. (1987). Mathematics and measurement. Londres: Publicaciones del Britih Museum.

Durán Fuentes, M. (2002). “Análisis constructivo de los puentes romanos”. Actas del I Congreso: las obras públicas romanas en Hispania. Mérida.

Las aterradoras muñecas de Edison

En 1988 se estrenó ‘Chucky: El muñeco diabólico‘  bajo la dirección de Tom Hoolland que contaba la historia de un muñeco poseído por el espíritu de un asesino. Fue un clásico del terror filmado hace casi tres décadas, pero sus imágenes siguen asustando a los niños en todo el planeta. 

Hoy en día se intenta que los juguetes sean atractivos y bonitos para que los niños se queden prendados de ellos al momento pero en el pasado los niños no tenían tanta suerte ya que no había un control exhaustivo de los juguetes. Por eso algunos de los que se comercializaban eran más perturbadores que educativos, e incluso podían crear un trauma a sus potenciales usuarios.

Un muñeco puede ser aterrador y un buen ejemplo fue uno que se fabricó imitando el rastreo en los niños. Esta forma de moverse de un bebé hasta el siglo XVII fue considerado como algo “antinatural” y los puritanos de aquel tiempo lo consideraban como algo degradante para el ser humano y más propio de las crías animales; sin embargo a comienzos del siglo XIX ya se planteó la cuestión de que a los bebés se les debía de permitir arrastrarse y a mediados de la década de 1800, esto ya era visto como algo normal de la infancia. Por eso en la época victoriana alguien pensó en hacer un juguete que imitase el gateo de un bebé  sin pensar que un muñeco que se arrastra por el suelo puede dar mucho miedo.
En los Estados Unidos a finales del siglo XIX ya se producían en serie muñecos con elementos mecánicos accionados por mecanismos de relojería y un tal Robert J. Clay decidió usar uno de estos sistemas para desarrollar un muñeco que imitaba el rastreo de los niños. Lo patentó el 14 de marzo de 1871 (Patente No. 112.550)

El artilugio se denominaba ‘Creeping Baby-Doll‘ y el dibujo anterior es parte de su memoria descriptiva. En la figura 1 se ve una vista lateral del juguete y en la 2 su sección transversal. La idea consistía en un tronco donde se insertaba una cabeza a la que se añadían brazos y piernas con articulaciones unidas por una varilla con un mecanismo de relojería formado por un muelle enrollable unido a unas ruedas. El eje de la manivela hacia oscilar las piernas y brazos del muñecos y así se imitaban los movimientos de un bebé que se arrastra sobre el suelo. El inventor explicaba en su memoria que se trataba de “un juguete muy divertido producido con un bajo coste

Incluso uno de sus subordinados llamado George P. Clarke patentó una mejora del modelo original de Clay ( Patente No 118.435 de fecha 29 de agosto de 1871)

Cualquier niño normal pienso que se asustaría al ver estos extraños artilugios arrastrándose hacia él  pero hay que decir que aunque ninguno de estos prototipos tuvieron el éxito esperado por sus inventores alguien siguió pensando que los niños nunca se asustan y desarrolló otro perturbador juguete para ellos. El autor de este desaguisado fue Thomas Alva Edison, un empresario estadounidense que patentó más de mil inventos

Fuente
Edison inventó el fonógrafo para grabar y reproducir el sonido en 1877 en su laboratorio en Menlo Park, Nueva Jersey y pensaba usarlo para hacer un juguete que hablase, pero fue otro quien lo inventó. Su nombre era William W. Jacques y era un ingeniero eléctrico y químico que desarrolló un prototipo de muñeca parlante basada en el fonógrafo original de papel de estaño de Edison. Junto con un socio llamado Lowell C. Briggs fundó en Boston en el año 1887 la Edison Phonograph Toy Manufacturing Company cuyo objeto social era la fabricación de aquellas muñecas habladoras y ofrecieron a Edison que a cambio de prestar su nombre al producto, ellos le entregarían un paquete de acciones de la compañía por los derechos de autor

El documento de la imagen es uno de los certificados de aquellas acciones y lleva las firmas del entonces Presidente de aquella Compañía, William W. Jacques actuando como Secretario su socio Lowell Briggs . Está impreso por la American Bank Note Company de Nueva York y lleva unos bordes a su alrededor adornados con ilustraciones de Santa Claus y sus renos. Edison aceptó- en un principio- aquellas acciones pero luego le gustó tanto la idea de fabricar aquellas muñecas que le hizo una fea jugada a sus socios y antes de comenzar la producción, alegó la propiedad de su marca registrada para hacerse cargo de la compañía, expulsando a William W. Jacques que pasaría años demandándolo.

Cadena de producción de las muñecas de Edison

La muñeca producida se denominó ‘Screamy Jack Murder‘ y era un juguete con un tamaño bastante grande, ya que medía algo más de medio metro, y tenía un peso de 1,8 kilos con cuerpo metálico y brazos y piernas articulados, de madera. En su interior llevaba un cilindro de cera para ser usado por un fonógrafo en miniatura de Edison.

Su pectoral era de metal con una serie de agujeros por los que salían las palabras que reproducía el pequeño fonógrafo de su interior grabadas en un cilindro de cera operado por una llave que estaba ubicada en la espalda de la muñeca. Se trataba de un fonógrafo diminuto, con un pequeño cuerno que apuntaba hacia los agujeros de su pecho y que recitaba una rima infantil pre-grabada de una duración de seis segundos. 

Por encima del cilindro de registro había un diafragma, con el lápiz de reproducción. Al girar la manivela un estilete se insertaba en el fonógrafo y al llegar al final de la grabación una palanca hacia que se devolvíera el estilete de reproducción hasta su posición inicial. 
Entre septiembre y noviembre de 1888, Edison finalizó el prototipo de sus fonógrafos para grabar las voces de aquellas muñecas y sustituyó los cilindros de estaño por otros de cera. No se sabe bien la razón de aquella decisión, pero está claro que no fue una buena idea porque las agujas de acero del estilete del fonógrafo desgastaban el cilindro de cera donde iba la grabación y muchas veces las muñecas llegaban a los proveedores con sus cilindros de grabación rayados por los movimiento durante el transporte. 

Para la grabación de los sonidos de las muñecas, Edison contrató a varias mujeres a las que pidió que hablaran “con voz infantil” a sus fonógrafos y las mismas repetían frases como : “Mary tenía un pequeño cordero“, “Jack y Jill“, “Little Bo-peep” y otras historias hasta un total de doce recitaciones disponibles en la fábrica de fonógrafos. 

Las primeras muñecas parlantes salieron al mercado el 7 de abril de 1890 y eran un juguete caro. El modelo básico, vestido con una camisa sencilla, costaba 10 dólares de aquel tiempo y el modelo más elaborado que llevaba un vestido victoriano tenía un precio que oscilaba entre los 20 y los 25 dólares.


Para entender lo caras que eran aquellas muñecas solo hay que decir que 10 dólares de 1890 suponían el sueldo de dos semanas de un obrero y que su precio equivalente actual sería del orden unos 200 dólares (casi 175 euros).

Caja de presentación de la muñeca

Y los pobres niños-ricos que tuvieron la mala suerte de que sus padres les compraran una de aquellas muñecas se encontraron con un aterrador juguete que les producía unos sonidos deformados que unidos a los propios del fonógrafo en la reproducción causaban un verdadero pandemonio. El problema también se agravaba porque al no llevar aquel juguete un motor de resorte, el niño debía girar la manivela trasera de la muñeca a mano y con una velocidad constante para oír sus palabras y el sonido que emitían daba realmente miedo. Hasta el propio Edison tuvo que reconocer que el sonido de su muñeca Cathy no era bueno afirmando que “las voces de sus pequeños monstruos eran sumamente desagradables de escuchar” 

Se vendieron menos de 500 de aquellas muñecas y la mayoría de ellas fueron devueltas a la empresa porque eran un producto malo y con un desorbitado precio. Al final y hacia los últimos días de mayo de 1890 la compañía juguetera de Edison tuvo que detener la producción de sus juguetes y antes de 1896, todos los fonógrafos no vendidos para aquellas muñecas fueron destruidos.

La moraleja de esta historia es que hay juguetes que para los niños resultan más aterradores que adorables y no hay nada peor que recibir un muñeco que produzca pesadillas y recuerdos de terror a los niños.

Fuentes:

Red Historia
The History Blog
American History
Museo Digital
Scripophily.net

Sobre cabezas cortadas

Ya está anunciado el estreno de la temporada 7 de ‘Juego de Tronos’, una serie donde abundan las ejecuciones por decapitación. Estudiar la decapitación es un tema espinoso porque existen muchas leyendas urbanas sobre este tema y algunas afirman que la muerte podría no ser inmediata. Incluso en el año 1905, el médico francés Gabriel Beaurieux ya describió unas observaciones sobre la cabeza cortada del asesino Henri Languille afirmando que pronunció su nombre en voz alta y que sus ojos se fijaron en los suyos.

La decapitación, mediante espada o hacha, siempre fue un privilegio reservado a los nobles pero con el problema de que la misma requería una gran habilidad por parte del verdugo para realizar esta ejecución y si el mismo no era experto a veces los repetidos intentos del mismo para cercenar la cabeza del condenado, daban lugar a escenas dantescas; eso fue lo que le pasó a Thomas Cromwell cuando Enrique VIII lo condenó a muerte por alta traición y el 28 de Julio de 1540 fue ajusticiado en la Torre de Londres por un verdugo adolescente e inexperto que tuvo que hacer tres intentos para decapitarlo.

Sin embargo la decapitacion empezó a considerarse como ‘muerte digna’ cuando en el siglo XVIII los doctores Joseph Ignace Guillotin y Antoine Louis, junto con el artesano y mecánico de origen alemán Tobías Schmidt, desarrollaron y pusieron  en marcha el invento de la guillotina en Francia. 

Joseph Ignace Guillotin (1738-1814). Museo Carnavalet, París

Guillotin era uno de los diez diputados que representaban a París en la Asamblea Nacional Constituyente, de 1789 y propuso a la misma que todos los condenados a muerte fueran decapitados por una máquina que asegurara su muerte de la forma menos dolorosa posible. Al principio, no le hicieron mucho caso y tuvo que insistir, y esperar hasta que a finales de 1791 se aprobó la ley por la que todos los condenados a muerte en Francia debían ser decapitados, para que la pena de muerte fuera igual para todos, sin distinción de rangos ni clase social”, y se ordenó la fabricación de una máquina para ello. 

Las máquinas para decapitar ya existían en Alemania, Italia, Escocia y Persia y en la antigua Roma se utilizaba un primitivo antecedente de la guillotina. Guillotin tomó como modelo esos antiguos instrumentos de ejecución como la mannaia utilizada en Italia desde el s. XV, el Halifax gibet usado en Inglaterra o el maiden de Escocia que se empleaban para ejecutar sólo a los aristócratas o clérigos cuando por sus acciones se les consideraba reos de la pena capital y modificaron hábilmente aquellos prototipos aplicando sus conocimientos anatómicos y quirúrgicos para crear su máquina cortadora de cabezas. 

Construyeron el primer modelo en 1792 que fue presentado por el Dr. Guillotin a la Convención (hay un célebre cuadro de Herterich que plasma este histórico momento) y este fue el informe razonado sobre el modo de decapitación emitido por el Doctor Louis el 17 de marzo de 1792.

Las “mejoras” más significativas de esta nueva máquina para decapitar se basaban en la altura desde la que caía la cuchilla de acero y el elevado peso de ésta, que garantizaban una velocidad y fuerza adecuadas, además del ángulo de 45 grados de su borde, que facilitaba el “corte”. 

Al principio, llamaron a la máquina “Louisette” o “Louison“, no se sabe si por el nombre del cirujano Antoine Louis -como dicen unos- o “en honor” del Rey; aunque esos nombres no tuvieron éxito entre el pueblo, que prefirió llamarla guillotina.

El primer ejecutado en la guillotina fue un bandido llamado Nicolas Jacques Pelletier, el 27 de mayo de 1792 y el último guillotinado en Francia fue Hamida Djandoubi, el 10 de septiembre de 1977. Existe una leyenda urbana que afirma que Guillotin murió por su propio invento pero nada más falso porque aunque llegó a estar encarcelado, durante el “reinado del terror”, fue liberado tras la caída política de Robespierre y murió en su domicilio de París, el 25 de febrero de 1814, a consecuencia de una infección por carbunco en su hombro izquierdo.

Monsieur Guillotin, modificó la cuchilla horizontal por otra de forma oblicua, obteniendo una mayor efectividad en el corte y el resultado final fue que la cuchilla al caer sobre el cuello de ajusticiado separaba la cabeza del tronco a la altura de la cuarta vértebra cervical. Así se pudo alcanzar una “muerte limpia” y sin grandes sufrimiento. Ciertamente durante el instante en el que se cercenan los huesos que unen la cabeza al cuerpo, se debe de producir un gran dolor, pero este será breve, ya que en un par de segundos el ejecutado caerá inconscientes por el efecto de la hemorragia, 

Todas las pruebas biológicas y médicas disponibles indica que los procesos conscientes en el cerebro humano cesan casi simultáneamente con la separación de la cabeza del cuerpo y esto ya se demostró en 1939, por los editores de la revista Journal of the American Medical Association en un relato titulado Decapitation and consciousness por la pregunta de un lector que planteaba la cuestión de si se podía saber cuánto tiempo podían vivir una cabeza y un cuerpo separados.

La opinión más reciente basada en evidencias prácticas la podemos leer en un estudio sobre ratas decapitadas publicado en el año 2011 por Clementina van Rijn y sus colegas de la Radboud University en Holanda en un trabajo en el que registraron la actividad eléctrica superficial de los cerebros de unas ratas decapitadas antes y después del golpe de gracia. Aquellos investigadores holandeses colocaron electrodos en el cerebro de ratas sanas y las decapitaron con una guillotina para estudiar lo qué sucedía en su cerebro durante los segundos y minutos siguientes. Los resultados mostraron que la actividad cerebral disminuyó con rapidez y a los 4 segundos se redujo a la mitad. Este nivel de actividad se considera semejante al de la inconsciencia profunda.

La lectura de este estudio muestra que la decapitación causa un sufrimiento mínimo comparado con el de otros métodos y aquellas crónicas de la Revolución francesa que afirmaban que las cabezas de los guillotinados seguían conscientes más de treinta segundos después de la decapitación, son totalmente falsas. 

Cortar cabezas siempre ha sido una tradición en la historia de la Humanidad y aunque al principio solo se hacía con crimínales y maleantes algunos países decidieron utilizar esta práctica para acabar con tiranos y déspotas, logrando hacer progresar a sus pueblos. Me quedo mas tranquilo sabiendo que aquellos ejecutados no sufrieron tanto como yo pensaba 

Fuentes:

José Ramón AlonsoLa nariz de Charles Darwin

https://es.wikipedia.org/wiki/Decapitación

https://es.wikipedia.org/wiki/Guillotina

El secreto de las emociones humanas 

En mi anterior post «El síndrome del zombi » os hablaba de la distorsión de la realidad provocada por un mal funcionamiento de la parte de nuestro encéfalo asociada al procesamiento de las emociones llamada sistema límbico y fue el naturalista Charles Darwin el primero que propuso que las emociones evolucionaron porque ‘eran adaptativas‘ y eso permitió a los humanos y a los animales el poder sobrevivir y reproducirse. 

En realidad las emociones ejercen una fuerza muy poderosa en el comportamiento humano porque gracias a ellas podemos tomar acciones afectivas o defensivas. De acuerdo con la teoría de la evolución las emociones nos motivan para responder rápidamente a los estímulos de nuestro entorno y esto nos ayuda a mejorar nuestras posibilidades de éxito y supervivencia. 

Hay emociones como el amor y el afecto que llevan a los seres humanos a buscar compañeros y a reproducirse y otras como el miedo que los obligan a luchar o a huir de un peligro. Precisamente esta última-el miedo- es una de las más poderosas porque  ocasiona en nuestro organismo unas respuestas físicas ante las señales de peligro que activan los mecanismos de defensa de nuestro cuerpo.

Diversos investigadores, filósofos y psicólogos han propuesto a lo largo del tiempo diversas teorías para explicar el origen de las emociones humanas y una de las primeras fue la ‘teoría de James-Lange‘ propuesta por el psicólogo William James y el fisiólogo Carl Lange que de forma independiente, y entre los años 1884 y 1887 sugirieron que las emociones humanas eran el resultado de ‘reacciones fisiológicas‘ ante distintos eventos. 


La idea de esta teoría se basaba en que un estímulo externo era lo que conducía  al cuerpo a una reacción fisiológica; por eso, si como consecuencia de un ataque de pánico nos ponemos a temblar, para James y Lange esa reacción física hacia que nos llevase a una conclusión equivocada. Pensamos: “estoy temblando y por tanto estoy asustado” pero para ellos en realidad ‘no tiemblas porque estés asustado sino que lo estás precisamente porque estás temblando‘.

Es decir que ellos contemplaban la emoción como un proceso que se derivaba de una serie de estímulos físicos . Con la teoría de James-Lange se intentaba decir que después de la percepción de un estímulo (una mala noticia, un imprevisto diario, recibir un regalo etc ) nuestro cuerpo genera una serie de respuestas fisiológicas y motoras, y son ellas las que nos producen la experiencia de un sentimiento. Por tanto la ‘activación fisiológica‘ es la condición necesaria para que exista una respuesta emocional.

Pero llegó Walter Cannon, un fisiólogo estadounidense, pionero en el uso de rayos X que empezó a pensar diferente. Este hombre empezó a ocuparse de las emociones y estudió como las mismas afectaban sistema nervioso autónomo, lo que le demostró que las personas pueden experimentar reacciones fisiológicas vinculadas a sus emociones antes de llegar a sentir las mismas. Por ejemplo, un corazón puede acelerarse porque se ha estado haciendo ejercicio, pero eso no significa que su propietario tenga miedo, en cambio si él mismo se encuentra ante un peligro, que le produce ese miedo, va a experimentar los síntomas físicos asociados al mismo y sus manos temblaran , su respiración se acelerará y su ritmo cardíaco aumentará.

Canon propuso su teoría en la década de 1920 y su obra fue ampliada posteriormente por Philip Bard un psicólogo estadounidense cuyas investigaciones se centraron en las funciones del sistema nervioso, especialmente en cómo el cerebro media en el control de las emociones y retomando las propuestas de su maestro Walter Cannon las amplió en lo que se conoce como “Teoría de Cannon-Bard” formulada durante la década de 1930 que asocia las emociones a las reacciones fisiológicas tales como sudoración, temblores o tensión muscular.
Walter Cannon y Philip Bard descubrieron que el tálamo y el hipotálamo son los centros que regulan las actividades nerviosas y pensaron que era el primero el que tenía el papel central en la conducta emocional. Más específicamente, sugirieron que las emociones resultaban al enviar el tálamo un mensaje al cerebro en respuesta a un estímulo, lo que resulta en una reacción fisiológica. Este sería el proceso : 

Veo una serpiente -> Siento temor ->  empiezo a temblar

Es decir que los sentimientos de miedo y las reacciones físicas ocurren al mismo tiempo. Sus propuestas provenían de estudios que mostraban que la estimulación del hipotálamo posterior y las regiones mesencefálicas adyacentes en ratas provocaba siempre reacciones de ira y ataque, acompañadas de reacciones de tipo simpático como taquicardia y secreción de adrenalina. Por tanto conforme a la teoría de Cannon y Bard la experiencia física y psicológica de las emociones ocurren al mismo tiempo y una no causa la otra como pensaban James y Lange.

Sea como sea, la realidad es que es nuestro cerebro quien recibe las señales que desencadenan una experiencia emocional y ante un peligro produce la respuesta del sistema nervioso simpático que se activa debido a la repentina liberación de hormonas como adrenalina y noradrenalina. Esto se traduce en un aumento de la frecuencia cardíaca, la presión arterial y el ritmo respiratorio; los ojos se abren más de lo normal y se amplia el campo visual y la sensibilidad ocular con objeto de identificar el peligro que nos rodea. Incluso después de que la amenaza se ha ido, aún se tardan entre 20 y 60 minutos para que el cuerpo vuelva a los niveles previos a la excitación.

La primera evidencia que relacionó al sistema límbico con las emociones está registrada en el año 1955, cuando Heinrich Klüver y Paul Bucy describieron un síndrome conductual inducido en monos de laboratorio. En sus experimentos observaron que aquellos monos, que eran tranquilos en extremo, sufrían cambios emocionales como agresividad y pérdida del miedo tras ser sometidos a una lobotomía bilateral de los lóbulos temporales y a partir de aquí se empezó a descubrir la importancia de una de las partes más antiguas de nuestro cerebro en las emociones : el sistema límbico 

Fuente
Se trata del cerebro primitivo que dominó el mundo durante millones de años y que rige los movimientos de acercamiento, alejamiento, defensa y ataque. Es un sistema que interacciona muy velozmente y al parecer sin necesidad de mediar con estructuras cerebrales superiores. Allí  se encuentra el secreto de las emociones humanas, desde las reacciones de nuestro cerebro ante una situación de pánico o las fobias irracionales. Todo está en un pequeño órgano conocido como amígdala, una estructura en forma de dos almendras que se conecta con otras estructuras como el hipotálamo, el núcleo septal, el área prefrontal y el núcleo medio dorsal del tálamo

Estas conexiones hacen que cumpla una importante función en la mediación y el control de las actividades afectivas más importantes como la amistad, el amor y el afecto, y en la expresión de los estados de ánimo, miedo, ira y agresión. La amígdala, según las últimas investigaciones pasa a ser el centro de la identificación de cualquier emoción y un ‘botón de emergencia’ de nuestro cerebro que en caso de que nos aceche un peligro inminente, activará la señal que se reenviará inmediatamente al resto del cuerpo.

Por eso si estás solo en casa, escuchas un ruido y distingues una sombra detrás de una ventana, antes de que ni siquiera comprendas que se trata de un ladrón que quiere asaltar tu hogar, tu cerebro ya habrá desatado a través de la amígdala una respuesta masiva de pánico sin que tú lo controles. El equipo del neurobiólogo David J. Anderson, del Instituto Tecnológico de California (CalTech), y el del profesor Andreas Lüthi, del Friedrich Miescher Institute (FMI), ha descifrado él funcionamiento de este ‘circuito del miedo‘ en el que se han comprobado la existencia de dos tipos de células neuronales en esta amígdala que se turnan para abrir y cerrar “las puertas del miedo” y se ha podido demostrar que el mismo está controlado por un microcircuito de dos poblaciones antagonistas de neuronas en este órgano que actúan como una especie de columpio. 

Estas dos poblaciones de neuronas ‘se inhiben entre ellas’ y sólo una de las dos poblaciones puede estar activa a un tiempo, alternando entre dos estados. 

Y en otro experimento, llevado a cabo por científicos del Centro de Salud Mental de la Universidad de Texas en Dallas (EEUU), publicado en la revista Brain and Cognition se descubrió también que el cerebro da prioridad a la información amenazante sobre otros procesos cognitivos siendo la primera vez que un trabajo de investigación identificaba un ‘marcador electrofisiológico‘ con una actividad de ‘ondas theta’ iniciada precisamente en la amígdala.

En la figura siguiente tenemos un esquema que muestra la relación anatómica de cada una de las estructuras del sistema límbico humano. La figura A muestra su disposición anatómica y la B el flujo de señales que se establece entre las estructuras del mismo que determina una cadena neuronal que representa la base sdel sistema que regula las emociones

La amígdala se encuentra conectada con el hipocampo una de las partes más importantes de cerebro y consiste en dos “cuernos” que describen una curva que va hasta la amígdala. Esta estrecha relación implica la memoria que une recuerdos de sucesos que han ocurrido muy próximos en el tiempo. Así se ayuda al cerebro a distinguir cuándo tiene que poner en marcha una respuesta de defensa frente a una potencial amenaza, 

Y aunque la amígdala ya estaba en los mamíferos desde hace unos 220 millones de años coordinando las respuestas primarias y básicas ante un peligro, los seres humanos hemos evolucionado a una corteza cerebral cada vez más compleja, y por eso la misma ha terminado regulando e interactuando con otros impulsos y emociones más complejas.

Un estudio del 30 Agosto 2009 publicado en la revista Nature titulado: “La regulación del espacio personal por la amígdala humana” hecho por Daniel P Kennedy, Ene Glascher, J Michael Tyszka y Ralph Adolphs nos muestra que la amígdala desencadena las reacciones emocionales fuertes siguientes a las violaciones de nuestro espacio personal, regulando así las distancias interpersonales éntrelas seres humanos. ¿Por qué algunas personas no protegen su espacio personal ni reaccionan ante un acercamiento? ¿Por qué hay otras que en la misma situación no soportan una aglomeración y considerarían amenazante incluso un contacto físico en un espacio cerrado ? 

Cuando la amígdala es estimulada eléctricamente, los animales responden con agresión, y cuando es extirpada, los mismos se vuelven dóciles pero en los seres humanos su funcionamiento es más complejo. Por eso mientras se estudian las complejas interacciones cerebrales de nuestras emociones podemos ahora entender por qué no hay dos personas iguales y como algunas se sienten más desinhibidas ante los riesgos mientras que otras reaccionan violentamente ante un stress de miedo o ante la distancia a la que están dispuestos a tolerar si alguien acerca 

En definitiva la manera en como sentimos miedo, afecto o como nos relacionamos con los demás está en esas  “almendritas” que tenemos en el interior de nuestro cerebro.

Fuentes :

Limbic System and Emotions: Empathy in Humans and Primates. David Iñaki López Mejía, Azucena Valdovinos de Yahya y otros. Psicología Iberoamericana (Julio-Diciembre, 2009), Vol. 17, No. 2, pp. 60-69 ISSN 1405-0943 

Cannon, WB. La teoría de Jones-Lange de las emociones. Un examen crítico y una teoría alternativa. American Journal of Psychology 

Myers,DG, Las testuz de la emoción. Psicología: Séptima edición. NY: Word Publishers

Izard, C.E. (1992). Basic emotions, relations among emo- tions, and emotions-cognition relations. Psychological Review, 99, 561-565. 

El «síndrome del zombi » 

Los zombis son esos ‘muertos vivientes‘ con brazos extendidos y ruidos guturales que nos presentan el cine y las series de televisión , pero-fuera de la ficción – hay una condición en la que los pacientes creen realmente ‘estar muertos’. Se trata de un síndrome ampliamente reconocido por la comunidad científica al que se denomina como “síndrome del cadáver caminante” y también como “síndrome del zombi

Estar “muerto en vida” es una expresión que hace referencia a una depresión muy profunda pero a veces algunas personas llegan a tener una negatividad tan extrema que experimentan como una condición psicofísica su desconexión de la realidad  y esto los llevan a negar algo tan obvio como el «sentirse vivos». Los afectados por este curioso síndrome se caracterizan porque tienen una desconexión total entre los datos que le entran por sus sentidos y como subjetivamente interpretan los mismos por lo que crean otra ‘realidad‘ que les hace pensar que están muertos.  En el año 1788 el médico francés Charles Bonnet, reportó el caso de una paciente que creía encontrarse muerta pero tuvieron que pasar casi cien años para que alguien estudiase esta patología de una manera más profunda.

Quien lo hizo fue un neurólogo francés llamado Jules Cotard (1840-1889) que el 28 de julio de 1880 presentó ante la Societé Médico-Psychologique de París un trabajo titulado “Du délire hypocondriaque dans une forme grave de mélancolie anxieuse” (Del delirio hipocondríaco en una forma grave de melancolía ansiosa) en el que describía el caso de una paciente que él había seguido durante varios años junto a monsieur Jules Falret, su Jefe en la Clínica des Vanves

En este trabajo describía el caso de una paciente a la que denominó ‘Mademoiselle X‘, que con 43 años decía «no tener cerebro, nervios, pecho y entrañas, sino solo piel y huesos». Aquella paciente terminó muriendo de inanición, porque dejó de comer al pensar que su estado era estar condenada a permanecer entre la vida y la muerte y Cotard utilizó un término para esta patología que definió como ‘délire de négation‘ ( delirio de negación) ampliando la descripción de este caso en su libro ‘Maladies cerebrales et mentales‘ publicado en el año 1891. Sus conclusiones fueron que se trataba de un trastorno derivado de un estado depresivo exagerado mezclado con una melancolia ansiosa. 

Tras aquel descubrimiento, muchos medicos empezaron a referirse al ‘sindrome del zombi‘ como «delirio de Cotard» y en 1892, Emmanuel Régis (1855–1918) propuso para esta patología el nombre de ‘delirios sistemáticos crónicos‘ hasta que finalmente Louis Jules Ernest Séglas, un psiquiatra francés, considerado un alienista que formaba parte de un grupo de autores franceses que desarrollaron gran parte de sus carreras en el Hospital La Salpêtrière en 1897, consolidó y difundió de manera amplia el término de «síndrome de Cotard»
Fuente 

Los relatos clinicos sobre este síndrome han sido numerosos, y hay casos muy curiosos como uno de 1990, en el que un joven escocés tras un accidente de motocicleta donde recibió una fuerte contusión cerebral. salió del hospital convencido de que estaba muerto . Cuando su madre lo llevó a Sudáfrica para que se recuperara él pensó que el calor de aquel país suponía que había ido al infierno, mientras su cuerpo seguía muerto en Escocia.

No se sabe muy bien como se inicia este extraño síndrome pero hay dos niveles distintos cuando aparece: en el primero quienes lo sufren piensan que sus órganos vitales internos se han paralizado, y que su corazón no late, e imaginan a su cuerpo en un estado de putrefacción. Para los afectados esto puede ser tan real que llegan a tener alucinaciones visuales en las que ven a su cuerpo ante un espejo con forma de cadáver y alucinaciones olfativas donde creen oler su carne en putrefacción; también pueden tener sensaciones táctiles de gusanos deslizándose sobre su piel, pero hay una segunda fase más avanzada, en la que el paciente ya defiende claramente la idea de que ‘está muerto’ y pierde el contacto emocional con el mundo.

Existe una película que aborda de manera explícita el síndrome de la ‘muerte en vida‘ de quienes sufren el síndrome de Cotard. Su título es “Thanatomorphose” y trata sobre una joven artista que comienza a percibir como su cuerpo muerto se descompone al mismo tiempo que su vida amorosa.  No es un film recomendable para todos los públicos ya que es extremadamente explícito a la hora de mostrar ciertas imágenes pero señala muy bien las sensaciones que tienen las personas afectada por esta patología .

Las modernas investigaciones sobre el «sindrome de Cotard» muestran que hay cambios cerebrales y mentales llamativos y hacen pensar que la distorsión de la realidad de los afectados se provoca por un mal funcionamiento de la parte del encéfalo humano que está asociada al procesamiento de las emociones llamado sistema límbico

Gracias al mismo los seres humanos poseemos la capacidad de reconocer las emociones manifestadas en las distintas expresiones faciales. Esta facultad, requiere la participación de un gran número de estructuras cerebrales, entre las que destacan la ‘amígdala‘, donde hay un grupo de neuronas encargadas de procesar las emociones y otra área cerebral llamada ‘giro fusiforme‘ que se encarga de reconocer los rostros. Cuando hay un fallo cerebral en algunas de estas estructuras el resultado puede derivar en una falta de reconocimiento de las caras ajenas y de la propia que hace que la persona afectada se desconecte de la realidad.

El avance médico para entender este síndrome se produjo en el año 2004 cuando el doctor Steven Laureys en su despacho de la Universidad de Lieja, en Bélgica recibió la extraña llamada de su secretaria que le decía : “doctor tengo paciente que me está diciendo que está muerto“. Ante su sorpresa se encontró con un británico de 48 años llamado Graham que le contó que unos meses antes había intentado suicidarse por electrocución, metiendo un cable de la luz en la bañera y que aquel día se había levantado de la cama con la convicción absoluta de que estaba muerto. Aquel caso llegó hasta los investigadores Adam Zeman, de la Universidad de Exeter, en el Reino Unido, y Steven Laureys, en Lieja, que sometieron a un scaner cerebral a aquel hombre para ver lo que estaba pasando en su cabeza. 


El resultado les sorprendió porque mostraba que aunque aquel señor Graham estaba despierto e interaccionando con otras personas su cerebro mostraba una actividad similar a la de una persona en estado vegetativo. La actividad metabólica de su corteza cerebral se parecía más a la de una persona ‘anestesiada‘ que a la de una persona “despierta“. Este caso lo cuenta Helen Thomson en un magnífico reportaje en New Scientist.

Por eso los sujetos afectados por el «síndrome de Cotard» se desconectan visualmente del mundo, y no tienen memoria emocional de los objetos que les rodean; su amigdala, guardian de sus emociones y de las respuestas asociadas a ellas deja de enviarles la excitación y el estímulo que son las razones que nos muestran que ‘estamos vivos’. El ‘síndrome de Cotard‘ es la mejor prueba de que el cerebro humano lleva a cabo tareas muy complejas para interpretar la realidad y cuando este proceso automático falla nos deja con unos sentidos que nos informan incorrectamente sobre el mundo que nos rodea y lo dejan sin significado. 

La ‘consciencia’  es una de las capacidades mas misteriosas del ser humano. No sabemos con certeza ni donde reside, ni como funciona, pero es lo único que tenemos para sentir que «estamos vivos»

Fuentes:

Jules Cotard (1840-1889): his life and the unique syndrome which bears his name.
Pearn J, Gardner-Thorpe C, Neurology. 2002 May 14;58(9):1400-3.

http://www.ncbi.nlm.nih.gov/pubmed/12011289?dopt=Abstract

McKay R1, Cipolotti L.
Attributional style in a case of Cotard delusion“. Conscious Cogn. 2007 Jun;16(2):349-59. Epub 2006 Jul 18.


Young AW1, Robertson IH, Hellawell DJ, de Pauw KW, Pentland B.
Cotard delusion after brain injury“. Psychol Med. 1992 Ago,; 22(3):799-804.

¿Cómo se engaña a un GPS?

La ‘suplantación de identidad‘ no es un concepto nuevo. En los días previos a la transmisión de vídeo, un grupo de expatriados británicos en Europa consiguieron engañar a las compañías de televisión por satélite‘ para que pensaran que sus decodificadores estaban en el Reino Unido y así desbloquear los contenidos de una televisión destinada únicamente a una audiencia inglesa. Hoy en día, los fans de muchos programas de televisión extranjera falsifican su dirección IP para que su ordenador portátil o tableta figure registrado en el país donde esté legalmente permitido acceder al contenido del vídeo que deseen ver. 

El uso de dispositivos para ‘engañar a las máquinas ‘ se ha usado muchas veces en el cine como en aquella película de James Bond titulada “El mañana nunca muere” en donde nuestro agente 007 utilizaba un sofisticado sistema desde su móvil para manejar su vehículo 

Y esa ‘suplantación de identidad’  también ha llegado recientemente a una de las tecnologías más modernas de nuestro tiempo: el GPS

 GPS es el acrónimo de “Global positioning system”, que significa Sistema de posicionamiento global. Se maneja por el NAVSTAR (Navigation satellite timing and ranging) que dispone de 24 satélites colocados en seis órbitas a razón de cuatro en cada una y distanciados entre sí 90º de arco. Cada satélite está dotado de cuatro relojes atómicos de extremada exactitud (atrasan 1 segundo cada tres millones de año) y con esa ‘señal de hora exacta‘ los satélites transmiten continuamente su posición y hora local en órbita. 

Esas señales se transmiten con una precisión de unos pocos microsegundos y afecta a las radiocomunicaciones. Cualquier marca de tiempo diferente del ‘tiempo real’ puede originar un ‘fallo critico’ en todo el software de control que usa el sistema para transmitir una señal de hora correcta. Eso fue lo que pasó el 26 de enero de 2016 cuando uno de los satélites GPS – llamado SVN23 en órbita alrededor de la Tierra al ser dado de baja ocasionó un error en el mensaje de sincronización en tiempo universal (UTC) de 13 microsegundos afectando a las señales de banda L de muchos receptores GPS. Solo ocasionó problemas en las retransmisiones de radio digital y no a la capacidad de los sistemas para proporcionar un posicionamiento y navegación correcta pero un fallo en las señales de posicionamiento es algo bastante grave porque nuestra civilización depende del GPS para casi todo.

Desde las redes de telefonía móvil hasta el control de un dron de precisión o el sofisticado sistema de guía de un petrolero, el ‘posicionamiento por GPS ‘se utiliza para coordinar muchas actividades humanas. Se trata de un sistema que se apoya precisamente en esas señales emitidas a intervalos desde 4 satélites y en el intervalo de tiempo que transcurre entre el envío y la recepción de la señal. Está medida es la que nos revela cuan lejos se encuentra el satélite del receptor GPS
La señal se construye desde esos cuatro satélites que envían sus señales constantemente a la Tierra y las antenas GPS encargadas de recibirlas miden el tiempo transcurrido entre la emisión y la recepción de las citadas señales. Con eso se puede establecer una distancia del objeto a los satélites.

La posición GPS de un objeto sería el lugar geométrico donde coinciden las tres esferas que marcan el círculo de señales de tres de los satélite GPS, siendo el centro de cada esfera el propio satélite y el radio la distancia obtenida tras multiplicar el tiempo por la velocidad de propagación de las ondas en la atmósfera.


Por ejemplo si el receptor está situado a 12000 km del satélite número 1, a 10000 km del satélite número 2 y a 13000 km del satélite número 3 el lugar geométrico donde coinciden las tres esferas sería el círculo marcado en verde. Al incluir la distancia desde un cuarto satélite se puede posiciona un objeto en el mapa terrestre con total exactitud. Con las posiciones orbitales de los satélites GPS que intervienen en el momento de la transmisión,contamos con suficiente información para localizar una señal con un margen de error de unos 5 metros en la superficie terrestre

Los cálculos son muy delicados y si se ignoran las medidas de correción aplicables en ciertos casos, el resultado puede ser desastroso con desvíos de la ubicación de la posición de hasta 10 km por día. Por eso el ‘alterar las señales GPS‘ puede tener un impacto muy significativo.

¿Se puede engañar a un receptor de GPS? Pues si, y el proceso no es muy complicado; basta con transmitir desde tierra una señal ‘más poderosa‘ que la de los satélites que la forman. Conocida como “spoofing“, esta técnica consiste en crear señales GPS falsas que confundan al receptor GPS del objeto que queremos posicionar. Estructurando el retraso apropiado podemos cambiar sus coordenadas GPS en la Tierra dado una ‘falsa posición’ del mismo. 


La ‘señal trampa‘ (spoof) contiene la información real de uno de los satélites GPS pero se altera la distancia aparente entre el satélite y el receptor. Como resultado, la cuadrangulación 3D empleada para determinar la posición del receptor ofrecerá una respuesta incorrecta, y esto se traducirá en una desviación, sobre su posición real. 

Se comienza difundiendo una señal ligeramente más potente que la que inicialmente  se corresponde con la situación correcta del receptor GPS, y luego poco a poco se va alterando la posición “aparente” del objeto para que el receptor de tierra acepte la posición de la ‘señal trampa‘ sin darse cuenta de que dicha señal es diferente.

El primer caso conocido de ‘spoofing GPS‘ ocurrió a finales del año 2011 cuando un avión no tripulado militar RQ-170 de los Estados Unidos desapareció sobre Irán y apareció una semana después intacto y en poder de los iraníes .Estos afirmaron que secuestraron y llevaron a tierra a aquel avión con señales para engañar a su GPS pero no se pudo averiguar la técnica usada por los mismos.

Fuente
Pero fue un año después cuando en en el Departamento de Ingeniería aeroespacial y mecánica de la Universidad de Texas, el profesor Todd E. Humphreys y su equipo de investigación en la ciudad de Austin demostraron con éxito que las señales GPS de un vehículo aéreo no tripulado (UAV) podían ser alteradas por una fuente externa y con ello demostraron que se podía ‘engañar a un sistema GPS superarando  las señales de navegación de aquel prototipo.

Pero faltaba la ‘gran prueba ‘ y esta se hizo entre finales de junio y principios de julio de 2013 en el “White Rose of Drachs” un súperyate de 80 millones de dólares de 65 m de eslora con casco de acero y superestructura de aluminio y con capacidad de transportar hasta 12 personas y 18 tripulantes a una velocidad de 16.80 nudos. Este yate disponía de los últimos adelantos en posicionamiento GPS. 

El experimento se hizo en el mar Jónico con el pleno consentimiento del capitán de aquel yate y en su trabajo, Humphreys y sus estudiantes mostraron que se podía engañar al sofisticado equipo GPS de aquel barco mostrando lo vulnerable y relativamente fácil que es enviar una señal GPS falsa y engañar a los modernos receptores.

Se trataba de un dispositivo que enviaba señales GPS falsas a aquel barco, y el mismo las aceptó haciendo caso omiso de las señales de GPS reales existentes. Con ello Humphreys y sus muchachos obtuvieron el control total de la navegación de aquel súperyate. Aquí está el vídeo que muestra como lo hicieron 

Y aunque durante un tiempo se pensó que estas técnicas para falsear una posición GPS eran altamente sofisticadas y requerían un equipo costoso y especializado, todo cambió cuando en agosto de 2015 en una convención de hackers en Nevada llamada DEFCON 23 dos investigadores chinos llamados Huang Lin y Yan Qing demostraron que era posible construir un dispositivo de ‘suplantación de GPS’ con componentes baratos. Aquí está la memoria completa de su trabajo.

Con su spoofer barato aquel el equipo mostró que podían tomar el control remoto tanto de un avión no tripulado como de un smartphone o cualquier vehículo automóvil. A partir de entonces la seguridad en la navegación ya fue una ilusión y en diciembre de 2015, el Departamento de Seguridad Nacional de Estados Unidos informó que los narcotraficantes usaban técnicas de ‘GPS Spoofing‘ para desactivar los drones de vigilancia de las fronteras.

Es decir que el mundo de las ‘redes seguras’. ya no existe, y aún que son muchas las ventajas que ofrece un sistema de posicionamiento GPS, al paso que vamos y si queremos estar realmente seguros al movernos por el mundo vamos a tener que volver a usar aquellos viejos mapas y brújulas.


Fuentes:

http://www.engr.utexas.edu/features/humphreysspoofing

http://www.navegar.com/como-funciona-el-sistema-de-localizacion-por-gps/

http://www.mejor-antivirus.es/noticias/gps-spoofing.html

Como se ha avanzado con el glaucoma

La palabra glaucoma deriva del latín glaukos, que para los romanos significaba “azul aguado o diluido”. Hipócrates en el 469 a.C. ya mencionó la condición de glaukosis para referirse a un mal típico de los ancianos de su tiempo que se manifestaba por el cambio de color de la pupila, que se volvía más azulada; más tarde dicha alteración fue identificada como hypochima y siempre se consideró como una enfermedad intratable.En la actualidad sabemos que se trata de una patología del ojo muy traicionera que aunque presenta síntomas diferentes, todos tieneun denominador común: la destrucción del nervio óptico 


Para comprender el glaucoma,debemos fijarnos en las partes del ojo: la esclerótica es la capa blanca que sirve para protegerlo con una parte transparente llamada córnea que permite que la luz ingrese, luego está el iris que es su parte coloreada y que se contrae y dilata para regular la cantidad de luz que ingresa; esta luz atraviesa la pupila y llega al cristalino que la enfoca en la retina, en la parte posterior del ojo y es allí es donde tenemos millones de fibras nerviosas que son las encargadas de transmitir las imágenes al cerebro por medio del nervio óptico. 

El ojo es una cámara hiperbárica de forma aproximadamente esférica que no es sólida por dentro y cuyas cubiertas tampoco son demasiado rígidas y para conservar su forma esférica utiliza el mismo truco que usamos para dar forma a un balón o a un globo, es decir, llenar su interior de un fluido a mayor presión que la atmosférica. Con ello su cubierta puede estirarse y adoptar esa forma aproximada de una esfera. La presión intraocular (PIO)  es la presión que ejercen los líquidos que el ojo contiene sobre su pared y que es necesaria para que este órgano se mantenga distendido.

E igual que en un balón o un neumático, el aire a presión de su interior “empuja” sus paredes para mantener su forma esférica , en el ojo ocurre una cosa parecida, y son sus líquidos intraoculares los que también “empujan sus cubiertas” para darle su forma esférica. Normalmente nuestra presión ocular oscila entre los 16 y los 18 mm.Hg y la misma está regida bajo un ritmo circadiano, observándose que aumenta por la mañana (7 a.m.) y disminuye por la tarde (5 p.m.) con variaciones del orden de los 5 mm.Hg en 24 horas.


Es decir que el interior de un ojo funciona igual que un balón, solo que en este  lo llenábamos de aire a presión para que mantuviera su forma esférica y en un globo ocular como no hay aire son los dos líquidos que hay en su interior los encargados de esta función: estos dos líquidos tienen composiciones y texturas diferentes y son el humor acuoso y el humor vítreo.


El “humor vítreo” está situado en la parte posterior del ojo entre la superficie posterior del  cristalino y la  retina y es una sustancia gelatinosa que se difunden lentamente formando la mayor parte de su volumen interno. Se trata de un tejido compuesto de proteínas y azúcares con un buen volumen de agua, sin vasos sanquíneos ni nervios que sirve de sostén a este órgano y que apenas sufre recambio ya que ni se se forma ni se elimina. Por eso su dinámica a los efectos de mantener la presión ocular es prácticamente nula.

Pero con el “humor acuoso” pasa una cosa diferente: aunque ocupa sólo la parte anterior del ojo, desde la córnea hasta el cristalino y solo llena un 3 % del interior del mismo  es el principalresponsable de la PIO. Como su propio nombre indica, se trata de un liquido compuesto básicamente por agua filtrada de sangre de las células, en la que van disueltos elementos alimenticios como proteínas, oxígeno y dióxido de carbono. Este fluido no se encuentra estanco, sino que se renueva continuamente y está en constante movimiento para permitir que esté siempre rico en el oxígeno y los nutrientes necesarios para el cristalino y la parte interior de la córnea, ya que estos elementos oculares no tienen vasos sanguíneos que los nutran.

Se trata pues, de un líquido que sale de la cámara anterior a través del ángulo abierto por donde se unen la córnea y el iris y que está fluyendo continuamente. Se elimina a través de una red o malla esponjosa, parecida a un colador a la que los médicos llaman coloquialmente “la alcantarilla de desagüe” y este líquido debe encontrar una cierta resistencia para salir del ojo a nivel de ese ángulo para que el mismo mantenga su dureza .

En esta imagen vemos esa “alcantarilla” (trabecular outflow) por donde el humor acuoso debe de salir y pasar a la circulación venosa. Lo malo es que si esa “alcantarilla” se atasca, la consecuencia será un aumento de la presión intraocular: es lo que los especialistas llaman coloquialmente un “problema en la tubería de drenaje” 

Y es este incremento de la tensión ocular lo que produce el glaucoma. El problema es que el paciente, al principio no se da cuenta de que va perdiendo poco a poco su campo visual periférico y la visión periférica es aquella que nos permite abarcar todo lo que nos rodea en un radio de unos 140 grados. En esta patología silenciosa no hay dolor ni ningún síntoma pero si un deterioro lento y progresivo del nervio óptico. Es lo que se llama “glaucoma de ángulo abierto” también conocido como “el ladrón silencioso de la vista“. 

Al principio, la visión del afectado no disminuirá , porque aunque su ojo no perciba ciertas zonas o detalles de su campo visual, su cerebro compensará el déficit, pero cuando el glaucoma llegue a una fase avanzada, sus trastornos de visión aumentaran y habrá “zonas ciegas” en su campo visual que se extenderán. En las últimas fases el paciente verá con su ojo con glaucoma de una forma que se llama “visión de cañón de escopeta” hasta que termine perdiendo totalmente la visión del mismo.

Campo normal de visión normal 

Glaucoma en fase avanzada con el campo de visión reducido

Ahora explicaremos por qué pasa esto.

El nervio óptico, es un “cable” que sale de la parte trasera del ojo y lleva la información visual hasta el cerebro. El comienzo de ese nervio está en el interior del propio ojo (en la retina) y las fibras nerviosas (axones) de esa retina se prolongan y entran en el mismo. A esta primera parte del nervio óptico, se la conoce como papila y en la misma hay una zona llamada excavación que es un agujero por el que deben de pasar todas esas fibras nerviosas. Estamos hablando de fibras que vienen de todas las direcciones y de una cantidad del orden de los 1,5 millones de axones y todas ellas al llegar al borde del agujero, deben amontonarse y doblarse unas encima de otras curvándose para salir del ojo por el citado nervio óptico. En este “cambio de dirección” empieza la parte más vulnerable porque esos axones tienen que atravesar un área perforada de más de 500 agujeros llamada “lámina cribosa


Y por unos mecanismos que aún no son completamente conocidos, en los ojos glaucomatosos y con una presión intraocular alta (por encima de los 21-22 mmHg), se produce un daño en la papila porque el tejido neuronal ganglionar no puede soporta su propia presión intraocular. 

La idea se entiende muy bien con un símil culinario. Sería como si coláramos unos espaguetis por varios coladores superpuestos y los empujáramos a presión. El resultado es que serían despanzurrados con esta presión . 


Y de una manera parecida las fibras nerviosas de los axones que transmiten la información de la visión por el nervio óptico, ante una presión intraocular elevada van degenerando y muriendo y así los ojos glaucomatosos van perdiendo fibras nerviosas al amontonarse en la excavación por donde deben pasar y está cada vez se hará más grande. Por eso para detectar el glaucoma solo hay que mirar el fondo del ojo y ver el tamaño de la excavación de la papila. Es lo que se llama una “angiografía” de la misma 


Observemos ambas imágenes y veremos cuál es la diferencia entre un ojo normal y un ojo con glaucoma. En el segundo la excavación ocupa proporcionalmente la mayor parte de la papila. ¿Por qué? Pues por lo que dijimos antes: al irse perdiendo fibras nerviosas, son menos las que pasan por el agujero y esta excavación se va haciendo mayor (es decir que la papila se va “vaciando” y creciendo), por eso una “papila glaucomatosa”, es mayor y más pálida que una papila sana.

Pero, claro, todo esto no se sabía en la antigüedad y en la época medieval el glaucoma se confundía con la catarata. Galeno de Pérgamo (129-201 d. C.) había formulado una teoría errónea de la visión en la que daba al cristalino el principal protagonismo y hasta después del medioevo no llegó Vopiscus Fortunatus Plemp (1601-1671) que en su libro “Ophthalmographia sive tractatio de oculo” fue pionero en plantear que el glaucoma era una transformación del humor acuoso del ojo en color azul y lo diferenció de la catarata. 13 años después, Yves opinó razonablemente que el glaucoma debía ser considerado como una falsa catarata pero salvo estos apuntes, en la época Moderna todos los médicos mantenían la creencia de que el cristalino era el eje principal de la visión y confundían la catarata y el glaucoma.

Fue durante el siglo XVIII cuando se trató de establecer las diferencias entre catarata y glaucoma y dos cirujanos franceses, Michel Brisseau (1676-1743) y Antoine Maitre-Jan (1650-1750), presentaron ante la Académie Royale des Sciences de París unos trabajos en los que sostenían que la catarata era una patología del cristalino operable, mientras que el glaucoma, era otra patología y además incurable. Por eso hasta los comienzos del siglo XIX, no se tenía claro lo que era el glaucoma; algunos pensaban que se trataba de una forma de coroiditis y otros que la opacificación del vítreo sería una secuela de una oftalmía artrítica, que solo se presentaba en pacientes con gota pero llegó Albrecht Von Graefe (1828-1870) y se empezó a descubrir el verdadero mecanismo del glaucoma 


Fuente
Aquel médico fue pionero en interesarse por este padecimiento y comprobó que cuando sube la presión intraocular la arteria central de la retina late a nivel papilar, se atrofia y excava la papila y, como consecuencia, se reduce o contrae el campo visual y que cualquiera de estos tres signos eran motivo para precipitar la ceguera. Clasificó los glaucomas en tres subtipos: glaucoma crónico, glaucoma agudo y glaucoma secundario y también escribió extensamente sobre la excavación de papila con afección de los campos visuales sin aumento de la presión intraocular (lo que actualmente conocemos como “Glaucoma de Tensión Normal”) e inició el diseño de un dispositivo llamado “Tonómetro de Impresión” para medir la presión intraocular pero-lamentablemente- tuvo que abandonar su proyecto por falta de anestesia local, que hasta 1859 la misma fue introducida por Albert Niemann, que usó la cocaína y más tarde con los relevantes aportes de la aplicación terápeutica del alcaloide de pilocarpina por Tweedy en 1875.

De todas formas, el enfoque sobre esta enfermedad se mantuvo sin grandes avances hasta que se pudo medir la presión interna del globo ocular algo transcendental en la identificación y el control de un proceso glaucomatoso y hubo que esperar hasta 1862, cuando durante el Congreso Anual de la Asociación Médica Británica, William Bowman introdujo formalmente la idea de que la medida de la presión intraocular era esencial para el diagnóstico de muchas enfermedades oculares. 

Pero ¿cómo medir la presión del ojo? Para medir la presión de algo (recordemos un neumático con su válvula) se require entrar en contacto directo con fluido de su interio y un ojo no se puede pinchar e introducir algo para medir su presión. Por eso la tonometria empezó a basarse en la idea de que el ojo ofrece una resistencia a ser deformado directamente proporcional a la presión que hay en su interior.  En esto se basa la medida de la presión intraocular  que no es otra cosa que la de hacer una fuerza sobre la parte exterior del ojo y comprobar si se deforma. 

Los pioneros a finales del siglo XIX, fueron Imbert y Fick que analizaron las fuerzas que actúan en un ojo simplificado. Su modelo equiparaba el ojo a como una esfera ideal, seca y de paredes infinitamente finas, flexibles y elásticas y determinaron que la presión en su interior (P) es igual a la fuerza necesaria para aplanar su superficie (F) dividida por el área de aplanamiento (A). 

P=F/A 

pero para poder aplicar este principio a la determinación de la PIO hay que tener presente que el ojo humano no es una esfera ideal, que no está seco y que el menisco lagrimal disminuye el valor medido de PIO por tensión superficial,; además la córnea tiene un espesor medio 
de aproximadamente 0,5 mm con su propia elasticidad y rigidez. Es decir era un principio empírico no se ajustaba totalmente a la realidad y solo era válido para un rango bajo de valores de A y de P/F 


Los primeros tonómetros utilizados para medir la presión intraocular del ojo humano fueron desarrollados en la Clínica Donders en Utrecht entre 1863 y 1868 y el principio de la tonometría por aplanación fue explorado por Maklakoff en 1885 y años después por Imbert y Fick.Los reportes clínicos de mayor valor con uso del tonómetro fueron los de Schiotz de 1910 a 1920. A principios de 1950 se observó un gran progreso en la tonometría por aplanación con los trabajos de Goldmann, Perkins y Maurice y actualmente el tonómetro de Goldmann es un importante instrumento que permite una adecuada medición clínica de la presión intraocular en el ojo humano. Este tonómetro desplaza 0.5 microlitros de humor acuoso y aumenta la presión intraocular un 3%.

Lo que hace la tonometría de aplanaciòn es aplanar la córnea. Se coloca en la parte central de la córnea (que es curva) y al aponerse la parte final del prisma, que es recta, ese prisma tiende a rectificar la curvatura natural de la córnea. Aunque la córnea es la parte más sensible de todo el cuerpo humano por su gran cantidad de terminaciones nerviosas, esta prueba en la actualidad, es indolora porque previamente se anestesia la córnea. El paciente sólo ve que se acerca una luz azul, y nada más.


Goldmann basó sus estudios sobre ojos de cadáveres, y modificó el Principio de Imbert-Fick para poder aplicarlo de forma realista al ojo humano. Incorporó la influencia de la lágrima y de la córnea a ese principio, siendo la ecuación resultante: P+E=F/A+S en donde P es la presión intraocular, F la fuerza necesaria para aplanar su superficie, A el área de aplanamiento, E el módulo de elasticidad corneal y S la fuerza de atracción por tensión superficial de la lágrima. Goldmann encontró que, para córneas de espesor normal (0,5 mm), los factores E y S se cancelaban para valores de A entre 4,9 y 12,5 mm2 (de 2,5 a 4,0 mm de diámetro). La ecuación se simplificaba otra vez a P=F/A . Así, el tonómetro de Goldmann se basa en el Principio de Imbert-Fick con aplanamiento de un área constante y va instalado en la lámpara de hendidura y calibrado para que la PIO pueda ser leída en un dial graduado


Tonometro de Goldmann

Pero faltaba la contribución esencial al diagnóstico del glaucoma: el ver “el fondo del ojo” porque antiguamente las enfermedades del polo posterior del ojo se conocían como “cataratas negras” ya que ese fondo del ojo no se podía explorar.

En el año de 1704 Méry logró ver el fondo del ojo de un gato (que había ahogado previamente) con la pupila midriática. Posteriormente de la Hire, Purkinge, Kussmaul, Cummings y Brucke efectuaron diferentes experimentos para lograr ver el interior del ojo teniendo algunos avances pero hasta el año de 1847, no se diseñó un instrumento capaz de observar el fondo del ojo. Lo hizo un tal Babagge, un físico inglés, que lo presentó a algunos oftalmólogos que no valoraron su instrumento, por lo que no lo publicó y su invento y este no se dio a conocer. 

El verdadero progreso para el estudio del glaucoma se produjo con la invención del oftalmoscopio. Lo hizo a mediados del siglo XIX Hermann Ludwig Ferdinand von Helmholtz considerado uno de los científicos más importantes de aquel siglo, y su invento contribuiría al desarrollo de la oftalmología en forma importante. Lo presentó el 6 de diciembre de 1850, ante la Sociedad de Física de Berlín, pero le puso el nombre de “augenspiegel” (espejo de ojo)


Fuente
El experimento que von Helmholtz realizó ante sus alumnos consistía en una demostración sobre la conservación de la fuerza (energía), y para el mismo utilizó cartón, pegamento y unas lentes delgadas que funcionaban como espejo reflectante. Helmholtz conocía la anatomía del ojo perfectamente bien y tenía conocimientos de que la retina era una superficie reflectante, por lo que sabía que la luz que entra al ojo es reflejada, así como que también la misma sigue el mismo camino de salida que de entrada. El paso a seguir fue colocar su ojo en el trayecto de la luz y de esa forma pudo observó el fondo del mismo; agregó además una fuente luminosa próxima, la cual se reflejaba en los cristales y se dirigía al interior del ojo observado. 


El “augenspiegel” de Hermann von Helmholtz

El oftalmólogo griego Andreas Anagnostakis, cambió el termino de “augenspiegel” con el cual Hermann von Helmholtz había designado a su invento por el de “oftalmoscopio” (del griego ὀφθαλμός ‘ojo’ y σκοπέω ‘observar’). Por cierto que debemos al mismo el primer estudio sobre fondo de ojo, publicado en el año 1854 . Los oftalmoscopios modernos tiene tres características fundamentales: una fuente luminosa, una superficie reflectante que dirige la luz hacia el interior del ojo observado y unas lentes para enfocar la imagen del fondo del ojo.

Finalmente hablaremos de la cirugía como otra manera de tratar el glaucoma. El oftalmólogo  Albrecht von Graefe (1828- 1870) empezó el tratamiento quirúrgico de esta patología y en su pequeña clínica berlinesa, fundada en 1851, inició el tratamiento quirúrgico del glaucoma mediante una técnica llamada iridectomía. Se trata de un corte en la periferia del iris que permite crear un orificio en el mismo para facilitar la salida del humor acuoso. En general, cualquier tipo de cirugía conlleva algún riesgo pero este sistema quirúrgico es el método de tratamiento principal para el glaucoma de ángulo cerrado y para el glaucoma congénito ya que puede ser la única manera de abrir los canales de drenaje bloqueados o malformados.

Pero el glaucoma de ángulo abierto que es el más común y del que hablamos en este artículo se trata muy bien con la cirugía láser. Un láser es un diminuto rayo de luz que puede hacer una pequeña quemadura en el tejido ocular, y fácil de realizar en el consultorio del médico o en una clínica hospitalaria.

Paralelamente, también empezó a investigarse el tratamiento con fármacos para el glaucoma.En 1862, Thomas R. Fraser ya describió el efecto de un alcaloide extraído de una haba, la fisostigmina, y su efecto miótico (de contracción de la pupila), viendo que reducía la presión intraocular. En 1877, Adolf Weber estudió el efecto de la pilocarpina, que pasó a ser el principal medicamento para tratar el glaucomaActualmente también se usan colirios con betabloqueadores para bajar la presion  intraocular que reducen la producción de humor acuoso y el Timolol, es uno de los mas utilizados. Son un buen complemento si se usan con los inhibidores  de la anhidrasa carbonica, una droga como la dorzolanida que inhibe la formacion de humor acuoso porque neutraliza la enzima anhidrasa carbonica, cuya presencia es necesaria para la formacion del mismo.


Hay actualmente más de 66 millones de personas en el mundo con glaucoma. En algunos casos la genética tiene mucho que decir ya que hay glaucomas que tienen componentes hereditarios, pero algunos aparecen como consecuencia de traumatismos oculares y aunque no se pueden cerrar los ojos ante la idea de que glaucoma y ceguera están muy unidos, una detección precoz del problema, puede frenar su progresión y evitar así la pérdida de la vista. Porque aunque se trate de una “enfermedad silenciosa“, podemos acallarla.

Fuentes 

Proyecto Ocularis Dr. Rubén Pascual. Sección de Oftalmología infantil y Estrabismo en el Hospital San Pedro en Logroño.

Facultad de Medicina de Sevilla. Área de oftalmologia. Prof. A.Benjumeda

Consideraciones sobre los principios físicos de la tonometría de aplanación“. Jordi Castellví Manent, M. Ángeles Parera Arranz y Jorge Loscos Arenas 

Echart WU, Gradmann C. Hermann Helmholtz. Investigación y Ciencia. Mayo 1995.

Hermann von Helmholtz y el oftalmoscopio Dra. Eréndira Güemez-Sandoval 

Prolífico genio en oftalmología: Albrecht Von Graefe (1828-1870) Dr. David Lozano-Elizondo

Las “cartas cifradas”. Un arte renacentista 

El cifrado es un método para escribir mensajes manteniéndolos a salvo de miradas indiscretas. La “escritura secreta” usa muchas veces la criptografía, donde el mensaje viene representado por una serie de imágenes ininteligibles que sólo son comprensibles por el destinatario pero en el Renacimiento se escribieron muchas “cartas secretas” basadas en las llamadas “sustituciones”. Eran cartas perfectamente inteligibles pero que llevaban incorporada una serie de números y símbolos que solo podían interpretarse si el destinatario disponía de “las claves” para descifrarlas. 

Los responsables de la curia vaticana en la época renacentista fueron muy hábiles en este campo e incluso habían creado una oficina llamada “Segretario della Cifra” (Secretario de cifrado) para estos menesteres. Desde el siglo XIII, la “escritura oculta” ya se practicaba en Venecia o Florencia, y al principio se aplicaba a la misma métodos sencillos, pero llegó Leon Battista Alberti, y en su obra “Componendis cifris” de 1466 inventó las bases para la “sustitución alfabética” con unos artilugios conocidos como ‘discos de Alberti‘ que tenían un armazón fijo con las letras del alfabeto y las cifras 1, 2, 3 , 4. y otro móvil con símbolo en minúscula que se usaban para el texto cifrado.

Disco de AlbertiFuente

Entre los siglos XIV y XV se usó mucho el cifrado en Italia, para la correspondencia diplomática y el principal fue uno denominado «Nomenclator» o “tabla cifradora”, que estaba compuesto por un alfabeto (casi siempre homofónico) y un conjunto de palabras o frases codificadas, representándose cada una de ellas por uno o más símbolos enigmáticos. 

El documento de la imagen de portada es uno de ellos y corresponde a una pieza confeccionada entre los años 1493 y 1494 y referenciada con la clave ASV, A.A., Arm. I-XVIII 5026, ff. 100r-101v en el registro del Archivo Vaticano.Pertenece a la correspondencia cifrada del Papa Alessandro VI Borgia y concretamente el presentado se usó para codificar la correspondencia papal con don Francisco Desprats que en 1492- poco después de que el señor Rodrigo de Borgia (Alejandro VI) – fuese elevado al sillón papal había sido nombrado como “colector de espolios” (un eclesiástico constituido en dignidad por el rey de España) y que oficiaba también como su nuncio apostólico en la corte de los Reyes Católicos. 

Pero ¿qué es un «Nomenclator»? Pues se trata de un sistema mixto para codificar la escritura compuesto por un alfabeto cifrado y una lista de nombres, palabras y sílabas, que están codificadas en diferentes formas. Repasemos el de la imagen de portada : en su “recuadro superior” y en la primera línea se detallan las letras del alfabeto y en la segunda, tercera y cuarta líneas se nos muestran cuales son las opciones para la sustitución de estas letras. Para las consonantes se permiten dos opciones y para las vocales tres. Luego sigue un “recuadro central” en donde se nos pone una tabla que reagrupa a una serie de palabras (verbos, adverbios, pronombres, preposiciones y locuciones) que pueden ser sustituidas con un símbolo y un “recuadro inferior” con una serie de nombres, títulos y expresiones en tres columnas. En la primera columna la sustitución se hace por números y en la segunda y tercera por sílabas. 

Así vemos como en el documento expuesto la frase «la hija del Papa» se marcaría como «cuc»; «el hijo del Papa» como «gu»; el «camarlego» como «fu» y la frase «el Papa» estaría expresada con el número «23». La “nomenclatura” (tabla de sustitución) fue usada mucho en el Renacimiento y para descifrar algunas cartas antiguas renacentistas no basta con ser un paleógrafo y conocer las lenguas antiguas, sino que hay que tener a mano el «Nomenclator» que se usó para cifrarlas con sus  “claves” correspondientes. 

Un caso muy curioso es el que nos cuenta Marcello Simonetta en su libro: “El Enigma de Montefeltro” en el que resuelve un crimen de hace quinientos años. ¿Quién urdió la conspiración del 26 de abril de 1478 para matar a los hermanos Lorenzo y Juliano de Médicis en la catedral de Florencia? En la misma Lorenzo encontró refugio en la sacristía pero Juliano cayó bajo diecinueve puñaladas de sus asesinos. 

En el siglo XV había en Italia una competición directa entre dos familias: los Médicis y los Pazzis pero los primeros eran el clan con mayor poder en Florencia. y Lorenzo el Magnífico intercambiaba favores por dinero. Asesorado por su hermano Juliano, colocaba a sus amigos en los puestos claves del poder en detrimento de la familia Pazzi. Así se urdió una conspiración para matar a ambos hermanos aprovechando el día que estaban juntos en la misa mayor del Duomo. Juliano llegó acompañado de Francesco dei Pazzi y se colocó por razones de seguridad en el extremo opuesto de dónde estaba su hermano Lorenzo. En el momento de la consagración los conspiradores atacaron y Francesco dei Pazzi asestó 19 puñaladas a Juliano matándolo; otro grupo atacó a Lorenzo pero sus seguidores lo defendieron y le salvaron la vida.

Lorenzo se vengó y la familia Pazzi fue considerada responsable matándose aquel día a más de cien personas pero… ¿lo fueron realmente? porque los Médicis tenían una larga lista de enemigos, incluido el Papa de aquel entonces: Francesco della Rovere, Sixto IV.

Sixto IV

En la portada del libro aparece un gran protagonista: Federico II de Montefeltro, IX Conde y primer duque de Urbino. Supuestamente era aliado de los Médicis pero como otras muchas figuras del Renacimiento era un profesional de “la condotta” un término que en Italia designaba al contrato entre el capitán de mercenarios y el gobierno que alquilaba sus servicios. 

Vamos, que “se vendía al mejor postor” y aunque había servido a Lorenzo de Médicis en la guerra de Volterra de 1472 no tuvo el menor escrúpulo en conspirar contra él sirviendo al papa Sixto IV, enemigo de Lorenzo por haberle denegado un préstamo. Los señores mercenarios mudaban su lealtad a quien creían que poseía mayor poder.

Marcello Simonetta en el año 2000 pudo descifrar el código de una carta cifrada del 14 de febrero de 1478 que aquel duque de Urbino, envío a Roma revelando su participación en una conspiración gestada por el Papa Sixto IV para cambiar el Señorío de Florencia. Da la casualidad de que este autor, es un descendiente de uno de los protagonistas de aquellos acontecimientos y encontró una carta escrita en1478 de aquel duque de Urbino a su antepasado Cicco Simonetta, Canciller de Sforza de 1450, y otra posterior advirtiéndole que “tuviera cuidado con Lorenzo de Médicis”. No me extenderé más porque quien quiera saber más puede leer este libro donde se demuestra que aquel ataque fue el acto culminante de un plan de Sixto IV que buscaba redibujar el mapa del poder en Italia. 

Lo más interesante es responder a esta pregunta: ¿cómo descifró este investigador aquella “carta cifrada” sin disponer del «Nomenclator» ? Pues gracias a un diario de su pariente en donde encontró la clave  de que alguna letra podía estar representada por símbolos diferentes y que a cada persona correspondía un símbolo

Así es que en aquella carta cifrada que el duque de Urbino mandada a su antepasado él asignó un número a cada símbolo y la frecuencia de estos números le ayudó a encontrar “los símbolos repetidos“. Luego a los caracteres que más se repetían les asignó una vocal y como la letra «a» es la más repetida del alfabeto italiano la sustituyó por los símbolos que se repetían y así empezaron a aparecer palabras como «La sua santitá» que-obviamente- debía ser Sixto IV y salió el nombre del jefe de la conspiración. El duque de Urbino era conocido como un maestro de la escritura cifrada pero cuando se fueron descubriendo sus “claves” aparecieron. frases como «Hazlo, deshazte de Lorenzo en cuanto puedas»

Y así el Renacimiento siguió perfeccionado el noble arte del “cifrado de la correspondencia ” con muchos otros documentos recopilados en los archivos vaticanos y otros cifrados ubicados en el archivo del Fondo Borghese, entre los que se encuentran escritos de políticos cifrados las “Grilie di Cardamo” (grilla de Cardamo), otro sistema renacentista ideado por Gerolamo Cardano hacia 1550 con una cartulina cuadrada con perforaciones en cuyo interior se escribía el mensaje, y el texto se podía leer sobreponiendo a la carta recibida la grilla que el receptor tenía
Fuente 
Luego el cifrado se extendió y algunos ejemplos históricos importante son la anécdota de Oliver Levasseur, alias La Bouche (‘El Buitre‘) un pirata francés del Océano Índico que fue capturado y ejecutado en 1730. Antes de morir mostró un criptograma de 17 líneas, exclamando ante la multitud: “Mi tesoro está enterrado aquí … “. Nadie lo ha descifrado aún 


O el Copiale Cipher de entre 1760 y 1780, de una sociedad secreta de Wolfenbüttel, Alemania. Durante más de 260 años el contenido de este manuscrito de 105 páginas cifrada fue un misterio, hasta que en abril de 2011 un equipo de lingüistas suecos y estadounidenses utilizando sofisticados algoritmos de traducción pudieron descifrarlo al fin.

O cuando en el siglo XVI María, reina de los escoceses tras 18 años de prisión, apoyó el complot urdido por Anthony Babington para liberarla y asesinar a Isabel de Inglaterra. María conspiró con Babington a través del intercambio de cartas cifradas, mediante un cifrado de sustitución complejo con más de 63 símbolos diferentes para codificar letras y palabras.


Más modernamente en 1917 tenemos el telegrama codificado que el Ministro de Exteriores alemán Arthur Zimmermann envió a México sobre la reanudación de la guerra submarina alemana  “sin restricciones” . Aquel telegrama fue interceptado por un equipo de criptografía británica conocida como la habitación 40, y el 19 de febrero, de aquel año y una vez descifrado se pasó a los EE.UU. que el 6 de abril declaró la guerra al Imperio Alemán.

Hoy en día el cifrado es un arte mucho más sofisticado y en palabras del historiador eminente de cifrados, David Kahn: “Pocas de las ideas falsas que más firmemente se han apoderado de las mentes de los hombres es la de inventar un sistema de cifrado que nadie puede romper“.

Fuentes:

Archivo Vaticano: https://www.vatlib.it

Marcello Simonetta: “El Enigma de Montefeltro
Frattini, Enric: “La conjura: asesinar a Lorenzo de Médici“. Espasa Calpe.2006 
Julian Bhardwaj . ‘Discrete Mathematics‘. University of Warwick

La cuarta dimensión del tiempo 

En geometría, un hipercubo nos sirve para visualizar el concepto de dimensiones. Dependiendo de la cantidad de dimensiones que tenga ese  hipercubo puede tomar distintos nombres: con 0 dimensiones sería un Punto, con 1 dimensión sería una Arista. Con 2 dimensiones sería un Cuadrado, con 3 dimensiones un Cubo y con 4 dimensiones seria un Teseracto o sea  un cubo desfasado en el tiempo, es decir, que en cada instante de tiempo se va formando. Por supuesto, es imposible verlo en la cuarta dimensión, y del mismo solo podemos ver los puntos en los que él mismo toca nuestro universo, así que, si toca nuestro espacio 3D en forma paralela a una de sus hipercaras tal lo veríamos como se muestra en la figura de entrada de este post en donde vemos a uno de ellos girando proyectado en nuestro espacio tridimensional. 

Para entender lo que esto significa tenemos que hablar de las diversas dimensiones y de sus relaciones entre ellas 

La “Dimensión Cero” sería un vértice en medio en un vacío adimensional. Con esta dimensión puede localizarse un punto


La “Primera dimensión” puede considerarse como una linea en el espacio donde sólo existe la longitud, y aún no se constituye el ancho, ni la altura o profundidad. 

La “Segunda dimensión” ya contiene las figuras planas de todo tipo; regulares, irregulares Estas figuras ya tienen largo y ancho, direcciones atrás-adelante, y ejes “X” y “Y” como en un plano cartesiano.


La ‘Tercera dimensión‘ es aquella en la que vivimos físicamente con las direcciones derecha-izquierda, enfrente-atrás y arriba-abajo (Ejes X, Y, Z). Sin embargo vivimos en un entrelazamiento con las demás dimensiones; es decir que las dimensiones se relacionan y podemos ver sus efectos cuando una de ellas corta a otra. Es lo que pasaba con nuestro Teseracto de 4 dimensiones que lo veíamos cuándo tocaba   nuestro espacio 3D

Si tomamos como referencia la Segunda Dimensión en relación con la Tercera una persona “Tridimensional” al moverse siempre iría cortando unos plano bi-dimensionales

En cada plano habría un mundo concreto de dos dimensiones y un ser de uno de estos planos de la Segunda Dimensión, vería las acciones de esta persona por  las intersecciones de su cuerpo con el plano donde habitara. El resultado -para él- serían únicamente unas áreas sombreadas que serían las secciones del cuerpo de la persona 3D cuando atravesase su mundo plano. Para él serían círculos y figuras extrañas que aparecerían de improviso hasta-simplemente-desaparecer pero nunca podría imaginarse cómo sería esa persona en un universo 3D ya que no puede acceder a él. 

Porque en un universo de dos dimensiones no existe la altura, y sus habitantes solo se pueden mover hacia los lados, hacia atrás o hacia adelante; en cambio en nuestro universo de tres dimensiones ya podemos movernos hacia arriba o hacia abajo, hacia adelante o hacia atrás, hacia la derecha o hacia la izquierda y ¿cómo sería un universo de cuatro dimensiones

Aquí habría nuevas direcciones, por donde podríamos entrar y salir y quizá seríamos capaces de mirar al interior de los cuerpos o encontrar atajos, caminos o puentes que nos permitirían llegar más deprisa al trabajo pero todo esto que durante mucho tiempo pertenecía al reino de la fantasía cambió con Albert Einstein y otros físicos que emprendieron en el siglo pasado la búsqueda de las dimensiones ocultas, siguiendo las sutiles pistas escondidas en la naturaleza. 

Fuente

Pensaron que, tal vez, en nuestro universo 3D podría haber señales de una cuarta dimensión, por la aparición de sucesos inexplicables. Un suceso inexplicable para unos seres de dos dimensiones encerrados en un cuadro abandonado en un jardín sería el ver cómo se destruia su mundo a causa de algo desconocido que lo disolvía. En nuestro mundo 3D la causa seria fácilmente explicable. Se trataba de una lluvia que cae sobre el cuadro pero como la misma les cae desde “arriba” – es decir desde una tercera dimensión que los seres 2D no pueden siquiera imaginar se trata de algo inexplicable para ellos. 

Y en nuestro mundo 3D aquellos investigadores empezaron a buscar algo que no encajase con las leyes físicas que lo regian buscaban sucesos más allá de lo conocido, como aquella catastrófica tormenta tridimensional que destruyó el universo bidimensional de la pintura de nuestro ejemplo.Buscando esos sucesos inexplicables se encontró una anomalía en la órbita del planeta Mercurio. Cuando los astrónomos usaron la fórmula de Newton para calcular su órbita alrededor del Sol -y su posición aparente en el cielo, visto desde la Tierra- y compararon esos cálculos con las observaciones, encontraron que eran casi iguales, pero había una pequeña diferencia en la posición real de Mercurio: cada año parecía cambiar su posición (medida en el instante de su máximo acercamiento al Sol) un ángulo muy pequeño, de 5,75 segundos de arco. Era un error ciertamente pequeño, pero muy importante y los astrónomos dieron una explicación: Mercurio no sólo era atraído por el Sol, sino también por los demás planetas, así es que calcularon -usando siempre la teoría de Newton- la posición de Mercurio, teniendo ahora en cuenta todos los cuerpos del Sistema Solar, y, efectivamente, encontraron que, de aquellos 5,75″ de error anual,  se podían explicar 5,32″ por la influencia gravitatoria de los otros planetas lo cual era casi perfecto… pero no del todo exacto. La diferencia (0,43″/año) entre la posición calculada para Mercurio y la observada daba un error pequeño pero inquietante: ¿por qué no funcionaba exactamente la teoría de Newton con Mercurio, cuando sí parecía funcionar con todos los demás planetas? Fue Einstein quien, a principios del siglo pasado, propuso una teoría diferente a la de Newton y pudo por fin explicar los 0,43″/año famosos en la posición de Mercurio. Había puesto los principios de su ‘Teoría de la Relatividad Especial‘ en 1905, resolviendo un problema que aquejaba a la Física: la mecánica newtoniana y la teoría de los fenómenos electromagnéticos no encajaban, y con ello sometió a una profunda crítica la forma en que hasta entonces se entendían los conceptos de “espacio” y “tiempo“. 

Con la teoría de la relatividad especial, lo que hasta ahora se había dado por sentado que era una constante, el tiempo, en realidad era una variable y el espacio también lo era. El tiempo depende, en realidad, del movimiento, de la velocidad y eso lo cambió todo. Einstein se basó en dos hipótesis: a) las leyes de la física son las mismas mientras el sistema de referencia sea el mismo y b) la velocidad de la luz es una constante universal, (casi 300.000 kilómetros por segundo). De ahí surgió su famosa ecuación E = mc2 que relaciona de manera directa masa y energía.

Para entender mejor el concepto usaremos un ejemplo extraído de este artículo. Se trata de dos fotones de luz que rebotan entre dos espejos situados en dos trenes. Estando parados, como la velocidad de la luz es constante tardan él mismo tiempo en ir de un punto a otro en los dos trenes tanto si se les mira desde dentro de los mismos que desde fuera.


Pero si el primer tren se mueve a una velocidad constante, el observador situado dentro del tren seguirá viendo a ese  fotón rebotar de manera regular pero para un observador que esté situado fuera de ese tren y desde su punto de vista el fotón tendrá que recorrer una diagonal (más distancia) entre un espejo y otro variando el tiempo efectivo que tardar en rebotar. Es decir que los tiempos de dos observadores, uno estático y otro en movimiento han variado  

Así fue como Einstein en su teoría de la relatividad especial nos demostró que a velocidades lo suficientemente altas el tiempo se dilata o ralentiza y se hizo famoso el ejemplo de un cohete que viaja a la velocidad de La Luz (como aquel ‘Halcón Milenario‘ de la guerra de las galaxias)

La velocidad de la luz como es una constante universal puede usarse para definir una unidad de longitud llamada año luz para medir las distancias interplanetarias y si nos desplazáramos a una velocidad próxima a la de la luz (cerca de 300.000 kilómetros por segundo) hasta  una estrella que esté situada a una distancia de quinientos años luz al regresar a nuestro planeta, la Tierra será mil años más vieja, aunque nosotros sólo habremos envejecido diez años. De hecho 100 años en la Tierra, solo serían 5 para nosotros en nuestra súper nave espacial . Entonces ¿son los viajes a altas velocidades una fuente de eterna juventud? No, lo único que ha ocurrido es que el tiempo ha pasado más despacio.

El espacio-tiempo que define la teoría de la relatividad es un cono de luz, que va tanto hacia delante como hacia atrás en el tiempo. Los límites de ese cono están marcados por la velocidad de la luz y ninguna partícula podrá superarlos, por lo que nada de lo que ocurra puede estar fuera de los límites de ese cono.


Albert Einstein comenzó a buscar una nueva ley de la gravitación en 1.907, ya que su teoría de la relatividad especial ignoraba la gravedad en su conocido principio de equivalencia. Es sencillo de entender: si una persona cae libremente, no sentirá su propio peso y sería como si la gravedad para él hubiera desaparecido de su entorno, asi es que las leyes de la física que ella experimente serán las mismas que rijan en un sistema inercial libre de gravedad. Y así fue como el 25 de noviembre de 1915 presentó la formulación definitiva de su teoría de la relatividad general, introduciendo el misterioso concepto de la curvatura del espacio-tiempo eliminando la gravedad como una fuerza ‘real’ 
Ecuación de la relatividad general de Einstein 

Se trata de un sistema de diez ecuaciones que describen la interacción fundamental de la gravitación como resultado de que el espacio-tiempo está siendo curvado por la materia y la energía. Es decir que en ellas ya aparece el concepto de curvatura del espacio-tiempo que cambiaba por completo los conceptos. Los objetos se mueven en un mismo espacio-tiempo que, al estar curvado, produce la impresión de movimiento bajo una fuerza que actúa sobre ellos.

Fuente

El espacio-tiempo es un concepto que generaliza el anterior de espacio corriente, agregando una cuarta dimensión temporal. Se trata pues de un entorno de cuatro dimensiones e igual que en el ejemplo que poníamos de un ser de dos dimensiones cuyo plano era atravesado por un ser de tres, según la física y mecánica cuántica, la tercera dimensión se entrelaza con esa cuarta  y la dimensión del tiempo nos afecta. Se podría decir que vivimos y vemos el universo en pequeñas “pausas”. 

Los planos que podemos ver en nuestra dimension se miden en Cronones y cada uno dura 0,000 000 000 000 000 000 000 000 000 000 000 000 000 000 053 910 segundos. Como si se tratase de una cámara a alta velocidad, el universo nos pasa cuadro por cuadro, en estos minúsculos tiempos y-naturalmente- somos incapaces de percibirlo.

Pero según la física y mecánica cuántica, podría existir un ser capaz de moverse por esa cuarta dimensión y que podría pasar a través de nuestros “planos tridimensionales”. Aparecería y desapareceria de forma misteriosa mientras cambiaba de forma y esto sería algo tan extraño para nosotros como aquello de  ‘las sombras’ que dejamos para los seres de dos dimensiones cuando cruzamos su plano. Estos  “entes”, serían capaces de doblar el espacio-tiempo y pertenecer a realidades diferentes cada vez.

Podemos entenderlo imaginando una hormiga como un ser 3D que cruzar un trozo de papel. Tardaría 20 segundos en ir de un punto a otro pero si le plegamos los extremos, el mismo recorrido lo podría hacer en 1 segundo. 

Eso es lo que le pasaría a un ser que estuviera en la Cuarta Dimensión, que podría moverse no solo con el espacio, sino con el tiempo, y sin necesidad de usar las velocidades luz. Para él sería posible moverse como en los famosos “Agujeros de Gusano”. 




Agujeros de gusano conectando distintos instantes de tiempo. 
Fuente 


Los ‘agujeros de gusano‘ son atajos en el tejido del espacio-tiempo que permiten unir dos puntos muy distantes llegando de uno a otro más rápidamente que si se atravesara el Universo a la velocidad de la luz. Según la teoría de la relatividad general de Einstein, estos agujeros de gusano pueden existir con una entrada y una salida en puntos distintos del espacio o del tiempo. El túnel que los conecta está en el hiperespacio, que es una dimensión producida por una distorsión del tiempo y la gravedad.

Y un ser de 5 dimensiones podría moverse en el espacio-tiempo de una manera similar. Con 5 dimensiones para él el tiempo sería una dimensión más y podría desplazarse por el mismo como ‘una extensión más’ ‘e igual que nosotros vemos la anchura, la altura y la profundidad él también vería los distintos instantes del pasado y del futuro. Es la situación que vive el protagonista de la película Interstellar al que unos seres de 5 dimensiones le salvan de caer en la singularidad de un agujero negro haciendo un hueco en su mundo con un Teseracto desde donde podía ver la habitación de su casa en todos los instantes de tiempo.

Fuentes:

Roberto Emparan (Bilbao, 1967). ICREA Research Professor. Universidad de Barcelona.

Hernán Quintana: Instituto de Astronomía. Pontificia Universidad Católica de Chile.

Enrique F. Borja. Relatividad General. Un siglo con las ecuaciones de Einstein