El primer hombre que vio las bacterias

El cuadro de portada representa a Anthonie van Leeuwenhoek pintado por el holandés Jan Verkolje en un óleo de 56 x 47.5 cm que se conserva en el Rijksmuseum de Amsterdam. Hoy voy a contar la historia de este investigador aficionado a la biología, que utilizando un pequeño cuerpo de vidrio redondo, curioseó con las diminutas cosas que no puede ver el ojo humano.

VanLeeuwenhoek, nació el 24 de Octubre de 1632 en Delft (Holanda), en el seno de una humilde familia y cuando tenía 16 años, su padre murió, dejándole como cabeza de familia, por lo que tuvo que abandonar la escuela y dedicarse de lleno al negocio familiar de comerciante de telas. Aunque tenía poca formación llegó a ser uno de los más famosos naturalistas del siglo XVII y todo se debió a un “hobby” que hizo que su vida cambiara: el de construir lentes de gran aumento en su tiempo libre.

Una lente es un dispositivo con dos superficies diseñadas para producir la convergencia o divergencia de la luz que pasa a través de el . Las lentes se construyen generalmente con vidrio aunque también se pueden formarse de otras maneras; el vidrio es un material que se conoce desde muy antiguo ya que los egipcios lo usaban en forma de esmaltes y en el siglo XV a.C durante el reinado de Tumes III, aparecieron los primeros vasos de este material, encontrándose en la necrópolis de Abydos  un ladrillo esmaltado con el nombre del faraón Aha; la tradición también señala que Ramses II poseía un  cetro de vidrio, gracias a los conocimientos que se tenían en Egipto sobre la fabricación de este material en Tebas y Menfis.

No se conoce con mucha precisión las nociones que se tenían de la óptica por los antiguos, pero lo que sí se ha comprobado es que hay muchos restos arqueológicos que nos muestran que en aquellos tiempos ya se usaban las lentes. En Pompeya se halló una de 5 cm. de diámetro y se sabe también que 3000 años a. C. en Mesopotamia, ya se hacían lentes plano-convexas y biconvexas.En el palacio de Asurnasirpal, se encontró una de ellas que mide 3,5 X4 cm, con un grosor de 0,5 cm y una distancia focal de 11,25 cm. que se supone pudo ser utilizada por aquel rey

Lente en la mano de un miembro del Museo Británico.Detrás se aprecia el dedo medio aumentado y visible. (Foto cortesía: British Museum)

Y es que es fácil comprobar cómo algunos objetos cuando se miran a través de un vidrio “aumentan su tamaño”. Es lo que pasa cuando ponemos un objeto de cristal sobre un mantel cuadrado: a través del cristal vemos como sus cuadros se agrandan.

Por eso desde la antigüedad ya se conocían las propiedades de aumento de las lentes y Seneca en el año 3 a 65 d.C. ya nos contaba que pudo leer “casi todos los libros de Roma” mirando a través de una esfera de cristal llena de agua que le servía para aumentar el tamaño de las letras. Èl mismo fue el primero en mencionar la capacidad amplificadora de las lentes convergentes al describir como se veían las cosas ampliadas escribiendo estas palabras: “las letras, no obstante de ser pequeñas e indistintas, se ven más agrandadas y más claramente a través de un globo de cristal lleno de agua.

También en 1249 el filósofo inglés Roger Bacon comentó que: “grandes cosas se pueden realizar por medio de la visión refractada. Si las letras un libro, o algún objeto pequeño, se ven con un pequeña esfera del cristal o de vidrio, cuyo plano es adyacente a ellas, aparecerán mejores y más grandes.” y posiblemente en el siglo X, los chinos utilizaron lentes de aumento colocadas en molduras.

Por eso la “lente de aumento” es un instrumento óptico que nos permite observar objetos, cuyo tamaño los hace imposible de divisar a simple vista. Todo se basa en el “poder de resolución“, esa medida qué sirve para reflejar la capacidad de un ojo para distinguir un objeto de otro, es decir, la distancia mínima que debe haber entre dos objetos para que los mismos sean percibidos como “separados”.

El ojo humano sólo tiene un poder de resolución de aproximadamente 1/10 milímetros (o 100 micrómetros) y por esta limitación el ser humano desde muy antiguo ha usado las lentes de aumento.

También el ojo humano tiene muchas limitaciones para observar el microcosmos. Es capaz de enfocar desde el infinito hasta una distancia de 2,50 cm y la visión que puede serle perceptible de un punto cercano ronda los 7 mm. Cuanto más acercamos un objeto al ojo, mayor es el ángulo aparente con que lo vemos, pero existe una distancia mínima llamada “punto próximo” (25 cm) por delante de la cual, el objeto ya no se ven nítidamente. Este es el punto donde la imagen alcanza su máximo tamaño en la retina y que puede percibirse con nitidez.

Para conocer la “distancia focal” de una lente convergente debemos colocar la misma frente a un haz de luz y moverla hasta que la luz que viene de un punto muy alejado se concentre en un círculo mínimo. Cuando esto se logra (enfocando y desenfocando), sólo tenemos que medir la distancia que hay desde ese punto a la lente y encontraremos su foco.

Cuando se produce una imagen mayor que el objeto y que no está invertida es porque el observador está utilizando la lente como una lupa o microscopio simple. El ángulo que forma en el ojo esta imagen aumentada (es decir, su dimensión angular aparente) es mayor que el ángulo que formaría el objeto si se encontrara a la distancia normal de visión. La relación de estos dos ángulos es lo que se conoce como “potencia de aumento” de una lente y se expresa por un número seguido de una X.

La “lupa” es una lente convexa grande que se emplea para examinar objetos pequeños. Su funcionamiento se basa en que su lente desvía la luz incidente de modo que se forma una imagen virtual ampliada del objeto y por detrás del mismo. Llamamos a esta imagen “virtual” porque los rayos que parecen venir de ella no pasan realmente por ella.

Y conforme la lente tiene una distancia focal mas corta, su imagen virtual formará un ángulo mayor, por lo que su “potencia de aumento” será mayor. Este es el principio en el que se basa el llamado “microscopio simple” que se llama de esta manera porque está formado por una sola lente colocada en un orificio entre dos placas de metal. El microscopio óptico más simple es el que utiliza una lente convexa doble con una distancia focal corta y con ello la misma puede aumentar la imagen de un objeto hasta unos 15 X .

Los “microscopios compuestos” ya disponen de varias lentes y objetivos y en la actualidad se obtienen aumentos por encima de 2.000X habiéndose desarrollado tecnológicamente de una manera tan extraordinaria, que podemos decir que ya se acercan al propio corazón de la materia.

Solo en la primera mitad de la década de 1800 los microscopios se perfeccionaron y hay que decir que nuestro personaje, el señor Leeuwenhoek no inventó el microscopio. El gobierno holandés en 1608 ya había pagado a Hans Lippershey la cantidad de 900 florines por su invento de un tubo magnificador (telescopio) que le servía para observaciones militares y los ópticos holandeses eran, con diferencia, los mejores en aquella época; por eso no es de extrañar que el primer microscopio (telescopio inverso) se fabricara en Holanda y la idea se debió a otro holandés que se llamaba Zacharias Janssen (1588-1628) que fue quien construyó el primero. Se componía de dos lentes convexas montadas en un tubo de unos 25 cms de longitud y 9 cms de ancho en cada uno de sus extremos, pero en realidad se trataba de una “lupa mejorada” que solo podía conseguir unos pocos aumentos.

Microscopio de Janssen

Fuente

Luego vino el inglés Robert Hooke (1635-1703), contemporáneo de Leeuwenhoek, que publicó en 1665 un libro titulado “Micrographia” en el que describía sus observaciones con un aparato por él diseñado. Se trataba de un microscopio formado por dos grupos de lentes: objetivo y ocular pero como las técnicas de fabricación de las lentes aún no se habían desarrollado suficientemente en aquellos tiempos, el prototipo tenía defectos ópticos graves y su aumento no superaba los 30 X

Microscopio de Hooke (dibujo original del propio Hooke). Fuente

Leeuwenhoek fue “más allá” ya que fue quien consiguió los mayores aumentos con las lentes que fabricó . Como comerciante de telas debía examinar cuidadosamente los paños en su trabajo donde solían utilizarse pequeñas “perlas de cristal” para examinar los mismos. Un buen día, decidió mejorarlas y ahí empezó su afición por fabricar lentes de aumento que se convirtió en la obsesión de su vida.

Pudo hacerlo porque los ingresos de su negocio se complementaban con un trabajo suplementario como conserje del ayuntamiento de Delft, y con estas dos fuentes de ingresos, ya tuvo la capacidad económica suficiente para dedicarse a su afición.

Para obtener aumentos cada vez mayores, decidió trabajar con lentes cada vez más pequeñas y se le ocurrió un sistema innovador. Él tomaba unas varillas de cristal, las introducía en el fuego y después extraía lentamente de las mismas unos pequeños hilos de cristal que volvía a meter en el fuego hasta que se formaban unas pequeñas bolitas cuya distancia focal era muy corta. Algunas de sus lentes llegaban a medir solo 1-2 mm de diámetro, y aunque pequeñas, eran de una perfección admirable: se trataba de lentes pequeñas y muy potentes, aunque muy difíciles de manejar y enfocar y para superar esta dificultad, Leeuwenhoek las fijó entre dos planchas de latón perforadas, colocando la muestras a observar en la punta de un tornillo para poder regular con precisión la distancia entre la misma y el objetivo. Aún así su instrumento era muy difícil de manejar y carecía de un sistema de iluminación eficiente y el observador tenía que mantenerlo muy cerca de su ojo para poder mirar a través de su lente.

En la figura anterior se describe aquel aparato que, en esencia, era un instrumento de una sola lente pero con una alta curvatura de sus superficies, por lo que tenía un objetivo muy potente que permitía aumentos de hasta 300 (casi 1/3 de la ampliación de un microscopio compuesto moderno)

Microscopio de Leeuwenhoek según Henry Baker. Fuente

No sabemos cómo a Leeuwenhoek se le ocurrió por primera vez la idea de observar “algo diferente” a sus paños pero se cuenta que tal vez su interés se debió a un incidente personal suyo en donde tras una aparatosa diarrea decidió examinar sus desechos bajo su microscopio y allí vio por primera vez a unos bichitos moviéndose ( lo que hoy en día identificaríamos como un protozoo llamado Giardia, causa común de diarrea). A partir de ahí, aquello le provocó una curiosidad tan insaciable y empezó a usar “su microscopio” para observar todo lo que tenía a su alrededor. Examinó saliva, sangre, agua del estanque, vinagre, cerveza y otras innumerables cosas descubriendo y describiendo muchos microorganismos.

En el siguiente vídeo se muestra “cómo veía las cosasLeeuwenhoek a través de su microscopio

En una carta suya cuenta cómo hizo mirar por su aparato a una dama una gota de vinagre y la mujer quedó tan horrorizada por lo que vio que juró que no volvería a utilizar aquel ingrediente para cocinar, pero Leeuwenhoek luego le propuso mirar el sarro de su boca y aquello terminó con un desmayo de la dama.

En 1674 describió, por primera vez con exactitud, los glóbulos rojos de la sangre y más tarde hizo estudios de observación de los espermatozoides de varios animales.

Sin embargo, Leeuwenhoek tardó bastante en dar a conocer sus descubrimientos. Lo hizo después de cumplir los cuarenta años, y decidió notificarlo a algunos personajes de la ciencia holandesa. En 1673 uno de ellos llamado Regnier de Graaf, que era un médico y anatomista que descubrió la ubicación de los óvulos en los ovarios, conoció sus trabajos y quedó tan impresionado que decidió comunicarlo a Henry Oldenburg, Secretario de la prestigiosa Academia de Ciencias “Royal Society” de Londres. Así fue como nuestro personaje fue Invitado oficialmente a comunicar sus resultados a la misma.

El 19 de mayo de 1673 envió a Londres su primer trabajo (algo que seguiría haciendo en los siguientes cincuenta años) pero cuando causó más impacto fue cuando mandó una carta fechada el 7 de septiembre de 1674 en la que hablaba de la visita que realizó durante el verano de ese año a un lago llamado Berkelse Mere. El agua estaba llena de «pequeñas nubes verdes» y Leeuwenhoek tomó una muestra de la misma para observarla a través de uno de sus microscopios. Lo que vio fueron «partículas arenosas y rayas verdes enrolladas en espiral, tan delgada como un cabello humano».Pero también observó infinidad de animalillos que él bautizó con el nombre de «animálculos» .

Escribió en su carta: «algunos eran redondeados, otros más grandes y de forma ovoide con patas cerca de la cabeza y dos pequeñas aletas en la parte final del cuerpo. Otros bastante más grandes. Todos ellos de diferentes colores. Algunos blanquecinos y transparentes, otros verdes…» añadiendo que el movimiento de alguno de ellos era «tan rápido, de arriba abajo y en círculos, que era maravilloso de ver». Estas pequeñas criaturas- seguía diciendo- eran «como mil veces más pequeñas que el ser viviente más pequeño que nunca había visto».

Lo que Leeuwenhoek estaba describiendo en aquella carta eran nada más y nada menos que los protozoos, esos organismos unicelulares que viven habitualmente en lugares húmedos y medios acuáticos, pero no se dio cuenta de que acababa de descubrir el mundo de los microorganismos: esos que más adelante se llamarían “microbios“.

Por su longevidad y perseverancia, la producción de Leeuwenhoek fue tan extraordinaria, que a lo largo de su vida envió trescientas setenta y cinco observaciones a la Royal Society (la mayor parte de sus cartas se publicaron en una publicación periódica de la misma llamada Philosophical transactions, que fue la primera revista científica de la historia, fundada en 1665 y que todavía hoy se edita ). También mandó veintisiete trsbajos a la Académie Royal des Sciences de Paris (Academia Real de Ciencias de París).

Así lo contaba él mismo en una carta fechada en Delft el 12 de junio de 1716 : “El trabajo que llevo haciendo de un tiempo a esta parte no lo hice para conseguir las alabanzas que ahora recibo, sino que fui impulsado por la curiosidad de conocer, la que me parece tener en mayor medida que otros hombres. Y además siento la obligación de que cuando encuentro algo notable veo que he de registrarlo por escrito para comunicárselo a las personas inteligentes”.

Dibujos originales de Leeuwenhoek de las bacterias de la boca. Fuente

Los siguiente dibujos, pertenece a Leeuwenhoek, cuando examinó pequeños insectos y secciones de pétalos de flor. Se ven las células epidérmicas y dentro de ellas se aprecian los cromoplastos, organelos que contienen el pigmento con el color de los pétalos. Todas las imágenes están tomadas de su libro “Arcana Naturae Detecta” y la calidad de las mismas, observadas con su microscopio son sorprendentemente buenas

Fuente

Imágenes sacadas de Buffalo&Eire public library

Fuente

Leeuwenhoek cuando murió, había creado 419 microscopios de los que-actualmente- quedan diez ejemplares originales construidos en latón y plata y con aumentos entre 68 X y 266 X. Por uno de ellos, fabricado en plata en una subasta de la galería Chisties’s en 2009 se llegaron a pagar 321.237,50 libras. Por cierto que recientemente uno de ellos ha ido a parar a España.

Lamentablemente Leeuwenhoek no compartió con nadie su forma de pulir y tallar sus lentes y tampoco dejó ninguna indicación sobre sus métodos de fabricación. Parece ser que destruyó muchos de sus microscopios y que jamás vendió ninguno ( aunque se cree que regaló dos a la Reina María II de Inglaterra), por eso se tardaron casi 200 años en volver a desarrollar una técnica equivalente a la suya .

El gran descubrimiento de Leeuwenhoek fueron las bacterias, que describió con tal detalle que es fácil identificar, a partir de sus dibujos, distintos tipos bacterianos como bacilos, cocos y espirilos. Desafortunadamente Leeuwenhoek, a pesar de que en una de sus cartas a la Royal Society “estuvo muy cerca” no llegó nunca a relacionar “bacterias y enfermedad” y para conseguir esto tendrían que pasar todavía entre ciento sesenta y doscientos años, hasta la publicación del trabajo pionero de Agostino Bassi, en 1835, y los de los gigantes de la ciencia Robert Koch y Louis Pasteur algunos años más tarde pero no se le puede negar el mérito de ser el fundador de la microbiología moderna desde la perspectiva de un “simple aficionado”.

Fuentes

http://www.ucmp.berkeley.edu/history/leeuwenhoek.html

http://antonyxleeuwenhoek.blogspot.com.es/?m=0

http://www.nextdoorpublishers.com/2016/06/anton-van-leeuwenhoek-un-hombre-adelantado-a-su-tiempo/

Las “medicinas eléctricas” del siglo XIX

El siglo XIX se destacó por su llamada “época victoriana“, que fue un periodo que correspondió a su segundo cuarto, empezando en el año 1837 cuando la reina Victoria se sentó en el trono inglés y acabando 63 años más tarde, en 1901 cuando cesó el reinado de aquella monarca. En ese tiempo Inglaterra disfrutó de uno de los periodos más prósperos de su historia y una de las modas victorianas fue el empleo de las llamadas “medicinas eléctricas“.

El uso de la electricidad en el cuerpo humano se remonta a tiempos muy antiguos y en el año 46 a.C. Scribonius Largus, médico personal del emperador Claudio ya utilizaba la electricidad con fines terapéuticos

Concretamente él curaba el dolor de cabeza y la gota de sus pacientes ayudándose de las descargas eléctricas que emiten peces como la anguila y el pez torpedo negro

Las terapias eléctricas con estos peces se siguieron utilizando durante mucho tiempo con aplicaciones de descargas al organismo humano para aliviar cefaléas, artritis y otras afecciones, y fue el alemán Johan GottlobKruger (1715- 1759) quien trajo rigor científico al asunto por ser el primero de una saga de científicos que hicieron uso de la electricidad con fines médicos aplicando pequeñas descargas para la recuperación de miembros paralizados.Actualmente las “corrientes de estimulación” se siguen empleando para tratar enfermedades de músculos esqueléticos, desorden del flujo sanguíneo y dolores de causas diversas pero en el siglo XIX el uso de la electricidad se convirtió en una panacea.

En 1818 Mary Shelley imaginó a un doctor que creaba a un monstruo al que dotaba de vida gracias a la electricidad y aquella novela era el reflejo de una época en la que se pensaba que la electricidad era una cosa nueva y maravillosa que lo dominaba todo. Galvani instauró el galvanismo con la posibilidad de revivir músculos, tendones y nervios gracias a unos estímulos eléctricos y al hombre común de la calle de aquellos tiempos le fascinaban los misteriosos poderes de esta nueva fuente de energía y gracias a esta “fe popular” en los milagrosos efectos de la electricidad muchos proveedores de patentes medicinales se aprovecharon del interés del público por la misma (y también de su ignorancia) para lanzar al mercado los más curiosos y variopintos remedios que se basaban en el empleo de la misma. Unido a la famosa “pila” inventada por Volta en 1799 para producir “electricidad artificial“, la misma empezó a utilizarse para vender los más curiosos artefactos.

En la mayoría de ellos se empleaba “la vibración” (una panacea que en aquel siglo parecía curarlo todo) y se desarrollaron vibradores y cinturones eléctricos para la estimulación muscular de las caderas masculinas (con accesorios especiales para el pene) que empleaban comúnmente correas, cadenas, collares o corsés a los cuales se aplicaba una corriente terapéutica al paciente por medio de un paquete de baterías.

Fuente de la imagen

Fuente de la imagen

Aún así hubo “médicos serios” que intentaron usar la corriente eléctrica como una terapia alternativa para el tratamiento de algunas enfermedades degenerativas como la artritis inflamatoria o problemas con las articulaciones. Entre ellos destacó una extraordinaria mujer de la clase media alta victoriana cuyo nombre era Jennie Kidd Trout.

Doctora Jennie Kidd Trout. Fuente

Ella fue la primera mujer cualificada como médico en Canadá y se especializó en el empleo de “baños eléctricos” en una clínica de su propiedad llamada “Therapeutic and Electrical Institute” ubicaba en la calle de Jarvis, 272, de Toronto. Aquella doctora abrió su clínica en 1875 donde podía acomodar hasta 60 pacientes a los que ofrecía un tipo de electroterapia basada el uso simultáneo de agua y corriente eléctrica metiéndolos en un baño a 34 grados Celsius durante 15 minutos mientras les hacía pasar una suave corriente eléctrica a través de su cuerpo .

La doctora Trout ofrecía estas “instalaciones especiales” para dar tratamiento de baños galvánicos e incluso seis meses después de abrir su Instituto, decidió poner un dispensario gratuito para los pobres intentando sufragar los gastos del mismo por medio de los ingresos obtenidos por una serie de conferencias médicas que celebraba en Toronto, Brantford, Richmond y Hamilton. Sin embargo los honorarios de aquellos discursos no le cubrieron los costos de su dispensario y tuvo que cerrar las puertas del mismo en el año 1876.

Ahora vamos al gran “timo” de las medicinas eléctricas de aquel siglo. Fue un invento victoriano llamado “aceite eléctrico” que se publicitó en aquellos tiempos como uno de los más grandes descubrimientos médicos, y que-supuestamente- servía para cualquier cosa que un paciente estuviera sufriendo.

Anuncios de 1875 del almanaque de productos para la granja de John F. Henry.Curran & Co publicitando el aceite eléctrico del profesor De Grath

El “aceite eléctrico” del Profesor C.DeGrath era un aceite que se suponía había sido expuesto a una carga eléctrica antes de ser envasado. Servía para curarlo todo; desde la sordera a la gota, pasando por los chancros en la boca, el dolor de oídos, la rigidez en el cuello y los dolores de cabeza. El autor de su publicidad afirmaba que eran muy numerosos los clientes satisfechos, y que sus curas se debían “al principio sutil al que se hace referencia en su nombre.” Se anunciaba de esta manera :

La electricidad es, sin duda, un agente médico importante. No sólo aniquila el tiempo y el espacio, sino en algunos casos la enfermedad … El profesor De Grath afirma que los elementos sedantes y curativos de su preparación- que son en sí mismos potentes- han sido combinados con habilidad científica rara – corrigiendo su poder que casi se cuadruplica por una peculiar aplicación de la energía eléctrica al conjunto“.

Nadie sabe con certeza quien fue aquel señor De Grath. Algunos lo sitúan en el área de Filadelfia, otros en la década de 1860 nos lo muestran como un residente de la ciudad de Newton, ubicada en el condado de Jasper en el estado estadounidense de Illinois, donde estuvo por lo menos un año o dos. También cuentan que fue un vendedor ambulante que deambulaba por Maryland y Michigan y no he encontrado ninguna imagen de este individuo pese a registrar toda la red pero en fuentes antiguas de prensa se cuenta que tal vez aquel famoso “profesor Charles De Grath” en realidad era un zapatero que vivió en Ontario con una esposa llamada Sabina.

El citado Charles De Grath, cuando inventó su milonga debería de tener unos 35 años y estaba en la lista del censo canadiense de 1852. Se autodenominó “profesor De Grath” y en 1855, escribió un famoso folleto en el que ensalzaba las virtudes de su “aceite eléctrico” de esta manera :

¡Descubierta por fin ! La curación más grande del mundo para el dolor! El aceite eléctrico del Prof. Chales De Grath es la única solución en el mundo para la curación de reumatismo, gota, dolores en espalda, pecho o lado, palpitación del corazón, accidente cerebrovascular paralísis, dolor de muelas, dolor de cabeza, calambres en el estómago, escrófula, manos o pies helado, ojos doloridos, esguinces o contusiones, llagas o quemaduras, rigidez en las articulaciones, neuralgia, dolores de senos o posibles enfermedades que son dolorosas. Ninguno producto es genuino si no lleva la firma del Prof. Charles De Grath con la marca De Grath & Co. ubicada en el número 39 South Eighth Street, tercera puerta por debajo de Chestnut Hill ( un barrio del noroeste de Philadelphia). A los tenderos y distribuidores del país se lo podemos suministrar al por mayor y al por menor. Precios de 25, 50 centavos y 1 dólar por botella.

Una de las botellas donde se envasaba el producto.

Incluso aquel charlatán se permitió en 1863 hacer una publicidad agresiva ofreciendo hasta 100 dólares si su remedio no funcionaba.

Nadie se quejó de aquel remedio y aquella medicina eléctrica fue una panacea de aquel siglo victoriano que se podía tomar ingiriéndolo o frotándolo en las zonas afectadas. El ‘efecto placebo‘ fue tan efectivo que un tal señor Edward Stimble de Filadelfia afirmó haberse curado de sus pies congelados gracias al aceite del señor De Grath y un tal señor Tryon en Nueva Jersey afirmó haberse curado de “una sordera de hacia más de diez años … en presencia de 200 personas,” gracias a aquel aceite eléctrico.

Como todos los embaucadores De Grath empezó a tener problemas y en enero de 1875 un tal Henry E. Bowen presentó una reclamación judicial alegando que “el hombre que se hace llamar Dr. Charles De Grath etiquetas los medicamentos presentados en el almanaque de John F. Henry.Curran & Co violando las leyes de rentas internas por no adherir las estampillas de tasas a algunas de las preparaciones por él vendidas” . En septiembre de 1875, el señor De Grath fue detenido por una orden de extradición del gobernador de Illinois en base a un supuesto perjurio en el condado de Alexander y finalmente murió en algún momento del año 1880 pero “su medicina” siguió vendiéndose por la empresa “The Grath Drug Company” durante bastante tiempo y nadie reclamó nada contra la misma.

Su ejemplo cundió y hubo otras empresas que desarrollaron también el “aceite eléctrico“. Una de ellas fue la “West Electric Cure Co.” que vendió sus productos en la década de 1880 promocionándose como “una perfecta medicina eléctrica“. Las botellas eran de color azul de cobalto y se vendieron en Chicago hacia el año 1888.

También salió la “Brewster’s Medicated Electricity” fabricada por un tal E E Brewster de Holly Michigan a finales de 1880. Se vendía como un remedio seguro para el frío, catarro, fiebre del heno, asma, dolor de cabeza, gripe, etc..en una botella que contenía una batería eléctrica completa con una garantía de dos años.

O el “Hanna’s Electro Silicon Linimentun preparadoInventado por John Hannas, y comercializado por la Electro Silicon Liniment Co. en New York, en los finales de 1870.

En la siguiente noticia se nos cuenta como una madre salvó la vida de su hija pequeña gracias a este “maravilloso producto”

Reseña de prensa de 1877

Hubo muchos más productos “panacea” basados en las ventajas de la electricidad como el “Cornell’s Electric Liniment” de un tal doctor Dr B F Cornell en Edgewood a finales del siglo XIX. Igual que De Grath también ofrecía recompensa a quien demostrara que el producto no funcionaba

O el concentrado eléctrico E.C. Allen. vendido en botellas con colores variados a los que se añadía- supuestamente- hierbas de Árabia y anunciado alrededor de 1856.

Afortunadamente todo aquello se acabó y en el siglo XX cuando la industria farmacéutica eliminó de un plumazo todas las terapias que no se apoyaran en el uso de los medicamentos.

Fuentes:

Professor De Grath’s Electric Oil – L.H. Crawley

“Are the Labels Counterfeit?” New York Times, January 22, 1875, [Ancestry Library ]

“De Grath Remanded For Extradition,” New York Times, Sept. 28, 1875, [Ancestry Library]

John F. Henry, Curran & Co., Farmer’s and Mechanic’s Almanac 1875

Cinco curiosas patentes estadounidenses de finales del XIX

El término patente deriva del latín patens, -entis, que originalmente tenía el significado de “estar abierto, o descubierto” (a inspección pública) y de la expresión letras patentes, que eran decretos reales que garantizaban derechos exclusivos a determinados individuos en los negocios.

En América, las primeras patentes para invenciones fueron expedidas en el año 1641 por los gobiernos coloniales y su primera Ley de Patentes data de 1790 pero el gran auge de la inventiva estadounidense comenzó a fines del siglo XIX y principios del XX donde se produjo el aceleramiento de su industrialización. colocándose a a la cabeza del mundo.

En 1849 su Oficina de Patentes y Marcas Registradas se convirtió en una división del Departamento del Interior de los EE.UU. y por ley una patente podía ser otorgada a cualquier persona que inventara o descubriera cualquier arte, máquina, fabricación o composición de materia útil o cualquier mejoramiento nuevo y útil al mismo. Por eso allí las patente se otorgaron para los más curiosos procedimientos

Cada cual tiene el derecho de ser reconocido por sus inventos pero como “cuando el diablo no tiene nada que hacer, mata moscas con el rabo” entre los finales del siglo XIX y principios del XX hubo personas a las que les dio el capricho de patentar las cosas más raras del mundo. Hoy vamos a repasar cinco curiosas patentes registradas en la Oficina de Patentes y Marcas de los Estados Unidos entre finales del siglo XIX y principios del XX

UNO.-1882: Un ataúd con ‘indicador de vida‘ para salvar a una persona accidentalmente enterrada viva.

La tafefobia o tapefobia, es el miedo a ser enterrado vivo y este miedo se intensificó durante el siglo XIX, sobre todo después del descubrimiento en Europa de la Enfermedad del Sueño africana. El miedo de ser enterrado vivo, es una de las fobias más comunes y en los Estados Unidos se convirtió en una obsesión. El miedo a que los signos vitales de una persona en coma o en ” animación suspendida” no fueran detectados dio origen a diversas patentes para evitar esta situación .

La primera de ellas esas fue concedida a Christian Eisenbrandt, de Baltimore, en 1843, y era una tapa de ataúd con un resorte de manera que el movimiento del cuerpo actuaba sobre un sistema de muelles y palancas que provocaban la apertura instantánea de la tapa del ataúd “. Claro que si el muerto resucitaba una vez enterrado poco había que hacer. Por eso Franz Vester de Newark, Nueva Jersey en 1868, modificó la idea con un tubo cuadrado que iba desde el ataúd a la superficie de la tumba, y un cordón, que se colocaba en la mano de la persona colocada en el ataúd unido a una campana y en 1871, se concedió otra patente a Theodore Schroeder y Hermann Wuest, de Hoboken, Nueva Jersey, para un “detector de vida de ataúdes“, que era simplemente una cadena colocada en la mano del cadáver, de la que si se tiraba, sonaba una campana y soltaba un pestillo que abría el ataúd.

Otra idea patentada por Albert Fearnaught, de Indianápolis, en 1882 consistía en una cuerda atada alrededor de la muñeca del cadáver, que al ser tirada, soltaba una bandera roja con un muelle en la superficie para alertar a cualquier espectador de que el enterrado deseaba salir.

Pero había otras personas más ingeniosas y una de ellas fue John Krichbaum de Youngstown, Ohio que el 5 de Diciembre de 1882 patentó un su ataúd con ‘indicador de vida‘ (Patente No 268693 )

Se trataba de un dispositivo extraño donde la persona enterrada viva podía girar un conjunto de asas para mover un dial por encima del suelo. Una barra colocada en las manos del cadáver se extendía hasta la superficie y terminaba en un recinto de vidrio donde había un puntero con unos números que indicaban cualquier movimiento de la persona enterrada. La cubierta permanecía a la vista de las personas que pasaban y Krichbaum menciona que su dispositivo podía utilizarse para “personas que hubiesen sido enterradas bajo la duda de estar en trance“. El mecanismo también permitía un suministro de aire al ataúd para permitir que la persona enterrada respirase.

Desconozco si el invento de Mr. Krichbaum llegó alguna vez a fabricarse porque no he encontrado ninguna referencia publicitaria del mismo, pero me consta que los funerarios americanos suelen estar bastante seguros de que el cadáver que pasa por sus manos ‘no se va a levantar‘ tras haber terminado su trabajo.

DOS.-1889: un artefacto para permitir que una persona volara con alas de pájaro.

Años antes de que los hermanos Wright comenzaran a jugar con sus máquinas voladoras,un tal Reuben Spalding reportó en un periódico de Colorado haber estado usando un traje de pájaro con el que-según él- “hizo varios vuelos exitosos saltando desde edificios y acantilados” y aparentemente vivió para contarlo . Hay que decir que en aquella época ya había personas como el ingeniero alemán Otto Lilienthal que en 1890 estaban volando con éxito utilizando el ala delta como dispositivo y -concretamente- aquel personaje realizó más de 2000 vuelos controlados desde una colina artificial.

Pero Reuben Spalding era más imaginativo y el 5 de Marzo 1889 patentó su “Flying Machine’ (Patente No 398984 ). En aquella patente Spalding nos mostraba un traje de pájaro que usaba un globo para levantarlo. Su máquina voladora llevaba una chaqueta de cuero adaptada al cuerpo del aeronauta por correas que circundaban sus piernas de modo que proporcionasen una unión importante y sustancial de las alas

Hay informes que dicen que aquel traje fue un fracaso y que estaba hecho de seda roja con plumas de pollo y no existe ninguna evidencia que confirme que el señor Spalding volase con este dispositivo pero hay que reconocerle la originalidad de su idea que recuerda un poco al Falcon de “Los Vengadores

TRES-1896: Un dispositivo que levantaba el sombrero cuando el usuario se inclinaba sin necesidad de usar sus manos

No sé si recordaréis aquella sección llamada «Los grandes inventos del TBO» del dibujante Ramón Sabatés en la revista TBO protagonizada por una criaturas llamada profesor Franz de Copenhague, que con su rostro de calavera, cráneo mondo y unas gafas de Rompetechos, cada semana nos brindaba unos extraños inventos alambicadísimos en los que nunca faltaban poleas, correas de transmisión, manivelas y engranajes. Pues bien, existió en la vida real un hombre que lo imito y que pensó que todas las cosas que nos complican un poco la vida podían solucionarse

En la época victoriana se usaban como señal de cortesía el inclinarse y levantar el sombrero como señal de respeto. –Qué agradable verla en esta hermosa tarde, lady Featherstone -diría el caballero de la figura mientras sacudía su sombrero. pero a veces esta costumbre era tremendamente pesada y eso de tener que levantar el sombrero cada vez que alguien pasaba a nuestro lado podía llegar a ser un suplicio ¿Y si teníamos nuestras manos ocupadas llevando paquetes en ese momento?

Por eso un tal James C.Boyle de Spokane, Washington, patentó un “dispositivo de saludo automático” el 10 de Marzo de 1896 para realizar automáticamente aquellos saludos corteses de elevación del sombrero de la cabeza hecho por una persona al inclinarse ( Patente No 556248 ).

El dispositivo se denominaba “Saluting Device” y su inventor lo describía como un ‘dispositivo novedoso para efectuar automáticamente salutaciones corteses por la elevación del sombrero de la cabeza cuando la persona se inclinaba hacia la persona o personas saludadas”. El accionamiento del sombrero se realizaba por un mecanismo sofisticado que no requería el uso de las manos de su propietario.

Se trataba de un curioso sistema con un mecanismo que al inclinar la cabeza hacía que un peso se moviera hacia delante y empujara una varilla hacia atrás que liberaba un perno sobre el que se sustentaba el elemento de elevación. Cuando la persona reanudaba su postura erguida aquel peso oscilaba de nuevo y volvía a su posición normal.

Aunque no tengo noticias de que el señor Boyle se hiciera rico con su invento tengo que reconocer que el profesor Franz de Copenhague no podría haber superado el ingenio de aquel hombre.

CUATRO.- 1908-1911: dos patentes para combatir la masturbación

En la época victoriana se vio a la masturbación casi como la raíz de muchos de los problemas del mundo y varios libros de medicina del siglo XIX la describen como causante directa de locura pasiva y de pérdida del cabello.Algunos textos incluso la consideraban una práctica potencialmente mortal. Por eso se patentaron algunos curiosos dispositivos para evitarla. Vamos a ver dos de ellos

El primero de ellos fue “la armadura sexual” (Sexual Armor) inventada por la enfermera estadounidense Ellen E. Perkins y patentada el 7 de enero de 1908 ( Patente No 875845 ).

Estaba diseñada para ser usada por pacientes de asilo en hombres y mujeres y para prevenir la masturbación. El dibujo muestra el dispositivo aplicado a una persona y como vemos se trataba de una prenda flexible con una entrepierna metálica y una cerradura que impedía la manipulación genital del sujeto que la portaba

El segundo era un dispositivo diseñado por Jonas E. Heyser y patentado el 20 de Junio de 1911 para prevenir que los pacientes de salud mental se masturbasen ( Patente No 995600 ).

Como puede verse era una ‘obra de arte’ en la que el pene y los testículos estaban atrapados dentro de unos los bolsillos metálicos con ranuras para la ventilación y el escape de orina y que hacían imposible una ereccion. Aquellos dispositivos me recuerdan a aquel otro adminículo del siglo XV llamado cinturón de castidad y que consistía en una braga de hierro con púas que el marido imponía a la esposa mientras él se iba a la guerra llevándose la llave para que la mujer estuviera “protegida” y no cayera en la tentación de un escarceo sexual

CINCO: 1910: Un dispositivo para lavar los senos de las mujeres

El francés Alexis Mantelet era un hombre aparentemente obsesionado con los pechos femeninos y la limpieza de los mismos y en 1910 presentó la solicitud de patente de un dispositivos para lavar el seno femenino. Lo llamó “ducha de mama” y consistía en una manguera larga y un grifo, conectada a una caja de alojamiento que contenía “dos o preferiblemente tres anillos de chorros fuertes“. Registró su idea en la Oficina de Patentes de los Estados Unidos ( Patente No 973445 ).

El aparato comprendía dos anillos:uno de ellos formaba la base del aparato y se aplicaba sobre el seno de la muje. El otro anillo, situado a pocos centímetros del primero, era un tubo circular con agujeros a través de los cuales se descargaban los chorros de agua. En la memoria se incluía un dibujo que ilustraba la manera de utilizar aquel aparato y Mantelet afirmaba que “una ducha completa, vigorosa y abundante sobre toda la superficie del pecho da resultados muy deseables” pero 17 años después, había cambiado algunas de sus opiniones y presentó una segunda patente en abril de 1927, porque- según sus propias palabras, los duros chorros de agua de su primer invento producían “un exagerado masaje de las fibras musculares de las glándulas mamarias“, pero aunque ambas patentes le fueron concedidas, aquellas duchas mamarias” de Mantelet nunca llegaron al mercado.

Como veis cinco patentes surrealistas en las que parece que todo vale. Una serie de patentes históricas que nos muestran invenciones ridículas y prueban el que en las postrimerías del siglo XIX había gente con mucho tiempo libre.

Fuente: Dailymail y elaboración propia

http://www.dailymail.co.uk/sciencetech/article-3079732/From-sex-armour-CHICKEN-spectacles-wacky-inventions-never-quite-revealed-19th-century-patents.html

La construcción de los puentes romanos en Hispania


Los romanos fueron los primeros que se tomaron en serio eso de construir puentes. El puente romano es una obra en la que se aprecia el carácter eminentemente práctico de sus constructores y su gusto por las cosas sencillas y bien ejecutadas. En Roma era costumbre que el maestro de obras se colocase bajo las bóvedas y arcos del puente para que si la construcción saliese defectuosa al retirar la cimbra fuese el primero en morir. Por eso, los puentes romanos son tan sólidos que muchos de ellos aún se siguen utilizando en nuestros días.

El puente romano más habitual que conocemos está construido con materiales pétreos, pero esto no siempre fue así y en numerosos ocasiones se construyeron puentes con materiales menos duraderos como la madera; no quedan muchos restos o noticias de los mismos pero tenemos una estupenda fuente de información sobre los que fueron construidos en las campañas militares en la Columna de Trajano que se conserva en el Foro Imperial de Roma.

En dicha columna y labrado en su fuste se pueden ver diversos modelos de puentes ejecutados con barcas y plataformas de madera. Estos puentes de vigas de madera sobre caballetes son similares al que construyó Julio Cesar sobre el Rin y que describió con gran detalle en su obra “La guerra de las Galias

También en esta columna aparece un relieve del puente construido por el arquitecto Apolodoro de Damasco sobre el río Danubio que se hizo para llevar suministros a las legiones romanas que habían invadido Dacia. Durante más de mil años aquel fue el puente más largo jamás construido y estaba formado por veintiún arcos rebajados de celosías de madera de 32,50 m de luz libre – una de las mayores luces alcanzadas por los ingenieros romanos- apoyándose en pilas macizas de piedra de 44 metros de altura.

Como aquellos puentes adolecían de fragilidad, los romanos pronto dejaron de usar la madera y empezaron a usar la piedra para construimos, un material que se extraía de canteras próximas y que se empleaba en forma de grandes bloques escuadrados (sillares) para formar los paramentos externos, rellenándose el interior con mortero cementado con puzolana. Para izar estos bloques se empleaban grúas, movidas por esclavos, situados dentro de una rueda. 

El diseño más básico consistía en uno o varios arcos de medio punto (semicirculares) que se apoyaban sobre pilares alineados sobre una estructura de arcos por la que discurría la vía que atravesaba el río. A menudo construían en los pilares, tajamares salientes y a contracorriente, para reducir la erosión producida por el agua

La construcción de un puente romano empezaba por sus cimientos. Primero se seleccionaba el terreno más firme y se comprobada la resistencia del subsuelo, tras ello se colocaban las 'ataguías' que eran unas empalizadas dobles, cilíndricas o prismáticas, hechas de troncos, firmemente clavados en el suelo y unidos e impermeabilizados mediante pez y arcilla, y luego se hacía un interior estanco extrayendo el agua mediante un tornillo de Arquímedes

El tornillo de Arquímedes era una pieza clave para estas construcciones. Se trata de una máquina gravimétrica helicoidal basada en un tornillo que se hace girar dentro de un cilindro hueco, situado sobre un plano inclinado. Esta máquina permite elevar el cuerpo o fluido que se encuentre por debajo del eje de giro de este tornillo.

Aunque esta máquina lleva el nombre de Arquímedes, en realidad no fue un invento suyo ya que excavaciones recientes han establecido que los tornillos más antiguos, capaces de acarrear agua cuesta arriba, ya fueron usados para mantener frescos los Jardines Colgantes de Babilonia en el siglo VII antes de Cristo. El instrumento es tan efectivo que hoy en día aún se sigue usando en plantas de aguas residuales (depuradoras), diques para riego, bodegas (para transporte de la uva), y máquinas expendedoras de alimentos y bebidas.

Se le imputó este invento a Arquímedes de Siracusa porque él lo usó en el siglo III antes de Cristo, para sacar el agua de los navíos. Se cuenta que la gran pasión del rey Hiero II eran los barcos, por lo que se hizo construir el navío más grande de su época, el Syrakosia pero al botarlo lo embarrancó y Arquímedes a quien se le atribuye aquella famosa frase de “dadme un punto de apoyo y moveré la Tierra” le ofreció a este rey su ayuda afirmando que podía sacar el barco. El rey aceptó el reto, y Arquímedes aplicando los grandes conocimientos que tenía sobre las máquinas simples, utilizó un sistema de palancas y poleas con el citado tornillo para poner en práctica su teoría y pudo desencallar aquel navío

Así es como empezaban los romanos la construcción de sus puentes. Del interior estanco que quedaba tras la extracción del agua por el 'tornillo de Arquímedes' y en el interior de las ataguías se procedía a la construcción de los pilares que los canteros construían hasta el nivel de las impostas, las repisas salientes que marcaban el comienzo de los arcos.

Dejaban entonces paso, durante algún tiempo, a los carpinteros que colocaban las cimbras, una tablazón que servía de apoyo a la construcción de los arcos y que luego se retiraba una vez terminados los mismos. Sobre las cimbras se construían los arcos, y se disponían las dovelas hasta completar la curva.Terminados los arcos, se terminaba la superficie de la calzada,

En el caso concreto de los puentes de Hispania, se aprecia un deseo de los constructores romanos de darles unas dimensiones armoniosas, conseguidas, en ocasiones, por la igualdad de las luces de sus arcos, la simetría formal de sus alzados y las proporciones entre sus elementos. Se ha tratado de buscar un módulo constructivo en los puentes romanos de Hispania y hay que decir que las relaciones entre el módulo y las partes de la construcción de un puente romano se expresaban por números racionales, enteros, decimales o fracciones.

También se usaron los números irracionales, como √2, la diagonal de un cuadrado de lado unidad, y √5, valor obtenido en la generación sucesiva de diagonales de rectángulos de altura unidad y bases igual a √2, √3, y √4; que también están en el 'número de oro' representado desde el siglo XIX por la letra griega Φ y cuyo valor aproximado de 1,618 se obtiene a partir del cociente de dos partes de un segmento, A y B siendo A la mayor: A/B = A+B/A = (1+√5)/2 = Φ.

Estos números irracionales, como el mencionado √5 y el número de oro Φ se hallan en la construcción de los puentes romanos en Hispania en los que hay una relación con base en esos citados números irracionales. Veamos un par de ejemplos

PRIMERO: El Puente Romano de Bibei construido para el paso de la “Vía Nova”, que aún conserva la mayor parte de su fábrica primitiva y que es uno de los pocos puentes romanos acabados que se conservan en Galicia, tal ver uno de los mejor conservados de España hasta el punto de que desde el siglo pasado, la carretera N-120 (actual C.536) pasa por él para cruzar el río Bibei.

En esta obra la anchura de las pilas se basarían en dos números, el 6 y el 10-según Vitrubio dos números perfectos– el diez más antiguo, procedente del mundo griego y el seis, base de muchas relaciones de medidas. sin duda realizada con ayuda de la geometría. En el Ponte Bibei, la luz del arco menor izquierdo (6,20 m) es √2 el módulo (anchura de la pila contigua de 4,40 m), la luz del arco derecho (8,70) es el doble de este valor (√2x√2 ) y la luz central (18,60 m) tres veces la √2 del mismo (3x√2) o lo que es lo mismo el triple de la luz del arco izquierdo.

SEGUNDO: El Puente Romano de Alcántara uno de los puentes romanos más relevantes que quedan actualmente en todo el mundo y que es una de las obras de ingeniería más importantes de la Hispania romana.

Este puente fue construido entre los años 105 y 106 dC (principios del siglo II dC ) por el arquitecto romano Cayo Iulio Lacer para salvar el cauce del río Tajo y con el objetivo de facilitar la comunicación entre Norba (la actual Cáceres) y Conimbriga (la localidad portuguesa de Condeixa-a-Velha). Tiene una longitud de 214 metros sobre el citado río Tajo y se apoya sobre cinco pilares de diferentes alturas que se adaptan al terreno.

Los dos arcos centrales tienen una anchura de casi 30 metros y la altura es también impresionante, unos 48 metros en sus arcos centrales. En esta obra la anchura de las pilas es una medida de valor 9,20 pies, quizá materializada en una vara usada por el arquitecto o constructor como base unitaria de las dimensiones de la obra. El uso de este tipo de instrumento ya está atestiguado en la Biblia en el libro de Ezequiel (40,2 y ss) donde se habla de un personaje con una cuerda de lino y una vara de medir de unos cuatro metros que empleaba para mensurar el Templo.

En este puente las luces de los arcos primero y segundo, comenzando por la margen izquierda, están relacionadas según la sección áurea. Recordemos que la misma hace referencia a una proporción entre medidas consistente en la división armónica de una recta en media y extrema razón. Esto hace referencia a que el segmento menor es al segmento mayor, como éste es a la totalidad de la recta. Supone cortar una línea en dos partes desiguales de manera que el segmento mayor sea a toda la línea, como el menor es al mayor

Con estos ejemplos podemos ver cómo en Roma la ingeniería y la arquitectura iban indisolublemente unidas y ambas eran una misma profesión y los puentes romanos son un paradigma de buena construcción, ejecutada de manera sólida y estable y con la clara intención de que durasen mucho tiempo. El arquitecto del puente de Alcántara Caius Iulius Lacer así lo dejo inscrito afirmando que levantó la obra para que durase “por siempre en los siglos del mundo

Fuentes:

Alvarado, S., Durán, M., Nárdiz, C.: Puentes históricos de Galicia. Xunta de Galicia-Colegio de Ingenieros de Caminos,C. y P. Santiago de Compostela, 1990.

Liz Guiral, Jesús: El Puente de Alcántara: Arqueología e Historia. Cehopu – Fundación San Benito de Alcántara. Madrid, 1988.

Fernández Casado, Carlos: Historia del puente en España: Puentes romanos. Instituto Eduardo Torroja. Madrid, 1980.

Adam, J.P. (1989) [1996]. La construcción romana. Materiales y técnicas. León: Editorial de los Oficios.

Dilke, O.A.W. (1987). Mathematics and measurement. Londres: Publicaciones del Britih Museum.

Durán Fuentes, M. (2002). “Análisis constructivo de los puentes romanos”. Actas del I Congreso: las obras públicas romanas en Hispania. Mérida.

Las aterradoras muñecas de Edison

En 1988 se estrenó ‘Chucky: El muñeco diabólico‘  bajo la dirección de Tom Hoolland que contaba la historia de un muñeco poseído por el espíritu de un asesino. Fue un clásico del terror filmado hace casi tres décadas, pero sus imágenes siguen asustando a los niños en todo el planeta. 

Hoy en día se intenta que los juguetes sean atractivos y bonitos para que los niños se queden prendados de ellos al momento pero en el pasado los niños no tenían tanta suerte ya que no había un control exhaustivo de los juguetes. Por eso algunos de los que se comercializaban eran más perturbadores que educativos, e incluso podían crear un trauma a sus potenciales usuarios.

Un muñeco puede ser aterrador y un buen ejemplo fue uno que se fabricó imitando el rastreo en los niños. Esta forma de moverse de un bebé hasta el siglo XVII fue considerado como algo “antinatural” y los puritanos de aquel tiempo lo consideraban como algo degradante para el ser humano y más propio de las crías animales; sin embargo a comienzos del siglo XIX ya se planteó la cuestión de que a los bebés se les debía de permitir arrastrarse y a mediados de la década de 1800, esto ya era visto como algo normal de la infancia. Por eso en la época victoriana alguien pensó en hacer un juguete que imitase el gateo de un bebé  sin pensar que un muñeco que se arrastra por el suelo puede dar mucho miedo.
En los Estados Unidos a finales del siglo XIX ya se producían en serie muñecos con elementos mecánicos accionados por mecanismos de relojería y un tal Robert J. Clay decidió usar uno de estos sistemas para desarrollar un muñeco que imitaba el rastreo de los niños. Lo patentó el 14 de marzo de 1871 (Patente No. 112.550)

El artilugio se denominaba ‘Creeping Baby-Doll‘ y el dibujo anterior es parte de su memoria descriptiva. En la figura 1 se ve una vista lateral del juguete y en la 2 su sección transversal. La idea consistía en un tronco donde se insertaba una cabeza a la que se añadían brazos y piernas con articulaciones unidas por una varilla con un mecanismo de relojería formado por un muelle enrollable unido a unas ruedas. El eje de la manivela hacia oscilar las piernas y brazos del muñecos y así se imitaban los movimientos de un bebé que se arrastra sobre el suelo. El inventor explicaba en su memoria que se trataba de “un juguete muy divertido producido con un bajo coste

Incluso uno de sus subordinados llamado George P. Clarke patentó una mejora del modelo original de Clay ( Patente No 118.435 de fecha 29 de agosto de 1871)

Cualquier niño normal pienso que se asustaría al ver estos extraños artilugios arrastrándose hacia él  pero hay que decir que aunque ninguno de estos prototipos tuvieron el éxito esperado por sus inventores alguien siguió pensando que los niños nunca se asustan y desarrolló otro perturbador juguete para ellos. El autor de este desaguisado fue Thomas Alva Edison, un empresario estadounidense que patentó más de mil inventos

Fuente
Edison inventó el fonógrafo para grabar y reproducir el sonido en 1877 en su laboratorio en Menlo Park, Nueva Jersey y pensaba usarlo para hacer un juguete que hablase, pero fue otro quien lo inventó. Su nombre era William W. Jacques y era un ingeniero eléctrico y químico que desarrolló un prototipo de muñeca parlante basada en el fonógrafo original de papel de estaño de Edison. Junto con un socio llamado Lowell C. Briggs fundó en Boston en el año 1887 la Edison Phonograph Toy Manufacturing Company cuyo objeto social era la fabricación de aquellas muñecas habladoras y ofrecieron a Edison que a cambio de prestar su nombre al producto, ellos le entregarían un paquete de acciones de la compañía por los derechos de autor

El documento de la imagen es uno de los certificados de aquellas acciones y lleva las firmas del entonces Presidente de aquella Compañía, William W. Jacques actuando como Secretario su socio Lowell Briggs . Está impreso por la American Bank Note Company de Nueva York y lleva unos bordes a su alrededor adornados con ilustraciones de Santa Claus y sus renos. Edison aceptó- en un principio- aquellas acciones pero luego le gustó tanto la idea de fabricar aquellas muñecas que le hizo una fea jugada a sus socios y antes de comenzar la producción, alegó la propiedad de su marca registrada para hacerse cargo de la compañía, expulsando a William W. Jacques que pasaría años demandándolo.

Cadena de producción de las muñecas de Edison

La muñeca producida se denominó ‘Screamy Jack Murder‘ y era un juguete con un tamaño bastante grande, ya que medía algo más de medio metro, y tenía un peso de 1,8 kilos con cuerpo metálico y brazos y piernas articulados, de madera. En su interior llevaba un cilindro de cera para ser usado por un fonógrafo en miniatura de Edison.

Su pectoral era de metal con una serie de agujeros por los que salían las palabras que reproducía el pequeño fonógrafo de su interior grabadas en un cilindro de cera operado por una llave que estaba ubicada en la espalda de la muñeca. Se trataba de un fonógrafo diminuto, con un pequeño cuerno que apuntaba hacia los agujeros de su pecho y que recitaba una rima infantil pre-grabada de una duración de seis segundos. 

Por encima del cilindro de registro había un diafragma, con el lápiz de reproducción. Al girar la manivela un estilete se insertaba en el fonógrafo y al llegar al final de la grabación una palanca hacia que se devolvíera el estilete de reproducción hasta su posición inicial. 
Entre septiembre y noviembre de 1888, Edison finalizó el prototipo de sus fonógrafos para grabar las voces de aquellas muñecas y sustituyó los cilindros de estaño por otros de cera. No se sabe bien la razón de aquella decisión, pero está claro que no fue una buena idea porque las agujas de acero del estilete del fonógrafo desgastaban el cilindro de cera donde iba la grabación y muchas veces las muñecas llegaban a los proveedores con sus cilindros de grabación rayados por los movimiento durante el transporte. 

Para la grabación de los sonidos de las muñecas, Edison contrató a varias mujeres a las que pidió que hablaran “con voz infantil” a sus fonógrafos y las mismas repetían frases como : “Mary tenía un pequeño cordero“, “Jack y Jill“, “Little Bo-peep” y otras historias hasta un total de doce recitaciones disponibles en la fábrica de fonógrafos. 

Las primeras muñecas parlantes salieron al mercado el 7 de abril de 1890 y eran un juguete caro. El modelo básico, vestido con una camisa sencilla, costaba 10 dólares de aquel tiempo y el modelo más elaborado que llevaba un vestido victoriano tenía un precio que oscilaba entre los 20 y los 25 dólares.


Para entender lo caras que eran aquellas muñecas solo hay que decir que 10 dólares de 1890 suponían el sueldo de dos semanas de un obrero y que su precio equivalente actual sería del orden unos 200 dólares (casi 175 euros).

Caja de presentación de la muñeca

Y los pobres niños-ricos que tuvieron la mala suerte de que sus padres les compraran una de aquellas muñecas se encontraron con un aterrador juguete que les producía unos sonidos deformados que unidos a los propios del fonógrafo en la reproducción causaban un verdadero pandemonio. El problema también se agravaba porque al no llevar aquel juguete un motor de resorte, el niño debía girar la manivela trasera de la muñeca a mano y con una velocidad constante para oír sus palabras y el sonido que emitían daba realmente miedo. Hasta el propio Edison tuvo que reconocer que el sonido de su muñeca Cathy no era bueno afirmando que “las voces de sus pequeños monstruos eran sumamente desagradables de escuchar” 

Se vendieron menos de 500 de aquellas muñecas y la mayoría de ellas fueron devueltas a la empresa porque eran un producto malo y con un desorbitado precio. Al final y hacia los últimos días de mayo de 1890 la compañía juguetera de Edison tuvo que detener la producción de sus juguetes y antes de 1896, todos los fonógrafos no vendidos para aquellas muñecas fueron destruidos.

La moraleja de esta historia es que hay juguetes que para los niños resultan más aterradores que adorables y no hay nada peor que recibir un muñeco que produzca pesadillas y recuerdos de terror a los niños.

Fuentes:

Red Historia
The History Blog
American History
Museo Digital
Scripophily.net

Sobre cabezas cortadas

Ya está anunciado el estreno de la temporada 7 de ‘Juego de Tronos’, una serie donde abundan las ejecuciones por decapitación. Estudiar la decapitación es un tema espinoso porque existen muchas leyendas urbanas sobre este tema y algunas afirman que la muerte podría no ser inmediata. Incluso en el año 1905, el médico francés Gabriel Beaurieux ya describió unas observaciones sobre la cabeza cortada del asesino Henri Languille afirmando que pronunció su nombre en voz alta y que sus ojos se fijaron en los suyos.

La decapitación, mediante espada o hacha, siempre fue un privilegio reservado a los nobles pero con el problema de que la misma requería una gran habilidad por parte del verdugo para realizar esta ejecución y si el mismo no era experto a veces los repetidos intentos del mismo para cercenar la cabeza del condenado, daban lugar a escenas dantescas; eso fue lo que le pasó a Thomas Cromwell cuando Enrique VIII lo condenó a muerte por alta traición y el 28 de Julio de 1540 fue ajusticiado en la Torre de Londres por un verdugo adolescente e inexperto que tuvo que hacer tres intentos para decapitarlo.

Sin embargo la decapitacion empezó a considerarse como ‘muerte digna’ cuando en el siglo XVIII los doctores Joseph Ignace Guillotin y Antoine Louis, junto con el artesano y mecánico de origen alemán Tobías Schmidt, desarrollaron y pusieron  en marcha el invento de la guillotina en Francia. 

Joseph Ignace Guillotin (1738-1814). Museo Carnavalet, París

Guillotin era uno de los diez diputados que representaban a París en la Asamblea Nacional Constituyente, de 1789 y propuso a la misma que todos los condenados a muerte fueran decapitados por una máquina que asegurara su muerte de la forma menos dolorosa posible. Al principio, no le hicieron mucho caso y tuvo que insistir, y esperar hasta que a finales de 1791 se aprobó la ley por la que todos los condenados a muerte en Francia debían ser decapitados, para que la pena de muerte fuera igual para todos, sin distinción de rangos ni clase social”, y se ordenó la fabricación de una máquina para ello. 

Las máquinas para decapitar ya existían en Alemania, Italia, Escocia y Persia y en la antigua Roma se utilizaba un primitivo antecedente de la guillotina. Guillotin tomó como modelo esos antiguos instrumentos de ejecución como la mannaia utilizada en Italia desde el s. XV, el Halifax gibet usado en Inglaterra o el maiden de Escocia que se empleaban para ejecutar sólo a los aristócratas o clérigos cuando por sus acciones se les consideraba reos de la pena capital y modificaron hábilmente aquellos prototipos aplicando sus conocimientos anatómicos y quirúrgicos para crear su máquina cortadora de cabezas. 

Construyeron el primer modelo en 1792 que fue presentado por el Dr. Guillotin a la Convención (hay un célebre cuadro de Herterich que plasma este histórico momento) y este fue el informe razonado sobre el modo de decapitación emitido por el Doctor Louis el 17 de marzo de 1792.

Las “mejoras” más significativas de esta nueva máquina para decapitar se basaban en la altura desde la que caía la cuchilla de acero y el elevado peso de ésta, que garantizaban una velocidad y fuerza adecuadas, además del ángulo de 45 grados de su borde, que facilitaba el “corte”. 

Al principio, llamaron a la máquina “Louisette” o “Louison“, no se sabe si por el nombre del cirujano Antoine Louis -como dicen unos- o “en honor” del Rey; aunque esos nombres no tuvieron éxito entre el pueblo, que prefirió llamarla guillotina.

El primer ejecutado en la guillotina fue un bandido llamado Nicolas Jacques Pelletier, el 27 de mayo de 1792 y el último guillotinado en Francia fue Hamida Djandoubi, el 10 de septiembre de 1977. Existe una leyenda urbana que afirma que Guillotin murió por su propio invento pero nada más falso porque aunque llegó a estar encarcelado, durante el “reinado del terror”, fue liberado tras la caída política de Robespierre y murió en su domicilio de París, el 25 de febrero de 1814, a consecuencia de una infección por carbunco en su hombro izquierdo.

Monsieur Guillotin, modificó la cuchilla horizontal por otra de forma oblicua, obteniendo una mayor efectividad en el corte y el resultado final fue que la cuchilla al caer sobre el cuello de ajusticiado separaba la cabeza del tronco a la altura de la cuarta vértebra cervical. Así se pudo alcanzar una “muerte limpia” y sin grandes sufrimiento. Ciertamente durante el instante en el que se cercenan los huesos que unen la cabeza al cuerpo, se debe de producir un gran dolor, pero este será breve, ya que en un par de segundos el ejecutado caerá inconscientes por el efecto de la hemorragia, 

Todas las pruebas biológicas y médicas disponibles indica que los procesos conscientes en el cerebro humano cesan casi simultáneamente con la separación de la cabeza del cuerpo y esto ya se demostró en 1939, por los editores de la revista Journal of the American Medical Association en un relato titulado Decapitation and consciousness por la pregunta de un lector que planteaba la cuestión de si se podía saber cuánto tiempo podían vivir una cabeza y un cuerpo separados.

La opinión más reciente basada en evidencias prácticas la podemos leer en un estudio sobre ratas decapitadas publicado en el año 2011 por Clementina van Rijn y sus colegas de la Radboud University en Holanda en un trabajo en el que registraron la actividad eléctrica superficial de los cerebros de unas ratas decapitadas antes y después del golpe de gracia. Aquellos investigadores holandeses colocaron electrodos en el cerebro de ratas sanas y las decapitaron con una guillotina para estudiar lo qué sucedía en su cerebro durante los segundos y minutos siguientes. Los resultados mostraron que la actividad cerebral disminuyó con rapidez y a los 4 segundos se redujo a la mitad. Este nivel de actividad se considera semejante al de la inconsciencia profunda.

La lectura de este estudio muestra que la decapitación causa un sufrimiento mínimo comparado con el de otros métodos y aquellas crónicas de la Revolución francesa que afirmaban que las cabezas de los guillotinados seguían conscientes más de treinta segundos después de la decapitación, son totalmente falsas. 

Cortar cabezas siempre ha sido una tradición en la historia de la Humanidad y aunque al principio solo se hacía con crimínales y maleantes algunos países decidieron utilizar esta práctica para acabar con tiranos y déspotas, logrando hacer progresar a sus pueblos. Me quedo mas tranquilo sabiendo que aquellos ejecutados no sufrieron tanto como yo pensaba 

Fuentes:

José Ramón AlonsoLa nariz de Charles Darwin

https://es.wikipedia.org/wiki/Decapitación

https://es.wikipedia.org/wiki/Guillotina

El secreto de las emociones humanas 

En mi anterior post «El síndrome del zombi » os hablaba de la distorsión de la realidad provocada por un mal funcionamiento de la parte de nuestro encéfalo asociada al procesamiento de las emociones llamada sistema límbico y fue el naturalista Charles Darwin el primero que propuso que las emociones evolucionaron porque ‘eran adaptativas‘ y eso permitió a los humanos y a los animales el poder sobrevivir y reproducirse. 

En realidad las emociones ejercen una fuerza muy poderosa en el comportamiento humano porque gracias a ellas podemos tomar acciones afectivas o defensivas. De acuerdo con la teoría de la evolución las emociones nos motivan para responder rápidamente a los estímulos de nuestro entorno y esto nos ayuda a mejorar nuestras posibilidades de éxito y supervivencia. 

Hay emociones como el amor y el afecto que llevan a los seres humanos a buscar compañeros y a reproducirse y otras como el miedo que los obligan a luchar o a huir de un peligro. Precisamente esta última-el miedo- es una de las más poderosas porque  ocasiona en nuestro organismo unas respuestas físicas ante las señales de peligro que activan los mecanismos de defensa de nuestro cuerpo.

Diversos investigadores, filósofos y psicólogos han propuesto a lo largo del tiempo diversas teorías para explicar el origen de las emociones humanas y una de las primeras fue la ‘teoría de James-Lange‘ propuesta por el psicólogo William James y el fisiólogo Carl Lange que de forma independiente, y entre los años 1884 y 1887 sugirieron que las emociones humanas eran el resultado de ‘reacciones fisiológicas‘ ante distintos eventos. 


La idea de esta teoría se basaba en que un estímulo externo era lo que conducía  al cuerpo a una reacción fisiológica; por eso, si como consecuencia de un ataque de pánico nos ponemos a temblar, para James y Lange esa reacción física hacia que nos llevase a una conclusión equivocada. Pensamos: “estoy temblando y por tanto estoy asustado” pero para ellos en realidad ‘no tiemblas porque estés asustado sino que lo estás precisamente porque estás temblando‘.

Es decir que ellos contemplaban la emoción como un proceso que se derivaba de una serie de estímulos físicos . Con la teoría de James-Lange se intentaba decir que después de la percepción de un estímulo (una mala noticia, un imprevisto diario, recibir un regalo etc ) nuestro cuerpo genera una serie de respuestas fisiológicas y motoras, y son ellas las que nos producen la experiencia de un sentimiento. Por tanto la ‘activación fisiológica‘ es la condición necesaria para que exista una respuesta emocional.

Pero llegó Walter Cannon, un fisiólogo estadounidense, pionero en el uso de rayos X que empezó a pensar diferente. Este hombre empezó a ocuparse de las emociones y estudió como las mismas afectaban sistema nervioso autónomo, lo que le demostró que las personas pueden experimentar reacciones fisiológicas vinculadas a sus emociones antes de llegar a sentir las mismas. Por ejemplo, un corazón puede acelerarse porque se ha estado haciendo ejercicio, pero eso no significa que su propietario tenga miedo, en cambio si él mismo se encuentra ante un peligro, que le produce ese miedo, va a experimentar los síntomas físicos asociados al mismo y sus manos temblaran , su respiración se acelerará y su ritmo cardíaco aumentará.

Canon propuso su teoría en la década de 1920 y su obra fue ampliada posteriormente por Philip Bard un psicólogo estadounidense cuyas investigaciones se centraron en las funciones del sistema nervioso, especialmente en cómo el cerebro media en el control de las emociones y retomando las propuestas de su maestro Walter Cannon las amplió en lo que se conoce como “Teoría de Cannon-Bard” formulada durante la década de 1930 que asocia las emociones a las reacciones fisiológicas tales como sudoración, temblores o tensión muscular.
Walter Cannon y Philip Bard descubrieron que el tálamo y el hipotálamo son los centros que regulan las actividades nerviosas y pensaron que era el primero el que tenía el papel central en la conducta emocional. Más específicamente, sugirieron que las emociones resultaban al enviar el tálamo un mensaje al cerebro en respuesta a un estímulo, lo que resulta en una reacción fisiológica. Este sería el proceso : 

Veo una serpiente -> Siento temor ->  empiezo a temblar

Es decir que los sentimientos de miedo y las reacciones físicas ocurren al mismo tiempo. Sus propuestas provenían de estudios que mostraban que la estimulación del hipotálamo posterior y las regiones mesencefálicas adyacentes en ratas provocaba siempre reacciones de ira y ataque, acompañadas de reacciones de tipo simpático como taquicardia y secreción de adrenalina. Por tanto conforme a la teoría de Cannon y Bard la experiencia física y psicológica de las emociones ocurren al mismo tiempo y una no causa la otra como pensaban James y Lange.

Sea como sea, la realidad es que es nuestro cerebro quien recibe las señales que desencadenan una experiencia emocional y ante un peligro produce la respuesta del sistema nervioso simpático que se activa debido a la repentina liberación de hormonas como adrenalina y noradrenalina. Esto se traduce en un aumento de la frecuencia cardíaca, la presión arterial y el ritmo respiratorio; los ojos se abren más de lo normal y se amplia el campo visual y la sensibilidad ocular con objeto de identificar el peligro que nos rodea. Incluso después de que la amenaza se ha ido, aún se tardan entre 20 y 60 minutos para que el cuerpo vuelva a los niveles previos a la excitación.

La primera evidencia que relacionó al sistema límbico con las emociones está registrada en el año 1955, cuando Heinrich Klüver y Paul Bucy describieron un síndrome conductual inducido en monos de laboratorio. En sus experimentos observaron que aquellos monos, que eran tranquilos en extremo, sufrían cambios emocionales como agresividad y pérdida del miedo tras ser sometidos a una lobotomía bilateral de los lóbulos temporales y a partir de aquí se empezó a descubrir la importancia de una de las partes más antiguas de nuestro cerebro en las emociones : el sistema límbico 

Fuente
Se trata del cerebro primitivo que dominó el mundo durante millones de años y que rige los movimientos de acercamiento, alejamiento, defensa y ataque. Es un sistema que interacciona muy velozmente y al parecer sin necesidad de mediar con estructuras cerebrales superiores. Allí  se encuentra el secreto de las emociones humanas, desde las reacciones de nuestro cerebro ante una situación de pánico o las fobias irracionales. Todo está en un pequeño órgano conocido como amígdala, una estructura en forma de dos almendras que se conecta con otras estructuras como el hipotálamo, el núcleo septal, el área prefrontal y el núcleo medio dorsal del tálamo

Estas conexiones hacen que cumpla una importante función en la mediación y el control de las actividades afectivas más importantes como la amistad, el amor y el afecto, y en la expresión de los estados de ánimo, miedo, ira y agresión. La amígdala, según las últimas investigaciones pasa a ser el centro de la identificación de cualquier emoción y un ‘botón de emergencia’ de nuestro cerebro que en caso de que nos aceche un peligro inminente, activará la señal que se reenviará inmediatamente al resto del cuerpo.

Por eso si estás solo en casa, escuchas un ruido y distingues una sombra detrás de una ventana, antes de que ni siquiera comprendas que se trata de un ladrón que quiere asaltar tu hogar, tu cerebro ya habrá desatado a través de la amígdala una respuesta masiva de pánico sin que tú lo controles. El equipo del neurobiólogo David J. Anderson, del Instituto Tecnológico de California (CalTech), y el del profesor Andreas Lüthi, del Friedrich Miescher Institute (FMI), ha descifrado él funcionamiento de este ‘circuito del miedo‘ en el que se han comprobado la existencia de dos tipos de células neuronales en esta amígdala que se turnan para abrir y cerrar “las puertas del miedo” y se ha podido demostrar que el mismo está controlado por un microcircuito de dos poblaciones antagonistas de neuronas en este órgano que actúan como una especie de columpio. 

Estas dos poblaciones de neuronas ‘se inhiben entre ellas’ y sólo una de las dos poblaciones puede estar activa a un tiempo, alternando entre dos estados. 

Y en otro experimento, llevado a cabo por científicos del Centro de Salud Mental de la Universidad de Texas en Dallas (EEUU), publicado en la revista Brain and Cognition se descubrió también que el cerebro da prioridad a la información amenazante sobre otros procesos cognitivos siendo la primera vez que un trabajo de investigación identificaba un ‘marcador electrofisiológico‘ con una actividad de ‘ondas theta’ iniciada precisamente en la amígdala.

En la figura siguiente tenemos un esquema que muestra la relación anatómica de cada una de las estructuras del sistema límbico humano. La figura A muestra su disposición anatómica y la B el flujo de señales que se establece entre las estructuras del mismo que determina una cadena neuronal que representa la base sdel sistema que regula las emociones

La amígdala se encuentra conectada con el hipocampo una de las partes más importantes de cerebro y consiste en dos “cuernos” que describen una curva que va hasta la amígdala. Esta estrecha relación implica la memoria que une recuerdos de sucesos que han ocurrido muy próximos en el tiempo. Así se ayuda al cerebro a distinguir cuándo tiene que poner en marcha una respuesta de defensa frente a una potencial amenaza, 

Y aunque la amígdala ya estaba en los mamíferos desde hace unos 220 millones de años coordinando las respuestas primarias y básicas ante un peligro, los seres humanos hemos evolucionado a una corteza cerebral cada vez más compleja, y por eso la misma ha terminado regulando e interactuando con otros impulsos y emociones más complejas.

Un estudio del 30 Agosto 2009 publicado en la revista Nature titulado: “La regulación del espacio personal por la amígdala humana” hecho por Daniel P Kennedy, Ene Glascher, J Michael Tyszka y Ralph Adolphs nos muestra que la amígdala desencadena las reacciones emocionales fuertes siguientes a las violaciones de nuestro espacio personal, regulando así las distancias interpersonales éntrelas seres humanos. ¿Por qué algunas personas no protegen su espacio personal ni reaccionan ante un acercamiento? ¿Por qué hay otras que en la misma situación no soportan una aglomeración y considerarían amenazante incluso un contacto físico en un espacio cerrado ? 

Cuando la amígdala es estimulada eléctricamente, los animales responden con agresión, y cuando es extirpada, los mismos se vuelven dóciles pero en los seres humanos su funcionamiento es más complejo. Por eso mientras se estudian las complejas interacciones cerebrales de nuestras emociones podemos ahora entender por qué no hay dos personas iguales y como algunas se sienten más desinhibidas ante los riesgos mientras que otras reaccionan violentamente ante un stress de miedo o ante la distancia a la que están dispuestos a tolerar si alguien acerca 

En definitiva la manera en como sentimos miedo, afecto o como nos relacionamos con los demás está en esas  “almendritas” que tenemos en el interior de nuestro cerebro.

Fuentes :

Limbic System and Emotions: Empathy in Humans and Primates. David Iñaki López Mejía, Azucena Valdovinos de Yahya y otros. Psicología Iberoamericana (Julio-Diciembre, 2009), Vol. 17, No. 2, pp. 60-69 ISSN 1405-0943 

Cannon, WB. La teoría de Jones-Lange de las emociones. Un examen crítico y una teoría alternativa. American Journal of Psychology 

Myers,DG, Las testuz de la emoción. Psicología: Séptima edición. NY: Word Publishers

Izard, C.E. (1992). Basic emotions, relations among emo- tions, and emotions-cognition relations. Psychological Review, 99, 561-565. 

El «síndrome del zombi » 

Los zombis son esos ‘muertos vivientes‘ con brazos extendidos y ruidos guturales que nos presentan el cine y las series de televisión , pero-fuera de la ficción – hay una condición en la que los pacientes creen realmente ‘estar muertos’. Se trata de un síndrome ampliamente reconocido por la comunidad científica al que se denomina como “síndrome del cadáver caminante” y también como “síndrome del zombi

Estar “muerto en vida” es una expresión que hace referencia a una depresión muy profunda pero a veces algunas personas llegan a tener una negatividad tan extrema que experimentan como una condición psicofísica su desconexión de la realidad  y esto los llevan a negar algo tan obvio como el «sentirse vivos». Los afectados por este curioso síndrome se caracterizan porque tienen una desconexión total entre los datos que le entran por sus sentidos y como subjetivamente interpretan los mismos por lo que crean otra ‘realidad‘ que les hace pensar que están muertos.  En el año 1788 el médico francés Charles Bonnet, reportó el caso de una paciente que creía encontrarse muerta pero tuvieron que pasar casi cien años para que alguien estudiase esta patología de una manera más profunda.

Quien lo hizo fue un neurólogo francés llamado Jules Cotard (1840-1889) que el 28 de julio de 1880 presentó ante la Societé Médico-Psychologique de París un trabajo titulado “Du délire hypocondriaque dans une forme grave de mélancolie anxieuse” (Del delirio hipocondríaco en una forma grave de melancolía ansiosa) en el que describía el caso de una paciente que él había seguido durante varios años junto a monsieur Jules Falret, su Jefe en la Clínica des Vanves

En este trabajo describía el caso de una paciente a la que denominó ‘Mademoiselle X‘, que con 43 años decía «no tener cerebro, nervios, pecho y entrañas, sino solo piel y huesos». Aquella paciente terminó muriendo de inanición, porque dejó de comer al pensar que su estado era estar condenada a permanecer entre la vida y la muerte y Cotard utilizó un término para esta patología que definió como ‘délire de négation‘ ( delirio de negación) ampliando la descripción de este caso en su libro ‘Maladies cerebrales et mentales‘ publicado en el año 1891. Sus conclusiones fueron que se trataba de un trastorno derivado de un estado depresivo exagerado mezclado con una melancolia ansiosa. 

Tras aquel descubrimiento, muchos medicos empezaron a referirse al ‘sindrome del zombi‘ como «delirio de Cotard» y en 1892, Emmanuel Régis (1855–1918) propuso para esta patología el nombre de ‘delirios sistemáticos crónicos‘ hasta que finalmente Louis Jules Ernest Séglas, un psiquiatra francés, considerado un alienista que formaba parte de un grupo de autores franceses que desarrollaron gran parte de sus carreras en el Hospital La Salpêtrière en 1897, consolidó y difundió de manera amplia el término de «síndrome de Cotard»
Fuente 

Los relatos clinicos sobre este síndrome han sido numerosos, y hay casos muy curiosos como uno de 1990, en el que un joven escocés tras un accidente de motocicleta donde recibió una fuerte contusión cerebral. salió del hospital convencido de que estaba muerto . Cuando su madre lo llevó a Sudáfrica para que se recuperara él pensó que el calor de aquel país suponía que había ido al infierno, mientras su cuerpo seguía muerto en Escocia.

No se sabe muy bien como se inicia este extraño síndrome pero hay dos niveles distintos cuando aparece: en el primero quienes lo sufren piensan que sus órganos vitales internos se han paralizado, y que su corazón no late, e imaginan a su cuerpo en un estado de putrefacción. Para los afectados esto puede ser tan real que llegan a tener alucinaciones visuales en las que ven a su cuerpo ante un espejo con forma de cadáver y alucinaciones olfativas donde creen oler su carne en putrefacción; también pueden tener sensaciones táctiles de gusanos deslizándose sobre su piel, pero hay una segunda fase más avanzada, en la que el paciente ya defiende claramente la idea de que ‘está muerto’ y pierde el contacto emocional con el mundo.

Existe una película que aborda de manera explícita el síndrome de la ‘muerte en vida‘ de quienes sufren el síndrome de Cotard. Su título es “Thanatomorphose” y trata sobre una joven artista que comienza a percibir como su cuerpo muerto se descompone al mismo tiempo que su vida amorosa.  No es un film recomendable para todos los públicos ya que es extremadamente explícito a la hora de mostrar ciertas imágenes pero señala muy bien las sensaciones que tienen las personas afectada por esta patología .

Las modernas investigaciones sobre el «sindrome de Cotard» muestran que hay cambios cerebrales y mentales llamativos y hacen pensar que la distorsión de la realidad de los afectados se provoca por un mal funcionamiento de la parte del encéfalo humano que está asociada al procesamiento de las emociones llamado sistema límbico

Gracias al mismo los seres humanos poseemos la capacidad de reconocer las emociones manifestadas en las distintas expresiones faciales. Esta facultad, requiere la participación de un gran número de estructuras cerebrales, entre las que destacan la ‘amígdala‘, donde hay un grupo de neuronas encargadas de procesar las emociones y otra área cerebral llamada ‘giro fusiforme‘ que se encarga de reconocer los rostros. Cuando hay un fallo cerebral en algunas de estas estructuras el resultado puede derivar en una falta de reconocimiento de las caras ajenas y de la propia que hace que la persona afectada se desconecte de la realidad.

El avance médico para entender este síndrome se produjo en el año 2004 cuando el doctor Steven Laureys en su despacho de la Universidad de Lieja, en Bélgica recibió la extraña llamada de su secretaria que le decía : “doctor tengo paciente que me está diciendo que está muerto“. Ante su sorpresa se encontró con un británico de 48 años llamado Graham que le contó que unos meses antes había intentado suicidarse por electrocución, metiendo un cable de la luz en la bañera y que aquel día se había levantado de la cama con la convicción absoluta de que estaba muerto. Aquel caso llegó hasta los investigadores Adam Zeman, de la Universidad de Exeter, en el Reino Unido, y Steven Laureys, en Lieja, que sometieron a un scaner cerebral a aquel hombre para ver lo que estaba pasando en su cabeza. 


El resultado les sorprendió porque mostraba que aunque aquel señor Graham estaba despierto e interaccionando con otras personas su cerebro mostraba una actividad similar a la de una persona en estado vegetativo. La actividad metabólica de su corteza cerebral se parecía más a la de una persona ‘anestesiada‘ que a la de una persona “despierta“. Este caso lo cuenta Helen Thomson en un magnífico reportaje en New Scientist.

Por eso los sujetos afectados por el «síndrome de Cotard» se desconectan visualmente del mundo, y no tienen memoria emocional de los objetos que les rodean; su amigdala, guardian de sus emociones y de las respuestas asociadas a ellas deja de enviarles la excitación y el estímulo que son las razones que nos muestran que ‘estamos vivos’. El ‘síndrome de Cotard‘ es la mejor prueba de que el cerebro humano lleva a cabo tareas muy complejas para interpretar la realidad y cuando este proceso automático falla nos deja con unos sentidos que nos informan incorrectamente sobre el mundo que nos rodea y lo dejan sin significado. 

La ‘consciencia’  es una de las capacidades mas misteriosas del ser humano. No sabemos con certeza ni donde reside, ni como funciona, pero es lo único que tenemos para sentir que «estamos vivos»

Fuentes:

Jules Cotard (1840-1889): his life and the unique syndrome which bears his name.
Pearn J, Gardner-Thorpe C, Neurology. 2002 May 14;58(9):1400-3.

http://www.ncbi.nlm.nih.gov/pubmed/12011289?dopt=Abstract

McKay R1, Cipolotti L.
Attributional style in a case of Cotard delusion“. Conscious Cogn. 2007 Jun;16(2):349-59. Epub 2006 Jul 18.


Young AW1, Robertson IH, Hellawell DJ, de Pauw KW, Pentland B.
Cotard delusion after brain injury“. Psychol Med. 1992 Ago,; 22(3):799-804.

¿Cómo se engaña a un GPS?

La ‘suplantación de identidad‘ no es un concepto nuevo. En los días previos a la transmisión de vídeo, un grupo de expatriados británicos en Europa consiguieron engañar a las compañías de televisión por satélite‘ para que pensaran que sus decodificadores estaban en el Reino Unido y así desbloquear los contenidos de una televisión destinada únicamente a una audiencia inglesa. Hoy en día, los fans de muchos programas de televisión extranjera falsifican su dirección IP para que su ordenador portátil o tableta figure registrado en el país donde esté legalmente permitido acceder al contenido del vídeo que deseen ver. 

El uso de dispositivos para ‘engañar a las máquinas ‘ se ha usado muchas veces en el cine como en aquella película de James Bond titulada “El mañana nunca muere” en donde nuestro agente 007 utilizaba un sofisticado sistema desde su móvil para manejar su vehículo 

Y esa ‘suplantación de identidad’  también ha llegado recientemente a una de las tecnologías más modernas de nuestro tiempo: el GPS

 GPS es el acrónimo de “Global positioning system”, que significa Sistema de posicionamiento global. Se maneja por el NAVSTAR (Navigation satellite timing and ranging) que dispone de 24 satélites colocados en seis órbitas a razón de cuatro en cada una y distanciados entre sí 90º de arco. Cada satélite está dotado de cuatro relojes atómicos de extremada exactitud (atrasan 1 segundo cada tres millones de año) y con esa ‘señal de hora exacta‘ los satélites transmiten continuamente su posición y hora local en órbita. 

Esas señales se transmiten con una precisión de unos pocos microsegundos y afecta a las radiocomunicaciones. Cualquier marca de tiempo diferente del ‘tiempo real’ puede originar un ‘fallo critico’ en todo el software de control que usa el sistema para transmitir una señal de hora correcta. Eso fue lo que pasó el 26 de enero de 2016 cuando uno de los satélites GPS – llamado SVN23 en órbita alrededor de la Tierra al ser dado de baja ocasionó un error en el mensaje de sincronización en tiempo universal (UTC) de 13 microsegundos afectando a las señales de banda L de muchos receptores GPS. Solo ocasionó problemas en las retransmisiones de radio digital y no a la capacidad de los sistemas para proporcionar un posicionamiento y navegación correcta pero un fallo en las señales de posicionamiento es algo bastante grave porque nuestra civilización depende del GPS para casi todo.

Desde las redes de telefonía móvil hasta el control de un dron de precisión o el sofisticado sistema de guía de un petrolero, el ‘posicionamiento por GPS ‘se utiliza para coordinar muchas actividades humanas. Se trata de un sistema que se apoya precisamente en esas señales emitidas a intervalos desde 4 satélites y en el intervalo de tiempo que transcurre entre el envío y la recepción de la señal. Está medida es la que nos revela cuan lejos se encuentra el satélite del receptor GPS
La señal se construye desde esos cuatro satélites que envían sus señales constantemente a la Tierra y las antenas GPS encargadas de recibirlas miden el tiempo transcurrido entre la emisión y la recepción de las citadas señales. Con eso se puede establecer una distancia del objeto a los satélites.

La posición GPS de un objeto sería el lugar geométrico donde coinciden las tres esferas que marcan el círculo de señales de tres de los satélite GPS, siendo el centro de cada esfera el propio satélite y el radio la distancia obtenida tras multiplicar el tiempo por la velocidad de propagación de las ondas en la atmósfera.


Por ejemplo si el receptor está situado a 12000 km del satélite número 1, a 10000 km del satélite número 2 y a 13000 km del satélite número 3 el lugar geométrico donde coinciden las tres esferas sería el círculo marcado en verde. Al incluir la distancia desde un cuarto satélite se puede posiciona un objeto en el mapa terrestre con total exactitud. Con las posiciones orbitales de los satélites GPS que intervienen en el momento de la transmisión,contamos con suficiente información para localizar una señal con un margen de error de unos 5 metros en la superficie terrestre

Los cálculos son muy delicados y si se ignoran las medidas de correción aplicables en ciertos casos, el resultado puede ser desastroso con desvíos de la ubicación de la posición de hasta 10 km por día. Por eso el ‘alterar las señales GPS‘ puede tener un impacto muy significativo.

¿Se puede engañar a un receptor de GPS? Pues si, y el proceso no es muy complicado; basta con transmitir desde tierra una señal ‘más poderosa‘ que la de los satélites que la forman. Conocida como “spoofing“, esta técnica consiste en crear señales GPS falsas que confundan al receptor GPS del objeto que queremos posicionar. Estructurando el retraso apropiado podemos cambiar sus coordenadas GPS en la Tierra dado una ‘falsa posición’ del mismo. 


La ‘señal trampa‘ (spoof) contiene la información real de uno de los satélites GPS pero se altera la distancia aparente entre el satélite y el receptor. Como resultado, la cuadrangulación 3D empleada para determinar la posición del receptor ofrecerá una respuesta incorrecta, y esto se traducirá en una desviación, sobre su posición real. 

Se comienza difundiendo una señal ligeramente más potente que la que inicialmente  se corresponde con la situación correcta del receptor GPS, y luego poco a poco se va alterando la posición “aparente” del objeto para que el receptor de tierra acepte la posición de la ‘señal trampa‘ sin darse cuenta de que dicha señal es diferente.

El primer caso conocido de ‘spoofing GPS‘ ocurrió a finales del año 2011 cuando un avión no tripulado militar RQ-170 de los Estados Unidos desapareció sobre Irán y apareció una semana después intacto y en poder de los iraníes .Estos afirmaron que secuestraron y llevaron a tierra a aquel avión con señales para engañar a su GPS pero no se pudo averiguar la técnica usada por los mismos.

Fuente
Pero fue un año después cuando en en el Departamento de Ingeniería aeroespacial y mecánica de la Universidad de Texas, el profesor Todd E. Humphreys y su equipo de investigación en la ciudad de Austin demostraron con éxito que las señales GPS de un vehículo aéreo no tripulado (UAV) podían ser alteradas por una fuente externa y con ello demostraron que se podía ‘engañar a un sistema GPS superarando  las señales de navegación de aquel prototipo.

Pero faltaba la ‘gran prueba ‘ y esta se hizo entre finales de junio y principios de julio de 2013 en el “White Rose of Drachs” un súperyate de 80 millones de dólares de 65 m de eslora con casco de acero y superestructura de aluminio y con capacidad de transportar hasta 12 personas y 18 tripulantes a una velocidad de 16.80 nudos. Este yate disponía de los últimos adelantos en posicionamiento GPS. 

El experimento se hizo en el mar Jónico con el pleno consentimiento del capitán de aquel yate y en su trabajo, Humphreys y sus estudiantes mostraron que se podía engañar al sofisticado equipo GPS de aquel barco mostrando lo vulnerable y relativamente fácil que es enviar una señal GPS falsa y engañar a los modernos receptores.

Se trataba de un dispositivo que enviaba señales GPS falsas a aquel barco, y el mismo las aceptó haciendo caso omiso de las señales de GPS reales existentes. Con ello Humphreys y sus muchachos obtuvieron el control total de la navegación de aquel súperyate. Aquí está el vídeo que muestra como lo hicieron 

Y aunque durante un tiempo se pensó que estas técnicas para falsear una posición GPS eran altamente sofisticadas y requerían un equipo costoso y especializado, todo cambió cuando en agosto de 2015 en una convención de hackers en Nevada llamada DEFCON 23 dos investigadores chinos llamados Huang Lin y Yan Qing demostraron que era posible construir un dispositivo de ‘suplantación de GPS’ con componentes baratos. Aquí está la memoria completa de su trabajo.

Con su spoofer barato aquel el equipo mostró que podían tomar el control remoto tanto de un avión no tripulado como de un smartphone o cualquier vehículo automóvil. A partir de entonces la seguridad en la navegación ya fue una ilusión y en diciembre de 2015, el Departamento de Seguridad Nacional de Estados Unidos informó que los narcotraficantes usaban técnicas de ‘GPS Spoofing‘ para desactivar los drones de vigilancia de las fronteras.

Es decir que el mundo de las ‘redes seguras’. ya no existe, y aún que son muchas las ventajas que ofrece un sistema de posicionamiento GPS, al paso que vamos y si queremos estar realmente seguros al movernos por el mundo vamos a tener que volver a usar aquellos viejos mapas y brújulas.


Fuentes:

http://www.engr.utexas.edu/features/humphreysspoofing

http://www.navegar.com/como-funciona-el-sistema-de-localizacion-por-gps/

http://www.mejor-antivirus.es/noticias/gps-spoofing.html

Como se ha avanzado con el glaucoma

La palabra glaucoma deriva del latín glaukos, que para los romanos significaba “azul aguado o diluido”. Hipócrates en el 469 a.C. ya mencionó la condición de glaukosis para referirse a un mal típico de los ancianos de su tiempo que se manifestaba por el cambio de color de la pupila, que se volvía más azulada; más tarde dicha alteración fue identificada como hypochima y siempre se consideró como una enfermedad intratable.En la actualidad sabemos que se trata de una patología del ojo muy traicionera que aunque presenta síntomas diferentes, todos tieneun denominador común: la destrucción del nervio óptico 


Para comprender el glaucoma,debemos fijarnos en las partes del ojo: la esclerótica es la capa blanca que sirve para protegerlo con una parte transparente llamada córnea que permite que la luz ingrese, luego está el iris que es su parte coloreada y que se contrae y dilata para regular la cantidad de luz que ingresa; esta luz atraviesa la pupila y llega al cristalino que la enfoca en la retina, en la parte posterior del ojo y es allí es donde tenemos millones de fibras nerviosas que son las encargadas de transmitir las imágenes al cerebro por medio del nervio óptico. 

El ojo es una cámara hiperbárica de forma aproximadamente esférica que no es sólida por dentro y cuyas cubiertas tampoco son demasiado rígidas y para conservar su forma esférica utiliza el mismo truco que usamos para dar forma a un balón o a un globo, es decir, llenar su interior de un fluido a mayor presión que la atmosférica. Con ello su cubierta puede estirarse y adoptar esa forma aproximada de una esfera. La presión intraocular (PIO)  es la presión que ejercen los líquidos que el ojo contiene sobre su pared y que es necesaria para que este órgano se mantenga distendido.

E igual que en un balón o un neumático, el aire a presión de su interior “empuja” sus paredes para mantener su forma esférica , en el ojo ocurre una cosa parecida, y son sus líquidos intraoculares los que también “empujan sus cubiertas” para darle su forma esférica. Normalmente nuestra presión ocular oscila entre los 16 y los 18 mm.Hg y la misma está regida bajo un ritmo circadiano, observándose que aumenta por la mañana (7 a.m.) y disminuye por la tarde (5 p.m.) con variaciones del orden de los 5 mm.Hg en 24 horas.


Es decir que el interior de un ojo funciona igual que un balón, solo que en este  lo llenábamos de aire a presión para que mantuviera su forma esférica y en un globo ocular como no hay aire son los dos líquidos que hay en su interior los encargados de esta función: estos dos líquidos tienen composiciones y texturas diferentes y son el humor acuoso y el humor vítreo.


El “humor vítreo” está situado en la parte posterior del ojo entre la superficie posterior del  cristalino y la  retina y es una sustancia gelatinosa que se difunden lentamente formando la mayor parte de su volumen interno. Se trata de un tejido compuesto de proteínas y azúcares con un buen volumen de agua, sin vasos sanquíneos ni nervios que sirve de sostén a este órgano y que apenas sufre recambio ya que ni se se forma ni se elimina. Por eso su dinámica a los efectos de mantener la presión ocular es prácticamente nula.

Pero con el “humor acuoso” pasa una cosa diferente: aunque ocupa sólo la parte anterior del ojo, desde la córnea hasta el cristalino y solo llena un 3 % del interior del mismo  es el principalresponsable de la PIO. Como su propio nombre indica, se trata de un liquido compuesto básicamente por agua filtrada de sangre de las células, en la que van disueltos elementos alimenticios como proteínas, oxígeno y dióxido de carbono. Este fluido no se encuentra estanco, sino que se renueva continuamente y está en constante movimiento para permitir que esté siempre rico en el oxígeno y los nutrientes necesarios para el cristalino y la parte interior de la córnea, ya que estos elementos oculares no tienen vasos sanguíneos que los nutran.

Se trata pues, de un líquido que sale de la cámara anterior a través del ángulo abierto por donde se unen la córnea y el iris y que está fluyendo continuamente. Se elimina a través de una red o malla esponjosa, parecida a un colador a la que los médicos llaman coloquialmente “la alcantarilla de desagüe” y este líquido debe encontrar una cierta resistencia para salir del ojo a nivel de ese ángulo para que el mismo mantenga su dureza .

En esta imagen vemos esa “alcantarilla” (trabecular outflow) por donde el humor acuoso debe de salir y pasar a la circulación venosa. Lo malo es que si esa “alcantarilla” se atasca, la consecuencia será un aumento de la presión intraocular: es lo que los especialistas llaman coloquialmente un “problema en la tubería de drenaje” 

Y es este incremento de la tensión ocular lo que produce el glaucoma. El problema es que el paciente, al principio no se da cuenta de que va perdiendo poco a poco su campo visual periférico y la visión periférica es aquella que nos permite abarcar todo lo que nos rodea en un radio de unos 140 grados. En esta patología silenciosa no hay dolor ni ningún síntoma pero si un deterioro lento y progresivo del nervio óptico. Es lo que se llama “glaucoma de ángulo abierto” también conocido como “el ladrón silencioso de la vista“. 

Al principio, la visión del afectado no disminuirá , porque aunque su ojo no perciba ciertas zonas o detalles de su campo visual, su cerebro compensará el déficit, pero cuando el glaucoma llegue a una fase avanzada, sus trastornos de visión aumentaran y habrá “zonas ciegas” en su campo visual que se extenderán. En las últimas fases el paciente verá con su ojo con glaucoma de una forma que se llama “visión de cañón de escopeta” hasta que termine perdiendo totalmente la visión del mismo.

Campo normal de visión normal 

Glaucoma en fase avanzada con el campo de visión reducido

Ahora explicaremos por qué pasa esto.

El nervio óptico, es un “cable” que sale de la parte trasera del ojo y lleva la información visual hasta el cerebro. El comienzo de ese nervio está en el interior del propio ojo (en la retina) y las fibras nerviosas (axones) de esa retina se prolongan y entran en el mismo. A esta primera parte del nervio óptico, se la conoce como papila y en la misma hay una zona llamada excavación que es un agujero por el que deben de pasar todas esas fibras nerviosas. Estamos hablando de fibras que vienen de todas las direcciones y de una cantidad del orden de los 1,5 millones de axones y todas ellas al llegar al borde del agujero, deben amontonarse y doblarse unas encima de otras curvándose para salir del ojo por el citado nervio óptico. En este “cambio de dirección” empieza la parte más vulnerable porque esos axones tienen que atravesar un área perforada de más de 500 agujeros llamada “lámina cribosa


Y por unos mecanismos que aún no son completamente conocidos, en los ojos glaucomatosos y con una presión intraocular alta (por encima de los 21-22 mmHg), se produce un daño en la papila porque el tejido neuronal ganglionar no puede soporta su propia presión intraocular. 

La idea se entiende muy bien con un símil culinario. Sería como si coláramos unos espaguetis por varios coladores superpuestos y los empujáramos a presión. El resultado es que serían despanzurrados con esta presión . 


Y de una manera parecida las fibras nerviosas de los axones que transmiten la información de la visión por el nervio óptico, ante una presión intraocular elevada van degenerando y muriendo y así los ojos glaucomatosos van perdiendo fibras nerviosas al amontonarse en la excavación por donde deben pasar y está cada vez se hará más grande. Por eso para detectar el glaucoma solo hay que mirar el fondo del ojo y ver el tamaño de la excavación de la papila. Es lo que se llama una “angiografía” de la misma 


Observemos ambas imágenes y veremos cuál es la diferencia entre un ojo normal y un ojo con glaucoma. En el segundo la excavación ocupa proporcionalmente la mayor parte de la papila. ¿Por qué? Pues por lo que dijimos antes: al irse perdiendo fibras nerviosas, son menos las que pasan por el agujero y esta excavación se va haciendo mayor (es decir que la papila se va “vaciando” y creciendo), por eso una “papila glaucomatosa”, es mayor y más pálida que una papila sana.

Pero, claro, todo esto no se sabía en la antigüedad y en la época medieval el glaucoma se confundía con la catarata. Galeno de Pérgamo (129-201 d. C.) había formulado una teoría errónea de la visión en la que daba al cristalino el principal protagonismo y hasta después del medioevo no llegó Vopiscus Fortunatus Plemp (1601-1671) que en su libro “Ophthalmographia sive tractatio de oculo” fue pionero en plantear que el glaucoma era una transformación del humor acuoso del ojo en color azul y lo diferenció de la catarata. 13 años después, Yves opinó razonablemente que el glaucoma debía ser considerado como una falsa catarata pero salvo estos apuntes, en la época Moderna todos los médicos mantenían la creencia de que el cristalino era el eje principal de la visión y confundían la catarata y el glaucoma.

Fue durante el siglo XVIII cuando se trató de establecer las diferencias entre catarata y glaucoma y dos cirujanos franceses, Michel Brisseau (1676-1743) y Antoine Maitre-Jan (1650-1750), presentaron ante la Académie Royale des Sciences de París unos trabajos en los que sostenían que la catarata era una patología del cristalino operable, mientras que el glaucoma, era otra patología y además incurable. Por eso hasta los comienzos del siglo XIX, no se tenía claro lo que era el glaucoma; algunos pensaban que se trataba de una forma de coroiditis y otros que la opacificación del vítreo sería una secuela de una oftalmía artrítica, que solo se presentaba en pacientes con gota pero llegó Albrecht Von Graefe (1828-1870) y se empezó a descubrir el verdadero mecanismo del glaucoma 


Fuente
Aquel médico fue pionero en interesarse por este padecimiento y comprobó que cuando sube la presión intraocular la arteria central de la retina late a nivel papilar, se atrofia y excava la papila y, como consecuencia, se reduce o contrae el campo visual y que cualquiera de estos tres signos eran motivo para precipitar la ceguera. Clasificó los glaucomas en tres subtipos: glaucoma crónico, glaucoma agudo y glaucoma secundario y también escribió extensamente sobre la excavación de papila con afección de los campos visuales sin aumento de la presión intraocular (lo que actualmente conocemos como “Glaucoma de Tensión Normal”) e inició el diseño de un dispositivo llamado “Tonómetro de Impresión” para medir la presión intraocular pero-lamentablemente- tuvo que abandonar su proyecto por falta de anestesia local, que hasta 1859 la misma fue introducida por Albert Niemann, que usó la cocaína y más tarde con los relevantes aportes de la aplicación terápeutica del alcaloide de pilocarpina por Tweedy en 1875.

De todas formas, el enfoque sobre esta enfermedad se mantuvo sin grandes avances hasta que se pudo medir la presión interna del globo ocular algo transcendental en la identificación y el control de un proceso glaucomatoso y hubo que esperar hasta 1862, cuando durante el Congreso Anual de la Asociación Médica Británica, William Bowman introdujo formalmente la idea de que la medida de la presión intraocular era esencial para el diagnóstico de muchas enfermedades oculares. 

Pero ¿cómo medir la presión del ojo? Para medir la presión de algo (recordemos un neumático con su válvula) se require entrar en contacto directo con fluido de su interio y un ojo no se puede pinchar e introducir algo para medir su presión. Por eso la tonometria empezó a basarse en la idea de que el ojo ofrece una resistencia a ser deformado directamente proporcional a la presión que hay en su interior.  En esto se basa la medida de la presión intraocular  que no es otra cosa que la de hacer una fuerza sobre la parte exterior del ojo y comprobar si se deforma. 

Los pioneros a finales del siglo XIX, fueron Imbert y Fick que analizaron las fuerzas que actúan en un ojo simplificado. Su modelo equiparaba el ojo a como una esfera ideal, seca y de paredes infinitamente finas, flexibles y elásticas y determinaron que la presión en su interior (P) es igual a la fuerza necesaria para aplanar su superficie (F) dividida por el área de aplanamiento (A). 

P=F/A 

pero para poder aplicar este principio a la determinación de la PIO hay que tener presente que el ojo humano no es una esfera ideal, que no está seco y que el menisco lagrimal disminuye el valor medido de PIO por tensión superficial,; además la córnea tiene un espesor medio 
de aproximadamente 0,5 mm con su propia elasticidad y rigidez. Es decir era un principio empírico no se ajustaba totalmente a la realidad y solo era válido para un rango bajo de valores de A y de P/F 


Los primeros tonómetros utilizados para medir la presión intraocular del ojo humano fueron desarrollados en la Clínica Donders en Utrecht entre 1863 y 1868 y el principio de la tonometría por aplanación fue explorado por Maklakoff en 1885 y años después por Imbert y Fick.Los reportes clínicos de mayor valor con uso del tonómetro fueron los de Schiotz de 1910 a 1920. A principios de 1950 se observó un gran progreso en la tonometría por aplanación con los trabajos de Goldmann, Perkins y Maurice y actualmente el tonómetro de Goldmann es un importante instrumento que permite una adecuada medición clínica de la presión intraocular en el ojo humano. Este tonómetro desplaza 0.5 microlitros de humor acuoso y aumenta la presión intraocular un 3%.

Lo que hace la tonometría de aplanaciòn es aplanar la córnea. Se coloca en la parte central de la córnea (que es curva) y al aponerse la parte final del prisma, que es recta, ese prisma tiende a rectificar la curvatura natural de la córnea. Aunque la córnea es la parte más sensible de todo el cuerpo humano por su gran cantidad de terminaciones nerviosas, esta prueba en la actualidad, es indolora porque previamente se anestesia la córnea. El paciente sólo ve que se acerca una luz azul, y nada más.


Goldmann basó sus estudios sobre ojos de cadáveres, y modificó el Principio de Imbert-Fick para poder aplicarlo de forma realista al ojo humano. Incorporó la influencia de la lágrima y de la córnea a ese principio, siendo la ecuación resultante: P+E=F/A+S en donde P es la presión intraocular, F la fuerza necesaria para aplanar su superficie, A el área de aplanamiento, E el módulo de elasticidad corneal y S la fuerza de atracción por tensión superficial de la lágrima. Goldmann encontró que, para córneas de espesor normal (0,5 mm), los factores E y S se cancelaban para valores de A entre 4,9 y 12,5 mm2 (de 2,5 a 4,0 mm de diámetro). La ecuación se simplificaba otra vez a P=F/A . Así, el tonómetro de Goldmann se basa en el Principio de Imbert-Fick con aplanamiento de un área constante y va instalado en la lámpara de hendidura y calibrado para que la PIO pueda ser leída en un dial graduado


Tonometro de Goldmann

Pero faltaba la contribución esencial al diagnóstico del glaucoma: el ver “el fondo del ojo” porque antiguamente las enfermedades del polo posterior del ojo se conocían como “cataratas negras” ya que ese fondo del ojo no se podía explorar.

En el año de 1704 Méry logró ver el fondo del ojo de un gato (que había ahogado previamente) con la pupila midriática. Posteriormente de la Hire, Purkinge, Kussmaul, Cummings y Brucke efectuaron diferentes experimentos para lograr ver el interior del ojo teniendo algunos avances pero hasta el año de 1847, no se diseñó un instrumento capaz de observar el fondo del ojo. Lo hizo un tal Babagge, un físico inglés, que lo presentó a algunos oftalmólogos que no valoraron su instrumento, por lo que no lo publicó y su invento y este no se dio a conocer. 

El verdadero progreso para el estudio del glaucoma se produjo con la invención del oftalmoscopio. Lo hizo a mediados del siglo XIX Hermann Ludwig Ferdinand von Helmholtz considerado uno de los científicos más importantes de aquel siglo, y su invento contribuiría al desarrollo de la oftalmología en forma importante. Lo presentó el 6 de diciembre de 1850, ante la Sociedad de Física de Berlín, pero le puso el nombre de “augenspiegel” (espejo de ojo)


Fuente
El experimento que von Helmholtz realizó ante sus alumnos consistía en una demostración sobre la conservación de la fuerza (energía), y para el mismo utilizó cartón, pegamento y unas lentes delgadas que funcionaban como espejo reflectante. Helmholtz conocía la anatomía del ojo perfectamente bien y tenía conocimientos de que la retina era una superficie reflectante, por lo que sabía que la luz que entra al ojo es reflejada, así como que también la misma sigue el mismo camino de salida que de entrada. El paso a seguir fue colocar su ojo en el trayecto de la luz y de esa forma pudo observó el fondo del mismo; agregó además una fuente luminosa próxima, la cual se reflejaba en los cristales y se dirigía al interior del ojo observado. 


El “augenspiegel” de Hermann von Helmholtz

El oftalmólogo griego Andreas Anagnostakis, cambió el termino de “augenspiegel” con el cual Hermann von Helmholtz había designado a su invento por el de “oftalmoscopio” (del griego ὀφθαλμός ‘ojo’ y σκοπέω ‘observar’). Por cierto que debemos al mismo el primer estudio sobre fondo de ojo, publicado en el año 1854 . Los oftalmoscopios modernos tiene tres características fundamentales: una fuente luminosa, una superficie reflectante que dirige la luz hacia el interior del ojo observado y unas lentes para enfocar la imagen del fondo del ojo.

Finalmente hablaremos de la cirugía como otra manera de tratar el glaucoma. El oftalmólogo  Albrecht von Graefe (1828- 1870) empezó el tratamiento quirúrgico de esta patología y en su pequeña clínica berlinesa, fundada en 1851, inició el tratamiento quirúrgico del glaucoma mediante una técnica llamada iridectomía. Se trata de un corte en la periferia del iris que permite crear un orificio en el mismo para facilitar la salida del humor acuoso. En general, cualquier tipo de cirugía conlleva algún riesgo pero este sistema quirúrgico es el método de tratamiento principal para el glaucoma de ángulo cerrado y para el glaucoma congénito ya que puede ser la única manera de abrir los canales de drenaje bloqueados o malformados.

Pero el glaucoma de ángulo abierto que es el más común y del que hablamos en este artículo se trata muy bien con la cirugía láser. Un láser es un diminuto rayo de luz que puede hacer una pequeña quemadura en el tejido ocular, y fácil de realizar en el consultorio del médico o en una clínica hospitalaria.

Paralelamente, también empezó a investigarse el tratamiento con fármacos para el glaucoma.En 1862, Thomas R. Fraser ya describió el efecto de un alcaloide extraído de una haba, la fisostigmina, y su efecto miótico (de contracción de la pupila), viendo que reducía la presión intraocular. En 1877, Adolf Weber estudió el efecto de la pilocarpina, que pasó a ser el principal medicamento para tratar el glaucomaActualmente también se usan colirios con betabloqueadores para bajar la presion  intraocular que reducen la producción de humor acuoso y el Timolol, es uno de los mas utilizados. Son un buen complemento si se usan con los inhibidores  de la anhidrasa carbonica, una droga como la dorzolanida que inhibe la formacion de humor acuoso porque neutraliza la enzima anhidrasa carbonica, cuya presencia es necesaria para la formacion del mismo.


Hay actualmente más de 66 millones de personas en el mundo con glaucoma. En algunos casos la genética tiene mucho que decir ya que hay glaucomas que tienen componentes hereditarios, pero algunos aparecen como consecuencia de traumatismos oculares y aunque no se pueden cerrar los ojos ante la idea de que glaucoma y ceguera están muy unidos, una detección precoz del problema, puede frenar su progresión y evitar así la pérdida de la vista. Porque aunque se trate de una “enfermedad silenciosa“, podemos acallarla.

Fuentes 

Proyecto Ocularis Dr. Rubén Pascual. Sección de Oftalmología infantil y Estrabismo en el Hospital San Pedro en Logroño.

Facultad de Medicina de Sevilla. Área de oftalmologia. Prof. A.Benjumeda

Consideraciones sobre los principios físicos de la tonometría de aplanación“. Jordi Castellví Manent, M. Ángeles Parera Arranz y Jorge Loscos Arenas 

Echart WU, Gradmann C. Hermann Helmholtz. Investigación y Ciencia. Mayo 1995.

Hermann von Helmholtz y el oftalmoscopio Dra. Eréndira Güemez-Sandoval 

Prolífico genio en oftalmología: Albrecht Von Graefe (1828-1870) Dr. David Lozano-Elizondo