¿Cómo se engaña a un GPS?

La ‘suplantación de identidad‘ no es un concepto nuevo. En los días previos a la transmisión de vídeo, un grupo de expatriados británicos en Europa consiguieron engañar a las compañías de televisión por satélite‘ para que pensaran que sus decodificadores estaban en el Reino Unido y así desbloquear los contenidos de una televisión destinada únicamente a una audiencia inglesa. Hoy en día, los fans de muchos programas de televisión extranjera falsifican su dirección IP para que su ordenador portátil o tableta figure registrado en el país donde esté legalmente permitido acceder al contenido del vídeo que deseen ver. 

El uso de dispositivos para ‘engañar a las máquinas ‘ se ha usado muchas veces en el cine como en aquella película de James Bond titulada “El mañana nunca muere” en donde nuestro agente 007 utilizaba un sofisticado sistema desde su móvil para manejar su vehículo 

Y esa ‘suplantación de identidad’  también ha llegado recientemente a una de las tecnologías más modernas de nuestro tiempo: el GPS

 GPS es el acrónimo de “Global positioning system”, que significa Sistema de posicionamiento global. Se maneja por el NAVSTAR (Navigation satellite timing and ranging) que dispone de 24 satélites colocados en seis órbitas a razón de cuatro en cada una y distanciados entre sí 90º de arco. Cada satélite está dotado de cuatro relojes atómicos de extremada exactitud (atrasan 1 segundo cada tres millones de año) y con esa ‘señal de hora exacta‘ los satélites transmiten continuamente su posición y hora local en órbita. 

Esas señales se transmiten con una precisión de unos pocos microsegundos y afecta a las radiocomunicaciones. Cualquier marca de tiempo diferente del ‘tiempo real’ puede originar un ‘fallo critico’ en todo el software de control que usa el sistema para transmitir una señal de hora correcta. Eso fue lo que pasó el 26 de enero de 2016 cuando uno de los satélites GPS – llamado SVN23 en órbita alrededor de la Tierra al ser dado de baja ocasionó un error en el mensaje de sincronización en tiempo universal (UTC) de 13 microsegundos afectando a las señales de banda L de muchos receptores GPS. Solo ocasionó problemas en las retransmisiones de radio digital y no a la capacidad de los sistemas para proporcionar un posicionamiento y navegación correcta pero un fallo en las señales de posicionamiento es algo bastante grave porque nuestra civilización depende del GPS para casi todo.

Desde las redes de telefonía móvil hasta el control de un dron de precisión o el sofisticado sistema de guía de un petrolero, el ‘posicionamiento por GPS ‘se utiliza para coordinar muchas actividades humanas. Se trata de un sistema que se apoya precisamente en esas señales emitidas a intervalos desde 4 satélites y en el intervalo de tiempo que transcurre entre el envío y la recepción de la señal. Está medida es la que nos revela cuan lejos se encuentra el satélite del receptor GPS
La señal se construye desde esos cuatro satélites que envían sus señales constantemente a la Tierra y las antenas GPS encargadas de recibirlas miden el tiempo transcurrido entre la emisión y la recepción de las citadas señales. Con eso se puede establecer una distancia del objeto a los satélites.

La posición GPS de un objeto sería el lugar geométrico donde coinciden las tres esferas que marcan el círculo de señales de tres de los satélite GPS, siendo el centro de cada esfera el propio satélite y el radio la distancia obtenida tras multiplicar el tiempo por la velocidad de propagación de las ondas en la atmósfera.


Por ejemplo si el receptor está situado a 12000 km del satélite número 1, a 10000 km del satélite número 2 y a 13000 km del satélite número 3 el lugar geométrico donde coinciden las tres esferas sería el círculo marcado en verde. Al incluir la distancia desde un cuarto satélite se puede posiciona un objeto en el mapa terrestre con total exactitud. Con las posiciones orbitales de los satélites GPS que intervienen en el momento de la transmisión,contamos con suficiente información para localizar una señal con un margen de error de unos 5 metros en la superficie terrestre

Los cálculos son muy delicados y si se ignoran las medidas de correción aplicables en ciertos casos, el resultado puede ser desastroso con desvíos de la ubicación de la posición de hasta 10 km por día. Por eso el ‘alterar las señales GPS‘ puede tener un impacto muy significativo.

¿Se puede engañar a un receptor de GPS? Pues si, y el proceso no es muy complicado; basta con transmitir desde tierra una señal ‘más poderosa‘ que la de los satélites que la forman. Conocida como “spoofing“, esta técnica consiste en crear señales GPS falsas que confundan al receptor GPS del objeto que queremos posicionar. Estructurando el retraso apropiado podemos cambiar sus coordenadas GPS en la Tierra dado una ‘falsa posición’ del mismo. 


La ‘señal trampa‘ (spoof) contiene la información real de uno de los satélites GPS pero se altera la distancia aparente entre el satélite y el receptor. Como resultado, la cuadrangulación 3D empleada para determinar la posición del receptor ofrecerá una respuesta incorrecta, y esto se traducirá en una desviación, sobre su posición real. 

Se comienza difundiendo una señal ligeramente más potente que la que inicialmente  se corresponde con la situación correcta del receptor GPS, y luego poco a poco se va alterando la posición “aparente” del objeto para que el receptor de tierra acepte la posición de la ‘señal trampa‘ sin darse cuenta de que dicha señal es diferente.

El primer caso conocido de ‘spoofing GPS‘ ocurrió a finales del año 2011 cuando un avión no tripulado militar RQ-170 de los Estados Unidos desapareció sobre Irán y apareció una semana después intacto y en poder de los iraníes .Estos afirmaron que secuestraron y llevaron a tierra a aquel avión con señales para engañar a su GPS pero no se pudo averiguar la técnica usada por los mismos.

Fuente
Pero fue un año después cuando en en el Departamento de Ingeniería aeroespacial y mecánica de la Universidad de Texas, el profesor Todd E. Humphreys y su equipo de investigación en la ciudad de Austin demostraron con éxito que las señales GPS de un vehículo aéreo no tripulado (UAV) podían ser alteradas por una fuente externa y con ello demostraron que se podía ‘engañar a un sistema GPS superarando  las señales de navegación de aquel prototipo.

Pero faltaba la ‘gran prueba ‘ y esta se hizo entre finales de junio y principios de julio de 2013 en el “White Rose of Drachs” un súperyate de 80 millones de dólares de 65 m de eslora con casco de acero y superestructura de aluminio y con capacidad de transportar hasta 12 personas y 18 tripulantes a una velocidad de 16.80 nudos. Este yate disponía de los últimos adelantos en posicionamiento GPS. 

El experimento se hizo en el mar Jónico con el pleno consentimiento del capitán de aquel yate y en su trabajo, Humphreys y sus estudiantes mostraron que se podía engañar al sofisticado equipo GPS de aquel barco mostrando lo vulnerable y relativamente fácil que es enviar una señal GPS falsa y engañar a los modernos receptores.

Se trataba de un dispositivo que enviaba señales GPS falsas a aquel barco, y el mismo las aceptó haciendo caso omiso de las señales de GPS reales existentes. Con ello Humphreys y sus muchachos obtuvieron el control total de la navegación de aquel súperyate. Aquí está el vídeo que muestra como lo hicieron 

Y aunque durante un tiempo se pensó que estas técnicas para falsear una posición GPS eran altamente sofisticadas y requerían un equipo costoso y especializado, todo cambió cuando en agosto de 2015 en una convención de hackers en Nevada llamada DEFCON 23 dos investigadores chinos llamados Huang Lin y Yan Qing demostraron que era posible construir un dispositivo de ‘suplantación de GPS’ con componentes baratos. Aquí está la memoria completa de su trabajo.

Con su spoofer barato aquel el equipo mostró que podían tomar el control remoto tanto de un avión no tripulado como de un smartphone o cualquier vehículo automóvil. A partir de entonces la seguridad en la navegación ya fue una ilusión y en diciembre de 2015, el Departamento de Seguridad Nacional de Estados Unidos informó que los narcotraficantes usaban técnicas de ‘GPS Spoofing‘ para desactivar los drones de vigilancia de las fronteras.

Es decir que el mundo de las ‘redes seguras’. ya no existe, y aún que son muchas las ventajas que ofrece un sistema de posicionamiento GPS, al paso que vamos y si queremos estar realmente seguros al movernos por el mundo vamos a tener que volver a usar aquellos viejos mapas y brújulas.


Fuentes:

http://www.engr.utexas.edu/features/humphreysspoofing

http://www.navegar.com/como-funciona-el-sistema-de-localizacion-por-gps/

http://www.mejor-antivirus.es/noticias/gps-spoofing.html

Como se ha avanzado con el glaucoma

La palabra glaucoma deriva del latín glaukos, que para los romanos significaba “azul aguado o diluido”. Hipócrates en el 469 a.C. ya mencionó la condición de glaukosis para referirse a un mal típico de los ancianos de su tiempo que se manifestaba por el cambio de color de la pupila, que se volvía más azulada; más tarde dicha alteración fue identificada como hypochima y siempre se consideró como una enfermedad intratable.En la actualidad sabemos que se trata de una patología del ojo muy traicionera que aunque presenta síntomas diferentes, todos tieneun denominador común: la destrucción del nervio óptico 


Para comprender el glaucoma,debemos fijarnos en las partes del ojo: la esclerótica es la capa blanca que sirve para protegerlo con una parte transparente llamada córnea que permite que la luz ingrese, luego está el iris que es su parte coloreada y que se contrae y dilata para regular la cantidad de luz que ingresa; esta luz atraviesa la pupila y llega al cristalino que la enfoca en la retina, en la parte posterior del ojo y es allí es donde tenemos millones de fibras nerviosas que son las encargadas de transmitir las imágenes al cerebro por medio del nervio óptico. 

El ojo es una cámara hiperbárica de forma aproximadamente esférica que no es sólida por dentro y cuyas cubiertas tampoco son demasiado rígidas y para conservar su forma esférica utiliza el mismo truco que usamos para dar forma a un balón o a un globo, es decir, llenar su interior de un fluido a mayor presión que la atmosférica. Con ello su cubierta puede estirarse y adoptar esa forma aproximada de una esfera. La presión intraocular (PIO)  es la presión que ejercen los líquidos que el ojo contiene sobre su pared y que es necesaria para que este órgano se mantenga distendido.

E igual que en un balón o un neumático, el aire a presión de su interior “empuja” sus paredes para mantener su forma esférica , en el ojo ocurre una cosa parecida, y son sus líquidos intraoculares los que también “empujan sus cubiertas” para darle su forma esférica. Normalmente nuestra presión ocular oscila entre los 16 y los 18 mm.Hg y la misma está regida bajo un ritmo circadiano, observándose que aumenta por la mañana (7 a.m.) y disminuye por la tarde (5 p.m.) con variaciones del orden de los 5 mm.Hg en 24 horas.


Es decir que el interior de un ojo funciona igual que un balón, solo que en este  lo llenábamos de aire a presión para que mantuviera su forma esférica y en un globo ocular como no hay aire son los dos líquidos que hay en su interior los encargados de esta función: estos dos líquidos tienen composiciones y texturas diferentes y son el humor acuoso y el humor vítreo.


El “humor vítreo” está situado en la parte posterior del ojo entre la superficie posterior del  cristalino y la  retina y es una sustancia gelatinosa que se difunden lentamente formando la mayor parte de su volumen interno. Se trata de un tejido compuesto de proteínas y azúcares con un buen volumen de agua, sin vasos sanquíneos ni nervios que sirve de sostén a este órgano y que apenas sufre recambio ya que ni se se forma ni se elimina. Por eso su dinámica a los efectos de mantener la presión ocular es prácticamente nula.

Pero con el “humor acuoso” pasa una cosa diferente: aunque ocupa sólo la parte anterior del ojo, desde la córnea hasta el cristalino y solo llena un 3 % del interior del mismo  es el principalresponsable de la PIO. Como su propio nombre indica, se trata de un liquido compuesto básicamente por agua filtrada de sangre de las células, en la que van disueltos elementos alimenticios como proteínas, oxígeno y dióxido de carbono. Este fluido no se encuentra estanco, sino que se renueva continuamente y está en constante movimiento para permitir que esté siempre rico en el oxígeno y los nutrientes necesarios para el cristalino y la parte interior de la córnea, ya que estos elementos oculares no tienen vasos sanguíneos que los nutran.

Se trata pues, de un líquido que sale de la cámara anterior a través del ángulo abierto por donde se unen la córnea y el iris y que está fluyendo continuamente. Se elimina a través de una red o malla esponjosa, parecida a un colador a la que los médicos llaman coloquialmente “la alcantarilla de desagüe” y este líquido debe encontrar una cierta resistencia para salir del ojo a nivel de ese ángulo para que el mismo mantenga su dureza .

En esta imagen vemos esa “alcantarilla” (trabecular outflow) por donde el humor acuoso debe de salir y pasar a la circulación venosa. Lo malo es que si esa “alcantarilla” se atasca, la consecuencia será un aumento de la presión intraocular: es lo que los especialistas llaman coloquialmente un “problema en la tubería de drenaje” 

Y es este incremento de la tensión ocular lo que produce el glaucoma. El problema es que el paciente, al principio no se da cuenta de que va perdiendo poco a poco su campo visual periférico y la visión periférica es aquella que nos permite abarcar todo lo que nos rodea en un radio de unos 140 grados. En esta patología silenciosa no hay dolor ni ningún síntoma pero si un deterioro lento y progresivo del nervio óptico. Es lo que se llama “glaucoma de ángulo abierto” también conocido como “el ladrón silencioso de la vista“. 

Al principio, la visión del afectado no disminuirá , porque aunque su ojo no perciba ciertas zonas o detalles de su campo visual, su cerebro compensará el déficit, pero cuando el glaucoma llegue a una fase avanzada, sus trastornos de visión aumentaran y habrá “zonas ciegas” en su campo visual que se extenderán. En las últimas fases el paciente verá con su ojo con glaucoma de una forma que se llama “visión de cañón de escopeta” hasta que termine perdiendo totalmente la visión del mismo.

Campo normal de visión normal 

Glaucoma en fase avanzada con el campo de visión reducido

Ahora explicaremos por qué pasa esto.

El nervio óptico, es un “cable” que sale de la parte trasera del ojo y lleva la información visual hasta el cerebro. El comienzo de ese nervio está en el interior del propio ojo (en la retina) y las fibras nerviosas (axones) de esa retina se prolongan y entran en el mismo. A esta primera parte del nervio óptico, se la conoce como papila y en la misma hay una zona llamada excavación que es un agujero por el que deben de pasar todas esas fibras nerviosas. Estamos hablando de fibras que vienen de todas las direcciones y de una cantidad del orden de los 1,5 millones de axones y todas ellas al llegar al borde del agujero, deben amontonarse y doblarse unas encima de otras curvándose para salir del ojo por el citado nervio óptico. En este “cambio de dirección” empieza la parte más vulnerable porque esos axones tienen que atravesar un área perforada de más de 500 agujeros llamada “lámina cribosa


Y por unos mecanismos que aún no son completamente conocidos, en los ojos glaucomatosos y con una presión intraocular alta (por encima de los 21-22 mmHg), se produce un daño en la papila porque el tejido neuronal ganglionar no puede soporta su propia presión intraocular. 

La idea se entiende muy bien con un símil culinario. Sería como si coláramos unos espaguetis por varios coladores superpuestos y los empujáramos a presión. El resultado es que serían despanzurrados con esta presión . 


Y de una manera parecida las fibras nerviosas de los axones que transmiten la información de la visión por el nervio óptico, ante una presión intraocular elevada van degenerando y muriendo y así los ojos glaucomatosos van perdiendo fibras nerviosas al amontonarse en la excavación por donde deben pasar y está cada vez se hará más grande. Por eso para detectar el glaucoma solo hay que mirar el fondo del ojo y ver el tamaño de la excavación de la papila. Es lo que se llama una “angiografía” de la misma 


Observemos ambas imágenes y veremos cuál es la diferencia entre un ojo normal y un ojo con glaucoma. En el segundo la excavación ocupa proporcionalmente la mayor parte de la papila. ¿Por qué? Pues por lo que dijimos antes: al irse perdiendo fibras nerviosas, son menos las que pasan por el agujero y esta excavación se va haciendo mayor (es decir que la papila se va “vaciando” y creciendo), por eso una “papila glaucomatosa”, es mayor y más pálida que una papila sana.

Pero, claro, todo esto no se sabía en la antigüedad y en la época medieval el glaucoma se confundía con la catarata. Galeno de Pérgamo (129-201 d. C.) había formulado una teoría errónea de la visión en la que daba al cristalino el principal protagonismo y hasta después del medioevo no llegó Vopiscus Fortunatus Plemp (1601-1671) que en su libro “Ophthalmographia sive tractatio de oculo” fue pionero en plantear que el glaucoma era una transformación del humor acuoso del ojo en color azul y lo diferenció de la catarata. 13 años después, Yves opinó razonablemente que el glaucoma debía ser considerado como una falsa catarata pero salvo estos apuntes, en la época Moderna todos los médicos mantenían la creencia de que el cristalino era el eje principal de la visión y confundían la catarata y el glaucoma.

Fue durante el siglo XVIII cuando se trató de establecer las diferencias entre catarata y glaucoma y dos cirujanos franceses, Michel Brisseau (1676-1743) y Antoine Maitre-Jan (1650-1750), presentaron ante la Académie Royale des Sciences de París unos trabajos en los que sostenían que la catarata era una patología del cristalino operable, mientras que el glaucoma, era otra patología y además incurable. Por eso hasta los comienzos del siglo XIX, no se tenía claro lo que era el glaucoma; algunos pensaban que se trataba de una forma de coroiditis y otros que la opacificación del vítreo sería una secuela de una oftalmía artrítica, que solo se presentaba en pacientes con gota pero llegó Albrecht Von Graefe (1828-1870) y se empezó a descubrir el verdadero mecanismo del glaucoma 


Fuente
Aquel médico fue pionero en interesarse por este padecimiento y comprobó que cuando sube la presión intraocular la arteria central de la retina late a nivel papilar, se atrofia y excava la papila y, como consecuencia, se reduce o contrae el campo visual y que cualquiera de estos tres signos eran motivo para precipitar la ceguera. Clasificó los glaucomas en tres subtipos: glaucoma crónico, glaucoma agudo y glaucoma secundario y también escribió extensamente sobre la excavación de papila con afección de los campos visuales sin aumento de la presión intraocular (lo que actualmente conocemos como “Glaucoma de Tensión Normal”) e inició el diseño de un dispositivo llamado “Tonómetro de Impresión” para medir la presión intraocular pero-lamentablemente- tuvo que abandonar su proyecto por falta de anestesia local, que hasta 1859 la misma fue introducida por Albert Niemann, que usó la cocaína y más tarde con los relevantes aportes de la aplicación terápeutica del alcaloide de pilocarpina por Tweedy en 1875.

De todas formas, el enfoque sobre esta enfermedad se mantuvo sin grandes avances hasta que se pudo medir la presión interna del globo ocular algo transcendental en la identificación y el control de un proceso glaucomatoso y hubo que esperar hasta 1862, cuando durante el Congreso Anual de la Asociación Médica Británica, William Bowman introdujo formalmente la idea de que la medida de la presión intraocular era esencial para el diagnóstico de muchas enfermedades oculares. 

Pero ¿cómo medir la presión del ojo? Para medir la presión de algo (recordemos un neumático con su válvula) se require entrar en contacto directo con fluido de su interio y un ojo no se puede pinchar e introducir algo para medir su presión. Por eso la tonometria empezó a basarse en la idea de que el ojo ofrece una resistencia a ser deformado directamente proporcional a la presión que hay en su interior.  En esto se basa la medida de la presión intraocular  que no es otra cosa que la de hacer una fuerza sobre la parte exterior del ojo y comprobar si se deforma. 

Los pioneros a finales del siglo XIX, fueron Imbert y Fick que analizaron las fuerzas que actúan en un ojo simplificado. Su modelo equiparaba el ojo a como una esfera ideal, seca y de paredes infinitamente finas, flexibles y elásticas y determinaron que la presión en su interior (P) es igual a la fuerza necesaria para aplanar su superficie (F) dividida por el área de aplanamiento (A). 

P=F/A 

pero para poder aplicar este principio a la determinación de la PIO hay que tener presente que el ojo humano no es una esfera ideal, que no está seco y que el menisco lagrimal disminuye el valor medido de PIO por tensión superficial,; además la córnea tiene un espesor medio 
de aproximadamente 0,5 mm con su propia elasticidad y rigidez. Es decir era un principio empírico no se ajustaba totalmente a la realidad y solo era válido para un rango bajo de valores de A y de P/F 


Los primeros tonómetros utilizados para medir la presión intraocular del ojo humano fueron desarrollados en la Clínica Donders en Utrecht entre 1863 y 1868 y el principio de la tonometría por aplanación fue explorado por Maklakoff en 1885 y años después por Imbert y Fick.Los reportes clínicos de mayor valor con uso del tonómetro fueron los de Schiotz de 1910 a 1920. A principios de 1950 se observó un gran progreso en la tonometría por aplanación con los trabajos de Goldmann, Perkins y Maurice y actualmente el tonómetro de Goldmann es un importante instrumento que permite una adecuada medición clínica de la presión intraocular en el ojo humano. Este tonómetro desplaza 0.5 microlitros de humor acuoso y aumenta la presión intraocular un 3%.

Lo que hace la tonometría de aplanaciòn es aplanar la córnea. Se coloca en la parte central de la córnea (que es curva) y al aponerse la parte final del prisma, que es recta, ese prisma tiende a rectificar la curvatura natural de la córnea. Aunque la córnea es la parte más sensible de todo el cuerpo humano por su gran cantidad de terminaciones nerviosas, esta prueba en la actualidad, es indolora porque previamente se anestesia la córnea. El paciente sólo ve que se acerca una luz azul, y nada más.


Goldmann basó sus estudios sobre ojos de cadáveres, y modificó el Principio de Imbert-Fick para poder aplicarlo de forma realista al ojo humano. Incorporó la influencia de la lágrima y de la córnea a ese principio, siendo la ecuación resultante: P+E=F/A+S en donde P es la presión intraocular, F la fuerza necesaria para aplanar su superficie, A el área de aplanamiento, E el módulo de elasticidad corneal y S la fuerza de atracción por tensión superficial de la lágrima. Goldmann encontró que, para córneas de espesor normal (0,5 mm), los factores E y S se cancelaban para valores de A entre 4,9 y 12,5 mm2 (de 2,5 a 4,0 mm de diámetro). La ecuación se simplificaba otra vez a P=F/A . Así, el tonómetro de Goldmann se basa en el Principio de Imbert-Fick con aplanamiento de un área constante y va instalado en la lámpara de hendidura y calibrado para que la PIO pueda ser leída en un dial graduado


Tonometro de Goldmann

Pero faltaba la contribución esencial al diagnóstico del glaucoma: el ver “el fondo del ojo” porque antiguamente las enfermedades del polo posterior del ojo se conocían como “cataratas negras” ya que ese fondo del ojo no se podía explorar.

En el año de 1704 Méry logró ver el fondo del ojo de un gato (que había ahogado previamente) con la pupila midriática. Posteriormente de la Hire, Purkinge, Kussmaul, Cummings y Brucke efectuaron diferentes experimentos para lograr ver el interior del ojo teniendo algunos avances pero hasta el año de 1847, no se diseñó un instrumento capaz de observar el fondo del ojo. Lo hizo un tal Babagge, un físico inglés, que lo presentó a algunos oftalmólogos que no valoraron su instrumento, por lo que no lo publicó y su invento y este no se dio a conocer. 

El verdadero progreso para el estudio del glaucoma se produjo con la invención del oftalmoscopio. Lo hizo a mediados del siglo XIX Hermann Ludwig Ferdinand von Helmholtz considerado uno de los científicos más importantes de aquel siglo, y su invento contribuiría al desarrollo de la oftalmología en forma importante. Lo presentó el 6 de diciembre de 1850, ante la Sociedad de Física de Berlín, pero le puso el nombre de “augenspiegel” (espejo de ojo)


Fuente
El experimento que von Helmholtz realizó ante sus alumnos consistía en una demostración sobre la conservación de la fuerza (energía), y para el mismo utilizó cartón, pegamento y unas lentes delgadas que funcionaban como espejo reflectante. Helmholtz conocía la anatomía del ojo perfectamente bien y tenía conocimientos de que la retina era una superficie reflectante, por lo que sabía que la luz que entra al ojo es reflejada, así como que también la misma sigue el mismo camino de salida que de entrada. El paso a seguir fue colocar su ojo en el trayecto de la luz y de esa forma pudo observó el fondo del mismo; agregó además una fuente luminosa próxima, la cual se reflejaba en los cristales y se dirigía al interior del ojo observado. 


El “augenspiegel” de Hermann von Helmholtz

El oftalmólogo griego Andreas Anagnostakis, cambió el termino de “augenspiegel” con el cual Hermann von Helmholtz había designado a su invento por el de “oftalmoscopio” (del griego ὀφθαλμός ‘ojo’ y σκοπέω ‘observar’). Por cierto que debemos al mismo el primer estudio sobre fondo de ojo, publicado en el año 1854 . Los oftalmoscopios modernos tiene tres características fundamentales: una fuente luminosa, una superficie reflectante que dirige la luz hacia el interior del ojo observado y unas lentes para enfocar la imagen del fondo del ojo.

Finalmente hablaremos de la cirugía como otra manera de tratar el glaucoma. El oftalmólogo  Albrecht von Graefe (1828- 1870) empezó el tratamiento quirúrgico de esta patología y en su pequeña clínica berlinesa, fundada en 1851, inició el tratamiento quirúrgico del glaucoma mediante una técnica llamada iridectomía. Se trata de un corte en la periferia del iris que permite crear un orificio en el mismo para facilitar la salida del humor acuoso. En general, cualquier tipo de cirugía conlleva algún riesgo pero este sistema quirúrgico es el método de tratamiento principal para el glaucoma de ángulo cerrado y para el glaucoma congénito ya que puede ser la única manera de abrir los canales de drenaje bloqueados o malformados.

Pero el glaucoma de ángulo abierto que es el más común y del que hablamos en este artículo se trata muy bien con la cirugía láser. Un láser es un diminuto rayo de luz que puede hacer una pequeña quemadura en el tejido ocular, y fácil de realizar en el consultorio del médico o en una clínica hospitalaria.

Paralelamente, también empezó a investigarse el tratamiento con fármacos para el glaucoma.En 1862, Thomas R. Fraser ya describió el efecto de un alcaloide extraído de una haba, la fisostigmina, y su efecto miótico (de contracción de la pupila), viendo que reducía la presión intraocular. En 1877, Adolf Weber estudió el efecto de la pilocarpina, que pasó a ser el principal medicamento para tratar el glaucomaActualmente también se usan colirios con betabloqueadores para bajar la presion  intraocular que reducen la producción de humor acuoso y el Timolol, es uno de los mas utilizados. Son un buen complemento si se usan con los inhibidores  de la anhidrasa carbonica, una droga como la dorzolanida que inhibe la formacion de humor acuoso porque neutraliza la enzima anhidrasa carbonica, cuya presencia es necesaria para la formacion del mismo.


Hay actualmente más de 66 millones de personas en el mundo con glaucoma. En algunos casos la genética tiene mucho que decir ya que hay glaucomas que tienen componentes hereditarios, pero algunos aparecen como consecuencia de traumatismos oculares y aunque no se pueden cerrar los ojos ante la idea de que glaucoma y ceguera están muy unidos, una detección precoz del problema, puede frenar su progresión y evitar así la pérdida de la vista. Porque aunque se trate de una “enfermedad silenciosa“, podemos acallarla.

Fuentes 

Proyecto Ocularis Dr. Rubén Pascual. Sección de Oftalmología infantil y Estrabismo en el Hospital San Pedro en Logroño.

Facultad de Medicina de Sevilla. Área de oftalmologia. Prof. A.Benjumeda

Consideraciones sobre los principios físicos de la tonometría de aplanación“. Jordi Castellví Manent, M. Ángeles Parera Arranz y Jorge Loscos Arenas 

Echart WU, Gradmann C. Hermann Helmholtz. Investigación y Ciencia. Mayo 1995.

Hermann von Helmholtz y el oftalmoscopio Dra. Eréndira Güemez-Sandoval 

Prolífico genio en oftalmología: Albrecht Von Graefe (1828-1870) Dr. David Lozano-Elizondo

Las “cartas cifradas”. Un arte renacentista 

El cifrado es un método para escribir mensajes manteniéndolos a salvo de miradas indiscretas. La “escritura secreta” usa muchas veces la criptografía, donde el mensaje viene representado por una serie de imágenes ininteligibles que sólo son comprensibles por el destinatario pero en el Renacimiento se escribieron muchas “cartas secretas” basadas en las llamadas “sustituciones”. Eran cartas perfectamente inteligibles pero que llevaban incorporada una serie de números y símbolos que solo podían interpretarse si el destinatario disponía de “las claves” para descifrarlas. 

Los responsables de la curia vaticana en la época renacentista fueron muy hábiles en este campo e incluso habían creado una oficina llamada “Segretario della Cifra” (Secretario de cifrado) para estos menesteres. Desde el siglo XIII, la “escritura oculta” ya se practicaba en Venecia o Florencia, y al principio se aplicaba a la misma métodos sencillos, pero llegó Leon Battista Alberti, y en su obra “Componendis cifris” de 1466 inventó las bases para la “sustitución alfabética” con unos artilugios conocidos como ‘discos de Alberti‘ que tenían un armazón fijo con las letras del alfabeto y las cifras 1, 2, 3 , 4. y otro móvil con símbolo en minúscula que se usaban para el texto cifrado.

Disco de AlbertiFuente

Entre los siglos XIV y XV se usó mucho el cifrado en Italia, para la correspondencia diplomática y el principal fue uno denominado «Nomenclator» o “tabla cifradora”, que estaba compuesto por un alfabeto (casi siempre homofónico) y un conjunto de palabras o frases codificadas, representándose cada una de ellas por uno o más símbolos enigmáticos. 

El documento de la imagen de portada es uno de ellos y corresponde a una pieza confeccionada entre los años 1493 y 1494 y referenciada con la clave ASV, A.A., Arm. I-XVIII 5026, ff. 100r-101v en el registro del Archivo Vaticano.Pertenece a la correspondencia cifrada del Papa Alessandro VI Borgia y concretamente el presentado se usó para codificar la correspondencia papal con don Francisco Desprats que en 1492- poco después de que el señor Rodrigo de Borgia (Alejandro VI) – fuese elevado al sillón papal había sido nombrado como “colector de espolios” (un eclesiástico constituido en dignidad por el rey de España) y que oficiaba también como su nuncio apostólico en la corte de los Reyes Católicos. 

Pero ¿qué es un «Nomenclator»? Pues se trata de un sistema mixto para codificar la escritura compuesto por un alfabeto cifrado y una lista de nombres, palabras y sílabas, que están codificadas en diferentes formas. Repasemos el de la imagen de portada : en su “recuadro superior” y en la primera línea se detallan las letras del alfabeto y en la segunda, tercera y cuarta líneas se nos muestran cuales son las opciones para la sustitución de estas letras. Para las consonantes se permiten dos opciones y para las vocales tres. Luego sigue un “recuadro central” en donde se nos pone una tabla que reagrupa a una serie de palabras (verbos, adverbios, pronombres, preposiciones y locuciones) que pueden ser sustituidas con un símbolo y un “recuadro inferior” con una serie de nombres, títulos y expresiones en tres columnas. En la primera columna la sustitución se hace por números y en la segunda y tercera por sílabas. 

Así vemos como en el documento expuesto la frase «la hija del Papa» se marcaría como «cuc»; «el hijo del Papa» como «gu»; el «camarlego» como «fu» y la frase «el Papa» estaría expresada con el número «23». La “nomenclatura” (tabla de sustitución) fue usada mucho en el Renacimiento y para descifrar algunas cartas antiguas renacentistas no basta con ser un paleógrafo y conocer las lenguas antiguas, sino que hay que tener a mano el «Nomenclator» que se usó para cifrarlas con sus  “claves” correspondientes. 

Un caso muy curioso es el que nos cuenta Marcello Simonetta en su libro: “El Enigma de Montefeltro” en el que resuelve un crimen de hace quinientos años. ¿Quién urdió la conspiración del 26 de abril de 1478 para matar a los hermanos Lorenzo y Juliano de Médicis en la catedral de Florencia? En la misma Lorenzo encontró refugio en la sacristía pero Juliano cayó bajo diecinueve puñaladas de sus asesinos. 

En el siglo XV había en Italia una competición directa entre dos familias: los Médicis y los Pazzis pero los primeros eran el clan con mayor poder en Florencia. y Lorenzo el Magnífico intercambiaba favores por dinero. Asesorado por su hermano Juliano, colocaba a sus amigos en los puestos claves del poder en detrimento de la familia Pazzi. Así se urdió una conspiración para matar a ambos hermanos aprovechando el día que estaban juntos en la misa mayor del Duomo. Juliano llegó acompañado de Francesco dei Pazzi y se colocó por razones de seguridad en el extremo opuesto de dónde estaba su hermano Lorenzo. En el momento de la consagración los conspiradores atacaron y Francesco dei Pazzi asestó 19 puñaladas a Juliano matándolo; otro grupo atacó a Lorenzo pero sus seguidores lo defendieron y le salvaron la vida.

Lorenzo se vengó y la familia Pazzi fue considerada responsable matándose aquel día a más de cien personas pero… ¿lo fueron realmente? porque los Médicis tenían una larga lista de enemigos, incluido el Papa de aquel entonces: Francesco della Rovere, Sixto IV.

Sixto IV

En la portada del libro aparece un gran protagonista: Federico II de Montefeltro, IX Conde y primer duque de Urbino. Supuestamente era aliado de los Médicis pero como otras muchas figuras del Renacimiento era un profesional de “la condotta” un término que en Italia designaba al contrato entre el capitán de mercenarios y el gobierno que alquilaba sus servicios. 

Vamos, que “se vendía al mejor postor” y aunque había servido a Lorenzo de Médicis en la guerra de Volterra de 1472 no tuvo el menor escrúpulo en conspirar contra él sirviendo al papa Sixto IV, enemigo de Lorenzo por haberle denegado un préstamo. Los señores mercenarios mudaban su lealtad a quien creían que poseía mayor poder.

Marcello Simonetta en el año 2000 pudo descifrar el código de una carta cifrada del 14 de febrero de 1478 que aquel duque de Urbino, envío a Roma revelando su participación en una conspiración gestada por el Papa Sixto IV para cambiar el Señorío de Florencia. Da la casualidad de que este autor, es un descendiente de uno de los protagonistas de aquellos acontecimientos y encontró una carta escrita en1478 de aquel duque de Urbino a su antepasado Cicco Simonetta, Canciller de Sforza de 1450, y otra posterior advirtiéndole que “tuviera cuidado con Lorenzo de Médicis”. No me extenderé más porque quien quiera saber más puede leer este libro donde se demuestra que aquel ataque fue el acto culminante de un plan de Sixto IV que buscaba redibujar el mapa del poder en Italia. 

Lo más interesante es responder a esta pregunta: ¿cómo descifró este investigador aquella “carta cifrada” sin disponer del «Nomenclator» ? Pues gracias a un diario de su pariente en donde encontró la clave  de que alguna letra podía estar representada por símbolos diferentes y que a cada persona correspondía un símbolo

Así es que en aquella carta cifrada que el duque de Urbino mandada a su antepasado él asignó un número a cada símbolo y la frecuencia de estos números le ayudó a encontrar “los símbolos repetidos“. Luego a los caracteres que más se repetían les asignó una vocal y como la letra «a» es la más repetida del alfabeto italiano la sustituyó por los símbolos que se repetían y así empezaron a aparecer palabras como «La sua santitá» que-obviamente- debía ser Sixto IV y salió el nombre del jefe de la conspiración. El duque de Urbino era conocido como un maestro de la escritura cifrada pero cuando se fueron descubriendo sus “claves” aparecieron. frases como «Hazlo, deshazte de Lorenzo en cuanto puedas»

Y así el Renacimiento siguió perfeccionado el noble arte del “cifrado de la correspondencia ” con muchos otros documentos recopilados en los archivos vaticanos y otros cifrados ubicados en el archivo del Fondo Borghese, entre los que se encuentran escritos de políticos cifrados las “Grilie di Cardamo” (grilla de Cardamo), otro sistema renacentista ideado por Gerolamo Cardano hacia 1550 con una cartulina cuadrada con perforaciones en cuyo interior se escribía el mensaje, y el texto se podía leer sobreponiendo a la carta recibida la grilla que el receptor tenía
Fuente 
Luego el cifrado se extendió y algunos ejemplos históricos importante son la anécdota de Oliver Levasseur, alias La Bouche (‘El Buitre‘) un pirata francés del Océano Índico que fue capturado y ejecutado en 1730. Antes de morir mostró un criptograma de 17 líneas, exclamando ante la multitud: “Mi tesoro está enterrado aquí … “. Nadie lo ha descifrado aún 


O el Copiale Cipher de entre 1760 y 1780, de una sociedad secreta de Wolfenbüttel, Alemania. Durante más de 260 años el contenido de este manuscrito de 105 páginas cifrada fue un misterio, hasta que en abril de 2011 un equipo de lingüistas suecos y estadounidenses utilizando sofisticados algoritmos de traducción pudieron descifrarlo al fin.

O cuando en el siglo XVI María, reina de los escoceses tras 18 años de prisión, apoyó el complot urdido por Anthony Babington para liberarla y asesinar a Isabel de Inglaterra. María conspiró con Babington a través del intercambio de cartas cifradas, mediante un cifrado de sustitución complejo con más de 63 símbolos diferentes para codificar letras y palabras.


Más modernamente en 1917 tenemos el telegrama codificado que el Ministro de Exteriores alemán Arthur Zimmermann envió a México sobre la reanudación de la guerra submarina alemana  “sin restricciones” . Aquel telegrama fue interceptado por un equipo de criptografía británica conocida como la habitación 40, y el 19 de febrero, de aquel año y una vez descifrado se pasó a los EE.UU. que el 6 de abril declaró la guerra al Imperio Alemán.

Hoy en día el cifrado es un arte mucho más sofisticado y en palabras del historiador eminente de cifrados, David Kahn: “Pocas de las ideas falsas que más firmemente se han apoderado de las mentes de los hombres es la de inventar un sistema de cifrado que nadie puede romper“.

Fuentes:

Archivo Vaticano: https://www.vatlib.it

Marcello Simonetta: “El Enigma de Montefeltro
Frattini, Enric: “La conjura: asesinar a Lorenzo de Médici“. Espasa Calpe.2006 
Julian Bhardwaj . ‘Discrete Mathematics‘. University of Warwick

La cuarta dimensión del tiempo 

En geometría, un hipercubo nos sirve para visualizar el concepto de dimensiones. Dependiendo de la cantidad de dimensiones que tenga ese  hipercubo puede tomar distintos nombres: con 0 dimensiones sería un Punto, con 1 dimensión sería una Arista. Con 2 dimensiones sería un Cuadrado, con 3 dimensiones un Cubo y con 4 dimensiones seria un Teseracto o sea  un cubo desfasado en el tiempo, es decir, que en cada instante de tiempo se va formando. Por supuesto, es imposible verlo en la cuarta dimensión, y del mismo solo podemos ver los puntos en los que él mismo toca nuestro universo, así que, si toca nuestro espacio 3D en forma paralela a una de sus hipercaras tal lo veríamos como se muestra en la figura de entrada de este post en donde vemos a uno de ellos girando proyectado en nuestro espacio tridimensional. 

Para entender lo que esto significa tenemos que hablar de las diversas dimensiones y de sus relaciones entre ellas 

La “Dimensión Cero” sería un vértice en medio en un vacío adimensional. Con esta dimensión puede localizarse un punto


La “Primera dimensión” puede considerarse como una linea en el espacio donde sólo existe la longitud, y aún no se constituye el ancho, ni la altura o profundidad. 

La “Segunda dimensión” ya contiene las figuras planas de todo tipo; regulares, irregulares Estas figuras ya tienen largo y ancho, direcciones atrás-adelante, y ejes “X” y “Y” como en un plano cartesiano.


La ‘Tercera dimensión‘ es aquella en la que vivimos físicamente con las direcciones derecha-izquierda, enfrente-atrás y arriba-abajo (Ejes X, Y, Z). Sin embargo vivimos en un entrelazamiento con las demás dimensiones; es decir que las dimensiones se relacionan y podemos ver sus efectos cuando una de ellas corta a otra. Es lo que pasaba con nuestro Teseracto de 4 dimensiones que lo veíamos cuándo tocaba   nuestro espacio 3D

Si tomamos como referencia la Segunda Dimensión en relación con la Tercera una persona “Tridimensional” al moverse siempre iría cortando unos plano bi-dimensionales

En cada plano habría un mundo concreto de dos dimensiones y un ser de uno de estos planos de la Segunda Dimensión, vería las acciones de esta persona por  las intersecciones de su cuerpo con el plano donde habitara. El resultado -para él- serían únicamente unas áreas sombreadas que serían las secciones del cuerpo de la persona 3D cuando atravesase su mundo plano. Para él serían círculos y figuras extrañas que aparecerían de improviso hasta-simplemente-desaparecer pero nunca podría imaginarse cómo sería esa persona en un universo 3D ya que no puede acceder a él. 

Porque en un universo de dos dimensiones no existe la altura, y sus habitantes solo se pueden mover hacia los lados, hacia atrás o hacia adelante; en cambio en nuestro universo de tres dimensiones ya podemos movernos hacia arriba o hacia abajo, hacia adelante o hacia atrás, hacia la derecha o hacia la izquierda y ¿cómo sería un universo de cuatro dimensiones

Aquí habría nuevas direcciones, por donde podríamos entrar y salir y quizá seríamos capaces de mirar al interior de los cuerpos o encontrar atajos, caminos o puentes que nos permitirían llegar más deprisa al trabajo pero todo esto que durante mucho tiempo pertenecía al reino de la fantasía cambió con Albert Einstein y otros físicos que emprendieron en el siglo pasado la búsqueda de las dimensiones ocultas, siguiendo las sutiles pistas escondidas en la naturaleza. 

Fuente

Pensaron que, tal vez, en nuestro universo 3D podría haber señales de una cuarta dimensión, por la aparición de sucesos inexplicables. Un suceso inexplicable para unos seres de dos dimensiones encerrados en un cuadro abandonado en un jardín sería el ver cómo se destruia su mundo a causa de algo desconocido que lo disolvía. En nuestro mundo 3D la causa seria fácilmente explicable. Se trataba de una lluvia que cae sobre el cuadro pero como la misma les cae desde “arriba” – es decir desde una tercera dimensión que los seres 2D no pueden siquiera imaginar se trata de algo inexplicable para ellos. 

Y en nuestro mundo 3D aquellos investigadores empezaron a buscar algo que no encajase con las leyes físicas que lo regian buscaban sucesos más allá de lo conocido, como aquella catastrófica tormenta tridimensional que destruyó el universo bidimensional de la pintura de nuestro ejemplo.Buscando esos sucesos inexplicables se encontró una anomalía en la órbita del planeta Mercurio. Cuando los astrónomos usaron la fórmula de Newton para calcular su órbita alrededor del Sol -y su posición aparente en el cielo, visto desde la Tierra- y compararon esos cálculos con las observaciones, encontraron que eran casi iguales, pero había una pequeña diferencia en la posición real de Mercurio: cada año parecía cambiar su posición (medida en el instante de su máximo acercamiento al Sol) un ángulo muy pequeño, de 5,75 segundos de arco. Era un error ciertamente pequeño, pero muy importante y los astrónomos dieron una explicación: Mercurio no sólo era atraído por el Sol, sino también por los demás planetas, así es que calcularon -usando siempre la teoría de Newton- la posición de Mercurio, teniendo ahora en cuenta todos los cuerpos del Sistema Solar, y, efectivamente, encontraron que, de aquellos 5,75″ de error anual,  se podían explicar 5,32″ por la influencia gravitatoria de los otros planetas lo cual era casi perfecto… pero no del todo exacto. La diferencia (0,43″/año) entre la posición calculada para Mercurio y la observada daba un error pequeño pero inquietante: ¿por qué no funcionaba exactamente la teoría de Newton con Mercurio, cuando sí parecía funcionar con todos los demás planetas? Fue Einstein quien, a principios del siglo pasado, propuso una teoría diferente a la de Newton y pudo por fin explicar los 0,43″/año famosos en la posición de Mercurio. Había puesto los principios de su ‘Teoría de la Relatividad Especial‘ en 1905, resolviendo un problema que aquejaba a la Física: la mecánica newtoniana y la teoría de los fenómenos electromagnéticos no encajaban, y con ello sometió a una profunda crítica la forma en que hasta entonces se entendían los conceptos de “espacio” y “tiempo“. 

Con la teoría de la relatividad especial, lo que hasta ahora se había dado por sentado que era una constante, el tiempo, en realidad era una variable y el espacio también lo era. El tiempo depende, en realidad, del movimiento, de la velocidad y eso lo cambió todo. Einstein se basó en dos hipótesis: a) las leyes de la física son las mismas mientras el sistema de referencia sea el mismo y b) la velocidad de la luz es una constante universal, (casi 300.000 kilómetros por segundo). De ahí surgió su famosa ecuación E = mc2 que relaciona de manera directa masa y energía.

Para entender mejor el concepto usaremos un ejemplo extraído de este artículo. Se trata de dos fotones de luz que rebotan entre dos espejos situados en dos trenes. Estando parados, como la velocidad de la luz es constante tardan él mismo tiempo en ir de un punto a otro en los dos trenes tanto si se les mira desde dentro de los mismos que desde fuera.


Pero si el primer tren se mueve a una velocidad constante, el observador situado dentro del tren seguirá viendo a ese  fotón rebotar de manera regular pero para un observador que esté situado fuera de ese tren y desde su punto de vista el fotón tendrá que recorrer una diagonal (más distancia) entre un espejo y otro variando el tiempo efectivo que tardar en rebotar. Es decir que los tiempos de dos observadores, uno estático y otro en movimiento han variado  

Así fue como Einstein en su teoría de la relatividad especial nos demostró que a velocidades lo suficientemente altas el tiempo se dilata o ralentiza y se hizo famoso el ejemplo de un cohete que viaja a la velocidad de La Luz (como aquel ‘Halcón Milenario‘ de la guerra de las galaxias)

La velocidad de la luz como es una constante universal puede usarse para definir una unidad de longitud llamada año luz para medir las distancias interplanetarias y si nos desplazáramos a una velocidad próxima a la de la luz (cerca de 300.000 kilómetros por segundo) hasta  una estrella que esté situada a una distancia de quinientos años luz al regresar a nuestro planeta, la Tierra será mil años más vieja, aunque nosotros sólo habremos envejecido diez años. De hecho 100 años en la Tierra, solo serían 5 para nosotros en nuestra súper nave espacial . Entonces ¿son los viajes a altas velocidades una fuente de eterna juventud? No, lo único que ha ocurrido es que el tiempo ha pasado más despacio.

El espacio-tiempo que define la teoría de la relatividad es un cono de luz, que va tanto hacia delante como hacia atrás en el tiempo. Los límites de ese cono están marcados por la velocidad de la luz y ninguna partícula podrá superarlos, por lo que nada de lo que ocurra puede estar fuera de los límites de ese cono.


Albert Einstein comenzó a buscar una nueva ley de la gravitación en 1.907, ya que su teoría de la relatividad especial ignoraba la gravedad en su conocido principio de equivalencia. Es sencillo de entender: si una persona cae libremente, no sentirá su propio peso y sería como si la gravedad para él hubiera desaparecido de su entorno, asi es que las leyes de la física que ella experimente serán las mismas que rijan en un sistema inercial libre de gravedad. Y así fue como el 25 de noviembre de 1915 presentó la formulación definitiva de su teoría de la relatividad general, introduciendo el misterioso concepto de la curvatura del espacio-tiempo eliminando la gravedad como una fuerza ‘real’ 
Ecuación de la relatividad general de Einstein 

Se trata de un sistema de diez ecuaciones que describen la interacción fundamental de la gravitación como resultado de que el espacio-tiempo está siendo curvado por la materia y la energía. Es decir que en ellas ya aparece el concepto de curvatura del espacio-tiempo que cambiaba por completo los conceptos. Los objetos se mueven en un mismo espacio-tiempo que, al estar curvado, produce la impresión de movimiento bajo una fuerza que actúa sobre ellos.

Fuente

El espacio-tiempo es un concepto que generaliza el anterior de espacio corriente, agregando una cuarta dimensión temporal. Se trata pues de un entorno de cuatro dimensiones e igual que en el ejemplo que poníamos de un ser de dos dimensiones cuyo plano era atravesado por un ser de tres, según la física y mecánica cuántica, la tercera dimensión se entrelaza con esa cuarta  y la dimensión del tiempo nos afecta. Se podría decir que vivimos y vemos el universo en pequeñas “pausas”. 

Los planos que podemos ver en nuestra dimension se miden en Cronones y cada uno dura 0,000 000 000 000 000 000 000 000 000 000 000 000 000 000 053 910 segundos. Como si se tratase de una cámara a alta velocidad, el universo nos pasa cuadro por cuadro, en estos minúsculos tiempos y-naturalmente- somos incapaces de percibirlo.

Pero según la física y mecánica cuántica, podría existir un ser capaz de moverse por esa cuarta dimensión y que podría pasar a través de nuestros “planos tridimensionales”. Aparecería y desapareceria de forma misteriosa mientras cambiaba de forma y esto sería algo tan extraño para nosotros como aquello de  ‘las sombras’ que dejamos para los seres de dos dimensiones cuando cruzamos su plano. Estos  “entes”, serían capaces de doblar el espacio-tiempo y pertenecer a realidades diferentes cada vez.

Podemos entenderlo imaginando una hormiga como un ser 3D que cruzar un trozo de papel. Tardaría 20 segundos en ir de un punto a otro pero si le plegamos los extremos, el mismo recorrido lo podría hacer en 1 segundo. 

Eso es lo que le pasaría a un ser que estuviera en la Cuarta Dimensión, que podría moverse no solo con el espacio, sino con el tiempo, y sin necesidad de usar las velocidades luz. Para él sería posible moverse como en los famosos “Agujeros de Gusano”. 




Agujeros de gusano conectando distintos instantes de tiempo. 
Fuente 


Los ‘agujeros de gusano‘ son atajos en el tejido del espacio-tiempo que permiten unir dos puntos muy distantes llegando de uno a otro más rápidamente que si se atravesara el Universo a la velocidad de la luz. Según la teoría de la relatividad general de Einstein, estos agujeros de gusano pueden existir con una entrada y una salida en puntos distintos del espacio o del tiempo. El túnel que los conecta está en el hiperespacio, que es una dimensión producida por una distorsión del tiempo y la gravedad.

Y un ser de 5 dimensiones podría moverse en el espacio-tiempo de una manera similar. Con 5 dimensiones para él el tiempo sería una dimensión más y podría desplazarse por el mismo como ‘una extensión más’ ‘e igual que nosotros vemos la anchura, la altura y la profundidad él también vería los distintos instantes del pasado y del futuro. Es la situación que vive el protagonista de la película Interstellar al que unos seres de 5 dimensiones le salvan de caer en la singularidad de un agujero negro haciendo un hueco en su mundo con un Teseracto desde donde podía ver la habitación de su casa en todos los instantes de tiempo.

Fuentes:

Roberto Emparan (Bilbao, 1967). ICREA Research Professor. Universidad de Barcelona.

Hernán Quintana: Instituto de Astronomía. Pontificia Universidad Católica de Chile.

Enrique F. Borja. Relatividad General. Un siglo con las ecuaciones de Einstein

La interesante historia de los cajeros automáticos 

Los cajeros automáticos se definen en la Wikipedia, como la red de ATMs (por Automated Teller Machine, el nombre genérico de estas máquinas en inglés) y se extienden desde la estación antártica de McMurdo, en su punto más austral, hasta el pueblo de Longyearbven, en Noruega, el punto más al norte del planeta. 

Alrededor del mundo hay muchos millones de cajeros automáticos y no importa a donde vayas, porque siempre encontrarás uno a tu disposición. Nadie podría pasar hoy en día sin la comodidad de sacar dinero de su cuenta bancaria las 24 horas del día en los 365 días del año pero hace poco tiempo esto no era posible. Hoy vamos a ver la interesante historia del desarrollo de los ATMs porque como todos los inventos complejos, el sistema requirió la unión de muchas ideas.

Hasta los años 60, si querías sacar dinero de tu cuenta bancaria debías de acudir a una oficina de tu entidad y en unos horarios determinados, por lo que si tenías una urgente necesidad de dinero, no podías obtenerlo fuera de las horas laborables; incluso debías esperar días si te coincidía con algún festivo y por eso la idea del ‘autoservicio’ empezó a gestarse en la banca minorista con unos primitivos esfuerzos para su desarrollo  en Japón, Suecia, Estados Unidos y Reino Unido. 

En los EE.UU. George Luther Simjian  fue el primero que desarrolló una máquina automática para aceptar dinero y depósitos de cheques en cualquier momento del día. Este hombre era un turco hijo de padres armenios que con 15 años y al finalizar la I Guerra Mundial fue separado de su familia y enviado a vivir con unos parientes en los Estados Unidos. Era un hombre de mente muy brillante y trabajó desde el año 1959 en un dispositivo llamado “Depository machine combined with image recording means” (Máquina de depósito combinada con medios de grabación de imagen). Lo patentó el 30 de junio de 1960 y esta patente le fue otorgada el 26 de febrero de 1963 con el número US 3079603 A y a la misma le puso el nombre de ‘Bankograph‘. Se trataba de una máquina con un sistema de grabación de imágenes que aceptaba monedas, dinero en efectivo y cheques. Las entregas se validaban por un sistema de microfilms que fotografiaban cada depósito ofreciendo a los usuarios un recibo. Estos son los datos de aquella patente

El lanzamiento del  ‘Bankograph‘ se retrasó algunos años porque la compañía ‘Simjian Reflectone Electronics Inc.‘ de su inventor fue adquirida por la ‘Universal Match Corporation‘  y cuando la máquina estuvo desarrollada fue adquirida por el Citigroup que hizo una prueba experimental instalando una de ellas en Nueva York en el año 1961 

Esquema del Bankograph de 1961

Sin embargo, aquella máquina fue retirada a los seis meses de su colocacion por no tener aceptación del público. Al parecer las únicas personas que la usaban eran prostitutas y apostadores profesionales que no deseaban el tratar cara a cara con los cajeros de las ventanillas bancarias pero el resto de los clientes no se fiaban de entregar su dinero a una máquina y preferían acudir a las ventanillas del banco. Es decir, el fracaso del ‘Bankograph,’ fue porque solo servía para captar depósitos y no dispensaba dinero

Pero llegó John Shepherd-Barron que fue el hombre que tuvo la primera idea de un prototipo de maquina que dispensara dinero en efectivo, En una entrevista a la BBC del año 2007, él contaba cómo se le ocurrió aquella idea. Trabajaba en una empresa británica llamada  ‘De la Rue‘  que imprimía timbres postales (como los famosos “penny blacks”) pero que también usaba máquinas para contar billetes en los bancos. Aquella empresa fundó otra que se dedicaba a suministrar dinero a las entidades bancarias llamada ‘Security Express‘ y fue en esta compañía donde  John Shepherd-Barron fue nombrado jefe de seguridad ya que él había implantado en la misma el uso de los  vehículos blindados cuando en un viaje a Nueva York se fijó en que ese era el tipo de vehículos que usaban algunas compañías privadas americanas para transportar dinero a los bancos. Un sistema desconocido en el Reino Unido.

Vivía en el campo, con su esposa Caroline y cobraba sus cheques en una oficina local. Solo podía ir los sábados ya que era el único día de la semana que tenía libre para hacer estas gestiones, pero el sábado 19 de Junio de 1965 llegó a su banco a las 12:31 y no pudo cobrar su cheque para el resto de la semana: su entidad abría de 9:30 a 12:30 y estaba cerrada por llegar un minuto tarde,

Se marchó a su casa frustrado y aquella noche, mientras tomaba un baño, empezó a pensar en cómo tener acceso a su dinero a cualquier hora. E igual que Arquímedes-cuando formuló su famoso principio- a aquel ingeniero británico le llegó la revelación también en la bañera. Se hizo esta sencilla pregunta: ” ¿por qué no puedo acceder a mi dinero a cualquier hora y en cualquier parte del Reino Unido “?  y empezó a pensar en aquellos dispensadores automáticos de golosinas que te permitían sacar una chocolatina de una máquina expendedora a cualquier hora del día o de la noche. En aquellas máquinas se insertaba una moneda de un penique en una ranura, se tiraba de una palanca y se abría un cajón en donde aparecía una barra de chocolate. Solo había que diseñar una máquina que en vez de ‘dar chocolate diera dinero’

En aquel tiempo aún no existían las tarjetas de plástico pero si existían los cheques y nuestro hombre tenía experiencia en la impresión de ‘cheques seguros‘ – otro de los negocios de la empresa para la que trabajaba (De La Rue)- los mismos usaban como identificador el Carbono 14, un material levemente radiactivo pero no peligroso y empezó a desarrollar una idea de cómo sería el proceso de obtención de dinero de una máquina:

1.- El cliente pasaria por la entidad bancaria para retirar cheques seguros (aquellos impregnados de carbono 14

2.- El cliente se identificaría marcando un número en la máquina expendedora de dinero. 

3.- Una vez identificado introduciría en la máquina uno de estos cheques seguros.

4.- Estos cheques al ser introducidos en la máquina serian reconocidos como auténticos y la misma devolvería en dinero su importe 

Para el número identificativo él pensó en uno de seis cifras cuando se dio cuenta de que podía recordar los seis dígitos de su registro militar pero a la mañana siguiente decidió probar la idea con su esposa Caroline. Así lo contaba durante su entrevista en la BBC: “estábamos en la mesa de la cocina y le pregunté a Caroline cuál era el número máximo de dígitos que podía recordar sin problemas“. Ella le contestó que sólo podía recordar cuatro dígitos y así fue como nació el Número de Identificación Personal o NIP de 4 dígitos, que se convertiría en el estándar mundial del PIN  (por sus siglas en inglés) Desde entonces muchas cosas han cambiado, pero aquel PIN, sigue teniendo cuatro dígitos.

Al lunes siguiente por la mañana Shepherd-Barron fue a trabajar a Londres y se reunió con su pequeño equipo de De La Rue al que le expuso sus ideas iniciales para entregar dinero durante las 24 horas a través de la pared de un banco. Dos días después, aquel equipo tenía algunas soluciones prácticas y el viernes nuestro hombre acudió a una comida de negocios de su empresa ‘Security Express‘ para reunirse con Harold Darvill, un directivo que trabajaba para el Barclays Bank, el cuarto banco más grande del mundo, al que ellos transportaban dinero para cerca de 2,000 sucursales. 

Al segundo martini pidió a su invitado, que le diera 90 segundos para explicarle la nueva idea de su invento. Así contaba él a la BBC como se la expuso :”Le dije que había tenido la idea de que, introduciendo tu cheque Barclays en un lateral de la sucursal, te podría entregar su equivalente en dinero al instante.” Aquel Director Ejecutivo de Barclays solo tardó 85 segundos en convencerse y le dijo que si podía hacer esa máquina se la compraría 

Al lunes siguiente el Barclays Bank firmó un contrato con John Sheperd-Barron para desarrollar el primer prototipo del cajero automático e instalar las primeras seis máquinas con un pedido posterior de 50. El inventor reunió a su equipo, contrató a más gente y la primera unidad estuvo lista dos años más tarde y se instaló en una sucursal de aquel banco en el distrito londinense de Enfield (al norte de la capital del Reino Unido) el martes 27 de junio de 1967 
Aún existe allí una placa conmemorativa

 El artilugio creado por John Shepherd Barron no era como los cajeros actuales porque no había tarjetas plastificadas y la máquina no tenía pantalla. Tan solo y contra la entrega de uno de aquellos ‘cheques radioactivos‘ de diez libras, te entregaba diez billetes de 1 libra cuya cantidad era descontaba de la cuenta del cliente antes del pago. Era una cantidad considerable para aquella época y no todos los clientes podían beneficiarse del sistema pero el mismo se promocionó bastante siendo el comediante británico Reg Varney el primero en retirar dinero usando aquel cajero automático.

Sin embargo con su invento del ‘cajero automáticoJohn Shepherd-Barron no ganó ni un solo centavo en ‘royalties ‘ porque no se atrevió a patentarlo por miedo a que los ladrones lo acosaran para que les enseñase su sistema de codificado. Aún así la Reina de Inglaterra le otorgó en el año 2005 la Orden del Imperio Británico y nuestro hombre falleció en Escocia el 15 de mayo del 2010 a la edad de 84 años con la satisfacción de haber llevado a buen puerto la idea que tuvo en la bañera para sacar dinero sin regirse por las horas de apertura y cierre de las oficinas bancarias 

Como no hubo patente del ‘cajero automático’ la paternidad del mismo fue posteriormente reclamada por otros y uno de ellos fue un ingeniero escocés del MD2 llamado James Goodfellow que fue quien introdujo el sistema de las ‘tarjetas plastificadas‘ y que sustituyeron a los engorrosos ‘cheques radiactivos‘ de Shepherd-Barron.

James Goodfellow con una de las primeras  ‘tarjetas codificadas’ Photograph: Murdo Macleod for ‘the Guardian’

Y no le faltaba razón porque la idea de un PIN almacenado en una tarjeta se la debemos a él. Fue este hombre quien desarrolló la idea en 1965 con Anthony Davies (patente GB1197183 de 2 de mayo de 1966) y el PIN se incorporó a los ATMs en 1967, como una forma eficiente para que los bancos dieran dinero a sus clientes. El Lloyds Bank fue la primera entidad que en 1972 emitió una tarjeta bancaria con información de banda magnética codificada utilizando un PIN de seguridad. 

Faltaba aplicar ese PIN a los cajeros y esto se hizo con los ‘Keypad‘ . El teclado de un Cajero que permite la identificación del cliente 
Uno de los primitivos teclados de un Cajero automático

Para llegar a esta idea tenemos que remontarnos a la década de 1970, y a un empresario francés, fallecido en el año 2007 llamado Bob Carrière que tuvo la visión de que las modernas cerraduras podrían llevar un código digital en vez de una llave.

Esta es otra curiosa historia porque aquel hombre se inspiró para su invento en un episodio de Popeye , cuando un personaje de aquellos dibujos animados abre la puerta de una nevera donde hay un teléfono (de aquellos rotativos)  y para que no le roben su comida usa los dígitos del mismo para activar el bloqueo de la cerradura.  En 1970, Bob Carrière presentó su patente bajo dos nombres: digiclé y digicode e IBM le preguntó si podia proporcionarle 350 códigos digitales para las puertas de sus oficinas. Así fue como firmó su primer contrato con esta empresa que luego aplicó su invento a los   cajeros automáticos . Los primeros prototipos-similares a las máquinas de hoy- entraron en uso en diciembre de 1972 en el Reino Unido y uno de ellos fue el IBM 2984 diseñado a petición del Lloyds Bank


Luego vino el primer cajero automático moderno. El IBM 2984 que entró en uso por el Lloyds Bank, en Brentwood High Street, Essex, Inglaterra en el mes de diciembre de 1972.

2984 CIT (Terminal de emisión de dinero) el primer Cashpoint verdadero

En el año 1982, más del 70% de los cajeros automáticos estadounidenses ya se fabricaban por ‘De La Rue‘ en Portsmouth, Inglaterra, pero aún faltaban otros pequeños detalles como por ejemplo el que estuvieran conectados entre sí, ya que los primeros cajeros automáticos sólo permitían sacar dinero de una cuenta bancaria y no estaban conectados a otros bancos pero Wetzel, Barnes y Chastain desarrollaron posteriormente las tarjetas para cajeros que incorporaban la cinta magnética con la información de la cuenta del usuario en combinación con el antiguo Número de Identificación Personal o NIP.

Y en menos de cincuenta años pasamos a millones de ATMs conectados en línea a la banca a través de una red global que permiten sacar dinero hacer depósitos y transferencias entre distintas cuentas, pagar servicios, hacer donativos y comprar cualquier cosa, desde seguros hasta boletos de sorteos. El resto ya lo conocemos todos:  algo que en un periodo de tiempo increíblemente corto y con el esfuerzo conjunto de muchas ideas separadas nos han dado esos aparatos que facilitan la vida a millones de personas.

Fuente(s) 

Ray Horak. “Telecommunications and Data Communications Handbook“. Ed. John Wiley & Sons, 2012. ISBN: 9781118585801. 

Ya está el listo que todo lo sabe” (366 curiosidades para descubrir el porqué de las cosas cada día) de Alfred López publicado por Editorial Léeme Libros.

http://rachel.golearn.us/modules/es-wikipedia_for_schools/wp/a/Automated_teller_machine.htm

https://en.wikipedia.org/wiki/John_Shepherd-Barron

https://fr.wikipedia.org/wiki/Bob_Carrière

https://en.wikipedia.org/wiki/James_Goodfellow


En la Junta de Andalucía las campañas de vacunación no se llevan bien con las políticas de ahorro en recursos médicos 

La Junta de Andalucía en el año 2012, estableció el sistema de subasta de fármacos por el criterios del ‘principio activo‘ que ya ha sido declarado ajustado a derecho por nuestro Tribunal Constitucional (TC). Sin embargo, somos muchos los usuarios que seguimos cuestionando la calidad de los medicamentos que financia la sanidad andaluza ya que muchos de ellos vienen de empresas farmacéuticas de Europa del este o de Asia. 

El pasado mes de Noviembre, el consejero de Salud andaluz, don Aquilino Alonso, hizo un balance de las políticas sanitarias de la Junta en una comisión parlamentaria sobre Presupuestos y nos dijo que Andalucía es una “garantía de sanidad pública, universal, solidaria, de calidad y gratuita en el acceso” 

Pero, personalmente, tengo que discrepar, por la forma en la que, en esta campaña, la Junta de Andalucía ha desarrollado su campaña de vacunación para personas mayores frente al neumococo 13-valente. 

La enfermedad neumocócica es una patología infecciosa prevalente causa­da por un diplococo llamado  Gram+ Streptococcus pneumoniae del que se conocen más de 90 serotipos (aunque no todos de la misma virulencia). Se estima que 20 de ellos son los responsables del 70% de la llamada ‘enfermedad neumocócica invasora‘ (ENI), originada por una bacteria muy común, que se puede propagar por medio del aire al toser, al estornudar o entrando en contacto cercano con una persona infectada. 

En las personas de más de 65 años la incidencia del ENI es bastante letal. Los síntomas de la neumonía neumocócica suelen aparecer rápidamente y con consecuencias extremadamente graves, dando tasas de mortalidad a medio y largo plazo bastante elevadas: un 8% a los 90 días, un 21% al año y un 36% a los 5 años.

Según un estudio poblacional de la neumonía neumocócica hecho durante el periodo de 5 años comprendido entre los años 2003 y el 2007, la misma ocasionó 937.884 días de hospitalización en centros públicos españoles y generó un coste de asistencia hospitalaria por paciente de 5.353,80 € . Solo en España el Streptococcus pneumoniae fue el responsable de más de 100.000 hospitalizaciones y de casi 8.000 defunciones en el año 2014. 

La prevención de esta enfermedad se basa exclusiva­mente en la utilización de vacunas y la pri­mera vacuna antineumocócica de polisacáridos con 23 serotipos (VNP23) se comercializó en EE.UU en el año 1983 siendo autorizada en España en el año 1999, con unas recomendaciones de utilización de la misma para “grupos de riesgo” a partir del año 2002. La Organización Mundial de la Salud (OMS) recomendó en el año 2012 una vacunación extensa contra la enfermedad neumocócica invasora (ENI) y asimismo, el Grupo de Vacunas de la SEGG recomendó que en el mismo acto de la vacunación antigripal se administrara también la vacuna contra el neumococo para las personas mayores de 65 años que estuvieran incluidas en ciertos grupos de riesgo. Uno de ellos es la ‘bronquiectasia‘, una condición pulmonar en la que los bronquios se ensanchan de forma permanente, lo que hace que los pulmones tengan más dificultad para eliminar la mucosidad y en casos extremos las vías respiratorias se llenan de la misma. Eso puede dificultar la respiración hasta un punto llamado ‘enfisema‘ en el que el aire queda atrapado en los sacos diminutos y derivar en una insuficiencia respiratoria que podría poner en peligro la vida del paciente.

El Gobierno andaluz incluyó una partida de 200.000 dosis de vacunas contra el neumococo en el año 2012. Las vacunas disponibles en aquel entonces eran las del tipo VNP23 como la ‘Pneumo 23‘ y la ‘Pneumovax 23‘ que conferían inmunidad frente a 23 serotipos de S. pneumoniae: 1, 2, 3, 4, 5, 6B, 7F, 8, 9N, 9V, 10A, 11A, 12F,14, 15B, 17F, 18C, 19A, 19F, 20, 22F, 23F, 33F. Para ambos productos, y tras la primera vacunación se recomendaban otra revacunación a los 3 o 5 años para determinados grupos de pacientes con alto riesgo de padecer la infección por neumococo.

El precio medio por dosis (sin iva) que logró la Junta en aquel año para aquellas vacunas fue de unos 4,80 euros por dosis, con una cláusula por la cual las empresas adjudicatarias debían de comprometerse a revisar a la baja los precios si el Ministerio adquiría vacunas a un precio menor y tras esta adquisición la Consejería de Salud y Bienestar Social de la Junta de Andalucía vacunó a algunos grupos de riesgo con este tipo de vacunas en una dosis única inyectable y en el mismo acto vacunal de la gripe para la campaña 2012/2013. Yo fui uno de los que la recibieron en el año 2013 y al vacunarme me dijeron que era recomendable una revacunación posterior.

En aquel tiempo ya existía una vacuna más efectiva y la única que podía considerarse (con ciertas restricciones) como una vacuna ‘semipermanente‘ . Se trataba de la vacuna conjugada tipo VCN13 cuyo producto más significativo era el ‘Prevenar 13‘ de Pfizer Limited. 

Aquella vacuna se autorizó por procedimiento europeo CE el 9/12/2009 y su eficacia está basada en que reduce a la mitad la colonización de los 13 serotipos que con más frecuencia causan la enfermedad neumocócica (1, 3, 4, 5, 6A, 6B, 7F, 9V, 14, 18C, 19A, 19F, 23F) protegiendo también frente a otras enfermedades como la meningitis.

Actualmente el precio de está vacuna (PVP) es de 76,34 euros/dosis, y su Precio Venta Laboratorio (PVL) oscila entre los 48,4 euros/dosis.Ignoro el precio que tendría en el año 2012 pero-como es lógico pensar- con un presupuesto de 4,80 euros por dosis en el año 2012 la Junta no pudo utilizar este tipo de vacuna y debo de suponer que la que a mi me pusieron sería del tipo VNP23 del tipo de las antes citadas.

Pasado el tiempo el Ministerio de Sanidad decidió recomendar la ampliación de los grupos de personas a vacunar contra la enfermedad neumocócica invasora dando un plazo hasta el año 2016 (probablemente por motivos presupuestarios) para que todas las CCAA españolas lo hiciesen.En la campaña de vacunación de la gripe del pasado año 2016 el Servicio Andaluz de Salud (SAS) decidió incluir esta vacunación contra el neumococo para las personas de edades comprendidas entre los 65 y los 73 años y en su Cartera de Servicios de Atención Primaria dio unas directrices para la aplicación de estas vacunas a los mayores andaluces.

En las mismas la Junta de Andalucía recomendaba el inmunizar a las personas con riesgo de enfermedad neumocócica con un registro de la vacunación efectuada, suministrada en una sola dosis de vacuna, pero luego añadían una coletilla en la que decia que “la revacunación no se recomienda de forma rutinaria

No sé cómo los profesionales sanitarios andaluces interpretaron estas directrices pero, si puedo contar “mi caso particular” y es que cuando el pasado año fui a recibir mi vacuna antigripal solicité expresamente mi deseo de ‘ser revacunado‘ contra el neumococo manifestando que yo era un paciente con bronquiectasia, que había sido vacunado en el año 2013 con una dosis- en teoría- de VNP23. La respuesta del enfermero del SAS que me atendió (Noviembre 2016) fue esta:” Vd. ya fue vacunado en el año 2013 para TODA LA VIDA“.

Aunque no me quedé muy convencido, supuse que sería así, pero la realidad me mostró posteriormente el  que mi anterior vacunación ya no debía de protegerme porque en las tres últimas semanas de Febrero tuve un grave episodio de infección neumocócica con dolor en el pecho, dificultad para respirar y tos con flema (incluso tuve que llamar al 061) 

Aunque se me había dicho que estaba VACUNADO PARA TODA LA VIDA la realidad es que no era así y- aparentemente- ya no estaba inmunizado, por lo que tras consultar con mi médico, el mismo me recomendó una revacunación (pagando su importe) con la vacuna ‘Prevenar 13‘ 

Pero ahora me surgen unas dudas que quiero comentar aquí. Resulta que hay un programa de adquisición por parte de la Junta de Andalucía publicado en el «BOE» núm. 254, de 20 de octubre de 2016, páginas 63141 a 63141 (1 pág.) Sección: V. Anuncios – A. Contratación del Sector Público donde se dice: ‘suministro de vacuna frente al neumococo 13-valente destinado al Programa de Vacunación Andaluz‘ señalando como empresa adjudicataria a  Pfizer S.L. y por un importe neto de 16.280.000,00 euros

No sé si esta adquisición se refiere a la vacuna ‘Prevenar 13‘ (la mejor y la que yo me he puesto a costa de mi bolsillo) pero con la dotación presupuestaria que hizo la Junta en su convocatoria de compra y si tenemos en cuenta que el precio venta laboratorio (PVL) de esta vacuna es de unos 48,4 euros a mi me sale que podrían adquirirse unas 336.363 dosis y si se vacunara a todos los andaluces de edades  comprendidas entre los 65 y los 74 años no habría suficientes vacunas para todos ya que según los datos de población de la comunidad andaluzada del año 2015,en aquel año ya habia 717.939 potenciales receptores.


Por eso ahora entiendo que se descarta vacunar a los que ya habíamos recibimos la vacuna en años anteriores ya que 717.939 dosis de ‘Prevenar 13‘ en base al presupuesto concedido por la Junta tendrían que salir a un precio medio del orden de 22,68 euros por dosis y esto no lo creo posible.

El problema ahora es el saber si se está poniendo actualmente la vacuna VCN13 (tipo ‘Prevenar 13‘ ) a los mayores de 65 en Andalucía y no vacunados anteriormente o si se sigue vacunando a la gente con el tipo VNP23 . ¿Por qué es esto importante? Pues porque si se estuviese poniendo una vacuna distinta del ‘Prevenar 13‘ habría que informar al usuario de que ‘deberia revacunarse‘ si su médico lo incluye en los grupos de riesgo en vez de dar instrucciones genéricas de que: “la revacunación no se recomienda de forma rutinaria“. 

Me limitaré a poner las recomendaciones del CDC (Centros para el Control y la Prevención de enfermedes) que aconseja poner 2 vacunas antineumocócicas a todos los adultos de 65 años o mayores en grupos de riesgo con estas pautas:

* Deben recibir una dosis de la VCN13 seguida por una dosis de la VNP23 al menos un año después.

* Si han recibido ( como mucha gente antes) una dosis de la VNP23 se les debería administrar al menos un año después otra de la VCN13 para su inmunización completa 

* Si recibieron una dosis de la VCN13 a una edad temprana, ya no deberían recibir ninguna otra dosis de esta misma vacuna.

Resumiendo: lo correcto sería revacunar a todos los mayores de 65 años pertenecientes a grupos de riesgo que recibieron la vacuna VNP23 en su día con la nueva VCN13 y si se está poniendo esta última sería aconsejable revacunar de nuevo con la VNP23 a los grupos de riesgo en el 2018.

Como podemos ver un programa correcto de vacunación contra la enfermedad neumo­cócica invasora (ENI) cuesta bastante dinero y aunque yo comprendo que la Junta de Andalucía quiere “ahorrar dinero” en recursos sanitarios esto no debería de hacerlo a costa de confundir al personal. Seamos serios. 

Fuentes

http://www.msssi.gob.es/profesionales/saludPublica/prevPromocion/vacunaciones/docs/Neumococo_Gruposriesgo.pdf

http://www.sendasenior.com/Gripe-neumococo-y-herpes-zoster-vacunas-clave-para-los-mayores-de-60-anos_a3751.html

http://www.smacor.com/Salud%20resuelve%20su%20concurso%20de%20compra%20centralizada%20de%20vacunas%20antes%20que%20el%20Ministerio.pdf

http://www.prevnar13adulto.com

¿Los emprendedores nacen o se hacen?

Usted tiene una gran idea para un negocio y piensa que puede ganar mucho dinero con ella… ¿qué hace? ¿funda su propia compañía, dedica su vida a ella y con su esfuerzo y determinación hace una fortuna o tal vez sencillamente se olvida de la idea y sigue trabajando por un salario? La respuesta es que los empresarios exitosos nacen y se hacen, algo que el especialista en negocios Peter Ryding define con esta frase: “Yo calcularía que en un emprendedor la respuesta es: 70% innato, 10% adquirido y 20% aprendido“. Es decir que los empresarios tienen dos características genéticas clave, a las que él llama “pensamiento adaptable” y “ver la realidad positivamente“. El mejor ejemplo de esto lo tenemos en la vida de dos personajes (padre e hijo) de la familia Tudor de Norteamérica 

  • El padre

Uno de agosto de 1805. Aquel que ante la primera dificultad, sin intentarlo otra vez, pierde la esperanza de triunfar, no ha sido, no es y nunca será un héroe en la guerra, el amor o los negocios“.

Así empezaba el diario que Frederic Tudor comenzó a escribir el día que se lanzó a la gran aventura de su vida. Una empresa que se inicia en los helados lagos de Nueva Inglaterra  y que finaliza con el uso masivo por el mundo de los ‘cubitos‘ esos  pequeños trozos cúbicos de hielo  que utilizanos para enfriar nuestras bebidas.
Hasta la mitad del siglo XIX, el hielo era un ‘bien de lujo‘ cuyo disfrute estaba reservado a los ricos, y así era como lo hacía una acomodada familia de la clase  alta bostoniana: los Tudor que usaban el agua congelada de un estanque de su finca en Saugus, Massachusetts ubicada en las afueras de Boston y conocido como “Rockwood“, de donde sacaban grandes bloques de agua congelada para almacenarla en habitaciones especialmente acondicionadas en enormes cubos de 90 kilos de peso. Allí mantenían aquel hielo hasta que llegaba el verano para usarlo en enfriar bebidas, hacer helado o refrescar el agua del baño durante alguna ola de calor. 

El patriarca de la familia se llamaba William Tudor (28 de marzo de 1750-08 de julio de 1819) y era un rico abogado de la aristocracia de Boston (Massachusetts). Su tercer hijo Frederic Tudor (1783- 1864) fue nuestro emprendedor que con su aventura llegó a ser conocido como el “Rey del Hielo”. 

Viniendo de una familia rica para él era fácil seguir la carrera de su padre y ser un brillante personaje de la clase pudientes bostonianas pero el quiso ‘ser diferente’. A los 17 años, su padre lo mandó a La Habana para acompañar a su hermano John que-herido en una rodilla- necesitaba de aquel clima cálido para restablecerse pero él lo pasó muy mal en aquel viaje pues tuvo que sufrir  la tortura de la humedad tropical vestido con los ropajes de un caballero del siglo XIX.Al cumplir los dieciocho, nuestro muchacho regresó a Boston, y  en el caluroso verano de 1805, en la boda de su hermana Emma. se puso hielo en las bebidas; su hermano William comentó allí en broma: “menos mal que hemos podido disfrutar del hielo de nuestro estanque de Rockwood”, y entonces surgió la idea: si se pudiera transportar este hielo a las Indias Occidentales, se vendería muy bien, acordándose de las fatigas que él había pasado en su último viaje a La Habana.

Y-dicho y hecho- al cumplir los 22 años Frederic Tudor decidió que, si no se podía refrescar el clima de los trópicos almenos llevándoles hielo podríapaliar los sofocos de sus habitantes y decidió cosechar el hielo invernal de aquel estanque de “Rockwood” y exportarlo a las cálidas costas del Caribe. Su primer experimento estaba a 2.400 kilómetros al sur, en la colonia francesa de la Martinica pero nadie se tomó en serio la idea de nuestro joven emprendedor y no encontró a ningún armador que quisiese transportar aquel hielo en su barco; así es que compró el bergantín “Favorite” por 4.750 dólares y con  este barco mandó a su hermano William a la Martinica el 10 de Febrero 1806 con un cargamento de hielo de aquel estanque de Rockwood. El periódico ‘Boston Gazette‘ se tomó a broma aquella aventura e informó en  estos términos: “Un barco con 80 toneladas de hielo ha dejado el puerto con destino Martinica. Esperemos que esto no resulte ser una especulación resbalosa ” 

Así bromeaban los columnistas de aquel diario pero el asunto no era broma ni se habían enviado 80 toneladas sino 130 que embaladas en heno sobrevivieron a un viaje de tres semanas desde Custom House al muelle de St. Pierre, Martinica. Al arribar allí en Marzo de 1806 William no pudo encontrar ni un lugar adecuado para almacenar su hielo ni compradores para el mismo por lo que aquel viaje fue un rotundo fracaso y Frederic Tudor vio como sus beneficios se fundían rápidamente perdiendo 4.000 dólares en aquella aventura.

Sin embargo tuvo una buena idea y fue la de ofrecer degustaciones gratuitas de su hielo a personajes distinguidos de la isla a los que les servía bebidas en vasos de cristal con sus ‘cubitos‘. Así pronto mucha gente se entusiasmó por las ‘bebidas frías‘ y además convenció a dueños de bares y restaurantes para que vendieran ‘bebidas con hielo‘ enseñándolos también a fabricar helados. Tras aquella promoción y sin arredrarse por su primer fracaso, nuestro hombre embarcó 240 toneladas de hielo a la Habana al año siguiente.

Perosiguió sin obtener beneficios porque el embargo de 1807 y la guerra de 1812 dañaron el mercado naval americano y pusieron su negocio al borde del caos.Con pérdidas acumulándose año tras año, Tudor acabó dos veces en prisión por deudor moroso pero no se rindió. Lo primero que hizo fue construir recintos para conservar su hielo en los puertos y a base de ensayo y error, descubrió que el serrín evitaba su derretimiento mejor que el heno. Para los nuevos almacenes jugó con múltiples diseños, hasta decantarse finalmente por una estructura de doble carcasa con serrín de pino con cámara de aire entre dos paredes de piedra. Luego pudo comprobar que muchos barcos salían de Boston con las bodegas vacías para cargar en el Caribe y esto le daba la oportunidad de negociar ‘precios bajos’ para transportar el hielo.Además el mismo era una materia prima gratuita a la que solo había que cargar el coste de los trabajadores que lo sacaban y otra de sus necesidades ‘el serrín‘  era otro producto de coste cero que la economía de Nueva Inglaterra generaba en grandes cantidades como desperdicio de las compañías madereras y un excelente aislante para el hielo. Una  combinación de cosas que no costaban casi nada –hielo y serrín y barcos vacíos que salían hacia otros países, convirtieron su idea en un negocio floreciente 

Luego se unió a Nathaniel Wyeth, uno de sus proveedores, que inventó un sistema para cortar el hielo de los lagos que consistía en “arar” el mismo en los lagos congelados con unas cuchillas tiradas por caballos que marcaban surcos paralelos de 10 centímetros de profundidad tras lo cual los trabajadores hacían agujeros en ese hielo e introducían sierras para cortar bloques de tamaño 60×60 centímetros. 



Aquella innovación reemplazó el anterior laborioso proceso de sacar el hielo con picos, cinceles y sierras, y permitió su producción a gran escala


Y además aquellos bloques uniformes se podían almacenar juntos entre sí para minimizar la fusión, y teníanuna apariencia más limpia, lo que hacía que el producto fuera más fácil de vender. 

Pero ¿de dónde sacaba Tudor su hielo? Nos lo cuenta Henry David Thoreau un excéntrico pastor trascendentalista que en una ocasión se encontraba en una cabaña en el lago de Walden Pond en Concord, Massachusetts durante el duro invierno de 1856 

Ubicación del lago Walden Pond 

Aquel hombre al mirar un día por la ventana de su rústica cabaña vió a 100 irlandeses rompiendo el hielo de aquel lago congelado; eran los trabajadores de la ‘Compañía de Hielo Tudor‘ que empezaban a sacar 10.000 toneladas de hielo del mismo para ser embarcado a lugares tan lejanos como Carolina del Sur, Louisiana o la India. Aquel hombre bromeaba en el diario “Walden“: “Los sofocantes habitantes de Charleston y Nueva Orleans, de Madras y Bombai y Calcuta, beben el agua de mi pozo“pero- por supuesto- quienes usaban ese hielo en sus bebidas no sabían que también se estaban tomando el agua de la bañera de Thoreau.

Y así fue como el hielo cortado en los lagos y ríos de Nueva Inglaterra se transportaba por barcos a todo el mundo. No sólo fue hasta las Antillas sino a lugares tan lejanos como América del Sur, Persia, India y las Indias orientales. Tudor llegó a embarcar un cargamento de hielo de 180 toneladas en un viaje de 26.000 km de Boston a Calcuta en el año 1833 y el hielo cristalino de Nueva Inglaterra causó una enorme sensación allí. 

En la década de 1840 el comercio del hielo ya atravesaba todas las rutas del globo y se vendía al por menor en todas las ciudades como una materia prima tan común como el trigo, el café o el maíz. El lago Wenham en Massachusetts llegó a ser mundialmente famoso por la claridad de su hielo y no había en Londres o París una mesa aristocrática que no contara en sus fiestas con hielo de aquel lago. 
La reina Victoria otorgó a Tudor una Real Cédula de proveedor de la Casa Real y en 1849 sus envíos ya ascendían a 150,000 toneladas de hielo. Cuando nuestro personaje murió en 1864 ya llegaban sus envíos a 53 puertos de varias partes del mundo y su negocio había cambiado la vida y los hábitos de muchas personas en todo el mundo. En ciudades como Nueva York, dos de cada tres casas recibían hielo a domicilio diariamente y al momento de su muerte Tudor había amasado una fortuna equivalente a más de 200 millones de dólares 

  • Y el hijo 

Como afirma Brian Morgan, profesor de desarrollo de la capacidad empresarial en la Universidad Metropolitana de Cardiff, Gales: “en general, un 40% de las habilidades empresariales pueden adscribirse al ADN“. Por eso ahora hablaremos del hijo de gran aquel emprendedor. También se llamaba Frederic Tudor, pero-siendo hijo del “rey del hielo“-  fue pionero de la “calefaccion por vapor“. ¿Puede haber destinos más dispares que frío y calor? Pues si pero en todo esto hay un denominador común: la genética emprendedora transmitida de padre a hijo.

La “calefaccion por vapor” es una variante de los sistemas de calefacción en el que el caloportador es agua en fase de vapor en lugar de agua en fase líquida. El ‘negocio del hielo’ ya se había acabado pero el nuevo Frederic estaba interesado en el confort y la comodidad de los ciudadanos y hacia 1880 desarrolló un sistema que mejoraba la calefacción por radiación directa. Su invención fue patentada en los EE.UU. con la patente no. 185.146 y era un radiador donde el agua era calentada por el vapor. El dibujo de este radiador lo explica muy claramente y muestra el regulador de aire de este sistema que permite la regulación de calor sin necesidad de tener que manipular las válvulas. Se instaló en el Hotel Cluny y en un edificio de oficinas en Boston y aún está en uso hoy en día.
El primer radiador con aire inyectado (US Patent No. 185,146)

El caso de los Tudor nos muestra lo que es la ilusión de desarrollar proyectos propios.¿Que había en común entre aquel  padre y su hijo? Pues que ninguno se conformó con lo que heredaba . Ya lo dijo Francis Bacon: “un hombre sabio se crea más oportunidades de las que encuentra.” En otras palabras: si los demás no te dan las oportunidades que necesitas, debes de creártelas tú mismo. 
Fuentes:

https://en.wikipedia.org/wiki/Frederic_Tudor

https://www.cubers.es/frederic-tudor-rey-del-hielo/

Refrigeration and Air Conditioning,” Richard C Jordan & Gayle B Priester, 1956 

‘Pokémon Go’ y el ‘efecto Zeigarnik’

Pocos juegos en el mundo han tenido un impacto tan grande como ‘Pokémon Go‘. En Julio del año pasado salió este juego y la compañía que lo ha desarrollado hace poco lanzó un vídeo en el que simulaba a sus entrenadores haciendo un viaje a través del espacio pasando por todos los planetas de nuestro entorno. llegando a Plutón y saliendo del sistema solar. Según ellos sus jugadores habían andado más de 8.700 millones de kilómetros, que es algo así como el dar unas 200.000 vueltas al globo terráqueo En la propia web del juego aseguran que un avión de una compañía aérea comercial tendría que trabajar más de mil años sin parar para recorrer la misma distancia.

La idea de los Pokémons se le ocurrió a un japonés llamado Satoshi Tajir que entre los años 1989 y 1990 diseñó los bocetos de un juego basado en coleccionar unas criaturas, a las que él llamó sus “monstruos de bolsillo” (Pocket Monsters) y que más tarde fueron conocido como Pokémon (uniendo las sílabas de aquellos Pocket Monsters)

Su primitiva idea, se basaba en solo ‘coleccionar estos bichos‘ igual que él hacía con los insectos cuando era niño pero cuando presentó su producto a la empresa de videojuegos Nintendo y esta lo incluyó en sus consolas “Game Boys” se cambió el esquema del juego haciendo ‘entrenar’ a aquellos bichitos y que los mismos lucharan contra otros jugadores rivales, aparte de tener que coleccionar las 150 especies del mismo. Así era la “intro” de aquel memorable juego para consolas 

Y el boom de Pokémon comenzó y Nintendo vendió en sus diferentes versiones y plataformas más de 100 millones de copias. Cuando las Game Boys se quedaron obsoletas llegaron los smartphones y con ellas Google Earth y su creador: el americano John Hanke

Este hombre en el año 2010, fundó Niantic Labs y creó ese juego de realidad aumentada, llamado ‘Pokémon GO‘ que permite atrapar a estos bichos ‘en el mundo real’ gracias a las cámaras de los smartphones y los servicios de geolocalización de Google Earth. Un juego que se lanzó oficialmente en los Estados Unidos el 6 de julio de 2016 y que ya ha conseguido el hito de superar los mil millones de dólares de ingresos.

Lo que poca gente sabe es que este juego se basa en el ‘efecto Zeigarnik‘, una interesante teoría psicológica debida a la psiquiatra sovietica Bluma Zeigárnik que estableció la psicopatología experimental como una disciplina separada. Una mujer nacida en 1900 de una familia judía de Prienai, Zeigarnik que se matriculó en la Universidad de Berlín en 1927. 

Fuente

Fue en ese año en un café donde Bluma quedó un día con su profesor Kurt Lewin y se percató de un detalle poco usual: los camareros del café en donde lo esperaba eran capaces de recordar todas las peticiones de los clientes a medida que las anotaban en su cuaderno, sin olvidarse de ninguna de las comandas pero con el detalle curioso de que tan pronto como el cliente pagaba la cuenta eran incapaces de recordar lo que había pedido ese cliente. Era como si la información se desvaneciese de su memoria por esa simple transacción.

Aquel curioso hecho llevó a nuestra protagonista a elaborar una teoría que denominó como: “On Finished and Unfinished Task“ (De tareas acabadas e inacabadas), en la que razonó sobre el motivo por el cual, aquellos camareros eran capaces de recordar una ingente cantidad de pedidos de sus clientes, sin equivocarse en ninguno de ellos, y a su vez, olvidarlos por completo una vez que ya habían sido finalizados.Este es el documento de aquella teoría .

La cosa era muy simple: “dejar sin acabar una tarea, obligar a nuestra memoria a estar pendiente de ella” y sesenta años después de haber propuesto Bluma aquella teoría otro investigador llamado  Kenneth O. McGraw, realizó otro experimento de laboratorio en 1928 sobre el ‘efecto Zeigarnik‘.

En el mismo los participantes debían hacer un puzzle extremadamente complejo, con la característica de que antes de que ninguno de ellos hubiera podido terminarlo, se les interrumpió la tarea. Y ¿qué pasó? Pues que el 90% de los participantes, una vez de vuelta a sus quehaceres diarios, se dedicaron a terminar aquel puzzle que no se les habían dejado hacer.

La clave es esta: nuestro cerebro busca ‘el orden’ y la necesidad de encajar bien una serie de piezas y la satisfacción que le provoca el lograrlo lo estimula. Si lo hace bien perderá el interés, pero si no lo consigue se volverá loco y le dará mil vueltas a todas las piezas sin solución

Y este recurso al ‘efecto Zeigarnik‘ empezó a aplicarse a los videojuegos. El primer título que superó los 1.000 millones de dólares en ingresos fue el ‘Candy Crush Saga‘ que en el año 2014 y con 93 millones de jugadores conectando rompiendo caramelos ya usaba este truco psicológico para ‘enganchar a sus usuarios

Y el mismo también se utiliza hoy en día en películas y series de televisión, en lo que se conoce como el efecto Cliffhanger (literalmente “colgando de un acantilado” y que también se puede traducir como “al borde del abismo“) en el que el último capítulo de una temporada termina con un nivel de suspense (o shock) que hace que la audiencia se impaciente por conocer el resultado y espera con ansias la continuación de la serie 
Esa es también la clave del juego de ‘Pokémon Go‘. La necesidad imperiosa de ‘hacerse con todos‘ los Pokemons , y en esa base psicológica del ‘puzzle incompleto‘ encontraremos la explicación de su éxito. A diferencia de los juegos tradicionales o las conocidas aplicaciones para jugar desde tu teléfono móvil a  ‘Pokémon Go‘ se juega en calles, parques o plazas y sus jugadores deben salir al mundo real a explorar y atrapar a los pokémons que se ocultan en estos lugares. Ha generando accidentes y otros altercados porque ningún jugador estará satisfecho hasta que no haya cazado a ‘todos sus bichitos’y es que motivación humana tiene un curioso  y modo de interactuar con la memoria: los Pokemons capturados dejan de interesar al jugador y este solo busca ‘los que le faltan’ . 

Este es ese curioso fenómeno psicológico llamado ‘efecto Zeigarnik‘. Si algo nos interesa pensaremos más veces sobre ello, y en el caso de ‘Pokémon Go‘ eso se traduce en obligar  a andar a sus jugadores y hacerlos esforzarse cada vez más porque deben capturar a ese  bichito suelto que les falta y que anda suelto por el mundo real.

Fuentes:

https://es.wikipedia.org/wiki/Efecto_Zeigarnik

https://es.wikipedia.org/wiki/Pokémon_GO

Liszt y el piano

Franz Liszt nació el 22 de Octubre de 1811 en Raiding (Hungría ) en un ambiente idóneo para la música ya que su padre era el administrador de la familia Esteráis, que era la que servía a  Haydn y a los once años, ya la estudiaba en Viena, en donde conoció a Schubert y a Beethoven. Luego durante su adolescencia vivió en París, que era una ciudad en donde florecía el romanticismo y una meca para los virtuosos de cualquier instrumento. 

Era un músico atractivo, cautivador e irresistible para las mujeres y también un empresario aficionado a la historia musical pero nunca se conformó con lo que le daba la vida. Él lo que siempre quiso fue ser reconocido más como un “virtuoso del piano” que como un compositor.

La palabra piano es una abreviatura de la palabra italiana pianoforte y tuvo origen en Florencia en el año 1709 por obra de Bartolomeo Cristofori que le dio el nombre de «gravicembalo col piano e forte» con la intención de superar los limites de su instrumento antecesor: el clavicémbalo.

El clavicémbalo era un instrumento de cuerdas punteadas dotado de uno o dos teclados, y cuyas teclas accionaban unos martillos sobre los que estaban incrustados unos plectros que pellizcaban las cuerdas. Se trataba de un instrumento que daba un timbre leve y  coquetón, y que respondia muy bien a las exigencias musicales de la época; probablemente por aquel motivo el nuevo instrumento de Cristofori no tuvo al principio mucho éxito y hubo que esperar casi sesenta años para que los musicos empezaran a tocarlo y a componer música para él.

Las novedades sustanciales que el piano posee respecto al clavicembalo son múltiples. La principal de ellas es que sus teclas accionan martillos que percuten las cuerdas alojadas en la caja armónica. Esos martillos están revestidos de fieltro, y el mecanismo que los pone en accion les permite abandonar la cuerda inmediatamente despues de haberla percutido-incluso si el dedo no ha dejado de tocar la tecla correspondiente- de ese modo queda libre la cuerda y el sonido puede llegar a difuminarse completamente. Gracias a este mecanismo aquel nuevo instrumento podía producir indiferentemente sonidos suaves o fuertes según la presion que el dedo del ejecutante ejercíese sobre la tecla.

Pero el piano tal y como lo conocemos hoy en día, tuvo su desarrollo hacia 1770 por obra de los Stein, que eran unos constructores vieneses.A este proposito es muy curioso relatar el testimonio de Mozart cuando escribe a su padre en 1777, con motivo de haber probado uno de estos instrumentos. Le dice: «Esta vez debo empezar por hablarte en seguida de los pianos Stein. Antes de verlos, mis preferidos eran los de Spath. Pero ahora debo dar preferencia a los de Stein, porque amortiguan la resonancia mucho mejor que los de Ratisbona. Cuando golpeo con fuerza, puedo dejar el dedo sobre la tecla, pero cuando lo levanto, el sonido se extingue casi inmediatamente. Puedo hacer lo que quiera con el teclado: el sonido es siempre uniforme; no zumba desagradablemente; no tiene el defecto de ser demasiado forte ni demasiado piano. En resumen, es siempre perfectamente equilibrado…».

Pero tocar el piano no es nada fácil. Primero tenemos que leer notas en dos claves: la de sol y la de fa. El mismo signo, ubicado en el mismo lugar, es por ejemplo, Sol si está en clave de fa (grave) o Mi si está en clave de sol; también debemos de saber si estamos leyendo una nota grave o una aguda y varios signos de formas diferentes pueden denotar diferentes longitudes de tiempo que deben también ser interpretadas correctamente en el momento de tocarlo; otros signos también denotan periodos de silencio entre las notas, que deberán ser de duración exacta y por último también debemos de ser capaces de ubicar el dedo correcto sobre la tecla que representa una nota en particular y con su estilo correcto de digitación (si es ligado, staccato, etc.).

Tampoco debemos olvidarnos de que a veces hay que leer no sólo una nota a la vez, sino acordes de tres, cuatro e incluso de diez notas al mismo tiempo. y que debemos de utilizar nuestros dedos con movimientos que son completamente diferentes para  cada mano. Si a eso le unimos que debemos estar siempre preparados para “cambiar de clave” en cualquier momento y que debemos de observar todas las marcas de expresión, matices, fraseo y tiempo y  utilizar los pedales apropiadamente queda ya todo dicho.

La primera mitad del siglo XIX se caracteriza por el predominio de un movimiento estilístico denominado Romanticismo, que no sólo afectó a las artes, sino también a la filosofía y a la historia política y social. Una de sus principales características fue la de la reivindicación del individuo como una potente fuerza creadora y la expresión del artista romántico, se llegó a elevar a la de un individuo dotado de un don “casi sobrenatural”. Bajo esta concepción, se produjo un cambio en el papel del intérprete de un instrumento, que ahora adquiría los tintes de un “transmisor de emociones“. En este contexto, el piano se convirtió en el instrumento preferente para hacer música y la educación musical estaba unida a la habilidad de tocar el piano, pasando a ser una parte importante del aprendizaje de los jóvenes.

Así surgió en tiempos de Liszt la figura del virtuoso, que era un instrumentista que mostraba un dominio extremo del instrumento que tocaba , interpretando obras de extraordinaria dificultad . El concierto acabó por transformarse en un espectáculo en que el público admiraba al intérprete de forma  similar a lo que hoy hacemos con las grandes estrellas de pop. 

El piano siempre fue el instrumento preferido de grandes músicos como Chopin, Scriabin o Debussy pero Franz Liszt lo convirtió en algo mágico. En la figura anterior lo vemos junto a un piano de clara factura moderna y su amplia producción compositiva para este instrumento, le hizo alcanzar un enorme prestigio como pianista virtuoso, hasta el punto de que su figura se asocia de manera indisoluble con el piano. 

Fue con este instrumento con quien Liszt llegó a la cumbre y aunque fue un niño prodigio que hizo giras por Europa haciendo gala de un increíble talento pianístico, su punto de inflexión se produjo cuando a los 19 años oyó tocar al virtuoso violinista Paganini.

Niccolò Paganini es el ejemplo perfecto del “alter ego” de Liszt (en este caso con el violin). La ferocidad con la que lo tocaba ese instrumento con sus dedos alargados de flexibilidad extraordinaria, lo llevó a una reputación casi mítica hasta el punto de que se decía que tenía un pacto con el diablo para alcanzar las alturas de sus interpretaciones virtuosas. Desde que lo vio tocar, el joven Franz decidió convertirse en «el Paganini del piano» y se apartó de los escenario y de los conciertos, practicando entre ocho y doce horas por día, durante varios años, con el piano 

Su objetivo era hacer con el mismo lo que había visto que  Paganini hacia con el violín y tras la práctica intensa con este instrumento, llegó a ser, probablemente, el mejor pianista de todos los tiempos. Durante veinte años escribió  obras de inaudita dificultad e hizo hazañas sobrehumanas con este instrumento impresionando a todos los músicos de su época.

Liszt compuso sus “Estudios trascendentales” e hizo versiones para piano de algunas de las piezas para violín de Paganini. Esta es una de sus más famosas frases: “Mi piano es mi alma ya que mis diez dedos tienen el poder de reproducir las armonías que son creadas por cientos de compositores” y en una ocasión en una presentación orquestal de un movimiento de la Sinfonía Fantástica de Berlioz, tocó su propio arreglo para piano del mismo y generó un efecto más poderoso que toda la orquesta entera. 

Con Liszt, y en sus obras de contenido musical elevado, se representan la sublimation, los sentimientos, las pasiones y las emociones y sus obras de piano alcanzan cimas de enorme altura. Así  sucede con sus “12 Estudios de ejecucion trascendental” y el siguiente número 1 que nos muestra la extremada dificultad de ejecución del mismo.

O con su Piano Sonata in B minor, S. 178 que compuso entre 1852 y 1853 mientras viajaba a través de Europa y que dedicó a Robert Schumann después de que él le dedicase su Fantasie de 1836 en do, Opus 17. Esta sonata es interpretada como un movimiento continuo con varias secciones distintas: una de apertura, otra lenta y meditativa, un fugato que enlaza con algunos de los motivos del principio, una recapitulación de la primera sección y una coda final más tranquila.

Y, sobre todo destacan sus dos colecciones tituladas “Años de peregrinaje” llamadas primeramente “Album de un viajero“, que representan la primera colección importante de su madurez temprana al piano y que constituyen una especie de testimonio vivo de sus impresiones ante los estimulos artisticos que siempre conlleva el conocimiento de nuevas tierras y de nuevas gentes. 

La aportación a la historia del piano de Franz Liszt puede resumirse en dos aspectos fundamentales: la ampliación de los recursos técnicos de la escritura y la interpretación pianísticas, y el impulso a una música que nace inspirada por un motivo extramusical, sea éste literario o pictórico. 

Aquel músico revolucionario murió el 31 de Julio de 1886 en Bayreuth (Alemania) rodeado de sus estudiantes, (la mayoría serían después pianistas famosos y exitosos) dejándonos un legado asombroso para el piano. Schumann dijo de él que: “atrapaba a cada miembro de la audiencia con su arte y hacía con ellos lo que deseaba” y Brahms también sentenció su talento con esta frase: “Quien no ha oído a Liszt no puede hablar de la ejecución del piano” 

Fuentes:

https://es.wikipedia.org/wiki/Franz_Liszt

http://www.pianored.com/liszt.html

http://www.biography.com/people/franz-liszt-9383467#synopsis
http://www.march.es/musica/jovenes/guiapiano/liszt.asp

Quien no conoce su historia está condenado a repetirla 

Donald J. Trump, el 45º Presidente de los Estados Unidos de América ha tomado posesión de su cargo con una sonrisa sardónica de satisfacción en su rostro mostrando al mundo la otra cara del “Yes, We can” de Obama de hace casi una década mientras en las calles y en las redes sociales no dejan de gritarse unos contra otros consignas contrarias (“Not my president” vs. “Make América Great Again”). 

Se acusa a Donald Trump de ambicioso,corrupto, aficionado al dinero,sentido práctico, orgulloso, prepotente y racista pero si miramos la creación de los EE.UU  esos fueron precisamente los valores que marcaron el nacimiento de esta gran nación.

El origen de los EE.UU está ligado a la masonería, esa organización que tomó su nombre de los antiguos gremios de artesanos de la Europa Medieval que trabajaban la piedra y que con el declive de la construcción de las grandes catedrales en Europa y la propagación del protestantismo decidieron convertirse en   fraternidades para hacer contactos de negocios y discutir las nuevas ideas que se propagaban en Europa. Así fue como se creó la orden masónica con una jerarquía de 33 grados.


Se inicia con el Grado 1 que es el de “Aprendiz Entrante” y culmina con el Grado 33 que es “Gran Inspector General“. En cada ascensión al militante se le van revelando secretos de la organización que no son conocidos por los grados inferiores.

Empecemos con eso de la “ambición“. Si hubo un hombre ambicioso ese fue precisamente George Washington, el primer Presidente de los Estados Unidos entre 1789 y 1797 y Comandante en Jefe del Ejército Continental revolucionario de la Guerra de la Independencia Americana, que alcanzó el grado 33 en la masonería como “Gran Maestro” en la Alejandría Lodge N° 22 de Virginia. En esta ilustración del año 1789, lo vemos en un templo masónico posando con la indumentaria tradicional de la orden: mandil y guantes blancos. En el mandil o delantal se puede observar al “Ojo de la Providencia” heredadado de la tradición ocultista egipcia (que también es conocido como el “Ojo de Horus” o el “Ojo que Todo lo Ve“) y sus escritos conservados en la Biblioteca del Congreso de los EE.UU rebosan referencias al “Gran Arquitecto del Universo” que es como los masones ven a Dios.


1. Detalle de la carta de George Washington a Richard Varick 1 de enero de 1784.

2. Retrato de Gilbert Stuart, de la División de Grabados y Fotografías de la Biblioteca del Congreso. c1929. Reproducción #: (color) LC-USZC4-2968

(Fuente: Biblioteca del Congreso EE.UU.)

Porque la historia de George Washington está íntimamente ligada con la de las sociedades masónicas de América, y aunque la primera Gran Logia masónica se fundo en Londres en el año 1717, la masonería ya estaba en América desde el año 1682. La llevó allí un masón ingles llamado William Penn que estableció un gobierno en la colonia americana de Pennsylvania y fue un grupo de masones influyentes de aquellas colonias americanas: Benjamin Franklin, Thomas Jefferson, el marqués de La Fayette, John Adams y Alexander Hamilton los que empezaron a trabajar intensamente por la unión de todas ellas. 

La “carrera masónica” de George Washington es toda una “oda a la ambición” y se inicia en el año 1752 cuando con 20 años se une a la logia Fredericksburg Lodge N º 4 de Virginia. Los registros de la misma nos presenta una primera entrada del 4 de Noviembre de aquel año en la que se escribe: “esta tarde, el Sr. George Washington se inició como Aprendiz” y el 3 de marzo de 1753 nuestro aspirante ya alcanza el grado de “Compañero” elevándose a “Maestro Masón” el 4 de agosto de aquel mismo año. Ambición no le faltaba a nuestro hombre y con aquella posición privilegiada ya estaba cuando en Junio de 1754 las colonias inglesas de América se reunieron en Albany, Nueva York para volver a tratar sobre aquella unificación, encargándose a Benjamín FranklinGran Maestro de la Logia Providencial de Pennsylvania– el redactar un borrador para un plan de unión.

Benjamín Franklin con su delantal masón Fuente

El plan de Franklin contenía la esencia de lo que más tarde seria la Constitución de los EE.UU. pero no fue adoptado inicialmente porque estalló la Revolución Americana (la llamada guerra de Independencia) que enfrentó a aquellas 13 colonias británicas de América del Norte contra el Reino de Gran Bretaña entre los años 1775 y 1783 pero las hostilidades se iniciaron en Boston con el llamado “Motín del té” en el que se lanzó al mar un cargamento de té, supuestamente como protesta de aquellos colonos americanos contra la Gran Bretaña.

Pero tras aquello había “corrupción” y poca gente sabe que aquellas “Acta del Té” no sólo no subía las tasas de importación de aquella infusión sino que las bajaban para salvar de la bancarrota a la Johnny Company. ¿Por que aquellos colonos no querían el “té barato” de aquella compañía? Pues simplemente porque los contrabandistas de Boston se estaban forrando con las “altas tasas del té” y al bajarse las mismas se reducían sus márgenes. Así es que el anhelo de independencia americana solo vino de la escasa moral de un grupo de señores.

Otra pregunta: ¿Era Washington “aficionado al dinero“? Pues si lo era y cuando fue nombrado comandante en jefe de los ejércitos estadounidenses durante aquella Guerra de Independencia generosamente se ofreció a renunciar a su salario pidiendo solo cobrar los gastos. Tras esta decisión cambió 500 dólares al mes (48.000 dólares por ocho años de servicio militar)  por 447.220 dólares que fue lo que realmente cobró (unos 9 millones de dólares actuales) 

Al final ganó la guerra y derrotó  al Rey George de Inglaterra cuando todo el mundo esperaba que los perdedores fueran los futuros Estados Unidos y en  1783 se firmó  el Tratado de Paris que acaba con la misma y ahora viene otra pregunta: ¿Tenía “sentido práctico” el general Washington ? Pues también hay que decir que si, porque después de liderar a aquel ejército revolucionario los militares lo animaron a proclamarse rey ya que pensaban que una república gobernada por la novedosa idea de una democracia podía resultar demasiado frágil pero él rechazó la propuesta y con aquella negativa se abrio el camino a la constitución republicana de los Estados Unidos. ¿Por qué George Washington no quiso ser rey? Pues aunque le habría encantado (ambicion nunca le faltó)  resulta que por un brote de tuberculosis se había quedado estéril a los diecinueve años y él sabía que no podía tener herederos. ¿Qué sentido tiene ser un rey si no puedes prolongar tu dinastía? A eso le llamo yo “sentido práctico“.

Trump quiere poner en valor “el orgullo americano ” pero ese es-precisamente- una de las mejores cualidades de esta gran nación. Cuando Washington ganó la guerra, el país estaba políticamente desorganizado y la ocupación de nuevos territorios en el oeste llevó a la creación del Decreto Noroeste de 1787 para la aceptación de nuevos estados en completa igualdad con los 13 originales haciéndose una nueva convención en Filadelfia en el año 1787 a la que asistieron 55 delegados (de los que 33 eran masones) cuyo objeto era el revisar los Artículos de la Confederación de los Estados Americanos. De los delegados presentes se dice que eran los mejores lideres de su día y de aquella Convención Constitucional salió la Constitución de los EE.UU descrita por William Gladstone– un estadista y primer ministro Británico- como “la obra más maravillosa jamás creada en un momento dado por el cerebro y el propósito del hombre“. Esta Constitución es Orgullo americano en estado puro que es precisamente lo que quiere hacer ahora Donald Trump con su país.

Artículo primero de la Constitución de Estados Unidos con su famoso “We the People” Fuente

Y si hablamos de “prepotencia” nada mejor que volver a aquella masonería que fue la base del nacimiento de los Estados Unidos. En el centro de todo aquel movimiento estaba George Washington que fue unánime elegido como el primer presidente de los EEUU y además reelegido por unanimidad como “Venerable Maestro” el 20 de diciembre en la citada Alejandría Lodge Nº 22. Con esta ideología el 4 de Julio de 1776 el Congreso estableció un comité para diseñar el “Sello Oficial de EE.UU” que no podía ser más masón escogiéndose para él un águila con una rama de olivo y una constelación de 13 estrellas sobre su cabeza. En la parte de atrás se puso una pirámide incompleta; en el cenit, un ojo en un triángulo y encima del ojo estas palabras: Annuit Coeptis. En la base de la pirámide están los números romanos MDCCLXXVI y por debajo el siguiente lema; Novus Ordo Seclorum . . . 


Este símbolo refleja la prepotencia y el orgullo americano y el 18 de septiembre de 1793, y como Gran Maestro masón George Washington (con su traje ritual completo) puso la primera piedra de la que hoy es la capital de los Estados Unidos, que lleva el nombre de su fundador, eligiendo al urbanista Pierre de Chatillôn para el diseño de esta ciudad. Sería bueno que esos miles de manifestantes que ayer se pasearon por esta ciudad se fijaran en que en la misma hay una planificación urbanística clara de prepotencia y simbología geometría masónica sagrada

Fuente 

Y terminemos con eso del “racismo“. Es algo bastante conocido que George Washington tenía una dentadura lamentable y que comenzaron a caérsele los dientes hacia los veinte años. Cuando cumplió los cincuenta y dos hizo que le extrajeran todas sus piezas dentales para diseñarse él mismo sus propias dentaduras postizas conservándose cuatro juegos de las mismas, de los que uno se exhibe en el Museo Nacional de Oontología de Baltimore

Dentadura de madera Gorge Washington Fuente 

Y George Washington pagó 122 chelines por nueve dientes que pertenecían a esclavos suyos que trabajaban en su plantación de Mount Vernon. Aquel “padre de la patria americana” era propietario de 123 esclavos en la ciudad y de otros 193 llamados “esclavos de campo” en aquella finca y durante su presidencia al trasladarse a Nueva York, como no le gustaba la comida de allí, decidió traerse como cocinero a uno de sus esclavos (llamado “Hércules)  desde Vernon en el estado de Pensilvania en donde existía una ley que establecía que los esclavos quedaban en libertad si pasaban seis meses fuera del mismo, pero nuestro amigo George, como “campeón de los derechos humanos” lo que hizo fue mandar regularme a Virginia, a aquel hombre dejándolo allí unos días para luego volver a reclamarlo. Así, su cocinero  Hércules siguió siendo siempre “esclavo suyo en Filadelfia“.

Y aunque Washington le daba muchas vueltas al tema de la esclavitud, él nunca emancipó a sus esclavos y manifestó en su testamento que los mismos serían libres despues de su muerte y la de su mujer. Si eso no es “racismo” que venga Dios y lo vea.

Como veis en política “en todas partes se cuecen habas” y Monsieur Washington para mí tiene muchos puntos en común con el señor Donald Trump. Aunque las comparaciones son odiosas, para mí esta claro que el primer presidente de los Estados Unidos nunca fue lo que – en términos masónicos- se conoce como” un sillar perfecto” sino tan solo una persona lista y oportunista como tantos políticos que hay hoy en día, incluido el señor Trump. Por eso los americanos en vez de protestar tanto deberían de molestarse en repasar su historia.

Fuentes:
America’s Secret Destiny: Spiritual Vision and the Founding of a Nation. Robert Hieronimus Ph.D. ISBN-13: 978-0892812554

Masonería y Sociedad. Evan Montes

Masonería de Castilla y León http://masoneria.blogia.com

George Washington’s Masonic Connections http://www.reversespins.com/masons.html

Gonzalo Ugidos. “Chiripas de la historia