El secreto de las emociones humanas 

En mi anterior post «El síndrome del zombi » os hablaba de la distorsión de la realidad provocada por un mal funcionamiento de la parte de nuestro encéfalo asociada al procesamiento de las emociones llamada sistema límbico y fue el naturalista Charles Darwin el primero que propuso que las emociones evolucionaron porque ‘eran adaptativas‘ y eso permitió a los humanos y a los animales el poder sobrevivir y reproducirse. 

En realidad las emociones ejercen una fuerza muy poderosa en el comportamiento humano porque gracias a ellas podemos tomar acciones afectivas o defensivas. De acuerdo con la teoría de la evolución las emociones nos motivan para responder rápidamente a los estímulos de nuestro entorno y esto nos ayuda a mejorar nuestras posibilidades de éxito y supervivencia. 

Hay emociones como el amor y el afecto que llevan a los seres humanos a buscar compañeros y a reproducirse y otras como el miedo que los obligan a luchar o a huir de un peligro. Precisamente esta última-el miedo- es una de las más poderosas porque  ocasiona en nuestro organismo unas respuestas físicas ante las señales de peligro que activan los mecanismos de defensa de nuestro cuerpo.

Diversos investigadores, filósofos y psicólogos han propuesto a lo largo del tiempo diversas teorías para explicar el origen de las emociones humanas y una de las primeras fue la ‘teoría de James-Lange‘ propuesta por el psicólogo William James y el fisiólogo Carl Lange que de forma independiente, y entre los años 1884 y 1887 sugirieron que las emociones humanas eran el resultado de ‘reacciones fisiológicas‘ ante distintos eventos. 


La idea de esta teoría se basaba en que un estímulo externo era lo que conducía  al cuerpo a una reacción fisiológica; por eso, si como consecuencia de un ataque de pánico nos ponemos a temblar, para James y Lange esa reacción física hacia que nos llevase a una conclusión equivocada. Pensamos: “estoy temblando y por tanto estoy asustado” pero para ellos en realidad ‘no tiemblas porque estés asustado sino que lo estás precisamente porque estás temblando‘.

Es decir que ellos contemplaban la emoción como un proceso que se derivaba de una serie de estímulos físicos . Con la teoría de James-Lange se intentaba decir que después de la percepción de un estímulo (una mala noticia, un imprevisto diario, recibir un regalo etc ) nuestro cuerpo genera una serie de respuestas fisiológicas y motoras, y son ellas las que nos producen la experiencia de un sentimiento. Por tanto la ‘activación fisiológica‘ es la condición necesaria para que exista una respuesta emocional.

Pero llegó Walter Cannon, un fisiólogo estadounidense, pionero en el uso de rayos X que empezó a pensar diferente. Este hombre empezó a ocuparse de las emociones y estudió como las mismas afectaban sistema nervioso autónomo, lo que le demostró que las personas pueden experimentar reacciones fisiológicas vinculadas a sus emociones antes de llegar a sentir las mismas. Por ejemplo, un corazón puede acelerarse porque se ha estado haciendo ejercicio, pero eso no significa que su propietario tenga miedo, en cambio si él mismo se encuentra ante un peligro, que le produce ese miedo, va a experimentar los síntomas físicos asociados al mismo y sus manos temblaran , su respiración se acelerará y su ritmo cardíaco aumentará.

Canon propuso su teoría en la década de 1920 y su obra fue ampliada posteriormente por Philip Bard un psicólogo estadounidense cuyas investigaciones se centraron en las funciones del sistema nervioso, especialmente en cómo el cerebro media en el control de las emociones y retomando las propuestas de su maestro Walter Cannon las amplió en lo que se conoce como “Teoría de Cannon-Bard” formulada durante la década de 1930 que asocia las emociones a las reacciones fisiológicas tales como sudoración, temblores o tensión muscular.
Walter Cannon y Philip Bard descubrieron que el tálamo y el hipotálamo son los centros que regulan las actividades nerviosas y pensaron que era el primero el que tenía el papel central en la conducta emocional. Más específicamente, sugirieron que las emociones resultaban al enviar el tálamo un mensaje al cerebro en respuesta a un estímulo, lo que resulta en una reacción fisiológica. Este sería el proceso : 

Veo una serpiente -> Siento temor ->  empiezo a temblar

Es decir que los sentimientos de miedo y las reacciones físicas ocurren al mismo tiempo. Sus propuestas provenían de estudios que mostraban que la estimulación del hipotálamo posterior y las regiones mesencefálicas adyacentes en ratas provocaba siempre reacciones de ira y ataque, acompañadas de reacciones de tipo simpático como taquicardia y secreción de adrenalina. Por tanto conforme a la teoría de Cannon y Bard la experiencia física y psicológica de las emociones ocurren al mismo tiempo y una no causa la otra como pensaban James y Lange.

Sea como sea, la realidad es que es nuestro cerebro quien recibe las señales que desencadenan una experiencia emocional y ante un peligro produce la respuesta del sistema nervioso simpático que se activa debido a la repentina liberación de hormonas como adrenalina y noradrenalina. Esto se traduce en un aumento de la frecuencia cardíaca, la presión arterial y el ritmo respiratorio; los ojos se abren más de lo normal y se amplia el campo visual y la sensibilidad ocular con objeto de identificar el peligro que nos rodea. Incluso después de que la amenaza se ha ido, aún se tardan entre 20 y 60 minutos para que el cuerpo vuelva a los niveles previos a la excitación.

La primera evidencia que relacionó al sistema límbico con las emociones está registrada en el año 1955, cuando Heinrich Klüver y Paul Bucy describieron un síndrome conductual inducido en monos de laboratorio. En sus experimentos observaron que aquellos monos, que eran tranquilos en extremo, sufrían cambios emocionales como agresividad y pérdida del miedo tras ser sometidos a una lobotomía bilateral de los lóbulos temporales y a partir de aquí se empezó a descubrir la importancia de una de las partes más antiguas de nuestro cerebro en las emociones : el sistema límbico 

Fuente
Se trata del cerebro primitivo que dominó el mundo durante millones de años y que rige los movimientos de acercamiento, alejamiento, defensa y ataque. Es un sistema que interacciona muy velozmente y al parecer sin necesidad de mediar con estructuras cerebrales superiores. Allí  se encuentra el secreto de las emociones humanas, desde las reacciones de nuestro cerebro ante una situación de pánico o las fobias irracionales. Todo está en un pequeño órgano conocido como amígdala, una estructura en forma de dos almendras que se conecta con otras estructuras como el hipotálamo, el núcleo septal, el área prefrontal y el núcleo medio dorsal del tálamo

Estas conexiones hacen que cumpla una importante función en la mediación y el control de las actividades afectivas más importantes como la amistad, el amor y el afecto, y en la expresión de los estados de ánimo, miedo, ira y agresión. La amígdala, según las últimas investigaciones pasa a ser el centro de la identificación de cualquier emoción y un ‘botón de emergencia’ de nuestro cerebro que en caso de que nos aceche un peligro inminente, activará la señal que se reenviará inmediatamente al resto del cuerpo.

Por eso si estás solo en casa, escuchas un ruido y distingues una sombra detrás de una ventana, antes de que ni siquiera comprendas que se trata de un ladrón que quiere asaltar tu hogar, tu cerebro ya habrá desatado a través de la amígdala una respuesta masiva de pánico sin que tú lo controles. El equipo del neurobiólogo David J. Anderson, del Instituto Tecnológico de California (CalTech), y el del profesor Andreas Lüthi, del Friedrich Miescher Institute (FMI), ha descifrado él funcionamiento de este ‘circuito del miedo‘ en el que se han comprobado la existencia de dos tipos de células neuronales en esta amígdala que se turnan para abrir y cerrar “las puertas del miedo” y se ha podido demostrar que el mismo está controlado por un microcircuito de dos poblaciones antagonistas de neuronas en este órgano que actúan como una especie de columpio. 

Estas dos poblaciones de neuronas ‘se inhiben entre ellas’ y sólo una de las dos poblaciones puede estar activa a un tiempo, alternando entre dos estados. 

Y en otro experimento, llevado a cabo por científicos del Centro de Salud Mental de la Universidad de Texas en Dallas (EEUU), publicado en la revista Brain and Cognition se descubrió también que el cerebro da prioridad a la información amenazante sobre otros procesos cognitivos siendo la primera vez que un trabajo de investigación identificaba un ‘marcador electrofisiológico‘ con una actividad de ‘ondas theta’ iniciada precisamente en la amígdala.

En la figura siguiente tenemos un esquema que muestra la relación anatómica de cada una de las estructuras del sistema límbico humano. La figura A muestra su disposición anatómica y la B el flujo de señales que se establece entre las estructuras del mismo que determina una cadena neuronal que representa la base sdel sistema que regula las emociones

La amígdala se encuentra conectada con el hipocampo una de las partes más importantes de cerebro y consiste en dos “cuernos” que describen una curva que va hasta la amígdala. Esta estrecha relación implica la memoria que une recuerdos de sucesos que han ocurrido muy próximos en el tiempo. Así se ayuda al cerebro a distinguir cuándo tiene que poner en marcha una respuesta de defensa frente a una potencial amenaza, 

Y aunque la amígdala ya estaba en los mamíferos desde hace unos 220 millones de años coordinando las respuestas primarias y básicas ante un peligro, los seres humanos hemos evolucionado a una corteza cerebral cada vez más compleja, y por eso la misma ha terminado regulando e interactuando con otros impulsos y emociones más complejas.

Un estudio del 30 Agosto 2009 publicado en la revista Nature titulado: “La regulación del espacio personal por la amígdala humana” hecho por Daniel P Kennedy, Ene Glascher, J Michael Tyszka y Ralph Adolphs nos muestra que la amígdala desencadena las reacciones emocionales fuertes siguientes a las violaciones de nuestro espacio personal, regulando así las distancias interpersonales éntrelas seres humanos. ¿Por qué algunas personas no protegen su espacio personal ni reaccionan ante un acercamiento? ¿Por qué hay otras que en la misma situación no soportan una aglomeración y considerarían amenazante incluso un contacto físico en un espacio cerrado ? 

Cuando la amígdala es estimulada eléctricamente, los animales responden con agresión, y cuando es extirpada, los mismos se vuelven dóciles pero en los seres humanos su funcionamiento es más complejo. Por eso mientras se estudian las complejas interacciones cerebrales de nuestras emociones podemos ahora entender por qué no hay dos personas iguales y como algunas se sienten más desinhibidas ante los riesgos mientras que otras reaccionan violentamente ante un stress de miedo o ante la distancia a la que están dispuestos a tolerar si alguien acerca 

En definitiva la manera en como sentimos miedo, afecto o como nos relacionamos con los demás está en esas  “almendritas” que tenemos en el interior de nuestro cerebro.

Fuentes :

Limbic System and Emotions: Empathy in Humans and Primates. David Iñaki López Mejía, Azucena Valdovinos de Yahya y otros. Psicología Iberoamericana (Julio-Diciembre, 2009), Vol. 17, No. 2, pp. 60-69 ISSN 1405-0943 

Cannon, WB. La teoría de Jones-Lange de las emociones. Un examen crítico y una teoría alternativa. American Journal of Psychology 

Myers,DG, Las testuz de la emoción. Psicología: Séptima edición. NY: Word Publishers

Izard, C.E. (1992). Basic emotions, relations among emo- tions, and emotions-cognition relations. Psychological Review, 99, 561-565. 

El «síndrome del zombi » 

Los zombis son esos ‘muertos vivientes‘ con brazos extendidos y ruidos guturales que nos presentan el cine y las series de televisión , pero-fuera de la ficción – hay una condición en la que los pacientes creen realmente ‘estar muertos’. Se trata de un síndrome ampliamente reconocido por la comunidad científica al que se denomina como “síndrome del cadáver caminante” y también como “síndrome del zombi

Estar “muerto en vida” es una expresión que hace referencia a una depresión muy profunda pero a veces algunas personas llegan a tener una negatividad tan extrema que experimentan como una condición psicofísica su desconexión de la realidad  y esto los llevan a negar algo tan obvio como el «sentirse vivos». Los afectados por este curioso síndrome se caracterizan porque tienen una desconexión total entre los datos que le entran por sus sentidos y como subjetivamente interpretan los mismos por lo que crean otra ‘realidad‘ que les hace pensar que están muertos.  En el año 1788 el médico francés Charles Bonnet, reportó el caso de una paciente que creía encontrarse muerta pero tuvieron que pasar casi cien años para que alguien estudiase esta patología de una manera más profunda.

Quien lo hizo fue un neurólogo francés llamado Jules Cotard (1840-1889) que el 28 de julio de 1880 presentó ante la Societé Médico-Psychologique de París un trabajo titulado “Du délire hypocondriaque dans une forme grave de mélancolie anxieuse” (Del delirio hipocondríaco en una forma grave de melancolía ansiosa) en el que describía el caso de una paciente que él había seguido durante varios años junto a monsieur Jules Falret, su Jefe en la Clínica des Vanves

En este trabajo describía el caso de una paciente a la que denominó ‘Mademoiselle X‘, que con 43 años decía «no tener cerebro, nervios, pecho y entrañas, sino solo piel y huesos». Aquella paciente terminó muriendo de inanición, porque dejó de comer al pensar que su estado era estar condenada a permanecer entre la vida y la muerte y Cotard utilizó un término para esta patología que definió como ‘délire de négation‘ ( delirio de negación) ampliando la descripción de este caso en su libro ‘Maladies cerebrales et mentales‘ publicado en el año 1891. Sus conclusiones fueron que se trataba de un trastorno derivado de un estado depresivo exagerado mezclado con una melancolia ansiosa. 

Tras aquel descubrimiento, muchos medicos empezaron a referirse al ‘sindrome del zombi‘ como «delirio de Cotard» y en 1892, Emmanuel Régis (1855–1918) propuso para esta patología el nombre de ‘delirios sistemáticos crónicos‘ hasta que finalmente Louis Jules Ernest Séglas, un psiquiatra francés, considerado un alienista que formaba parte de un grupo de autores franceses que desarrollaron gran parte de sus carreras en el Hospital La Salpêtrière en 1897, consolidó y difundió de manera amplia el término de «síndrome de Cotard»
Fuente 

Los relatos clinicos sobre este síndrome han sido numerosos, y hay casos muy curiosos como uno de 1990, en el que un joven escocés tras un accidente de motocicleta donde recibió una fuerte contusión cerebral. salió del hospital convencido de que estaba muerto . Cuando su madre lo llevó a Sudáfrica para que se recuperara él pensó que el calor de aquel país suponía que había ido al infierno, mientras su cuerpo seguía muerto en Escocia.

No se sabe muy bien como se inicia este extraño síndrome pero hay dos niveles distintos cuando aparece: en el primero quienes lo sufren piensan que sus órganos vitales internos se han paralizado, y que su corazón no late, e imaginan a su cuerpo en un estado de putrefacción. Para los afectados esto puede ser tan real que llegan a tener alucinaciones visuales en las que ven a su cuerpo ante un espejo con forma de cadáver y alucinaciones olfativas donde creen oler su carne en putrefacción; también pueden tener sensaciones táctiles de gusanos deslizándose sobre su piel, pero hay una segunda fase más avanzada, en la que el paciente ya defiende claramente la idea de que ‘está muerto’ y pierde el contacto emocional con el mundo.

Existe una película que aborda de manera explícita el síndrome de la ‘muerte en vida‘ de quienes sufren el síndrome de Cotard. Su título es “Thanatomorphose” y trata sobre una joven artista que comienza a percibir como su cuerpo muerto se descompone al mismo tiempo que su vida amorosa.  No es un film recomendable para todos los públicos ya que es extremadamente explícito a la hora de mostrar ciertas imágenes pero señala muy bien las sensaciones que tienen las personas afectada por esta patología .

Las modernas investigaciones sobre el «sindrome de Cotard» muestran que hay cambios cerebrales y mentales llamativos y hacen pensar que la distorsión de la realidad de los afectados se provoca por un mal funcionamiento de la parte del encéfalo humano que está asociada al procesamiento de las emociones llamado sistema límbico

Gracias al mismo los seres humanos poseemos la capacidad de reconocer las emociones manifestadas en las distintas expresiones faciales. Esta facultad, requiere la participación de un gran número de estructuras cerebrales, entre las que destacan la ‘amígdala‘, donde hay un grupo de neuronas encargadas de procesar las emociones y otra área cerebral llamada ‘giro fusiforme‘ que se encarga de reconocer los rostros. Cuando hay un fallo cerebral en algunas de estas estructuras el resultado puede derivar en una falta de reconocimiento de las caras ajenas y de la propia que hace que la persona afectada se desconecte de la realidad.

El avance médico para entender este síndrome se produjo en el año 2004 cuando el doctor Steven Laureys en su despacho de la Universidad de Lieja, en Bélgica recibió la extraña llamada de su secretaria que le decía : “doctor tengo paciente que me está diciendo que está muerto“. Ante su sorpresa se encontró con un británico de 48 años llamado Graham que le contó que unos meses antes había intentado suicidarse por electrocución, metiendo un cable de la luz en la bañera y que aquel día se había levantado de la cama con la convicción absoluta de que estaba muerto. Aquel caso llegó hasta los investigadores Adam Zeman, de la Universidad de Exeter, en el Reino Unido, y Steven Laureys, en Lieja, que sometieron a un scaner cerebral a aquel hombre para ver lo que estaba pasando en su cabeza. 


El resultado les sorprendió porque mostraba que aunque aquel señor Graham estaba despierto e interaccionando con otras personas su cerebro mostraba una actividad similar a la de una persona en estado vegetativo. La actividad metabólica de su corteza cerebral se parecía más a la de una persona ‘anestesiada‘ que a la de una persona “despierta“. Este caso lo cuenta Helen Thomson en un magnífico reportaje en New Scientist.

Por eso los sujetos afectados por el «síndrome de Cotard» se desconectan visualmente del mundo, y no tienen memoria emocional de los objetos que les rodean; su amigdala, guardian de sus emociones y de las respuestas asociadas a ellas deja de enviarles la excitación y el estímulo que son las razones que nos muestran que ‘estamos vivos’. El ‘síndrome de Cotard‘ es la mejor prueba de que el cerebro humano lleva a cabo tareas muy complejas para interpretar la realidad y cuando este proceso automático falla nos deja con unos sentidos que nos informan incorrectamente sobre el mundo que nos rodea y lo dejan sin significado. 

La ‘consciencia’  es una de las capacidades mas misteriosas del ser humano. No sabemos con certeza ni donde reside, ni como funciona, pero es lo único que tenemos para sentir que «estamos vivos»

Fuentes:

Jules Cotard (1840-1889): his life and the unique syndrome which bears his name.
Pearn J, Gardner-Thorpe C, Neurology. 2002 May 14;58(9):1400-3.

http://www.ncbi.nlm.nih.gov/pubmed/12011289?dopt=Abstract

McKay R1, Cipolotti L.
Attributional style in a case of Cotard delusion“. Conscious Cogn. 2007 Jun;16(2):349-59. Epub 2006 Jul 18.


Young AW1, Robertson IH, Hellawell DJ, de Pauw KW, Pentland B.
Cotard delusion after brain injury“. Psychol Med. 1992 Ago,; 22(3):799-804.

¿Cómo se engaña a un GPS?

La ‘suplantación de identidad‘ no es un concepto nuevo. En los días previos a la transmisión de vídeo, un grupo de expatriados británicos en Europa consiguieron engañar a las compañías de televisión por satélite‘ para que pensaran que sus decodificadores estaban en el Reino Unido y así desbloquear los contenidos de una televisión destinada únicamente a una audiencia inglesa. Hoy en día, los fans de muchos programas de televisión extranjera falsifican su dirección IP para que su ordenador portátil o tableta figure registrado en el país donde esté legalmente permitido acceder al contenido del vídeo que deseen ver. 

El uso de dispositivos para ‘engañar a las máquinas ‘ se ha usado muchas veces en el cine como en aquella película de James Bond titulada “El mañana nunca muere” en donde nuestro agente 007 utilizaba un sofisticado sistema desde su móvil para manejar su vehículo 

Y esa ‘suplantación de identidad’  también ha llegado recientemente a una de las tecnologías más modernas de nuestro tiempo: el GPS

 GPS es el acrónimo de “Global positioning system”, que significa Sistema de posicionamiento global. Se maneja por el NAVSTAR (Navigation satellite timing and ranging) que dispone de 24 satélites colocados en seis órbitas a razón de cuatro en cada una y distanciados entre sí 90º de arco. Cada satélite está dotado de cuatro relojes atómicos de extremada exactitud (atrasan 1 segundo cada tres millones de año) y con esa ‘señal de hora exacta‘ los satélites transmiten continuamente su posición y hora local en órbita. 

Esas señales se transmiten con una precisión de unos pocos microsegundos y afecta a las radiocomunicaciones. Cualquier marca de tiempo diferente del ‘tiempo real’ puede originar un ‘fallo critico’ en todo el software de control que usa el sistema para transmitir una señal de hora correcta. Eso fue lo que pasó el 26 de enero de 2016 cuando uno de los satélites GPS – llamado SVN23 en órbita alrededor de la Tierra al ser dado de baja ocasionó un error en el mensaje de sincronización en tiempo universal (UTC) de 13 microsegundos afectando a las señales de banda L de muchos receptores GPS. Solo ocasionó problemas en las retransmisiones de radio digital y no a la capacidad de los sistemas para proporcionar un posicionamiento y navegación correcta pero un fallo en las señales de posicionamiento es algo bastante grave porque nuestra civilización depende del GPS para casi todo.

Desde las redes de telefonía móvil hasta el control de un dron de precisión o el sofisticado sistema de guía de un petrolero, el ‘posicionamiento por GPS ‘se utiliza para coordinar muchas actividades humanas. Se trata de un sistema que se apoya precisamente en esas señales emitidas a intervalos desde 4 satélites y en el intervalo de tiempo que transcurre entre el envío y la recepción de la señal. Está medida es la que nos revela cuan lejos se encuentra el satélite del receptor GPS
La señal se construye desde esos cuatro satélites que envían sus señales constantemente a la Tierra y las antenas GPS encargadas de recibirlas miden el tiempo transcurrido entre la emisión y la recepción de las citadas señales. Con eso se puede establecer una distancia del objeto a los satélites.

La posición GPS de un objeto sería el lugar geométrico donde coinciden las tres esferas que marcan el círculo de señales de tres de los satélite GPS, siendo el centro de cada esfera el propio satélite y el radio la distancia obtenida tras multiplicar el tiempo por la velocidad de propagación de las ondas en la atmósfera.


Por ejemplo si el receptor está situado a 12000 km del satélite número 1, a 10000 km del satélite número 2 y a 13000 km del satélite número 3 el lugar geométrico donde coinciden las tres esferas sería el círculo marcado en verde. Al incluir la distancia desde un cuarto satélite se puede posiciona un objeto en el mapa terrestre con total exactitud. Con las posiciones orbitales de los satélites GPS que intervienen en el momento de la transmisión,contamos con suficiente información para localizar una señal con un margen de error de unos 5 metros en la superficie terrestre

Los cálculos son muy delicados y si se ignoran las medidas de correción aplicables en ciertos casos, el resultado puede ser desastroso con desvíos de la ubicación de la posición de hasta 10 km por día. Por eso el ‘alterar las señales GPS‘ puede tener un impacto muy significativo.

¿Se puede engañar a un receptor de GPS? Pues si, y el proceso no es muy complicado; basta con transmitir desde tierra una señal ‘más poderosa‘ que la de los satélites que la forman. Conocida como “spoofing“, esta técnica consiste en crear señales GPS falsas que confundan al receptor GPS del objeto que queremos posicionar. Estructurando el retraso apropiado podemos cambiar sus coordenadas GPS en la Tierra dado una ‘falsa posición’ del mismo. 


La ‘señal trampa‘ (spoof) contiene la información real de uno de los satélites GPS pero se altera la distancia aparente entre el satélite y el receptor. Como resultado, la cuadrangulación 3D empleada para determinar la posición del receptor ofrecerá una respuesta incorrecta, y esto se traducirá en una desviación, sobre su posición real. 

Se comienza difundiendo una señal ligeramente más potente que la que inicialmente  se corresponde con la situación correcta del receptor GPS, y luego poco a poco se va alterando la posición “aparente” del objeto para que el receptor de tierra acepte la posición de la ‘señal trampa‘ sin darse cuenta de que dicha señal es diferente.

El primer caso conocido de ‘spoofing GPS‘ ocurrió a finales del año 2011 cuando un avión no tripulado militar RQ-170 de los Estados Unidos desapareció sobre Irán y apareció una semana después intacto y en poder de los iraníes .Estos afirmaron que secuestraron y llevaron a tierra a aquel avión con señales para engañar a su GPS pero no se pudo averiguar la técnica usada por los mismos.

Fuente
Pero fue un año después cuando en en el Departamento de Ingeniería aeroespacial y mecánica de la Universidad de Texas, el profesor Todd E. Humphreys y su equipo de investigación en la ciudad de Austin demostraron con éxito que las señales GPS de un vehículo aéreo no tripulado (UAV) podían ser alteradas por una fuente externa y con ello demostraron que se podía ‘engañar a un sistema GPS superarando  las señales de navegación de aquel prototipo.

Pero faltaba la ‘gran prueba ‘ y esta se hizo entre finales de junio y principios de julio de 2013 en el “White Rose of Drachs” un súperyate de 80 millones de dólares de 65 m de eslora con casco de acero y superestructura de aluminio y con capacidad de transportar hasta 12 personas y 18 tripulantes a una velocidad de 16.80 nudos. Este yate disponía de los últimos adelantos en posicionamiento GPS. 

El experimento se hizo en el mar Jónico con el pleno consentimiento del capitán de aquel yate y en su trabajo, Humphreys y sus estudiantes mostraron que se podía engañar al sofisticado equipo GPS de aquel barco mostrando lo vulnerable y relativamente fácil que es enviar una señal GPS falsa y engañar a los modernos receptores.

Se trataba de un dispositivo que enviaba señales GPS falsas a aquel barco, y el mismo las aceptó haciendo caso omiso de las señales de GPS reales existentes. Con ello Humphreys y sus muchachos obtuvieron el control total de la navegación de aquel súperyate. Aquí está el vídeo que muestra como lo hicieron 

Y aunque durante un tiempo se pensó que estas técnicas para falsear una posición GPS eran altamente sofisticadas y requerían un equipo costoso y especializado, todo cambió cuando en agosto de 2015 en una convención de hackers en Nevada llamada DEFCON 23 dos investigadores chinos llamados Huang Lin y Yan Qing demostraron que era posible construir un dispositivo de ‘suplantación de GPS’ con componentes baratos. Aquí está la memoria completa de su trabajo.

Con su spoofer barato aquel el equipo mostró que podían tomar el control remoto tanto de un avión no tripulado como de un smartphone o cualquier vehículo automóvil. A partir de entonces la seguridad en la navegación ya fue una ilusión y en diciembre de 2015, el Departamento de Seguridad Nacional de Estados Unidos informó que los narcotraficantes usaban técnicas de ‘GPS Spoofing‘ para desactivar los drones de vigilancia de las fronteras.

Es decir que el mundo de las ‘redes seguras’. ya no existe, y aún que son muchas las ventajas que ofrece un sistema de posicionamiento GPS, al paso que vamos y si queremos estar realmente seguros al movernos por el mundo vamos a tener que volver a usar aquellos viejos mapas y brújulas.


Fuentes:

http://www.engr.utexas.edu/features/humphreysspoofing

http://www.navegar.com/como-funciona-el-sistema-de-localizacion-por-gps/

http://www.mejor-antivirus.es/noticias/gps-spoofing.html

Como se ha avanzado con el glaucoma

La palabra glaucoma deriva del latín glaukos, que para los romanos significaba “azul aguado o diluido”. Hipócrates en el 469 a.C. ya mencionó la condición de glaukosis para referirse a un mal típico de los ancianos de su tiempo que se manifestaba por el cambio de color de la pupila, que se volvía más azulada; más tarde dicha alteración fue identificada como hypochima y siempre se consideró como una enfermedad intratable.En la actualidad sabemos que se trata de una patología del ojo muy traicionera que aunque presenta síntomas diferentes, todos tieneun denominador común: la destrucción del nervio óptico 


Para comprender el glaucoma,debemos fijarnos en las partes del ojo: la esclerótica es la capa blanca que sirve para protegerlo con una parte transparente llamada córnea que permite que la luz ingrese, luego está el iris que es su parte coloreada y que se contrae y dilata para regular la cantidad de luz que ingresa; esta luz atraviesa la pupila y llega al cristalino que la enfoca en la retina, en la parte posterior del ojo y es allí es donde tenemos millones de fibras nerviosas que son las encargadas de transmitir las imágenes al cerebro por medio del nervio óptico. 

El ojo es una cámara hiperbárica de forma aproximadamente esférica que no es sólida por dentro y cuyas cubiertas tampoco son demasiado rígidas y para conservar su forma esférica utiliza el mismo truco que usamos para dar forma a un balón o a un globo, es decir, llenar su interior de un fluido a mayor presión que la atmosférica. Con ello su cubierta puede estirarse y adoptar esa forma aproximada de una esfera. La presión intraocular (PIO)  es la presión que ejercen los líquidos que el ojo contiene sobre su pared y que es necesaria para que este órgano se mantenga distendido.

E igual que en un balón o un neumático, el aire a presión de su interior “empuja” sus paredes para mantener su forma esférica , en el ojo ocurre una cosa parecida, y son sus líquidos intraoculares los que también “empujan sus cubiertas” para darle su forma esférica. Normalmente nuestra presión ocular oscila entre los 16 y los 18 mm.Hg y la misma está regida bajo un ritmo circadiano, observándose que aumenta por la mañana (7 a.m.) y disminuye por la tarde (5 p.m.) con variaciones del orden de los 5 mm.Hg en 24 horas.


Es decir que el interior de un ojo funciona igual que un balón, solo que en este  lo llenábamos de aire a presión para que mantuviera su forma esférica y en un globo ocular como no hay aire son los dos líquidos que hay en su interior los encargados de esta función: estos dos líquidos tienen composiciones y texturas diferentes y son el humor acuoso y el humor vítreo.


El “humor vítreo” está situado en la parte posterior del ojo entre la superficie posterior del  cristalino y la  retina y es una sustancia gelatinosa que se difunden lentamente formando la mayor parte de su volumen interno. Se trata de un tejido compuesto de proteínas y azúcares con un buen volumen de agua, sin vasos sanquíneos ni nervios que sirve de sostén a este órgano y que apenas sufre recambio ya que ni se se forma ni se elimina. Por eso su dinámica a los efectos de mantener la presión ocular es prácticamente nula.

Pero con el “humor acuoso” pasa una cosa diferente: aunque ocupa sólo la parte anterior del ojo, desde la córnea hasta el cristalino y solo llena un 3 % del interior del mismo  es el principalresponsable de la PIO. Como su propio nombre indica, se trata de un liquido compuesto básicamente por agua filtrada de sangre de las células, en la que van disueltos elementos alimenticios como proteínas, oxígeno y dióxido de carbono. Este fluido no se encuentra estanco, sino que se renueva continuamente y está en constante movimiento para permitir que esté siempre rico en el oxígeno y los nutrientes necesarios para el cristalino y la parte interior de la córnea, ya que estos elementos oculares no tienen vasos sanguíneos que los nutran.

Se trata pues, de un líquido que sale de la cámara anterior a través del ángulo abierto por donde se unen la córnea y el iris y que está fluyendo continuamente. Se elimina a través de una red o malla esponjosa, parecida a un colador a la que los médicos llaman coloquialmente “la alcantarilla de desagüe” y este líquido debe encontrar una cierta resistencia para salir del ojo a nivel de ese ángulo para que el mismo mantenga su dureza .

En esta imagen vemos esa “alcantarilla” (trabecular outflow) por donde el humor acuoso debe de salir y pasar a la circulación venosa. Lo malo es que si esa “alcantarilla” se atasca, la consecuencia será un aumento de la presión intraocular: es lo que los especialistas llaman coloquialmente un “problema en la tubería de drenaje” 

Y es este incremento de la tensión ocular lo que produce el glaucoma. El problema es que el paciente, al principio no se da cuenta de que va perdiendo poco a poco su campo visual periférico y la visión periférica es aquella que nos permite abarcar todo lo que nos rodea en un radio de unos 140 grados. En esta patología silenciosa no hay dolor ni ningún síntoma pero si un deterioro lento y progresivo del nervio óptico. Es lo que se llama “glaucoma de ángulo abierto” también conocido como “el ladrón silencioso de la vista“. 

Al principio, la visión del afectado no disminuirá , porque aunque su ojo no perciba ciertas zonas o detalles de su campo visual, su cerebro compensará el déficit, pero cuando el glaucoma llegue a una fase avanzada, sus trastornos de visión aumentaran y habrá “zonas ciegas” en su campo visual que se extenderán. En las últimas fases el paciente verá con su ojo con glaucoma de una forma que se llama “visión de cañón de escopeta” hasta que termine perdiendo totalmente la visión del mismo.

Campo normal de visión normal 

Glaucoma en fase avanzada con el campo de visión reducido

Ahora explicaremos por qué pasa esto.

El nervio óptico, es un “cable” que sale de la parte trasera del ojo y lleva la información visual hasta el cerebro. El comienzo de ese nervio está en el interior del propio ojo (en la retina) y las fibras nerviosas (axones) de esa retina se prolongan y entran en el mismo. A esta primera parte del nervio óptico, se la conoce como papila y en la misma hay una zona llamada excavación que es un agujero por el que deben de pasar todas esas fibras nerviosas. Estamos hablando de fibras que vienen de todas las direcciones y de una cantidad del orden de los 1,5 millones de axones y todas ellas al llegar al borde del agujero, deben amontonarse y doblarse unas encima de otras curvándose para salir del ojo por el citado nervio óptico. En este “cambio de dirección” empieza la parte más vulnerable porque esos axones tienen que atravesar un área perforada de más de 500 agujeros llamada “lámina cribosa


Y por unos mecanismos que aún no son completamente conocidos, en los ojos glaucomatosos y con una presión intraocular alta (por encima de los 21-22 mmHg), se produce un daño en la papila porque el tejido neuronal ganglionar no puede soporta su propia presión intraocular. 

La idea se entiende muy bien con un símil culinario. Sería como si coláramos unos espaguetis por varios coladores superpuestos y los empujáramos a presión. El resultado es que serían despanzurrados con esta presión . 


Y de una manera parecida las fibras nerviosas de los axones que transmiten la información de la visión por el nervio óptico, ante una presión intraocular elevada van degenerando y muriendo y así los ojos glaucomatosos van perdiendo fibras nerviosas al amontonarse en la excavación por donde deben pasar y está cada vez se hará más grande. Por eso para detectar el glaucoma solo hay que mirar el fondo del ojo y ver el tamaño de la excavación de la papila. Es lo que se llama una “angiografía” de la misma 


Observemos ambas imágenes y veremos cuál es la diferencia entre un ojo normal y un ojo con glaucoma. En el segundo la excavación ocupa proporcionalmente la mayor parte de la papila. ¿Por qué? Pues por lo que dijimos antes: al irse perdiendo fibras nerviosas, son menos las que pasan por el agujero y esta excavación se va haciendo mayor (es decir que la papila se va “vaciando” y creciendo), por eso una “papila glaucomatosa”, es mayor y más pálida que una papila sana.

Pero, claro, todo esto no se sabía en la antigüedad y en la época medieval el glaucoma se confundía con la catarata. Galeno de Pérgamo (129-201 d. C.) había formulado una teoría errónea de la visión en la que daba al cristalino el principal protagonismo y hasta después del medioevo no llegó Vopiscus Fortunatus Plemp (1601-1671) que en su libro “Ophthalmographia sive tractatio de oculo” fue pionero en plantear que el glaucoma era una transformación del humor acuoso del ojo en color azul y lo diferenció de la catarata. 13 años después, Yves opinó razonablemente que el glaucoma debía ser considerado como una falsa catarata pero salvo estos apuntes, en la época Moderna todos los médicos mantenían la creencia de que el cristalino era el eje principal de la visión y confundían la catarata y el glaucoma.

Fue durante el siglo XVIII cuando se trató de establecer las diferencias entre catarata y glaucoma y dos cirujanos franceses, Michel Brisseau (1676-1743) y Antoine Maitre-Jan (1650-1750), presentaron ante la Académie Royale des Sciences de París unos trabajos en los que sostenían que la catarata era una patología del cristalino operable, mientras que el glaucoma, era otra patología y además incurable. Por eso hasta los comienzos del siglo XIX, no se tenía claro lo que era el glaucoma; algunos pensaban que se trataba de una forma de coroiditis y otros que la opacificación del vítreo sería una secuela de una oftalmía artrítica, que solo se presentaba en pacientes con gota pero llegó Albrecht Von Graefe (1828-1870) y se empezó a descubrir el verdadero mecanismo del glaucoma 


Fuente
Aquel médico fue pionero en interesarse por este padecimiento y comprobó que cuando sube la presión intraocular la arteria central de la retina late a nivel papilar, se atrofia y excava la papila y, como consecuencia, se reduce o contrae el campo visual y que cualquiera de estos tres signos eran motivo para precipitar la ceguera. Clasificó los glaucomas en tres subtipos: glaucoma crónico, glaucoma agudo y glaucoma secundario y también escribió extensamente sobre la excavación de papila con afección de los campos visuales sin aumento de la presión intraocular (lo que actualmente conocemos como “Glaucoma de Tensión Normal”) e inició el diseño de un dispositivo llamado “Tonómetro de Impresión” para medir la presión intraocular pero-lamentablemente- tuvo que abandonar su proyecto por falta de anestesia local, que hasta 1859 la misma fue introducida por Albert Niemann, que usó la cocaína y más tarde con los relevantes aportes de la aplicación terápeutica del alcaloide de pilocarpina por Tweedy en 1875.

De todas formas, el enfoque sobre esta enfermedad se mantuvo sin grandes avances hasta que se pudo medir la presión interna del globo ocular algo transcendental en la identificación y el control de un proceso glaucomatoso y hubo que esperar hasta 1862, cuando durante el Congreso Anual de la Asociación Médica Británica, William Bowman introdujo formalmente la idea de que la medida de la presión intraocular era esencial para el diagnóstico de muchas enfermedades oculares. 

Pero ¿cómo medir la presión del ojo? Para medir la presión de algo (recordemos un neumático con su válvula) se require entrar en contacto directo con fluido de su interio y un ojo no se puede pinchar e introducir algo para medir su presión. Por eso la tonometria empezó a basarse en la idea de que el ojo ofrece una resistencia a ser deformado directamente proporcional a la presión que hay en su interior.  En esto se basa la medida de la presión intraocular  que no es otra cosa que la de hacer una fuerza sobre la parte exterior del ojo y comprobar si se deforma. 

Los pioneros a finales del siglo XIX, fueron Imbert y Fick que analizaron las fuerzas que actúan en un ojo simplificado. Su modelo equiparaba el ojo a como una esfera ideal, seca y de paredes infinitamente finas, flexibles y elásticas y determinaron que la presión en su interior (P) es igual a la fuerza necesaria para aplanar su superficie (F) dividida por el área de aplanamiento (A). 

P=F/A 

pero para poder aplicar este principio a la determinación de la PIO hay que tener presente que el ojo humano no es una esfera ideal, que no está seco y que el menisco lagrimal disminuye el valor medido de PIO por tensión superficial,; además la córnea tiene un espesor medio 
de aproximadamente 0,5 mm con su propia elasticidad y rigidez. Es decir era un principio empírico no se ajustaba totalmente a la realidad y solo era válido para un rango bajo de valores de A y de P/F 


Los primeros tonómetros utilizados para medir la presión intraocular del ojo humano fueron desarrollados en la Clínica Donders en Utrecht entre 1863 y 1868 y el principio de la tonometría por aplanación fue explorado por Maklakoff en 1885 y años después por Imbert y Fick.Los reportes clínicos de mayor valor con uso del tonómetro fueron los de Schiotz de 1910 a 1920. A principios de 1950 se observó un gran progreso en la tonometría por aplanación con los trabajos de Goldmann, Perkins y Maurice y actualmente el tonómetro de Goldmann es un importante instrumento que permite una adecuada medición clínica de la presión intraocular en el ojo humano. Este tonómetro desplaza 0.5 microlitros de humor acuoso y aumenta la presión intraocular un 3%.

Lo que hace la tonometría de aplanaciòn es aplanar la córnea. Se coloca en la parte central de la córnea (que es curva) y al aponerse la parte final del prisma, que es recta, ese prisma tiende a rectificar la curvatura natural de la córnea. Aunque la córnea es la parte más sensible de todo el cuerpo humano por su gran cantidad de terminaciones nerviosas, esta prueba en la actualidad, es indolora porque previamente se anestesia la córnea. El paciente sólo ve que se acerca una luz azul, y nada más.


Goldmann basó sus estudios sobre ojos de cadáveres, y modificó el Principio de Imbert-Fick para poder aplicarlo de forma realista al ojo humano. Incorporó la influencia de la lágrima y de la córnea a ese principio, siendo la ecuación resultante: P+E=F/A+S en donde P es la presión intraocular, F la fuerza necesaria para aplanar su superficie, A el área de aplanamiento, E el módulo de elasticidad corneal y S la fuerza de atracción por tensión superficial de la lágrima. Goldmann encontró que, para córneas de espesor normal (0,5 mm), los factores E y S se cancelaban para valores de A entre 4,9 y 12,5 mm2 (de 2,5 a 4,0 mm de diámetro). La ecuación se simplificaba otra vez a P=F/A . Así, el tonómetro de Goldmann se basa en el Principio de Imbert-Fick con aplanamiento de un área constante y va instalado en la lámpara de hendidura y calibrado para que la PIO pueda ser leída en un dial graduado


Tonometro de Goldmann

Pero faltaba la contribución esencial al diagnóstico del glaucoma: el ver “el fondo del ojo” porque antiguamente las enfermedades del polo posterior del ojo se conocían como “cataratas negras” ya que ese fondo del ojo no se podía explorar.

En el año de 1704 Méry logró ver el fondo del ojo de un gato (que había ahogado previamente) con la pupila midriática. Posteriormente de la Hire, Purkinge, Kussmaul, Cummings y Brucke efectuaron diferentes experimentos para lograr ver el interior del ojo teniendo algunos avances pero hasta el año de 1847, no se diseñó un instrumento capaz de observar el fondo del ojo. Lo hizo un tal Babagge, un físico inglés, que lo presentó a algunos oftalmólogos que no valoraron su instrumento, por lo que no lo publicó y su invento y este no se dio a conocer. 

El verdadero progreso para el estudio del glaucoma se produjo con la invención del oftalmoscopio. Lo hizo a mediados del siglo XIX Hermann Ludwig Ferdinand von Helmholtz considerado uno de los científicos más importantes de aquel siglo, y su invento contribuiría al desarrollo de la oftalmología en forma importante. Lo presentó el 6 de diciembre de 1850, ante la Sociedad de Física de Berlín, pero le puso el nombre de “augenspiegel” (espejo de ojo)


Fuente
El experimento que von Helmholtz realizó ante sus alumnos consistía en una demostración sobre la conservación de la fuerza (energía), y para el mismo utilizó cartón, pegamento y unas lentes delgadas que funcionaban como espejo reflectante. Helmholtz conocía la anatomía del ojo perfectamente bien y tenía conocimientos de que la retina era una superficie reflectante, por lo que sabía que la luz que entra al ojo es reflejada, así como que también la misma sigue el mismo camino de salida que de entrada. El paso a seguir fue colocar su ojo en el trayecto de la luz y de esa forma pudo observó el fondo del mismo; agregó además una fuente luminosa próxima, la cual se reflejaba en los cristales y se dirigía al interior del ojo observado. 


El “augenspiegel” de Hermann von Helmholtz

El oftalmólogo griego Andreas Anagnostakis, cambió el termino de “augenspiegel” con el cual Hermann von Helmholtz había designado a su invento por el de “oftalmoscopio” (del griego ὀφθαλμός ‘ojo’ y σκοπέω ‘observar’). Por cierto que debemos al mismo el primer estudio sobre fondo de ojo, publicado en el año 1854 . Los oftalmoscopios modernos tiene tres características fundamentales: una fuente luminosa, una superficie reflectante que dirige la luz hacia el interior del ojo observado y unas lentes para enfocar la imagen del fondo del ojo.

Finalmente hablaremos de la cirugía como otra manera de tratar el glaucoma. El oftalmólogo  Albrecht von Graefe (1828- 1870) empezó el tratamiento quirúrgico de esta patología y en su pequeña clínica berlinesa, fundada en 1851, inició el tratamiento quirúrgico del glaucoma mediante una técnica llamada iridectomía. Se trata de un corte en la periferia del iris que permite crear un orificio en el mismo para facilitar la salida del humor acuoso. En general, cualquier tipo de cirugía conlleva algún riesgo pero este sistema quirúrgico es el método de tratamiento principal para el glaucoma de ángulo cerrado y para el glaucoma congénito ya que puede ser la única manera de abrir los canales de drenaje bloqueados o malformados.

Pero el glaucoma de ángulo abierto que es el más común y del que hablamos en este artículo se trata muy bien con la cirugía láser. Un láser es un diminuto rayo de luz que puede hacer una pequeña quemadura en el tejido ocular, y fácil de realizar en el consultorio del médico o en una clínica hospitalaria.

Paralelamente, también empezó a investigarse el tratamiento con fármacos para el glaucoma.En 1862, Thomas R. Fraser ya describió el efecto de un alcaloide extraído de una haba, la fisostigmina, y su efecto miótico (de contracción de la pupila), viendo que reducía la presión intraocular. En 1877, Adolf Weber estudió el efecto de la pilocarpina, que pasó a ser el principal medicamento para tratar el glaucomaActualmente también se usan colirios con betabloqueadores para bajar la presion  intraocular que reducen la producción de humor acuoso y el Timolol, es uno de los mas utilizados. Son un buen complemento si se usan con los inhibidores  de la anhidrasa carbonica, una droga como la dorzolanida que inhibe la formacion de humor acuoso porque neutraliza la enzima anhidrasa carbonica, cuya presencia es necesaria para la formacion del mismo.


Hay actualmente más de 66 millones de personas en el mundo con glaucoma. En algunos casos la genética tiene mucho que decir ya que hay glaucomas que tienen componentes hereditarios, pero algunos aparecen como consecuencia de traumatismos oculares y aunque no se pueden cerrar los ojos ante la idea de que glaucoma y ceguera están muy unidos, una detección precoz del problema, puede frenar su progresión y evitar así la pérdida de la vista. Porque aunque se trate de una “enfermedad silenciosa“, podemos acallarla.

Fuentes 

Proyecto Ocularis Dr. Rubén Pascual. Sección de Oftalmología infantil y Estrabismo en el Hospital San Pedro en Logroño.

Facultad de Medicina de Sevilla. Área de oftalmologia. Prof. A.Benjumeda

Consideraciones sobre los principios físicos de la tonometría de aplanación“. Jordi Castellví Manent, M. Ángeles Parera Arranz y Jorge Loscos Arenas 

Echart WU, Gradmann C. Hermann Helmholtz. Investigación y Ciencia. Mayo 1995.

Hermann von Helmholtz y el oftalmoscopio Dra. Eréndira Güemez-Sandoval 

Prolífico genio en oftalmología: Albrecht Von Graefe (1828-1870) Dr. David Lozano-Elizondo

Las “cartas cifradas”. Un arte renacentista 

El cifrado es un método para escribir mensajes manteniéndolos a salvo de miradas indiscretas. La “escritura secreta” usa muchas veces la criptografía, donde el mensaje viene representado por una serie de imágenes ininteligibles que sólo son comprensibles por el destinatario pero en el Renacimiento se escribieron muchas “cartas secretas” basadas en las llamadas “sustituciones”. Eran cartas perfectamente inteligibles pero que llevaban incorporada una serie de números y símbolos que solo podían interpretarse si el destinatario disponía de “las claves” para descifrarlas. 

Los responsables de la curia vaticana en la época renacentista fueron muy hábiles en este campo e incluso habían creado una oficina llamada “Segretario della Cifra” (Secretario de cifrado) para estos menesteres. Desde el siglo XIII, la “escritura oculta” ya se practicaba en Venecia o Florencia, y al principio se aplicaba a la misma métodos sencillos, pero llegó Leon Battista Alberti, y en su obra “Componendis cifris” de 1466 inventó las bases para la “sustitución alfabética” con unos artilugios conocidos como ‘discos de Alberti‘ que tenían un armazón fijo con las letras del alfabeto y las cifras 1, 2, 3 , 4. y otro móvil con símbolo en minúscula que se usaban para el texto cifrado.

Disco de AlbertiFuente

Entre los siglos XIV y XV se usó mucho el cifrado en Italia, para la correspondencia diplomática y el principal fue uno denominado «Nomenclator» o “tabla cifradora”, que estaba compuesto por un alfabeto (casi siempre homofónico) y un conjunto de palabras o frases codificadas, representándose cada una de ellas por uno o más símbolos enigmáticos. 

El documento de la imagen de portada es uno de ellos y corresponde a una pieza confeccionada entre los años 1493 y 1494 y referenciada con la clave ASV, A.A., Arm. I-XVIII 5026, ff. 100r-101v en el registro del Archivo Vaticano.Pertenece a la correspondencia cifrada del Papa Alessandro VI Borgia y concretamente el presentado se usó para codificar la correspondencia papal con don Francisco Desprats que en 1492- poco después de que el señor Rodrigo de Borgia (Alejandro VI) – fuese elevado al sillón papal había sido nombrado como “colector de espolios” (un eclesiástico constituido en dignidad por el rey de España) y que oficiaba también como su nuncio apostólico en la corte de los Reyes Católicos. 

Pero ¿qué es un «Nomenclator»? Pues se trata de un sistema mixto para codificar la escritura compuesto por un alfabeto cifrado y una lista de nombres, palabras y sílabas, que están codificadas en diferentes formas. Repasemos el de la imagen de portada : en su “recuadro superior” y en la primera línea se detallan las letras del alfabeto y en la segunda, tercera y cuarta líneas se nos muestran cuales son las opciones para la sustitución de estas letras. Para las consonantes se permiten dos opciones y para las vocales tres. Luego sigue un “recuadro central” en donde se nos pone una tabla que reagrupa a una serie de palabras (verbos, adverbios, pronombres, preposiciones y locuciones) que pueden ser sustituidas con un símbolo y un “recuadro inferior” con una serie de nombres, títulos y expresiones en tres columnas. En la primera columna la sustitución se hace por números y en la segunda y tercera por sílabas. 

Así vemos como en el documento expuesto la frase «la hija del Papa» se marcaría como «cuc»; «el hijo del Papa» como «gu»; el «camarlego» como «fu» y la frase «el Papa» estaría expresada con el número «23». La “nomenclatura” (tabla de sustitución) fue usada mucho en el Renacimiento y para descifrar algunas cartas antiguas renacentistas no basta con ser un paleógrafo y conocer las lenguas antiguas, sino que hay que tener a mano el «Nomenclator» que se usó para cifrarlas con sus  “claves” correspondientes. 

Un caso muy curioso es el que nos cuenta Marcello Simonetta en su libro: “El Enigma de Montefeltro” en el que resuelve un crimen de hace quinientos años. ¿Quién urdió la conspiración del 26 de abril de 1478 para matar a los hermanos Lorenzo y Juliano de Médicis en la catedral de Florencia? En la misma Lorenzo encontró refugio en la sacristía pero Juliano cayó bajo diecinueve puñaladas de sus asesinos. 

En el siglo XV había en Italia una competición directa entre dos familias: los Médicis y los Pazzis pero los primeros eran el clan con mayor poder en Florencia. y Lorenzo el Magnífico intercambiaba favores por dinero. Asesorado por su hermano Juliano, colocaba a sus amigos en los puestos claves del poder en detrimento de la familia Pazzi. Así se urdió una conspiración para matar a ambos hermanos aprovechando el día que estaban juntos en la misa mayor del Duomo. Juliano llegó acompañado de Francesco dei Pazzi y se colocó por razones de seguridad en el extremo opuesto de dónde estaba su hermano Lorenzo. En el momento de la consagración los conspiradores atacaron y Francesco dei Pazzi asestó 19 puñaladas a Juliano matándolo; otro grupo atacó a Lorenzo pero sus seguidores lo defendieron y le salvaron la vida.

Lorenzo se vengó y la familia Pazzi fue considerada responsable matándose aquel día a más de cien personas pero… ¿lo fueron realmente? porque los Médicis tenían una larga lista de enemigos, incluido el Papa de aquel entonces: Francesco della Rovere, Sixto IV.

Sixto IV

En la portada del libro aparece un gran protagonista: Federico II de Montefeltro, IX Conde y primer duque de Urbino. Supuestamente era aliado de los Médicis pero como otras muchas figuras del Renacimiento era un profesional de “la condotta” un término que en Italia designaba al contrato entre el capitán de mercenarios y el gobierno que alquilaba sus servicios. 

Vamos, que “se vendía al mejor postor” y aunque había servido a Lorenzo de Médicis en la guerra de Volterra de 1472 no tuvo el menor escrúpulo en conspirar contra él sirviendo al papa Sixto IV, enemigo de Lorenzo por haberle denegado un préstamo. Los señores mercenarios mudaban su lealtad a quien creían que poseía mayor poder.

Marcello Simonetta en el año 2000 pudo descifrar el código de una carta cifrada del 14 de febrero de 1478 que aquel duque de Urbino, envío a Roma revelando su participación en una conspiración gestada por el Papa Sixto IV para cambiar el Señorío de Florencia. Da la casualidad de que este autor, es un descendiente de uno de los protagonistas de aquellos acontecimientos y encontró una carta escrita en1478 de aquel duque de Urbino a su antepasado Cicco Simonetta, Canciller de Sforza de 1450, y otra posterior advirtiéndole que “tuviera cuidado con Lorenzo de Médicis”. No me extenderé más porque quien quiera saber más puede leer este libro donde se demuestra que aquel ataque fue el acto culminante de un plan de Sixto IV que buscaba redibujar el mapa del poder en Italia. 

Lo más interesante es responder a esta pregunta: ¿cómo descifró este investigador aquella “carta cifrada” sin disponer del «Nomenclator» ? Pues gracias a un diario de su pariente en donde encontró la clave  de que alguna letra podía estar representada por símbolos diferentes y que a cada persona correspondía un símbolo

Así es que en aquella carta cifrada que el duque de Urbino mandada a su antepasado él asignó un número a cada símbolo y la frecuencia de estos números le ayudó a encontrar “los símbolos repetidos“. Luego a los caracteres que más se repetían les asignó una vocal y como la letra «a» es la más repetida del alfabeto italiano la sustituyó por los símbolos que se repetían y así empezaron a aparecer palabras como «La sua santitá» que-obviamente- debía ser Sixto IV y salió el nombre del jefe de la conspiración. El duque de Urbino era conocido como un maestro de la escritura cifrada pero cuando se fueron descubriendo sus “claves” aparecieron. frases como «Hazlo, deshazte de Lorenzo en cuanto puedas»

Y así el Renacimiento siguió perfeccionado el noble arte del “cifrado de la correspondencia ” con muchos otros documentos recopilados en los archivos vaticanos y otros cifrados ubicados en el archivo del Fondo Borghese, entre los que se encuentran escritos de políticos cifrados las “Grilie di Cardamo” (grilla de Cardamo), otro sistema renacentista ideado por Gerolamo Cardano hacia 1550 con una cartulina cuadrada con perforaciones en cuyo interior se escribía el mensaje, y el texto se podía leer sobreponiendo a la carta recibida la grilla que el receptor tenía
Fuente 
Luego el cifrado se extendió y algunos ejemplos históricos importante son la anécdota de Oliver Levasseur, alias La Bouche (‘El Buitre‘) un pirata francés del Océano Índico que fue capturado y ejecutado en 1730. Antes de morir mostró un criptograma de 17 líneas, exclamando ante la multitud: “Mi tesoro está enterrado aquí … “. Nadie lo ha descifrado aún 


O el Copiale Cipher de entre 1760 y 1780, de una sociedad secreta de Wolfenbüttel, Alemania. Durante más de 260 años el contenido de este manuscrito de 105 páginas cifrada fue un misterio, hasta que en abril de 2011 un equipo de lingüistas suecos y estadounidenses utilizando sofisticados algoritmos de traducción pudieron descifrarlo al fin.

O cuando en el siglo XVI María, reina de los escoceses tras 18 años de prisión, apoyó el complot urdido por Anthony Babington para liberarla y asesinar a Isabel de Inglaterra. María conspiró con Babington a través del intercambio de cartas cifradas, mediante un cifrado de sustitución complejo con más de 63 símbolos diferentes para codificar letras y palabras.


Más modernamente en 1917 tenemos el telegrama codificado que el Ministro de Exteriores alemán Arthur Zimmermann envió a México sobre la reanudación de la guerra submarina alemana  “sin restricciones” . Aquel telegrama fue interceptado por un equipo de criptografía británica conocida como la habitación 40, y el 19 de febrero, de aquel año y una vez descifrado se pasó a los EE.UU. que el 6 de abril declaró la guerra al Imperio Alemán.

Hoy en día el cifrado es un arte mucho más sofisticado y en palabras del historiador eminente de cifrados, David Kahn: “Pocas de las ideas falsas que más firmemente se han apoderado de las mentes de los hombres es la de inventar un sistema de cifrado que nadie puede romper“.

Fuentes:

Archivo Vaticano: https://www.vatlib.it

Marcello Simonetta: “El Enigma de Montefeltro
Frattini, Enric: “La conjura: asesinar a Lorenzo de Médici“. Espasa Calpe.2006 
Julian Bhardwaj . ‘Discrete Mathematics‘. University of Warwick

La cuarta dimensión del tiempo 

En geometría, un hipercubo nos sirve para visualizar el concepto de dimensiones. Dependiendo de la cantidad de dimensiones que tenga ese  hipercubo puede tomar distintos nombres: con 0 dimensiones sería un Punto, con 1 dimensión sería una Arista. Con 2 dimensiones sería un Cuadrado, con 3 dimensiones un Cubo y con 4 dimensiones seria un Teseracto o sea  un cubo desfasado en el tiempo, es decir, que en cada instante de tiempo se va formando. Por supuesto, es imposible verlo en la cuarta dimensión, y del mismo solo podemos ver los puntos en los que él mismo toca nuestro universo, así que, si toca nuestro espacio 3D en forma paralela a una de sus hipercaras tal lo veríamos como se muestra en la figura de entrada de este post en donde vemos a uno de ellos girando proyectado en nuestro espacio tridimensional. 

Para entender lo que esto significa tenemos que hablar de las diversas dimensiones y de sus relaciones entre ellas 

La “Dimensión Cero” sería un vértice en medio en un vacío adimensional. Con esta dimensión puede localizarse un punto


La “Primera dimensión” puede considerarse como una linea en el espacio donde sólo existe la longitud, y aún no se constituye el ancho, ni la altura o profundidad. 

La “Segunda dimensión” ya contiene las figuras planas de todo tipo; regulares, irregulares Estas figuras ya tienen largo y ancho, direcciones atrás-adelante, y ejes “X” y “Y” como en un plano cartesiano.


La ‘Tercera dimensión‘ es aquella en la que vivimos físicamente con las direcciones derecha-izquierda, enfrente-atrás y arriba-abajo (Ejes X, Y, Z). Sin embargo vivimos en un entrelazamiento con las demás dimensiones; es decir que las dimensiones se relacionan y podemos ver sus efectos cuando una de ellas corta a otra. Es lo que pasaba con nuestro Teseracto de 4 dimensiones que lo veíamos cuándo tocaba   nuestro espacio 3D

Si tomamos como referencia la Segunda Dimensión en relación con la Tercera una persona “Tridimensional” al moverse siempre iría cortando unos plano bi-dimensionales

En cada plano habría un mundo concreto de dos dimensiones y un ser de uno de estos planos de la Segunda Dimensión, vería las acciones de esta persona por  las intersecciones de su cuerpo con el plano donde habitara. El resultado -para él- serían únicamente unas áreas sombreadas que serían las secciones del cuerpo de la persona 3D cuando atravesase su mundo plano. Para él serían círculos y figuras extrañas que aparecerían de improviso hasta-simplemente-desaparecer pero nunca podría imaginarse cómo sería esa persona en un universo 3D ya que no puede acceder a él. 

Porque en un universo de dos dimensiones no existe la altura, y sus habitantes solo se pueden mover hacia los lados, hacia atrás o hacia adelante; en cambio en nuestro universo de tres dimensiones ya podemos movernos hacia arriba o hacia abajo, hacia adelante o hacia atrás, hacia la derecha o hacia la izquierda y ¿cómo sería un universo de cuatro dimensiones

Aquí habría nuevas direcciones, por donde podríamos entrar y salir y quizá seríamos capaces de mirar al interior de los cuerpos o encontrar atajos, caminos o puentes que nos permitirían llegar más deprisa al trabajo pero todo esto que durante mucho tiempo pertenecía al reino de la fantasía cambió con Albert Einstein y otros físicos que emprendieron en el siglo pasado la búsqueda de las dimensiones ocultas, siguiendo las sutiles pistas escondidas en la naturaleza. 

Fuente

Pensaron que, tal vez, en nuestro universo 3D podría haber señales de una cuarta dimensión, por la aparición de sucesos inexplicables. Un suceso inexplicable para unos seres de dos dimensiones encerrados en un cuadro abandonado en un jardín sería el ver cómo se destruia su mundo a causa de algo desconocido que lo disolvía. En nuestro mundo 3D la causa seria fácilmente explicable. Se trataba de una lluvia que cae sobre el cuadro pero como la misma les cae desde “arriba” – es decir desde una tercera dimensión que los seres 2D no pueden siquiera imaginar se trata de algo inexplicable para ellos. 

Y en nuestro mundo 3D aquellos investigadores empezaron a buscar algo que no encajase con las leyes físicas que lo regian buscaban sucesos más allá de lo conocido, como aquella catastrófica tormenta tridimensional que destruyó el universo bidimensional de la pintura de nuestro ejemplo.Buscando esos sucesos inexplicables se encontró una anomalía en la órbita del planeta Mercurio. Cuando los astrónomos usaron la fórmula de Newton para calcular su órbita alrededor del Sol -y su posición aparente en el cielo, visto desde la Tierra- y compararon esos cálculos con las observaciones, encontraron que eran casi iguales, pero había una pequeña diferencia en la posición real de Mercurio: cada año parecía cambiar su posición (medida en el instante de su máximo acercamiento al Sol) un ángulo muy pequeño, de 5,75 segundos de arco. Era un error ciertamente pequeño, pero muy importante y los astrónomos dieron una explicación: Mercurio no sólo era atraído por el Sol, sino también por los demás planetas, así es que calcularon -usando siempre la teoría de Newton- la posición de Mercurio, teniendo ahora en cuenta todos los cuerpos del Sistema Solar, y, efectivamente, encontraron que, de aquellos 5,75″ de error anual,  se podían explicar 5,32″ por la influencia gravitatoria de los otros planetas lo cual era casi perfecto… pero no del todo exacto. La diferencia (0,43″/año) entre la posición calculada para Mercurio y la observada daba un error pequeño pero inquietante: ¿por qué no funcionaba exactamente la teoría de Newton con Mercurio, cuando sí parecía funcionar con todos los demás planetas? Fue Einstein quien, a principios del siglo pasado, propuso una teoría diferente a la de Newton y pudo por fin explicar los 0,43″/año famosos en la posición de Mercurio. Había puesto los principios de su ‘Teoría de la Relatividad Especial‘ en 1905, resolviendo un problema que aquejaba a la Física: la mecánica newtoniana y la teoría de los fenómenos electromagnéticos no encajaban, y con ello sometió a una profunda crítica la forma en que hasta entonces se entendían los conceptos de “espacio” y “tiempo“. 

Con la teoría de la relatividad especial, lo que hasta ahora se había dado por sentado que era una constante, el tiempo, en realidad era una variable y el espacio también lo era. El tiempo depende, en realidad, del movimiento, de la velocidad y eso lo cambió todo. Einstein se basó en dos hipótesis: a) las leyes de la física son las mismas mientras el sistema de referencia sea el mismo y b) la velocidad de la luz es una constante universal, (casi 300.000 kilómetros por segundo). De ahí surgió su famosa ecuación E = mc2 que relaciona de manera directa masa y energía.

Para entender mejor el concepto usaremos un ejemplo extraído de este artículo. Se trata de dos fotones de luz que rebotan entre dos espejos situados en dos trenes. Estando parados, como la velocidad de la luz es constante tardan él mismo tiempo en ir de un punto a otro en los dos trenes tanto si se les mira desde dentro de los mismos que desde fuera.


Pero si el primer tren se mueve a una velocidad constante, el observador situado dentro del tren seguirá viendo a ese  fotón rebotar de manera regular pero para un observador que esté situado fuera de ese tren y desde su punto de vista el fotón tendrá que recorrer una diagonal (más distancia) entre un espejo y otro variando el tiempo efectivo que tardar en rebotar. Es decir que los tiempos de dos observadores, uno estático y otro en movimiento han variado  

Así fue como Einstein en su teoría de la relatividad especial nos demostró que a velocidades lo suficientemente altas el tiempo se dilata o ralentiza y se hizo famoso el ejemplo de un cohete que viaja a la velocidad de La Luz (como aquel ‘Halcón Milenario‘ de la guerra de las galaxias)

La velocidad de la luz como es una constante universal puede usarse para definir una unidad de longitud llamada año luz para medir las distancias interplanetarias y si nos desplazáramos a una velocidad próxima a la de la luz (cerca de 300.000 kilómetros por segundo) hasta  una estrella que esté situada a una distancia de quinientos años luz al regresar a nuestro planeta, la Tierra será mil años más vieja, aunque nosotros sólo habremos envejecido diez años. De hecho 100 años en la Tierra, solo serían 5 para nosotros en nuestra súper nave espacial . Entonces ¿son los viajes a altas velocidades una fuente de eterna juventud? No, lo único que ha ocurrido es que el tiempo ha pasado más despacio.

El espacio-tiempo que define la teoría de la relatividad es un cono de luz, que va tanto hacia delante como hacia atrás en el tiempo. Los límites de ese cono están marcados por la velocidad de la luz y ninguna partícula podrá superarlos, por lo que nada de lo que ocurra puede estar fuera de los límites de ese cono.


Albert Einstein comenzó a buscar una nueva ley de la gravitación en 1.907, ya que su teoría de la relatividad especial ignoraba la gravedad en su conocido principio de equivalencia. Es sencillo de entender: si una persona cae libremente, no sentirá su propio peso y sería como si la gravedad para él hubiera desaparecido de su entorno, asi es que las leyes de la física que ella experimente serán las mismas que rijan en un sistema inercial libre de gravedad. Y así fue como el 25 de noviembre de 1915 presentó la formulación definitiva de su teoría de la relatividad general, introduciendo el misterioso concepto de la curvatura del espacio-tiempo eliminando la gravedad como una fuerza ‘real’ 
Ecuación de la relatividad general de Einstein 

Se trata de un sistema de diez ecuaciones que describen la interacción fundamental de la gravitación como resultado de que el espacio-tiempo está siendo curvado por la materia y la energía. Es decir que en ellas ya aparece el concepto de curvatura del espacio-tiempo que cambiaba por completo los conceptos. Los objetos se mueven en un mismo espacio-tiempo que, al estar curvado, produce la impresión de movimiento bajo una fuerza que actúa sobre ellos.

Fuente

El espacio-tiempo es un concepto que generaliza el anterior de espacio corriente, agregando una cuarta dimensión temporal. Se trata pues de un entorno de cuatro dimensiones e igual que en el ejemplo que poníamos de un ser de dos dimensiones cuyo plano era atravesado por un ser de tres, según la física y mecánica cuántica, la tercera dimensión se entrelaza con esa cuarta  y la dimensión del tiempo nos afecta. Se podría decir que vivimos y vemos el universo en pequeñas “pausas”. 

Los planos que podemos ver en nuestra dimension se miden en Cronones y cada uno dura 0,000 000 000 000 000 000 000 000 000 000 000 000 000 000 053 910 segundos. Como si se tratase de una cámara a alta velocidad, el universo nos pasa cuadro por cuadro, en estos minúsculos tiempos y-naturalmente- somos incapaces de percibirlo.

Pero según la física y mecánica cuántica, podría existir un ser capaz de moverse por esa cuarta dimensión y que podría pasar a través de nuestros “planos tridimensionales”. Aparecería y desapareceria de forma misteriosa mientras cambiaba de forma y esto sería algo tan extraño para nosotros como aquello de  ‘las sombras’ que dejamos para los seres de dos dimensiones cuando cruzamos su plano. Estos  “entes”, serían capaces de doblar el espacio-tiempo y pertenecer a realidades diferentes cada vez.

Podemos entenderlo imaginando una hormiga como un ser 3D que cruzar un trozo de papel. Tardaría 20 segundos en ir de un punto a otro pero si le plegamos los extremos, el mismo recorrido lo podría hacer en 1 segundo. 

Eso es lo que le pasaría a un ser que estuviera en la Cuarta Dimensión, que podría moverse no solo con el espacio, sino con el tiempo, y sin necesidad de usar las velocidades luz. Para él sería posible moverse como en los famosos “Agujeros de Gusano”. 




Agujeros de gusano conectando distintos instantes de tiempo. 
Fuente 


Los ‘agujeros de gusano‘ son atajos en el tejido del espacio-tiempo que permiten unir dos puntos muy distantes llegando de uno a otro más rápidamente que si se atravesara el Universo a la velocidad de la luz. Según la teoría de la relatividad general de Einstein, estos agujeros de gusano pueden existir con una entrada y una salida en puntos distintos del espacio o del tiempo. El túnel que los conecta está en el hiperespacio, que es una dimensión producida por una distorsión del tiempo y la gravedad.

Y un ser de 5 dimensiones podría moverse en el espacio-tiempo de una manera similar. Con 5 dimensiones para él el tiempo sería una dimensión más y podría desplazarse por el mismo como ‘una extensión más’ ‘e igual que nosotros vemos la anchura, la altura y la profundidad él también vería los distintos instantes del pasado y del futuro. Es la situación que vive el protagonista de la película Interstellar al que unos seres de 5 dimensiones le salvan de caer en la singularidad de un agujero negro haciendo un hueco en su mundo con un Teseracto desde donde podía ver la habitación de su casa en todos los instantes de tiempo.

Fuentes:

Roberto Emparan (Bilbao, 1967). ICREA Research Professor. Universidad de Barcelona.

Hernán Quintana: Instituto de Astronomía. Pontificia Universidad Católica de Chile.

Enrique F. Borja. Relatividad General. Un siglo con las ecuaciones de Einstein

La interesante historia de los cajeros automáticos 

Los cajeros automáticos se definen en la Wikipedia, como la red de ATMs (por Automated Teller Machine, el nombre genérico de estas máquinas en inglés) y se extienden desde la estación antártica de McMurdo, en su punto más austral, hasta el pueblo de Longyearbven, en Noruega, el punto más al norte del planeta. 

Alrededor del mundo hay muchos millones de cajeros automáticos y no importa a donde vayas, porque siempre encontrarás uno a tu disposición. Nadie podría pasar hoy en día sin la comodidad de sacar dinero de su cuenta bancaria las 24 horas del día en los 365 días del año pero hace poco tiempo esto no era posible. Hoy vamos a ver la interesante historia del desarrollo de los ATMs porque como todos los inventos complejos, el sistema requirió la unión de muchas ideas.

Hasta los años 60, si querías sacar dinero de tu cuenta bancaria debías de acudir a una oficina de tu entidad y en unos horarios determinados, por lo que si tenías una urgente necesidad de dinero, no podías obtenerlo fuera de las horas laborables; incluso debías esperar días si te coincidía con algún festivo y por eso la idea del ‘autoservicio’ empezó a gestarse en la banca minorista con unos primitivos esfuerzos para su desarrollo  en Japón, Suecia, Estados Unidos y Reino Unido. 

En los EE.UU. George Luther Simjian  fue el primero que desarrolló una máquina automática para aceptar dinero y depósitos de cheques en cualquier momento del día. Este hombre era un turco hijo de padres armenios que con 15 años y al finalizar la I Guerra Mundial fue separado de su familia y enviado a vivir con unos parientes en los Estados Unidos. Era un hombre de mente muy brillante y trabajó desde el año 1959 en un dispositivo llamado “Depository machine combined with image recording means” (Máquina de depósito combinada con medios de grabación de imagen). Lo patentó el 30 de junio de 1960 y esta patente le fue otorgada el 26 de febrero de 1963 con el número US 3079603 A y a la misma le puso el nombre de ‘Bankograph‘. Se trataba de una máquina con un sistema de grabación de imágenes que aceptaba monedas, dinero en efectivo y cheques. Las entregas se validaban por un sistema de microfilms que fotografiaban cada depósito ofreciendo a los usuarios un recibo. Estos son los datos de aquella patente

El lanzamiento del  ‘Bankograph‘ se retrasó algunos años porque la compañía ‘Simjian Reflectone Electronics Inc.‘ de su inventor fue adquirida por la ‘Universal Match Corporation‘  y cuando la máquina estuvo desarrollada fue adquirida por el Citigroup que hizo una prueba experimental instalando una de ellas en Nueva York en el año 1961 

Esquema del Bankograph de 1961

Sin embargo, aquella máquina fue retirada a los seis meses de su colocacion por no tener aceptación del público. Al parecer las únicas personas que la usaban eran prostitutas y apostadores profesionales que no deseaban el tratar cara a cara con los cajeros de las ventanillas bancarias pero el resto de los clientes no se fiaban de entregar su dinero a una máquina y preferían acudir a las ventanillas del banco. Es decir, el fracaso del ‘Bankograph,’ fue porque solo servía para captar depósitos y no dispensaba dinero

Pero llegó John Shepherd-Barron que fue el hombre que tuvo la primera idea de un prototipo de maquina que dispensara dinero en efectivo, En una entrevista a la BBC del año 2007, él contaba cómo se le ocurrió aquella idea. Trabajaba en una empresa británica llamada  ‘De la Rue‘  que imprimía timbres postales (como los famosos “penny blacks”) pero que también usaba máquinas para contar billetes en los bancos. Aquella empresa fundó otra que se dedicaba a suministrar dinero a las entidades bancarias llamada ‘Security Express‘ y fue en esta compañía donde  John Shepherd-Barron fue nombrado jefe de seguridad ya que él había implantado en la misma el uso de los  vehículos blindados cuando en un viaje a Nueva York se fijó en que ese era el tipo de vehículos que usaban algunas compañías privadas americanas para transportar dinero a los bancos. Un sistema desconocido en el Reino Unido.

Vivía en el campo, con su esposa Caroline y cobraba sus cheques en una oficina local. Solo podía ir los sábados ya que era el único día de la semana que tenía libre para hacer estas gestiones, pero el sábado 19 de Junio de 1965 llegó a su banco a las 12:31 y no pudo cobrar su cheque para el resto de la semana: su entidad abría de 9:30 a 12:30 y estaba cerrada por llegar un minuto tarde,

Se marchó a su casa frustrado y aquella noche, mientras tomaba un baño, empezó a pensar en cómo tener acceso a su dinero a cualquier hora. E igual que Arquímedes-cuando formuló su famoso principio- a aquel ingeniero británico le llegó la revelación también en la bañera. Se hizo esta sencilla pregunta: ” ¿por qué no puedo acceder a mi dinero a cualquier hora y en cualquier parte del Reino Unido “?  y empezó a pensar en aquellos dispensadores automáticos de golosinas que te permitían sacar una chocolatina de una máquina expendedora a cualquier hora del día o de la noche. En aquellas máquinas se insertaba una moneda de un penique en una ranura, se tiraba de una palanca y se abría un cajón en donde aparecía una barra de chocolate. Solo había que diseñar una máquina que en vez de ‘dar chocolate diera dinero’

En aquel tiempo aún no existían las tarjetas de plástico pero si existían los cheques y nuestro hombre tenía experiencia en la impresión de ‘cheques seguros‘ – otro de los negocios de la empresa para la que trabajaba (De La Rue)- los mismos usaban como identificador el Carbono 14, un material levemente radiactivo pero no peligroso y empezó a desarrollar una idea de cómo sería el proceso de obtención de dinero de una máquina:

1.- El cliente pasaria por la entidad bancaria para retirar cheques seguros (aquellos impregnados de carbono 14

2.- El cliente se identificaría marcando un número en la máquina expendedora de dinero. 

3.- Una vez identificado introduciría en la máquina uno de estos cheques seguros.

4.- Estos cheques al ser introducidos en la máquina serian reconocidos como auténticos y la misma devolvería en dinero su importe 

Para el número identificativo él pensó en uno de seis cifras cuando se dio cuenta de que podía recordar los seis dígitos de su registro militar pero a la mañana siguiente decidió probar la idea con su esposa Caroline. Así lo contaba durante su entrevista en la BBC: “estábamos en la mesa de la cocina y le pregunté a Caroline cuál era el número máximo de dígitos que podía recordar sin problemas“. Ella le contestó que sólo podía recordar cuatro dígitos y así fue como nació el Número de Identificación Personal o NIP de 4 dígitos, que se convertiría en el estándar mundial del PIN  (por sus siglas en inglés) Desde entonces muchas cosas han cambiado, pero aquel PIN, sigue teniendo cuatro dígitos.

Al lunes siguiente por la mañana Shepherd-Barron fue a trabajar a Londres y se reunió con su pequeño equipo de De La Rue al que le expuso sus ideas iniciales para entregar dinero durante las 24 horas a través de la pared de un banco. Dos días después, aquel equipo tenía algunas soluciones prácticas y el viernes nuestro hombre acudió a una comida de negocios de su empresa ‘Security Express‘ para reunirse con Harold Darvill, un directivo que trabajaba para el Barclays Bank, el cuarto banco más grande del mundo, al que ellos transportaban dinero para cerca de 2,000 sucursales. 

Al segundo martini pidió a su invitado, que le diera 90 segundos para explicarle la nueva idea de su invento. Así contaba él a la BBC como se la expuso :”Le dije que había tenido la idea de que, introduciendo tu cheque Barclays en un lateral de la sucursal, te podría entregar su equivalente en dinero al instante.” Aquel Director Ejecutivo de Barclays solo tardó 85 segundos en convencerse y le dijo que si podía hacer esa máquina se la compraría 

Al lunes siguiente el Barclays Bank firmó un contrato con John Sheperd-Barron para desarrollar el primer prototipo del cajero automático e instalar las primeras seis máquinas con un pedido posterior de 50. El inventor reunió a su equipo, contrató a más gente y la primera unidad estuvo lista dos años más tarde y se instaló en una sucursal de aquel banco en el distrito londinense de Enfield (al norte de la capital del Reino Unido) el martes 27 de junio de 1967 
Aún existe allí una placa conmemorativa

 El artilugio creado por John Shepherd Barron no era como los cajeros actuales porque no había tarjetas plastificadas y la máquina no tenía pantalla. Tan solo y contra la entrega de uno de aquellos ‘cheques radioactivos‘ de diez libras, te entregaba diez billetes de 1 libra cuya cantidad era descontaba de la cuenta del cliente antes del pago. Era una cantidad considerable para aquella época y no todos los clientes podían beneficiarse del sistema pero el mismo se promocionó bastante siendo el comediante británico Reg Varney el primero en retirar dinero usando aquel cajero automático.

Sin embargo con su invento del ‘cajero automáticoJohn Shepherd-Barron no ganó ni un solo centavo en ‘royalties ‘ porque no se atrevió a patentarlo por miedo a que los ladrones lo acosaran para que les enseñase su sistema de codificado. Aún así la Reina de Inglaterra le otorgó en el año 2005 la Orden del Imperio Británico y nuestro hombre falleció en Escocia el 15 de mayo del 2010 a la edad de 84 años con la satisfacción de haber llevado a buen puerto la idea que tuvo en la bañera para sacar dinero sin regirse por las horas de apertura y cierre de las oficinas bancarias 

Como no hubo patente del ‘cajero automático’ la paternidad del mismo fue posteriormente reclamada por otros y uno de ellos fue un ingeniero escocés del MD2 llamado James Goodfellow que fue quien introdujo el sistema de las ‘tarjetas plastificadas‘ y que sustituyeron a los engorrosos ‘cheques radiactivos‘ de Shepherd-Barron.

James Goodfellow con una de las primeras  ‘tarjetas codificadas’ Photograph: Murdo Macleod for ‘the Guardian’

Y no le faltaba razón porque la idea de un PIN almacenado en una tarjeta se la debemos a él. Fue este hombre quien desarrolló la idea en 1965 con Anthony Davies (patente GB1197183 de 2 de mayo de 1966) y el PIN se incorporó a los ATMs en 1967, como una forma eficiente para que los bancos dieran dinero a sus clientes. El Lloyds Bank fue la primera entidad que en 1972 emitió una tarjeta bancaria con información de banda magnética codificada utilizando un PIN de seguridad. 

Faltaba aplicar ese PIN a los cajeros y esto se hizo con los ‘Keypad‘ . El teclado de un Cajero que permite la identificación del cliente 
Uno de los primitivos teclados de un Cajero automático

Para llegar a esta idea tenemos que remontarnos a la década de 1970, y a un empresario francés, fallecido en el año 2007 llamado Bob Carrière que tuvo la visión de que las modernas cerraduras podrían llevar un código digital en vez de una llave.

Esta es otra curiosa historia porque aquel hombre se inspiró para su invento en un episodio de Popeye , cuando un personaje de aquellos dibujos animados abre la puerta de una nevera donde hay un teléfono (de aquellos rotativos)  y para que no le roben su comida usa los dígitos del mismo para activar el bloqueo de la cerradura.  En 1970, Bob Carrière presentó su patente bajo dos nombres: digiclé y digicode e IBM le preguntó si podia proporcionarle 350 códigos digitales para las puertas de sus oficinas. Así fue como firmó su primer contrato con esta empresa que luego aplicó su invento a los   cajeros automáticos . Los primeros prototipos-similares a las máquinas de hoy- entraron en uso en diciembre de 1972 en el Reino Unido y uno de ellos fue el IBM 2984 diseñado a petición del Lloyds Bank


Luego vino el primer cajero automático moderno. El IBM 2984 que entró en uso por el Lloyds Bank, en Brentwood High Street, Essex, Inglaterra en el mes de diciembre de 1972.

2984 CIT (Terminal de emisión de dinero) el primer Cashpoint verdadero

En el año 1982, más del 70% de los cajeros automáticos estadounidenses ya se fabricaban por ‘De La Rue‘ en Portsmouth, Inglaterra, pero aún faltaban otros pequeños detalles como por ejemplo el que estuvieran conectados entre sí, ya que los primeros cajeros automáticos sólo permitían sacar dinero de una cuenta bancaria y no estaban conectados a otros bancos pero Wetzel, Barnes y Chastain desarrollaron posteriormente las tarjetas para cajeros que incorporaban la cinta magnética con la información de la cuenta del usuario en combinación con el antiguo Número de Identificación Personal o NIP.

Y en menos de cincuenta años pasamos a millones de ATMs conectados en línea a la banca a través de una red global que permiten sacar dinero hacer depósitos y transferencias entre distintas cuentas, pagar servicios, hacer donativos y comprar cualquier cosa, desde seguros hasta boletos de sorteos. El resto ya lo conocemos todos:  algo que en un periodo de tiempo increíblemente corto y con el esfuerzo conjunto de muchas ideas separadas nos han dado esos aparatos que facilitan la vida a millones de personas.

Fuente(s) 

Ray Horak. “Telecommunications and Data Communications Handbook“. Ed. John Wiley & Sons, 2012. ISBN: 9781118585801. 

Ya está el listo que todo lo sabe” (366 curiosidades para descubrir el porqué de las cosas cada día) de Alfred López publicado por Editorial Léeme Libros.

http://rachel.golearn.us/modules/es-wikipedia_for_schools/wp/a/Automated_teller_machine.htm

https://en.wikipedia.org/wiki/John_Shepherd-Barron

https://fr.wikipedia.org/wiki/Bob_Carrière

https://en.wikipedia.org/wiki/James_Goodfellow


En la Junta de Andalucía las campañas de vacunación no se llevan bien con las políticas de ahorro en recursos médicos 

La Junta de Andalucía en el año 2012, estableció el sistema de subasta de fármacos por el criterios del ‘principio activo‘ que ya ha sido declarado ajustado a derecho por nuestro Tribunal Constitucional (TC). Sin embargo, somos muchos los usuarios que seguimos cuestionando la calidad de los medicamentos que financia la sanidad andaluza ya que muchos de ellos vienen de empresas farmacéuticas de Europa del este o de Asia. 

El pasado mes de Noviembre, el consejero de Salud andaluz, don Aquilino Alonso, hizo un balance de las políticas sanitarias de la Junta en una comisión parlamentaria sobre Presupuestos y nos dijo que Andalucía es una “garantía de sanidad pública, universal, solidaria, de calidad y gratuita en el acceso” 

Pero, personalmente, tengo que discrepar, por la forma en la que, en esta campaña, la Junta de Andalucía ha desarrollado su campaña de vacunación para personas mayores frente al neumococo 13-valente. 

La enfermedad neumocócica es una patología infecciosa prevalente causa­da por un diplococo llamado  Gram+ Streptococcus pneumoniae del que se conocen más de 90 serotipos (aunque no todos de la misma virulencia). Se estima que 20 de ellos son los responsables del 70% de la llamada ‘enfermedad neumocócica invasora‘ (ENI), originada por una bacteria muy común, que se puede propagar por medio del aire al toser, al estornudar o entrando en contacto cercano con una persona infectada. 

En las personas de más de 65 años la incidencia del ENI es bastante letal. Los síntomas de la neumonía neumocócica suelen aparecer rápidamente y con consecuencias extremadamente graves, dando tasas de mortalidad a medio y largo plazo bastante elevadas: un 8% a los 90 días, un 21% al año y un 36% a los 5 años.

Según un estudio poblacional de la neumonía neumocócica hecho durante el periodo de 5 años comprendido entre los años 2003 y el 2007, la misma ocasionó 937.884 días de hospitalización en centros públicos españoles y generó un coste de asistencia hospitalaria por paciente de 5.353,80 € . Solo en España el Streptococcus pneumoniae fue el responsable de más de 100.000 hospitalizaciones y de casi 8.000 defunciones en el año 2014. 

La prevención de esta enfermedad se basa exclusiva­mente en la utilización de vacunas y la pri­mera vacuna antineumocócica de polisacáridos con 23 serotipos (VNP23) se comercializó en EE.UU en el año 1983 siendo autorizada en España en el año 1999, con unas recomendaciones de utilización de la misma para “grupos de riesgo” a partir del año 2002. La Organización Mundial de la Salud (OMS) recomendó en el año 2012 una vacunación extensa contra la enfermedad neumocócica invasora (ENI) y asimismo, el Grupo de Vacunas de la SEGG recomendó que en el mismo acto de la vacunación antigripal se administrara también la vacuna contra el neumococo para las personas mayores de 65 años que estuvieran incluidas en ciertos grupos de riesgo. Uno de ellos es la ‘bronquiectasia‘, una condición pulmonar en la que los bronquios se ensanchan de forma permanente, lo que hace que los pulmones tengan más dificultad para eliminar la mucosidad y en casos extremos las vías respiratorias se llenan de la misma. Eso puede dificultar la respiración hasta un punto llamado ‘enfisema‘ en el que el aire queda atrapado en los sacos diminutos y derivar en una insuficiencia respiratoria que podría poner en peligro la vida del paciente.

El Gobierno andaluz incluyó una partida de 200.000 dosis de vacunas contra el neumococo en el año 2012. Las vacunas disponibles en aquel entonces eran las del tipo VNP23 como la ‘Pneumo 23‘ y la ‘Pneumovax 23‘ que conferían inmunidad frente a 23 serotipos de S. pneumoniae: 1, 2, 3, 4, 5, 6B, 7F, 8, 9N, 9V, 10A, 11A, 12F,14, 15B, 17F, 18C, 19A, 19F, 20, 22F, 23F, 33F. Para ambos productos, y tras la primera vacunación se recomendaban otra revacunación a los 3 o 5 años para determinados grupos de pacientes con alto riesgo de padecer la infección por neumococo.

El precio medio por dosis (sin iva) que logró la Junta en aquel año para aquellas vacunas fue de unos 4,80 euros por dosis, con una cláusula por la cual las empresas adjudicatarias debían de comprometerse a revisar a la baja los precios si el Ministerio adquiría vacunas a un precio menor y tras esta adquisición la Consejería de Salud y Bienestar Social de la Junta de Andalucía vacunó a algunos grupos de riesgo con este tipo de vacunas en una dosis única inyectable y en el mismo acto vacunal de la gripe para la campaña 2012/2013. Yo fui uno de los que la recibieron en el año 2013 y al vacunarme me dijeron que era recomendable una revacunación posterior.

En aquel tiempo ya existía una vacuna más efectiva y la única que podía considerarse (con ciertas restricciones) como una vacuna ‘semipermanente‘ . Se trataba de la vacuna conjugada tipo VCN13 cuyo producto más significativo era el ‘Prevenar 13‘ de Pfizer Limited. 

Aquella vacuna se autorizó por procedimiento europeo CE el 9/12/2009 y su eficacia está basada en que reduce a la mitad la colonización de los 13 serotipos que con más frecuencia causan la enfermedad neumocócica (1, 3, 4, 5, 6A, 6B, 7F, 9V, 14, 18C, 19A, 19F, 23F) protegiendo también frente a otras enfermedades como la meningitis.

Actualmente el precio de está vacuna (PVP) es de 76,34 euros/dosis, y su Precio Venta Laboratorio (PVL) oscila entre los 48,4 euros/dosis.Ignoro el precio que tendría en el año 2012 pero-como es lógico pensar- con un presupuesto de 4,80 euros por dosis en el año 2012 la Junta no pudo utilizar este tipo de vacuna y debo de suponer que la que a mi me pusieron sería del tipo VNP23 del tipo de las antes citadas.

Pasado el tiempo el Ministerio de Sanidad decidió recomendar la ampliación de los grupos de personas a vacunar contra la enfermedad neumocócica invasora dando un plazo hasta el año 2016 (probablemente por motivos presupuestarios) para que todas las CCAA españolas lo hiciesen.En la campaña de vacunación de la gripe del pasado año 2016 el Servicio Andaluz de Salud (SAS) decidió incluir esta vacunación contra el neumococo para las personas de edades comprendidas entre los 65 y los 73 años y en su Cartera de Servicios de Atención Primaria dio unas directrices para la aplicación de estas vacunas a los mayores andaluces.

En las mismas la Junta de Andalucía recomendaba el inmunizar a las personas con riesgo de enfermedad neumocócica con un registro de la vacunación efectuada, suministrada en una sola dosis de vacuna, pero luego añadían una coletilla en la que decia que “la revacunación no se recomienda de forma rutinaria

No sé cómo los profesionales sanitarios andaluces interpretaron estas directrices pero, si puedo contar “mi caso particular” y es que cuando el pasado año fui a recibir mi vacuna antigripal solicité expresamente mi deseo de ‘ser revacunado‘ contra el neumococo manifestando que yo era un paciente con bronquiectasia, que había sido vacunado en el año 2013 con una dosis- en teoría- de VNP23. La respuesta del enfermero del SAS que me atendió (Noviembre 2016) fue esta:” Vd. ya fue vacunado en el año 2013 para TODA LA VIDA“.

Aunque no me quedé muy convencido, supuse que sería así, pero la realidad me mostró posteriormente el  que mi anterior vacunación ya no debía de protegerme porque en las tres últimas semanas de Febrero tuve un grave episodio de infección neumocócica con dolor en el pecho, dificultad para respirar y tos con flema (incluso tuve que llamar al 061) 

Aunque se me había dicho que estaba VACUNADO PARA TODA LA VIDA la realidad es que no era así y- aparentemente- ya no estaba inmunizado, por lo que tras consultar con mi médico, el mismo me recomendó una revacunación (pagando su importe) con la vacuna ‘Prevenar 13‘ 

Pero ahora me surgen unas dudas que quiero comentar aquí. Resulta que hay un programa de adquisición por parte de la Junta de Andalucía publicado en el «BOE» núm. 254, de 20 de octubre de 2016, páginas 63141 a 63141 (1 pág.) Sección: V. Anuncios – A. Contratación del Sector Público donde se dice: ‘suministro de vacuna frente al neumococo 13-valente destinado al Programa de Vacunación Andaluz‘ señalando como empresa adjudicataria a  Pfizer S.L. y por un importe neto de 16.280.000,00 euros

No sé si esta adquisición se refiere a la vacuna ‘Prevenar 13‘ (la mejor y la que yo me he puesto a costa de mi bolsillo) pero con la dotación presupuestaria que hizo la Junta en su convocatoria de compra y si tenemos en cuenta que el precio venta laboratorio (PVL) de esta vacuna es de unos 48,4 euros a mi me sale que podrían adquirirse unas 336.363 dosis y si se vacunara a todos los andaluces de edades  comprendidas entre los 65 y los 74 años no habría suficientes vacunas para todos ya que según los datos de población de la comunidad andaluzada del año 2015,en aquel año ya habia 717.939 potenciales receptores.


Por eso ahora entiendo que se descarta vacunar a los que ya habíamos recibimos la vacuna en años anteriores ya que 717.939 dosis de ‘Prevenar 13‘ en base al presupuesto concedido por la Junta tendrían que salir a un precio medio del orden de 22,68 euros por dosis y esto no lo creo posible.

El problema ahora es el saber si se está poniendo actualmente la vacuna VCN13 (tipo ‘Prevenar 13‘ ) a los mayores de 65 en Andalucía y no vacunados anteriormente o si se sigue vacunando a la gente con el tipo VNP23 . ¿Por qué es esto importante? Pues porque si se estuviese poniendo una vacuna distinta del ‘Prevenar 13‘ habría que informar al usuario de que ‘deberia revacunarse‘ si su médico lo incluye en los grupos de riesgo en vez de dar instrucciones genéricas de que: “la revacunación no se recomienda de forma rutinaria“. 

Me limitaré a poner las recomendaciones del CDC (Centros para el Control y la Prevención de enfermedes) que aconseja poner 2 vacunas antineumocócicas a todos los adultos de 65 años o mayores en grupos de riesgo con estas pautas:

* Deben recibir una dosis de la VCN13 seguida por una dosis de la VNP23 al menos un año después.

* Si han recibido ( como mucha gente antes) una dosis de la VNP23 se les debería administrar al menos un año después otra de la VCN13 para su inmunización completa 

* Si recibieron una dosis de la VCN13 a una edad temprana, ya no deberían recibir ninguna otra dosis de esta misma vacuna.

Resumiendo: lo correcto sería revacunar a todos los mayores de 65 años pertenecientes a grupos de riesgo que recibieron la vacuna VNP23 en su día con la nueva VCN13 y si se está poniendo esta última sería aconsejable revacunar de nuevo con la VNP23 a los grupos de riesgo en el 2018.

Como podemos ver un programa correcto de vacunación contra la enfermedad neumo­cócica invasora (ENI) cuesta bastante dinero y aunque yo comprendo que la Junta de Andalucía quiere “ahorrar dinero” en recursos sanitarios esto no debería de hacerlo a costa de confundir al personal. Seamos serios. 

Fuentes

http://www.msssi.gob.es/profesionales/saludPublica/prevPromocion/vacunaciones/docs/Neumococo_Gruposriesgo.pdf

http://www.sendasenior.com/Gripe-neumococo-y-herpes-zoster-vacunas-clave-para-los-mayores-de-60-anos_a3751.html

http://www.smacor.com/Salud%20resuelve%20su%20concurso%20de%20compra%20centralizada%20de%20vacunas%20antes%20que%20el%20Ministerio.pdf

http://www.prevnar13adulto.com

¿Los emprendedores nacen o se hacen?

Usted tiene una gran idea para un negocio y piensa que puede ganar mucho dinero con ella… ¿qué hace? ¿funda su propia compañía, dedica su vida a ella y con su esfuerzo y determinación hace una fortuna o tal vez sencillamente se olvida de la idea y sigue trabajando por un salario? La respuesta es que los empresarios exitosos nacen y se hacen, algo que el especialista en negocios Peter Ryding define con esta frase: “Yo calcularía que en un emprendedor la respuesta es: 70% innato, 10% adquirido y 20% aprendido“. Es decir que los empresarios tienen dos características genéticas clave, a las que él llama “pensamiento adaptable” y “ver la realidad positivamente“. El mejor ejemplo de esto lo tenemos en la vida de dos personajes (padre e hijo) de la familia Tudor de Norteamérica 

  • El padre

Uno de agosto de 1805. Aquel que ante la primera dificultad, sin intentarlo otra vez, pierde la esperanza de triunfar, no ha sido, no es y nunca será un héroe en la guerra, el amor o los negocios“.

Así empezaba el diario que Frederic Tudor comenzó a escribir el día que se lanzó a la gran aventura de su vida. Una empresa que se inicia en los helados lagos de Nueva Inglaterra  y que finaliza con el uso masivo por el mundo de los ‘cubitos‘ esos  pequeños trozos cúbicos de hielo  que utilizanos para enfriar nuestras bebidas.
Hasta la mitad del siglo XIX, el hielo era un ‘bien de lujo‘ cuyo disfrute estaba reservado a los ricos, y así era como lo hacía una acomodada familia de la clase  alta bostoniana: los Tudor que usaban el agua congelada de un estanque de su finca en Saugus, Massachusetts ubicada en las afueras de Boston y conocido como “Rockwood“, de donde sacaban grandes bloques de agua congelada para almacenarla en habitaciones especialmente acondicionadas en enormes cubos de 90 kilos de peso. Allí mantenían aquel hielo hasta que llegaba el verano para usarlo en enfriar bebidas, hacer helado o refrescar el agua del baño durante alguna ola de calor. 

El patriarca de la familia se llamaba William Tudor (28 de marzo de 1750-08 de julio de 1819) y era un rico abogado de la aristocracia de Boston (Massachusetts). Su tercer hijo Frederic Tudor (1783- 1864) fue nuestro emprendedor que con su aventura llegó a ser conocido como el “Rey del Hielo”. 

Viniendo de una familia rica para él era fácil seguir la carrera de su padre y ser un brillante personaje de la clase pudientes bostonianas pero el quiso ‘ser diferente’. A los 17 años, su padre lo mandó a La Habana para acompañar a su hermano John que-herido en una rodilla- necesitaba de aquel clima cálido para restablecerse pero él lo pasó muy mal en aquel viaje pues tuvo que sufrir  la tortura de la humedad tropical vestido con los ropajes de un caballero del siglo XIX.Al cumplir los dieciocho, nuestro muchacho regresó a Boston, y  en el caluroso verano de 1805, en la boda de su hermana Emma. se puso hielo en las bebidas; su hermano William comentó allí en broma: “menos mal que hemos podido disfrutar del hielo de nuestro estanque de Rockwood”, y entonces surgió la idea: si se pudiera transportar este hielo a las Indias Occidentales, se vendería muy bien, acordándose de las fatigas que él había pasado en su último viaje a La Habana.

Y-dicho y hecho- al cumplir los 22 años Frederic Tudor decidió que, si no se podía refrescar el clima de los trópicos almenos llevándoles hielo podríapaliar los sofocos de sus habitantes y decidió cosechar el hielo invernal de aquel estanque de “Rockwood” y exportarlo a las cálidas costas del Caribe. Su primer experimento estaba a 2.400 kilómetros al sur, en la colonia francesa de la Martinica pero nadie se tomó en serio la idea de nuestro joven emprendedor y no encontró a ningún armador que quisiese transportar aquel hielo en su barco; así es que compró el bergantín “Favorite” por 4.750 dólares y con  este barco mandó a su hermano William a la Martinica el 10 de Febrero 1806 con un cargamento de hielo de aquel estanque de Rockwood. El periódico ‘Boston Gazette‘ se tomó a broma aquella aventura e informó en  estos términos: “Un barco con 80 toneladas de hielo ha dejado el puerto con destino Martinica. Esperemos que esto no resulte ser una especulación resbalosa ” 

Así bromeaban los columnistas de aquel diario pero el asunto no era broma ni se habían enviado 80 toneladas sino 130 que embaladas en heno sobrevivieron a un viaje de tres semanas desde Custom House al muelle de St. Pierre, Martinica. Al arribar allí en Marzo de 1806 William no pudo encontrar ni un lugar adecuado para almacenar su hielo ni compradores para el mismo por lo que aquel viaje fue un rotundo fracaso y Frederic Tudor vio como sus beneficios se fundían rápidamente perdiendo 4.000 dólares en aquella aventura.

Sin embargo tuvo una buena idea y fue la de ofrecer degustaciones gratuitas de su hielo a personajes distinguidos de la isla a los que les servía bebidas en vasos de cristal con sus ‘cubitos‘. Así pronto mucha gente se entusiasmó por las ‘bebidas frías‘ y además convenció a dueños de bares y restaurantes para que vendieran ‘bebidas con hielo‘ enseñándolos también a fabricar helados. Tras aquella promoción y sin arredrarse por su primer fracaso, nuestro hombre embarcó 240 toneladas de hielo a la Habana al año siguiente.

Perosiguió sin obtener beneficios porque el embargo de 1807 y la guerra de 1812 dañaron el mercado naval americano y pusieron su negocio al borde del caos.Con pérdidas acumulándose año tras año, Tudor acabó dos veces en prisión por deudor moroso pero no se rindió. Lo primero que hizo fue construir recintos para conservar su hielo en los puertos y a base de ensayo y error, descubrió que el serrín evitaba su derretimiento mejor que el heno. Para los nuevos almacenes jugó con múltiples diseños, hasta decantarse finalmente por una estructura de doble carcasa con serrín de pino con cámara de aire entre dos paredes de piedra. Luego pudo comprobar que muchos barcos salían de Boston con las bodegas vacías para cargar en el Caribe y esto le daba la oportunidad de negociar ‘precios bajos’ para transportar el hielo.Además el mismo era una materia prima gratuita a la que solo había que cargar el coste de los trabajadores que lo sacaban y otra de sus necesidades ‘el serrín‘  era otro producto de coste cero que la economía de Nueva Inglaterra generaba en grandes cantidades como desperdicio de las compañías madereras y un excelente aislante para el hielo. Una  combinación de cosas que no costaban casi nada –hielo y serrín y barcos vacíos que salían hacia otros países, convirtieron su idea en un negocio floreciente 

Luego se unió a Nathaniel Wyeth, uno de sus proveedores, que inventó un sistema para cortar el hielo de los lagos que consistía en “arar” el mismo en los lagos congelados con unas cuchillas tiradas por caballos que marcaban surcos paralelos de 10 centímetros de profundidad tras lo cual los trabajadores hacían agujeros en ese hielo e introducían sierras para cortar bloques de tamaño 60×60 centímetros. 



Aquella innovación reemplazó el anterior laborioso proceso de sacar el hielo con picos, cinceles y sierras, y permitió su producción a gran escala


Y además aquellos bloques uniformes se podían almacenar juntos entre sí para minimizar la fusión, y teníanuna apariencia más limpia, lo que hacía que el producto fuera más fácil de vender. 

Pero ¿de dónde sacaba Tudor su hielo? Nos lo cuenta Henry David Thoreau un excéntrico pastor trascendentalista que en una ocasión se encontraba en una cabaña en el lago de Walden Pond en Concord, Massachusetts durante el duro invierno de 1856 

Ubicación del lago Walden Pond 

Aquel hombre al mirar un día por la ventana de su rústica cabaña vió a 100 irlandeses rompiendo el hielo de aquel lago congelado; eran los trabajadores de la ‘Compañía de Hielo Tudor‘ que empezaban a sacar 10.000 toneladas de hielo del mismo para ser embarcado a lugares tan lejanos como Carolina del Sur, Louisiana o la India. Aquel hombre bromeaba en el diario “Walden“: “Los sofocantes habitantes de Charleston y Nueva Orleans, de Madras y Bombai y Calcuta, beben el agua de mi pozo“pero- por supuesto- quienes usaban ese hielo en sus bebidas no sabían que también se estaban tomando el agua de la bañera de Thoreau.

Y así fue como el hielo cortado en los lagos y ríos de Nueva Inglaterra se transportaba por barcos a todo el mundo. No sólo fue hasta las Antillas sino a lugares tan lejanos como América del Sur, Persia, India y las Indias orientales. Tudor llegó a embarcar un cargamento de hielo de 180 toneladas en un viaje de 26.000 km de Boston a Calcuta en el año 1833 y el hielo cristalino de Nueva Inglaterra causó una enorme sensación allí. 

En la década de 1840 el comercio del hielo ya atravesaba todas las rutas del globo y se vendía al por menor en todas las ciudades como una materia prima tan común como el trigo, el café o el maíz. El lago Wenham en Massachusetts llegó a ser mundialmente famoso por la claridad de su hielo y no había en Londres o París una mesa aristocrática que no contara en sus fiestas con hielo de aquel lago. 
La reina Victoria otorgó a Tudor una Real Cédula de proveedor de la Casa Real y en 1849 sus envíos ya ascendían a 150,000 toneladas de hielo. Cuando nuestro personaje murió en 1864 ya llegaban sus envíos a 53 puertos de varias partes del mundo y su negocio había cambiado la vida y los hábitos de muchas personas en todo el mundo. En ciudades como Nueva York, dos de cada tres casas recibían hielo a domicilio diariamente y al momento de su muerte Tudor había amasado una fortuna equivalente a más de 200 millones de dólares 

  • Y el hijo 

Como afirma Brian Morgan, profesor de desarrollo de la capacidad empresarial en la Universidad Metropolitana de Cardiff, Gales: “en general, un 40% de las habilidades empresariales pueden adscribirse al ADN“. Por eso ahora hablaremos del hijo de gran aquel emprendedor. También se llamaba Frederic Tudor, pero-siendo hijo del “rey del hielo“-  fue pionero de la “calefaccion por vapor“. ¿Puede haber destinos más dispares que frío y calor? Pues si pero en todo esto hay un denominador común: la genética emprendedora transmitida de padre a hijo.

La “calefaccion por vapor” es una variante de los sistemas de calefacción en el que el caloportador es agua en fase de vapor en lugar de agua en fase líquida. El ‘negocio del hielo’ ya se había acabado pero el nuevo Frederic estaba interesado en el confort y la comodidad de los ciudadanos y hacia 1880 desarrolló un sistema que mejoraba la calefacción por radiación directa. Su invención fue patentada en los EE.UU. con la patente no. 185.146 y era un radiador donde el agua era calentada por el vapor. El dibujo de este radiador lo explica muy claramente y muestra el regulador de aire de este sistema que permite la regulación de calor sin necesidad de tener que manipular las válvulas. Se instaló en el Hotel Cluny y en un edificio de oficinas en Boston y aún está en uso hoy en día.
El primer radiador con aire inyectado (US Patent No. 185,146)

El caso de los Tudor nos muestra lo que es la ilusión de desarrollar proyectos propios.¿Que había en común entre aquel  padre y su hijo? Pues que ninguno se conformó con lo que heredaba . Ya lo dijo Francis Bacon: “un hombre sabio se crea más oportunidades de las que encuentra.” En otras palabras: si los demás no te dan las oportunidades que necesitas, debes de creártelas tú mismo. 
Fuentes:

https://en.wikipedia.org/wiki/Frederic_Tudor

https://www.cubers.es/frederic-tudor-rey-del-hielo/

Refrigeration and Air Conditioning,” Richard C Jordan & Gayle B Priester, 1956 

‘Pokémon Go’ y el ‘efecto Zeigarnik’

Pocos juegos en el mundo han tenido un impacto tan grande como ‘Pokémon Go‘. En Julio del año pasado salió este juego y la compañía que lo ha desarrollado hace poco lanzó un vídeo en el que simulaba a sus entrenadores haciendo un viaje a través del espacio pasando por todos los planetas de nuestro entorno. llegando a Plutón y saliendo del sistema solar. Según ellos sus jugadores habían andado más de 8.700 millones de kilómetros, que es algo así como el dar unas 200.000 vueltas al globo terráqueo En la propia web del juego aseguran que un avión de una compañía aérea comercial tendría que trabajar más de mil años sin parar para recorrer la misma distancia.

La idea de los Pokémons se le ocurrió a un japonés llamado Satoshi Tajir que entre los años 1989 y 1990 diseñó los bocetos de un juego basado en coleccionar unas criaturas, a las que él llamó sus “monstruos de bolsillo” (Pocket Monsters) y que más tarde fueron conocido como Pokémon (uniendo las sílabas de aquellos Pocket Monsters)

Su primitiva idea, se basaba en solo ‘coleccionar estos bichos‘ igual que él hacía con los insectos cuando era niño pero cuando presentó su producto a la empresa de videojuegos Nintendo y esta lo incluyó en sus consolas “Game Boys” se cambió el esquema del juego haciendo ‘entrenar’ a aquellos bichitos y que los mismos lucharan contra otros jugadores rivales, aparte de tener que coleccionar las 150 especies del mismo. Así era la “intro” de aquel memorable juego para consolas 

Y el boom de Pokémon comenzó y Nintendo vendió en sus diferentes versiones y plataformas más de 100 millones de copias. Cuando las Game Boys se quedaron obsoletas llegaron los smartphones y con ellas Google Earth y su creador: el americano John Hanke

Este hombre en el año 2010, fundó Niantic Labs y creó ese juego de realidad aumentada, llamado ‘Pokémon GO‘ que permite atrapar a estos bichos ‘en el mundo real’ gracias a las cámaras de los smartphones y los servicios de geolocalización de Google Earth. Un juego que se lanzó oficialmente en los Estados Unidos el 6 de julio de 2016 y que ya ha conseguido el hito de superar los mil millones de dólares de ingresos.

Lo que poca gente sabe es que este juego se basa en el ‘efecto Zeigarnik‘, una interesante teoría psicológica debida a la psiquiatra sovietica Bluma Zeigárnik que estableció la psicopatología experimental como una disciplina separada. Una mujer nacida en 1900 de una familia judía de Prienai, Zeigarnik que se matriculó en la Universidad de Berlín en 1927. 

Fuente

Fue en ese año en un café donde Bluma quedó un día con su profesor Kurt Lewin y se percató de un detalle poco usual: los camareros del café en donde lo esperaba eran capaces de recordar todas las peticiones de los clientes a medida que las anotaban en su cuaderno, sin olvidarse de ninguna de las comandas pero con el detalle curioso de que tan pronto como el cliente pagaba la cuenta eran incapaces de recordar lo que había pedido ese cliente. Era como si la información se desvaneciese de su memoria por esa simple transacción.

Aquel curioso hecho llevó a nuestra protagonista a elaborar una teoría que denominó como: “On Finished and Unfinished Task“ (De tareas acabadas e inacabadas), en la que razonó sobre el motivo por el cual, aquellos camareros eran capaces de recordar una ingente cantidad de pedidos de sus clientes, sin equivocarse en ninguno de ellos, y a su vez, olvidarlos por completo una vez que ya habían sido finalizados.Este es el documento de aquella teoría .

La cosa era muy simple: “dejar sin acabar una tarea, obligar a nuestra memoria a estar pendiente de ella” y sesenta años después de haber propuesto Bluma aquella teoría otro investigador llamado  Kenneth O. McGraw, realizó otro experimento de laboratorio en 1928 sobre el ‘efecto Zeigarnik‘.

En el mismo los participantes debían hacer un puzzle extremadamente complejo, con la característica de que antes de que ninguno de ellos hubiera podido terminarlo, se les interrumpió la tarea. Y ¿qué pasó? Pues que el 90% de los participantes, una vez de vuelta a sus quehaceres diarios, se dedicaron a terminar aquel puzzle que no se les habían dejado hacer.

La clave es esta: nuestro cerebro busca ‘el orden’ y la necesidad de encajar bien una serie de piezas y la satisfacción que le provoca el lograrlo lo estimula. Si lo hace bien perderá el interés, pero si no lo consigue se volverá loco y le dará mil vueltas a todas las piezas sin solución

Y este recurso al ‘efecto Zeigarnik‘ empezó a aplicarse a los videojuegos. El primer título que superó los 1.000 millones de dólares en ingresos fue el ‘Candy Crush Saga‘ que en el año 2014 y con 93 millones de jugadores conectando rompiendo caramelos ya usaba este truco psicológico para ‘enganchar a sus usuarios

Y el mismo también se utiliza hoy en día en películas y series de televisión, en lo que se conoce como el efecto Cliffhanger (literalmente “colgando de un acantilado” y que también se puede traducir como “al borde del abismo“) en el que el último capítulo de una temporada termina con un nivel de suspense (o shock) que hace que la audiencia se impaciente por conocer el resultado y espera con ansias la continuación de la serie 
Esa es también la clave del juego de ‘Pokémon Go‘. La necesidad imperiosa de ‘hacerse con todos‘ los Pokemons , y en esa base psicológica del ‘puzzle incompleto‘ encontraremos la explicación de su éxito. A diferencia de los juegos tradicionales o las conocidas aplicaciones para jugar desde tu teléfono móvil a  ‘Pokémon Go‘ se juega en calles, parques o plazas y sus jugadores deben salir al mundo real a explorar y atrapar a los pokémons que se ocultan en estos lugares. Ha generando accidentes y otros altercados porque ningún jugador estará satisfecho hasta que no haya cazado a ‘todos sus bichitos’y es que motivación humana tiene un curioso  y modo de interactuar con la memoria: los Pokemons capturados dejan de interesar al jugador y este solo busca ‘los que le faltan’ . 

Este es ese curioso fenómeno psicológico llamado ‘efecto Zeigarnik‘. Si algo nos interesa pensaremos más veces sobre ello, y en el caso de ‘Pokémon Go‘ eso se traduce en obligar  a andar a sus jugadores y hacerlos esforzarse cada vez más porque deben capturar a ese  bichito suelto que les falta y que anda suelto por el mundo real.

Fuentes:

https://es.wikipedia.org/wiki/Efecto_Zeigarnik

https://es.wikipedia.org/wiki/Pokémon_GO