Se encuentra usted aquí

innovación

xxxxxxxxxxxxxxxxxxxxxxxxxxx

Innovaciones tecnológicas 2016

Siempre los inicios de año son buenas oportunidades para conocer las perspectivas de los avances tecnológicos para los siguientes meses. Las principales empresas de tecnología aprovechan estas fechas para dar a conocer su visión de cómo evolucionará el mercado tecnológico y qué impacto tendrá en la vida de las personas, las empresas y las organizaciones.

Innovaciones para 2016

Este es el caso de la empresa IBM, que nos refiere de cinco innovaciones que cambiarán la vida en 2016, a saber:

Sustentabilidad del hogar. Habrá diferentes tecnologías que nos permitirán la captación de todo tipo de energía que se crea alrededor del hogar y que puede ser aprovechada. Se refiere en aprovechar la energía que creamos al correr, caminar, andar en bicicleta, hacer ejercicio en el gimnasio. También el calor que producimos al cocinar, el que genera la computadora o el agua al circular por las tuberías. Los avances tecnológicos permitirán recolectar toda esta energía cinética desperdiciada y usarla para abastecer de energía a nuestras casas, oficinas o ciudades

Eliminación de las contraseñas. La necesidad de usar diferentes contraseñas para diversos dispositivos o servicios, aunada a la complejidad de tener fórmulas que no sean descifrables, esta provocando grandes trastornos a los usuarios de los medios digitales. Ello pronto quedará atrás con el uso de mecanismos biológicos de las personas, mismo que son únicos y muy difícilmente reemplazables. Dentro de poco tiempo vamos a poder sacar efectivo de un cajero automático con solo acercarnos al dispositivo de reconocimiento de nuestra retina. Lo mismo pasará con las computadoras conectadas a plataformas de comercio electrónico en Internet. Los nuevos artefactos tecnológicos usarán nuestra información biológica basada en nuestro ADN.

Dirigir con la mente. Los especialistas de IBM trabajan en nuevos programas que lean la mente para enviar instrucciones a nuestras computadoras, tabletas o celulares inteligentes, y así evitar su operación manual. Los científicos desarrollan soluciones basadas en la bioinformática, utilizan para ello sensores avanzados que identifiquen la actividad eléctrica asociada a una instrucción y la conviertan en una instrucción, o reconocer las expresiones de la cara, niveles de concentración o de pensamientos. Esto, aunado con los avances en los comandos de voz, hablan de una posible desaparición de los teclados tal como los conocemos hoy en día.

Eliminación de la brecha digital. En los próximos años la telefonía celular va a llegar a todos los habitantes del planeta y con ello vamos a cerrar de una buena vez la brecha digital existente. Se prevé que en cinco años haya 5,600 millones de dispositivos móviles, que sumados a las computadoras y tabletas, es muy probable que hagan que todos estemos conectados. Además, en países en desarrollo se implementan soluciones adecuadas para el uso de los celulares, como es el caso de la India, donde con archivos de voz los pobladores tienen acceso a información valiosa para su vida, como informes meteorológicos, de sus cosechas o consejos de salud.

Desaparición del correo basura. Las nuevas tecnologías permitirán que todos los correos que se nos envían se personalicen a nuestras preferencias y necesidades, eliminado así el correo genérico que no contiene nada de interés. Con base a nuestros gustos, de manera automática recibiremos mensajes donde se nos ofrecerán productos, servicios e información interesante. Además, IBM desarrolla tecnología para la consolidación e interpretación en tiempo real de la información que tenemos en nuestro correo, las preferencias en Internet y las cuentas de redes sociales.

En los próximos años seguirán los cambios tecnológicos que nos transformarán la vida. Por ello, debemos de estar abiertos e informados para aprovecharlos productivamente y para mejorar nuestro bienestar. Así que hay que estar atentos a las noticias de inicio de año.

Fecha: 
Martes, 12 de Enero 2016 - 16:00
Redes sociales: 
1
xxxxxxxxxxxxxxxxxxxxxxxxxxx

Alzheimer, la memoria perdida

Una fría mañana de 1901, una desaliñada y desorientada mujer entró con premura al Hospital Psiquiátrico de Frankfurt y se dirigió apresuradamente al consultorio del Dr. Alois Alzheimer. Saludó con enfado a la enfermera y en forma atropellada penetró al pequeño privado del doctor. Se arrojó a sus brazos y sin mayor preámbulo y entre sollozos exclamó: ¡Dr. Alzheimer, estoy perdiendo la razón!! Auguste Deter de 51 años todavía agitada describió con detalle sus alucinaciones, su dificultad para hablar con fluidez, su desorientación y sus olvidos que cada vez eran más frecuentes. Alzheimer la escucho con atención, la calmó y consoló, la tuvo como paciente otros cinco años, hasta que ella murió, el 8 de Abril de 1906.

Alois Alzheimer tenía gran interés en el caso de la señora Deter y consiguió el permiso familiar para hacerle la autopsia. Las regiones temporales del cerebro habían perdido su estructura, estaban esponjosas, muy difíciles de manipular. En esa época  la metodología para realizar investigación era muy limitada, todo se resumía a técnicas microscópicas y tinciones a base de sales de plata. El examen histológico reveló neuronas alteradas y deformes, con rugosidades nodulares distribuidas a lo largo de los axones y otras estructuras en forma de placas que resultaron ser polipéptidos adosados al tejido neuronal, era lo más notorio que podría conseguirse en esos tiempos. Posteriormente, se demostró que dichas placas son las que inician la mayoría de los trastornos característicos del síndrome. Las placas están formadas por péptidos (de 39 a 45 aminoácidos) que se asemejan a collares donde los aminoácidos son las cuentas y pueden ser de diferente color y tamaño, dando lugar a una estructura definida en los cerebros normales. En los pacientes con Alzheimer, los aminoácidos han mutado y por lo tanto la secuencia no es la misma, y el polipéptido esta deformado provocando el desacople y el funcionamiento irregular de moléculas especificas llamadas neurotransmisores. Dicho desajuste es lo que produce las alteraciones neuromotoras y la degeneración de las neuronas. Al parecer este proceso es irreversible, una vez iniciado no existe la posibilidad de aminorarlo. Por eso es muy importante diagnosticar el Alzheimer en su fase temprana, ya que la mejor posibilidad de tratamiento está enfocada a evitar la formación de las placas anormales, porque éstas una vez establecidas ya no se pueden corregir.

La iglesia y los políticos manipuladores por siglos han tratado de convencernos que todos somos iguales y que por lo tanto reaccionamos igual, existen muchas evidencias para probar lo contrario, pero para efectos del tema diremos que no hay dos personas con Alzheimer que presenten los mismos síntomas o la misma intensidad en el desarrollo de esta enfermedad. La expectativa de vida es de tres a nueve años, dependiendo de la etapa en que se haga el diagnóstico. Este se realiza teniendo en cuenta los antecedentes clínicos, la disminución en los niveles de colinesterasa (inhibe la transmisión del impulso nervioso),  o una tomografía computarizada del cerebro. Muy recientemente, investigadores de las universidades de Oxford y el King’s College en Londres han desarrollado una prueba diagnóstica que solo utiliza una pequeña muestra de sangre, su limitante es que solo ofrece el 87% de confiabilidad, pero es lo mejor que se tiene en la actualidad. Un dato colateral muy importante que arrojó esta serie de investigaciones es que la enfermedad empieza a afectar el cerebro muchos años antes de que se manifiesten los primeros síntomas, de tal manera que existe la posibilidad de detectarla con anticipación. Esto abre un sinfín de posibilidades pero primero habrá que optimizar el grado de confiabilidad de la prueba, tal como se describe en Alzheimer & Dementia.1

En términos generales podemos decir que los síntomas más característicos de la enfermedad son:

  • Pérdida de la memoria reciente (datos, nombres, incidentes, etcétera).
  • Dificultad para realizar labores simples (capacidades cognoscitivas).
  • Dificultad para recordar y usar las palabras y la expresión de las ideas.
  • Pérdida acelerada de la capacidad para leer y escribir.
  • Pérdida de coordinación neuromuscular, haciendo que el paciente dependa absolutamente de alguien que lo alimente y lo atienda en sus funciones básicas.

La degeneración neuronal y el desajuste de las moléculas proteínicas conllevan a una serie de impedimentos fisiológicos básicos como el descontrol de los esfínteres, la coordinación muscular básica para resolver las actividades de la higiene personal y la pérdida acelerada de las capacidades cognoscitivas y perceptivas2. Es un ser humano encerrado en un caparazón sin control, que no tiene conciencia ni movilidad, que no alberga esperanza y que no tiene registro. El paciente existe sin vivir hasta que una enfermedad cualquiera se apiada de él o ella y los lleva al descanso eterno.

Esta infortunada creatura apenas tendrá los alientos para morir, dejándonos una serie de reflexiones y planteamientos acerca de nuestra propia realidad y lo lábil y efímera que es nuestra existencia.

El Alzheimer fue descrita por médicos griegos y romanos y se le relaciona con la demencia senil, ellos pensaban que era un mecanismo de selección natural para que los viejos no perduraran. La enfermedad ataca a las personas mayores de 60 años, no tiene cura y es una maldición moderna que transforma a la muerte en una bendición sublime, no solo para el paciente sino para todos los que lo rodean.

La persona encargada del enfermo enfrenta un gran impacto emocional, social y económico que es muy difícil de sobrellevar sobre todo porque el paciente está totalmente incapacitado y requiere una atención las 24 horas del día.  Se calcula que en el mundo existen alrededor de 35 millones de personas afectadas con Alzheimer, de los cuales 500,000  son mexicanos. Desafortunadamente, las cifras suelen ser un mal pronóstico, pues cada año se aumentan 8 millones de pacientes, la situación es apremiante, es una carrera contra el tiempo, ya que es la tercera causa de muerte en los EUA, después de los trastornos cardiovasculares y el cáncer.

No se sabe a ciencia cierta que causa el Alzheimer, en algunas personas se han comprobado mutaciones en los polipéptidos alterados que afectan la plasticidad de las proteínas. Otras causas podrían ser los cambios en la estructura del cerebro ocasionados por la edad.  También pudiera ser la combinación de la genética, algunos factores ambientales y la edad. Existen evidencias indirectas que  señalan que esta enfermedad está latente durante mucho tiempo y de repente se manifiesta en forma agresiva e incontrolable en función de la edad.

Diversos laboratorios de investigación clínica y farmacéutica se han dedicado a encontrar diversas vías para combatir la enfermedad, algunos están buscando la manera de prevenir la aparición de las proteínas anormales, otros tratando de entender la genética y los factores ambientales que inciden en la enfermedad, otros tantos tratando de entender los mecanismos celulares con el fin de regular la actividad de los neurotransmisores. Sin embargo, el problema con esta enfermedad es que no tiene un patrón definido, los síntomas son inespecíficos para cada persona y los tratamientos medicinales tienen diferentes efectos, lo cual hace el tratamiento impredecible e inestable.

Al igual que la peste bubónica, la sífilis, la gripe asiática, el SIDA y el ébola; esta enfermedad tiene siglos y es un verdadero desafío al entendimiento del hombre y perdura como un mal que lo ha doblegado y lo ha humillado con una muerte horrible, como si quisiera recordarle que no es lo máximo de la creación.

Para aquellas personas que tienen la necesidad de cuidar a un paciente con síntomas de Alzheimer u otra enfermedad neurodegenerativa o incapacitante, les recomiendo consultar: www.nia.nih.gov/alzheimer.

_______________________________________________________

Referencias

Saltlecker Martina et al. Alzheimer’s disease biomarker discovery using SOMA scan multiplexed protein technology. Alzheimer & Dementia 10, 2014; 724-734
CDC Alzheimer’s.

Autor:

Fecha: 
Lunes, 23 de Noviembre 2015 - 16:30
Redes sociales: 
1
xxxxxxxxxxxxxxxxxxxxxxxxxxx

¡Kajita feliz!

 

Olvídese de los tornados y huracanes; pescar un neutrino es más difícil y apantallador. Bueno, tal vez sólo es más difícil.

Pocas áreas del saber humano tienen un vocabulario tan vasto y esotérico como la botánica. Se cuenta Wolfgang Pauli, el famoso físico de principios del siglo XX, alguna vez fue cuestionado si sabía la totalidad de los nombres de las partículas subatómicas, a lo que contestó que si pudiera se habría dedicado a la botánica y no a la física. Y es que la mecánica cuántica y la física de partículas sub, sub atómicas está habitada por una serie de entidades etéreas, fantasmagóricas y abstractas que a la fecha suman más de 150. Una de ellas es el neutrino propuesto por el propio Pauli para explicar ciertos fenómenos y confundirnos más a todos. Recordará usted, atómico lector, que los átomos de todos los elementos están formados por un núcleo, que es un amontonadero de protones y neutrones, así como de una nube de electrones que papalotean a su alrededor como moscas.

El neutrino es una partícula que se forma (o al menos aparece) cuando el núcleo de átomos muy grandes e inestables se desgranan hasta volverse más estables. Al ocurrir esto emiten radiación Beta, descubierta por la mítica Marie Curie y escupen neutrinos.

En un uno desos momentos de jocosidad desbordada que caracterizan a los físicos, Enrico Fermi nombró a la partícula de Pauli como neutrino, del italiano "neutron bambino" (¡Aplausos!) y lo incluyó en su marco teórico sobre la física de partículas en 1934. En ese momento el neutrino sacudió el mundo de la ciencia. Tampoco es que se formaran clubs de fans del neutrino por todos lados, pero el puñado de cien físicos nucleares de la época estaba bastante entusiasmado.

El problema, recurrente en la mecánica cuántica, es que no se tenía evidencia alguna de su existencia. Nadie había visto un neutrino.

Son tan diminutos y veloces que no solo atraviesan sin dificultad todos los materiales conocidos, sino que pasan por en medio de los átomos que forman todos esos materiales conocidos. Así que detectarlos no es nada fácil.

Para fortuna de los físicos y de Godzilla, los siguientes años trajeron consigo la oportunidad de pescar algunos neutrinos con la nueva tecnología para separar núcleos de átomos, es decir la fisión, que produce una enorme cantidad de neutrinos y sirve para destruir ciudades japonesas. En 1956, Frederick Reines logró finalmente detectarlo y para principios de los años sesenta ya se tenía claro que al menos existían un par de tipos de neutrinos. Más tarde se descubrió que había tres tipos. Pese a todo, pasaba algo raro. De hecho, siempre pasa algo raro en la mecánica cuántica, pero esto era bastante más raro. Se supone que hay millones de neutrinos que en este momento lo están atravesando a usted, a todo Ruiz Healy Times y al resto del planeta. ¿Por qué se detectaban tan poquitos?

Al parecer, el que un neutrino sea de un tipo no significa que no pueda cambiar a cualquiera de los otros dos. Imagine tres grupos de personas: físicos, católicos e hinchas del Cruz Azul. La misma persona puede pertenecer a las tres categorías en distintos momentos. Si visita usted el CINVESTAV una mañana de lunes, verá a los físicos en sus pizarrones y con sus láseres, pero el estadio Azul y los templos estarán solo con algunos despistados. El sábado el estadio hervirá de emoción (es solo un ejemplo) pero los laboratorios estarán vacíos. Antes de una final, el templo estará lleno de fieles tristes y azules y desesperados. La misma persona puede pertenecer a las tres categorías en distintos momentos. Los neutrinos parecen cambiar, oscilar le llaman, de un tipo a otro. Eso fue lo que detectaron los ganadores del Premio Nobel de Física este año, Takaaki Kajita y Arthur McDonald. Este último trabajó en una mina canadiense abandonada a la que llenaron de un líquido especial en el que chocaban algunos neutrinos. Kajita trabajó durante años en el laboratorio súper Kamiokande, una gigantesca alberca subterránea detectora de neutrinos con nombre de superpoder de Dragon Ball. Los neutrinos no desaparecían, solo dejaban el laboratorio para ir a rezar por el campeonato y luego iban al estadio un rato. Aunque está claro que el campeonato azul está más complicado que detener un huracán o detectar un neutrino.

Fecha: 
Jueves, 05 de Noviembre 2015 - 16:00
Redes sociales: 
1
xxxxxxxxxxxxxxxxxxxxxxxxxxx

El Pensamiento Disruptivo. ¿Qué es?

Las empresas disruptivas se han puesto de moda. Derivado quizá de los grandes y sonados éxitos financieros de empresas como UBER ó Facebook, cada vez más, los emprendedores retoman el pensamiento creativo y la innovación como la materia esencial de la puesta en marcha de su nuevo negocio.

Lo disruptivo se ha puesto en la mente de los líderes en los negocios entre otras cosas porque nos sirve para describir en una sola palabra, frases como: “Renovarse o morir” o el “El peor cambio es el que no se acepta” o afirmar máximas como la de Albert Einstein, “En tiempos de crisis la imaginación es más importante que el conocimiento”.

Disruptivo(a) viene de la palabra, disrupción que significa rotura o interrupción brusca. Y se comienza a escuchar cada vez más en los negocios para grandes empresas.

Se usa normalmente para describir a estas empresas (disruptivas) que han realizado un modelo de innovación que ha cambiado el rumbo de sus mercados objetivos. Algunos ejemplos de empresas disruptivas son: Sony, IBM, Apple, Microsoft, Google, Samsung, Facebook o NXP entre muchas otras.

Cierto que el pensamiento disruptivo existe quizá desde siempre pero en los años 20s toma relevancia en los negocios cuando Henry Ford, cambio el sistema de ensamble en línea del modelo T, y con ello puso al alcance de nuevos  compradores, el automóvil.

En los negocios pensar disruptivamente suele estar asociado a la creación y desarrollo de nuevos mercados y de “Market Share” esencialmente se usa para describir las visiones precisas del negocio en donde se desea posicionar a una nueva empresa o a la nueva oferta de productos y servicios.

El incremento de sensores en las cosas cotidianas creará nuevos modelos de compra del cliente y arribarán nuevos servicios incluso, algunos de ellos predictivos sin la intervención de humanos. Nuevas tecnologías como las de geo-localización, telefonía móvil y trazabilidad cambiarán la manera común del comercio actual.

Ya sea a través de nuestra área de marketing o de sistemas; es recomendable  crear un equipo externo o interno de consultores en innovación que nos permitan anticipar el rumbo de nuestros mercados y las preferencias y tendencias de nuestros clientes.

Las nuevas empresas disruptivas cambiarán nuestras vidas. UBER revolucionó por ejemplo el servicio del taxi ejecutivo disminuyendo la incertidumbre. Es un buen ejemplo de cómo usando los servicios gratuitos de GPS de los teléfonos y la geo-localización (TI) a través de una APP (Software) se unió la energía de compra de usuarios potenciales creando este servicio de transportación más seguro, eficiente y con más calidad.

En esta empresa se integraron desempleados o empresarios con capacidad de emprender, (ya que invirtiendo en un auto con un valor aproximado de 250 000 pesos se puede ser parte de la flotilla de autos UBER) y sobre todo de la coyuntura de un mercado con falta de regulación y con un servicio deficiente de transportación con bajos niveles de satisfacción.

Google, Samsung o Apple han descubierto la importancia y lo lucrativo que puede ser “romper” lo establecido, pensar disruptivamente. Industrias enteras como la automotriz cambiarán a nuevas empresas disruptivas que llegarán. En el nuevo modelo de negocio del automóvil ya no será más el objetivo vender un auto como lo más importante, sino poner ese auto más cerca del cliente en el momento oportuno que lo necesita para transportarse.

Hoy en día estamos llenando las cosas comunes con sensores electrónicos, y ya nadie podrá escapar de una pulsera inteligente o de un SmartWatch en pocos años, alguien debe vender estos productos y pensar desde ahora en que servicios se entregarán a esos clientes digitales. Los sensores y las empresas disruptivas han llegado para cambiar nuestra manera de hacer negocios y para crear la nueva era de lo que se llama el internet de las cosas.

Valdría la pena comenzar a preguntarnos si algunos de nuestros negocios estarán activos y vigentes en 8 años (ciclo que se estima tardo el teléfono en reemplazar a la cámara tradicional de fotografía). Hay que pensar si por ejemplo, seremos absorbidos por una competencia disruptiva, alguien que piensa en innovación más que nosotros y que imagina esta nueva era. O dicho más sencillo que: a diferencia de nosotros, quizás, si se preocupó en nuestros compradores, en integrar tecnología amigable y efectiva, en conocerlos mejor, y  que ha comenzado hoy a cambiar y a rediseñar sus procesos para orientarlos al cliente de la nueva era digital.

Fecha: 
Miércoles, 21 de Octubre 2015 - 18:00
Redes sociales: 
1
xxxxxxxxxxxxxxxxxxxxxxxxxxx

Conectividad Total: Proyecto LinkNYC

Como lo ha señalado la Organización de las Naciones Unidas, las tecnologías de la información y las comunicaciones (TIC) encierran la promesa de hacer del mundo un lugar mejor y más justo.

Las TIC son consideradas como un medio efectivo para que los países en crecimiento puedan vencer etapas que obstruyen el desarrollo y barreras tecnológicas para alcanzar un nivel económico más elevado y de base social más amplia.

La Asamblea General de las Naciones Unidas declaró, en junio de 2011, el acceso a Internet como un derecho humano de nueva generación por ser una herramienta que favorece el crecimiento y el progreso de la sociedad en su conjunto.

Por su parte, el Banco Mundial ha señalado que un aumento de 10 puntos porcentuales en las conexiones a Internet de alta velocidad se corresponde con un aumento de 1.3 puntos porcentuales del crecimiento del PIB. Además de que se genera empleo, aumenta la productividad y la prosperidad de las naciones, y promueve la inclusión social y la participación ciudadana para tener una democracia más efectiva.

Según la Unión International de Telecomunicaciones (UIT), en 2015 tenemos en el mundo 2,923 millones de usuarios de Internet, esto es, 39% de la población mundial. Por su parte, la Comisión de la Banda Ancha para el Desarrollo Digital señala que el porcentaje de personas conectadas a Internet va a llegar a 50% de la población del planeta en 2017.

LinkNYC

Por ello, la ciudad de New York lanzó la iniciativa LinkNYC que busca convertir a esta orbe en la más conectada a Internet en el mundo. ¿Cómo lo piensan lograr? A través de la construcción de una red puntos para ofrecer acceso a Internet de banda ancha por WiFi a sus habitantes, bajo una estrategia de autofinanciamiento del proyecto.

Por medio del consorcio de empresas CityBridge, los organizadores buscan aprovechar las 10,000 casetas telefónicas que existen actualmente para transformarlos en 8,400 modernos puntos de acceso gratuito a Internet y convertirlas así en la mayor red inalámbrica del mundo. Un tema relevante es que este proyecto no le costará ni a la ciudad de New York ni a sus habitantes, pues se piensa autofinanciar por medio de la venta de publicidad digital dinámica. La inversión en el proyecto será de 200 millones de dólares y se piensa recaudar 500 millones de dólares en los próximos doce años.

La red de conectividad gratuita a Internet ofrecerá banda ancha a una distancia de entre 40 y 50 metros de distancia de cada uno de los puntos habilitados con antenas de alta potencia de WiFi, que ofrecerá una velocidad máxima de 1 GB.

Cada punto de acceso contará con dos grandes pantallas táctiles, con teclados en braille para personas con discapacidad visual, centros de recarga para celulares, información relevante de la ciudad, acceso a alertas ciudadanas, y se podrán hacer llamadas telefónicas gratuitas a cualquier ciudad dentro de Estados Unidos.

Para finales de este año y principios de 2016 se espera tener listos 500 puntos de conexión. El proceso de conectividad crecerá en el tiempo, buscando en tres años terminar con la meta de los 8,400 sitios de acceso a Internet.

Conclusiones

  • Internet sigue siendo una gran oportunidad de desarrollo para las organizaciones y las personas, es por ello que proyectos ambiciosos como LinkNYC son una apuesta rentable hacia el futuro. Esta iniciativa aprovechará todos los recursos disponibles en la ciudad para buscar conectarlos y hacer un uso más inteligente de los mismo.
  • Ojalá que en México pronto aparezcan este tipo de iniciativas, que con creatividad y talento de las autoridades gubernamentales y de empresas de tecnología, abren un mundo de posibilidades sin costo para los ciudadanos. La mesa esta servida, sólo falta liderazgo y ambición de trascender de parte de quienes gobiernan.

Autor:

Fecha: 
Martes, 22 de Septiembre 2015 - 16:30
Redes sociales: 
1
xxxxxxxxxxxxxxxxxxxxxxxxxxx

Google X: Proyectos de Innovación Disruptiva

 

La innovación se convirtió en el factor más importante de la competitividad de sociedades, empresas, organizaciones y personas. La capacidad de crear conocimiento con valor que responda a necesidades no satisfechas, o incluso que permita crear nuevas necesidades, será definitivo en la hipercompetencia desatada por la globalización de los mercados.

La tecnología ha sido uno de los factores que más han potenciado la innovación, al incrementar el impacto de los nuevos modelos de negocios, productos, servicios y procesos, y llevar dichas innovaciones al mercado mundial, rompiendo las barreras de distancias, capital o tiempo. Hoy, el poder de las ideas innovadoras ha doblegado a las grandes empresas tradicionales que dominaban los mercados hasta el siglo XX.

Google X

  • Sin lugar a dudas, uno de los iconos más reconocidos de la innovación en el mundo es Google, hoy convertida en la empresa Alphabet. Esta empresa que empezó con la búsquedas de información de Internet, hoy es una de las más importantes en el mundo. Muchos aseguran que la base de su éxito es la innovación, basada en sus inversiones en investigación y desarrollo. Y no creo que estén equivocados.
  • Google (Alphabet) tiene un valor en el mercado de 173,600 millones de dólares, sólo superado hasta hoy por Apple, que llega a los 247,000 millones de dólares. Las ventas de 2014 de Google fueron por 50,000 millones de dólares, de las cuales invierte 9,100 millones de dólares en investigación y desarrollo, esto es, 18% de sus ventas anuales.
  • El bastión de la estrategia de la empresa de información más importante del siglo XXI, es una división casi secreta, denominada Google X. Esta división esta comandada por Sergey Brin, uno de los cofundadores de Google. El objetivo que tiene esta división de investigación y desarrollo es muy claro: mejorar drásticamente las tecnologías que utiliza la empresa y desarrollar “soluciones tipo ciencia ficción”.

Proyectos de innovación disruptiva

Para quien considere que el objetivo es un discurso, puede toparse con la realidad de sus principales proyectos. Aquí una breve reseña de ellos:

  • Google Fiber. Este proyecto busca dotar de acceso a Internet de banda ancha de alta velocidad a precios competitivos, a través de la instalación de anillos propios de fibra propios en ciudades medias de Estados Unidos. Actualmente este proyecto esta funcionando en Austin, Texas; Provo, Utah; y Kansas City, Missouri.
  • Nest. Destaca la innovación de un termostato inteligente para manejar los aparatos de aire acondicionado de las empresas y los hogares, a partir de conocer y aprender de las necesidades de temperatura de los usuarios y así ahorrar costos de energía.
  • Calico. Es una iniciativa basada en la biotecnología que busca extender la vida humana y encontrar soluciones al envejecimiento de las personas.
  • Autos autónomos. Este es uno de los proyectos insignia de la compañía que mayor difusión han tenido en los últimos meses. El manejo de vehículos sin conductor son ya  una realidad y sus prototipos han recorrido más de un millón de millas.
  • Wings. Este proyecto busca enriquecer la tecnología de drones para poder reemplazar los servicios de entrega a domicilio, incluyendo a los carteros.
  • Lentes de contacto vestibles. Con este proyecto se busca desarrollar una tecnología asociada a los lentes de contacto que incorpore un detector de glucosa y un chip para cuidar a los enfermos de diabetes.
  • Cuchara antimovimientos. Esta iniciativa tiene por objeto crear una cuchara con sensores incorporados que permitan detectar y aliviar los temblores de los pacientes con la enfermedad de Parkinson.
  • Project Loon. Aquí Google busca darles acceso a quienes están excluidos de Internet en las zonas rurales con el diseño de una red de globos situados a la altura de la estratosfera.

Conclusiones

No cabe duda que Google (Alphabet) sigue sorprendiendo día a día con sus nuevos tecnologías y productos, lo cual se explica por su agresiva política de inversión en investigación y desarrollo. Aunque algunos de sus inversionistas critican y quieren limitar los recursos que dedican (18% de sus ingresos anuales totales), el potencial de sus proyectos demuestra que el recurso invertido tiene gran potencial de rentabilidad.

El caso de Google es otro más que demuestra con hechos el valor de la inversión en investigación y desarrollo, uno de los factores detrás de la innovación, clave de la competitividad futura de sociedad, empresas, organizaciones y personas. Si es tan claro, ¿cuándo lo entenderán nuestras autoridades, las organizaciones y las empresas mexicanas? En contraste al 18% de inversión en investigación y desarrollo de sus ingresos total de Google, en México la cifra total de inversión pública y privada en investigación y desarrollo no llega al 1% del PIB anual. ¿Así cómo, pues?

 

Autor:

Fecha: 
Martes, 15 de Septiembre 2015 - 16:30
Redes sociales: 
1
xxxxxxxxxxxxxxxxxxxxxxxxxxx

Relanzamiento de las Ciudades Inteligentes

Según proyecciones de diferentes expertos y organizaciones especializadas en demografía y desarrollo urbano, en los próximos 40 años tres de cada cuatro habitantes del mundo vivirán en ciudades. En México, según datos del INEGI, ya 78% de los mexicanos viven en zonas urbanas.

Esta situación significa desafíos impresionantes para los próximos años, porque los pobladores de las ciudades van a requerir de más y mejores servicios básicos (agua, drenaje, luz eléctrica), sustentabilidad, movilidad, seguridad, todo ello bajo una enorme presión sobre finanzas públicas cada vez más deterioradas.

En este contexto es donde la innovación debe plantear nuevos modelos para enfrentar nuevos y viejos retos de las ciudades. De ahí nace el concepto de Ciudad Inteligente (CI), que de acuerdo con Wikipedia es una “ciudad donde la inversión social, el capital humano, las comunicaciones, y la infraestructura, conviven de forma armónica con el desarrollo económico sostenible, apoyándose en el uso y la modernización de nuevas tecnologías (TIC), y dando como resultado una mejor calidad de vida y una gestión prudente de los recursos naturales, a través de la acción participativa y el compromiso de todos los ciudadanos”.

Ciudades Inteligentes (CI)

Aunque hay diferentes versiones o modelos de CI y cuáles son sus componentes, podemos decir que las áreas donde tienen mayor impacto son: economía, medio ambiente, servicios básicos, movilidad, conectividad, inclusión y participación.

Cabe señalar que hay quienes también llaman a estos proyectos Ciudades Competitivas, Creativas o Innovadoras, que solo se distinguen por el énfasis es las estrategias que proponen.
Aunque cada urbe enfrenta situaciones y desafíos diferentes, existe una serie de pasos que ayudan a la construcción de una CI:

  • Definir la visión. Antes de iniciar con un proyecto de CI debe de haber una visión compartida de lo que se quiere lograr. No tener claro a donde se quiere llegar, impide obtener resultados de impacto que sean satisfactorios para los ciudadanos.
  • Utilizar la innovación como enfoque de trabajo. Para ello es imperativo tener una definición clave de lo que es el concepto de innovación traducido en forma operativa para la toma de decisiones: pensar diferente, hacer más, gastar menos y crear valor.
  • Usar estratégica e intensivamente la tecnología. Y aquí no estamos hablando de hacer grandes gastos en tecnología, sino utilizar la tecnología como una herramienta clave para conectar, simplificar y producir inteligencia.
  • Pensar en arquitecturas tecnológicas abiertas. Las arquitecturas de los sistemas deben facilitar la captura de datos y permitir compartirlos y analizarlos para mejorar el rendimiento y el valor.
  • Recurrir a modelos de negocio innovadores. Los modelos tradicionales de financiamiento del desarrollo con base al gasto público están agotados. Tenemos que implementar nuevos modelos de colaboración, financiamiento  e inversiones, más allá de pensar sólo en la infraestructura y atrevernos a  resolver con nuevos esquemas los rezagos sociales.
  • Impulsar la colaboración, la participación y la inclusión. Las CI tienen que convertirse en movimientos que permitan explotar todas las capacidades y talentos de los que se disponen. Las CI deben también provocar la formación de Ciudadanos Inteligentes para que sea sostenible el esfuerzo.

Conclusiones

Está claro que los sistemas tradicionales de planeación y desarrollo de las ciudades está en quiebra. Las ciudades se han desarrollado en el desorden y el caos, con sistemas aislados, que no permiten reaprovechar recursos, datos y infraestructuras. De seguir así, la realidad nos va a rebasar.

Las principales ciudades así lo han entendido, y han tomado la decisión de repensar los modelos de urbes a través del concepto de Ciudades Inteligentes. Con ello esperan que la inercia no derrote la inteligencia y el uso de modelos innovadores, para aprovechar las capacidades y talento de sus habitantes. Ciudades Inteligentes es el primer paso, Ciudadanos Inteligentes vendrán después. Esa es la esperanza para rescatar a nuestras ciudades de un destino fatal.

Autor:

Fecha: 
Martes, 08 de Septiembre 2015 - 16:00
Redes sociales: 
1
xxxxxxxxxxxxxxxxxxxxxxxxxxx

De 1844 - Fallece John Dalton

(Eaglesfield, Gran Bretaña, 1766 - Manchester, 1844) Químico y físico británico al que se debe la primera formulación moderna de la teoría atómica. Pese a recibir una educación precaria a causa de las penurias económicas, una inagotable curiosidad y afán de conocimientos le permitió completar su formación y obtener cierto prestigio con sus primeros trabajos científicos, que versaron sobre los gases y sobre una enfermedad visual que padeció, posteriormente llamada daltonismo.

Reconocido ya como científico y con una sólida posición académica, Dalton descubrió la llamada ley de las proporciones múltiples, que rige el peso de los elementos que intervienen en una reacción química, y propuso como interpretación de la misma toda una teoría sobre la constitución de la materia que retomaba el atomismo griego: es el llamado modelo atómico de Dalton, que, vigente a lo largo de todo el siglo XIX, posibilitaría importanes avances científicos.

Biografía

Miembro de una familia muy humilde, en su infancia ayudaba con su hermano a su padre en el trabajo del campo y en la pequeña tienda familiar donde tejían vestidos, mientras que su hermana Mary ayudaba a su madre en las tareas de la casa y vendía papel, tinta y plumas. Aunque su situación económica era bastante precaria, los hermanos recibieron cierta educación en la escuela cuáquera más cercana, a diferencia de otros niños de la misma condición.

El maestro de la escuela cuáquera de Pardshow Hall proporcionó a John Dalton una buena base y le transmitió el afán por la búsqueda incansable de nuevos conocimientos. Un cuáquero rico, Elihu Robinson, se convirtió en su mentor y en otra fuente de estímulo hacia las matemáticas y las ciencias (especialmente la meteorología). Con sólo doce años de edad, John Dalton abrió una escuela en su localidad natal, Eaglesfield. Aunque supo manejar los problemas con sus alumnos mayores que él, después de dos años se vio obligado a abandonar su proyecto debido al bajo salario, y tuvo que volver a las tareas del campo trabajando para un tío suyo.

En 1781 John Dalton se unió a su hermano como asistente de George Bewley en su escuela de Kendall. Cuando George Bewley se retiró, su hermano y él abrieron su propia escuela, donde ofrecían clases de inglés, latín, griego y francés, además de veintiún temas relacionados con las matemáticas y las ciencias. Su hermana se trasladó con ellos para ayudarles en la casa. A pesar de tener unos sesenta alumnos, a veces se veían obligados a trabajar en tareas auxiliares para mantenerse.

John Gough, el hijo ciego de un rico comerciante, se hizo amigo de John Dalton y se convirtió en su nuevo mentor. Le enseñó lenguas, matemáticas y óptica, además de compartir con Dalton su biblioteca. El interés de Dalton se extendió hacia la neumática, la astronomía y la geografía, y en 1787 comenzó a obtener ingresos extraordinarios impartiendo conferencias. También se dirigió a un museo cercano con una oferta para vender los once volúmenes clasificados de su colección botánica. Coleccionaba mariposas y estudiaba los caracoles, las garrapatas y los gusanos; también medía su ingesta de alimentos y la comparaba con los residuos producidos por el organismo. Al mismo tiempo preparaba su ingreso en la escuela de medicina, pero su familia lo desanimó por falta de dinero y de confianza en él.

A la edad de 26 años, Dalton descubrió que ni él ni su hermano eran capaces de distinguir los colores. Le regaló a su madre unas medias (que él creía azules) y ella le preguntó sorprendida por qué le había obsequiado con unas medias moradas, color que no era apropiado para una mujer cuáquera. Dos años después, en su primer artículo científico importante, Hechos extraordinarios relativos a la visión de los colores (1794), John Dalton proporcionaría una descripción científica sobre este fenómeno, que posteriormente se conocería con el nombre de daltonismo.

Un año antes, en 1793, Dalton había publicado su primer libro, Observaciones y ensayos meteorológicos, donde defendía la tesis de que el aire no es una combinación química, sino una mezcla meramente física de gases. Ese mismo año se trasladó a Manchester como tutor y profesor de física y matemáticas del New College de esta ciudad, fundado por los presbiterianos, y cuyo prestigio rivalizaba entonces con el de las universidades de Oxford y Cambridge. Inmediatamente se inscribió en la Biblioteca de Manchester y en la Sociedad Literaria y Filosófica, de la que llegaría a ser secretario y presidente.

Profesor e investigador

Aquellos dos trabajos científicos le habían proporcionado una cierta notoriedad, y, ya con una situación económica más holgada, pudo alternar la enseñanza con las investigaciones en el laboratorio. En 1802, en la memoria titulada Absorción de gases por el agua y otros líquidos, estableció su ley de las presiones parciales(Ley de Dalton), según la cual la presión de una mezcla gaseosa equivale a la suma de las presiones de cada componente. También estableció una relación entre la presión del vapor y la temperatura. Su interés en los gases se derivaba de su afición a los estudios meteorológicos: siempre llevaba consigo sus aparatos del tiempo allí donde fuese, realizando a lo largo de su vida más de doscientas mil observaciones que anotaba en su diario. Gracias a estas observaciones, su mente analítica pudo encontrar relaciones numéricas entre los datos.

En 1803 comenzó a formular su mayor contribución a la ciencia. Se encontraba estudiando la reacción del óxido nítrico con el oxígeno cuando descubrió que la reacción podía tener lugar con dos proporciones diferentes: a veces 1:1,7 y otras 1;3,4 (en peso). Ello llevó a Dalton a establecer la ley de las proporciones múltiples, según la cual, en una reacción química, los pesos de dos elementos siempre se combinan entre sí en proporciones de números enteros pequeños; buscando una interpretación a este fenómeno, comenzó a bosquejar los principios de su teoría atómica.

Los resultados fueron comunicados oralmente ese mismo año y publicados en 1808 en un libro que es su trabajo más famoso: Nuevo sistema de filosofía química. En él adoptó la noción de átomo y estableció los postulados de la teoría constitutiva de la materia que hoy conocemos como teoría atómica de Dalton; dibujó partículas individuales para ilustrar las reacciones químicas y publicó su primera lista de pesos atómicos y símbolos.

No todo el mundo aceptaba la nueva teoría; en 1810 publicó la segunda parte delNuevo sistema de filosofía química, proporcionando nuevas evidencias empíricas. La tercera parte vería la luz en 1827. Aunque fue miembro de la Real Sociedad desde 1822 y en 1825 recibió la medalla de esta sociedad científica por su trabajo en la teoría atómica, Dalton siempre se consideró a sí mismo como un docente, y se ganó la vida dando clases y conferencias hasta 1833, cuando fue premiado con una pensión civil anual.

El 27 de julio de 1844 falleció de un ataque al corazón. Según su deseo, tras su muerte se le practicó la autopsia para determinar la causa de lo que luego se llamaría daltonismo. La misma demostró que el daltonismo no es un problema del ojo, sino que estaba causado por alguna deficiencia del poder sensorial. Fue enterrado con honores de monarca, en un funeral seguido por más de cuatrocientas mil personas, contraviniendo los principios de los cuáqueros conforme a los que había vivido.

La teoría atómica de Dalton

El concepto de átomo se remonta a los debates entre los filósofos griegos desarrollados alrededor del siglo VI a.C. Una de las cuestiones que interesaba a estos pensadores era la naturaleza de la materia. Se preguntaban si era continua o discontinua, es decir: si fuese posible partir un pedazo de tiza tantas veces como se quisiera, ¿llegaría a obtenerse una partícula que ya no pudiera seguir dividiéndose o, por el contrario, este proceso podría seguir realizándose indefinidamente?

Un defensor del concepto de partícula última fue el filósofo Demócrito, quien llamó a tales partículas átomos. En griego, atomos significa "indivisible." Tal debate sobre las partículas últimas nunca se resolvió; los filósofos griegos no se planteaban comprobar sus ideas con experimentos. Durante más de veinte siglos, el concepto de Demócrito quedó archivado como algo de interés secundario entre los científicos, hasta que la idea renació en la primera década del siglo XIX, de la mano de John Dalton.

John Dalton no se había propuesto formular una teoría sobre la constitución de la materia; llegó a ella como consecuencia de sus investigaciones sobre los gases, y su objetivo no era otro que explicar los descubrimientos efectuados en las mismas. En su memoria Absorción de gases por el agua y otros líquidos (1802), había establecido su conocida ley de las presiones parciales: la presión total ejercida por una mezcla gaseosa es igual a la suma de las presiones parciales de cada uno de sus componentes.

Una continuación natural de dichos estudios era investigar la composición de los mismos gases (y especialmente de los óxidos de nitrógeno, de los compuestos oxigenados del azufre y del carbono, del metano, etc.). Repetidas experiencias le conducirían a descubrir la ley de las proporciones múltiples: si en una reacción química se combinan dos o más elementos y se mantiene constante el peso de uno de ellos, el peso de los demás varía según relaciones simples expresables en múltiplos enteros. Dicho de otro modo, las sustancias siempre reaccionan con otras guardando una relación constante entre sus respectivos pesos; pueden combinarse en cantidades grandes o pequeñas, pero siempre se mantiene esa misma proporción.

Para explicar estas relaciones aritméticas, John Dalton supuso que todo elemento debía de estar formado por cantidades de materia concretas, las cuales hacían comprensible la existencia de múltiplos de aquéllas y explicaban que sólo unos valores determinados de sus pesos intervinieran en una reacción. Retomó así la teoría atómica de Demócrito, que consideraba la materia formada por partículas indivisibles. La existencia de espacios interatómicos, por otra parte, justificaba la compresibilidad de los gases, los cambios de estado y el fenómeno de la dilatación, hechos inexplicables si no se tenía en cuenta la discontinuidad de la materia.

El 21 de octubre de 1803, Dalton expuso por primera vez su teoría atómica en una conferencia que pronunció en Manchester, organizada por la Sociedad Literaria y Filosófica, ante un auditorio de siete personas. No es de extrañar la falta de público, porque Dalton no tenía fama de buen orador. Pero su teoría consiguió más divulgación al publicarla, en 1808, en la primera parte de su obraNuevo sistema de filosofía química.

La teoría atómica de Dalton establecía una serie de postulados fundamentales: los elementos están formados por átomos, partículas materiales minúsculas que no pueden crearse, destruirse ni dividirse; todos los átomos de un determinado elemento son idénticos, tanto en la masa como en sus demás propiedades; los átomos se combinan entre sí en proporciones simples, expresables en números enteros, para formar "átomos compuestos" (lo que hoy llamamos moléculas, concepto que sería introducido por Amadeo Avogadro); todos los "átomos compuestos" de una misma sustancia son idénticos, tanto en la masa como en sus demás propiedades.

La ley de las proporciones múltiples y la hipótesis atómica condujo al mismo Dalton al primer intento de confeccionar un instrumento de utilidad fundamental para la química: una tabla de masas atómicas, que apareció ya en la primera parte del Nuevo sistema de filosofía química. Dalton eligió el hidrógeno como patrón para la tabla de masas atómicas y dio al átomo de ese elemento una masa de 1. Naturalmente, podría haber elegido cualquier otro elemento y cualquier otro valor para su masa atómica, pero el hidrógeno era el más ligero de los elementos y el 1 es el número que permite establecer comparaciones con más facilidad.

La tabla que elaboró Dalton era incorrecta por dos motivos principales: en primer lugar, desconocía la relación correcta de combinación de los átomos en una reacción química, y en segundo lugar, el equipo utilizado en la época para determinar relaciones de masas no era muy preciso. Como resultado de ello, los valores establecidos resultaron notablemente inferiores a los reales. Con todo, su tabla fue un primer paso importante en la determinación de las masas atómicas, y apenas veinte años después, el químico sueco Jöns Jacob Berzelius fue ya capaz de establecer una lista de masas atómicas con valores muy similares a los actualmente aceptados.

Considerada como una de las bases de la ciencia moderna, la teoría atómica de Dalton se revelaría como una hipótesis extraordinariamente fecunda tanto para la química como para la física, y mantuvo su vigencia durante casi un siglo. Hubo que esperar al descubrimiento de las partículas subatómicas (que acabó con el dogma de la indivisibilidad del átomo) para ver cambios sustanciales en el modelo, reflejados en las sucesivamente perfeccionadas teorías atómicas deJoseph John Thomson, Ernest Rutherford y Niels Bohr, ya a principios del siglo XX.

Fecha: 
Jueves, 27 de Julio 2017 - 09:40

Efemérides:

Redes sociales: 
1
xxxxxxxxxxxxxxxxxxxxxxxxxxx

¡Eeeeehhh…Plutooo!

 

Así gritaron en la NASA la semana anterior. Déjeme le cuento.

Si alguien le pregunta a un escritor de ciencia ficción de dónde vienen los aliens, casi seguro que dirá de Marte.

Por alguna extraña razón Marte ha sido la obsesión planetaria donde hemos ubicado miedos y esperanzas de todo tipo. Los marcianos han sido aliados, enemigos y bailarines de cha cha chá.

Por ejemplo cuando en Duck Dodgers (en el siglo 24.5) las reservas terrícolas de crema de afeitar son alarmantemente bajas, envían al Pato Lucas a reclamar el incógnito y recóndito planeta X donde se sospechan grandes cantidades de ungüento de barbería. Por fortuna al cadete novato del espacio, Porky, se le ocurre que para llegar al planeta X solo hay que pasar el planeta A, el B, el C hasta el X. Al llegar entran en una guerra planetaria con Marvin, el marciano con yelmo romano, quien también busca una rasurada más suave y al ras.

Muchos años antes del Pato Lucas, Percival Lowell también pensó en marcianos y en el planeta X. Lowell era un millonario bostoniano devenido en astrónomo que aseguraba ver canales de irrigación en Marte desde su observatorio en Flagstaff, Arizona. Pero también afirmaba la existencia de una gran masa gravitacional más allá de Urano y Neptuno, el planeta X.

Lowell murió pero Clyde Tombaugh siguió su trabajo. Tombaugh era una especie de hijo no reconocido de McGiver y Dr. Who que construía telescopios con partes de autos, tractores y demás chatarra de la época. Sin formación académica en astronomía pasó de Smallville en Kansas al observatorio astronómico de Flagstaff en Arizona. En 1930 descubrió el planeta X al que un año más tarde llamaron Plutón. La arqueóloga espacial Alice Gorman de la Universidad Flinders de Australia cuenta que la niña Venetia Burney, más tarde matemática destacada, propuso se le llamara Plutón, el dios griego del inframundo.

La despiadada deidad griega resultó ser más pequeña que Mercurio y no el gigante que Lowell calculó. El campo gravitacional que se notaba no se debía a la masa de Plutón sino a la suma de esta con la de su satélite Caronte, descubierto a finales de los setenta en Flagstff y a decenas de otros planetoides enanos y asteroides observados desde entonces. Eso llevó a que en 2006 la Sociedad Astronómica Internacional votara por degradar a Plutón de planeta a piedrota voladora.

En general podemos decir que los planetas inicialmente se consideraron así, simplemente porque así se habían considerado. Muchas veces las clasificaciones se respetan por simple herencia histórica. A nadie se le ocurrió que existieran objetos cuyas características pusieran en duda de qué se trataba, así que generar una definición más estricta fue inevitable. Las definiciones son las madres de las clasificaciones y las clasificaciones desembocan ineludiblemente en las discusiones sobre la existencia de los grupos naturales; es decir si somos nosotros quienes agrupamos o el grupo existe aún sin el clasificador. Por supuesto que a las mojarras, a los asteroides y a Plutón los tiene sin cuidado el estatus que les demos; la relevancia estriba en la validez de los argumentos usados.

El mismo año en que Plutón dejó de ser planeta fue lanzada la sonda New Horizons rumbo a él. Uno de los líderes de la misión, Alan Stern, escribió en un artículo para la revista Space Science Review en 2008 que es la oportunidad de saber de planetas exóticos con superficies volátiles, atmósferas que escapan, antiguos choques planetarios y el origen del Sistema Solar. Pero sobre todo New Horizons representa una victoria de la constancia, trabajo y dedicación humana para entender el Universo. Llegó la semana anterior, eclipsada entre el Chapo y el Piojo. Según la página de la NASA pasó a solo 13 mil KM de Plutón, más o menos la distancia entre Ciudad de México y Seúl. Tardó tanto porque las distancias espaciales son inimaginablemente grandes. Bill Bryson en Una breve historia de casi todo dice que si la Tierra fuera del tamaño de un chícharo, Plutón estaría a 2.5 kilómetros y tendría el diámetro de una bacteria. Vamos, que ni siquiera la Discovery 1 de 2001 Odisea del espacio llegó tan lejos. La aterradora Event Horizon, de la película del mismo nombre con Laurence Fishburne, sólo llega a Neptuno. Y aunque difícilmente tocará las puertas del infierno, la New Horizons lleva una botellita con cenizas de Clyde Tombaugh, posiblemente como amuleto. Uno nunca sabe. 

Fecha: 
Jueves, 23 de Julio 2015 - 16:00
Redes sociales: 
1
xxxxxxxxxxxxxxxxxxxxxxxxxxx

De 1969 - El primer ser humano pisa la Luna

Tras cuatro días de viaje a bordo del Apollo XI, el norteamericano Neil Armstrong se convierte en el primer hombre que pisa la Luna. Le acompaña Edwin E. Aldrin. Michael Collins permanece orbitanto la Luna. Armstrong, al descender por la escalerilla del módulo lunar "Eagle" embutido en su traje espacial, pone su pie izquierdo sobre la Luna y comenta: "Estoy al pie de la escalerilla. Las patas del Eagle sólo han deprimido la superficie unos cuantos centímetros. La superficie parece ser de grano muy fino, cuando se la ve de cerca. Es casi un polvo fino, muy fino. Ahora salgo de la plataforma". A continuación pronuncia su histórica frase: "Este es un pequeño paso para el hombre; un gran salto para la Humanidad". A su marcha, 21 horas más tarde, los astronautas dejarán una placa con la siguiente leyenda: "Aquí los hombres del planeta Tierra pusieron el pie en la Luna por primera vez en Julio de 1969 d.C. Vinimos en son de paz en nombre de toda la humanidad". 
 

Fecha: 
Jueves, 20 de Julio 2017 - 09:20

Efemérides:

Redes sociales: 
1