miércoles, 17 de agosto de 2011

Estudiando genética ancestral

Cuevas Altai Krai, Siberia


En 2008 un grupo de investigadores liderados por Anatoli Derevianko, de la Academia Rusa de ciencias encontraron en esta región una reliquia, el resto ósea de lo que aparentaba ser un dedo meñique, en medio de otros objetos característicos de asentamientos humanos. Este simple hallazgo fue el acápiteprincipal para describir un nuevo miembro de la gran familia de los homínidos.

Svante Paabo, del Instituto Max Plank de Antropología Evolutiva de Alemania recibió el hueso con emoción pues se dispuso a aplicar la técnica de decodificación de ADN de restos fósiles para determinar el genoma mitocondrial, método que permite a los investigadores aproximar una idea acerca del origen del hueso. Las mitocondrias son los compartimentos que en nuestras células permiten la formación de energía. Al comparar, por ejemplo, el ADN mitocondrial de los chimpancés con el nuestro podemos hallar que la diferencia de bases nitrogenadas (los componentes del ADN) es de 1462, mientras que al compararlo con el ADN de del hombre de neanderthal la diferencia es de tan solo 202 bases; claramente podemos definir que somos más emparentados con los neanderthales que con los pan troglodytes.

Los resultados del análisis de genes mitocondriales mostraron una diferencia de 385 bases entre nuestro ADN mitocondrial y esta nueva especie de homínido. La publicación de este hallazgo en 2010 tuvo gran importancia por ser la primera especie de homínido identificada completamente por medio de análisis genéticos. Por el mismo motivo, nadie tiene la menor idea de qué aspecto tendría este nuevo grupo de humanos antiguos. Posteriores excavaciones permitieron identificar un molar con características morfológicas propias, sin embargo todavía falta un largo camino antes de poder esbozar el borrador de un rostro.



Como siempre, el nombre que se impuso a esta especie derivó de las cuevas donde fue descubierto: Homo Denisovan. Posteriormente, Paabo aisló completamente su genoma nuclear y tal como pasó al analizar el genoma completo de los neandertales (anterior publicación aquí), y dada la fecha probable de existencia de esta nueva especie (entre los 150000 y los 50000), pudo observar evidencia de entrecruzamiento con los homo sapiens, además de que ambas especies compartieron aproximadamente 10000 años de convivencia. Una cuestión que cabe recalcar es que esta nueva especie de homínido tenían un rango de expansión territorial distinto al de los neandertales, se supone que su territorio abarcó todo el sudeste de Asia, islas de Papúa Nueva Guinea y parte de Rusia. De hecho, los habitantes de Nueva Guinea, a diferencia de los habitantes de otras partes del mundo comparten 4,8% del genoma de los denisovan, sugiriendo que los descendientes directos del entrecruzamiento temprano con los homo sapiens terminaron en esta región geográfica.

Una de las cuestiones indispensables que deben ser definidas al hablar de un intercambio genético entre especies es que si este cambio hace alguna diferencia en temas de adaptación, si estos genes ayudan o no a la supervivencia de cualquiera de las especies. Para definir esta cuestión, el investigador Peter Parham comparó nuestro genoma (muestras de varias poblaciones del mundo, entre ellas grupos de africanos, europeos y asiáticos) con el del H. Neanderthal y el H. Denisovan. Poniendo atención especial a la familia de genes denominados antígenos leucocitarios humanos (HLA por sus siglas en inglés) percatándose de una cuestión particular.

Al comparar los tres genomas Parham encontró este patrón genético:


La conclusión que se deriva de la tabla anterior es que genes que no se observan en el genoma africano, aparecen en el genoma de europeos y asiáticos y también en los homos que ocuparon estas regiones.

La hipótesis inmediata sugiere lo siguiente: Los neandertales y los denisovan dominaron Europa y Asia por largo tiempo y obviamente su sistema inmunológico se fue preparando para combatir las enfermedades propias de estas regiones; la migración relativamente reciente de los homo sapiens (hace 65000 años) los hacia resistentes a enfermedades propias de la sabana africana, pero no más allá. Su rápida expansión debió ir acompañada de una herramienta molecular adecuada para el enfrentamiento de enfermedades en estos nuevos territorios “fuera de África”, herramienta que la encontraron al reproducirse con sus congéneres de otras especies, ya adaptados a las enfermedades propias de estos sectores geográficos.



Regiones ocupadas por los homínidos mencionados en esta publicación incluida la posible distribución del homo denisovan

Si esta teoría resulta veraz, la idea de la indispensabilidad del entrecruzamiento para el éxito de nuestra especie sería de tal magnitud, que tan solo la sugerencia inspiró a que la carta de presentación de la revista New Scientist para esta noticia fuese: “Thanks Neanderthals”. Sin embargo, la evidencia a favor de esta propuesta resta mucho de ser abrumadora. John Hawks, paleoantropólogo de la Universidad de Wisconsin – Madison, quien también trabaja con genes del sistema inmunológico de homínidos ancestrales señala algunos puntos en contra, principalmente recalca el hecho de la presencia de los alelos HLA-C*0702 y HLA-A*11 en la población de África subsahariana tal como podemos observar en la imagen siguiente tomada de Allelefrequencies.net. Con la presencia del alelo en África, se vuelve prematuro aseverar que los alelos del HLA hayan sido derivados directamente del genoma de homínidos arcaicos ya que pueden existir alternativas que expliquen la prevalencia de alelos HLA en la población europea y asiática que no sean el entrecruzamiento.


Para ahondar más en el tema sugiero la lectura del artículo completo publicado en la web de John Hawks: click aquí

Redactado por: Daniel Romero

sábado, 2 de julio de 2011

¿Un descanso para el Sol? (segunda parte)

Esta entrada es continuación de otra; para ver la anterior, haz clic en este link.


Frank Hill y colaboradores descubrieron una corriente interna en el Sol (mostrada en rojo) que al mismo que migra hacia el ecuador junto con las manchas solares en la superficie. Mientras la corriente está en migración, cerca de los polos ya se puede observar otra corriente, relacionada con el próximo ciclo de manchas solares (como se puede ver en la imagen de la derecha), lo cual ayuda a comprender cómo será el próximo ciclo y determinar con mayor precisión la fecha de inicio (Imagen cortesía de National Solar Observatory).


La suspensión

Frank Hill, astrónomo del National Solar Observatory en Tucson (Arizona), ha encontrado una corriente en el interior del Sol que gira en dirección oeste-este y parecería estar relacionada con la aparición de las manchas solares. Esta corriente migra desde las latitudes medias hacia el ecuador, al mismo tiempo que también lo hacen las manchas solares. Cuando la corriente desaparece, también lo hacen las manchas. Hill detectó este fenómeno gracias a una técnica conocida como heliosismología, que consiste en observar vibraciones en la superficie del Sol producidas por movimientos en el interior. Una peculiaridad bastante interesante de esta corriente es que empieza a formarse antes que inicie el ciclo correspondiente de manchas solares. Al inicio, la corriente se localiza cerca de los polos y permanece ahí casi hasta cuando termina el ciclo de manchas solares vigente (y por lo tanto, cuando la anterior corriente está llegando al ecuador, apunto de desvanecerse); al desaparecer la otra corriente, inicia su viaje hacia el ecuador, produciéndose manchas solares a su paso. El patrón funcionó muy bien para predecir con mayor exactitud el inicio del ciclo 24 de las manchas (es el número 24 desde que empezó a registrarse los ciclos), que ocurrió en 1998, pero cuya corriente interna asociada empezó a observarse desde 1997 e inició su viaje al ecuador en el 2003. Hill ha estudiado la corriente en detalle desde 1996, en el período de mínima actividad del ciclo 23, cuando todavía no se observaban las manchas; pero así mismo, la corriente asociada aquel ciclo ya había iniciado su viaje hacia el ecuador. Si el patrón continuara vigente, se esperaría que la corriente del ciclo 25, haya hecho su aparición en el 2008. Sin embargo, las lecturas heliosismológicas han sido negativas al respecto: no hay tal corriente.


En este diagrama se puede ver la relación entre la corriente interna que descubrió Hill y el ciclo de manchas solares. En rojo y amarillo se muestra la posición de la corriente, según la latitud y el tiempo. En un inicio la corriente se concentra en los polos ("Poleward branch"), mientras la corriente del ciclo vigente todavía está migrando hacia el ecuador ("Equatorward branch"). En negro se muestran las manchas solares. Como se aprecia en el diagrama la rama polar de la corriente del ciclo 24 se la podía observar cuando todavía estaba vigente el ciclo 23. Sin embargo, el ciclo 24 ya empezó hace 3 años, y no hay señal de una rama polar del ciclo 25 (Imagen cortesía de National Solar Observatory).


¿Representa la ausencia de la corriente interna correspondiente al ciclo 25 una predicción de suspensión del ciclo de manchas solares? Hay una desventaja importante en el estudio de Hill; los datos podrían ser insuficientes para afirmar algo con certeza (apenas de 15 años). Sin embargo, de forma independiente, otras dos líneas de investigación llegaron a una conclusión parecida. Richard Altrock, del National Solar Observatory de Sacramento, ha estudiado por algunos años un fenómeno que él denomina la "marcha hacia los polos", que consiste en un aumento de la actividad magnética hacia los polos, mientras las manchas solares están migrando hacia el ecuador. Esta marcha parece despejar cualquier huella de actividad magnética del ciclo anterior para que pueda iniciarse uno nuevo. Sin embargo, Altrock reportó que no ha habido ninguna actividad de "marcha hacia los polos" para el próximo ciclo.


Finalmente, Matthew Penn y William Livingstone, también del National Solar Observatory de Tucson, han estado estudiando la intensidad de los campos magnéticos en las manchas solares desde 1999. Hasta el momento, los resultados de su estudio han encontrado que la intensidad magnética ha tendido a disminuir con el tiempo, y si este patrón sigue, difícilmente se tendrá el magnetismo necesario para que se desarrollen manchas solares en el ciclo 25, pues el magnetismo promedio de las "manchas hipotéticas" estaría por debajo del umbral necesario (1500 gauss) para que lleguen a formarse.

Todavía se necesitarán hacer más observaciones para corroborar lo que plantean estos estudios (evidentemente, la mejor corroboración va a ser la ausencia de manchas solares en el próximo ciclo). Curiosamente, los efectos de esta pausa podrían ser benéficos. Sin la interferencia de las tormentas adicionales propias de los períodos de máxima actividad solar. se podrán hacer observaciones más detalladas del Sol, y estudiarlo en una forma sin precedentes. A la vez, si una menor actividad de manchas solares está relacionada con un descenso de la temperatura en la Tierra, tendríamos mayores probabilidades de superar los problemas que nos impone el calentamiento global. Por otra parte, la suspensión en sí misma sería un acontecimiento astronómico de gran importancia, y nos recordaría que el Sol es otro sistema dinámico en el Universo del que todavía nos falta mucho por conocer.



Detalle de un grupo de manchas solares. La mancha solar de la derecha tiene un campo magnético con intensidad igual a 2688 gauss (en comparación, la Tierra tiene un magnetismo con intensidad de 25 gauss cerca de su núcleo). (Foto cortesía de National Solar Observatory).

Escrito por: Carlos Antonio Rodríguez

jueves, 23 de junio de 2011

¿Un descanso para el Sol? (primera parte)



Una noticia impactante circuló en el encuentro anual de la American Astronomical Society's Solar Physics Division, celebrado a inicios del pasado mes de junio. Tres líneas independientes de investigación muestran evidencia de lo que podría ser una suspensión en el ciclo de manchas solares (las del Sol, no las de la piel, :-)). De ser cierta esta predicción, las consecuencias en el clima terrestre, la ingeniería aeroespacial y la tecnología satelital serían de enorme importancia.

Pero, ¿En qué consiste el ciclo de manchas solares?, para los poco familiarizados, he preparado un pequeño resumen que explica qué es y cómo se produce este curioso fenómeno. Para los que están mejor entendidos, en una segunda parte explico con más detalle cuáles fueron los trabajos que han llevado a tal importante predicción.


El ciclo de las manchas solares

El Sol es un cuerpo celeste formado principalmente por hidrógeno, que a la elevada gravedad del astro se fusiona para producir helio y grandes cantidades de energía en forma de luz y calor. A las elevadas temperaturas así producidas, muchos átomos y moléculas quedan tan energizados que tienden a desprender electrones con facilidad, convirtiéndose en iones. Gran parte del Sol se compone de gas ionizado, o mejor conocido como plasma.

Los iones tienen cargas eléctricas capaces de generar campos electrostáticos y magnéticos a su alrededor. El magnetismo del Sol es mucho más complejo que el de la Tierra, la cual tiene en esencia un solo un polo positivo y otro negativo. En el Sol, hay varias partículas que pueden actuar como polos magnéticos, y están dispersas por todas partes; estas partículas están en constante movimiento relativo por efecto de la rotación del Sol, que es más rápida en el ecuador que en los polos, y los campos magnéticos que describen están cambiando todo el tiempo. El magnetismo solar se evidencia fácilmente cuando se observa una imagen de la corona solar, en la que llaman la atención varios torrentes de plasma que describen arcos y líneas radiantes en la superficie del Sol; estas líneas se componen de gas ionizado sometido a un campo magnético, como cuando uno coloca polvo de hierro alrededor de un imán y éste se ordena formando arcos entre los polos del imán.


Las líneas de emisión observables en la corona solar se pueden entender como plasma organizado en un campo magnético de la misma forma en la que el polvo de hierro se ordena alrededor de un imán. Izquierda, fotografía de dos polos magnéticos opuestos en una región de la corona solar, a un lado se observa una interpretación de los arcos hecha en computadora (imágenes cortesía de NASA); derecha, polvo de hierro sometido a un campo magnético (foto tomada de flickr.com)

A menudo, distintos campos magnéticos se aproximan e interactúan de una manera particular que provoca expulsión espontánea de materia de la superficie solar. De estas interacciones se generan los vientos y tormentas solares, o eyecciones de masa coronal, cuando el evento es de gran magnitud. Estas liberaciones se ven acompañadas frecuentemente por cantidades ingentes de radiación ultravioleta y rayos X, que podrían ser nocivos para la vida en la Tierra, si no hubiera protección por parte del campo magnético del planeta. Se ha demostrado en el pasado que les eyecciones de masa coronal tienen un efecto importante sobre los satélites artificiales, tendiendo a interrumpir las señales de comunicación con los centros de operación. Ejemplos de eyección de masa coronal se muestran en los siguientes videos, captados por los observatorios SOHO y SDA de la NASA. En el primero se aprecia la magnitud de un evento de eyección, y en el segundo, cómo se comportan los arcos magnéticos involucrados en un evento distinto, también de eyección:




Es de esperarse que en las regiones del Sol donde ocurren las eyecciones exista un elevado magnetismo. Y de hecho, en algunas regiones el magnetismo es tan elevado que puede interrumpir el ciclo de convección solar (a través de un fenómeno conocido como corrientes de Eddy, o de Foucault, explicado en este link), provocando que el gas recién calentado en el interior no llegue a la superficie. En estas regiones el gas está más frío, y la superficie se oscurece (a mayor temperatura, un objeto radiante emite más radiación, y por tanto, más luz). Aquellas regiones oscuras son las manchas solares. Las manchas no tienen en sí mismas un efecto directo sobre la Tierra, pero las expulsiones de materia y energía que acompañan al intenso magnetismo sí lo tienen.

El Sol no siempre tiene el mismo número de manchas solares; éste fluctúa entre cientos y prácticamente ninguna a lo largo de un ciclo de 11 años. El ciclo de manchas solares está a su vez asociado al ciclo magnético del Sol, en el que el la carga magnética de los polos norte y sur del Sol se revierte cada 11 años. La reversión ocurre en los períodos de máxima presencia de manchas solares, y se piensa que está causada por una interacción entre las manchas y los polos. Gracias a la regularidad con la que se han observado y registrado las manchas solares (prácticamente, desde los tiempos de Galileo), ahora sabemos que las tormentas solares tienden a presentarse con mayor frecuencia en períodos con máxima presencia de manchas. Incluso, han habido ciertas asociaciones climáticas. Entre 1645 y 1715 el número de manchas solares fue prácticamente nulo, como si se tratara de una interrupción en el ciclo; a este período particular se le denomina el Mínimo de Maunder. Alrededor de ese tiempo también ocurrió la Pequeña Edad del Hielo, en la que hubo varios eventos regionales de descenso, en magnitud de 1 a 8 ºC, de la temperatura ambiental en todo el mundo. Algunos investigadores han propuesto el Mínimo de Maunder como un posible factor que incentivó la llegada de la Pequeña Edad del Hielo.

A pesar de que se conoce acerca de un patrón en la formación de manchas solares, y posibles asociaciones con eventos terrestres, y la naturaleza de las mismas, no se conoce con exactitud qué es lo que determina que en un lugar en particular del Sol existan las interacciones magnéticas que den lugar a las manchas solares. Pero en los últimos años han surgido nuevas aproximaciones al fenómeno que hacen uso de técnicas muy novedosas de observación astronómica.

Escrito por: Carlos Antonio Rodríguez

lunes, 2 de mayo de 2011

Planeta Humano - BBC

Finalmente!, The Human Planet, el proyecto de la BBC que sigue la línea de Planet Earth y Life, ha sido lanzado en formato DVD y Blue-Ray. Las cadenas de televisión Discovery Channel y BBC ya contemplan la serie en su programación.

The Human Planet realiza una exploración a las estrategias de supervivencia que ha permitido que la especie humana colonice tan diversos hábitats sobre la Tierra. A través de ocho capítulos, el espectador es transportado a través de océanos, desiertos, regiones polares, selvas tropicales, montañas, savanas, ríos y ciudades modernas en todos los continentes. En la web circulan varias escenas destacadas de la serie, entre las que se incluyen la cetrería de águilas reales en los himalayas, el enfrentamiento de tres hombres contra 15 leones hambrientos para robar la presa de los felinos, tomas áreas de tribus no contactadas en Brazil, la cosecha de almejas de los Kangiqsujuaq en cuevas árticas bajo amenaza de quedar atrapados en la marea, entre otras. Aquí, una pequeña muestra en el trailer de la serie:



Al igual que en anteriores mega-producciones de la BBC, esta serie contó con varios equipos de filmación, profesionales de élite, equipos del alta tecnología y misiones en todos los continentes del mundo (en total, 80 localidades visitadas). Sin embargo, a diferencia de otros documentales, no es narrado por David Attenborough; en su lugar, fue el actor John Hurt (1984, Harry Potter and the Deathly Hollows, V for Vendetta, Alien) quien se encargó, y al parecer, según la crítica, lo hizo muy bien. La música es de Nitin Sawhney (en lugar del convencional, George Fenton). Y la dirección fotográfica, del aclamado Timothy Allen.

En los próximos días esperamos observar esta fascinante obra, luego de lo cual publicaremos una revisión más detallada.

Escrito por: Carlos Antonio Rodríguez

viernes, 15 de abril de 2011

¿Conservador o liberal?, ¿Estamos biológicamente predispuestos?

▲ Los cerebros de liberales y conservadores tienden a ser distintos en el tamaño de dos de sus regiones. En los liberales, izquierda, el gyrus cingulado anterior es más grande, mientras que en conservadores, derecha, la amígdala es más grande. Esto puede tener importantes implicaciones psicológicas. Imagen: Kanai y colaboradores, 2011, Current Biology, 21 (26 abril 2011).


La siguiente noticia me pareció en un inicio un tanto inverosímil, otro intento más de sacar conclusiones hiperbólicas propagandistas en base a escasa evidencia científica. Pero revisándola bien, es coherente y podría tener mucho sentido.

A inicios de este mes, Ryota Kanai, investigador del University College London, y sus colegas publicaron en línea, en la revista Current Biology, un estudio impactante en el que se describieron notables diferencias entre los cerebros de pacientes con afiliaciones políticas conservadoras, y aquellos con afiliaciones liberales. Éstas residen principalmente en dos áreas, el girus cingulado anterior, más grande en liberales, y la amígdala derecha (no la de la garganta, la del cerebro), más grande en conservadores. El estudio se basó en exámenes de MRI estructural, a través del cual se midió el volúmen de materia gris en las áreas mencionadas, en contraste a los fMRI's, que miden la activación de un área determinada ante cierto estímulo.

En estudios psicológicos previos se observó que hay notables diferencias de comportamiento entre liberales y conservadores, sobre todo en situaciones conflictivas (talvez esto no resulte nada sorprendente). Los conservadores tienen a mostrar mayor sensibilidad frente a emociones negativas, mientras que los liberales son más tolerables frente a situaciones de incertidumbre. De acuerdo con Kanai, y colaboradores, los exámenes neurológicos estarían corroborando aquello. La amígdala es una estructura que se activa en situaciones de temor, mientras que el gyrus cingulado anterior está relacionado con la toma de desiciones ante lo incierto y lo conflictivo.

Sin embargo, a pesar de lo sorprendente del hallazgo, no hay una regla exacta que permitiría predecir la adopción política de una persona a través de un simple escaneo a su cerebro, como casi todo en comportamiento y neurología. El estudio mostró que hay un amplio rango de sobrelapamiento entre ambos grupos respecto al tamaño relativo de estas áreas cerebrales, y que cualquier predicción tendría un porcentaje de éxito de sólo 75%. Además, a pesar de que la explicación psicológica que se dio acerca de las implicaciones funcionales de las diferencias entre estas áreas podría sonar muy lógica y probable, hay que recordar que éstas mismas áreas están implicadas en una gran variedad de funciones, y muy apresurado sería el sacar cualquier conclusión a partir de los datos obtenidos en el estudio. Con los datos obtenidos tampoco se puede comprobar si es la esturctura cerebral la que determina el comportamiento, o al revés.

De todas formas, el estudio nos muestra que tendencias comportamentales como la afilicación política pueden tener una base neurológica rastreable. No es nada descabellado después de todo, al final es bien conocido que las reacciones de miembros de cada lado pueden parecer estereotipadas, y muchas veces esas actitudes están profundamente enraizadas en el ámbito emocional de la persona. Las neurociencias nos han demostrado, a través de una multitud de estudios, que es posible rastrear el asentamiento de diversas emociones en el cerebro. Y así mismo, como la experiencia nos lo muestra, aunque exista una tendencia marcada, no se puede asegurar con exactitud cómo es la psicología de una persona sólamente conociendo su afiliación política.

Fuente: ScienceNow, Current Biology

Escrito por: Carlos Antonio Rodríguez

Resistencia bacteriana a los antibióticos


Por: Daniel A. Romero-Álvarez
Twitter: @Vakdaro


Una de las experiencias tangibles que vivimos día a día y que es prueba fehaciente de los mecanismos de la evolución, es la lid que se desarrolla en cuanto a infecciones se refiere. Las bacterias son las responsables de muchas de estas y antes del descubrimiento de la penicilina en 1928 el ser humano tenía todas las de perder.

Alexander Fleming desarrolló la primer arma en contra de los gérmenes, la historia es harto conocida: analizando muestras contaminadas de su laboratorio observó que las que estaban contaminadas inhibían el crecimiento "normal" de los organismos cultivados en las cajas petri; al aislar el agente contaminante observó que el responsable, el hongo Penicillinum notatum, podía destruir las bacterias. Con el advenimiento de la Segunda Guerra Mundial y la comercialización generalizada de la penicilina, desde 1943, la penicilina probó ser la pócima definitiva de la medicina...pero en 1947 empezaron los problemas; y la razón de lo que sucedió en ese entonces es lo que pasa ahora mismo en cualquier lugar del mundo en el que participen humanos, gérmenes y antibióticos.

Siendo seres vivos, las bacterias son organismos dinámicos y, como tales, están sometidos a las reglas que impone la evolución de las especies. Su material genético, posee determinado rango de mutaciones que le confieren “per se” cierto fenotipo de resistencia. Al administrar un tratamiento antimicrobiano sin sentido acabamos con la población bacteriana que no posee este fenotipo, eliminamos la competencia, y permitimos que las cepas resistentes puedan proliferar libremente para formar una nueva población que es inmune al tratamiento.

Aquí se observa un medio de cultivo bacteriano que lleva el nombre genérico de antibiograma. Las pastillas blancas representan determinado tipo de antibiótico, los halos trasparentes representan la susceptibilidad del organismo al mismo: más grandes, más susceptibles
En el caso del Estafilococo aureus (el microbio de las cajas petri de Fleming) la penicilina ejerce su acción bactericida inhibiendo la formación de su pared celular para lo cual se adhiere a los receptores de penicilina de dicha pared (proteínas ligadoras de penicilna, PBP en ingles); aquellas bacterias que tenían menor afinidad para esta adherencia se seleccionaron naturalmente para formar toda una población sin afinidad por la penicilina. Más tarde, los estafilos optimizaron su arsenal en nuestra contra con el desarrollo de enzimas capaces de lisar la penicilina (penicilinasas) asegurando más puntos para su defensa. Prestos los investigadores desarrollaron inhibidores de estas penicilinasas (sulbactam, ácido clavulánico) con lo que se recuperó algo del terreno perdido. Siendo las precursoras, el núcleo químico de las penicilinas (ácido 6 amino penicilánico + anillo beta lactámico) fue el sustrato para toda una serie de antibióticos: las aminopenicilinas, los carbapenémicos, los monobactámicos; sin embargo, cada uno de estos, a la larga, ha encontrado su respectivo némesis bacteriano.

Conforme se desarrollaban otros grupos de antibióticos, las bacterias evolucionaban sus armas de defensa particulares. La eritromicina, por ejemplo, actúa inhibiendo la formación de proteínas bacterianas al comprometer el funcionamiento de sus ribosomas; el estreptococo pneumoniae hace de las suyas con proteínas capaces de expulsar el medicamento fuera de su citoplasma con lo que inhibe su mecanismo de acción.

Mecanismos de resistencia bacteriana: Rojo.- Enzimas que degradan el ATB (penicinilasas); Gris.- Bombas que eliminan el ATB; Amarillo.- Plásmido de adquisición de resistencia. ATB = antibiótico

Además de las características mencionadas, una situación particular que permite el desarrollo de resistencia es el hecho de que las bacterias pueden realizar “adquisiciones genómicas” a través de, por ejemplo, plásmidos: paquetes de genes que se encuentran en el medio extracelular. Este medio es sumamente importante ya que la capacidad de resistencia genética de una especie de bacteria puede migrar hacia otra especie convirtiendo a bacterias inocuas en multiresistentes. Es lo que ha sucedido por ejemplo con bacterias como Escherichia coli, que cuenta con cepas que han incorporado en su genoma algunos de los segmentos genéticos implicados en la formación de carbapenemasas.

En los últimos años, nuestro país también ha estado seriamente involucrado en esta cruzada. La Dra. Jeannete Zurita, cofundadora y coordinadora de la Red Nacional de Vigilancia de Resistencia Bacteriana en Ecuador (REDNARBEC) encabeza la investigación en cuanto a microorganismos resistentes en el país. El día de ayer el Quinto Pilar asistió a una charla sobre esta cuestión con información un tanto alarmante. Desde el 2003 se encuentran circulando en el país bacterias con genotipo BLEE: beta lactamasas de espectro extendido por sus siglas en inglés, estas presentan enzimas capaces de lisar a penicilinas, cefalosporinas y monobactámicos...lo que deja a los carbapenémicos como el último arsenal antibiótico...ahora, en el mes de Octubre del año anterior, en Azogues - Cañar, se aisló una Klebsiella pneumoniae productora de carbapenemasas (tipo KPC-2) con la gran habilidad de lisar estos últimos, y no es la única, la resistencia a carbapenémicos por parte Pseudomona aereuginosa en nuestro país es mayor del 40%. El aumento de resistencia por parte de Escherichia coli (>60% de cepas) a ciprofloxacina (antibiótico que inhibe la girasa del DNA y por tanto daña el DNA bacteriano) en infecciones inocuas de las vías urinarias ha llevado a la suspensión de este medicamento al tratar esta patología.

Uno de los datos más interesantes que se topó en la charla es aquel que corresponde a los nuevos antibióticos. Dado que son desarrollados por empresas extranjeras, cumplen la función de solucionar problemas extranjeros. Enterococo faecium y Estafilococo aureus son los más importantes patógenos en EE.UU y otros sitios del mundo pues paulatinamente han desarrollado resistencia a vancomicina, nuestra última carta de defensa. Así que los nuevos fármacos desarrollados: daptomicina, linezolid, tygeciclina, quinupristin-dalfopristin, etc, están enfocados en atacar estas bacterias que en países latinoamericanos tienen una menor relevancia clínica comparado con bacterias como Escherichia coli, klebsiella penumoniae, pseudomona aeruginosa, etc; cuyas tasas de resistencia y patogenia son más elevadas y para las cuales no se investiga nuevos agentes terapéuticos.

Somos nosotros uno de los grandes culpables en esta orquesta. Cuando estamos resfriados (secreción nasal, estornudos, malestar general, etc) acudimos enseguida a una farmacia donde se nos entregan 5 tabletas de, digamos, azitromicina sin ni siquiera habernos examinado. Llegamos a casa, tomamos una, otra y al sentirnos mejor dejamos ahí el resto de medicación, “para otra ocasión”. Aquí hay dos errores garrafales:
1. La mayoría de infecciones respiratorias son de origen viral, mismas que tienen un carácter autolimitado, es decir, tienen una resolución que solo amerita tratamiento sintomatológico. Los antibióticos son medicamentos usados contra las bacterias, no son ANTIVIRALES.
2. El tratamiento usual de azitromicina es de 5 días, al tomar solo tres días estamos predisponiendo el desarrollo de cepas resistentes.
3. Existe otro error, el farmacéutico no es médico, existen criterios clínicos estrictos para determinar cuando una enfermedad respiratoria amerita o no el uso de antibióticos, no se prescriben de rutina.

Para la época en que Alexander Feming hizo su gran descubrimiento, la evolución por vías de la selección natural era aceptada con creces; observando la distribución indiscriminada de la penicilina recalcó:

“La gran capacidad de maldad en la automedicación es el uso de muy pequeñas dosis, así, en vez de curar la infección, los microbios son educados a resistir la penicilina (…) En este caso, aquella persona, sin cuidado, jugando con el tratamiento de penicilina, es moralmente responsable por la muerte del hombre que finalmente sucumbirá a la infección con el organismo resistente a la penicilina. Espero que este mal pueda ser advertido…”

lunes, 21 de febrero de 2011

Ecuatorianos inmunes al cáncer y la diabetes


La semana pasada hubo un acontecimiento de trascendental importancia para la ciencia ecuatoriana, cuando en la prestigiosa revista Science Translational Medicine de la AAAS- los mismos de la tan aclamada Science- se publicó un artículo liderado por el científico Jaime Guevara-Aguirre acerca de la resistencia al cáncer y la diabetes que algunos ecuatorianos parecen tener. Los resultados son tan alentadores que incluso se ha mencionado la posibilidad de desarrollar fármacos para el tratamiento del cáncer y la diabetes utilizando el mismo principio que mantiene resistente a esta gente. El estudio recibió asistencia en el aspecto de biología molecular por parte de científicos norteamericanos, confirmando con éxito algunas sospechas que se tenían acerca de cómo funciona el mecanismo de resistencia.

Los sujetos monitoreados por Guevara-Aguirre fueron 99 personas con síndrome de Laron, un tipo de enamismo muy raro, encontrado sólo en tal vez 300 personas en todo el mundo. Durante 24 años Guevara-Aguirre recogió datos acerca del estado de salud de sus pacientes, particularmente respecto al cáncer y la diabetes. Simultáneamente, Guevara-Aguirre obtuvo datos de mortalidad de los familiares de estas personas que no portaban el síndrome; el 17% de ellos padecieron de cáncer, y un 5% de diabetes. Ningún paciente con Laron murió con ninguna de las dos enfermedades (uno se enfermó con cáncer, pero fue curado con la remoción quirúrgica del tumor). Sin embargo, los índices de mortalidad frente a otros trastornos, como los ataques cardíacos, permanecieron inalterables.

¿Cómo funciona el cáncer?

El cáncer se manifiesta como una proliferación descontrolada de células en el cuerpo (no del todo caótica, los tumores son capaces de inducir el crecimiento de vasos sanguíneos para nutrirse y seguir creciendo). Eventualmente, los tumores malignos invaden tejidos sanos y provocan trastornos en el desempeño fisiológico normal del cuerpo; como no es posible por medios naturales frenar esta proliferación, sin un tratamiento médico las consecuencias pueden ser fatales.

Se sabe que el cáncer tiene un fuerte componente hereditario; pero si algo es capaz de matarte ¿Cómo ha logrado ser capaz de transmitirse a otras generaciones? La respuesta yace en el hecho de que muchas formas de cáncer suelen manifestarse después de que un individuo ha tenido la oportunidad para reproducirse, y pasar los genes malignos a las siguientes generaciones. Uno de los tantos genes para el que existen mutaciones de este tipo es el IGF-1 (que codifica para el Factor Insulínico de Crecimiento 1, por sus siglas en inglés), el cual es muy importante para controlar el crecimiento de los tejidos. Se han descrito casos clínicos de formas mutantes de IGF-1 relacionadas a ciertos tipos de cáncer. Pero más sorprendente aún es que en organismos usados en experimentos genéticos, como los ratones o las levaduras, cuando se suprime la actividad de este gen, o su equivalente, desarrollan resistencia a enfermedades degenerativas, incluido el cáncer y la diabetes, y prolongan su tiempo de vida. Es como si este gen aún en su forma normal provocara una tendencia al aumento de formaciones malignas. Sin embargo, los efectos de su deficiencia en humanos no han podido ser estudiados experimentalmente, por las obvias implicaciones éticas, y en tal caso los científicos deben esperar a encontrar casos clínicos para estudiarlos.

IGF-1, el producto del gen IGF-1 (nótese la cursiva, que designa al gen, y la letra regular, que designa al producto proteico codificado por ese gen), puede estimular el crecimiento aumentando la tasa de división celular o reduciendo la tasa de muerte celular programada (apoptosis). La apoptosis es un proceso necesario para la vida, sin ella nuestros dedos seguirían unidos con una membrana, como en los patos; nuestros párpados permanecerían cerrados; nuestro cerebro desperdiciaría recursos en alimentar neuronas innecesarias y células infectadas con algún patógeno seguirían rondando en el organismo amenazando con difundir la infección. IGF-1, como toda molécula señalizadora en el organismo, forma parte de una complejísima red de interacción entre señales químicas, activándolas o desactivándolas y a la vez siendo activada o desactivada por otras. IGF-1 también tiene sus antagonistas, como por ejemplo las moléculas que promueven la apoptosis. Mientras se mantenga un balance adecuado de todas estas señales químicas, la vida prosigue con normalidad. Pero si hay un desbalance, la cosa se complica: en este caso, mayor actividad de IGF-1 podría resultar en una mayor proliferación de células, muchas de las cuales estarían mejor muertas para no interrumpir en los procesos fisiológicos normales; dependiendo de la seriedad del caso, esta proliferación podría ser difícil de frenar por otros elementos reguladores del organismo, lo cual es un paso importante, si bien no el único, en la formación de un tumor maligno.
El cáncer es una proliferación no controlada de células, que se manifiesta de forma visible como tumores malignos. En este ejemplo, se muestran distintas manifestaciones de metastasis (fase invasiva del cáncer) en un pulmón de ratón. La figura A corresponde a un pulmón saludable, las otras tienen metástasis. Imágen disponible en Wikimedia Commons; esta fotografía no corresponde al estudio de Guevara-Aguirre et al. y se la ha cargado en este blog con fines meramente ilustrativos.

Por otra parte, el cáncer también puede surgir por daños en el material genético adquiridos durante la vida del organismo. Si estos daños ocurren en áreas que controlan la proliferación celular, entonces se puede llegar a la formación de un tumor maligno. En esos estudios experimentales se encontró que de alguna forma la vía metabólica de IGF-1, y de otra molécula necesaria para activar a IGF-1, la hormona de crecimiento (GH, por sus siglas en inglés), dejan estragos como mutaciones precursoras de cáncer que tienden a ser más evidentes con la edad del organismo. ¿Hay alguna razón funcional para que ocurran estas mutaciones?, no necesariamente; de nuevo, aquellas mutaciones tienen efectos evidentes después de que el organismo ha tenido oportunidad de reproducirse, y en biología pocas cosas tienen un sentido funcional a partir de esa edad. En la naturaleza lo más importante, a fin de cuentas, es transmitir tus genes; una vez que lo haz logrado, ya no importa lo que te ocurra. Claro que hay teorías muy válidas acerca de un rol funcional del envejecimiento, pero ello se aplica a organismos altamente sociales, como nosotros, donde los individuos envejecen para dejar de reproducirse y así contribuir a criar a sus nietos. Pero ese no es el caso de varias de las especies en los que se ha estudiado este efecto mutagénico de la vía IGF-1/GH, y probablemente sólo se trate de un efecto secundario.

¿Por qué la gente con síndrome de Laron es resistente al cáncer?

La gente con este síndrome tiene una mutación que daña al Receptor de la Hormona de Crecimiento (GHR, por sus siglas en inglés). Por lo tanto, la actividad de la hormona de crecimiento y del factor insulínico de crecimiento disminuye. De esta forma aumenta la tasa de apoptosis, y con ello disminuye cualquier intento de proliferación celular (esto también explica en parte el enanismo de quienes portan el síndrome), y además se disminuyen los efectos mutagénicos asociados con esta vía metabólica.

Pero el estudio no se quedó solamente en las estadísticas clínicas. Guevara-Aguirre contactó a Valter Longo, un científico que trabaja en varios centros de investigación de biología molecular y cáncer en California. Longo dirigió una serie de ensayos con el suero de la sangre de los pacientes con Laron. Longo colocó un grupo de células en el suero de pacientes con Laron y otro grupo de células, del mismo cultivo, en suero extraído de personas sin el síndrome. Las células presentaron menor daño cromosómico y de ADN en el suero de Laron después de algunos tratamientos con peróxido de hidrógeno (sustancia mutagénica en altas dosis). Así mismo se observó que la actividad de genes apoptóticos incrementó en el suero de pacientes con Laron. Si al mismo suero de pacientes de Laron se aumentaba la concentración de IGF-1, el daño celular también iba en aumento.

Este es el primer hallazgo con datos tan contundentes que confirman el rol de IGF-1 y GH en el desarrollo de cáncer en seres humanos, algo que ya se sabía para otras especies. En el artículo de Science Translational Medicine se propone que se dirijan esfuerzos de investiación a desarrollar fármacos que bloqueen el GHR, y que por lo tanto ayuden a disminuir la actividad de IGF-1 en pacientes con cáncer, diabetes y otras enfermedades degenerativas.

¿Qué ocurre con la diabetes?

El IGF-1 tiene una estructura molecular muy parecida a la de la insulina, y por ello puede interactuar con su vía metabólica. Reducidos niveles de IGF-1 provocan una disminución de la concentración de insulina en la sangre. Debido a esto los receptores de insulina tienen que adaptarse y volverse más sensibles a la insulina. En los estudios sanguíneos que se efectuaron a pacientes con Laron se hizo una prueba denominada HOMA-IR, que justamente mide la resistencia de los receptores de insulina; los científicos encontraron niveles bajos de resistencia en estos pacientes relacionados a bajos niveles de insulina, en promedio la tercera parte de lo que se consideraría normal en un paciente sano. Este aumento a la sensibilidad de insulina es lo que puede provocar la resistencia a la diabetes; a fin de cuentas, para que la vía metabólica de la insulina funcione debe aumentar la concentración de insulina, que es un tratamiento típico en pacientes con diabetes, o la sensibilidad de las células a la acción de esta hormona, y el efecto final tiende a ser el mismo.

Las interacciones químicas de las vías metabólicas suelen ser muy complejas. Pero todas tienen algo en común, inician con una señal simple; en este caso, la insulina necesita unirse a un receptor en la membrana celular (parte superior del diagrama) para desencadenar todo el proceso. El éxito de la progresión en esta vía suele estar asociado a la concentración de la señal química (ej. insulina) o la sensibilidad de su receptor.

Acerca de la gente con el síndrome

Al parecer, estas personas viven en localidades remotas en la parte sur de la Sierra ecuatoriana. Son descendientes de judíos que escaparon de la inquisición de España y Portugal. En un recorrido que hice personalmente por las montañas de Sabanilla en el extremo sur del país recuerdo haber visto mucha gente allí que tenían facciones muy europeas (tez blanca, ojos verdes, pelo rubio). Preguntando a los locales me respondieron que eran descendientes de judíos que no tuvieron mucho contacto con los indígenas, y por lo tanto hubo poco mestizaje. Tal vez la gente con Laron habitaba cerca de ahí. Por cierto, si hubo poco mestizaje significa que probablemente esta gente tuvo muchas relaciones consanguíneas, y ello explicaría por qué hay tantas personas con esta enfermedad tan rara.

Una pregunta intrigante acerca de la gente con Laron, planteada en base a observaciones de animales con deficiencia de IGF-1 y GH, es, ¿Son más longevos que otras personas? Lo irónico es que no ha sido posible hallar una buena respuesta porque la gente con este síndrome, por sus condiciones sociales de vida, suelen sufrir muchos trastornos por alcoholismo, desórdenes convulsivos y accidentes; de esta forma, su promedio de vida es muy similar al de otras personas que viven en los alrededores. Sin embargo, deficiencias de IGF-1 sí podrían estar relacionadas con la prolongación de la vida en otros pueblos, como es el caso de los Ashkenazi en Europa, quienes coincidencialmente también descienden de judíos y llegan a contar con muchos miembros centenarios.

Es muy alentador que en Ecuador se haya arrojado luz acerca de este tema; definitivamente será un fuerte estímulo para el desarrollo de futuras investigaciones.

Imágenes sobre los pacientes estudiados pueden ser vistas en:


Escrito por: Carlos Antonio Rodríguez (bio.carodrgz@gmail.com)

miércoles, 9 de febrero de 2011

La búsqueda de Dios en la ciencia


Pienso que una de las mejores frases que describen a fondo el motivo por el que se hace ciencia fue pronunciada por Richard Feynman, el mismo Feynman que nos legó sus diagramas para describir los infinitos caminos que una partícula subatómica puede tomar para llegar a su destino. "El placer de descubrir cómo funcionan las cosas", dijo él.

Es así de simple; pueden existir motivos más allá de eso, como encontrar un sentido a la vida o incluso buscar a Dios detrás del diseño de este mundo. Sin embargo, la experiencia nos ha mostrado que éste último no resulta ser un acercamiento adecuado. Constamente descubrimos facetas de la realidad muy extrañas a las que no estamos aconstrumbrados, donde la intuición empieza a perder su validez; nuestros conceptos de lo divino y sobrenatural también llegan a perder sentido cuando logramos comprender analíticamente los mecanismos de esa realidad. Los científicos descubren que el Universo está plagado de situaciones indiferentes al ser humano y a su plano emocional, y que la mejor forma de desentrañarlas es similar a cómo un niño desmantela un carro de juguete para entender cómo funcionan sus componentes (esto no quiere decir que los científicos sean personas carentes de emociones en el plano personal). Es por ello que muchos cosmólogos cuando son confrontados con el problema de Dios responden que simplemente es algo que no les atañe.

En el plano analítico, Dios encuentra su mayor contradicción por la idea de que es un ser infinito. En física, los objetos infinitos son considerados una aberración, y los científicos siempre intentan corregir sus ecuaciones o buscar explicaciones alternativas antes de aceptar que algo así existe en la realidad. Dios no está dentro del campo de lo inteligible. Dios descansa en el plano más afectivo de la persona.Pero nos llega la duda, si no lo podemos conocer, ¿Cómo es que pensamos en él?, ¿Por qué tenemos una idea de lo que es él?

No importa el concepto que se presente a un creyente sobre la realidad, siempre habrá una forma en la que intente conciliarla con la fe. Es por ello que tratan de manejar un modelo dual del Universo, donde la materia se desenvuelve independientemente del espíritu (muy similar al panorama que presentó Descartes para conciliar los descubrimientos en astronomía del siglo XVII con la doctrina espiritual de la Iglesia; una idea que también fue fruto de algunos de los ejercicios mentales más interesantes que ha desarrollado la filosofía). En estos casos, la única prueba invocada para la existencia de esta dimensión "incorruptible" es la fe.

Pero hay una razón detrás de la fe; hay algo que motiva a la gente a tenerla, un patrón general. Ese algo no atañe a la insaciable curiosidad por conocer cómo fue el origen de todo, porque como vimos la gente se las puede arreglar para seguir portando su fe a pesar de que la evidencia muestra que la participación de un ser divino no es necesaria para la evolución del Universo. Lo que realmente importa a la gente es la conexión que el ser humano pueda tener con esa entidad trascendental. En definitiva, la razón detrás de esto es que el ser humano reconoce que tiene límites, que es mortal, y quiere sentirse seguro aferrándose a la idea de un creador que lo acogerá después de esta vida. Ello nos lleva a un cuestionamiento mayor al de la existencia de Dios; la verdadera pregunta que debemos hacernos es, ¿Necesitamos creer en Dios?

Hilar a fondo en el tema desde un punto de vista cosmológico me parece que es una pérdida de tiempo. Pero a pesar de ello, el debate continúa en los mayores círculos intelectuales. En los últimos meses se ha atizado el fuego con la publicación del último libro de Stephen Hawking, en colaboración con Leonard Mlodinow, ¨El Gran Diseño¨. Hawking se ampara en el tema de las fluctuaciones cuánticas y la teoría M para decirnos que este Universo no es nada especial, en la misma forma en que Copérnico y Galileo nos desplazaron de un lugar central en el Universo y Darwin de uno en la naturaleza y el conjunto de lo vivo. Hawking ya expuso el tema de un Universo primiginio sometido a las leyes de la mecánica cuántica en su célebre "Historia del Universo"; la teoría M, sin embargo, es algo nuevo. Es muy controversial que Hawking se haya apoyado en una teoría cuya naturaleza no es bien conocida y que no ha sido comprobada experimentalmente. La teoría M es muy elegante, y por mucho la mejor candidata a teoría del todo en la física; pero supone la existencia de unas entidades denominadas "supercuerdas" que para observarlas directamente se necesitaría un reactor del tamaño de la galaxia. Todavía se está a la espera de obtener pruebas indirectas de su existencia, y en eso el LHC (Gran Colisionador de Hadrones) será de vital importancia. Y como la visión del origen del Universo según Hawking, hay muchas otras, y a la final caen dentro de un plano todavía muy especulativo en ciencia. Incluso existen otras interpretaciones también basadas en teoría de cuerdas acerca de lo que ocurrió antes del Big-Bang. De todas formas, Hawking tiene un punto válido que defender.

La Teoría M describe en términos matemáticos cómo unas entidades denominadas supercuerdas componen toda la materia del Universo y generan su fuerzas fundamentales. Es un modelo bastante elegante de la realidad, y la mejor candidata en física a la teoría del todo. Sin embargo, hay muchas limitaciones tecnológicas que no permiten corroborar experimentalmente la existencia de las supercuerdas.

En los últimos años se ha visto una revitalización del movimiento creacionista en países como Estados Unidos e Inglaterra, quienes no aceptan la idea de una realidad en la que Dios no haya sido partícipe. Son también los proponentes del diseño inteligen, una idea pseudocientífica que la logrado permearse en la educación e investigación en altos círculos (apoyado por gente poderosa que ha llegado a influenciar en la política gubernamental). El diseño inteligente tiene como premisa que hay muchos patrones en la naturaleza que son muy complejos o hermosos para haber surgido espontáneamente, y necesitan de un diseñador. Encuentran vacíos en el conocimiento de la realidad y pretenden suplantarlos reforzando la idea de una intervención especial, hasta considerando innecesaria la inversión en esfuerzos de investigación que pretendan probar lo contrario. Esto ha causado irritación entre muchos científicos que tienen respuestas válidas a preguntas que se plantean los adeptos del diseño inteligente, cómo de dónde surgió el ojo humano o el flagelo de una bacteria, sin la necesidad de recurrir a este diseñador. Además, una pregunta que no han logrado responder los miembros de este movimiento es ¿Quién es el diseñador?; han aludido a que no necesariamente están hablando de un diseñador divino (intentando ocultar su apego al creacionismo), pero en tal caso el diseñador también sería una entidad compleja y por tanto, ¿Quién diseñó al diseñador?. No es que sea imposible que la vida en sus inicios haya "fabricada" por alguna civilización extraterrestre; es sólo que con los datos que contamos actualmente es innecesario invocar esta posibilidad, y el hacerlo sólo provoca que el modelo que se tiene del origen de la vida aumente en complejidad.

En los últimos años ha habido un surgimiento alarmante del movimiento creacionista, influenciando en investigación científica y educación. Una variante del mismo (Diseño inteligente) propone que la vida es muy compleja como para que haya surgido espontáneamente, y que se necesita que alguien la haya diseñado. Hay muchas incógnitas que resolver frente a varios problemas en evolución, pero ciertamente la hipótesis de un diseñador no ayuda en nada; por el contrario, incrementa la complejidad del problema al añadirse la pregunta, ¿Quién diseñó al diseñador?

En su libro "Historia del tiempo", Hawking menciona el principio antrópico, según el cual cualquier modelo que se tenga acerca del origen del Universo debe ser compatible con el origen de la vida, porque de otra forma no sería una explicación sobre un Universo en el que nosotros vivimos. Esto fue malinterpretado por creacionistas, y el principio antrópico se convirtió, erroneamente, en un estandarte de su movimiento. Hawking tenía que ser claro en el asunto; el nunca mencionó en su libro que Dios fue necesario antes del Big-Bang, todo lo contrario, el ya menciona la idea de un Universo que puede surgir espontáneamente gracias a los principios de la mecánica cuántica. Hawking fue más explícito esta vez, talvez para evitar confusiones como la anterior, surgiendo de ello una enorme campaña publicitaria para su libro, con aclamación de ateos y agnósticos en todo el mundo, así como de líderes religiosos.

Pienso que es penoso que como sociedad global no hayamos aprendido todavía a observar el cosmos sin prejuicios; a simplemente maravillarnos por cómo funciona sin necesidad de buscar una respuesta espiritual o afectiva. A aceptar que hay cosas que todavía no conocemos de él, y explicaciones que necesitan ser refinadas; pero no por ello vamos a suplantarlas por una creencia más difícil de ser comprobada. Simplemente hay que aceptar que falta camino por recorrer. Es penoso no reconocer el verdadero plano en el que deben mantenerse estas discusiones sobre religión y Dios. Aprendamos a abrir la mente y ser más críticos sobre las evidencias que se nos presentan antes de aceptar algo como real, ni siquiera a hacer caso a una persona simplemente porque logró tener éxito en el pasado; a ver que nos falta un largo camino por recorrer para entender al Universo, pero que es también necesario saldar cuentas con nosotros mismos y analizar hasta qué punto nuestras creencias o prejuicios nos impedirán avanzar. Si bien alguien puede decir que es capaz de sostener una opinión indistintamente de lo que las evidencias indiquen, en la práctica siempre hay un punto en que si son obsoletas terminan convirtiéndose en un peso del que conviene despojarse. Es por ello que en estos tiempos las creencias de los antiguos griegos o egipcios, por más seductoras que sean, ya no son válidas.

Charles Darwin pasó tanto tiempo obsesionado con la idea de la Selección Natural que empezó a cuestionarse sobre su propia creencia en Dios. Darwin pensó que la religión puede ser considerada como otra forma de adaptación sujeta a las mismas leyes que gobiernan la supervivencia de los seres vivos. Su teoría representó en sí misma un fuerte ataque a la búsqueda de un propósito en la naturaleza; es muy poderosa y fácil de comprender. El filósofo Daniel Dennet la considera como una de las ideas más peligrosas contra la religión, capaz de provocar subversión entre sus seguidores.

Personalmente, pienso que el libro de Hawking y Mlodinow resultó ser muy especulativo. Creo que se justifica más como una reacción ante la distorsión de la información que produce el movimiento creacionista. Sin embargo, hay otros excelentes puntos de vista acerca de una realidad en la que no se necesita a Dios ni para comprenderla, ni para vivir a plenitud como ser humano. Termino esta entrada presentando una de mis favoritas. Se trata de una entrevista a Steven Weinberg, quien ganó el premio nobel por sus importantes contribuciones a la mecánica cuántica. Weinberg es famoso por haber particpado en la formulación de un modelo en el que se presenta a las tres fuerzas no gravitacionales como una sola poco después del Big-Bang; fue un esfuerzo notable en dirección a la unificación en la física. Weinberg es defensor de una búsqueda de conocimiento libre de prejuicios dogmáticos o independiente de cómo queremos que se comporte la realidad; algo esencial en investigación científica. Recomiendo mucho ver esta entrevista, tanto a creyentes como a escépticos. Espero que sea de su agrado.




La entrevista se divide en tres partes, las otras dos las pueden visualizar en Youtube a través de los siguientes links:



Escrito por: Carlos Antonio Rodríguez

PD: Gracias a quienes asistieron a ¿Quién diseñó al diseñador?. Fue una velada muy especial, con un debate productivo. Próximamente publicaremos grabaciones y fotografías del evento. Sigan pendientes de los eventos del Quinto Pilar, que desde ya estamos trabajando en eso!

domingo, 6 de febrero de 2011

Estamos trabajando por usted


En este momento estamos teniendo una aventura en los reinos donde la ciencia y la filosofía trazan sus fronteras, para que usted también se nos una.

No se olvide, este martes 8 de febrero, a las 19:00 en el Cafelibro (Quito, Ecuador).


ENTRADA LIBRE

miércoles, 12 de enero de 2011

¿Quién diseñó al diseñador?

¿Por qué existe un Universo?

¿Por qué hay algo en lugar de nada?

¿Por qué existimos?

¿Necesitó el Universo un creador o diseñador?


En septiembre del 2010 el reconocido cosmólogo Stephen Hawking y el astrofísico Leonard Mlodinow publicaron el libro "The Grand Design", en el que afirman que no se necesita de un Dios para explicar cómo surgió el Universo. De esta forma proponen la solución para una discusión que empezó hace varias décadas, cuando la teoría del Big-Bang ganó varios adeptos en el mundo de la ciencia: si todo empezó en una singularidad hace 13,7 millones de años, ¿Hubo algo antes de ese tiempo (una pregunta paradójica, puesto que no hubo tiempo antes del Big-Bang) que haya establecido las reglas del Universo?

Durante años se especuló sobre la posibilidad de que Dios fuera ese algo, actuando como el constructor de una máquina que al iniciarla fue capaz de echar a andar al Universo. Sin embargo, los autores del libro opinan que no necesariamente fue así; hacen uso de la elusiva teoría M (posiblemente la más apta para convertirse en la teoría del todo) y así explican que los posibles resultados del acontecimiento inicial ya estaban presentes desde antes, como un tipo de información virtual que no necesitó de un diseñador, y por lo tanto Dios nunca tuvo la opción de escoger cómo sería ese Universo. Se contentaría tan sólo con haber sido un mero espectador.



La obra fue aclamada por cosmólogos, físicos, agnósticos y ateos de todo el mundo, así como repudiada por clérigos y algunos otros científicos de renombre. Dawkins mencionó que "si bien la evolución ha descartado a Dios de la biología, los físicos todavía tenían su grado de incertidumbre; Hawking ha dado el golpe de gracia que aquí se necesitaba". Teólogos y religiosos criticaron al libro, aseverando que la ciencia no podrá comprobar la existencia de Dios, pero tampoco podrá probar su inexistencia. Y a pesar de que el asunto filosófico y religioso fue el que más recibió atención en los titulares, las implicaciones científicas también provocan una división de bandos entre expertos.

Todo este grado de controversia catapultó al libro a las primeras posiciones en las listas de bestsellers en tan sólo unas pocas semanas después. Y si bien su popularidad ha bajado, todavía hay quienes sienten que sobra tela por cortar. Un ejemplo de ello es el discurso del papa Benedicto XVI en el día de epifanía (6 de enero), cuando mencionó que "Dios estuvo detrás del Big-Bang, no importa lo que unos pocos científicos quieran hacernos creer".

En Ecuador el libro se vende ya desde hace algunos meses en su versión en español (¨El Gran Diseño¨). El impacto que causó también fue significativo, y se lo evidencia en la atención especial que le prestaron programas de radio y televisión a nivel nacional.

El Quinto Pilar ha decidido involucrarse en la discusión del tema, y para el efecto ha planificado una charla a ser presentada en el acogedor espacio del Cafelibro el martes 8 de febrero. La presentación llevará por título "¿Quién diseñó al diseñador?". Combinará un segmento de divulgación científica junto a un debate con participación del público.

Venga, y disfrute de un café mientras conversamos sobre algunos de los temas más trascendentales del Universo, en una velada indudablemente inolvidable. La entrada no tiene precio alguno.

Conferencia "¿Quién Diseñó al Diseñador?"
Expositores: Carlos Antonio Rodríguez, Daniel Romero, Roberto Vallejo; Sociedad de Divulgación Científica Quinto Pilar
Fecha: Martes, 8 de febrero de 2011
19:00
Lugar: Cafelibro, Gral. Leonidas Plaza N23-56, entre Ventimilla y Wilson.
Quito, Ecuador

ENTRADA LIBRE



Escrito por: Carlos Antonio Rodríguez



Noche de Observación

El confuso y siempre incierto clima de nuestra ciudad (causante de la proeza) en su lastre constante de azul y grises y sol y lluvia, se ha decidido por regalarnos una de esas noches en las que el cielo está tan cristalino como el agua de esas playas paradisiacas; en este caso, la playa de las estrellas…

Llegué a mi casa tarde y comencé a observar aproximadamente a las 21:30. Al oeste, los objetos que llamaban la atención por su luminosidad en el piélago negro eran la Luna y a su izquierda (es decir hacia el sur) Júpiter. Dadas las condiciones del lugar donde vivo, estos objetos estaban prestos a ocultarse, unos sin par maléficos gigantes (casas altas) iban a interrumpirme la visión por lo que su observación se convirtió en prioridad. Con toda su majestuosidad, el planeta más grande del sistema solar apenas se distingue como una bolita lisa brillante no “parpadeante” en el lente de mi telescopio, rodeado de otras bolitas pequeñas que, obviamente, giran a su alrededor y tampoco “parpadean”.

Esto de “parpadear” es la forma práctica de representar lo que pasa en el interior de las estrellas. La masa de estos objetos es tan grande que determina que las capas más internas de su estructura se peguen unas contra otras por acción de la gravedad, provocando, en último término, la fusión nuclear de sus componentes; para el caso de una estrella particular la fusión de dos núcleos de hidrógeno, esta reacción provoca una inmensa liberación de energía misma que es el combustible para la producción limitada de luz y calor de estos objetos.

La masa de los planetas, es mucho más pequeña que la de las estrellas, por eso en ellos no hay reacciones de fusión nuclear ni tampoco son capaces de dar luz ni calor; lo que permite que Júpiter pueda ser visto es que funciona como un espejo gigante: la luz del sol es reflejada por la superficie del planeta y, como su luz es tan solo un reflejo, no tiene esa cualidad de parpadear.

Las bolitas pequeñas que rodean a Júpiter son sus satélites, y sus nombres corresponden a los “encuentros furtivos” que Júpiter (el Zeus griego, padre de hombres y de dioses) se daba a espaldas de Hera (su legítima esposa) en la mitología griega: Calisto, Ganímides, Europa e Io (en orden de acuerdo a su posición esta noche); sus cuatro amantes principales le han acompañado por mucho tiempo, de hecho se llaman galileanos porque fue Galileo Galilei el primero en avistarlos con su telescopio. El hecho de que otros objetos rodearan a un planeta distinto a la Tierra fue uno de los argumentos importantes que utilizó Galileo contra la corriente Geocéntrica de su época (1610). Si bien son los más conocidos, cabe decir que son 63 los objetos que orbitan este planeta.


De la imagen cabe decir que el punto blanco más grande no corresponde a un satélite, es en realidad una estrella de la constelación de Piscis que esta noche rondaba por allí. El puntito apenas visible luego del Júpiter es el satélite Europa

Luego de que Júpiter se perdiera en el horizonte de casas, pasé a enfocar a la Luna. De nuestro querido satélite se pueden decir muchas cosas, hoy diré una de ellas: De las cosas más simbólicas que se descubre al mirar la Luna con un telescopio es la irregularidad de su superficie; en su parte inferior (que en un telescopio se mira como la parte superior porque debido a los lentes la imagen se invierte), hay un sinnúmero de cráteres y cada uno de los picos proyecta una sombra dependiendo de la dirección en la que reciba los rayos del sol (la Luna es otro de estos espejos espaciales, todo planeta y satélite lo es). Se cuenta que de pequeño, el Dalai Lama XIV al descubrir este paisaje pedregoso se dio cuenta de lo falso que le resultaban los cuentos de magia de la Luna, “es otra piedra” les dijo a sus maestros. Sharon Begley en su libro “Entrena tu mente cambia tu cerebro” (parece de autoayuda, es un mal título pero un excelente libro de divulgación científica) nos comenta que quizá esta experiencia y otras llevó al Dalai Lama a acercar tan profundamente budismo y ciencia.


Fotografía de algunos de los cráteres lunares.

Luego de ver a la Artemisa griega, pase a observar otro de los objetos hermosos a la vista: Las Pleiades, un conjunto de estrellas que tienen un significado muy peculiar, el tema está tratado en una publicación anterior del blog. Lo que yo les voy a comentar es que en esta ocasión su agrupación se me antojó como un signo de interrogación.


En internet la página www.skymaps.com, mensualmente pública un mapa del cielo nocturno con una sección específica que detalla que objetos se pueden observar a simple vista, con binoculares o con telescopio. De estos objetos esta noche, he podido observar un nuevo (porque no lo he visto antes) cluster de estrellas. Un cluster es, como la definición en inglés lo indica, una aglomeración de estrellas. A breves rasgos existen dos tipos principales de cluster, los abiertos y los cerrados, estas denominaciones indican si la distribución de las estrellas que lo conforman es centrifuga o centrípeta, características que dependen de la sumatoria total de la fuerza de gravedad ejercida por cada una de las estrellas que lo forman. El cluster que observé es el M44, muchos objetos estelares tienen el prefijo M por Messier; él era un astrónomo fanático de la observación de cometas, y como para ver cometas es necesario diferenciarlos de todo lo que no son cometas, hizo un catálogo de todos los objetos que podrían entorpecer su observación; este católogo se sigue usando hoy. El M44 es un cluster abierto muy simpático (también se lo llama el cluster de la colmena) que se encuentra entre las constelaciones de Géminis y Cáncer, esta última constelación zodiacal tiene la desdicha de no ser visible en un cielo con contaminación lumínica, esto me dificultó mucho encontrar al cluster ya que las estrellas de referencia para encontrar este objeto dependían de esta tenue constelación; sin embargo a fin de cuentas le pude observar.


Imagen con contaminación lumínica (ese anaranjado del fondo): Podemos observar que la constelación de cáncer no tiene ningún punto blanco, estos representan las estrellas visibles. La estrella de rojo, Altarf, es la más brillante de Cáncer, aún así, no la podemos ver...

Cluster M44 o de la colmena

Se pueden decir muchas cosas de cada uno de los objetos que están en el cielo de este mes, espero que Quito nos brinde otro de estos cielos para poder deslumbrarnos en el océano de la oscuridad.

Escrito por: Daniel Romero

Todas las imágenes son capturadas con el programa Starry Night Backyard a excepción de la imagen que muestra a la Luna irregular.

sábado, 8 de enero de 2011

El cielo se cayó en año nuevo

Los protagonistas:
Grajilla Euroasiática (Foto: Sergei Yeliseev)

Quíscalo Común (Foto: Matt McGillivray)

Estornino europeo (Foto: Kelly Colgan)
Tordo Cuco (Foto: Billtacular; flickr.com)

Tordo Alirrojo (Foto: Len Blumin; Flickr.com)


En los titulares de varios diarios del mundo se reportó la muerte súbita de más 5000 aves en Estados Unidos y Suecia. Sumado a ello también estuvo la de 100.000 peces en un río no muy lejano a la primera localidad donde se halló a las aves (Beebe, Arkansas). Los medios difundieron la opinión de muchos residentes, por lo que en los títulos resaltaban frases como "Apocalypse Now?", o "The sky is falling from Arkansas and Louisiana"; a pesar de que los expertos dicen que no es para alarmarse tanto. Y bueno, también me aproveché para el presente titular, pero aquí me voy a enfocar exclusivamente en lo que los especialistas han dicho apoyados en datos científicos. También es cierto que varios diarios que hicieron uso del recurso sensacionalista para los títulos también aportaron con opiniones críticas de expertos, y sin ellos no podría escribir una buena parte de este artículo.

Las víctimas

Primero veamos un poco acerca de cuáles fueron las especies afectadas. La información que presentaré a continuación es cortesía del proyecto All about birds, mantenido por la Universidad Cornell.

En Arkansas y Luisiana fueron 4 especies: el tordo alirrojo (Agelaius phoeniceus), el estornino europeo (Sturnus vulgaris), el quíscalo común (Quiscalus quiscula) y el tordo cuco (Molothrus ater). Las 4 son abundantes y comunes en todo Estados Unidos. El tordo alirrojo y el estornino, por ejemplo, tienen poblaciones cercanas a los 200 millones en norteamérica; y a las otra especie no es raro verlas en bandadas de más de 100.000 individuos. Incluso se han reportado grupos con 20 millones de integrantes. Por lo tanto, que hayan muerto los 5000 individuos en Arkansas, y 450 en Luisiana, no disminuyó ni el 1% la población de ninguna especie.

Para apreciar la magnitud de la abundancia de estas especies, aquí les dejo una muestra publicada en el Youtube de una bandada enorme compuesta principalmente por estorninos y también por varios individuos de las otras especies en Carolina del Sur:


Son especies que se han adaptado a vivir en ambientes alterados por el ser humano. En esta situación ecológica, típicamente la diversidad disminuye porque no todas las especies son capaces de adaptarse, pero las que lo logran tienen un campo amplio de recursos para explotar (eg. el tordo cuco frecuenta los extensos monocultivos de arroz). También puede ocurrir que los depredadores de estas especies hayan sido extirpados por el ser humano en una zona en particular. Como resultado las poblaciones tienden a crecer exorbitantemente y hasta llegan a convertirse en plagas.

En Suecia la especie afectada fue la grajilla euroasiática (Corvus monedula). Igualmente, ésta es una especie con una población estimada en millones (entre 21 y 90 millones, para ser más precisos) que se ha beneficiado del ser humano. Parece que no es un ave tan abundante como las otras; y de todas formas, sólo se encontraron 50 muertas.

La causa

Antes de explicar las posibles razones de la muerte de estas aves (aquí un pequeño aviso de cautela, hasta ahora los expertos sólo han podido dar resultados preliminares y todavía continúan los estudios), primero quisiera dar a conocer brevemente un caso de muerte masiva de aves que provocó una alerta generalizada, con mucha razón, en los Estados Unidos.

En 1999 se encontraron varios cuervos muertos en Nueva York. El suceso coincidió con un brote en Norteamérica de la epidemia del Virus del Nilo Occidental, el cual causa encefalitis y en algunos casos deja consecuencias fatales en las personas que lo contraen. La aves son buenos reservorios y en algunos casos, especialmente en la familia corvidae y passeridae, les produce alta mortandad. El virus en sí mismo es transmitido por un mosquito que pica a las aves, y luego a la persona que contrae la enfermedad. La epidemia promovió un estado de alerta generalizada, que dura hasta la actualidad. Es por ello que siempre se recomienda tener cierta cautela cuando se encuentran animales muertos en masa. Es por ello que se veían a personas en trajes especiales recogiendo los tordos en Arkansas.

Pero, ¿Qué tan frecuente son estas muertes en masa?, ¿Se deben todas a brotes epidémicos?. La muerte súbita de cantidad ingente de aves no es algo raro. Y puede ocurrir por diversas causas como golpes con edificios, malas condiciones atmosféricas (ej. lluvia con granizo), o porque son asustadas y vuelan despavoridas chocándose unas contra otras, etc., etc. Hay un artículo en el Quaterly Journal of Ornithology que cita una muerte masiva de hasta 750000 aves en 1904, debido a una combinación entre colisiones con edificios y un invierno muy frío.

La alta mortalidad natural en varias especies de animales, sea o no en masa, tampoco es raro. Es muy común de hecho. Pensemos en el clásico problema de Darwin y los elefantes; Charles Darwin decía que si los elefantes lograran sobrevivir de tal forma que todos sus descendientes alcanzaran la madurez y se dejaran descendencia, al mismo ritmo de reproducción que tienen en la realidad, el mundo estaría plagado de elefantes, lo cual no es así. La razón es que simplemente muchos individuos no llegan a vivir para ser maduros. En las aves, la mortalidad en individuos menores a un año de edad puede ser del 80% (les recomiendo caminar en los parques donde hayan palmas canarias y se fijen si hay tórtolas anidando, porque si las hay de seguro encontrarán huevos aplastados y muchos pichones muertos en el suelo). Y también está el efecto de las condiciones climáticas inusuales, que no solo afecta a los juveniles; yo mismo estudio una especie de colibrí que vive en páramos donde una fuerte helada nocturna puede matar a tantos individuos que un investigador encontró fácilmente en una mañana a 17 machos adultos congelados cerca al refugio del Volcán Cotopaxi.

A pesar de que tal vez el caso no amerite el estado de alerta que provocó, la curiosidad de un científico es insaciable por naturaleza. Si ya se corrió la voz sobre el fenómeno, pues exigimos una explicación!. Y he aquí un resumen del reporte preliminar de los expertos veterinarios:

  • Las aves tienen múltiples traumas en su cuerpo, principalmente en el pecho. Tienen evidencia de sangrado en la cavidad abdominal.
  • Las muertes se produjeron en año nuevo. Hay gente que afirma haber escuchado por la noche a muchas aves asustarse por los petardos.
  • No hay evidencia de una infección o que hayan sido envenenadas.
La explicación más obvia por el momento es que fueron asustadas por los fuegos pirotécnicos en Arkansas, volaron asustadas y chocaron entre ellas causándose golpes fatales. En Luisiana los investigadores dicen que fue por choques con cables de alta tensión.

Lo de Suecia, desconozco la causa; pero no me parece tan sorprendente por el bajo número de cuerpos encontrados. Lo que ahí ocurrió sí es algo que podría verse cualquier día.

El presidente de la Sociedad Audubon, un organismo prestigioso dedicado a la conservación de las aves en Estados Unidos, dijo que se están haciendo las investigaciones debidas sobre este hecho, pero a su parecer hay eventos más preocupantes desde el punto de vista de la conservación que no llaman la atención del público por no ser notorios a primera vista. Citó la disminución progresiva en las poblaciones de especies amenazadas de extinción. Monitoreos extensos a lo largo de varios años, como el conteo navideño Audubon (los conteos navideños realizados en Ecuador tuvieron su origen en los de Audubon, y de hecho, los datos son enviados para su análisis a esta sociedad), están confirmando esta alarmante tendencia.

En conclusión: no se va a caer el cielo por la muerte de unas "pocos" tordos aturdidos.

De todas formas, ya me atacó la curiosidad, y voy a hacerle un seguimiento (las razones apelan más a motivos más vocacionales, que tienen que ver con mi participación en la ornitología). Además, no soy muy adepto de quedarme resultados preliminares.

Nuestra propia muerte en masa!!

Ecuador también tiene sus fenómenos de mortalidad en masa (no podía esperarse menos de un país tan cargado de vida). Uno de los más famosos es el de los cuvivíes en Ozogoche y Atillo.

Cada año, alrededor del mes de septiembre, miles de aves mueren en Ozogoche (provincia del Chimborazo), de causas que todavía son desconocidas. Todas pertenecen a una misma especie, conocida por los locales como cuviví, por lo científicos como Bartramia longicauda. En los días subsecuentes la gente recolecta los cuerpos y con ellos organizan un festival donde se visten adornados con las aves y luego se las comen. Yo mismo conocí a un hombre que en un año recolectó 120 pájaros, y no era el único.

Esta especie es un ave migratoria que vuela desde Alaska hasta las pampas argentinas. El tiempo en el que mueren en las lagunas coincide justamente con el paso por Ecuador en su ruta de migración. Algo ocurre que termina matando a un buen número, peor aún así no llega al 1% de la población (estimada en 350000 individuos).

Esperemos que en los próximos meses conozcamos más sobre el fenómeno. Hasta entonces, les dejo con la inquietud.

Y qué hay de los peces??

Se dice que Confucio alguna vez comentó, "Lloramos por el lamento de un ave, más no por la sangre de los peces. Bendecidos aquellos que tienen voz". Bueno, tal vez la frase no sea realmente de él, se hizo famosa en la película Ghost in the Shell: Innocence. Además, Confucio también dijo "Si un pajarito te dice algo, debes estar loco, porque los pájaros no hablan". De todas formas, viene al caso perfectamente.

La verdad no he podido encontrar mayor información al respecto. Al parecer, el interés se ha volcado casi por completo a lo de las aves. Cuando tenga más datos, pondré una pequeña nota de actualización.

También pudo haber ocurrido que el caso de las aves haya atraído la atención de muchos reporteros hacia el tema de las muertes masivas en cualquier otro animal, algo que como ya mencioné no es tan raro. Por ejemplo, escuché recién que encontraron miles de cangrejos muertos en Asia en esta semana.

Escrito por: Carlos Antonio Rodríguez