sábado, 30 de mayo de 2009

LA ALTURA DE LAS GRANDES OLAS CAMBIA SEGÚN EL MES



Un equipo de investigadores de la Universidad de Cantabria ha desarrollado un modelo estadístico que permite estudiar la variabilidad de las olas extremas a lo largo del año, según publica la revista Coastal Engineering. El trabajo confirma la existencia de variaciones estacionales en las alturas de las olas que alcanzan las costas españolas, y destaca la importancia de estos datos para planificar la construcción de infraestructuras marítimas.

“Cualquier persona que observe las olas se da cuenta de que su altura no es igual en invierno que en verano, varía a lo largo del tiempo, y lo que hemos hecho es aplicar un modelo estadístico ‘no estacionario’ para cuantificar eventos extremos como estos”, explica a SINC Fernando J. Méndez, ingeniero del Instituto de Hidráulica Ambiental de la Universidad de Cantabria y coautor de un estudio publicado recientemente en la revista Coastal Engineering.

El nuevo modelo caracteriza “con mayor grado de confianza” el régimen extremo del oleaje, mediante el estudio de la ‘altura de ola significante’ (Hs) asociada a un determinado periodo de retorno. La Hs es la altura representativa del estado de mar que recogen las boyas (se calcula haciendo la media de un tercio de las olas más altas), y el periodo de retorno es el tiempo que tarda en suceder el evento por término medio.

Por ejemplo, si en un punto de la costa se establece una altura de ola de 15 metros con un periodo de retorno de 100 años, significa que, por término medio, una vez cada 100 años puede llegar una ola de 15 metros en ese punto. “Esto puede ser muy útil cuando se construye una plataforma petrolífera en el mar o una determinada infraestructura costera”, comenta Méndez.

Para demostrar la validez del modelo los investigadores han utilizado los datos registrados entre 1984 y 2003 por cinco boyas costeras situadas cerca de las ciudades de Bilbao (Vizcaya), Gijón (Asturias), A Coruña, Cádiz y Valencia. Los resultados muestran que los valores extremos de Hs varían dependiendo de la localidad y del mes del año.

El parte meteorológico de las olas extremas

Así, la variación estacional del oleaje en Bilbao y Gijón es parecida. Las olas no superan los cuatro metros entre mayo y septiembre, pero después la altura se incrementa hasta alcanzar los siete metros de media entre diciembre y enero. En A Coruña el periodo de grandes olas se prolonga de octubre a abril, por su situación occidental expuesta a temporales invernales más prolongados.

Por su lado, la costa atlántica de Cádiz refleja la calma característica de esa zona marina entre julio a septiembre, con valores de Hs inferiores a dos metros. Los datos de diciembre y enero, sin embargo, varían mucho de un año a otro y alcanzan alturas de ola superiores a los seis metros.

Y en la costa mediterránea de Valencia las olas se sitúan entre 3 y 3,5 metros desde septiembre hasta abril, aunque las gráficas reflejan dos picos durante ese periodo. Uno coincide con el inicio de la primavera y otro con los meses de otoño en los que se produce el fenómeno de la gota fría.

“Todos estos datos son de vital importancia en los ámbitos de la gestión costera, ya que definen el riesgo de inundación y son indispensables en el diseño de obras marítimas, como las infraestructuras que se construyen cerca de la costa”, señala Melisa Menéndez, otra de las autoras del estudio. Además ayudan a calcular la probabilidad de que ocurra un temporal marítimo.

La investigadora también destaca que esta información puede ser muy útil para entender mejor algunos procesos biológicos, como la distribución de animales marinos influenciados por el oleaje o el análisis de las tasas de crecimiento de las algas, y geológicos, como el transporte de partículas y sedimentos a lo largo de la costa.

Teoría de los Valores Extremos

El modelo desarrollado por los científicos españoles se basa en la ‘teoría de los valores extremos’, una disciplina estadística reciente con la finalidad de cuantificar el comportamiento al azar de los eventos extremos. Los últimos avances en este campo han permitido estudiar mejor la variabilidad climática a diversas escalas: dentro de un año (estacionalidad), durante años consecutivos o décadas (permiten deducir patrones climáticos) y a largo plazo (donde se marcan tendencias).

El estudio sobre las olas extremas es a escala estacional, pero el equipo también ha estudiado los valores extremos del nivel del mar durante casi 100 años, gracias a los datos recogidos durante el siglo XX en un mareógrafo situado en Newlyn (Reino Unido). Los científicos ya han empezado a recabar información sobre valores extremos de oleaje y nivel del mar a escala global, en el marco de un proyecto de Naciones Unidas para estudiar los impactos del mar en las costas de todo el planeta y su influencia sobre el cambio climático.

Fuente: SINC

Etiquetas: ,

viernes, 29 de mayo de 2009

EL MOCO DE ROCA AMENAZA A LOS RÍOS LEONESES


Corren malos tiempos para la lírica y para los ríos leoneses.
El moco de roca, el alga invasora detectada a mediados del mes de mayo en las aguas del río Porma, es "bastante probable" que invada los lechos de otros cauces de la provincia de León en los próximos meses. Con esta previsión trabaja el equipo investigador de la Universidad de León que colabora con la Confederación Hidrográfica del Duero en la recogida de muestras y asesoramiento para evitar la expansión de esta especie, según informó uno de sus investigadores, Saúl Blanco. Los ríos que poseen mayores factores de riesgo de alojar a este alga, muy dañina para los ecosistemas locales, son los ríos de cabecera, como el Órbigo y el Torío.

El equipo investigador ha detectado la presencia de esta especie invasora, Didymosphenia geminata en su nombre científico, en 25 kilómetros, desde la central eléctrica de Los Molinos hasta Vegas del Condado. Esta zona incluye la desembocadura del afluente Curueño, cerca de la población de Ambasaguas. Desde que fue detectada por primera vez por un agente forestal el 9 de mayo, el alga, de la clase Diatomea (caracterizadas por ser unicelulares microscópicas), "ha infestado gran parte del río", según explicó Blanco. Esta circunstancia ha provocado que se haya prohibido la pesca en el cauce, ya que el hombre, a través de esta actividad recreativa, es el principal factor de dispersión de la especie invasora.

El conjunto de los ríos de la provincia de León está en una situación de riesgo, aunque son los grandes cauces (el Esla, el Luna, el Órbigo, fundamentalmente), los que están más expuestos para alojar a este incómodo huesped. Las alfombras que forma son muy reconocibles: poseen varios centímetros de grosor en los lechos y tiene un color parduzco o amarillento. Según los datos que maneja la CHD, este organismo no produce efectos negativos en la prepotabilidad de las aguas.

Biofilm

Posiblemente llegada a través de algún aparejo de pesca, en la quilla de algún bote o en las botas de un pescador, el alga forma una pequeña película en el lecho (denominada biofilm), que impide que la comunidad propia del río de invertebrados acceda a sus alimentos. De esta manera, la base de la cadena trófica queda dañada, lo que incide en los seres situados en otros escalones. El río Porma es el tercero cauce afectado por el alga en España, el tercero en Castilla y León tras el río Revinuesa (de Soria), el año pasado. No se considera al moco de roca como especie exótica, ya que ya existía en la Península Ibérica con anterioridad a estos focos, pero sí invasora. La principal característica de estas poblaciones son es su especial agresividad en los entornos que ocupan. Esta variante tan nociva para los ecosistemas locales tiene su origen en Nueva Zelanda en 2004 y en Estados Unidos y Canadá ya afecta a más de 300 cauces.

El grupo del Departamento de Biodiversidad y Gestión Ambiental de la ULe, que realiza el seguimiento de la invasión, realiza tanto labores de asesoramiento para la monitorización ambiental en las diferentes localidades afectadas y a grupos relacionados con la pesca deportiva y como establece mecanismos de bioseguridad para mitigar el impacto ambiental sobre el hábitat de la especie invasora.

Fuente: SINC

Etiquetas: , , , ,

jueves, 28 de mayo de 2009

¿POR QUÉ ESTAMOS AQUÍ? segun EDUARD PUNSET

De febrero a abril se ha venido desarrollando un ciclo de conferencias Ciencia y Sociedad 2009, en el Auditorio del Museo de la Ciudad, en Madrid, organizado por la Fundación Banco Santander.
En esta ocasión traigo el vídeo de la conferencia que Eduard Punset pronunció.

Etiquetas: ,

miércoles, 27 de mayo de 2009

LA HORMONA GHRELINA FAVORECE LA ACUMULACIÓN DE GRASA ABDOMINAL


La hormona ghrelina no sólo estimula el cerebro provocando un aumento del apetito, sino que también favorece la acumulación de lípidos en la grasa visceral, aquella que se sitúa en la zona abdominal y está considerada la más nociva. Así se desprende de una investigación llevada a cabo por el Laboratorio de Investigación Metabólica de la Clínica Universidad de Navarra, que ha sido publicado en la revista científica International Journal of Obesity.

La ghrelina es una hormona producida por el estómago, cuya función es informar al cerebro de que el cuerpo debe alimentarse. Así, su nivel aumenta antes de comer y disminuye después. Hasta ahora se sabía que era importante en desarrollo de la obesidad, pues, al estimular el apetito, favorece el aumento el peso corporal, explica Amaia Rodríguez Murueta-Goyena, doctora en Biología e investigadora principal del estudio.

Sin embargo, los investigadores de la Clínica de la Universidad de Navarra han descubierto que, además de estimular el hipotálamo para generar el apetito, la ghrelina actúa sobre la grasa. Han visto que esta hormona favorece la acumulación de lípidos en la grasa visceral. En concreto, provoca la sobreexpresión de los genes de la grasa que participan en la retención de lípidos, detalla Amaia Rodríguez.

Precisamente, la grasa acumulada en la región del abdomen está considera la más perjudicial, pues conlleva la aparición de comorbilidades al relacionarse la obesidad visceral con mayor incidencia de hipertensión o diabetes de tipo 2. Además, al estar situada en la zona abdominal en contacto directo con el hígado, este tipo de grasa favorece la formación de hígado graso y aumenta el riesgo de desarrollar resistencia a la insulina. Normalmente, al asociarse con hipertensión, niveles elevados de triglicéridos, resistencia a insulina y hipercolesterolemia, la grasa visceral favorece la aparición del síndrome metabólico, concreta la investigadora.

La ghrelina puede presentarse en forma acilada o desacilada, cuya diferencia consiste en un ácido octanoico presente en la composición de la primera, según explica Amaia Rodriguez. Antes se pensaba que sólo la forma acilada era activa en el proceso de aumento de peso, pero muchos estudios han demostrado que ambas hormonas son biológicamente funcionales.

Futuro desarrollo de fármacos


El descubrimiento de la doble actuación de la ghrelina sobre el organismo abre la puerta a futuros tratamientos contra la obesidad que, de momento, se reducen a estudios in vitro en modelos celulares y animales, indica la investigadora de la Clínica. Es necesaria esa visión global del funcionamiento de una hormona para poder diseñar fármacos efectivos. Hay muchas hormonas que intervienen en el control del apetito en el hipotálamo y al mismo tiempo pueden actuar en otros órganos, como el hígado, los músculos o la grasa, por ejemplo. Por tanto, el medicamento que se desarrolle debe bloquear la acción de la ghrelina tanto sobre el hipotálamo como sobre la acumulación de grasa abdominal.

Al mismo tiempo, añade Amaia Rodríguez, que se sabe que esta hormona también actúa sobre el hígado y favorece la captación de glucosa en el músculo. Han visto que la concentración en sangre de la ghrelina en su forma acilada aparece aumentada en las personas obesas y, de manera especial, cuando éstas además padecen diabetes. Así, las personas obesas con diabetes presentan mayor propensión a acumular grasa visceral que los obesos normoglucémicos. Se trata de un campo poco estudiado en el que habría que investigar para desarrollar fármacos que anulen esa acción de la ghrelina.

Análisis de sangre y estimulación de adipocitos


El estudio llevado a cabo por el Laboratorio de Investigación Metabólica de la Clínica Universidad de Navarra ha consistido principalmente en el análisis de sangre de 80 pacientes, tanto obesos como delgados, y en la estimulación con ghrelina de células grasas procedentes de intervenciones quirúrgicas. Primero analizaron los niveles de la ghrelina en la sangre. Luego, a partir de las biopsias de grasa visceral obtenidas otros 24 pacientes que se sometieron a distintas operaciones, separaron los adipocitos o células grasas para, posteriormente, estimularlas con la hormona, lo que les ha permitido comprobar los cambios generados en los genes que favorecen la acumulación lipídica en esos adipocitos aislados, explica la investigadora.

Fuente: EUREKALERT

Etiquetas: , , , ,

martes, 26 de mayo de 2009

APRENDIENDO A SER PADRES

Decía Serrat que nuestros hijos, esos locos bajitos,

"Cargan con nuestros dioses y nuestro idioma
nuestros rencores y nuestro porvenir.
Por eso nos parecen que son de goma
y que le bastan nuestros cuentos
para dormir.
Nos empeñamos en dirigir sus vidas
sin saber el oficio y sin vocación.
Les vamos transmitiendo nuestras frustraciones
con la leche templada
y en cada canción"




Fuente: REDES

Etiquetas: ,

lunes, 25 de mayo de 2009

UN SIMULADOR INFORMÁTICO PERMITE DISEÑAR ESTRATEGIAS MILITARES EN BASE A LOS MOVIMIENTOS DE LAS HORMIGAS


En concreto, en esta investigación se ha desarrollado un software que permitiría a las tropas del Ejército definir el mejor camino dentro de un campo de batalla militar, considerando que dicho camino lo recorrerá una compañía y que ésta deberá considerar los criterios de seguridad (llegar al destino con las menos bajas posibles) y rapidez (llegar al destino lo más rápidamente posible). Para ello, los científicos han utilizado el denominado 'algoritmo de optimización basada en colonias de hormigas (OCH)', una técnica probabilística utilizada para solucionar problemas de optimización y que está inspirado en el comportamiento que presentan las hormigas para encontrar las trayectorias desde la colonia hasta el alimento.

Este trabajo ha sido realizado por Antonio Miguel Mora García, y dirigido por los profesores Juan Julián Merelo Guervós y Pedro Ángel Castillo Valdivieso, del departamento de Arquitectura y Tecnología de Computadores de la UGR. Los científicos de la UGR han desarrollado un mini-simulador para poder definir escenarios (campos de batalla), situar la unidad y los enemigos, ejecutar los algoritmos y ver los resultados. Además, el software que han diseñado ofrece algunas herramientas para analizar tanto el mapa inicial, como los resultados. Para elaborar este sistema, Mora García partió de campos de batalla presentes en el videojuego Panzer General, definiendo posteriormente las propiedades y restricciones necesarias para hacerlos fieles a la realidad.

En la investigación desarrollada en la Universidad de Granada también han participado miembros del Mando de Adiestramiento y Doctrina del Ejército de España (MADOC), organismo perteneciente al Ministerio de Defensa, que a largo plazo podría incorporar algunas de las características del nuevo simulador para el diseño de estrategias militares reales.

Los científicos de la UGR apuntan que, al margen de esta aplicación, el simulador podría servir también para resolver otros problemas reales, como el de la búsqueda de la mejor ruta para un agente de ventas o un transportista de cara a visitar a sus clientes optimizando el consumo de combustible o el tiempo, por ejemplo. "Además -explican- con él también se podrían resolver problemas de planificación de distribución de mercancías, intentando servir al mayor número de clientes partiendo de un almacén central, considerando el menor número de vehículos posible".

Parte de los resultados de esta investigación han sido presentados en diversos congresos tanto nacionales, como internacionales, y publicados en revistas como "International Journal of Intelligent Systems". El software diseñado para esta investigación es libre, y puede descargarse de forma gratuita a través de Internet.

Fuente: CIBERSUR

Etiquetas: , ,

domingo, 24 de mayo de 2009

¿POR QUÉ EL CÁNCER DE PÁNCREAS ES MAS LETAL?


Un estudio realizado en Reino Unido asegura que el cáncer de páncreas es uno de los más mortíferos debido a que los tumores que provocan la enfermedad son muy resistentes a los medicamentos actuales. Al parecer, estos tumores contienen, relativamente, pocos vasos sanguíneos y, por lo tanto, pocas rutas para que lleguen los medicamentos.

La investigación, que publica la revista Science, ha sido encabezada por Kenneth Olive del Centro de Investigación del Cáncer en Cambridge.

El informe señala que el tratamiento estándar de cáncer de páncreas es la administración de un medicamento llamado “gemcitabine”, que extiende la vida de los pacientes en sólo unas pocas semanas. En el trabajo con una línea de ratones modificados genéticamente y que desarrollan tumores pancreáticos, Olive y sus colegas descubrieron que los tumores de esos roedores están entrecruzados por pocos vasos sanguíneos, una característica que observaron también en las muestras de tumor pancreático humano que analizaron.

Los investigadores luego trataron a los ratones con “gemcitabine” y otro compuesto, 'IPI-926', que vacía el tejido estructural de los tumores inhibiendo una secuencia de señales moleculares. Estas señales se activan por la llamada 'senda hedgehog', un mecanismo que da a las células la información que necesitan para desarrollarse, diferenciándose entre derecha e izquierda, cabeza y cola. Cuando esta senda funciona mal, el resultado puede ser el desarrollo de carcinomas.

La combinación de medicamentos condujo a un incremento en la cantidad de vasos sanguíneos dentro del tumor y una mejor distribución del compuesto “gemcitabine”, lo cual demoró el avance del cáncer, según el informe.

El estudio podría abrir nuevas vías para el tratamiento del cáncer de páncreas, un mal que tiene unos 42.500 diagnósticos nuevos cada año. La edad media del diagnóstico del cáncer de páncreas es de 72 años. El 29,5% de los casos registrados el año pasado se diagnosticó en personas de entre 65 y 74 años de edad y otro 26,1% entre personas de 55 a 64 años. La tasa general de incidencia es de 11,7 personas por cada 100.000.

Etiquetas: ,

sábado, 23 de mayo de 2009

MERCURIO ACTIVO


Una nave espacial de la NASA que sobrevoló la superficie de Mercurio ha revelado que la atmósfera, la magnetósfera y el pasado geológico del planeta exhiben un mayor nivel de actividad del que los científicos sospecharon. La sonda también descrubrió la cuenca de un gran impacto, llamada "Rembrandt", que mide cerca de 690 km (430 millas) de diámetro.

Estos nuevos descubrimientos y otros más están informados en cuatro artículos publicados en la edición del 1 de mayo de la revista Science. Los datos provienen de la nave MESSENGER (Mercury Surface, Space Environment, Geochemistry, and Ranging o Superficie, Ambiente espacial, Geoquímica y Cálculo de la distancia de Mercurio). El 6 de octubre de 2008, MESSENGER voló sobre Mercurio por segunda vez, capturando de este modo más de 1.200 imágenes del planeta, en color y en alta resolución.

Arriba: La cuenca de impacto Rembrandt descubierta por MESSENGER durante su segundo sobrevuelo de Mercurio, en octubre de 2008. Crédito de la imagen: NASA/Laboratorio de Física Aplicada de la Universidad Johns Hopkins/Instituto Smithsoniano/Instituto Carnegie de Washington.

"Este segundo sobrevuelo de Mercurio proporcionó muchos descubrimientos", dijo Sean Solomon, quien es el investigador principal de la sonda, en el Instituto Carnegie de Washington. "Una de las mayores sorpresas fue lo mucho que [la magnetósfera de Mercurio] ha cambiado respecto de lo que vimos durante el primer sobrevuelo, en enero de 2008".


La magnetósfera es una región del espacio alrededor de Mercurio que está envuelta por el campo magnético del planeta. El viento solar repleto de ráfagas que presionan contra la burbuja de magnetismo puede disparar tormentas magnéticas y otros fenómenos relacionados con el estado del tiempo en el espacio.

"Durante el primer sobrevuelo, MESSENGER midió campos magnéticos del planeta, de tipo dipolar, relativamente tranquilos. Los científicos no detectaron ninguna característica dinámica que no fueran algunas ondas de Kelvin-Helmholtz", dice James Slavin, del Centro Goddard para Vuelos Espaciales. Slavin es un coinvestigador en la misión y autor principal de uno de los artículos.

"Pero el segundo sobrevuelo fue una situación totalmente diferente", relató. MESSENGER observó una magnetósfera muy dinámica con "reconexiones magnéticas" que tenían lugar a una tasa 10 veces mayor que la que se observa en la Tierra durante los intervalos más activos. "La alta tasa de inyección de energía del viento solar fue evidente en la gran amplitud de las ondas de plasma y las grandes estructuras magnéticas medidas por el magnetómetro de la nave espacial durante todo el encuentro".



Derecha: Concepto artístico de la sorprendentemente activa magnetósfera de Mercurio. Crédito de la imagen: Imagen producida por la NASA/Centro Goddard para Vuelos Espaciales/Laboratorio de Física Aplicada de la Universidad Johns Hopkins/Instituto Carnegie de Washington. Imagen reproducida por cortesía de Science/AAAS.

Otro resultado excitante es el descubrimiento de una gran cuenca de un impacto, hasta ahora desconocida. La cuenca Rembrandt tiene más de 700 kilómetros (430 millas) de diámetro y, si se hubiera formado en la costa este de Estados Unidos, se extendería una distancia como la que hay entre Washington D.C. y Boston.

Rembrandt se formó hace aproximadamente 3.900 millones de años, cerca del final del período de bombardeo intenso en el sistema solar interior, sugiere el científico de MESSENGER Thomas Watters, autor principal de otro de los artículos. Rembrandt es importante, no sólo porque es grande, sino también porque está proporcionando a los investigadores la posibilidad de ver la superficie de Mercurio, lo cual no ha sucedido con otras cuencas.

"Esta es la primera vez que vemos terreno expuesto en el piso de una cuenca de impacto en Mercurio, el cual se ha preservado desde que se formó", explica Watters. "Formaciones como las que están reveladas en el piso de Rembrandt, en general, son completamente enterradas por flujos volcánicos".

La mitad de Mercurio era desconocida hasta hace poco más de un año. Globos del planeta estaban en blanco de un lado. Desde entonces, las imágenes proporcionadas por las naves espaciales han revelado el 90 por ciento de la superficie del planeta en alta resolución. Esta cobertura casi global está mostrando, por primera vez, cómo se formó la corteza de Mercurio.




Izquierda: En este mapa interpretativo de la superficie de Mercurio, las sombras de color amarillo denotan suaves llanuras de origen volcánico principalmente. Este tipo de terreno cubre aproximadamente el 40% del planeta. La franja blanca (vacía) es la porción de Mercurio que aún no ha sido fotografiada. Crédito de la imagen: NASA/Laboratorio de Física Aplicada de la Universidad Johns Hopkins/Universidad Estatal de Arizona/Instituto Carnegie de Washington.

"Después de realizar mapas de la superficie, vemos que aproximadamente el 40 por ciento está cubierto por llanuras suaves", dijo Brett Denevi, de la Universidad Estatal de Arizona, en Tempe, quien es miembro del equipo y autor principal de un artículo. "Se interpreta que muchas de estas llanuras suaves son de origen volcánico, y están distribuidas globalmente. La mayor parte de la corteza de Mercurio pudo haberse formado mediante repetidas erupciones volcánicas de manera más parecida a lo que sucedió con la corteza de Marte que de la Luna".

Otro descubrimiento del sobrevuelo es la primera detección de magnesio en la exósfera de Mercurio. La exósfera es una atmósfera ultra delgada donde las moléculas están tan separadas que tienen más probabilidad de chocar con la superficie que entre ellas. El material en la exósfera proviene principalmente de la superficie misma de Mercurio, arrancado por la radiación solar, el bombardeo provocado por el viento solar y la evaporación de meteoroides.

La sonda posee un Espectrómetro de Composición Atmosférica y de Superficie de Mercurio que detectó el magnesio. El hallazgo de magnesio no fue una sorpresa para los científicos, pero la abundancia fue inesperada. El instrumento también midió otros constituyentes exosféricos entre los que se incluyen el calcio y el sodio. Los investigadores creen que grandes cambios diarios en la delgada atmósfera de Mercurio pueden ser causados por la protección variable de su magnetósfera activa.

"Este es un ejemplo de la clase de descubrimientos particulares que el equipo de ciencia combinará para darnos una nueva imagen de cómo se formó el planeta y cómo evolucionó", dice William McClintock, del Laboratorio para Física Atmosférica y del Espacio, en la Universidad de Colorado, en Boulder. McClintock es investigador adjunto y autor principal de uno de los cuatro artículos.

"El tercer sobrevuelo de Mercurio, que tendrá lugar el 29 de septiembre, es nuestro ensayo final para la presentación principal de nuestra misión: la inserción de la sonda en órbita alrededor de Mercurio, en marzo de 2011", dice Solomon. "La fase orbital será como llevar a cabo dos sobrevuelos por día y proveerá una recolección continua de información sobre el planeta y su ambiente durante un año".

"Mercurio se ha mostrado tímido para revelar sus secretos, lo ha ido haciendo de a poco hasta ahora pero, en menos de dos años, el planeta más interno se convertirá en un amigo cercano".

Fuente: NASA

Etiquetas: ,

viernes, 22 de mayo de 2009

LOS REFRESCOS DE COLA Y LOS PROBLEMAS MUSCULARES


Un grupo de investigadores ha analizado las consecuencias del consumo excesivo de bebidas de cola tras apreciar un aumento en el número de pacientes que padecen problemas musculares. El estudio, que será publicado en el número de junio de la revista International Journal of Clinical Practice, muestra que los síntomas pueden ir desde una debilidad leve hasta una parálisis grave.

“La sociedad consume más refrescos que nunca y se han identificado algunos problemas de salud, incluidos problemas dentales, desmineralización ósea y aparición de síndrome metabólico y diabetes”, explica Moses Elisaf, investigador del departamento de Medicina Interna de la Universidad de Ioannina, en Grecia, y autor principal de este estudio.

“Cada vez hay más pruebas que indican que el consumo excesivo de bebidas de cola puede producir hipopotasemia, una patología en la que los niveles de potasio en sangre caen, lo que tiene un efecto adverso en funciones musculares vitales”, afirma Elisaf.

Los autores sostienen que en una época en que los tamaños de las raciones son cada vez más grandes, el consumo excesivo de productos de cola tiene consecuencias reales para la salud pública. Según el estudio, que será publicado en el número de junio de la revista International Journal of Clinical Practice, los síntomas pueden ir desde una debilidad leve hasta una parálisis grave.

“Aunque la mayoría de los pacientes se recuperan cuando dejan de beber productos de cola y reciben suplementos de potasio, la hipopotasemia inducida por las bebidas de cola puede hacer que sean más propensos a padecer complicaciones potencialmente irreversibles, como un ritmo cardiaco irregular”, apunta el investigador de la universidad griega.

La hipopotasemia puede deberse al consumo excesivo de tres de los ingredientes más frecuentes en las bebidas de cola: la glucosa, la fructosa y la cafeína. “Se desconoce el papel que cada uno de estos ingredientes desempeña en la fisiopatología de la hipopotasemia inducida por las bebidas de cola, y es posible que varíe dependiendo del paciente”, indica Elisaf.

“En la mayoría de los casos que analizamos, la intoxicación por cafeína es la que desempeñaba una función más importante. Esto se ha demostrado mediante estudios que se centran en otros productos que contienen gran cantidad de cafeína pero no glucosa ni fructosa. A pesar de esto, los productos de cola sin cafeína también pueden producir hipopotasemia, porque la fructosa que contienen puede provocar diarrea”.

Según el estudio, el consumo excesivo de cualquier tipo de bebida de cola puede provocar diversos problemas de salud entre los que se incluye la fatiga, la pérdida de productividad y síntomas musculares que van desde una debilidad leve hasta una parálisis grave.

Clifford Packer, del Centro Médico Louis Stokes Cleveland VA de Ohio (EE UU) está de acuerdo en que es necesario hacer frente al problema. “Las bebidas de cola tienen que incluirse en la lista usada por los médicos de drogas y sustancias que pueden causar hipopotasemia”, afirma. “El sector de los refrescos debe promover un uso seguro y moderado de sus productos en todos los grupos de edad”.

El estudio de los casos prácticos se hizo con pacientes cuyo consumo oscilaba entre los dos y los 9 litros de bebida de cola al día. Entre la muestra analizada se encontraban dos mujeres embarazadas que fueron ingresadas con bajos niveles de potasio.

La primera, una mujer de 21 años, consumía hasta tres litros de bebida de cola al día y se quejaba de fatiga, pérdida del apetito y náuseas persistentes. Además, un electrocardiograma reveló que tenía una obstrucción cardiaca, mientras que los análisis de sangre mostraron que tenía un bajo nivel de potasio.

La segunda también tenía un bajo nivel de potasio y sufría una debilidad muscular cada vez mayor. Resultó que había estado bebiendo hasta 7 litros diarios de bebida de cola durante los últimos 10 meses.

Pero existen un montón de extraños casos que tienen como explicación el excesivo consumo de bebidas de cola al día, como el de un criador de avestruces que regresó del interior de Australia con debilidad muscular había estado bebiendo cuatro litros de bebida de cola al día durante los tres últimos años, y bebía hasta 10 litros al día cuando estuvo en Australia, lo que causó una rápida disminución de sus niveles de potasio.

En 2007, el consumo mundial de refrescos alcanzó los 552.000 millones de litros, el equivalente a casi 83 litros por persona y año, y se espera que llegue hasta los 95 litros por persona y año en 2012. Sin embargo, estas cifras ya han alcanzado la media de 212 litros por persona y año en EE UU.


Fuente: SINC

Etiquetas: ,

jueves, 21 de mayo de 2009

EL VALOR DE UN CASTAÑO

Hace unos días abordé el tema de la Economía Ambiental.
Continuando con el tema quisiera tratar el asunto de la valoración de los recursos naturales.
Los recursos naturales siempre han sido valorados en función de los mercados existentes.
Si existía un mercado para la madera, se valoraba esa madera.
Si existía un mercado para un fruto, se valoraba un fruto.
El problema es cualquier recurso natural es más, mucho más que aquellos atributos que se valoran porque hay un mercado para ellos.
Pongamos un ejemplo: ¿que es un castaño?
Un castaño es algo más que un árbol que proporciona madera y castañas.
Un castaño produce una comunidad micológica determinada, que es esa y no otra porque crece en un castañar y que tiene una traducción en euros.
Igual sucede con la fauna cinegética que crece en el sistema forestal del castañar. Es una muy determinada y que además puede generar unos ingresos al titular del acotado.
Pero hay más. Mucho más.
Un castaño es recreación. Visitantes que se desplazan y están dispuestos a pagar por conocer ese territorio.
Y un castañar es un paisaje muy concreto, que se valora incluso por aquellos que en principio no tienen pensado visitarlo.
Pero es que además el castañar alberga, conserva y genera una determinada biodiversidad.
Y por si fuera poco además fija carbono atmosférico con lo que contribuye a mitigar el efecto invernadero.
Dese hace algunos años en el IFAPA de la Junta de Andalucía trabajamos para determinar esos otros valores distintos de la castaña y la madera.
Y ahora, cuando mire a un castaño ¿seguirá viendo sólo castaña y madera?

Etiquetas: ,

miércoles, 20 de mayo de 2009

MI GPS PERDERÁ PRECISIÓN A PARTIR DEL AÑO PRÓXIMO

Cada vez más dispositivos incluyen receptores de GPS y, para muchos conductores, se ha convertido en algo casi vital. Pero, ¿no estaremos dependiendo demasiado de un sistema que podría ser vulnerable? Según un informe del gobierno de Estados Unidos, el sistema GPS podría perder precisión a partir de 2010.

El problema viene por que la red de satélites utilizada para enviar las señales empieza a quedarse anticuada, pues hay algunos de ellos que tienen casi 20 años de vida. Pero el mantenimiento y reemplazo de estos sufre retrasos, en parte por los movimientos en buena parte de las compañías aeronáuticas, que ha hecho que en algunos casos se pierdan trabajadores y conocimientos especializados en este campo.

El próximo satélite debe lanzarse en noviembre de este año, casi tres años después de su fecha prevista, por lo que si los antiguos empiezan a fallar habrá problemas de precisión. Se calcula que la probabilidad de que haya 24 satélites en marcha en 2010 es menor del 95% y disminuye conforme pasan los años.

Eso significa que los receptores de GPS no podrán calcular la posición actual con tanta precisión como en la actualidad. También es verdad que hoy en día, el GPS está ofreciendo mayor precisión de la que indican sus especificaciones para civiles y que es poco probable que el ejercito norteamericano se permita perder una arma táctica tan importante como esta.

Mientras tanto, el sistema europeo, Galileo sigue a su ritmo, es decir, muy lento, y hasta 2013 será difícil que lo veamos en marcha.

Fuente: XATAKA y MICROSIERVOS

Etiquetas: ,

martes, 19 de mayo de 2009

EL MÉTODO DE COCINAR Y LA INFLUENCIA EN LOS CONTAMINANTES QUÍMICOS

¿Cómo influye la manera de cocinar sobre el contenido de contaminantes químicos en los alimentos? Un equipo científico de la Universidad de Barcelona y la Universidad Rovira i Virgili han evaluado estos efectos en alimentos de amplio consumo en Cataluña y las consecuencias de su exposición a través de la dieta. Como conclusión, los autores apuntan que la influencia del método de cocinar sobre los niveles de los contaminantes analizados no se puede generalizar, ya que éstos varían no sólo en función del método de cocción, sino especialmente en función de qué alimento se trate. Los resultados, en todo caso, no corroboran la hipótesis de que el cocinado de los alimentos reduzca significativamente el contenido de contaminantes químicos.

El estudio ha sido dirigido por los catedráticos Joan Llobet Mallafré, de la Unidad de Toxicología, GRET-CERETOX, de la Facultad de Farmacia de la Universidad de Barcelona, y Josep Lluís Domingo Roig, del Laboratorio de Toxicología de la Facultad de Medicina y Ciencias de la Salud de la Universidad Rovira i Virgili. La investigación se ha llevado a cabo durante los años 2007 y 2008 y ha sido financiada por la Agencia Catalana de Seguridad Alimentaria del Departamento de Salud de la Generalitat de Cataluña.

El estudio tiene como objetivo determinar el impacto de algunos de los métodos de cocinar más utilizados en Cataluña sobre los niveles de una serie de contaminantes químicos en alimentos de amplio consumo: pescados (sardina, merluza y atún), carnes (filete de ternera, lomo de cerdo, pecho y muslo de pollo y costilla de cordero), judías tiernas, patatas, arroz y aceite de oliva. Los resultados indican que la influencia general del proceso de cocinado sobre una posible disminución de la ingesta de contaminantes químicos a través de la dieta, es claramente limitada. Sin embargo, hay que destacar que tampoco ninguno de los métodos de guisado ensayados generó de forma generalizada un incremento en los niveles de contaminantes.

Si consideramos que las dioxinas y furanos PCBs, PBDEs, PCDEs y otros contaminantes orgánicos se acumulan en las partes grasientas de los alimentos, aquellas formas de cocinar que liberen o eliminen la grasa del producto tenderán a reducir los contaminantes orgánicos de la comida cocinada. La exposición dietética a estos contaminantes se puede reducir eliminando la grasa de los alimentos, una práctica bastante extendida entre los consumidores que quieren reducir la ingesta de grasas (básicamente de carnes) para prevenir el riesgo cardiovascular.

Los contaminantes analizados son en el estudio son metales (arsénico, cadmio, mercurio y plomo), dioxinas y furanos (PCDD/Fs), policlorobifeniles (PCBs), difenil éteres polibromados (PBDEs), difenil éteres policlorados (PCDEs), hexaclorobenceno (HCB), y 16 hidrocarburos aromáticos policíclicos (HAPs). Cada alimento ha sido analizado en crudo y cocinado con los procedimientos más habituales: frito, a la plancha, al horno o hervido. Se analizaron 68 muestras, 22 crudas y 46 cocinadas.

En términos generales, los niveles de metales en pescados mostraron una tendencia a aumentar después de la cocción. Las concentraciones de arsénico (As) en muestras cocinadas fueron superiores a las detectadas en pescado crudo. La sardina presentaba más concentración de As, cocinada en la plancha que frita, con valores superiores a los detectados en crudo. En la merluza, la concentración más elevada de As se observó en la plancha (superior a la frita, hervida o cruda). En cambio, el atún en crudo contenía más concentración de cadmio (Cd) que cocinado. Los niveles de mercurio (Hg) en pescado aumentaron en muestras fritas, siendo la merluza una excepción, ya que presentaba la mayor concentración en la cocción a la plancha. La fritura y la plancha disminuyeron los niveles de mercurio en la merluza. En relación al plomo (Pb), las concentraciones en sardina y atún a la plancha fueron inferiores a las detectadas en crudo, en contraste con la merluza a la plancha en que el nivel de Pb se incrementó. Al mismo tiempo, la fritura de sardina, merluza y atún aumentó las concentraciones de Pb. De todos modos, es importante señalar que todas estas diferencias entre crudos y cocinados de pescado no fueron estadísticamente significativas.

Por otro lado se produjeron algunas variaciones en las concentraciones de PBDEs antes y después de cocinar los alimentos, mientras que en términos generales, la concentración de HAPs más elevada se detectó en alimentos fritos, siendo el efecto especialmente notable en pescados, a excepción de la merluza, donde los niveles más altos de HAPs correspondieron a las muestras cocinadas en el horno. Para el HCB, los resultados fueron más bien contradictorios. Así, en pescados la mayor concentración de HCB se detectó en la sardina, siendo inferior en las muestras cocinadas, mientras que en carnes, los niveles de HCB fueron superiores después de aplicar diferentes técnicas culinarias.

Los procesos de cocinado mostraron diferentes efectos sobre los niveles de PCDD/Fs en pescado, mientras que en carne, redujeron las concentraciones de PCDD/Fs en cerdo y ternera. En el resto de alimentos, las diferencias entre producto crudo y cocinado sólo fueron notables para las patatas fritas, con un incremento. El cocinado tuvo efectos diferentes sobre los niveles de PCBs en el pescado, mientras que en las carnes cocinadas se encontró una mayor concentración de PCBs. Finalmente, los procesos de cocinado aumentaron los niveles de PCDEs en la mayoría de las muestras de pescado y de carne. En el resto de alimentos cocinados fueron inferiores que en las muestras analizadas en crudo.

Según los autores, desde un punto de vista de riesgos para la salud por exposición dietética a contaminantes químicos, no se establece ninguna recomendación sobre el uso, por beneficioso o perjudicial a la salud, de un determinado proceso de cocinado. En todo caso, hace falta tener también en cuenta que la reducción, en su caso, dependería también de las condiciones del propio método de cocinado, es a decir: tiempo, temperatura y medio de cocción. En cualquier caso, reducir las grasas es básico.


Fuente: AGRODIGITAL

Etiquetas: , ,

lunes, 18 de mayo de 2009

LA TRANSFERENCIA DE GENES PROTEGE A MACACOS DEL SIDA

La clave para encontrar una vacuna eficaz para el VIH es desarrollar un gen inmunológico que aumente los anticuerpos existentes para neutralizar la actividad de diferentes cepas del virus. Desafortunadamente, se ha conseguido muy poco progreso en este sentido, sobre todo en el diseño de nuevos genes inmunes.

El grupo de Philip Johnson, del Hospital Infantil de Filadelfia, ha utilizado un modelo de virus de inmunodeficiencia simia (VIS) para desarrollar un modelo de transferencia de genes diferente al empleado hasta ahora.

Según explica en un estudio que se publica hoy en Nature Medicine, el citado grupo ha empleado un vector de transferencia genética asociado a adenovirus para implantar en el músculo un gen que expresa anticuerpos o el anticuerpo similar a las inmunoadhesinas, que tiene una especificidad predeterminada frente al virus de inmunodeficiencia simia. Con esta nueva vía de inserción, el gen se libera en el músculo, donde produce anticuerpos y luego éstos pasan al sistema sanguíneo y se dirigen de forma específica al VIS.

Con esta estrategia, las moléculas específicas para el VIS se sintetizan de forma endógena en miofibras y por eso se pueden distribuir por el organismo sin problemas.

A partir del modelo simio, los autores del trabajo han conseguido generar una actividad sérica neutralizante a largo plazo y han visto que se produce una protección completa frente a la virulencia del VIS.

En conclusión, la estrategia empleada por el grupo de Johnson sortea el sistema adaptativo y ofrece una base sólida de aproximación a una vacuna eficaz frente al virus de inmunodeficiencia humana (VIH), investigaciones que no están dando frutos positivos a pesar del número de grupos que están trabajando en este campo.

El mayor reto al que se enfrentan es conseguir anticuerpos que consigan neutralizar la amplia variedad de subtipos de VIH que se han caracterizado, según ha explicado Eloísa Yuste, que participó desde la Universidad de Harvard (donde trabajó seis años) en el estudio y actualmente es investigadora Ramón y Cajal del equipo de Josep María Gatell en el Instituto de Investigaciones Biomédicas August Pi y Sunyer (Idibaps)-Hospital Clínico de Barcelona y el programa Ivacat de Clínico e IrsiCaixa para investigar vacunas contra el VIH.

"El trabajo es muy importante porque antes ha habido fracaso de vacunas para el sida a gran escala y se ha producido un parón de los ensayos clínicos para replantearse nuevas estrategias, que es lo que se ha hecho en Estados Unidos. Los últimos proyectos consistían en inducir inmunidad celular pero este trabajo se basa en producir anticuerpos; lo novedoso de su diseño es que en vez de inducir la expresión de una proteína frente a la que responde el organismo produciendo anticuerpos lo que hace es transferir directamente el gen del anticuerpo, por medio de un vector adenovirus, para que el organismo haga copias. Es un diseño totalmente nuevo y como prueba de concepto resulta muy prometedor".

¿Es posible probar este método en humanos? "Habría que tener anticuerpos que neutralizasen todos los subtipos de VIH, que tienen una variabilidad enorme geográficamente e incluso dentro de un solo enfermo", ha dicho Yuste, que ahora está buscando anticuerpos efectivos ante un amplio espectro de VIH y en el trabajo norteamericano colaboró con los ensayos in vitro.

A su juicio, llegar a tener una vacuna contra el VIH a medio y largo plazo es factible, aunque hace falta inversión pública porque, por el momento, la industria farmacéutica internacional parece más interesada en el tratamiento de los enfermos crónicos que en la prevención.

Fuente: DIARIO MÉDICO

Etiquetas: , , , , ,

DE MAYOR QUIERO SER CIENTÍFICO

¿Por qué somos como somos?, ¿Cómo se transmite la información genética? Estas preguntas son complicadas de responder para la mayoría, por eso la mejor forma de hacer esta información más accesible es a través de un taller lúdico.
Este es el objetivo del Laboratorio Infantil de Genética que hace unos días visitó el instituto Puerta de la Axarquía de La Cala del Moral, en Rincón de la Victoria.
Organizado por la Consejería de Salud, a través de la Fundación Progreso y Salud, se trata de una iniciativa itinerante que durante este año pretende recorrer toda la región.
El objetivo es trasladar la información y la investigación científica que se está haciendo en Andalucía a los niños de entre 10 y 12 años y fomentar así su espíritu científico.
Después de esta parte lúdico-teórica, los alumnos participan en un concurso de pintura. «Han traído todo el material para que plasmen en sus dibujos lo que han aprendido», señala Ruiz.
El ganador recibió un microscopio básico de observación biológica y un 'kit' con muestras de tejido del cuerpo humano, el pulmón, la piel, la médula ósea, las células epiteliales, el cerebro y hasta una sección de un músculo estriado. Además, se les entregó un libro ilustrado en el que se plasman las nociones básicas que han aprendido.
Este taller itinerante visitó el pasado día 15 de mayo, Benalmádena y hará lo mismo el 22 de mayo en Cómpeta. La consejería también ha diseñado un taller de Terapia Celular y Medicina Regenerativa que incluye un cuentacuentos y que también intenta transmitir a los niños los conceptos de forma lúdica.

Fuente: SUR

Etiquetas: ,

domingo, 17 de mayo de 2009

¿SABEN LAS HORMIGAS CUANDO VAN A MORIR?

Las hormigas tienen la fama de trabajadoras y de sabias, se cuentan por cientos las fábulas que las tienen como protagonistas ejemplares. Muchos exaltaron sus virtudes. Ahora hay una virtud más para agregar a la lista, no sólo son duras trabajadoras y están dispuestas a dar la vida por sus compañeras, sino que toman más riesgos por el bien de la colonia a medida que se hacen viejas, ya que al parecer pueden medir casi con exactitud cuanto tiempo les queda de vida.

Dawid Moron y sus colegas de la Universidad Jagiellonian en Polonia, han realizado experimentos en laboratorio descubriendo que las hormigas tienen la habilidad de calibrar el fin de su vida y utilizar la seguridad de su muerte inminente para tomar mayores riesgos.

Ya estaba bien probado que las hormigas tienden a tomar riesgos mayores a medida que envejecen. Los entomólogos habían demostrado que este comportamiento beneficiaba a la colonia, ya que ciertas actividades peligrosas, como buscar comida lejos del nido, eran mejor realizadas por hormigas que estaban llegando al fin de su vida útil. No era rentable para la colonia enviar a una hormiga joven a trabajos de alto riesgo.

Como resultado, las hormigas más jóvenes tienden a realizar tareas de cuidados alrededor del nido, mucho más seguro. Pero los científicos se hacían la pregunta de si las hormigas tenían algún mecanismo interno que les dijese cuan viejas eran y cuánto tiempo les quedaba antes de morir.

El Dr. Moron creyó que podía manipular artificialmente el período de vida de una hormiga, y observar los cambios en los riesgos que tomaban. Su estudio, publicado en la última edición de la revista Animal Behaviour, hizo exactamente eso al incrementar la concentración de dióxido de carbono en la cámara donde estaba el nido de las hormigas.

Altas concentraciones de dióxido de carbono aumentan la acidez de la sangre y acortan el período de vida de las hormigas.

Como habían predicho los científicos, las hormigas trabajadoras de la colonia comenzaron a ir en busca de alimentos más lejos antes de lo que lo habrían hecho en circunstancias naturales. “Esto implica que las hormigas trabajadoras ajustan su umbral para enfrentar riesgos en la alimentación de acuerdo con su expectativa de vida”, dijo el Dr. Moron.

Con este descubrimiento podemos ver que las hormigas tienen un altruismo extremo, no sólo están preparadas para sacrificarse en el servicio y la protección de su reina, sino que tienen la habilidad de hacer cálculos cuidadosos de cuanto riesgo deben tomar basándose en lo que les queda de vida. Está lejos del egoísmo que caracteriza a nuestra especie, ya que nuestro altruismo es muy diferente, se puede decir que esto nos de una idea de para qué evolucionó el egoísmo en nuestra especie, tal vez porque en el Homo sapiens los ancianos son importantes, su conocimiento ayuda a la especie, no son descartables como las hormigas.

Fuente: EspacioCiencia

Etiquetas: , ,

sábado, 16 de mayo de 2009

LA EXPLOSIÓN QUE VINO DEL PASADO

El satélite Swift de la NASA y un equipo internacional de astrónomos hallaron una explosión de rayos gamma que provenía de una estrella que murió cuando el universo tenía apenas una edad de 630 millones de años (menos del cinco por ciento de su edad actual). El evento, al que se dio el nombre GRB 090423, es la explosión cósmica más distante que se ha visto.

"La increíble distancia de esta explosión ha excedido nuestras mayores expectativas; realmente fue un estallido que vino del pasado", dice Neil Gehrels, quien es el cientifico principal del proyecto, en el Centro Goddard para Vuelos Espaciales, de la NASA.

Arriba: GRB 090423 tal y como fue observada por el satélite Swift. La imagen está compuesta por datos que proporcionaron los telescopios UV/óptico y de rayos-X de dicho satélite. Fuente: NASA/Swift/Stefan

El estallido ocurrió a las 3:55 a.m., hora diurna del Este, el pasado 23 de abril. El satélite Swift rápidamente señaló la explosión, permitiendo de este modo que los telescopios ubicados en la Tierra también apuntaran hacia el blanco antes de que el brillo del estallido se desvaneciera. Astrónomos que trabajaban en ese momento en los telescopios de Chile y de las Islas Canarias midieron por separado el corrimiento al rojo de la explosión. El resultado fue 8,2, cifra que batió el récord previo de 6,7 marcado por una explosión ocurrida en septiembre de 2008. Un corrimiento al rojo de 8,2 corresponde a una distancia de 13.035 millones de años luz.


"Estamos presenciando el deceso de una estrella (y, probablemente, el nacimiento de un agujero negro) en una de las generaciones más jóvenes de estrellas del universo", dice Derek Fox, de la Universidad Estatal de Pensilvania.

Las explosiones de rayos gamma son las explosiones más luminosas del universo. La mayoría de ellas ocurren cuando las estrellas masivas agotan su combustible nuclear. Conforme su núcleo se colapsa, ya sea para formar un agujero negro o una estrella de neutrones, se crean chorros de materia que abren agujeros a través de la estrella y escapan con gran estrépito hacia el espacio. Es ahí cuando pegan contra el gas previamente despedido por la estrella y lo calientan, generando así el brillo posterior que se desvanece pocos días después de la explosión y que es visible en muchas longitudes de onda.

Durante años, los astrónomos han estado a la caza de explosiones de rayos gamma que provinieran de las generaciones más jóvenes de estrellas (y, misteriosamente, han fracasado en encontrarlas). La detección de GRB 090423 es un hito en la búsqueda de explosiones en el rango de corrimientos al rojo de 10 a 20.

En las primeras tres horas de la explosión que tuvo lugar el 23 de abril, Nial Tanvir, de la Universidad de Leicester, en el Reino Unido, y sus colegas, informaron la detección de una fuente infrarroja en la posición indicada por el satélite Swift. Los investigadores utilizaron el Telescopio Infrarrojo del Reino Unido (United Kingdom Infrared Telescope o UKIRT, en inglés), en Mauna Kea, Hawai.

Al mismo tiempo, Fox dirigió sus esfuerzos a obtener imágenes infrarrojas del brillo posterior a la explosión usando el Telescopio Gemini Norte, en Mauna Kea. La fuente apareció en imágenes hechas a longitudes de onda más largas, pero estuvo ausente en la imagen tomada a la longitud de onda más corta, de 1 micrómetro. Esta "marginación" corresponde a una distancia cercana a los 13.000 millones de años luz.

Arriba: concepto artístico de una explosión de rayos gamma en acción. Fuente: NASA/Swift/Cruz deWilde.

Conforme Fox difundió la noticia sobre el récord de distancia, más y más telescopios alrededor del mundo fueron apuntados hacia ese lugar para observar el brillo posterior a la explosión antes de que se desvaneciera por completo.

En el Telescopio Nacional Galileo, en La Palma, Islas Canarias, un equipo que incluía al astrónomo Guido Chincarini, de la Universidad de Milan-Bicocca, en Italia, determinó que el brillo posterior a la explosión fue de 8,2. El equipo de Tanvir, que reunió observaciones casi simultáneas usando uno de los Telescopios Muy Grandes (Very Large Telescopes o VLT, en idioma inglés), del Observatorio Europeo del Sur (European Southern Observatory o ESO, en idioma inglés), en Cerro Paranal, Chile, llegó a la misma conclusión.

"Es un increíble hallazgo", dice Chincarini. "Y lo que lo hace aún más interesante es que un telescopio que lleve el nombre de Galileo haga este descubrimiento durante el año en que estamos celebrando el aniversario número 400 de la primera observación astronómica realizada por Galileo con un telescopio".

Fuente: NASA

Etiquetas: , , , ,

viernes, 15 de mayo de 2009

¿POR QUÉ ESTAMOS AQUÍ?

Hoy toca video.
Y de los mejores.
De mi admirado Richard Dawkins, autor de EL GEN EGOISTA.
Se titula ¿Por qué estamos aquí?
Son tres videos.
Merece la pena verlos.






Etiquetas: , , ,

NANOCABLES AUTOENSAMBLADOS PARA BIOSENSORES INTELIGENTES

El grupo de investigación de Bioelectroquímica de la Universidad de Alcalá, que dirige la catedrática de Química Analítica Elena Domínguez Cañas, ha desarrollado un nuevo método para ensamblar cables nanométricos que permite construir redes de nanoelectrodos, cuya principal aplicación es el diseño de biosensores para la detección simultánea de numerosos compuestos.

La nanobiotecnología es un área de investigación en la que convergen la biotecnología y la nanotecnología. La nanotecnología es una rama interdisciplinar de la ciencia que consiste en el estudio, desarrollo y aplicaciones prácticas de estructuras, materiales y sistemas a niveles de precisión del nanómetro (1 nm equivale a 10-9 m, o lo que es lo mismo, 1 metro equivale a mil millones de nanómetros).

Lo más relevante es que trabajando en estas dimensiones se pueden generar nanoestructuras organizadas con un perfecto control de su arquitectura molecular y propiedades. “Hemos alineado nanopartículas magnéticas de una manera espontánea, es decir, hemos ensamblado y generado nanocables conductores para el diseño de biosensores”, apunta Javier Jiménez Centelles, investigador del grupo de Bioelectroquímica de la UAH. En concreto, la aportación científica consiste en inducir magnéticamente el autoensamblado de nanocables y demostrar su funcionalidad.
Este trabajo de investigación, publicado en The Journal of Physical Chemistry y realizado en colaboración con la Universidad de Clarkson (Potsdam, NY, EE.UU.), se ha centrado en el desarrollo de nanomateriales que permiten la creación de arquitecturas moleculares híbridas con nuevas y mejoradas propiedades para la construcción de biosensores. Un biosensor es un dispositivo que transforma una información química en una señal analítica útil. El biosensor incorpora un elemento de reconocimiento biológico (ácido nucleico, enzima, anticuerpo, receptor, tejido, célula) o biomimético (MIPs, aptámeros) asociado a un sistema de transducción que permite procesar la señal producida por la interacción entre el elemento de reconocimiento y el elemento a reconocer.

Estos nanocables están formados por nanoparticulas superparamagnéticas recubiertas de oro. Pueden funcionalizarse con diferentes unidades de biocatálisis o de bioreconocimiento según la aplicación a desarrollar, por lo que estas estructuras pueden servir como soporte universal para biosensores enzimáticos, inmunosensores y sensores de ADN en el campo del diagnóstico clínico, de la seguridad agroalimentaria y para la detección de contaminantes emergentes en el medio ambiente. Además, estas estructuras se pueden controlar in-situ, lo que posibilita monitorizar el crecimiento de los nanocables sobre la superficie electródica. “Nos permite controlar las características de los nanocables, por lo que podemos hacer el dispositivo sensor con una propiedades analíticas pre-determinadas. Es como hacer un traje a medida”, subraya Jiménez Centelles.

Fuente: MADRI+D

Etiquetas: , , , ,

miércoles, 13 de mayo de 2009

LOS PARQUES EÓLICOS Y LOS MURCIÉLAGOS

Murciélagos de varias especies —algunas de ellas amenazadas de extinción— se ven diezmados cada vez que emprenden sus migraciones anuales y vuelan a través de determinados parques eólicos estadounidenses. Un informe de 2007 del US Nacional Research Council reveló que sólo dos de esas especies suponen el 60% de los animales liquidados por los generadores eólicos instalados en ese país.

Pese a la mala fama que les han creado los condes transilvanos y su inmortal progenie, los mamíferos alados cumplen un papel de primer orden en el control de insectos nocturnos (y, por ende, en el control de pestes agrícolas), así como en la polinización y dispersión de semillas. De allí que la mortalidad de las especies migratorias pueda surtir efectos negativos en ecosistemas muy alejados del lugar de los hechos.

La elevada siniestralidad de los quirópteros resulta un tanto misteriosa. A fin de cuentas, destacan en el reino animal por su increíble capacidad de ecolocalización. ¿Cómo no pueden evitar las voluminosas estructuras de los molinos de viento? El enigma se complica todavía más si reparamos en que las fatalidades no se producen por contacto directo con las aspas: simplemente, estos mamíferos se desploman muertos en pleno vuelo. Un estudio ha aportado una respuesta al sugerir que el girar de las aspas causa una descompresión en el aire circundante, provocando que sus pulmones se dilaten súbitamente, haciendo reventar sus vasos sanguíneos: un fenómeno conocido como barotrauma, padecido por los buceadores que suben demasiado rápido a la superficie.

Tales antecedentes justifican el interés del experimento llevado a cabo en el parque eólico Casselman (Pennsylvania). Sus gestores, en colaboración con Bats and Wind Energy —una asociación preocupada por el efecto de la energía eólica en los murciélagos—, partieron de un dato cierto: la mayoría de las muertes ocurría en noches poco ventosas, cuando las aspas rotaban a menor velocidad. A continuación, decidieron detener algunas turbinas durante las noches de verano (fecha de migración de murciélagos), y ver qué pasaba.

Al cabo de un año, los resultados desbordaron las expectativas: la práctica adoptada redujo un 70% de promedio la mortandad de murciélagos, comparada con la registrada en los alrededores de las turbinas que continuaron operando al modo habitual.

Encantada con los datos preliminares, la firma propietaria de Casselman, Iberdrola Renewables, extenderá el ensayo un año más, con el propósito de confirmar los resultados. Para la industria del sector, constituye un imperativo reducir este tipo de consecuencia ambiental, ya que en Estados Unidos esa razón (más la presión ejercida por los ecologistas) determinó la cancelación de varios proyectos eólicos.

No es la única iniciativa de Iberdrola Renewables dirigida a moderar el impacto de sus molinos de viento en la fauna. En uno de sus parques situado en Texas, ha introducido tecnología de la NASA para limitar el daño causado a las aves de paso (sólo en Estados Unidos, las aspas matan unos 7.000 pájaros anualmente, según una estimación reciente). El periódico 'The Guardian' señala que dichas instalaciones se encuentran emplazadas en un corredor de aves migratorias, por donde llegan a pasar hasta 8.000 especímenes por hora. Allí han desplegado un radar encargado de detectar a tiempo la llegada de las bandadas, y en caso afirmativo, de detener automáticamente las operaciones. No obstante, las asociaciones ornitológicas no se muestran satisfechas e insisten en que la mejor solución sería instalar los parques fuera de las rutas migratorias.

Fuente: SOITU

Etiquetas: , , ,

EL MITO DE LA HORMIGA TRABAJADORA

Aunque sus investigaciones no hubieran dado frutos, a la doctora Anna Dornhaus habría que darle un premio a la paciencia. Durante varios días, esta investigadora de la Universidad de Arizona se tomó el trabajo de pintar 1.200 hormigas una a una con diferentes colores. “Anestesié a 1.200 hormigas”, explica ella misma en The New York Timesy las pinté una por una con un pincel especial de aeromodelismo”.

Después de marcarlas con diferentes patrones, con los colores verde, rojo y amarillo, Dornhaus grabó a las hormigas en vídeo durante más de 300 horas y estudió los movimientos de cada una de ellas. Y lo que descubrió desmonta el mito de la hormiga laboriosa.

Una buena parte del hormiguero no se dedica a nada productivo. Algunas, las más rápidas, tardaban entre uno y cinco minutos en realizar su tarea (coger un trozo de comida e introducirlo en el agujero). Otras, las más lentas, tardaban hasta dos horas en realizar la misma tarea. Sorprendentemente, la otra mitad del hormiguero no hacía nada en absoluto.

¿Cómo se explica este comportamiento? Según la doctora Dornhaus, algunas colonias pequeñas llegan a depender del trabajo de una o dos hormigas hiperactivas que se encargan de tenerlo todo controlado. “Es como en un piso de estudiantes”, explica, “siempre encontrarás a uno que soporte menos la suciedad y terminará haciendo el trabajo de todos”.

Aparte de esta humorística comparación, los motivos por los que esto sucede siguen siendo un misterio. Puede que las hormigas inactivas estén reservando fuerzas para un caso de emergencia en el hormiguero, o que estén acumulando alguna sustancia bioquímica que proteja al nido. Aunque también, claro está, cabe la posibilidad de que sean unas vagas redomadas.

Fuente: FOGONAZOS

Etiquetas: ,

CIENCIA, MAS CIENCIA POR FAVOR

El domingo pasado, mi programa favorito REDES abordó el tema de la Astrobiología y la búsqueda de vida en otros planetas.
Pero hoy no quiero tratar ese tema.

Hoy quiero tratar el tema de la Fotosíntesis.

¿Por qué?
Pues porque aproximadamente a la mitad del citado programa, se destacó el papel fundamental que tuvo el proceso de la fotosíntesis para que hubiese vida en el planeta Tierra.

Y los reporteros del programa hicieron una encuesta preguntando a distintas personas "¿que es la fotosíntesis?

Y los resultados fueron desoladores.

Solamente el 27% de los entrevistados dio una respuesta más o menos correcta a la pregunta formulada.
El resto de las respuestas mostró un desconocimiento absoluto y aberrante de un proceso bioquímico del que depende nuestra vida y la de todos los seres de la Tierra.

Y en esa situación, lo único que se me ocurre es gritar: CIENCIA, MÁS CIENCIA POR FAVOR.
Es urgente.
Es necesario.
Y como dicen en USA: yes we can

Etiquetas: , ,

martes, 12 de mayo de 2009

ECONOMÍA AMBIENTAL

El siglo XX ha dejado nombres que traen a nuestras memorias recuerdos de importantes desastres ambientales.
Palabras como Exxon Valdez, Amoco Cádiz, Erika, Chernobyl, Bhopal, Seveso...son sinóminos de dolor, de pérdidas y de sufrimientos.
Pero algo estupendo que tiene la condición humana es sacar algo positivo de algo negativo o, lo que es consustancial al aprendizaje, aprender de los errores.
Cuando las compañías aseguradoras valoraron los daños ocasionados por esas catastrofes los tribunales de justicia norteamericanos las obligaron a que también valoraran los daños ocasionados a los bienes no-productivos.
Y ahí, la Economía Ambiental, experimentó un gran empuje y un salto cualitativo.
Desde entonces hasta nuestros días andamos intentando valorar bienes y servicios ambientales para los que no hay un mercado.
Me explico:
La pantalla que tienes delante, tiene un precio. Y tiene un precio porque existe un mercado de pantallas que en virtud de las leyes de la oferta y la demanda establece que la tuya tenga ese precio.
Igual sucede con el ratón que tienes junto o en el teclado.
Hay un mercado de ratones de ordenador que asigna un determinado precio.
Pero ¿que ocurre con aquellos bienes o servicios para los cuales no hay un mercado? ¿Cuánto vale uno de los últimos linces ibéricos o un Parque Natural?
No hay mercado para ellos.
Y como no hay mercado, no tienen asignado un precio.
Y como no tienen un precio, los necios creen que no tienen un valor.
De eso se ocupa la Economía Ambiental. De trabajar para determinar el valor de esos recursos y servicios que no tienen un precio establecido.
Y al no tenerlo, simplemente se ignoran en las cuentas de resultados, en los planes y programas o en la toma de decisiones.
Porque ¿que más da que un embalse inunde un territorio que acoge endemismos botánicos que no se encuentran en otras partes del mundo? ¿que más da que una línea de AVE o una autopista fragmente, aún más, el área de distribución del felino más amenazado del planeta?
Se ignoran porque no tienen un precio. Se ignoran porque creen que no tienen un valor.
Bueno, pues a eso nos dedicamos la gente que trabajamos en economía ambiental. A evitar que se produzca el aforismo de Don Antonio Machado: todo necio, confunde valor y precio.

Etiquetas: , , , , , , , , ,

Mi foto
Nombre:
Lugar: CORDOBA, Spain

Dr. Ciencias Ambientales y Biólogo