miércoles, 27 de junio de 2007

Cambio climático y desertificación.


La desertificación amenaza a buena parte de las tierras fértiles del planeta. En un 2007 marcado por los informes de Naciones Unidas, este terrible fenómeno se ve más que nunca como consecuencia del cambio climático.

120.000 hectáreas de tierra fértil se convierten año a año en desierto. Así lo afirma la Secretaría de Naciones Unidas para la Convención Internacional contra la Desertificación. Con motivo del día internacional dedicado a recordar que hay que combatir el fenómeno a todos los niveles el tema está sobre el mantel, más que nunca.
A estas alturas de la discusión acerca del cambio climático, sus orígenes y efectos, nadie negaría que la pobreza es a la vez causa y consecuencia de la desertificación. A menudo los pueblos se ven obligados a abusar de los recursos de su propia tierra cavando con ello su propia tumba. Y aportando a la de los demás.
1200 millones de personas de 100 países se encuentran amenazados en este preciso momento por las consecuencias inmediatas de la desertificación. África, hasta el año 2025, podría haber perdido casi dos terceras partes de su tierra fértil.
En 1994 se firmó la Convención Internacional contra la Desertificación; dos años más tarde entró en vigencia. 11 años más tarde, 191 países la han ratificado. Pero, ¿se ha avanzado en algo? Quizá. El tema del cambio climático está a la orden del día, los informes de Naciones Unidas y los nuevos intentos de acuerdos internacionales para la adopción de medidas vinculantes a implantarse después del Protocolo de Kyoto tienen a la desertificación en la lista de las consecuencias del cambio climático. Éste, dicen los expertos, podría ser evitado.
La Convención de Naciones Unidas contra la Desertificación obliga a los países afectados -la mayoría en desarrollo- a implementar medidas en contra de la degradación del suelo. Los países industrializados se obligan, por su parte, a aportar los fondos necesarios para los programas que esta secretaría implemente.
Éste es, según los expertos, el término entretanto casi mágico tras el cual se encuentra la clave del combate concreto contra la desertificación.
Son las zonas con un clima relativamente seco, en donde se sobre explotan los recursos naturales de suelo, vegetación y agua, las que más amenazadas están. El 49% de la población africana habita en esas zonas; el 39% de la asiática y el 30% de la sudamericana viven en zonas desertificadas.

La edición 2007 del Día Internacional del Combate contra la Desertificación ha pasado casi desapercibida. Mientras que en 2006 fue celebrado con bombos y platillos, este año el fenómeno es sólo una lucecita en el gran panel del cambio climático global.
Abusamos de la atmósfera, y eso ha traído como consecuencia el cambio climático. Lo mismo pasa con el consumo de agua y la desertificación. Desertificación en África, Asia o América Latina; calentamiento global, cambio climático.... el problema es de todos.
Rodolfo Coricelli.
Fuente. Mirra Banchón

Volver a la página principal

sábado, 23 de junio de 2007

Crean un espejo líquido lunar



Un grupo de investigadores desarrolla un prototipo de espejo líquido para la observación astronómica que es estable bajo condiciones casi lunares.
Nunca hay suficientes fotones que satisfagan las ansias de información de los astrofísicos. Cuánto más grande es el espejo de un telescopio mayor resolución se tiene y más cantidad de luz recoge. Las galaxias remotas del Universo primitivo emiten poca luz y se necesita mucho tiempo de integración con los telescopios terrestres para obtener una imagen de ellas, por eso se construyen telescopios más y más grandes.
La atmósfera de la Tierra, además restar gran cantidad de luz, reduce la resolución de las imágenes proporcionadas por los telescopios por las inevitables turbulencias que contiene. Debido a este hecho se planteó crear el telescopio espacial Hubble, que tantas sorpresas nos ha deparado, y el de próxima generación James Webb. Fuera de la atmósfera terrestre no hay turbulencia ni se filtra luz.
Pero no podemos mandar espejos muy grandes al espacio porque nuestros cohetes y nuestros bolsillos no nos lo permiten. Incluso el espejo del James Webb viajará plegado.
Desde hace bastantes años se sueña con la construcción de un observatorio lunar. Allí, con un suelo estable, baja gravedad y sin atmósfera se podría disponer de poderosos telescopios que trabajarían 24 horas al día. Lo difícil sería llevar un espejo hasta allá, por lo que habría que construirlo allí mismo. Pero sin industria lunar eso es casi imposible.
Hace más de una década se tuvo la idea de crear espejos líquidos para solucionar el problema. Sería un sistema barato y permitiría crear grandes espejos sin dificultad. Cuando al recipiente que contiene un líquido se le hace girar, se puede observar que la superficie de dicho líquido adopta una forma parabólica que geométricamente se ajusta perfectamente a la óptica de un espejo astronómico. Para que refleje la luz se puede usar mercurio, que al ser metálico refleja la luz. De hecho ya se han construido este tipo de espejos de mercurio en tierra. Este metal parece el idóneo en un principio al ser líquido, pero el mercurio no resiste las bajas y altas temperaturas de la superficie lunar ni sus condiciones de vacío extremo. Además, sus vapores son altamente tóxicos para los seres humanos que trabajan con él en la Tierra.
Desde hace un tiempo se investiga en encontrar un líquido apropiado para esta misión. Ahora científicos de la Universidad de Laval dirigidos por Ermanno Borra han conseguido con bastante éxito un líquido iónico recubierto de nanopartículas de plata.
Este grupo recibió financiación de la NASA en 2004 para investigar en este campo, ya que Borra fue el que propuso en 1991 la idea de los espejos líquidos, y sobre ella ha estado trabajando desde entonces.
El primer reto consiste en conseguir un líquido estable para observar en el infrarrojo en alguna parte sombreada de la Luna, que necesariamente estará a 143 grados centígrados bajo cero (el mercurio se congela a 38 grados bajo cero.)
Según los experimentos un espejo de líquido aniónico recubierto de plata vaporizada permanece líquido, estable, perfectamente liso y sin evaporarse durante meses, conservando sus propiedades ópticas.
Un líquido iónico consiste en sales disueltas de tal modo que los constituyentes de la sal se encuentran en forma de iones. Estos iones no se combinan fácilmente para formar cristales si la temperatura disminuye, por lo que la temperatura de congelación es muy baja.
Concretamente, el líquido propuesto es imidazolium ethylsulphate, que se congela a 98 grados bajo cero. La sorpresa ha sido lo bien que las nanopartículas de plata se adhieren a la superficie de este líquido.
No obstante, se necesita rebajar la temperatura de congelación otros 50 grados para así obtener un sistema totalmente viable. En ello trabajarán estos expertos próximamente.
Este grupo imagina telescopios de 20 o 100 metros de diámetro sobre la Luna que serían 1000 veces más poderosos que incluso la próxima generación de telescopios espaciales.
La NASA y la Agencia Espacial Canadiense planean establecer el primer telescopio de espejo líquido girado por imanes superconductores sobre uno de los polos lunares hacia 2018. Estos telescopios lunares no aparecerán en un futuro inmediato, pero este resultado es el primer paso para conseguirlo.
La duda que siempre queda es cómo se logra apuntar a un punto específico del cielo con un sistema así.
Fuente. TheScientificCartoonist

Volver a la página principal

viernes, 22 de junio de 2007

Las plantas reconocen a sus parientes.



Descubren que las plantas son altamente competitivas cuando se las fuerza a compartir un mismo lugar con otras plantas de la misma especie pero no emparentadas genéticamente.
La habilidad de reconocer a los miembros de la familia de los extraños es una característica propia de los animales. Les permite cooperar, compartir recursos y por tanto beneficiarse mutuamente. La selección por parentesco sirve para proteger a los miembros de una misma familia de una competitividad que haría que desperdiciaran recursos. Como la meta es perpetuar un acerbo genético específico, esto se garantiza si cualquiera de los miembros de una familia sobrevive.
Esta habilidad de reconocer a los parientes se creía que era una exclusiva de los animales, pero ahora se ha descubierto que no es así y que las plantas parecen tener una interesante vida social.
Susan Dudley de McMaster University (Hamilton, Canadá) ha descubierto que cuando plantas de la misma especie comparten una maceta se vuelven competitivas produciendo más raíces. Éstas les permiten conseguir más agua y nutrientes antes que sus vecinas de la misma maceta, pero hacen esto sólo cuando no están emparentadas genéticamente.
Como las diferencias entre grupos de extraños y de parientes sólo ocurren cuando comparten la maceta las raíces deben de interaccionar de algún modo para tener algún tipo de reconocimiento de parentesco.
Debido a la falta de memoria, o incluso de sistema nervioso, este comportamiento social complejo, así como el altruismo hacia sus parientes, es muy interesante.
Los experimentos se basaron en la especie Cakile edentula, una planta de la misma familia que la mostaza y nativa de las costas de Norteamérica incluyendo la región de los Grandes Lagos.
Los jardineros conocen desde hace tiempo que algunos emparejamientos de plantas son mejores que otros y los científicos están estudiando ahora qué es lo que pasa.
Lo que esta investigadora ha encontrado es que las plantas procedentes de la misma progenitora son más compatibles unas con las otras que las plantas de la misma especie que tienen diferente planta progenitora. El hallazgo ha sido publicado recientemente en Biology Letters.
En otros experimentos aún sin publicar esta investigadora ha podido comprobar que este comportamiento se da también en otras especies de plantas, apreciándose también un crecimiento mayor de tallos (presumiblemnete para captar más luz solar) cuando las plantas no son parientes.
Conforme más se sabe acerca las plantas más complejas parecen ser las relaciones entre ellas. Esta investigadora opina que debido esto es difícil predecir qué es lo que ocurrirá si se mezclan diversas plantas, al igual que se desconoce qué ocurrirá cuando se mezcla gente variopinta en una fiesta.
Se ignora cómo las plantas reconocen las que están emparentadas con ellas, siendo de momento un misterio. En otros estudios se ha podido comprobar que plantas bajo el ataque de insectos emiten señales químicas a las demás para advertirlas y que se puedan proteger de los mismos. Algunos investigadores han especulado que las plantas se comunican entre sí a través de sus raíces identificándose a mediante determinadas “firmas” químicas. Dudley sugiere que quizás una proteína o compuesto químico sería producido por cada grupo de plantas emparentadas y las demás podrían reconocerlo mediante las raíces.
Este descubrimiento es importante en agricultura porque la competencia entre plantas reduce la producción de los campos de cultivo. Teóricamente plantando juntas a las plantas que están emparentadas se reduciría esta competencia y aumentaría la producción.
En todo caso aunque parezca que las plantas son unos seres muy inanimados no lo son tanto. La próxima vez que coloque a varias plantas de una misma especie en una misma maceta piense si están emparentadas o no. En su mundo las “familias” están bien avenidas.
Fuente. McMaster University.

Volver a la página principal

jueves, 21 de junio de 2007

Reinventando la rueda.



La universidad británica de Portsmouth acaba de anunciar la creación de ruedas inteligentes gracias a la denominada “inteligencia artificial” (IA), ciencia que se encarga de desarrollar programas para máquinas que les permitan imitar el comportamiento y la inteligencia humana.
Se trata de un proyecto del Knowledge Transfer Partnership (KTP) del Ministerio de Comercio e Industria británico, que trabaja en colaboración con la empresa PML Flightlink, con sede en Hampshire. La universidad de Portsmouth colabora aportando los sistemas de IA necesarios.
Las ruedas están destinadas a un prototipo de coche eléctrico ecológico y van equipadas con microordenadores capaces de realizar 4.000 cálculos por segundo y de comunicarse unos con otros.
Gracias a estos microordenadores, las ruedas son capaces de aprender y "pensar" a medida que avanzan en la conducción, realizando cálculos y ajustes acordes con la velocidad de viaje y las condiciones de la carretera.
La mecánica fundamental de las ruedas tradicionales ha sido así sustituida por vez primera por inteligencia artificial en un vehículo motor, y podría alcanzar un control más ajustado del vehículo y una mayor seguridad en viaje, aseguran los especialistas. David Brown, del Institute of Industrial Research de la universidad de Portsmouth, afirma que el equipo de ingenieros que trabaja en este proyecto ha conseguido “reinventar la rueda”, en contra de toda creencia tradicional. Según él: “hemos tomado la rueda, le hemos instalado el cerebro y la habilidad de pensar y aprender. Esto supone un avance inmenso”.
Gracias a la Inteligencia Artificial, los científicos han conseguido así controlar los sistemas de suspensión y dirección enseñándolos a adaptarse a las curvas de la carretera, los baches y otros riesgos potenciales, para compensarlos ajustando las reacciones del coche.
La información es retenida por la memoria informática, y se reutiliza cada vez que el vehículo se enfrenta a condiciones ya registradas por los ordenadores. Por tanto, el coche aprende a medida que hace sus recorridos, y adapta su funcionamiento en función de lo que aprende.
La suspensión tradicional en los automóviles posibilita el control de los coches a pesar de las irregularidades del terreno, cuyo efecto dinámico puede resultar peligroso. Estos sistemas de suspensión actúan entre el chasis y las ruedas, que son las que reciben de forma directa las irregularidades del terreno por el que se circula.
Según Brown, estos sistemas implican a menudo la necesidad de que los conductores reduzcan la velocidad del vehículo. En cambio, el control mediante tracción y suspensión electrónicas que posibilitan las ruedas inteligentes, se opondría a este tipo de irregularidades contrarrestando automáticamente el efecto del obstáculo, sin que el conductor se dé cuenta: el coche podrá ir más rápido pero será más seguro.
La compañía PML Flightlink diseña motores electrónicos y su prototipo de vehículo electrónico (EV) ha sido ya mostrado en ferias internacionales del motor. Fabricado a partir de un Mini, cada una de sus ruedas inteligentes posee un “hub motor” (motor en el centro de la rueda) electrónico con una potencia efectiva de 160 caballos de vapor.
Esta potencia, combinada con 640 caballos de vapor de potencia del vehículo, permite pasar de 0 a 96,5 kilómetros por hora en 4,5 segundos y alcanzar una velocidad máxima de 240 kilómetros por hora.
Un pequeño motor de gasolina de 250 centímetros cúbicos carga la batería del coche cunado es conducido. De esta forma, el vehículo puede recorrer más de 1.400 kilómetros sin repostar, mientras que sólo con el motor eléctrico aguanta 320 kilómetros.
La inteligencia artificial no es un sector únicamente reservado a los coches: también se aplica en otras áreas, como en el control de sistemas, planificación automática, reconocimiento de escritura y habla e, incluso, en economía, medicina o videojuegos.
Tendencias Tecnológicas

Volver a la página principal

lunes, 18 de junio de 2007

Cambio Climático en el Río de la Plata.



Las emisiones de gases de efecto invernadero resultantes de ciertas actividades humanas, han sido la principal causa del inusual calentamiento del planeta durante los últimos 150 años; este proceso que continúa es conocido como Cambio Climático. Se trata de un calentamiento global del planeta que implica también un importante cambio climático no sólo en temperatura sino en las otras variables climáticas como la precipitación, los vientos y la humedad”.
La frase es el puntapié inicial del libro El Cambio Climático en el Río de la Plata, que el climatólogo Vicente Barros escribió junto a Ángel Menéndez y Gustavo Nagy y que puede leerse en la página del Laboratorio de Climatología Regional (LCR). Es que, justamente, ese laboratorio del Centro de Investigaciones del Mar y la Atmósfera (CIMA) es uno de los centros de investigación que reúne a la mayor cantidad de expertos en el tema.
La investigación llevada a cabo en el LCR se entrelaza en un eje temático común: el Cambio Climático, sus consecuencias y cómo paliarlo. “Lo que va a pasar de aquí a 20 ó 30 años ya está jugado, si queremos evitar males mayores para nuestros hijos y nietos, tenemos que empezar a prever y disminuir las emisiones”, explica Barros.
“El problema es que el cambio climático no es algo futuro. Está pasando ahora. En nuestro país, la primera y más gravosa señal es el incremento en la frecuencia de tormentas intensas”, resalta.
La relación entre el Cambio Climático y el aumento en las precipitaciones es materia de estudio en el laboratorio. “La teoría supone que habrá aumento de temperatura y el aire tendrá más humedad, lo que favorecerá que haya más precipitación. En la Argentina, esto empezó a sentirse en la década del ’90, pero no tomamos conciencia hasta hace muy poco”, aseveró Barros.
“Lo que sucede en nuestro país es paradigmático –continúa- empezó en abril del año pasado en Salta y continuó con inundaciones en Río Grande, los dos extremos del país. Luego hubo inundaciones en Neuquén y en Formosa; varias en Córdoba; en Reconquista hubo un tornado; granizadas espectaculares en regiones poco habituales y terminamos con una inundación tremenda en Santa Fe y Entre Ríos”, se lamentó.
Por todo esto, uno de los proyectos llevados adelante en el laboratorio tiene por objetivo analizar las grandes inundaciones en el litoral argentino y en la ribera del Río de la Plata en función del cambio climático regional observado y estimado para el futuro. La idea es, también, poder recomendar líneas de acción que permitan reducir los daños socioeconómicos de estos eventos.
“Hasta ahora -explica Barros-, la planificación de cualquier actividad afectada por el clima tenía como supuesto que, en el futuro, éste tendría las mismas características que en el pasado. A partir del actual Cambio Climático esta suposición ya no es válida y para estimar el clima futuro se debe recurrir a métodos más sofisticados, que se basan en el desarrollo de escenarios climáticos futuros. Por eso, los tipos de inundación que analizamos en nuestro proyecto son aquellos cuyos forzantes climáticos pueden ser representados en los escenarios del futuro, con los conocimientos actuales”.
El grupo de Barros realizó estudios sobre la inundación de los años 1997-
1998 de los ríos Paraná y Uruguay a partir de imágenes obtenidas por el satélite Landsat 5 y provistas por la Comisión Nacional de Investigaciones espaciales (CONAE). “Este tipo de inundación se produjo con mayor frecuencia a partir de cambios producidos en los eventos ‘Niño’ y en coincidencia con el gran cambio en la circulación atmosférica, cuyo origen sería atribuible al Calentamiento Global”, explica el climatólogo.
En el estuario del Río de la Plata, por su parte, las inundaciones están relacionadas con las sudestadas y el aumento paulatino del nivel de las aguas, que subió 20 cm durante el siglo XX.
Los modelos climáticos globales indican que el desplazamiento del borde occidental del anticiclón del Atlántico continuará hacia el sur, ello contribuirá a una mayor rotación de los vientos hacia el este, lo que incrementará aún más el nivel del río”, dice Barros. “Por eso se debe considerar como área de vulnerabilidad futura a toda aquella que esté por debajo de los 5 m sobre el nivel del mar”, concluye.
Se calcula que la cantidad de población de Buenos Aires y el conurbano afectada en el futuro por estas consecuencias podría ascender a 1,5 millones de personas. La mayoría de ellas reside en ambas márgenes de la cuenca Matanza-Riachuelo, de los arroyos del norte de la ciudad y del río Reconquista.
La nación cuenta con un sistema de alerta hidrológico para desbordes de grandes ríos. Pero es necesario que se puedan agregar otras variables. Para ello Barros apunta a la necesidad de “tener un Servicio Meteorológico moderno, que afortunadamente ya está en vías de recuperación por su pase a la órbita civil. Se necesitan inversiones importantes para recuperarlo y dotarlo de radares para manejar esta emergencia”, concluye.
Agencia CyTA-Instituto Leloir

Volver a la página principal

domingo, 17 de junio de 2007

Descifrando el misterio de la memoria.



La memoria es uno de los mecanismos más misteriosos y complicados de la naturaleza. La comprensión del proceso bioquímico sobre el cual está basada la formación de la memoria puede ayudar a los científicos a curar enfermedades mentales y neurológicas y problemas de aprendizaje.
Ciertos encuentros amistosos, un nuevo gusto o una idea súbita quedan grabados en nuestras mentes para siempre, mientras que otros eventos diarios se esfuman como si nunca hubieran ocurrido. La solución del enigma de la formación de la memoria ha avanzado un pequeño paso gracias a los descubrimientos de la Dra. Malka Cohen-Arnon, bioquímica de la Facultad Sackler de Medicina (UTA).
La Dra. Cohen-Armon , en colaboración con científicos de la Universidad de Bar-Ilan y la Universidad de Columbia, descubrió que una proteína llamada PARP1, presente en el núcleo de células animales y vegetales, es activada en las células cerebrales como consecuencia de estímulos externos y facilita la formación de memoria duradera.
PARP1 no es un descubrimiento reciente. Desde hace más de cuatro décadas los científicos saben que la activación de esta proteína es una respuesta de emergencia de las células ante condiciones de presión que pueden dañar la información genética en el DNA. Estas condiciones de presión incluyen el envejecimiento de las células, su daño, inflamación o exposición a la radiación. La activación del PARP1 libera rápidamente las proteínas que rodean las moléculas de DNA, permitiendo el acceso a los sitios dañados y su posible reparación.
La Dra. Cohen-Armon y sus colegas descubrieron una segunda función del PARP1, no relacionada con condiciones de presión. Los investigadores demostraron que la activación de la proteína es esencial para la aceleración de los genes que controlan la formación de memoria a largo plazo. “La memoria a corto plazo y a largo plazo son procesos diferentes”, explica la Dra. Cohen-Armon. “Para la memoria a corto plazo no se requiere la mediación de genes. La memoria a largo plazo implica la intervención de genes específicos. PARP1 permite que estos genes sean activados”.
“Imagínese el obturador de una cámara fotográfica que protege la película. En nuestro caso la película son las moléculas de DNA en el núcleo de una célula y el obturador son las proteínas que rodean al DNA. Normalmente, la activación de PARP1 abre el obturador y permite que los procesos de reparación alcancen el DNA. Hemos descubierto que este mismo obturador permite el acceso al DNA durante el proceso de aprendizaje, facilitando la formación de memoria a largo plazo como consecuencia de la activación de moléculas específicas de DNA”, dice la Dra. Cohen-Armon .
Los investigadores probaron esta teoría en el molusco marino Aplysia californica, cuyo primitivo sistema nervioso fue utilizado durante tres décadas como modelo del funcionamiento básico del cerebro. Durante el entrenamiento del molusco para ignorar alimentos no ingeribles, los investigadores notaron que PARP1 resultó activado en su sistema nervioso y que dicha activación es esencial para la capacidad del molusco de recordar dicho aprendizaje a largo plazo. Más aún, la memoria a largo plazo fue eliminada completamente cuando fue inhibida la activación del PARP1.
Estos descubrimientos señalan la existencia de un mecanismo hasta ahora desconocido referente a la modalidad de formación de la memoria, lo cual puede tener importantes implicaciones sobre el tratamiento de enfermedades como Alzheimer y Parkinson, enfermedades mentales y otras condiciones que se manifiestan en problemas de memoria o concentración.
Fuente. Universidad de Telaviv.

Volver a la página principal

jueves, 14 de junio de 2007

Nuevo sistema para almacenar hidrógeno.



El cuello de botella de la implantación de automóviles eléctricos son las baterías. Éstas son en general pesadas, caras y lentas de cargar. Aunque ya hay incluso un deportivo (a precio estratosférico) que acelera de 0 a 100 Km. /h en 4 segundos y alcanza los 210 Km/h, pero que tarda 3 horas y media en recargar las baterías para una autonomía de sólo 400 Km/h.
Una manera de solucionar el problema es usar hidrógeno y combinarlo con el oxígeno atmosférico en células de combustible para producir electricidad. Pero entonces el problema es almacenar el hidrógeno. Si se da con una buena solución para almacenar este gas quizás incluso se puedan usar dichas células incluso en ordenadores portátiles y similares.
El químico Don Gervasio de Arizona State University y sus colaboradores han dado con un sistema de almacenamiento de hidrógeno sencillo y eficiente a temperatura ambiente que genera en peso más electricidad que cualquier sistema de baterías existente.
El sistema se basa en una solución alcalina de borohidrato al 30% en la que el agua contiene un tercio más de hidrógeno que el mismo volumen de hidrógeno líquido criogénico. La ventaja es que este sistema almacena el hidrógeno a temperatura ambiente, es estable, no es tóxico y tiene un precio competitivo.
El hidrógeno es liberado a través de un proceso de catálisis mediado por rutenio (un caro metal precioso), el hidrógeno gaseoso pasa entonces a la célula de combustible través de una membrana y se combina con el oxígeno produciendo electricidad y vapor de agua.
Teóricamente se puede alcanzar una densidad de almacenamiento de 2200 vatios / hora por litro, mientras que una batería de litio polímero de alta tecnología sólo rinde 200.
En las versiones anteriores del sistema había problemas por la acumulación de óxido de boro insoluble. La solución encontrada ha sido disolverlo utilizando el componente principal de los anticongelantes para autos: etileno glicol. El prototipo ya funciona al 15% de borohidrato, pero se espera llegar al 30%.
Por otro lado, la implantación de células de combustible basadas en metanol en aparatos electrónicos de consumo se retrasa y tardará de 3 a 5 años más en llegar al mercado. Estas baterías tendrían una capacidad 10 veces superior a las convencionales de litio y se recargarían al instante. Pero al parecer las compañías están preocupadas por la seguridad de las mismas. Recientemente han tenido que retirar miles de baterías convencionales de litio por peligro de incendio.
Fuente. TheScientificCartoonist

Volver a la página principal

miércoles, 13 de junio de 2007

Habrá mil millones de refugiados climáticos en 2050



El calentamiento del planeta creará al menos mil millones de refugiados en todo el mundo en el año 2050, según un informe elaborado por Christian Aid, del que ha publicado un comunicado.

Christian Aid es una ONG creada en 1945 para atender a los refugiados de la segunda guerra mundial. Según el informe citado, los desplazados por el cambio climático superarán con creces a los movimientos migratorios ocurridos como consecuencia de la gran conflagración de 1939-1945.

El informe precisa que estos refugiados serán la consecuencia de las penurias de agua y alimentos, que asolarán a amplias regiones del globo, desencadenando probablemente guerras por el control de los recursos.

El informe señala que los países desarrollados, principales responsables de la contaminación planetaria, deben asumir sus responsabilidades con estos refugiados, ya que las migraciones forzosas constituyen la amenaza más grave que pesa hoy para las poblaciones sin recursos de los países en desarrollo.

El impacto del cambio climático sobre los procesos migratorios es la variable desconocida de esta gran ecuación, señala el informe, ya que debido a la envergadura de este cambio se originarán catástrofes de amplitudes muy diferentes.

La comunidad científica ha calculado que el aumento de las emisiones de gases de efecto invernadero provocará una elevación de las temperaturas a lo largo de este siglo de entre 1,8ºC a 3,0ºC. Esta significativa evolución de la temperatura media del planeta provocará inevitables inundaciones y hambrunas catastróficas que afectarán a millones de personas.

Tal como recuerda The Guardian, el Panel Intergubernamental de Expertos sobre el Cambio Climático o IPCC estima que en 2080 una tercera parte de la población del planeta, alrededor de 2.300 millones de personas, no tendrá agua suficiente para cubrir sus necesidades y que 600 millones de personas no tendrán alimento que llevarse a la boca.

El informe de AID asegura categórico que si no se adopta ninguna medida correctora en nuestros días, el cambio climático elevará a mil millones el número de refugiados en los próximos 45 años.

El informe toma como referencia Darfour, un conflicto del oeste de Sudán, que ha provocado 200.000 muertos y dos millones de desplazados. Según el informe, en las próximas décadas habrá muchos conflictos como el de Darfour repartidos por amplias regiones del globo.

Tensiones internacionales y nacionales

El informe advierte que millones de refugiados climáticos pasarán sus fronteras y crearán nuevas tensiones internacionales. Otros muchos se desplazarán en el interior de sus propios Estados, lo que les privará del reconocimiento del estatuto de refugiado y que puedan ser contabilizados como tales, a pesar de lo cual serán la manifestación de estos procesos migratorios nuevos y originarán tensiones en el seno de sus respectivas comunidades nacionales. Colombia, Malí y Birmania serán los países más afectados por estos desplazamientos internos, según el informe.

El informe destaca que el número de personas que han abandonado sus hogares a causa de conflictos, catástrofes naturales y grandes proyectos de desarrollo, como la construcción de minas o presas, es ya de 163 millones de personas, una tendencia que aumentará a medida que las temperaturas conviertan en inhabitables muchos espacios donde hoy numerosas comunidades humanas desarrollan su vida.

En el futuro, dice el informe, los cambios climáticos van a acelerar estos movimientos migratorios, y por ello solicita a los gobiernos una “acción urgente” que les permitan adoptar severas medidas de prevención.

Christian Aid detalla cómo será el proceso: 645 millones de desplazados debido a grandes proyectos (en la actualidad esta actividad genera 15 millones de desplazados cada año), 250 millones vinculados directamente a cambios climáticos y sus secuelas, (como las inundaciones, sequías, hambrunas) y 50 millones más debido a conflictos armados y atentados contra los derechos humanos.

El informe señala que en la actualidad preocupa mucho el fenómeno de la inmigración clandestina, que castiga especialmente a Europa y Estados Unidos, y advierte que la crisis real de la inmigración todavía no ha comenzado, sino que se está gestando en la actualidad al tiempo que es ignorada por los organismos internacionales.

No es la primera vez que un grupo de expertos llama la atención sobre el impacto del cambio climático sobre los movimientos migratorios. Un estudio elaborado por Naciones Unidas y publicado en octubre de 2005 prevé que 50 millones de personas podrían convertirse en refugiados climáticos en 2010.

El estudio fue realizado por el Instituto para la Seguridad Ambiental y Humana o ISEH, perteneciente a la Universidad de Naciones Unidas, y calcula que la degradación ambiental y los cambios climáticos aumentarán los flujos migratorios. Por ello solicita un reconocimiento expreso del estatuto de estas personas por parte de la comunidad internacional.

Según la ONU, 100 millones de personas están amenazadas en todo el mundo por la subida de los océanos. El archipiélago de Tuvalu, formado por 9 islas de 26 kilómetros cuadrados, es el más amenazado por este proceso y sus 11.660 habitantes ya buscan otro espacio para vivir, según el informe de Naciones Unidas.

Sobre las zonas de alto riesgo, Naciones Unidas destaca el avance de 10.000 kilómetros cuadrados cada año del desierto de Gobi en China, amenazando a numerosas ciudades, la erosión galopante de las tierras de cultivo en Turquía, la salinización de la mitad de las tierras agrícolas irrigadas de Egipto, y la elevación del nivel del mar en el Pacífico. Según sus estimaciones, 20 millones de personas ya han debido emigrar a otras regiones debido a la erosión de tierras agrícolas, contaminación de las capas freáticas y otros procesos.

El IPCC también ha señalado al respecto que en 2050 América Latina habrá perdido la mitad de las tierras agrícolas, lo que será a su vez origen de desplazamientos humanos.


Volver a la pégina principal

domingo, 10 de junio de 2007

Sistema recolector de agua del rocío.



Dos arquitectos israelíes han diseñado un sistema sencillo para obtener agua potable del rocío como parte de sus tesis doctorales. Para ello se han inspirado en las propiedades recolectoras del rocío de las hojas de las plantas. El sistema puede extraer del aire unos 48 litros de agua fresca cada día por colector. Usando más de un colector se puede producir mayor cantidad de agua hasta conseguir un suministro de agua prácticamente ilimitado.
El invento ha ganado recientemente un concurso internacional que premia el desarrollo de sistemas de obtención de agua para regiones en vías de desarrollo que no cuentan con fuentes seguras del preciado líquido.
El dispositivo desarrollado por Joseph Cory y Eyal Malka se llama WatAir y consiste en una formación de pirámides invertidas que recogen la humedad ambiental y la trasforman en roció, roció que recolectan para así obtener agua líquida en casi cualquier climatología. Para la recolección de las gotas de roció se hace uso de la gravedad. El concepto en el que se basa es muy simple y era ya conocido incluso por los boyscouts.
Cada unidad de unos 30 metros cuadrados puede extraer un mínimo de 48 litros de agua del ambiente cada día. Dependiendo del número de colectores usados se puede multiplicar esa cantidad.
La idea es utilizar el sistema en sitios remotos donde no tengan suministro de agua potable. Pero se puede usar tanto en ambientes rurales y urbanos al tener una base muy pequeña, pudiéndose aprovechar el espacio que queda bajo los colectores para otros fines. Éstos, además, pueden plegarse fácilmente y guardarse cuando no se usen. Deplegados proporcionan refugio frente a la lluvia, o el calor.
WatAir ha sido el proyecto seleccionado recientemente de entre los 100 presentados de todos los continentes al concurso internacional “drawing water challenge”.
Fuente:American Technion society.

Volver a la página principal

sábado, 9 de junio de 2007

La sensación de frío es detectada por una proteína.



La sensación de frío que tenemos al comer un helado o tomar algo frío descansa sobre una sola proteína que hace de receptor al frío y que nos proporciona esa sensación de frescor. Esta proteína también es sensible a la presencia de mentol y proporciona alivio frente al dolor.
¿Se ha planteado alguna vez de dónde proviene la sensación de frío cuando consume algo con menta? Cuando vaya a comerse un helado, saboree una bebida fría o masque un chicle de menta piense que comparte con los ratones la proteína TRPM8 y que ésta es la que le proporciona en todos esos casos esa sensación de frescor. Al menos esto es lo que se mantiene en tres artículos publicados en Nature y Neuron recientemente.
El sensor proteínico controla además el efecto de alivio frente al dolor que produce la baja temperatura, pero no parece jugar ningún papel en la respuesta de dolor que se tiene cuando la temperatura baja por debajo de 10 grados centígrados.
TRPM8 pertenece a la misma familia de proteínas que detectan el calor y el capsaicin, el compuesto químico presente en las guindillas o pimientos picantes y que los hace sentir como si estuvieran calientes (curiosamente en inglés hot además de “caliente” también significa picante. Estas proteínas están sobre la membrana celular de determinadas neuronas y forman canales iónicos que se abren o cierran en respuesta a señales externas.
Tanto las temperaturas frías como la presencia de mentol hacen que la proteína TRPM8 se abra permitiendo que los iones de calcio y otras cargas positivas pasen al interior de la célula. Tanto los ratones como los humanos contamos con el gen que codifica esta proteína. En cultivos ambas versiones abren sus canales por debajo de 27 grados centígrados.
Ahora tres equipos distintos de investigadores han creado independientemente un ratón mutante que no produce dicha proteína y han estudiado sus efectos.
Los tres grupos encontraron que los ratones se hicieron casi insensibles a temperaturas bajas moderadas y al mentol, aunque presentaban una respuesta a las temperaturas mucho más bajas, lo que significa que para ese caso la proteína en cuestión no juega ningún papel.
El frío puede anestesiar la piel, aliviar el dolor y combatir la inflamación. Uno de estos grupos de investigación inyectó a los ratones un compuesto que les producía dolor y los pusieron en una plataforma fría para medir durante cuanto tiempo los ratones se estremecían de dolor.
Pudieron comprobar que los ratones mutantes se estremecían durante más tiempo, lo que demostraba que la TRPM8 es responsable del alivio del dolor inducido por el frío.
La proteína además parece estar relacionada con una condición para la cual las personas que la padecen son hipersensibles a las bajas temperaturas. Un grupo de investigadores indujeron quirúrgicamente esta condición en ratones y comprobaron que los ratones mutantes sin TRPM8 no padecían este problema cuando eran expuestos al frío, al contrario que sus compañeros no mutantes.
¿Alguien se atreve con un helado de guindillas o con una taza de ardiente infusión de menta? Quizás algún cocinero de diseño.

Fuente: Nature

viernes, 8 de junio de 2007

Resolución del cubo de Rubik en 26 movimientos


Gene Cooperman y su colaborador Dan Kunkle, ambos de Northeastern University, consiguen demostrar que con 26 movimientos o menos es posible resolver el cubo de Rubik desde cualquier configuración inicial. La anterior marca mundial estaba en 27 movimientos.

El cubo de Rubik representa más que un juego o un entretenimiento para los expertos en ciencias de la computación y matemáticos, ya que les permite comprobar y comparar estrategias para la obtención de algoritmos que resuelvan problemas de búsqueda y enumeración. Este tipo de problemas se dan en muchas disciplinas que incluyen la inteligencia artificial.

Para lograr esta nueva marca los investigadores citados usaron dos técnicas principalmente: un sistema de 7 terabytes en discos duros como extensión de memoria RAM para mantener grandes tablas de datos y un nuevo sistema de computación de movimientos o conjunto de movimientos muy rápido basado en el uso de teoría de grupos (una rama de las matemáticas).

Cooperman y Kunkle colocaron todas las posibles configuraciones del cubo de Rubik en una familia de conjuntos de configuraciones (denominada coset en teoría de grupos). Entonces miraban el resultado cuando se aplicaba un movimiento simple sobre todas las configuraciones a la vez de un coset. Entonces simularon esto en una computadora a un ritmo de 100 millones de veces por segundo usando una nueva técnica de teoría de grupos.

Richard Korf (de UCLA) anunció en mayo de 1997 que había encontrado la primera solución óptima al cubo de Rubik. Su investigación mostraba que la solución óptima media constaba de 18 movimientos. Además él creía que el cubo se podía resolver en menos de 20 movimientos. Sin embargo, fue incapaz de demostrar tal afirmación, aunque sí probó que como mínimo se podría resolver con 27 movimientos.

El programa de Korf gastaba mucho tiempo en encontrar la solución óptima para estados simples de partida, pero en esta nueva aproximación de Cooperman el ordenador hace primero una precomputación y después, de forma muy rápida (en un segundo) encuentra una solución en 26 movimientos o menos para cualquier estado o configuración de partida del cubo. Para este cálculo Cooperman y Kunkle usaron ordenadores del Teragrid (teragrid.com) y de su propia universidad.

El cubo de Rubik fue inventado al final de los años setenta y probablemente es el rompecabezas combinatorio más famoso, pudiendo adoptar un ingente número de combinaciones, concretamente 4,3252 × 1019 configuraciones posibles.
Fuente: Northeastern University.

Previniendo desde el espacio.



El Sistema Italo-Argentino de Satélites para la Gestión de Emergencias (SIASGE) es el primer sistema satelital del mundo diseñado específicamente para prevenir, monitorear, mitigar y evaluar catástrofes. Se basa en dos constelaciones de satélites, una formada por dos SAOCOM argentinos y otra por cuatro COSMO-SkyMed italianos. Este sistema utiliza tecnología de radar SAR (Synthetic Aperture Radar), capaz de “ver” la superficie terrestre, tanto de día como de noche y en cualquier condición climática. Ya se trate de inundaciones, terremotos, incendios, deslaves de terreno, sequías o derrames de petróleo, esta capacidad de los seis satélites operando en conjunto permitirá algo inédito en la historia: obtener imágenes desde el espacio cada 12 horas de cualquier desastre natural o causado por el hombre, en el lugar que sea del planeta. Y a ello se agregan una gran cantidad de otras aplicaciones.
El SIASGE es un proyecto de cooperación entre la República Argentina y la República de Italia, a través de sus respectivas agencias espaciales, la Comisión Nacional de Actividades Espaciales (CONAE) y la Agenzia Spaziale Italiana (ASI). Involucra, además de la conformación de un sistema de satélites, un amplio programa de capacitación de usuarios de información satelital y el desarrollo de herramientas informáticas y redes de transmisión de datos espaciales. La propuesta trae tantos beneficios que ha merecido que el Banco Interamericano de Desarrollo (BID) apoye el componente argentino del sistema -los satélites SAOCOM- financiando parte de su construcción, algo sin precedentes para dicho organismo. Italia también participa en la constelación SAOCOM ocupándose de su puesta en órbita y en desarrollos tecnológicos avanzados.
El SIASGE es un logro múltiple. Permitirá no sólo predecir la posibilidad de que ocurran catástrofes (y por ende prevenir o mitigar sus efectos): también dará servicios de monitoreo conceptualmente nuevos para la agricultura, la salud pública, la cartografía, los recursos naturales y marinos, el manejo del medio ambiente y apoyo a actividades judiciales y de seguros; prestaciones que el SIASGE puede efectuar por la novedosa combinación de bandas que lo caracteriza.
Los cuatro satélites italianos COSMO-SkyMed “mirarán” la Tierra con radares de banda X (de microondas de 3 cm de longitud de onda, y los dos SAOCOM argentinos harán lo propio en la banda L (de microondas de 23 cm de longitud de onda. Cada banda “ve” cosas muy distintas, y de distinto modo. La suma de ambas visiones ofrece un catálogo abierto de posibles servicios, del que sólo se conoce el comienzo, porque es tecnología inédita y en desarrollo.
Con la puesta en órbita del primer satélite del SIASGE, Italia y Argentina se posicionan como fuente de conocimiento novedoso, que se volverá imprescindible para el resto del planeta: información espacial completa y predictiva.
Al “mirar a dos bandas” aparecen cosas nuevas
El radar en banda X de los satélites italianos, de alto detalle y escasa penetración, emite pulsos de microondas que se reflejan en la copa de los árboles o en la parte superficial del suelo o en la superficie del hielo. Pero los pulsos de microondas en banda L de los satélites argentinos “miran” lo profundo: penetran el follaje y los troncos de un bosque, y registran el agua sobre el suelo, e incluso llegan hasta determinada profundidad del suelo, según el contenido de humedad que tenga. En el hielo, en algunos casos, llega hasta el suelo subyacente. La integración de ambas bandas (X+L) muestra estructuras y situaciones de gran complejidad, imposibles de detectar con una sola de ellas.
Mucho más que la suma de las partes
Del total de aplicaciones derivables de los datos del SIASGE, el 78% se ve muy beneficiado por el cruce de información X+L. El resto de las aplicaciones se puede satisfacer ya sea utilizando banda L (el 9%), banda X (otro 9%) y una u otra indistintamente (el 4%.

La Estación Terrena Córdoba.

Localizada en el Centro Espacial Teófilo Tabanera de la CONAE, la Estación Terrena Córdoba recibe información de diversos satélites, tales como Landsat 5, ERS 2, SPOT 1 y 2, Landsat 7, Radarsat 1, EROS 1A, Terra, Aqua, el satélite argentino SAC-C, la serie NOAA compuesta por cinco satélites, también el FengYun 1D, GOES 10 y ALOS. Pero además la Estación realiza el servicio de Telemetría, Telecomando y Control (TT&C) para los satélites propios, como el SAC-C, y dará igual servicio al SIASGE. Se trata de una compleja operación que permite comandar y monitorear el estado de salud del satélite.
Por estas capacidades, la asociación de Argentina e Italia en el SIASGE no se limita a compartir información satelital. Se extiende al control conjunto de los satélites del sistema, lo que significa que la Estación Terrena Córdoba no sólo “baja” imágenes de los satélites italianos COSMO-SkyMed, sino que también los monitorea y comanda de
acuerdo a las agendas de observación acordadas entre ambas agencias. Análogamente, la ASI realizará la misma operación con los satélites argentinos SAOCOM, desde sus estaciones terrenas ubicadas en Italia (en Fucino y Matera. Para brindar mayor cobertura en el hemisferio sur y optimizar el contacto con los satélites, la CONAE construirá una segunda estación terrena en el continente antártico.
Ahora, ya equipada para el manejo del SIASGE, con nuevos componentes y procedimientos, nuestra estación cordobesa es una de las más eficientes y automatizadas del mundo.
El Instituto de Altos Estudios Espaciales “Mario Gulich”
Ubicado en el Centro Espacial Teófilo Tabanera, el Instituto Gulich es un emprendimiento de la CONAE y la Universidad Nacional de Córdoba, y cuenta con fuerte apoyo de la ASI, que se ha incorporado al Consejo Académico del Instituto y ha hecho importantes contribuciones en equipamiento informático; también lo respalda el gobierno italiano, otorgando becas de capacitación.
Las actividades y principales proyectos del Instituto Gulich están orientados a la aplicación de la tecnología y la información espacial en dos temas de interés prioritario: las emergencias, naturales y antropogénicas (particularmente en las etapas de prevención y alerta temprana) y la epidemiología panorámica (en la determinación de zonas de riesgo de enfermedades endémicas y control de epidemias). En el Instituto se forman recursos humanos de avanzada, con el objetivo de desarrollar aplicaciones innovadoras de la información espacial, tales como el sistema de alerta temprana en incendios, inundaciones, deslizamientos y derrames de petróleo, y los mapas de riesgo de hantavirus, la fiebre hemorrágica argentina, el dengue, el mal de chagas, el paludismo, leishmaniasis y malaria, en los que actualmente se está trabajando, entre otros proyectos.
Con el despliegue del nuevo sistema satelital argentino-italiano, este centro está llamado a transformar la información espacial de radar X+L generada por el SIASGE, en tecnologías y productos útiles orientados. Así el Instituto Gulich proyecta ofrecer especializaciones en grado de maestría y doctorado. En el área de salud, por ejemplo, reunirá a sanitaristas, hidrólogos, biólogos, climatólogos y expertos en sensores remotos para que utilicen datos X+L en modelos predictivos de ocurrencia de enfermedades humanas como las citadas anteriormente. Como la fuente misma de información es una novedad histórica, las aplicaciones derivables del SIASGE forman un catálogo abierto cuyo comienzo se conoce, pero cuyos límites están por descubrirse. Enfocando las problemáticas mencionadas con tecnología de punta, el Instituto Gulich se consolidará como un centro italo-argentino de excelencia para la región latinoamericana, con prestigio mundial.

Capacidades y usos de los satélites de radar.

Antes de mandar radares de gran complejidad al espacio hay que tener una idea de cuál será su primer abanico de aplicaciones terrestres. Por ello, el proyecto SAOCOM tiene un precursor: el SARAT. Se trata de dos radares S.A.R. polarimétricos en banda L similares a los que llevarán los satélites argentinos, pero que operan desde aviones.
El SARAT 1 vuela hoy en un avión Beechcraft Super King Air B-200 biturbohélice de la Armada Argentina. Sirve para ir diseñando aplicaciones para procesar la información que aporten los SAOCOM y el sistema SIASGE en general. El SARAT 2, en construcción, se usará para testear características particulares de operación de los SAOCOM. Ambos SARAT alimentarán el proyecto con experiencia pre-espacial, y ayudarán a validar y calibrar los radares satelitales antes de su puesta en órbita.
Los productos de estos primeros pasos ya se pueden ver en imágenes de zonas de riego artificial en San Luís. Debido a las propiedades del radar en banda L es posible identificar en la imagen SARAT, con el debido procesamiento, la cantidad de humedad que tiene cada parcela.
En materia de cuidado ambiental, la mirada de un radar espacial S.A.R. es muy penetrante. Arriba y a la izquierda se ve el estuario del Río de la Plata, con la rada de Montevideo y la costa bonaerense, con varios barcos (puntos minúsculos blancos) seguidos de sus estelas (también blancas) Pero queda registrado un hecho delictivo: una nave en camino hacia Montevideo va dejando una enorme estela contaminante, presumiblemente por una limpieza de sentinas.
El satélite que obtuvo la imagen S.A.R. en banda C (6 cm de longitud de onda) “iluminó” el área de referencia con un haz de microondas oblicuo. El color gris claro del agua registra la rugosidad del oleaje, que dispersa las microondas en distintas direcciones, de modo que algunas vuelven al satélite, mientras que el color negro de la estela de petróleo denota una superficie lisa como un espejo, que refleja totalmente las microondas y las aleja, de modo que ninguna vuelve al radar.
Otro aspecto interesante es que además de detectar lo que acaba de suceder, el SIASGE podría anticipar lo que sucederá. La banda X de los COSMO-SkyMed puede detectar la humedad del follaje de un cultivo, y la banda L de los SAOCOM puede medir el agua disponible en la superficie del suelo; y ambos datos generar predicciones de cosecha. Análogamente, la detección de pastizales secos y tierra seca, cruzada con datos meteorológicos de altas temperaturas y vientos intensos, podría servir para generar alertas de incendio.
Se trata de un sistema de satélites que trae beneficios de características inéditas, gracias a la complementariedad de dos proyectos nacionales, uno argentino, los SAOCOM, y otro italiano, los COSMO-SkyMed. En suma, aunque el SIASGE resuelve problemas que conocemos, su capacidad es tal que se perfila como una solución en busca de problemas. Y cada problema es, en realidad, una oportunidad científica y comercial.
La imagen satelital ERS-2 registró el 30 de agosto de 2001 un importante derrame de contaminantes en el Río de la Plata.
Imagen radar SARAT 1 de un campo con sistema de riego artificial.

Aplicaciones y productos del SIASGE

- Modelos digitales de terreno y mapas de humedad del suelo.
- Mapas de cobertura del terreno y de desplazamiento del terreno.
- Detección de derrames de petróleo en el mar o en ríos.
- Monitoreo del avance y retroceso de los glaciares.
- Mapas geomorfológicos, por ejemplo para las acciones de mitigación de una inundación.
- Monitoreo de dunas móviles, fenómeno típico de la Península Valdés en la provincia del Chubut.
- Determinación de rutas alternativas, como apoyo a embarcaciones que navegan por zonas de hielo marino.
- Epidemiología Panorámica: en el estudio de la relación entre las condiciones ecológicas del medio y la propagación de vectores transmisores de enfermedades, como los roedores y los mosquitos.
- En áreas como agricultura, hidrología, arqueología, geología y urbanismo.
Los satélites argentinos SAOCOM.
En el marco del Plan Espacial Nacional la CONAE desarrolla los satélites SAOCOM 1A y 1B, que llevarán a bordo radares S.A.R. emisores de microondas en banda L. Sumando las capacidades de ambos satélites argentinos a los cuatro COSMO-Skymed italianos, se podrán tener imágenes de cualquier catástrofe en cualquier punto del globo actualizadas cada 12 horas. El tiempo de vida media de cada satélite está estimado en un mínimo de 5 años.
Los invitados a esta “vigilia” llegarán al Centro Espacial, situado en Falda del Carmen, a las 22:30. A las 23:00 se inicia la transmisión por televisión del lanzamiento del COSMO-SkyMed. Y a las 23:20 tendrá lugar la cuenta regresiva y el despegue del cohete DELTA II que colocará el satélite en su órbita. El lanzamiento se realiza desde la base Vandenberg de la Fuerza Aérea norteamericana, en California, Estados Unidos.
El viernes 8 a las 12:30 habrá una nueva recepción de visitantes en el Centro Espacial de la CONAE en Falda del Carmen. Para entonces el satélite habrá sido “despertado”, y se habrán hecho las comprobaciones de su “estado de salud” desde la Estación Terrena ubicada en el Centro Espacial en Córdoba.
Fuente. CONAE.

viernes, 1 de junio de 2007

La Biotecnología base de la industria?



La biotecnología es la ciencia, y cada vez más la rama industrial, que aprovecha los conocimientos extraídos de la biología para la fabricación de nuevos productos.
El plástico está por todos lados, y podría ser biodegradable.
Existen muchos campos a los que se puede aplicar la biotecnología. Un buen ejemplo lo encontramos en la medicina. En la fabricación de antibióticos se utilizan microorganismos desde hace siglos. También a la agricultura o a la producción de carburantes sirve la biotecnología, sin olvidar otro importante sector que es el de los productos químicos.
Con biotecnología se pueden fabricar plásticos, que a la vez son biodegradables, papeles, textiles, aromas y perfumes. En realidad, todo lo que hoy se produce gracias al petróleo.
Los productos farmacéuticos se pueden fabricar químicamente, de forma sintética, o haciendo uso de organismos y células que igualmente generan la sustancia buscada.
Por lo general, las estructuras de los productos creados a partir de la biotecnología son más complejas: sus moléculas son de una complejidad que la química no puede reproducir.
Nuestro cuerpo fabrica él mismo muchas sustancias. Por ejemplo, insulina. Para las personas que sufren una disfunción y no generan ciertos elementos, como por ejemplo los diabéticos, éstos pueden ser fabricados con métodos biotecnológicos y así corregir el error en el funcionamiento de su organismo.
Tomemos el plástico como ejemplo: hoy se fabrica principalmente a partir del petróleo. Muchas moléculas que proceden del petróleo están unidas las unas a las otras y conforman objetos de plástico. Pero se pueden tomar otras moléculas, que se unan del mismo modo y a su vez hayan sido fabricadas a partir de bacterias.
Por ejemplo, las moléculas de ácido láctico, nacidas de las mismas bacterias que se usan en el yogurt. Muchas moléculas de ácido láctico unidas las unas a las otras crean un plástico del que se pueden fabricar bolsas, recipientes, e incluso textiles.
Los carburantes alternativos pertenecen también al ámbito de la biotecnología. Hoy en día, los combustibles para los coches, los aviones, etc., se extraen del petróleo. Pero también con bacterias o levaduras se pueden fabricar carburantes. Del azúcar, por ejemplo, se extrae etanol. Basta con tomar una levadura, como la que sirve para la repostería o la fabricación de cerveza, y por el mismo proceso de fermentación, del azúcar obtenemos etanol.
La mayoría de los medicamentos que salen nuevos al mercado proceden de la biotecnología y no de la química tradicional. En cuanto a los biocarburantes, la tecnología funciona, existen plantas, que producen cientos de miles de toneladas de etanol, pero en comparación con el consumo de petróleo todavía es muy poco lo que se fabrica.
Existen ámbitos en los que las empresas europeas llevan la delantera, como por ejemplo en el campo de los biocatalizadores. En otros, como el de los biocarburantes, aunque la tecnología es la misma o muy parecida, en países como Estados Unidos se produce mucho más que en Europa. En un tercer campo de la biotecnología, es el que se dedica a las plantas y su modificación genética, en Europa reina una importante cautela porque los ciudadanos europeos rechazan la aplicación de esta técnica, quizás por el desconocimiento de esta tecnología que hasta el día de hoy no ha tenido ninguna contraindicación y que por lo contrario ha demostrado múltiples beneficios.