jueves, 29 de enero de 2009

Los virus informáticos pueden propagarse de forma epidémica sin usar Internet


La alta densidad de routers WiFi provocaría el contagio de equipo a equipo por cercanía física

El éxito de las redes inalámbricas puede provocar una epidemia de virus informáticos. Un estudio asegura que la creciente densidad de puntos Wi-Fi facilitará el contagio de software malicioso de router a router sin usar Internet.

Un equipo de investigadores de EEUU e Italia han estudiado las conexiones Wi-Fi de seis grandes ciudades estadounidenses y dos zonas del Estado de Indiana. Con la progresiva instalación de puntos de acceso inalámbrico o routers en los hogares, presentes ya en más del 10% de ellos, el número de conexiones por kilómetro cuadrado es muy elevado. Al estar diseñados para comunicarse de forma autónoma entre sí, bastaría contagiar unos cuantos equipos con un gusano informático para provocar una reacción en cadena.

Los delincuentes diseñan estos gusanos con una doble misión. Por un lado, al contagiar una máquina, buscan direcciones de correo u otros identificadores para reenviarse a más víctimas. Su segunda misión es transportar otro programa escondido, que puede ser un troyano para robar información o un virus para destruirla. Hasta ahora, su difusión era por Internet. Pero, según este informe, las redes Wi-Fi pueden ser nuevos vectores de epidemias electrónicas.

Según el estudio de los físicos de la Universidad de Indiana (EEUU) Redes WiFi y Epidemiología del Malware, publicado en la revista PNAS , en dos semanas el 60% de los router acaba infectado, la mayoría en las primeras 24 horas.

Para medir la virulencia de la epidemia, modelada usando datos reales de penetración de equipos Wi-Fi del sitio Wigle, los investigadores han tenido en cuenta dos factores de seguridad que pueden acelerarla o frenarla. Por un lado, han estudiado los sistemas de encriptación de la información. Los protocolos más usados por los routers para proteger el aceso a la red inalámbrica son los denominados WPA y WPE . El primero, mas difícil de burlar, es también el menos usado.

La segunda medida de protección es tener una buena contraseña. El problema es que buena parte de los usuarios mantiene la que viene de fábrica, conocida por todos. Otro 25% usa claves basadas en un diccionario de 65.000 palabras y, según los autores, otro 11% las crea basándose en un millón de palabras. Aunque puedan parecer muchas combinaciones, el llamado ataque de diccionario, que prueba por orden alfabético todas las posibilidades, sólo necesita unos minutos para hallar la palabra secreta.

El problema es, escriben los autores en su informe que, la costumbre de elegir contraseñas débiles está muy arraigada entre las personas. "Sus peligros han sido ampliamente destacados en las últimas dos décadas y no hay evidencias de un cambio de la conducta pública", lamentan.

Un modelo de contagio como el de la gripe
Cercanía con los infectados


Como ocurre con las epidemias humanas, la virulencia de un ataque informático vía Wi-Fi también depende de la geografía. Los ?routers' tienen un alcance limitado a unas decenas de metros en interiores. Por eso, cuanto más cerca estén entre sí, mayor riesgo de contagio existirá.

San Francisco, casi Inmune

Entre las ciudades estudiadas están Nueva York, Chicago, Seattle, Boston y San Francisco. La primera, con más ?routers' desprotegidos, es más vulnerable. Mientras, en San Francisco, con un 40% de los routers protegidos con encriptación que les hace menos infectables, es casi inmune a un ataque de este tipo.

Medidas preventivas

Los autores aconsejan tomar dos medidas profilácticas. Por un lado, animar a los usuariosa cambiar las claves que vienen por defecto en el equipo. En segundo lugar, adoptar el protocolo de encriptación WAP. De tomar estas sencillas medidas, el riesgo de un ataque vía Wi-Fi se reduciría hasta en un 70%, según los autores. 

Por: Criado, Miguel Ángel

Fuente: PUBLICO

Alemania fertilizará el mar para absorber más CO2

El fitoplancton absorbe grandes cantidades de CO2 en su fotosíntesis. El proyecto ha sido criticado por sus posibles efectos secundarios

El Gobierno alemán ha dado luz verde a una polémica misión científica que aspira a esparcir hierro en el mar para fertilizar el mar y hacer proliferar el fitoplancton (algas microscópicas) con el objeto de aumentar la absorción de dióxido de carbono. Las algas capturan CO2 en su proceso de fotosíntesis.

"Con el informe de expertos que se ha presentado, estoy convencida de que no hay ninguna objeción científica o legal (...) al experimento LOHAFEX", afirmó la ministra alemana de investigación, Annette Schavan. "De modo que he decidido poner en marcha este experimento", añadió en un comunicado.

La idea, como muchas otras de geoingeniería, ha sido criticada por científicos y ecologistas por los peligros de sus consecuencias, al menos si el experimento es a gran escala.

Pero el Gobierno alemán adoptó finalmente una decisión tras un debate entre los ministerios de Medio Ambiente y de Investigación sobre las consecuencias del proyecto germano-indio.

El plan prevé echar seis toneladas de hierro en zonas del Atlántico Sur sobre una extensión total de 300 kilómetros cuadrados.

En el debate, interministerial, el ministerio de Medio Ambiente estaba en contra del proyecto por estimar que el experimento contradecía una moratoria sobre fertilización artificial de los océanos aprobada por la Conferencia de la ONU sobre Biodiversidad en Bonn.

El Instituto de Investigación Polar alemán Alfred Wegener (AWI), cuyo buque Polarstern zarpó el pasado 7 de enero con 48 científicos a bordo, consideró sin embargo que la convención de la ONU comprendía una cláusula según la cual la moratoria no afecta a las "investigaciones científicas a pequeña escala".

Durante las dos primeras semanas, el buque, que terminará su misión el 17 de marzo en Punta Arenas, Chile, identificará las zonas en las que será vertido el hierro para favorecer el desarrollo del fitoplancton.

Un proyecto cuestionado
No obstante, un conocido estudio científico publicado en abril de 2007 en la revista Nature, que revelaba los resultados de un extenso programa llevado a cabo alrededor de las islas Kerguelen en Bretaña, concluyó que echar hierro en el mar sería de 10 a 100 veces menos eficaz que el proceso natural, y que el 90% del hierro esparcido se perdería en el océano. Asimismo, muchos expertos temen que, pese a su escasa eficacia, los efectos secundarios sean peligrosos.

El hierro se vierte en forma de nanopartículas, por lo que el impacto sobre los ecosistemas es de momento imprevisible. Algunos científicos hablan de una posible reacción química que generaría un gas de efecto invernadero, el protóxido de nitrógeno (N2O), más potente que el CO2, lo que no sólo anularía los objetivos buscados, sino que incrementaría los efectos opuestos.

Fuente: El Mundo

martes, 27 de enero de 2009

Teletransportan por primera vez información entre dos átomos separados





La carrera ha comenzado. Por primera vez, un equipo de investigadores ha tenido éxito al teleportar información entre dos átomos separados e incomunicados en dos contenedores independientes y colocados a un metro de distancia




Se trata de un paso importante en la búsqueda de una forma práctica de controlar el modo en que fluye la información cuántica. Y que será fundamental para el desarrollo de próximas generaciones de ordenadores y sistemas de comunicaciones.

La teleportación es, probablemente, el método de transporte más misterioso y desconocido de cuantos utiliza la naturaleza. Se sabe, por ejemplo, que en el mundo subatómico mucha información importante (como el spin de una partícula o la polarización de un fotón) es capaz de viajar de un lugar a otro? sin utilizar para ello ningún medio físico. El proceso, aunque no completamente comprendido, ha podido sin embargo ser parcialmente reproducido con anterioridad en distintos laboratorios. Entre ellos el dirigido por el español Ignacio Cirac en el Instituto Max Planck, en Alemania.

Se ha conseguido, por ejemplo, reproducir las características de un fotón en otro situado a distancias de kilómetros, o "transferir" datos de un átomo a otro utilizando para ello la ayuda de un tercero. Pero nunca hasta ahora se había llegado hasta lo que han sido capaces de realizar científicos de las universidades de Maryland y Michigan: teletransportar directamente y sin intermediarios el estado cuántico completo de un átomo a otro. Una capacidad que, hasta hoy, es el principal obstáculo para el desarrollo de ordenadores cuánticos. Máquinas destinadas a ser, en unos años, miles de veces más potentes que cualquiera de las que existen en la actualidad.
Christopher Monroe, que ha dirigido los experimentos, asegura que la información teletransportada durante sus experimentos fue absolutamente exacta en el 90 por ciento de las ocasiones.El hito se publica en la edición de esta semana de la revista Science.

Un imposible hecho realidad

Hace apenas una década, la sola idea de teleportar cualquier cosa, incluso la más pequeña, parecía una locura. Hasta que el concepto cobró una fuerza inesperada en el mundo subatómico, miles de veces menor que el átomo, donde las leyes de la física, nuestras leyes, dejan de tener sentido y ceden su lugar a las de la mecánica cuántica. Allí, en el entorno cuántico, la materia y la energía se confunden, las certezas se sustituyen por probabilidades y las partículas se crean y se destruyen en una maraña de eventos que suceden en milmillonésimas de segundo.

Parece mentira que nuestra realidad cotidiana, el universo que nos rodea, hunda sus raíces en este mundo de locos donde todo parece ser posible. Todo, incluso la teleportación. En el nivel cuántico, teleportación significa ser capaces de transferir, de un lugar a otro, las propiedades y características más íntimas de un objeto, es decir, de una partícula. El conjunto de estas propiedades se conoce como «estado cuántico» y engloba toda la información necesaria para que una partícula sea y se comporte como tal. Las primeras demostraciones experimentales de que una hazaña así era posible llegaron a finales de los noventa, con la transferencia del estado cuántico de un rayo de luz a otro similar. Más tarde, se consiguió hacer lo propio con partículas más pesadas que los fotones (las partículas que transportan la luz) y se marcó otro hito al teletransportar las características de dos iones.

El propio Ignacio Cirac fue capaz de dar un paso más y logró transferir con éxito, en junio de 2006, las propiedades de un rayo luminoso a un conglomerado de cientos de átomos de cesio. Lo que ahora se publica en Science es un nuevo e importante avance en esta carrera. "Nuestro sistema ?asegura Christopher Monroe- tiene el potencial necesario para ser la base de una vasta red de repetidores cuánticos capaces de interconectar memorias cuánticas a través de grandes distancias. Y aún más, nuestros métodos pueden ser utilizados para crear un componente clave e imprescindible para el desarrollo de la computación cuántica".

La teleportación funciona gracias a un fenómeno que sólo se produce a escala subatómica y que los físicos conocen como "entrelazamiento cuántico". Una vez que dos partículas están entrelazadas, ambas parecen ser capaces de una extraordinaria forma de comunicación, de forma que lo que le sucede a una es inmediatamente "conocido" por la otra, sin importar la distancia que les separe. De esta forma, los cambios que, por ejemplo, realice un equipo científico sobre una partícula en un laboratorio pueden ser medidos, de forma inmediata, por un segundo equipo que trabaje con la "pareja" de la primera partícula en otro laboratorio distante.
Para realizar su experimento, Monroe y su equipo utilizaron dos iones de iterbio entrelazados, cada uno en una cápsula de vacío y a un metro de distancia, de forma que las condiciones a que fuera sometido uno de ellos pudieran ser comunicadas instantáneamente al otro. Los científicos identificaron después dos estados diferentes (alta o baja energía), dos "bits" diferenciables y que permitieran distinguir entre la situación en que se encontraban ambos átomos.

En la electrónica convencional, la que hace funcionar nuestras computadoras, los "bits" están siempre en uno o en otro estado (encendido o apagado, "0" o "1", etc). Pero los bits cuánticos, llamados "qubits", no funcionan de la misma manera. De hecho, pueden estar en "estados intermedios", en una especie de "superposición" de ambos estados que se mantiene hasta que alguien realiza una observación. Es como si una moneda mostrara su cara y su cruz al mismo tiempo, y se "decidiera" después por uno de los dos estados (cara o cruz) cada vez que alguien realiza una observación. Es precisamente esta capacidad de superposición de estados lo que confiere a la computación cuántica su extraordinario potencial.

Cambiando a voluntad las condiciones de ambas cápsulas, los investigadores pudieron determinar que, en efecto, lo que le ocurriera al átomo "A" podía ser medido en el átomo "B", a pesar de que las condiciones de su cápsula fueran diferentes. Las mediciones se realizaron sobre el único fotón que emite cada ion al ser obligado a pasar de uno a otro estado por medio de un rayo láser. Los científicos lograron inducir los cambios a su antojo, de forma que la información se transmitiera de forma controlada entre ambos átomos. Y esa es precisamente la clave del funcionamiento de las futuras redes de comunicaciones basadas en las propiedades cuánticas.

La teleportación cuántica, según Monroe, sentará las bases de un nuevo tipo ordenadores, de un nuevo sistema de telecomunicaciones más rápidas y seguras y, por qué no, también de "un nuevo Internet que funcionará mucho mejor de cualquier tipo de red concebida a la manera clasica".

Fuente: ABC

Un sistema automático de arranque y parada de última generación para conseguir automóviles europeos más ecológicos

El proyecto i-StARS («Sistema reversible arranque-alternador»), financiado mediante la iniciativa intergubernamental Eureka, acelera hacia el futuro gracias a avances tecnológicos de última generación que permitirán a la industria automovilística europea cumplir la nueva legislación sobre emisiones y establecerse como líderes del mercado de los «vehículos ecológicos»

Eureka, una red paneuropea dedicada a I+D industrial orientada al mercado, ha adjudicado a i-StARS 9,85 millones de euros.

Los investigadores de i-StARS tratan de desarrollar un sistema automático de arranque y parada para automóviles que es compacto, completamente integrado y de coste asequible. Prevén que este sistema sustituirá al alternador convencional de los coches actuales. Este sistema se basará en un sistema de primera generación desarrollado por uno de los socios del proyecto y que ya está instalado en varios modelos de coches europeos.

En un sistema automático de arranque y parada, cuando el coche se detiene, por ejemplo ante un semáforo en rojo, el sistema de arranque con tecnología de alternador por correa detiene el motor y lo vuelve a arrancar rápidamente y en silencio en el momento en que se le indica. La ventaja radica en que, mientras el coche está en punto muerto, no se producen combustión de carburante, emisiones de gases, vibraciones ni ruidos. De acuerdo con los expertos, el consumo de combustible puede reducirse hasta en un 6%, ampliándose este porcentaje al 25% en condiciones de tráfico urbano congestionado.

«Será posible no sólo reducir el consumo y las emisiones sin realizar cambios estructurales en el diseño del motor, sino que además el conductor se ahorra un 6% en combustible», declaró Derek de Bono, director de marketing de Valeo Electrical Systems (Francia), líder del proyecto. El Sr. de Bono habló sobre la importancia de la financiación comunitaria para el éxito del proyecto. «El apoyo de Eureka nos ha proporcionado credibilidad a nivel nacional y europeo», afirmó. «También nos permite comercializar la tecnología mucho antes de lo planeado, acelerando así el acceso de los europeos a tecnologías más ecológicas, y también abre nuevos mercados mundiales para nuestra maquinaria.»

En 2012 entrará en vigor la legislación comunitaria por la que se deberá disminuir la emisión media de emisiones de CO2 de los coches nuevos, de los 160 g/km actuales hasta los 130 g/km. Esto propiciará una reducción del 19% en las emisiones de CO2 y situará a la UE entre los líderes mundiales en el campo de los automóviles de consumo eficiente de combustible. Esta propuesta también será muy beneficiosa para los consumidores, puesto que permitirá grandes ahorros de combustible.

La segunda generación de sistemas reversibles arranque-alternador permitirá a los fabricantes de automóviles europeos cumplir con estas nuevas restricciones y, además, aumentar la eficiencia del combustible sin necesidad de cambios drásticos en el diseño del motor. Los fabricantes europeos no serán los únicos en disfrutar de estas ventajas.

«Estamos manteniendo conversaciones con el resto de fabricantes de automóviles de Europa», informó el Sr. de Bono. «Han manifestado su interés desde Asia, sobre todo en China, donde tienen un especial interés en reducir su consumo energético, y también desde los Estados Unidos, donde desean ajustarse al límite de los 6,7 litros a los cien kilómetros (14,9 km/l) al que se comprometieron en 2007.»

Las previsiones indican que cerca de un millón de vehículos al año emplearán estos sistemas de aquí a 2010, y que la tasa de penetración en el mercado mundial de la automoción para este tipo de aplicaciones microhíbridas en 2015 será del 4%.

El objetivo de Eureka es el de mejorar la competitividad europea apoyando de forma activa a empresas, centros de investigación y universidades que lleven a cabo proyectos paneuropeos de desarrollo de productos, procesos y servicios innovadores. Proporciona a los socios del proyecto acceso a un banco de conocimientos sobre capacidades y competencias en toda Europa y facilita el acceso a regímenes de financiación nacionales públicos y privados.

Para obtener más información, consulte:

EUREKA
http://www.eureka.be

Fuente: CORDIS

viernes, 23 de enero de 2009

El calor y el frío se adelantan dos días en todo el planeta

No sólo los científicos llevan advirtiendo durante décadas que últimamente las primaveras adelantan su llegada

Numerosos aficionados en todo el mundo han ido señalando cada año en sus diarios los acontecimientos del calendario natural: el día en que florece tal planta; el día en que se avista por primera vez tal mariposa o tal pájaro.

Estos preciosos testimonios han ayudado a los científicos que se dedican a la fenología (ciencia que estudia la relación entre los factores climáticos y meteorológicos y los comportamientos de los seres vivos) a combinarlos con sus propias observaciones y deducir que, efectivamente, ahora la primavera llega antes.

Las consecuencias a nivel biólogico también se han documentado en abundancia, como los desajustes entre las migraciones de las aves y la disponibilidad del alimento, cuando las primeras llegan a su destino antes de que hayan eclosionado las larvas, por ejemplo. Ante los cambios, no todas las especies se adaptan igual, ni al mismo ritmo.

Pero ahora los científicos van más allá: ya no se trata de que la primavera sea ahora precoz, sino que los picos de máximo calor y máximo frío se están adelantando una media de dos días (1,7 días) en todo el planeta con respecto a hace 50 años. El mecanismo es más complejo que el previamente detectado, y consiste en desfases en cadena que se producen mes a mes.

En un estudio publicado en Nature, científicos de la Universidad de California, Berkeley, y de la Universidad de Harvard (EEUU) explican este desajuste estacional en todo el globo -la investigación se centró en las regiones no tropicales, por tener las estaciones más marcadas-, que comenzó, según los registros, en el mismo momento en que se intensificó el calentamiento global, hace cinco décadas.

"Vemos que a lo largo de 100 años [de 1850 a 1950] hay un patrón natural de variabilidad, y de repente vemos un desvío de ese patrón al mismo tiempo que las temperaturas medias globales empiezan a aumentar, lo que nos hace sospechar que tiene algo que ver con la actividad humana", explica Alexander Stine, estudiante de Berkeley y principal autor del estudio.

Efecto dominó
Las causas inmediatas no están claras, comenta Stine, pero se trata de un efecto dominó desencadenado, posiblemente, por la misma actividad humana responsable del calentamiento global. Así, el desajuste estacional -que ha ocurrido en tierra, pero no en el mar- puede en parte ser provocado por una alteración en el patrón de vientos que se ha detectado también en los últimos 50 años.

Según Stine, las temperaturas son muy distintas en el mar y en la tierra, y un simple cambio en la potencia y la dirección de los vientos puede desplazar enormes cantidades de calor del mar a la tierra, lo cual puede afectar a los ciclos estacionales. Como casi todo en la vida, pequeños cambios pueden producir enormes efectos.

Tomando datos de los últimos 150 años, los investigadores concluyeron que, dentro de la tendencia al calentamiento significativo registrada desde 1950, no todos los meses se han calentado por igual. Normalmente, la temperatura "reacciona" ante la radiación solar con un retraso de unos 30 días en la tierra(60 días en el mar). Es decir, el sol tarda aproximadamente un mes en calentar la tierra. Pero los pequeños desfases en cada uno de los meses del año hacen que, al final, tanto las temperaturas máximas como las mínimas acaben llegando antes.

¿Por qué el sol tarda ahora menos en calentar la tierra? Los autores del estudio barajan, entre otras posibles causas, la aridificación del suelo en el mundo, que acelera la respuesta a la radiación solar, y la contaminación del aire, que modifica la cantidad de energía solar que absorbe la atmósfera.

Por: Oshima, Tana

Fuente: El Mundo

jueves, 22 de enero de 2009

Las personas que ignoran que tienen VIH causan el 80% de las infecciones

Cada año se infectan por el VIH (el virus que causa el sida) unas 3.000 personas en España (no hay datos exactos)

De ellas, alrededor de un 80% fueron infectadas por una persona que no sabía que tenía el agente que causa el síndrome. Así se deduce de las palabras del director general de Salud Pública, Ildefonso Hernández, ayer durante la jornada Juntos para un diagnóstico precoz que se celebró ayer en Madrid.

A falta de una cura y de una vacuna, la mejor manera de evitar que el VIH se propague es atajarlo de raíz: que las personas que están infectadas lo sepan, y tomen las medidas de protección propias (para evitar infecciones oportunistas) y ajenas (para no transmitir el patógeno).

Ésta es la principal conclusión de la reunión. Para ello hay que extender la llamada prueba del sida (en verdad, un análisis que detecta el VIH), sobre todo entre las personas que han tenido una práctica de riesgo. Se calcula que en España hay entre 130.000 y 150.000 personas con VIH, y que un 30% de ellas no lo sabe.

Expertos médicos, del Plan Nacional sobre Sida y de ONG discutieron ayer las posibilidades para convencer a todos los posibles implicados de que se hagan el test. Una de ellas es que las pruebas rápidas se vendan en farmacias. Con ello no sólo mejoraría su salud y su futuro (hoy día hay medicamentos que permiten mantener la infección controlada mucho tiempo, aunque no la curen), sino que se ayudaría a romper la cadena de nuevas transmisiones.

Mayores de 40 años
En las conclusiones de la jornada, Josep Maria Gatell, del hospital Clinic de Barcelona, destacó que hay dos grupos de población que son especialmente remisos a analizarse: son los mayores de 40 años y los heterosexuales. En cambio, como señaló Jordi Casabona, del Departamento de Salud de la Generalitat catalana, más del 80% de los homosexuales se ha hecho la prueba al menos una vez en su vida. También las mujeres que se dedican a la prostitución son más conscientes si han estado en una situación de riesgo, y se analizan.

El mensaje de "Hazte la prueba", sin embargo, va calando en la población. En 2007 se hicieron más de un millón de pruebas, mientras que en 2002 fueron 400.000, según la secretaria del Plan Nacional sobre el Sida, Teresa Robledo.

Por: Benito, Emilio de Fuente: El Pais

Un nuevo virus informático infecta en unos días millones de ordenadores en todo el mundo






Un virus informático está infectando millones de ordenadores de todo el mundo a una velocidad vertiginosa







El gusano Downadup, también conocido como Conficker, se transmite mediante redes con sistemas de baja seguridad o incluso «pen drivers» con tan sólo insertar el dispositivo en una ranura USB, según ha informado en un comunicado el el Instituto Nacional de Tecnologías de la Comunicación (INTECO), que depende del Ministerio de Industria, Turismo y Comercio.


En sólo tres días el virus ha triplicado su presencia en ordenadores que funcionan con Windows, hasta superar las ocho millones de infecciones. El nuevo virus, según la firma de seguridad informática F-Secure, no es excesivamente preocupante en términos destructivos, sino que llama más la atención su velocidad de propagación.
Según F-Secure, una empresa que se está encargando de desentrañar el «malware», se trata de «un gusano complicado desarrollado por un grupo de gente que ha invertido tiempo en hacerlo especialmente complicado de analizar y borrar. La verdadera razón por la que han creado es difícil de decir ahora mismo».


Los especialistas sitúan el origen del virus en Ucrania. El pasado martes, los equipos infectados eran alrededor de 2,5 millones, el miércoles ya habían ascendido a 3, 5 millones y el viernes se habían convertido en ocho. Actualmente, las infecciones suman 8,9 millones de ordenadores, siempre con el sistema Windows, que es atacado desde un ejecutable llamado «services.exe». El virus hace que el ordenador cree un servidor HTTP y se descargue datos de la web del «hacker».

Fuente: ABC

Comer pescado favorece el desarrollo cerebral del feto

Comer pescado entre dos y tres veces a la semana durante el embarazo podría favorecer el desarrollo neurológico del bebé. Así lo indica un estudio realizado por investigadores del Centro de Investigación en Epidemiología Ambiental (CREAL) y por el Instituto Municipal de Investigación Médica (IMIM) de Barcelona, en el que han participado 392 mujeres y sus hijos procedentes de la isla de Menorca, donde se consume pescado en la dieta habitual

Los investigadores contactaron con las madres cuando estaban embarazadas de los niños, que ahora tienen cuatro años. Recogieron datos sobre la dieta que habían seguido, y muestras biológicas, tanto de ellas como de los bebés. Al cumplir un año, volvieron a contactar con ellos. A los cuatro años de edad, un grupo de psicólogos les realizó un test en el que pudieron constatar que había diferencias en las capacidades intelectuales de los niños cuyas madres habían tomado más o menos pescado.

"El pescado contiene ácidos grasos poliinsaturados del tipo DHA, que pertenece a los omega-3, capaz de sobrepasar la barrera placentaria y que podría ser responsable de este efecto sobre las capacidades cognitivas de los niños, inteligencia, expresión verbal, capacidad motora y memoria", explica Michelle Méndez, primera autora del artículo. El estudio no midió los efectos de la acumulación de contaminantes en los pescados, algunos de los cuales pueden tener efectos sobre el desarrollo neuronal.

Un barco sembrará el mar de hierro para que absorba más CO2

Científicos europeos e indios ensayan un método para alimentar el plancton

Uno de los buques oceanográficos más avanzados del mundo, el alemán Polarstern, acaba de llegar a una zona del suroeste del océano Atlántico para iniciar el mayor experimento realizado hasta la fecha de fertilización de las aguas con hierro como posible medio de lucha contra el cambio climático. Se trata de comprobar con garantía científica cómo afecta al crecimiento del fitoplancton (diminutas algas unicelulares) y a sus consecuencias el vertido de seis toneladas de sulfato de hierro en polvo (como el que se vende como abono para plantas) en un área de 300 kilómetros cuadrados. "Mañana [por hoy] inspeccionaremos uno de los remolinos de esta región para decidir si es adecuado para hacer el estudio", explicó ayer desde el barco Victor Smetacek, codirector científico de la expedición. El experimento está diseñado para hacerse en un remolino.

El fitoplancton no sólo representa la base de la alimentación de la vida marina, sino que también desempeña un papel clave en la fijación o absorción del dióxido de carbono (gas de efecto invernadero) presente en la atmósfera. Si el hierro induce la proliferación de las algas y éstas absorben más dióxido de carbono, la fertilización del agua sería una forma de lucha contra el calentamiento global.

Ante los intentos de hacer experimentos descontrolados de este tipo, con fines comerciales, dos tratados internacionales -el Convenio de Londres y la Convención sobre la Diversidad Biológica- pidieron en 2008 más investigación sobre los procesos implicados. Con el experimento Lohafex (loha es hierro en hindi), en el que participan biólogos, químicos y físicos, se intentará comprender mejor el complejo papel de los ecosistemas marinos en el ciclo del carbono. Se estudiará en detalle, con instrumentos avanzados, el desarrollo y el impacto ambiental de la proliferación del fitoplancton y dónde termina el carbono que se hunde con la biomasa planctónica hacia el océano profundo.

A bordo del Polarstern, de 120 metros de eslora, van 48 científicos, de los cuales 30 son indios, ya que Lohafex se enmarca en un acuerdo de colaboración entre instituciones científicas de la India, Europa y Chile firmado el 30 de octubre de 2007 en Nueva Delhi.

Luis Laglera y Regino Martínez son los dos investigadores españoles (del Imedea) que forman parte de la expedición. Es la primera vez que trabajan en un experimento así. Según comenta Laglera desde el barco (a 52 grados sur y 27 oeste), el viaje ha sido tranquilo hasta ahora, y ellos se van a encargar de la toma de muestras y medida de la concentración de hierro disuelto, así como de medir compuestos orgánicos volátiles.

En aguas más al sur que las actuales se han realizado ya cinco experimentos de fertilización con hierro en los últimos ocho años, que han abarcado zonas mucho más pequeñas. En ellos se indujo un aumento del plancton similar al que produce el hierro contenido en el polvo atmosférico continental al caer en el mar o un iceberg que se derrite (en el que previamente se ha estado depositando polvo). Los resultados hacen creer a los científicos que el actual no producirá un impacto ambiental peligroso.

"Hemos elegido una zona más productiva que las anteriores porque queremos estudiar el impacto de la fertilización en una comunidad de plancton diferente", explica Smetacek. "Hay más krill [diminutos crustáceos] y también más ballenas, focas y pingüinos, que se alimentan de krill". En parte, el experimento pretende averiguar si el gran declive observado en el krill desde que las ballenas azules fueron diezmadas hace unas décadas en esta zona está relacionado con esta reducción o se debe sólo al calentamiento global. Smetacek cree, y así lo ha publicado en español (ver la dirección de Internet: www.grupobbva.com/TLFU/dat/02%20SMETACEK.pdf), que las ballenas ejercían un papel de abono, manteniendo una continua disponibilidad de hierro para el plancton en las aguas superficiales.

La expedición se puede seguir desde hoy en la dirección de Internet www.lohafex.com, del Instituto Alfred Wegener de Alemania, que la coordina junto al Instituto Nacional de Oceanografía de la India. Tras 45 días de trabajo, el barco oceanográfico se dirigirá a Punta Arenas, en Chile, donde tiene previsto atracar el 17 de marzo próximo.

Por:Ruíz de Elvira, Malen
Fuente: EL País

miércoles, 21 de enero de 2009

La capa invisible, un espejismo artificial



Varios equipos de investigación en todo el mundo trabajan en el diseño de un concepto que hasta ahora pertenece a la ciencia ficción y a la magia de Harry Potter: una capa de invisibilidad que oculte los objetos a la vista



Pero al margen de la fantasía, en los dos últimos años se han logrado avances que demuestran la viabilidad del concepto.

En el último número de Science, científicos de EEUU y China han perfeccionado la nueva generación de la capa invisible.

El secreto se basa en el uso de metamateriales, texturas peculiares con un diseño específico a escala microscópica, capaz de desviar los rayos de luz alrededor de ellas y devolverlos a su trayectoria; en otras palabras, materiales que son esquivados por la luz.

Fibra de vidrio

Para conseguir el efecto se precisan dos factores: un modelo matemático para diseñar el material y la tecnología necesaria para fabricarlo.

El grupo dirigido por David Smith, de la Universidad de Duke (EEUU), obtuvo un prototipo en 2006 que ha sido ahora mejorado con un nuevo algoritmo matemático.

La capa es una lámina de medio metro de largo por 10 centímetros de ancho y dos y medio de alto, formada por 10.000 diminutas piezas de fibra de vidrio en filas paralelas, 6.000 de ellas de formas diferentes, según definía el algoritmo.

En nueve días, los investigadores fabricaron la capa.

El modelo experimental consiste en un espejo con un abultamiento, que la capa debía ocultar para que los rayos rebotasen como si la superficie fuera plana. El dispositivo funcionó a la perfección.

Según Smith, el efecto es comparable al de un espejismo, donde el calor desvía los rayos de luz: Se ve lo que parece agua sobre la carretera, pero en realidad es un reflejo del cielo, explica Smith. En este ejemplo, el espejismo está ocultando la carretera que hay debajo. En la práctica, con este último diseño de capa estamos creando un espejismo de ingeniería.

Pero el diseño aún tiene sus limitaciones: no funciona con luz visible, sino con microondas, que emplean longitudes de onda mucho mayores. Además, ocultar cualquier otro objeto requeriría rediseñar la capa.

Pero Smith es optimista: El nuevo diseño puede ocultar un espectro de ondas mucho más amplio, casi ilimitado, y se escalará más fácilmente a infrarrojos y luz visible, asegura.

El investigador apunta que el invento podría además aplicarse para mejorar las comunicaciones inalámbricas, ya que los obstáculos podrían hacerse invisibles a las ondas, eliminando el efecto de las obstrucciones.

Como no podía ser de otra manera, también se prevén aplicaciones militares; la investigación está cofinanciada por la Fuerza Aérea de EEUU y la empresa de sistemas de misiles Raytheon.


Por: Yanes, Javier Fuente: PUBLICO

"Debemos investigar más en la prolongación de la vida"

¿Quién no quiere vivir más años o conseguir la eterna juventud? El biogerontólogo inglés Aubrey de Grey está convencido de que podremos conseguir algún día aumentar la esperanza de vida si se aumenta la inversión en el desarrollo de técnicas biomédicas, aprovechando el conocimiento científico ya existente

Presidente y responsable científico de la Methuselah Foundation (Fundación Matusalén), una organización contra el envejecimiento, y anteriormente científico de la Universidad de Cambridge, De Grey trabaja en el desarrollo de estrategias de bioingeniería para reparar la senescencia, es decir, hacer posible la reparación de tejidos dañados para rejuvenecer el cuerpo humano y, al mismo tiempo, aumentar considerablemente la longevidad.

De Grey dice que el envejecimiento es un problema degenerativo causado por varios tipos de daños moleculares y celulares que se acumulan: las mutaciones nucleares causantes del cáncer, las mutaciones mitocondriales, la acumulación de desechos intercelulares y extracelulares, la pérdida irreversible de células, el envejecimiento celular y la proliferación de interconexiones entre células de algunos tejidos. Sus controvertidas teorías para evitar el envejecimiento se basan en el desarrollo de estrategias combinadas de bioingeniería.

Este investigador, editor de la revista científica Rejuvenation Research, ha impartido esta semana en diversas ciudades españolas la conferencia "Vivir 1.000 años", invitado por la Obra Social la Caixa. De Grey dice que tenemos un 50% de posibilidades de reducir los daños del envejecimiento en los próximos 30 años, una vez se desarrollen tecnologías como la medicina regenerativa.

Su fundación patrocina actualmente la investigación de varios grupos de científicos en temas como la prevención del daño causado por las mutaciones mitocondriales. En particular, financia el grupo de la investigadora Marisol Corral-Debrinski, en el Instituto de la Visión de París. La fundación Methuselah también puso en marcha en 2005 un premio a los científicos que consigan prolongar de forma dramática la vida de los ratones.

La extensión de la longevidad también puede tener otras repercusiones biológicas y sociales, "ya que será posible también retrasar el inicio de la menopausia", asegura. Las mujeres podrán tener hijos sin problemas a edades superiores a la actual.

Por: Ambrojo, Joan Carles Fuente: EL PAIS

La función de los peces en los sumideros de carbono

Una investigación financiada con fondos comunitarios ha dilucidado la forma en que los intestinos de los osteictios (o peces óseos) de mar contribuyen al ciclo del carbono, que cambia a gran velocidad por el incremento del CO2 en la atmósfera

Los hallazgos, publicados en la revista Science, han ayudado a resolver una vieja incógnita científica y abren nuevas vías para la investigación del ciclo del carbono.

El carbonato cálcico se disuelve al hundirse en el mar provocando la alcalinización de las aguas. Este hecho se había atribuido hasta ahora principalmente al plancton marino microscópico, organismos cuyos «esqueletos» se abisman al morir. Ciertamente, muchas criaturas marinas se desplazan de las aguas someras, donde se alimentan, a regiones más profundas, donde siguen excretando CO2. De esta forma, absorben CO2 de la atmósfera y lo «inyectan» en las profundidades marinas.

En el estudio mencionado, unos investigadores de Reino Unido, Estados Unidos y Canadá calcularon que, en realidad, entre el 3% y el 15% del carbonato cálcico se produce en los intestinos de los osteoictios y es excretado tanto si el pez ha comido como si no. Este descubrimiento explica en cierta medida el porqué de que el carbonato se encuentre concentrado entre la superficie oceánica y los mil metros de profundidad, y no más abajo, dónde van a parar los cuerpos del plancton inerte.

El Dr. Rod Wilson de la Universidad de Exeter (Reino Unido) declaró: «Nuestros cálculos más conservadores indican que entre el 3% y el 15% de los carbonatos oceánicos procede de los peces, pero la proporción bien podría ser tres veces superior. También sabemos que los carbonatos de peces difieren considerablemente de los generados por el plancton. Estos descubrimientos pueden contribuir a solucionar un antiguo rompecabezas de la química marina y, a la vez, ponen de relieve lo limitado de nuestros conocimientos sobre el ciclo del carbono marino.»

Los peces óseos tragan agua marina constantemente y absorben una cantidad excesiva de calcio; en sus organismos, éste se precipita en forma de piedrecitas o cálculos de carbonato cálcico. Estos cálculos se excretan posteriormente mediante un proceso distinto de la digestión y la defecación. Los científicos observaron que estos carbohidratos son más solubles que los de origen planctónico, razón por la que se disuelven a menor profundidad.

Estos biólogos aplicaron dos métodos científicos radicalmente distintos para modelar el tamaño, la composición y la abundancia de los peces que hay en los océanos del planeta. En ambos métodos se emplearon estimaciones de concentraciones de fitoplancton y modelos de la conversión de materia orgánica en toda la cadena trófica, datos estos obtenidos mediante observaciones por satélite.

Esta información les permitió calcular la masa total de los peces que hay en el océano: entre 812 y 2.050 millones de toneladas. Operaciones matemáticas posteriores les llevaron a concluir que los osteoictios generan alrededor de 110 millones de toneladas de carbonato cálcico al año. Sus descubrimientos, en conjunto, señalan que los peces tienen repercusiones de gran calado en el ciclo del carbono.

«Este estudio apenas da una idea preliminar del enorme efecto que tienen los peces en el ciclo del carbono y de por qué los necesitamos en los océanos», comentó el Dr. Christensen de la Universidad de British Columbia (Canadá). «Debemos frenar la tendencia actual de expolio de los océanos y proteger a estos recién descubiertos aliados contra el cambio climático.»

Los investigadores anticipan que el incremento de las temperaturas marinas y de la concentración de CO2 hará que los peces produzcan aún más carbonato cálcico, dado que, a mayor temperatura, más activo es el metabolismo general de los peces. Pero esta proyección se ve amenazada por la sobreexplotación pesquera.

El Dr. Wilson concluyó: «Ciertamente, estos descubrimientos no son más que un primer paso; aún sabemos muy poco acerca de los aspectos químicos de los carbonatos generados por los peces y sobre dónde van a parar. A la vista de la preocupante acidificación de los mares por las emisiones mundiales de CO2, ahora es más importante que nunca averiguar cómo se mantiene el equilibrio normal del pH de los mares. Dado el impacto del cambio climático global, es probable que en el futuro los peces ejerzan una influencia aún mayor en la química de los océanos. Por consiguiente, es esencial que profundicemos en esta investigación para lograr una comprensión plena de estos procesos y de cómo afectarán a nuestros valiosos ecosistemas marinos.»

Para obtener más información, consulte:

Science
http://www.sciencemag.org/

Universidad de Exeter
http://www.exeter.ac.uk/Enlace

Xprize, una carrera para encontrar el coche más ecológico del mundo


Los automóviles deberán recorrer al menos 160 km con menos de cuatro litros

Los fabricantes de automóviles no lanzan al mercado suficientes coches realmente eficientes desde el punto de vista energético, así que la Fundación X Prize una institución sin ánimo de lucro cuyo objetivo es el de incentivar los desarrollos tecnológicos mediante competiciones de premios millonarios ha decidido darles un empujón: ofrece diez millones de dólares al ganador de un concurso internacional que pretende encontrar vehículos movidos por una cantidad mínima de combustible, ya sea petróleo, gas, electricidad o luz solar.

El ganador de la competición deberá demostrar que es capaz de crear un automóvil asequible, atractivo para los consumidores y capaz de vender, al menos, 10.000 unidades al año. En realidad, se trata de una especie de carrera al estilo de los míticos Autos locos, con la diferencia de que los coches deberán ser capaces de recorrer 100 millas (160 kilómetros) con un galón de combustible (menos de cuatro litros) y contaminar poco (menos de 200 gramos de gases invernadero por milla). Además, deben pasar el corte de la carrera clasificatoria durante 2009, y vencer en 2010 la carrera final de diez etapas en una mezcla de velocidad en circuito y conducción por ciudad y por terrenos áridos, bajo todas las condiciones climáticas imaginables. Todo un reto.

En palabras de los portavoces del X Prize, "esta competición pretende descubrir las mejores e innovadoras ideas que resuelvan problemas como la adicción al petróleo o el cambio climático y ofrezcan a los consumidores vehículos mejorados".

Parte del premio tiene financiación pública de EEUU (como el Departamento gubernamental de Energía y Transportes, la Administración de Autopistas y la Oficina de Protección Medioambiental y Calidad del Aire) y de ONG como el Consejo para la Defensa de los Recursos Nacionales, la Unión de Científicos Preocupados y la Federación de Consumidores de América, entre otros muchos.

Carta de Intenciones

Se han presentado 60 equipos procedentes de nueve países diferentes aunque por el momento sólo han sido elegidos 22, la mayor parte de ellos estadounidenses. Todos ellos han firmado una Carta de Intenciones en la que se comprometen a competir por una parte del premio, porque la otra irá destinada a promoción y publicidad a nivel global.

De ellos se ha valorado la seguridad, el coste, las características técnicas y el plan de negocio del proyecto. Los 22 equipos, y los que puedan añadirse, porque aún no ha finalizado el plazo de inscripción, se enfrentarán en una carrera campo a través durante 2009 y 2010.

Muchos expertos se preguntan dónde están los grandes fabricantes de automóviles, que están ausentes de la competición. Parece que no les ha interesado demasiado la propuesta, por lo que los organizadores han tenido que inventarse una nueva categoría, la demonstration division, en la que tienen cabida las grandes compañías para demostrar sus tecnologías de eficiencia y bajo consumo.

Pero, ¿realmente hace falta una carrera de este tipo para conseguir avances tecnológicos importantes? En opinión de General Motors, uno de los mayores fabricantes mundiales de automóviles, no. Su vicepresidente, Bob Lutz, es tajante: "Nos parece muy bien este tipo de iniciativas pero no podemos mirar a un lado diferente al de nuestro negocio. Además, no nos interesa la tecnología que se presenta como una feria científica".

Los portavoces de X Prize comentan que, sin duda, "los grandes fabricantes están más ocupados en su esfuerzo para reducir consumo y emisiones, pero es sabido que los concursos han sido siempre un acicate para la innovación y una ayuda para que la industria avanzara con rapidez. X Prize pretende hacer crecer el mercado de los coches eficientes y limpios".

Escasos resultados

Desde el Instituto Universitario de Investigación del Automóvil de la Universidad Complutense de Madrid (INSIA) ven bien el premio. "Este tipo de iniciativas siempre vienen bien aunque los resultados tardan en verse", comenta Javier Sánchez, miembro del Instituto. Por su parte, José María López, subdirector del mismo centro, opina que las bases del proyecto "son bastante serias; se exige un análisis del ciclo de vida del vehículo y la cantidad de emisiones durante la fabricación del vehículo, que no se piden nunca, y requieren de conocimientos de ingeniería muy grandes. Si han organizado esta competición", añade el experto, "quizá sea porque las marcas no encuentren ideas felices, y una iniciativa así puede servir para encontrar una solución, porque hay mucha gente entusiasta y muchas ideas".

Existen otras carreras que persiguen objetivos similares, como el Shell Eco Marathon, una competición que comenzó en Estados Unidos en 1939 y cuya 25 edición en Europa se celebrará del 7 al 9 de mayo en la EuroSpeedtrack de la localidad germana de Lausitz. Se trata de que estudiantes de todo el mundo diseñen, construyan y prueben vehículos que recorran grandes distancias con una cantidad mínima de combustible o impulsados por energías alternativas.

También Barcelona sirvió, a principios del pasado septiembre, como etapa de salida a EcoTour 2008, una carrera ecológica organizada por el RACC, la FIA y los principales clubes de automovilistas europeos en la que 42 modelos de 20 marcas recorrieron Europa durante una semana. El único objetivo de esta carrera fue el de promover la compra de vehículos ecológicos y estimular a la industria a crear más coches de este tipo.

El hecho es, en todo caso, que parece que estas iniciativas van por delante de los deseos de los gobiernos. En España, el ministro de Industria, Miguel Sebastián, ha apostado porque en 2014 estén circulando un millón de coches eléctricos por el país, y se ha mostrado convencido de que Seat tiene un papel que jugar en este sentido.

De hecho, la marca española ya ha presentado el León TwinDrive Ecomotive, el primer coche eléctrico de la marca. Sebastián, quien asistió a la presentación del modelo el lunes, dijo que la apuesta por el coche eléctrico es un reto sin marcha atrás, puesto que se trata de "un ejemplo del futuro que queremos construir: un futuro competitivo, sostenible y respetuoso con el medio ambiente". Aún queda, en todo caso, un largo camino para llegar a ese futuro. Según un reciente estudio del RACC, sólo uno de cuatro vehículos matriculados en España alcanzan los máximos niveles de protección del entorno.

Por: Daganzo, Juan Manuel
Fuente: PUBLICO

El cambio climático durmió al oso cavernario herbívoro para siempre

Un grupo de científicos de Austria y Reino Unido han calculado que el gran oso cavernario Ursus spelaeus, que pobló una vez Europa, se extinguió hace 27.800 años, coincidiendo con el Último Máximo Glacial, un periodo clave de cambio climático

Durante este tiempo la temperatura disminuyó drásticamente, provocando el declive o la desaparición de vegetación de la que se alimentaban estas gigantescas criaturas.

La investigación recibió financiación comunitaria mediante el proyecto AlpiNet (Culture 2000) así como del «Fondo Cultural de Baja Austria» (Austria) y del «Consejo Nacional de Investigación del Entorno Natural» (Reino Unido). Se ha publicado un artículo sobre el estudio en la revista Boreas.

La desaparición de la vegetación provocó la desaparición del Ursus spelaeus, el primero de los grandes mamíferos en extinguirse, 13.000 años antes de lo que los científicos habían calculado en un principio. Además del oso cavernario, otros grandes mamíferos extinguidos fueron el león cavernario, el mamut lanudo y el ciervo gigante.

Se han encontrado múltiples restos de osos cavernarios en zonas en la que probablemente murieron durante el periodo de hibernación. Estos osos eran enormes, informan los investigadores, y los machos podían llegar a pesar hasta mil kilos. Los mayores osos actuales, el kodiak y el polar, pesan unos ochocientos kilos, mientras que el peso medio del resto de osos ronda los quinientos kilos.

Según el equipo de investigación, en la Edad Media los huesos del oso cavernario se utilizaban con fines medicinales. Durante ese periodo, la gente creía que los huesos pertenecían a dragones.

A lo largo de los años se han propuesto diversas teorías para explicar la extinción de los grandes mamíferos, pero no se han logrado resultados concretos. Muchos investigadores opinan que los grandes mamíferos desaparecieron de la faz de la Tierra debido a los humanos y a sus actividades cinegéticas.

No obstante, la Dra. Martina Pacher de la Universidad de Viena y el profesor Anthony J. Stuart del Museo Nacional de Historia del Reino Unido indican que, con respecto a los osos cavernarios, no hay pruebas que respalden estas teorías. Añadieron que la hipótesis de una enfermedad que afectara a estos mamíferos durante la hibernación «no explica el momento temporal en que ocurrieron las extinciones ni que sus tamaños corporales» fueran tan diferentes.

Para apoyar la idea del cambio climático, la Dra. Pacher combinó información actual y antigua de datación por radiocarbono procedente de restos de oso cavernario para construir una nueva cronología de la extinción del mismo.

«Nuestro trabajo muestra que este oso fue uno de los primeros en desaparecer entre toda la megafauna que se extinguió durante la última glaciación en Europa», explicó la Dra. Pacher. «Las extinciones posteriores ocurrieron en diferentes momentos durante los últimos 15.000 años.»

Los investigadores también descubrieron que los osos cavernarios eran herbívoros. Esta apreciación se basó en datos de la anatomía craneal, el colágeno óseo y la dentadura. En cuanto a su ubicación geográfica, el oso cavernario se encontraba únicamente en Europa, concretamente entre España y los Urales en Rusia.

«Su modo de vida, extremadamente singular, sobre todo en lo referente a una dieta de plantas de gran calidad, y su limitada distribución geográfica lo convirtieron en un animal vulnerable a la extinción a medida que el clima se enfrió y su fuente de alimentos fue quedando mermada», declaró la Dra. Pacher.

Para obtener más información, consulte:

AlpiNet:
http://www.archeoalpinet.eu/

Universidad de Viena:
http://www.univie.ac.at/

Museo Nacional de Historia:
http://www.nhm.ac.uk/

Fuente: CORDIS

martes, 20 de enero de 2009

La ESA vigilará la salud de la Tierra y explorará el Universo primitivo en 2009


La Agencia Espacial Europea invertirá 10.000 millones de euros en proyectos. Lanzará tres satélites destinados a la observación de la Tierra. El telescopio 'Herschel' estudiará la formación de galaxias y estrellas

La Agencia Espacial Europea (ESA) centrará este año sus misiones en la observación de nuestro planeta y también en la exploración del Universo primitivo. ¿Qué está pasando con el calentamiento global? ¿Qué cambios se están produciendo en los ecosistemas terrestres? Y, además, ¿cómo se formó el Universo en el que somos minúscula pieza? Acercarse a algunas de las respuestas es el propósito que tiene en su cartera el director general de esta institución, el francés Jean-Jacques Dordain.

En una rueda de prensa celebrada en Paris, Dordain recordó que el año pasado fue el del aterrizaje de la ESA en la Estación Espacial Internacional (ISS) con un laboratorio científico, el 'Columbus', que se enganchó a la ISS en febrero. Pero, añadió, que «el 2009 será especialmente denso e importante».

Para cumplir con los compromisos, Dordain sabe que cuenta con los 10.000 millones de euros que se han comprometido a aportar los estados miembros de la Agencia al presupuesto de este año, a pesar de la crisis económica. Más riesgo supone lo que pueda pasar con los fabricantes de los equipos que necesita para sus misiones. "El peligro es que un determinado número de pequeñas industrias desaparezcan", señaló Dordain, según informa AFP.

Entre los proyectos más importantes del año está el lanzamiento de tres satélites destinados a la observación de la Tierra. El primero sería el 'Goce' (para el estudio de la gravedad terrestre) que se lanzaría en marzo desde Rusia. Le seguirían otros dos: en julio, el 'SMOS' (para medir la humedad del suelo y la salinidad del océano) y en noviembre el 'CryoSat 2' (para el estudio de los hielos). "Se trata de comprender mejor los problemas del medio ambiente y del cambio climático", destacó Dordain.

A estas apuestas se suman las de otros dos importantes satélites científicos europeos destinados a la observación del Universo: el del telescopio 'Herschel' y el 'Planck', que se pondrán en órbita en abril con un Ariane 5 desde Kourou (en la Guayana Francesa). El telescopio infrarrojo 'Herschel' se dedicará al estudio de la formación de las estrellas y galaxias) con un espejo de 3,5 metros de diámetro, mientras que 'Planck' tendrá como misión la observación de las radiaciones cósmicas para «retroceder hacia los orígenes del Universo, poco después de que tuviera lugar el Big Bang.

Nuevos elementos en la ISS
Además, la ESO tiene previsto añadir dos elementos más a la Estación Espacial a finales de año: un módulo bautizado como Nodo 3 y un puesto de observación para los astronautas, Cupula, que ofrecerá una vista panorámica sobre la Tierra.

La Estación internacional, como ha recordado Dordain ante la prensa, este año aumentará su tripulación de tres a seis miembros por primera vez desde que la ESA ocupa el puesto de comandante de la ISS.

Otra novedad será el lanzamiento del primer cohete italiano VEGA y el primer ruso Souyuz desde el centro de Kourou. «La ESA debe prepararse para el futuro y prever cómo la exploración espacial puede ayudar a la gestión de los grandes retos pendientes a nivel económico, de seguridad o del medio ambiente», concluyó su responsable.

Por: Tristán, Rosa M.

Fuente: El Mundo

Detectan grandes emisiones de metano en el planeta rojo


La búsqueda de vida fuera del planeta Tierra ha sido uno de los más ambiciosos y enigmáticos objetivos científicos de la modernidad. Pero en los laboratorios, incluso en los de la NASA, la exploración se hace de una forma muy diferente a la que se nos muestra en las películas de ciencia ficción

Los viajes espaciales para enviar vehículos de exploración al planeta rojo pueden parecer complicados proyectos futuristas. Y lo son. Pero algunos de los principales descubrimientos científicos que se han hecho a través de ellos han ocurrido por motivos que lindan con lo cómico.

El vehículo Oportunity ya se había topado con la presencia de agua en la superficie marciana. Sin embargo, y por extraño que suene, la rotura de una de las ruedas de otro de los vehículos, llamado Spirit, obtuvo la confirmación que buscaban los científicos. Las imágenes, tomadas por la propia sonda, del surco que dejaba la rueda reventada en el suelo revelaron la presencia de sulfuros y silicatos. Y estos minerales tuvieron que ser depositados allí por agua caliente. De esta forma se evidenció la presencia del líquido esencial para los organismos vivos tal y como los conocemos en la Tierra y se abrió la puerta a la posibilidad de que Marte albergara alguna forma de vida.

El paso siguiente hacia el desubrimiento de vida extraterrestre lo dieron tres grupos diferentes de investigadores a través de datos ofrecidos por la sonda europea Mars Express. Pero en este caso la molécula clave era el metano.

Un nuevo paso hacia la vida marciana
Ahora, un equipo de científicos de la Nasa y de varias universidades estadounidenses documentan, gracias a datos obtenidos con tres potentes telescopios situados en Hawai y publicados en la revista 'Science', una gran liberación de gas metano ocurrida en el verano de 2003 en dos lugares concretos de la superficie de Marte.

El 90% del metano atmosférico de la Tierra lo producen los organismos vivos, pero el equilibrio de este gas se produce gracias a la geoquímica. Ambos podrían estar en el origen de esta gran formación de un gas extremadamente raro en el ambiente oxidante marciano.

Los datos recogidos por los autores revelan que el gas tiene una vida media de medio año marciano, algo más de un año terrestre. Un tiempo muy escaso, de forma que las emisiones se tienen que estar produciendo continuamente. Por ese motivo los científicos sólo barajan dos posibilidades que implican que la formación debe estar ocurriendo en la actualidad.

"Se trata de 19.000 toneladas metricas de gas. ¿De dónde viene todo este metano?", se pregunta el autor principal Michael J. Mumma en una conferencia de prensa ofrecida a través de NASA TV, "Una opción es que la actividad geológica en las profundidades de Marte lo este formando y se haya liberado aprovechando grietas en la roca y la otra es que provenga del metabolismo de organismos metanogénicos capaces de reducir carbono y producir metano".

Lo que demostraría que el llamado planeta muerto, por su escasa actividad geológica no lo sería tanto. "No lo sabemos con certeza. Pero el problema es que no parece que en Marte haya una temperatura suficiente como para generar tal actividad geológica", asegura Ricardo Amils, catedrático de Microbiología de la Universidad Autónoma de Madrid. "De forma que es cierto que se abre una puerta a presencia de vida en Marte".

Por: Corral, Miguel G.

Fuente: El Mundo

Los cultivos reflectantes pueden enfriar el planeta

La temperatura de Europa y América del Norte podría bajar un grado centígrado durante el verano

El albedo es la capacidad de los objetos de reflejar la luz. Las superficies claras tienen un albedo elevado, mientras que las oscuras, lo tienen bajo, ya que absorben el calor del Sol y calientan lo que tienen debajo. Así, cuando una superficie está cubierta por colores claros, el ambiente se enfría. Bajo este principio de la Física, los investigadores de la Universidad de Bristol (Reino Unido) han calculado lo que pasaría si se seleccionan cultivos con un albedo elevado o con uno bajo.

Y concluyen en un estudio publicado en Current Biology que con una selección de cultivos de colores claros, la temperatura de Europa y América del Norte podría bajar un grado centígrado durante el verano, lo que equivaldría a reducir el termómetro del planeta en 0,1ºC anuales, casi el 20% de lo que ha aumentado la temperatura desde la Revolución Industrial.

El doctor Andy Ridgwell propone que los agricultores elijan granos más claros, no que cambien el tipo de cultivos. Así, entre varios tipos de trigo, se optaría por el más blanco y que refleje más luz.

Los investigadores han calculado que durante el próximo siglo, si se lleva a cabo la sustitución de cultivos se podría evitar la emisión de 195.000 millones de toneladas de CO2. Ridgwell propone que los agricultores tengan ayudas por los beneficios ambientales de enfriar el planeta en forma de créditos de carbono, y calcula que podrían llegar a ganar 23 euros por hectárea. 

Por: García de la Fuente, María

Fuente: Publico

jueves, 15 de enero de 2009

"Necesitamos árboles artificiales que quiten CO2 de la atmósfera"


William S. Broecker es "uno de esos gigantes sobre los que edificamos la ciencia del cambio climático". Así le definió ayer el científico del CSIC Carlos Duarte, secretario del jurado que le concedió el primer premio de la Fundación BBVA al calentamiento global.

El galardón, dotado con 400.000 euros -el segundo en cuantía tras el Nobel según la Fundación- resalta que Broecker fue el primero en escribir en un artículo científico en Science "cambio climático". Aunque este profesor de la Universidad de Columbia, en Nueva York, no reclama la paternidad. "Fui el primero en ponerlo en un artículo en 1975 pero me molestaría ser recordado por eso. Tengo más de 500 artículos científicos y ocho libros. Espero que mi contribución a la ciencia sea mayor que la de haber juntado esas dos palabras", explica por teléfono. A este galardón le seguirán premios fronteras del conocimiento en otras disciplinas científicas y artísticas.

En su estudio de 1975, Broecker no sólo juntó las palabras mágicas sino que alertó de que el planeta estaba a punto de entrar en una etapa de calentamiento debido a la emisión de gases de efecto invernadero. Cambio climático, ¿estamos al borde de un calentamiento global pronunciado?, se titulaba el estudio.

Broecker, de 77 años, que sigue en primera línea -está a punto de viajar a Islandia "para realizar un experimento sobre la inyección de CO2 en el subsuelo"-, fue además en primero en teorizar sobre cómo el calentamiento podría llegar a colapsar la corriente oceánica que regula la temperatura del planeta. Eso supondría que, paradójicamente, el calentamiento traería una glaciación al hemisferio norte -la base de la película El día de mañana-. "Cuando predije que podía ocurrir no sabíamos que eso fue lo que pasó hace 8.200 años. Ahora veo muy improbable que ocurra. El Ártico se está fundiendo tan rápido que en 50 años no habrá hielo perenne, así que el océano Atlántico no podrá helarse como entonces, cuando la capa helada llegó a las islas británicas".

El científico lamenta que en estos más de 30 años desde su artículo "se ha hablado mucho pero se ha hecho poco" para estabilizar las concentraciones de CO2 en la atmósfera. "Bush ha sido abominable, una vergüenza y tengo esperanzas en el equipo de Obama". Pero aún así es realista en la dificultad de la tarea. La concentración de gases de efecto invernadero -atrapan parte del calor que emite la Tierra- es la mayor en más de 650.000 años. Ha pasado de 280 partes por millón en 1850 a 385 en la actualidad y el objetivo más ambicioso es estabilizarla en 550 en 2050. "Veo muy difícil que consigamos frenar la concentración en la atmósfera antes de que duplique los niveles preindustriales. Pero es imprescindible, porque si no lo hacemos y se triplica, veremos muchas sorpresas ecológicas". Entre esas sorpresas, destaca que "el patrón de lluvias va a cambiar mucho y eso sí que afectará a las personas, ya que el agua ya escasea en muchas partes del mundo".

Por eso, apunta que hay que dar una vuelta de tuerca más: "Por supuesto que necesitamos energía nuclear, solar, del viento y geotérmica. Todas las renovables son necesarias. Pero eso no estabilizará la concentración de CO2. Tenemos que comenzar a buscar formas de quitar el CO2 de la atmósfera".

-¿De la atmósfera o de la planta térmica que emite ese CO2?

-De la planta sí, pero también de la atmósfera o no haremos nada porque no llegamos a los coches. Mire, España y algún otro país podrá reducir el uso de combustibles fósiles, pero los países como China no, y no podemos pedírselo. Así que necesitaremos árboles artificiales que quiten CO2 de la atmósfera. En mi universidad, Klaus Lackner ha desarrollado ya ese dispositivo metálico que atrapa el CO2. Son mil veces más potentes que los árboles naturales al absorber CO2 y estoy convencido de que en próximas ediciones ganará este premio que hoy me han otorgado a mí.

Cada uno de esos árboles puede absorber el dióxido de carbono que emiten 15.000 coches, según su diseñador. "Klaus ha gastado seis millones de dólares en esa investigación, ¡pero eso es lo mismo que gana un jugador de béisbol!", se desgañita Broecker.

Por: Méndez, Rafael

Fuente: El Mundo

La nueva era de la exploración espacial



El Instituto Tecnológico de Massachusetts llama a aumentar las inversiones e investigaciones de EEUU en el espacio

En 2004, el presidente de EEUU, George Bush, anunció su ?visión espacial? para regresar a la Luna y llegar por primera vez a Marte con una misión tripulada.

Aquel plan llegó en un momento de crisis para el programa espacial tripulado estadounidense. Un año antes, el accidente del Columbia había provocado la suspensión del programa de transbordadores, y era necesario un nuevo impulso.

Sin embargo, después de presentar su ?visión?, Bush nunca volvió a hablar de ella y ni su Administración ni el Congreso aprobaron los incrementos presupuestarios necesarios para acercarla a la realidad.

El nuevo presidente, Barack Obama, traerá cambios a la NASA (por el momento es casi seguro que sustituirá a su director, Michael Griffin) y por eso arrecian las opiniones de los expertos sobre la dirección que deberá seguir la principal potencia espacial del mundo.

Uno de los puntos de vista más relevantes es el publicado recientemente por el grupo de investigación Espacio, Política y Sociedad del Massachusetts Instute of Technology (MIT). En este informe, titulado El Futuro del Vuelo Espacial Tripulado, se afirma que en los próximos meses ?la nueva Administración tomará las decisiones más importantes respecto al vuelo espacial tripulado de EEUU en una generación?.

En tiempos de crisis, el grupo del MIT se pregunta por qué debería un país mantener un esfuerzo importante para seguir enviando astronautas al espacio.

Pese a que la institución estadounidense habla del ?umbral de una nueva era?, el sustento ideológico que ofrece a Obama para seguir inyectando dólares en la empresa espacial no difiere demasiado del que impulsó a Kennedy en los 60 para meter a su país en la costosa carrera hacia la Luna.

Junto a la exploración, los expertos hablan del orgullo nacional y el liderazgo internacional como objetivos que ?solo pueden alcanzarse a través de la presencia física de humanos en el espacio?. En 1962, Kennedy aseguraba: ?Ninguna nación que espere ser el líder de otras naciones puede esperar mantenerse atrasada en la carrera por el espacio?.

Los autores del informe recomiendan, no obstante, que no vuelva a repetirse el modelo de carrera espacial que enfrentó a EEUU contra la URSS durante la Guerra Fría y, en una afirmación que no casa con los tópicos del espíritu americano animan a que ?Estados Unidos aproveche el orgullo y el prestigio de los vuelos espaciales tripulados para realzar su liderazgo y promover la cooperación más que para alentar la competencia?.

En este sentido, creen que el liderazgo del país, al contrario de lo que las actuales políticas determinan, no solo debería definirse con el leitmotiv ?los primeros, los más grandes y al mando?.

También debería tratar de construir nuevas formas de colaboración. Entre ellas, el MIT recomienda que cambie la actual política frente a China, con la que EEUU ha tratado de aislar en el ámbito espacial al país asiático. ?Continuar con esta política podría alimentar la percepción pública en los dos países de que existe otra carrera por llegar a la luna, creando así presiones políticas sobre el programa espacial estadounidense y proporcionando a China, posiblemente, un prestigio adicional, poder blando e influencia geopolítica por competir en una carrera que EEUU ganó hace cuarenta años?, afirma el informe.

Por el contrario, un programa de colaboración, aseguran desde el MIT, animaría a una apertura del programa espacial chino y desactivaría los incentivos para lanzar un programa espacial secreto.

No han faltado los críticos con el informe. El fundador de SkyCorp, Dennis Wingo, ha lamentado la ausencia en el documento de otros incentivos en la empresa espacial como es la explotación de los recursos ultraterrenos. En pocas semanas, Obama decidirá si el orgullo nacional aún puede propulsar la conquista de las estrellas o si será necesario agregar al combustible una chispa de codicia.

Las principales decisiones que deberá tomar Obama
Retirada del sistema de transbordadores a partir de 2010


Una de las cuestiones a las que se enfrentará la nueva Administración estadounidense será la retirada de los transbordadores a partir de 2010. El actual director de la NASA tenía previsto sustituirlos por el programa ?Constellation?, un sistema que recupera muchas de las características de las cápsulas ?Apollo?, a partir de 2015. Las críticas a este programa, plagado de contratiempos, han sido numerosas y se ha llegado a plantear descartarlo y comenzar a desarrollar uno nuevo. Además, ha habido propuestas para que los shuttle sigan volando hasta que se cuente con un nuevo sistema de transporte espacial.

Los expertos del MIT discrepan. Frente a quienes alertan del peligro de una ausencia de medio de acceso al espacio propio para EEUU, ellos recuerdan que el país ha mantenido su liderazgo en paréntesis similares de hasta seis años, como el que se produjo antes del primer vuelo de los shuttle en 1981. Sobre el mantenimiento de los transbordadores, el informe indica que entorpecería el desarrollo de una nueva generación de transporte de astronautas que ?promete renovar el orgullo estadounidense en el programa espacial y apoyar el objetivo primario del liderazgo en la exploración espacial con humanos por parte de EEUU?.

Alargar la vida de la Estación Espacial hasta 2020

La visión de Bush indicaba que EEUU se retiraría de la Estación Espacial Internacional en 2016. En opinión de los expertos del MIT utilizar el laboratorio orbital durante solo seis años tras completar su construcción no permitiría desarrollar experimentos durante el tiempo suficiente para aportar datos significativos que facilitasen la exploración humana posterior. Para conseguir información que facilitase la creación de colonias en la Luna y los viajes de larga duración que permitiesen llegar a Marte, EEUU debería trabajar con el resto de socios en la estación con el fin de posibilitar economicamente alargar su vida útil hasta 2020.

Una financiación realista para evitar desgracias

Los ambiciosos planes espaciales de Bush no fueron correspondidos por una financiación igualmente ambiciosa. La NASA sigue una política que consiste en alcanzar sus objetivos por medio de pequeños incrementos de presupuesto durante un largo periodo y lanzar las misiones cuando los fondos estén disponibles (y restrasándolas si no llegan) en lugar de planificar grandes incrementos por adelantado. Un informe del Consejo Nacional de Investigación de 2006 afirmaba que ?a la NASA se le está pidiendo lograr mucho con demasiado poco?. El grupo de investigación creado para analizar el accidente del ?Columbia? de 2003 apuntó a este planteamiento como una de las principales causas de la muerte de los astronautas. El MIT llama a investigar qué problemas podría estar causando esta mentalidad en el diseño del programa ?Constellation? y apela al Congreso y la Casa Blanca para que reduzcan la presión del ?demasiado con demasiado poco? asegurando que los recursos que se le proporcionan a la NASA se ajustan a lo que se espera de la agencia.

Regreso a la Luna y primer viaje a Marte

En la presentación de su visión en 2004, George Bush anunció planes para que la NASA regresase a la Luna en 2020. No especificó, sin embargo, durante cuánto tiempo permanecerían allí. La ambigüedad del plan generó un debate entre quienes consideran que sería positivo crear un laboratorio lunar para estudiar efectos como la gravedad del satélite o la radiación sobre la salud humana y quienes creen que este tipo de instalaciones se convertirían en un sumidero para los fondos que se deberían dedicar a preparar un viaje a Marte. El plan Bush era aún más ambiguo respecto a sus planes de exploración del planeta rojo.

El panel del MIT reclama que la nueva Administración concrete sus objetivos en la Luna y Marte. ?Las decisiones que se tomen tienen implicaciones inmediatas para la investigación y el desarrollo que se lleva a cabo en la Tierra y en la Estación Espacial Internacional?, se lee en el informe. ?En investigación biomédica, por ejemplo, entre los problemas a los que se debe hacer frente durante una misión lunar que dure meses se encuentran la exposición a la radiación y el cuidado de astronautas heridos o enfermos. Por el contrario, planificar una misión de larga duración a Marte requiere el estudio de la pérdida de hueso, el debilitamiento muscular, la nutrición y otros asuntos como la respuesta del sistema inmunológico a las condiciones de Marte. En este sentido, se advierte que la NASA no está investigando en la actualidad las tecnologías que permitirían una presencia prolongada sobre el planeta rojo. La agencia espacial estadounidense se centra en tecnologías maduras (se están volviendo a utilizar tecnologías de los 60) y las ideas nuevas no están recibiendo el apoyo suficiente?, advierte el informe.

Por: Mediavilla, Daniel

Fuente: Publico

miércoles, 14 de enero de 2009

¿De verdad necesitamos dormir?

Un estudio plantea que el sueño es una manera de ?llenar' el tiempo más que una necesidad

Tras 11 días sin dormir, incluso una persona tan motivada por un experimento científico como Randy Gardner tuvo que rendirse, no sin antes batir el récord mundial de privación de sueño. Dormir es necesario, pero los especialistas no saben todavía el motivo exacto de esa necesidad. Algunas hipótesis han barajado la posibilidad de que sirva para evitar la depredación o la exposición al peligro durante demasiado tiempo, mientras que otras encuentran concluyente el hecho de que el cerebro necesite descansar para poder recargarse. El problema está en que no todos los animales duermen de la misma manera y, sobre todo, en que no a todos les afecta igual la falta de sueño.

Chiara Cirelli y Giulio Tononi, del Departamento de Psiquiatría de la Universidad de Wisconsin en los Estados Unidos, han propuesto una nueva vía: ¿y si el dormir fuese no tanto una necesidad como un modo de llenar el tiempo porque no necesitamos 24 horas para buscar alimento, comer, reproducirnos o ejercer otras actividades? "Parece claro que casi todos los organismos han sufrido un proceso evolutivo similar: necesitan un tiempo para descansar", dice el doctor Tononi. "Lo que no está nada claro es porqué".

Ambos psiquiatras aseguran que, con los conocimientos sobre el sueño que tenemos en la actualidad, no existen suficientes evidencias que demuestren la existencia de necesidades fisiológicas detrás de él. "Hay organismos como la rana-toro que aparentemente no duermen nunca, y otros como las palomas a las que no les afecta dormir más o menos", comenta Cirelli. "Por lo tanto, parece que hay una tendencia al estado de letargo, pero todavía no hemos dado con el verdadero origen del sueño".

En ratas y humanos, no dormir afecta al sistema inmune, hormonal y hasta a la transmisión de mensajes sinápticos (entre células nerviosas). Ninguno puede estar largos periodos sin dormir, mientras que pájaros y peces parecen tener una enorme elasticidad a la hora de invertir horas con Morfeo. "Durante la migración, los pájaros pueden reducir hasta en un 65% su tiempo invertido en sueño, y los peces tienen una gran capacidad de recuperación sin aparentemente estar nunca profundamente dormidos", dice Cirelli.

Ambos expertos analizan, en un artículo publicado en la revista PLoS Biology, lo que se sabe hasta ahora sobre el sueño. "Parece mentira que no se sepa gran cosa sobre el origen de algo tan importante", continúa Tononi. "Lo que nosotros proponemos es simple: una vez que los animales han cumplido con sus necesidades básicas diarias, quizás no requieran de un tiempo adicional en el que lo único que harían es gastar energía".

Opiniones en contra

Otros investigadores opinan de forma diferente. Para el doctor J. Lee Kavanau, experto en sueño del Departamento de Biología Orgánica de la Universidad de California, "tiene que ser más que eso. Puede que dormir sea el momento en el que el cerebro no sólo se recarga, sino que reordena los sucesos del día y permite descansar de la ingente cantidad de estímulos diarios". Pero entonces, ¿por qué dentro de un mismo grupo (como peces, pájaros o mamíferos) las pautas son tan diferentes?

"El caso más espectacular es, sin duda, el de los delfines", dice Tononi. "Una mitad del cerebro duerme mientras la otra está en vigilia", explica. Un mecanismo del todo necesario si pensamos que es un mamífero acuático que no tiene la posibilidad de reposar en tierra y necesita respirar cada 30 o 60 segundos mientras está descansando.

Hay demasiadas incógnitas todavía que rodean la actividad de dormir, una porción de vida que puede fácilmente superar el tercio de un día. "Parece que necesitamos dormir, pero ¿qué partes del organismo necesitan más descanso? ¿Y cómo ha evolucionado a lo largo del tiempo el sueño?", se pregunta la doctora Cirelli. Lo único que parece claro es que a mayor complejidad cerebral más horas de sueño son necesarias, "pero puede que, desde su origen, el sueño haya sido más una respuesta a la no necesidad de estar todo el día activos que a una verdadera y auténtica necesidad de dormir", concluye.

Por: Rossi, Sergio

Fuente: Publico 

Pequeño, bonito y barato...


Lunes 12 de enero del presente año se clausuró en Las Vegas la edición 2009 de CES, una de las mayores ferias tecnológicas del mundo. Nuevos sitemas operativos, teléfonos inteligentes, ordenadores de bolsillo y televisiores en tres dimensiones han sido las estrellas de este año


Ni tan brillante como los organizadores habrían querido, ni tan deslucida como pregonan sus detractores. Hoy se clausura en Las Vegas la Consumer Electronics Show (CES), uno de los mayores escaparates anuales de la tecnología. Con la crisis económica como telón de fondo (300 expositores menos que en pasadas ediciones) 2.700 empresas de todo el mundo (siete de ellas españolas) han mostrado durante cinco días sus principales novedades. A falta de los datos oficiales, se calcula que más de 130.000 personas han visitado la exposición.

Las claves de este año han sido claras: tecnología «ecológica» y a precios razonables. Y una vez despejado el panorama de supuestas «novedades» que no son más que actualizaciones de productos que ya existían, aún queda un buen puñado de tecnologías y dispositivos realmente nuevos y que darán, sin duda, mucho de qué hablar. Entre lo más destacado, el «regreso» de Palm a la batalla de los teléfonos tactiles inteligentes. O el primer vistazo a Windows 7, la esperanza de futuro de Microsoft.

Palm vuelve al ataque

En el primero de los casos, Palm, la firma que inventó el concepto de «smartphone» y que había quedado relegada a una posición residual por su competencia, resucita con un nuevo dispositivo, llamado Pre, y un nuevo sistema operativo, WebOS, especialmente pensado para sacar el máximo partido de internet.

De la expectación generada dan buena cuenta la espectacular subida (cerca de un 40%) de las acciones de Palm en Wall Street apenas unas horas después de su presentación. Y el hecho de que nuevo teléfono ha merecido el premio a la mayor innovación de este año en CES. Se espera que durante los próximos meses podamos verlo en España.

En cuanto a Microsoft, Su «mesa táctil» basada en el nuevo Windows 7 fue sin duda una de las principales atracciones de la feria. El nuevo sistema operativo anunciado por Steve Ballmer tiene la misión, entre otras, de quitar a los usuarios el mal sabor de boca dejado por Vista. La compañía de Redmond, que había anunciado la apertura de la versión beta de Windows 7 a un millón y medio de usuarios, ha tenido que suspender su distribución a través de Internet a causa del enorme tráfico generado en su web para conseguir una descarga del nuevo producto, entre cuyas novedades se encuentran diversas funciones táctiles.


La era del miniportátil

Otra de las verdades de este año tiene que ver con los «Netbook» los miniordenadores portátiles de bajo coste inventados por Asus y que ahora fabrican ya masivamente las principales marcas. CES ha demostrado que han llegado para quedarse. Con prestaciones cada vez mayores y dignas de sus hermanos mayores, destacó en la feria el nuevo modelo de Vaio de Sony, tan pequeño que cabe en el bolsillo interior de una chaqueta y tan potente que no tiene nada que envidiar a un portátil convencional. Destacó también en este campo la tercera generación del Classmate, el portátil de bajo coste de Intel y quizá el más manejable de todos.

En cuanto a la televisión, señalar que a las pantallas extraplanas de alta definición se suma ahora otra característica que muy pronto se extenderá como la pólvora: la posibilidad de ver las imágenes en tres dimensiones. Tanto Samsung, como LG y Sony han presentado sus televisores tridimensionales, aunque la mayor parte de ellos (no todos) requieren que el espectador se ponga gafas especiales.

Una mención aparte merece también, sin duda alguna, el «móvil-reloj» presentado por la coreana LG, un dispositivo novedoso y que pronto podrá adquirirse en las tiendas de varios continentes, entre ellos Europa.

Por: Nieves, J. M.

Fuente: ABC