collapse

Autor Tema: Hablemos de CIENCIA  (Leído 62472 veces)

0 Usuarios y 1 Visitante están viendo este tema.

Desconectado RED SKIN

  • Profesional
  • ******
  • Mensajes: 10950
  • Sexo: Masculino
Hablemos de CIENCIA
« en: Septiembre 10, 2009, 12:35 Horas »
« Última modificación: Septiembre 12, 2011, 17:24 Horas por MODERADORFOSFC6 »

Desconectado Keyfas

  • Juvenil
  • ***
  • Mensajes: 1487
  • Siempre hacia ARRIBA
Re: HABLEMOS DE CIENCIA
« Respuesta #1 en: Septiembre 14, 2009, 02:26 Horas »
http://www.europapress.es/ciencia-00298/noticia-mas-presupuesto-tiempo-podrian-haber-evitado-averia-lhc-20090910163117.html

La reparación del LHC ha sufrido problemas de dinero y de tiempo, según afirmó el director científico del Laboratorio Europeo de Física de Partículas (CERN), Sergio Bertolucci, en un encuentro en la Fundación BBVA, coincidiendo con el primer aniversario de la inauguración de este Gran Colisionador de Hadrones.

   "Tuvimos suerte porque fue en un sitio que pudimos reparar. Si hubiera sido en un sector anterior habría que haber parado hasta tres años. O, en el caso de que la onda se hubiera expandido, se hubiera roto la máquina totalmente", comentó Bertolucci.

   Así, aseguró que cerca de los diez mil científicos que trabajan en el centro están trabajando "con pies de plomo" y que, mientras el siga en el cargo, se ha previsto un plan de financiación de 25 millones de francos anuales para el LHC.

   "Si hubiera habido más dinero la máquina se hubiera fabricado con menos riesgos. Además, no se puede esperar que una máquina que nunca antes se había construido funcione cien por cien a la primera. Ya se contaba con que iba a haber problema", añadió el experto, al tiempo que resaltó que en torno a primavera se evaluarán los primeros resultados de los experimentos realizados con el LHC.

   Además, explicó que en estos momentos se están enfriando los sectores del LHC y que esta 'máquina del Big Bang' no parará en los meses de invierno sino que no parará "nunca más". "Si tu te compras un Ferrari no es para tenerlo aparcado", apuntó, al mismo tiempo que ratificó que la reparación ha costado en torno a los 35 millones de francos suizos "al principio", aunque con la parada el CERN ha podido ahorrar dinero.

   A juicio de Bertolucci, el Gran Colisionador de Hadrones representa la "mayor" empresa científica jamás lograda, y ahora tan sólo falta encontrar el 'Bosón de Higgs', que puede definir el origen del Universo y que ya se ha convertido en una "pesadilla" para los físicos de todo el mundo.

   En este sentido, señaló que es importante encontrar la denominada 'partícula de Dios' porque ayudará a la comunidad científica a entender "aquello que no se ve". "La masa del Higgs es muy pequeña y creemos que debe haber algo porque sólo sabemos de lo que vemos, que es el cuatro por ciento. El resto, el 96 por ciento, es materia oscura que no vemos y a la que hay que encontrarle una teoría", añadió.

PUESTA EN MARCHA

   El LHC se puso en funcionamiento el 10 de septiembre de 2008 con la primera puesta en circulación del primer haz de partículas, a lo largo de sus 27 kilómetros de circunferencia, y sólo nueve días después se estropeó y tuvo que ser parado, tras casi dos décadas de preparación. El pasado mes de agosto el centro confirmó que a mediados de noviembre el 'aparato' comenzará de nuevo a funcionar, aunque a energía inferior a la prevista para el LHC.

   "Nos acercamos a la fecha de la puesta en marcha de la máquina del LHC, un acontecimiento que marcará el inicio de un viaje largo y emocionante hacia regiones inexploradas de la Física. Hay que comprender que para pararlo hay que ponerlo a bajas temperaturas y no sólo es necesario darle a un botón", afirmó en este sentido Bertolucci.

   El incidente que el pasado 19 de septiembre de 2008 impidió el inicio de las operaciones del LHC estuvo relacionado con un fallo en una de las 10.000 conexiones eléctricas superconductoras del acelerador.

   Bertolucci se encuentra estos días en España porque ha impartido una conferencia plenaria en la XXXII Bienal de la Real Sociedad Española de Física, que se celebra desde el pasado día 8 de septiembre hasta mañana, día 11, en Ciudad Real, y que congrega a los 500 mejores expertos internacionales en áreas de vanguardia de la Física, desde la investigación de materiales superconductores a la exploración de otros planetas.




A ver si es posible y se cumplen la mitad de las expectativas que se tienen depositas en el LHC. Apasionante... :o

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #2 en: Noviembre 16, 2009, 13:47 Horas »
Voy a reflotar este hilo, uno de los mas visitados del foro

Encuentran el lugar más caliente del Universo
Trescientos millones de grados. Esa es la temperatura récord medida por el telescopio de rayos X con el que está equipado el satélite japonés Suzaku. Se trata de una nube de gas ardiente que rodea a todo un enjambre de galaxias (denominado RXJ1347), a cinco mil millones de años luz de distancia, en la constelación de Virgo. Esta es, por el momento, la mayor temperatura jamás medida por los astrónomos en todo el Universo.
Los investigadores han combinado sus resultados con las imágenes obtenidas de la misma región de espacio por el Telescopio Espacial Chandra, de la NASA, que también opera en la longitud de onda de los rayos X. Y han encontrado que el gas super caliente está en el interior de una zona de 450.000 años luz de tamaño que brilla de forma especialmente intensa.
Los astrónomos no saben la razón por la que este gas es varias veces más caliente que el medido antes alrededor de otras galaxias. De lo que no cabe duda es de que se trata del material más caliente encontrado hasta la fecha, y de la mayor temperatura conocida desde los lejanos tiempos del Big Bang, hace 13.700 de años.
Lo más violento desde el Big Bang
Para hacerse una idea de lo que significan trescientos millones de grados baste con pensar que el núcleo fundido de la Tierra «sólo» está a unos 5.400 grados centígrados, y que las temperaturas en el corazón mismo del Sol no superan los quince millones de grados. La cuestión es averiguar qué es lo que está provocando un calentamiento de esta magnitud, lo que no resulta una tarea fácil.
Por el momento, la mejor explicación hallada para este extraordinario fenómeno es que en esa lejana región del Universo existen grupos de galaxias en plena colisión entre ellos. Y a una velocidad que es muy superior a la que se da en situaciones análogas observadas en otros lugares. En RXJ1347 las galaxias están chocando unas contra otras a una velocidad superior a los 4.000 km. por segundo, y esa podría ser la explicación más plausible para que se produzcan esas extraordinarias temperaturas.
«Es un acontecimiento terrible -afirma Naomi Ota, de la Universidad de Ciencias de Tokio-. Estas colisiones entre grupos de galaxias son, en términos de energía, los episodios más violentos del Universo desde los tiempos del Big Bang

Ahí queda eso

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #3 en: Noviembre 17, 2009, 12:04 Horas »
El transbordador espacial de los EE.UU., Atlantis, ha despegado sin contratiempos este lunes con sus seis tripulantes a bordo desde el Centro Espacial Kennedy, al sur de Florida, en una misión de 11 días en la que realizarán tres caminatas espaciales.

El Atlantis transporta más de 13.600 kilogramos de piezas de repuesto para mantener la Estación Espacial Internacional operativa una vez que los transbordadores dejen de volar el próximo año.

Entre los seis tripulantes que viajan a bordo del Atlantis se encuentran cuatro pilotos de prueba, un cirujano ortopédico y un ex jugador de fútbol. Están preparados para pasar una semana en la Estación Espacial Internacional con el objetivo principal de entregar el material de repuesto.


El quinto y último vuelo de la NASA del año se inició a las 20:28 horas y su acoplamiento a la estación espacial está prevista para el próximo miércoles.

Después de la misión de Atlantis, que está programada para durar 11 días, la NASA planea otros cinco vuelos para completar la estación.

El transbordador está siendo sustituido por una nave estilo cápsula llamada Orion que puede viajar a la Luna y otros lugares del sistema solar, además de a la estación espacial, que orbita a unos 360 kilómetros sobre la Tierra.

La Estación, un proyecto de casi 70 mil millones de euros de 16 naciones, ha estado en construcción durante más de una década.

Si quereis ver el video del lanzamiento, pinchad este enlace


Saludos

Desconectado rafapaz

  • Amatéur
  • *****
  • Mensajes: 7794
  • Lopetegui Monchi y Pepito fuera del SFC
Re: HABLEMOS DE CIENCIA
« Respuesta #4 en: Noviembre 17, 2009, 17:06 Horas »
Voy a reflotar este hilo, uno de los mas visitados del foro

Encuentran el lugar más caliente del Universo
Trescientos millones de grados. Esa es la temperatura récord medida por el telescopio de rayos X con el que está equipado el satélite japonés Suzaku. Se trata de una nube de gas ardiente que rodea a todo un enjambre de galaxias (denominado RXJ1347), a cinco mil millones de años luz de distancia, en la constelación de Virgo. Esta es, por el momento, la mayor temperatura jamás medida por los astrónomos en todo el Universo.
Los investigadores han combinado sus resultados con las imágenes obtenidas de la misma región de espacio por el Telescopio Espacial Chandra, de la NASA, que también opera en la longitud de onda de los rayos X. Y han encontrado que el gas super caliente está en el interior de una zona de 450.000 años luz de tamaño que brilla de forma especialmente intensa.
Los astrónomos no saben la razón por la que este gas es varias veces más caliente que el medido antes alrededor de otras galaxias. De lo que no cabe duda es de que se trata del material más caliente encontrado hasta la fecha, y de la mayor temperatura conocida desde los lejanos tiempos del Big Bang, hace 13.700 de años.
Lo más violento desde el Big Bang
Para hacerse una idea de lo que significan trescientos millones de grados baste con pensar que el núcleo fundido de la Tierra «sólo» está a unos 5.400 grados centígrados, y que las temperaturas en el corazón mismo del Sol no superan los quince millones de grados. La cuestión es averiguar qué es lo que está provocando un calentamiento de esta magnitud, lo que no resulta una tarea fácil.
Por el momento, la mejor explicación hallada para este extraordinario fenómeno es que en esa lejana región del Universo existen grupos de galaxias en plena colisión entre ellos. Y a una velocidad que es muy superior a la que se da en situaciones análogas observadas en otros lugares. En RXJ1347 las galaxias están chocando unas contra otras a una velocidad superior a los 4.000 km. por segundo, y esa podría ser la explicación más plausible para que se produzcan esas extraordinarias temperaturas.
«Es un acontecimiento terrible -afirma Naomi Ota, de la Universidad de Ciencias de Tokio-. Estas colisiones entre grupos de galaxias son, en términos de energía, los episodios más violentos del Universo desde los tiempos del Big Bang

Ahí queda eso

¿más caló que en Sevilla en verano? habría que echarlo a peleá

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #5 en: Noviembre 18, 2009, 10:41 Horas »
Había una vez, hace aproximadamente cuatro mil millones de años, un planeta cálido y húmedo como la Tierra: Marte. Sobre la superficie de este planeta corría agua líquida en forma de ríos largos que se vaciaban en mares poco profundos. Una atmósfera gruesa cubría al planeta y lo mantenía cálido. Incluso podrían haber vivido microbios, piensan algunos científicos, lo cual haría que Marte se convirtiera en el segundo planeta poblado de vida, ubicado justo al lado nuestro.

Pero no fue así como fueron las cosas.

En la actualidad, Marte es un planeta completamente seco y de un frío glacial. Sus ríos y mares desaparecieron hace mucho tiempo. Su atmósfera es fina y delgada y, si los microbios marcianos todavía existen, muy probablemente están sobreviviendo a duras penas en alguna parte, debajo del polvoriento suelo de Marte.

¿Qué fue lo que sucedió en Marte? Por qué se habrá secado y congelado el planeta? Estas inquietantes preguntas han intrigado a los científicos durante mucho tiempo. Y dentro de algunos años más podríamos finalmente conocer las respuestas gracias a un nuevo orbitador que la NASA enviará al planeta Marte, llamado MAVEN (abreviatura en idioma inglés de Mars Atmosphere and Volatile Evolution ó Atmósfera de Marte y Evolución Volátil, en idioma español).

"La meta de MAVEN es determinar cuáles son los procesos que han sido responsables de esos cambios en el clima de Marte", dice Bruce Jakosky, investigador principal para la misión MAVEN, en la Universidad de Colorado, en Boulder.

Los científicos están convencidos de que, de una forma u otra, Marte puede haber perdido su recurso más preciado: su gruesa atmósfera de bióxido de carbono, el CO2, el cual en la atmósfera de Marte actúa como un gas de efecto invernadero, igual que en nuestra propia atmósfera. La gruesa manta de CO2 y de otros gases de efecto invernadero podría haber proporcionado temperaturas más cálidas y una mayor presión atmosférica, condiciones que son necesarias para que el agua líquida no se congele o se evapore.
Misteriosamente, durante los últimos cuatro mil millones de años, Marte perdió la mayor parte de esa manta. Los científicos han propuesto varias teorías para explicar cómo ocurrió tal pérdida. Tal vez el impacto de un asteroide, en un sólo evento catastrófico, ocasionó que la atmósfera saliera disparada hacia el espacio. O quizás la erosión producida por el viento solar (una corriente de partículas cargadas que emana del Sol) despojó lentamente a Marte de su atmósfera durante los eones. La superficie del planeta también pudo haber absorbido el CO2, encerrándolo en minerales tales como el carbonato
En última instancia, nadie sabe en realidad hacia dónde fue el CO2 que falta.

MAVEN será la primera misión a Marte diseñada específicamente para ayudar a los científicos a entender el continuo escape de CO2 y de otros gases hacia el espacio. La sonda permanecerá orbitando a Marte durante, al menos, un año terrestre. En el punto más bajo de la órbita elíptica, MAVEN estará a 125 km sobre la superficie; el punto más alto de su trayectoria la ubicará a más de 6.000 km de distancia. Este amplio rango de altitudes permitirá que MAVEN recoja muestras de la atmósfera de Marte mucho más detalladamente de lo que se ha logrado en el pasado.

Mientras permanezca en órbita, los instrumentos de MAVEN seguirán el rastro de iones y de moléculas en esta sección de la atmósfera marciana, documentando, por primera vez y en detalle, el flujo de CO2 y de otras moléculas hacia el espacio.

Tan pronto Jakosky y sus colegas logren determinar la rapidez con la cual el planeta Marte pierde CO2, podrán extrapolar los datos al pasado con el fin de estimar así la cantidad total que ha estado escapando hacia el espacio durante los últimos cuatro mil millones de años. "MAVEN determinará si esta pérdida hacia el espacio fue el factor más importante aquí", dice Jakosky.

Sin embargo, tan importante como es la pregunta: "¿cuánto?" es el interrogante: "¿cómo?"

La sabiduría popular cuenta que la atmósfera de Marte es particularmente vulnerable dado que el planeta no tiene un campo magnético global. El campo magnético de la Tierra se extiende hasta el espacio y envuelve al planeta entero como si fuera una burbuja protectora que desvía el viento solar. Marte posee sólo un campo magnético de carácter regional y fragmentado, que cubre áreas relativamente pequeñas del planeta, ubicadas en especial en el hemisferio sur. El resto de la atmósfera queda completamente expuesta al viento. De modo que la pérdida puede ser causada por la erosión paulatina de la atmósfera en aquellas áreas que yacen expuestas
David Brain, de la Universidad de California, en Berkeley, ha propuesto una posibilidad aparentemente contradictoria. Estos pequeños campos magnéticos pueden, en verdad, estar acelerando la pérdida de la superficie de Marte, sugiere Brain.

El viento solar podría estar azotando esas líneas magnéticas, rompiendo ocasionalmente "una burbuja" de líneas de campo que luego se desvía hacia el espacio (llevando consigo un gran trozo de atmósfera). Si así fuera, tener un campo magnético parcial podría ser peor que no tener ninguno. Esta posibilidad fue descripta en una historia publicada por Ciencia@NASA en 2008: "El viento solar desgarra la atmósfera de Marte".

Ciertas pruebas, obtenidas utilizando el Mars Global Surveyor (Topógrafo Global de Marte, en idioma español), de la NASA, respaldan la teoría de Brain, pero aún hacen falta medidas contundentes para las cuales tendremos que esperar a MAVEN, cuyo lanzamiento está programado para el año 2013.

La misión será un gran paso para entender lo que ocurrió en Marte (cómo terminó siendo tan frío y seco luego de un tan cálido y húmedo comienzo). Después de todos estos años, MAVEN podría escribir el capítulo final en la inquietante historia de este drama planetario

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #6 en: Noviembre 19, 2009, 10:25 Horas »
Estrella I
De Wikipedia, la enciclopedia libre
En un sentido general, puede afirmarse que una estrella es todo cuerpo celeste que brilla con luz propia en la noche. Ahora bien, de un modo más técnico y preciso, podría decirse que se trata de un cúmulo de materia en estado de plasma en un continuo proceso de colapso, en la que interactúan diversas fuerzas que equilibran dicho proceso en un estado hidrostático. El tiempo que tarde en colapsar dicho cúmulo, depende del tiempo en el que las diversas fuerzas dejen de equilibrar la hidrostásis que da forma a la estrella
Generalidades
La energía que disipan en el espacio estas acumulaciones de gas, son en forma de radiación electromagnética, neutrinos y viento estelar; y nos permiten observar la apariencia de las estrellas en el cielo nocturno como puntos luminosos y, en la gran mayoría de los casos, titilantes.
Debido a la gran distancia que suelen recorrer las radiaciones estelares, estas llegan débiles a nuestro planeta, siendo susceptibles, en la gran mayoría de los casos, a las distorsiones ópticas que produce las turbulencia y las diferencias de densidad de la atmósfera terrestre (seeing). El Sol, al estar tan cerca, se observa no como un punto sino como un disco luminoso cuya presencia o ausencia en el cielo terrestre provoca el día o la noche respectivamente.
Descripción
Son objetos de masas enormes comprendidas entre 0,081 y 120-2002 masas solares (Msol). Los objetos de masa inferior se llaman enanas marrones mientras que las estrellas de masa superior parecen no existir debido al límite de Eddington. Su luminosidad también tiene un rango muy amplio yendo desde una diezmilésima a tres millones de veces la luminosidad del Sol. El radio, la temperatura y la luminosidad de una estrella se pueden relacionar mediante su aproximación a cuerpo negro
Ciclo de vida
Mientras las interacciones se producen en el núcleo, sostienen la hidrostásis del cuerpo y este mantiene su apariencia iridiscente predicho por Niels Bohr en la teoría de las órbitas cuantificadas. Cuando parte de esas interacciones (la parte de la fusión de materia) se dilatan en el tiempo, las partes más externas del objeto comienzan a fusionar sus átomos. Esta parte más externa, por no estar restringida al mismo nivel que el núcleo, produce un aumento del diámetro. Llegados a cierta distancia, dicho proceso se paraliza, para contraerse nuevamente hasta el estado en el que los procesos de fusión más externos vuelven a comenzar y nuevamente se produce un aumento del diámetro. Estas interacciones producen índices de iridiscencia mucho menores, por lo que la apariencia suele ser rojiza. En esta fase, el objeto entra en la fase de colapso, por lo que la fuerza de la gravedad (la otra parte en interacción) y las interacciones de fusión en las capas más externas del objeto, producen una constante variación del diámetro, en las que acaban venciendo las fuerzas gravitatorias en un momento en el que las capas más externas no tienen ya elementos que fusionar.
Se puede decir que dicho proceso de colapso finaliza en el momento en que la estrella no produce fusiones de material, y dependiendo de la masa total de la estrella, la fusión de material entrará en su proceso degenerativo al colapsar por vencer a las fuerzas descritas en el Principio de exclusión de Pauli, produciéndose una supernova.
Formación y evolución de las estrellas
Las estrellas se forman en las regiones más densas de las nubes moleculares como consecuencia de las inestabilidades gravitatorias causadas, principalmente, por supernovas o colisiones galácticas. El proceso se acelera una vez que estas nubes de hidrógeno molecular (H2) empiezan a caer sobre sí mismas, alimentado por la cada vez más intensa atracción gravitatoria. Su densidad aumenta progresivamente, siendo más rápido el proceso en el centro que en la periferia. No tarda mucho en formarse un núcleo en contracción muy caliente llamado protoestrella. El colapso en este núcleo es, finalmente, detenido cuando comienzan las reacciones nucleares que elevan la presión y temperatura de la protoestrella. Una vez estabilizada la fusión del hidrógeno, se considera que la estrella está en la llamada secuencia principal, fase que ocupa aproximadamente un 90% de su vida. Cuando se agota el hidrógeno del núcleo de la estrella, su evolución dependerá de la masa (detalles en evolución estelar) y puede convertirse en una enana blanca o explotar como supernova, dejando también un remanente estelar que puede ser una estrella de neutrones o un agujero negro. Así pues, la vida de una estrella se caracteriza por largas fases de estabilidad regidas por la escala de tiempo nuclear separadas por breves etapas de transición dominadas por la escala de tiempo dinámico (véase Escalas de tiempo estelar).
Muchas estrellas, el Sol entre ellas, tienen aproximadamente simetría esférica por tener velocidades de rotación bajas. Otras estrellas, sin embargo, giran a gran velocidad y su radio ecuatorial es significativamente mayor que su radio polar. Una velocidad de rotación alta también genera diferencias de temperatura superficial entre el ecuador y los polos. Como ejemplo, la velocidad de rotación en el ecuador de Vega es de 275 km/s, lo que hace que los polos estén a una temperatura de 10 150 K y el ecuador a una temperatura de 7 900 K.3
La mayoría de las estrellas pierden masa a una velocidad muy baja. En el Sistema Solar unos 1020 gramos de materia estelar son expulsados por el viento solar cada año. Sin embargo, en las últimas fases de sus vidas, las estrellas pierden masa de forma mucho más intensa y pueden acabar con una masa final muy inferior a la original. Para las estrellas más masivas este efecto es importante desde el principio. Así, una estrella con 120 masas solares iniciales y metalicidad igual a la del Sol acabará expulsando en forma de viento estelar más del 90% de su masa para acabar su vida con menos de 10 masas solares.4 Finalmente, al morir la estrella se produce en la mayoría de los casos una nebulosa planetaria, una supernova o una hipernova por la cual se expulsa aún más materia al espacio interestelar. La materia expulsada incluye elementos pesados producidos en la estrella que más tarde formarán nuevas estrellas y planetas, aumentando así la metalicidad del Universo.

Continuara ...

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #7 en: Noviembre 20, 2009, 11:31 Horas »
Estrellas II
Agrupaciones y distribución estelar
Estrellas ligadas
Las estrellas pueden estar ligadas gravitacionalmente unas con otras formando sistemas estelares binarios, ternarios o agrupaciones aún mayores. Una fracción alta de las estrellas del disco de la Vía Láctea pertenecen a sistemas binarios; el porcentaje es cercano al 90% para estrellas masivas5 y desciende hasta el 50% para estrellas de masa baja.6 Otras veces, las estrellas se agrupan en grandes concentraciones que van desde las decenas hasta los centenares de miles o incluso millones de estrellas, formando los denominados cúmulos estelares. Estos cúmulos pueden deberse a variaciones en el campo gravitacional galáctico o bien pueden ser fruto de brotes de formación estelar (se sabe que la mayoría de las estrellas se forman en grupos). Tradicionalmente, en la Vía Láctea se distinguían dos tipos: (1) los cúmulos globulares, que son viejos, se encuentran en el halo y contienen de centenares de miles a millones de estrellas y (2) los cúmulos abiertos, que son de formación reciente, se encuentran en el disco y contienen un número menor de estrellas. Desde finales del siglo XX esa clasificación se ha cuestionado al descubrirse en el disco de la Vía Láctea cúmulos estelares jóvenes como Westerlund 1 o NGC 3603 con un número de estrellas similar al de un cúmulo globular. Esos cúmulos masivos y jóvenes se encuentran también en otras galaxias; algunos ejemplos son 30 Doradus en la Gran Nube de Magallanes y NGC 4214-I-A en NGC 4214.
Estrellas aisladas
No todas las estrellas mantienen lazos gravitatorios estables; la mayoría, lo mismo que el Sol, viajan solitarias, separándose mucho de la agrupación estelar en la que se formaron Estas estrellas aisladas obedecen, tan solo, al campo gravitatorio global constituido por la superposición de los campos del total de objetos de la galaxia: agujeros negros, estrellas, objetos compactos y gas interestelar.
Distribución estelar
Las estrellas no están distribuidas uniformemente en el Universo, a pesar de lo que pueda parecer a simple vista, sino agrupadas en galaxias. Una galaxia espiral típica (como la Vía Láctea) contiene cientos de miles de millones de estrellas agrupadas, la mayoría, en el estrecho plano galáctico. El cielo nocturno terrestre aparece homogéneo a simple vista porque sólo es posible observar una región muy localizada del plano galáctico. Extrapolando de lo observado en la vecindad del Sistema Solar, se puede decir que la mayor parte de estrellas se concentran en el disco galáctico y dentro de éste en una región central, el bulbo galáctico, que se sitúa en la constelación de Sagitario.
Véase también: Galaxia, cúmulo estelar y estrellas binarias
La navegación espacial y el posicionamiento estelar
A pesar de las enormes distancias que separan las estrellas, desde la perspectiva terrestre sus posiciones relativas parecen fijas en el firmamento. Gracias a la precisión de sus posiciones, son “de gran utilidad para la navegación, para la orientación de los astronautas en las naves espaciales y para identificar otros astros” (The American Encyclopedia).
Estructura estelar
Una estrella típica se divide en núcleo, manto y atmósfera. En el núcleo es donde se producen las reacciones nucleares que generan su energía. El manto transporta dicha energía hacia la superficie y según cómo la transporte, por convección o por radiación, se dividirá en dos zonas: radiante y convectiva. Finalmente, la atmósfera es la parte más superficial de las estrellas y la única que es visible. Se divide en cromósfera, fotósfera y corona solar. La atmósfera estelar es la zona más fría de las estrellas y en ellas se producen los fenómenos de eyección de materia. Pero en la corona, supone una excepción a lo dicho ya que la temperatura vuelve a aumentar hasta llegar al millón de grados por lo menos. Pero es una temperatura engañosa. En realidad esta capa es muy poco densa y está formada por partículas ionizadas altamente aceleradas por el campo magnético de la estrella. Sus grandes velocidades les confieren a esas partículas altas temperaturas.
A lo largo de su ciclo las estrellas experimentan cambios en el tamaño de las capas e incluso en el orden en que se disponen. En algunas la zona radiante se situará antes que la convectiva y en otras al revés, dependiendo tanto de la masa como de la fase de fusión en que se encuentre. Así mismo, el núcleo también puede modificar sus características y su tamaño a lo largo de la evolución de la estrella.
La edad de la mayoría de las estrellas oscila entre 1000 y 10 000 millones de años; aunque algunas estrellas pueden ser incluso más viejas. La estrella observada más antigua, HE 1523-0901, tiene una edad estimada de 13 200 millones de años, muy cercana a la edad estimada para el Universo, de unos 13 700 millones de años.
Véase también: Estructura estelar y Sol
Generación de energía en las estrellas
A principios del siglo XX la ciencia se preguntaba cuál era la fuente de la increíble energía que alimentaba las estrellas. Ninguna de las soluciones conocidas en la época resultaba viable. Ninguna reacción química alcanzaba el rendimiento necesario para mantener la luminosidad que despedía el Sol. Asimismo, la contracción gravitatoria, si bien resultaba una fuente energética más, no podía explicar el aporte de calor a lo largo de miles de millones de años. Sir Arthur Eddington fue el primero en sugerir en la década de 1920 que el aporte de energía procedía de reacciones nucleares. Existen dos tipos de reacciones nucleares, las de fisión y las de fusión. Las reacciones de fisión no pueden mantener la luminosidad de una estrella debido a su relativamente bajo rendimiento energético y, sobre todo, a que requieren elementos más pesados que el hierro, los cuales son poco abundantes en el Universo. El primer mecanismo detallado de reacciones nucleares de fusión capaces de mantener la estructura interna de una estrella fue descubierto por Hans Bethe en 1938, es válido para estrellas de masa intermedia o elevada y lleva el nombre de su descubridor (ciclo de Bethe o ciclo CNO).
Aun así, resultó que las temperaturas que se alcanzan en los núcleos de las estrellas son demasiado bajas como para fusionar los iones. Ocurre que el efecto túnel permite que dos partículas con energías insuficientes para traspasar la barrera de potencial que las separa tengan una probabilidad de saltar esa barrera y poderse unir. Al haber tantas colisiones, estadísticamente se dan suficientes reacciones de fusión como para que se sostenga la estrella pero no tantas reacciones como para hacerla estallar. Existe un óptimo de energía para el cual se dan la mayoría de reacciones que resulta del cruce de la probabilidad de que dos partículas tengan una energía determinada E a una temperatura T y de la probabilidad de que esas partículas se salten la barrera por efecto túnel. Es el llamado pico de Gamow.
Una gran variedad de reacciones diferentes de fusión tienen lugar dentro de los núcleos de las estrellas, las cuales dependen de la masa y la composición.
Normalmente las estrellas inician su combustión nuclear con alrededor de un 75% de hidrógeno y un 25% de helio junto con pequeñas trazas de otros elementos. En el núcleo del Sol con unos 107 K el hidrógeno se fusiona para formar helio mediante la cadena protón-protón:
4¹H → 2²H + 2e+ + 2νe (4.0 MeV + 1.0 MeV)
2¹H + 2²H → 2³He + 2γ (5.5 MeV)
2³He → 4He + 2¹H (12.9 MeV)
Estas reacciones quedan reducidas en la reacción global:
4¹H → 4He + 2e+ + 2γ + 2νe (26.7 MeV)
En estrellas más masivas el helio se produce en un ciclo de reacciones catalizadas por el carbono, es el ciclo CNO o ciclo de Bethe. Esto es representado ejemplarmente en el caso de una estrella con 18 masas solares:
En las estrellas cuyos núcleos se encuentran a 108 K y cuyas masas van desde las 0.5 a las 10 masas solares el helio resultante de las primeras reacciones puede transformarse en carbono a través del proceso triple-alfa:
4He + 4He + 92 keV → 8*Be
4He + 8*Be + 67 keV → 12*C
12*C → 12C + γ + 7.4 MeV
La reacción global es:
34He → 12C + γ + 7.2 MeV
Véase también: Nucleosíntesis estelar, pico de Gamow y evolución estelar


El lunes seguire con las entregas

Desconectado migpallares

  • Cadete
  • **
  • Mensajes: 659
  • Sexo: Masculino
Re: HABLEMOS DE CIENCIA
« Respuesta #8 en: Noviembre 20, 2009, 13:11 Horas »
Un grupo de sondas choca contra Einstein

La velocidad de varios satélites no cuadra con las normas que rigen el cosmos. La semana pasada, el paso de la nave Rosetta junto a la Tierra se empleó para buscar de nuevo una anomalía que puede indicar que hay que reformar algún artículo más a las leyes de la física.

DANIEL MEDIAVILLA - MADRID - 20/11/2009 07:30

Desde hace dos décadas, un grupo de sondas ha tenido comportamientos extraños que ni científicos ni ingenieros pueden explicar. En diciembre de 1990, la sonda Galileo se acercó a la Tierra para tomar impulso en su viaje hacia Júpiter. Cuando los responsables de la NASA midieron el cambio de velocidad de la sonda, observaron que había acelerado 3,9 milímetros por segundo más de lo esperado. La diferencia era mínima tras su paso por la Tierra ganó más de 5.000 m/s de velocidad, pero esa minúscula variación dejaba vislumbrar la posibilidad de que algo fallara en las leyes fundamentales de la física. Durante los años posteriores, otras sondas han experimentado ese inesperado empujón en sus maniobras de sobrevuelo de la Tierra. Algunos físicos piensan que estas máquinas cuestionan a AlbertEinstein.

Hace un siglo, el científico alemán revolucionó la manera de entender la gravedad. Newton había hablado de ella como una fuerza que regía las leyes de la atracción entre todos los objetos del Universo. Doscientos años después, Einstein descubrió un mecanismo aún más fascinante para explicar por qué una taza se puede caer de una mesa o la Tierra gira alrededor del Sol. La gravedad era en realidad una propiedad geométrica del tejido espacio-tiempo. Como una canica sobre una sábana, la masa de los objetos curvan esa "tela" y provocan los efectos que se atribuyen a la gravedad. Esta explicación física de los grandes fenómenos del cosmos creada por el investigador alemán ha resistido un siglo de avances científicos y tecnológicos sin desgaste aparente, pero los físicos no quieren que su trabajo se convierta en dogma.

La semana pasada, la sonda Rosetta sobrevoló la Tierra por tercera vez desde su lanzamiento en 2004. El artefacto de la Agencia Europea del Espacio (ESA) ha mostrado comportamientos contradictorios en sus dos pasos anteriores. En el primero, en 2005, aceleró 1,8 mm/s más de lo previsto, pero en el segundo se ajustó a la aceleración calculada. El resultado de este tercer paso, que según explicó a Público el director de operaciones de Rosetta, Andrea Acomazzo, debería conocerse durante las próximos días, puede respaldar o descartar alguna de las teorías más interesantes para explicar la anomalía.

Una aceleración de 1,1 mm/s cuadraría con los cálculos que sustentan una hipótesis planteada por el investigador John Anderson. Según él, la rotación de la Tierra estaría provocando un efecto sobre el tejido del espacio-tiempo mayor del esperado que distorsionaría ligeramente la trayectoria de las sondas y su velocidad.

Errores en los modelos

La posibilidad de que exista nueva física detrás de la inesperada aceleración de las sondas es aceptada por todos, pero algunos creen que hay explicaciones menos interesantes con más posibilidades de ser reales. En opinión de Acomazzo, lo más probable es que la anomalía de deba a un error en la elaboración de los modelos de la maniobra. "Aunque es posible que se deba a un efecto físico", añade.

Otra posibilidad menos excitante que la nueva física es la que plantea el investigador del Instituto Astrofísico de Andalucía (CSIC) y miembro del equipo de Rosetta José Juan López. "Puede ser que exista una influencia del campo magnético de la Tierra que no hemos comprendido bien", explica. "Esa influencia del campo magnético podría, incluso, producir una modificación de la estructura metálica de la sonda que explicaría la anomalía", apunta. "En cualquier caso, la explicación más bonita es que hubiese nueva física", reconoce.

La anomalía Pioneer

Slava Turyshev lleva años hurgando entre los datos enviados por las sondas Pioneer en busca de información que le permita enmendar a Einstein. Estas dos naves, enviadas en los 70 hacia la frontera del Sistema Solar, no recorrían toda la distancia que se esperaba de ellas. Si se calculaba la posición en la que las sondas se encontrarían tras un año de navegación, teniendo en cuenta la velocidad del artefacto y las fuerzas en juego, cuando pasaban los doce meses, esa sonda estaba 400 kilómetros más cerca del Sol de lo esperado. Algo tiraba de las Pioneer hacia la estrella que no estaba en los libros de física.

Tras años de estudio, los cálculos del equipo de Turyshev en el Jet Propulsion Laboratory de la NASA que han incluido un paleoinformático para reconstruir el software de la época de las Pioneer y recuperar los datos de telemetría de las sondas permitieron determinar qué parte de la anomalía se podía explicar por una pérdida de energía de los generadores nucleares que propulsan las naves. Pero aún queda espacio para que exista nueva física. "En seis meses tendremos la respuesta", asegura Turyshev.

La anomalía de las Pioneer, explica el físico, "no tiene ninguna relación" con la de las maniobras orbitales de las sondas. Sin embargo, cree que la metodología empleada por su equipo puede ser útil para quienes estudien anomalías como la de Rosetta. "Antes de hablar de nueva física es necesario un análisis muy exhaustivo de los modelos que predicen los movimientos de las naves, los aspectos técnicos y el resto de los datos relevantes", explica. "La gente intenta identificar anomalías sin saber cómo funcionan y ha habido ocasiones en las que quienes han hecho análisis sobre estos fenómenos ni siquiera eran expertos en navegación", afirma.

"Deberíamos poner de acuerdo a NASA y ESA para poder hacer un seguimiento preciso de las sondas. Ahora, no es posible hacer un seguimiento continuo porque hay zonas de la Tierra donde no hay telescopios", continúa. "Antes de sacar conclusiones tan importantes podríamos, por ejemplo, emplear satélites de comunicaciones para medir con precisión esas maniobras", concluye.

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #9 en: Noviembre 23, 2009, 10:21 Horas »
ESTRELLAS III
Composición
La composición química de una estrella varía según la generación a la que pertenezca. Cuanto más antigua sea más baja será su metalicidad. Al inicio de su vida una estrella similar al Sol contiene aproximadamente 75% de hidrógeno y 23% de helio. El 2% restante lo forman elementos más pesados, aportados por estrellas que finalizaron su ciclo antes que ella. Estos porcentajes son en masa; en volumen, la relación es 90% de hidrógeno y 10% de helio.
En la Vía Láctea las estrellas se clasifican según su riqueza en metales en dos grandes grupos. Las que tienen una cierta abundancia se denominan de la población I, mientras que las estrellas pobres en metales forman parte de la población II. Normalmente la metalicidad va directamente relacionada con la edad de la estrella. A más elementos pesados más joven es la estrella.
La composición de una estrella evoluciona a lo largo de su ciclo, aumentando su contenido en elementos pesados en detrimento del hidrógeno, sobre todo. Sin embargo, las estrellas sólo queman un 10% de su masa inicial, por lo que globalmente su metalicidad no aumenta mucho. Además, las reacciones nucleares sólo se dan en las regiones centrales de la estrella. Este es el motivo por el que cuando se analiza el espectro de una estrella lo que se observa es, en la mayoría de los casos, la composición que tenía cuando se formó. En algunas estrellas poco masivas los movimientos de convección penetran mucho en el interior, llegando a mezclar material procesado con el original. Entonces se puede observar incluso en la superficie parte de ese material procesado. La estrella presenta, en esos casos, una composición superficial con más metales.
El Sol es tomado como la estrella prototípica, no porque sea especial en ningún sentido, sino porque es la más cercana a la Tierra y por tanto la más estudiada. La mayoría de las características de las estrellas se suelen medir en unidades solares. Las magnitudes solares son usadas en astrofísica estelar como patrones.
La masa del Sol es:
Msol = 1,9891 × 1030 kg
y las masas de las otras estrellas se miden en masas solares abreviado como Msol.
Clasificación
La primera clasificación estelar fue realizada por Hiparco de Nicea y preservada en la Cultura Occidental a través de Ptolomeo, en una obra llamada almagesto. Este sistema clasificaba las estrellas por la intensidad de su brillo aparente visto desde la Tierra. Hiparco definió una escala decreciente de magnitudes, donde las estrellas más brillantes son de primera magnitud y las menos brillantes, casi invisibles con el ojo desnudo, son de sexta magnitud. Aunque ya no se emplea, constituyó la base para la clasificación actual.
La clasificación moderna se realiza a través del tipo espectral. Existen dos tipos de clasificación, basados en dos catálogos diferentes: el catálogo de Henry Draper (HD) realizado en Harvard a principios del siglo XX, el cual determina lo que se denomina Tipo espectral, y el catálogo del Observatorio Yerkes, realizado en 1943, el cual determina lo que se denomina Clase de luminosidad
Tipos espectrales
Esta clasificación distingue las estrellas de acuerdo a su espectro luminoso y su temperatura superficial. Una medida simple de esta temperatura es el índice de color de la estrella.
La clasificación es W, O, B, A, F, G, K, M, L y T yendo de mayor a menor temperatura. Las estrellas de tipo O, B y A son muy calientes, y el tipo M es considerablemente más frío. Los tipos W, L y T se introdujeron recientemente. La temperatura superficial, que determina la clase espectral, también determina el color de la estrella. De esta manera, las estrellas O son azules, mientras que estrellas de menor temperatura superficial (clases K o M) son rojizas, como Betelgeuse o Antares.
Una pequeña guía de los diferentes colores y ejemplos de estrellas pertenecientes al grupo se cita a continuación:7
Clasificación   Color   Temperatura (°C)   Ejemplo
  W-O   Blanco verdoso   100000   Wolf Rayet

  B   Azulado   25 000   Spica

  A   Blanco   11 500   Sirio

  F   Blanco amarillento   7500   'Canopus

  G   Amarillo   6000   Sol

  K   Anaranjado amarillento   4700   Arturo

  M   Anaranjado   3000   Antares

  R   Anaranjado rojizo   2600   CW Leonis

  N   Rojo anaranjadas   2000   1a de los peces

  S   Rojo   1400   Andromedae

Clases de luminosidad
La clasificación de Harvard de tipos espectrales no determina unívocamente las características de una estrella. Estrellas con la misma temperatura pueden tener tamaños muy diferentes, lo que implica luminosidades muy diferentes. Para distinguirlas se definieron, en Yerkes, las clases de luminosidad. En este sistema de clasificación se examina nuevamente el espectro estelar y se buscan líneas espectrales sensibles a la gravedad de la estrella. De este modo es posible estimar su tamaño.
Ambos sistemas de clasificación son complementarios.
Aproximadamente un 10% de todas las estrellas son enanas blancas, un 70% son estrellas de tipo M, un 10% son estrellas de tipo K y un 4% son estrellas tipo G como el Sol. Tan sólo un 1% de las estrellas son de mayor masa y tipos A y F. Las estrellas de Wolf-Rayet son extremadamente infrecuentes. Las enanas marrones, proyectos de estrellas que se quedaron a medias a causa de su pequeña masa, podrían ser muy abundantes pero su débil luminosidad impide realizar un censo apropiado.
Clase   Descripción
  Ia     Supergigantes Luminosas 
  Ib     Supergigantes
  II     Gigantes luminosas
  III     Gigantes
  IV     Sub-gigantes
  V     Enanas (Sol)
  VI     Sub-enanas
  VII     Enanas blancas
Clasificación gravitacional de estrellasLas estrellas pueden clasificarse de acuerdo a cuatro criterios gravitacionales instaurados recientemente por la Unión Astronómica Internacional en el 2006. Esta clasificación estelar de la UAI es la más aceptada y comúnmente usada.
Clasificación por centro gravitacional estelar
El primer criterio es la presencia o ausencia de un centro gravitacional estelar, es decir si forman parte de un Sistema Estelar. Las estrellas que forman parte de un sistema estelar (presencia de centro gravitacional estelar) se denominan estrellas sistémicas. Las estrellas que no forman parte de un sistema estelar (ausencia de centro gravitacional estelar) se denominan estrellas solitarias.
Clasificación de estrellas sistémicas por posición
Si una estrella es sistémica (forma parte de un sistema estelar) puede ser a su vez de dos tipos. Las estrellas centrales son aquellas estrellas sistémicas que actúan como centro gravitacional de otras estrellas. Esto quiere decir que otras estrellas las orbitan. Las estrellas sistémicas que orbitan a una estrella central se denominan estrellas satélites.
Clasificación de estrellas por agrupación gravitacional
Esta clasificación de estrellas se basa en distinguir dos tipos de estrellas dependiendo de si estas se agrupan con otras estrellas mediante fuerzas de atracción gravitacional. Esta clasificación refiere a dos tipos de estrellas (cumulares e independientes) de acuerdo a si se encuentran o no unidas a otras estrellas y, además, esta unión no se debe a la presencia de un centro gravitacional estelar; es decir, ninguna estrella gira alrededor de otra y más sin embargo se encuentran unidas gravitacionalmente.
Las estrellas cumulares son aquellas que forman cúmulos estelares. Si el cúmulo es globular, las estrellas se atraen por gravedad (las estrellas se atraen mutuamente). Si el cúmulo es abierto, las estrellas se atraen por gravitación en donde el centro gravitacional es el centro de masa del cúmulo (las estrellas orbitan un centro gravitacional en común que las mantiene unidas). Las estrellas independientes son aquellas que no forman cúmulos estelares con ninguna otra estrella. Sin embargo hay estrellas independientes que sí forman parte de un sistema estelar pues orbitan estrellas o son centro de otras. Este sería el caso de estrellas sistémicas-independientes.
Clasificación de estrellas por sistema planetario
Las estrellas que poseen un sistema planetario, en donde ellas son centro gravitacional y los demás cuerpos celestes las orbitan, se denominan estrellas planetarias. Las estrellas únicas son aquellas que no poseen un Sistema Planetario que las orbita. Entiéndase por sistema planetario cualquier cuerpo celeste (planeta, asteroide, cometa) que orbita una estrella.

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #10 en: Noviembre 24, 2009, 11:42 Horas »
Estrellas y IV

Mitología estelar
Tal como ha sucedido con ciertas constelaciones y con el propio Sol, las estrellas en general tienen su propia mitología. En estadios precientíficos de la civilización se las ha observado como entidades vivientes (animismo), dotadas de fuerza sobrenatural. Se las ha identificado, eventualmente, con el alma de los muertos, o bien con dioses o diosas. La trayectoria de las estrellas y su configuración en el espacio, aún hoy forman parte de algunos constructos culturales ligados al pensamiento mágico.

Véase también
•   Catálogo de estrellas
•   Clasificación estelar
•   Estrellas variables
•   Constelaciones
•   Diagrama de Hertzsprung-Russell
•   Estructura estelar
•   Evolución estelar
•   Objeto astronómico
•   Nomenclatura estelar
•   Lista de estrellas cercanas a la Tierra

Enlaces externos
•   Wikimedia Commons alberga contenido multimedia sobre estrellas.
•   Wikcionario tiene definiciones para estrella.

En español
•   Astronomía Sur Estrellas
•   portalciencia.net Mitología: Estrellas y Planetas
•   Proyecto Celestia Actividad educativa: Vida y muerte de las estrellas
•   La estrella más masiva
•   El Universo: vida y muerte de las estrellas
•   Nacimiento de las estrellas
•   Animación flash que te permite crear tu propia estrella y seguir el ciclo de vida de ésta.

Mañana mas de otro tema

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #11 en: Noviembre 25, 2009, 08:41 Horas »
El gran acelerador logra las primeras colisiones de partículas

La física de altas energías está de celebración y con las esperanzas renovadas: el nuevo gran acelerador de partículas LHC, instalado en un túnel de casi 27 kilómetros de circunferencia, junto a Ginebra, funciona por fin de nuevo. Ayer por la tarde se lograron las primeras colisiones de partículas, que fueron recogidas por los cuatro gigantescos detectores. "Es un gran logro haber llegado tal lejos en tan poco tiempo", declaró Rolf Heuer, director del Laboratorio Europeo de Física de Partículas (CERN). "Pero tenemos que mantener el sentido de la perspectiva: todavía nos queda mucho que hacer antes de que podamos empezar el programa de física del LHC". Las primeras colisiones suponen un hito. El acelerador ha estado 14 meses parado por una avería que se produjo en septiembre del año pasado, a los pocos días de arrancarlo y antes de que se registrase ninguna colisión.
El pasado fin de semana se empezaron a inyectar de nuevo los haces de partículas, primero uno y luego el otro en sentido opuesto y se logró mantenerlos estables. Ayer, a primera hora de la tarde, los ingenieros del acelerador enfocaron los haces para provocar las primeras colisiones en el centro del detector Atlas. Fue a las 14.22 horas, según informó el CERN. Después se repitió la operación en otro detector, CMS, también con éxito, y siguieron los otros dos: Alice y LHCb.

"Fantástica era"
"Es una gran noticia, el inicio de una fantástica era para la física y, esperemos, de descubrimientos, tras 20 años de trabajo en la comunidad internacional construyendo una máquina y unos detectores de complejidad y prestaciones sin precedente", dijo Fabiola Gianotti, jefa de Atlas. Las primeras colisiones "marcan el inicio de la segunda mitad de este increíble viaje hacia descubrimientos de los secretos de la naturaleza", apuntó Tejinder Virdee, de CMS.

La situación, celebrada ayer con entusiasmo en el CERN, parece por fin encaminada hacia el pleno funcionamiento del acelerador, aunque habrá que esperar un tiempo para obtener, con miles de millones de colisiones, los datos científicos que los especialistas esperan para explorar nuevos territorios de la física.

Un nuevo tipo de partículas, (supersimétricas), tal vez una clave de la naturaleza de la materia oscura del universo, mayor conocimiento del espacio/tiempo o las sutiles diferencias entre la materia y la antimateria, son algunas de las expectativas creadas en torno al LHC. Su objetivo más famoso es dar con el bosón de Higgs, una nueva partícula que explicaría el origen de la masa y cuya existencia se ha predicho teóricamente. "Es un momento muy emocionante. Lo que más nos emocionaría sería encontrar cosas que no se le habían ocurrido antes a nadie", comentó Luis Álvarez-Gaumé, director del departamento de teoría del CERN. Unos 10.000 físicos de todo el mundo participan en el LHC, que ha costado 2.200 millones de euros, más 1.200 millones más de los cuatro detectores.

Los haces circulan de momento a baja energía, sin aceleración del LHC, es decir, a 450 gigaelectronvoltios que es la energía a la que entran desde los aceleradores previos. El plan es ir aumentando hasta 1.200 GeV este año, y en 2010 subir hasta 3,5 TeV, para más adelante pasar a los 7 TeV previstos por haz. "Con natural entusiasmo, los físicos más inexpertos y los menos serios querrían que la maquina funcionase de entrada a gran energía y luminosidad, para lanzarse a por descubrimientos revolucionarios", comenta Álvaro de Rújula, físico teórico del CERN, del IFT/UAM y del Ciemat. "Otros, sin embargo, aceptan con gusto un periodo con una energía en el LHC comparable a las ya estudiadas en Fermilab [en el acelerador estadounidense en funcionamiento], periodo durante el cual las grandes novedades estarían excluidas. Un tiempo de rodaje tranquilito y suficiente como para poner a punto el acelerador y los detectores antes de lanzarse a tope".

Los físicos de los detectores del LHC felicitaron ayer a sus colegas del acelerador. "No cabía ni un alfiler en la sala de control de Alice, y los aplausos estallaron con las primeras colisiones", contó Jurgen Schkraft, su responsable. "Las señales que vemos son preciosas", añadió el jefe de LHCb, Andrei Golutvin. "Estaremos listos para empezar a tomar datos serios dentro de unos días".

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #12 en: Noviembre 26, 2009, 11:29 Horas »
La Ciudad Sumergida Más Antigua del Mundo Tiene Cinco Mil Años de Antigüedad

Unos arqueólogos que inspeccionaban la ciudad sumergida más antigua del mundo han encontrado cerámicas que datan del Neolítico Final. Su descubrimiento sugiere que Pavlopetri, frente a la costa sur de Laconia, en Grecia, estaba habitada hace unos 5.000 años, al menos 1.200 años antes de lo que se pensaba anteriormente.

Este hallazgo notable ha sido hecho público por el gobierno griego después del comienzo de un proyecto de colaboración de cinco años en el que intervienen el Eforato de Antigüedades Submarinas del Ministerio Helénico de Cultura y la Universidad de Nottingham.

Como ciudad micénica, el sitio ofrece nuevos conocimientos potenciales sobre el funcionamiento de la sociedad micénica. Pavlopetri tiene importancia adicional porque era un asentamiento marítimo desde el que los habitantes coordinaban el comercio local y con lugares distantes.

Con el Proyecto de Arqueología Submarina de Pavlopetri se busca averiguar, entre otras cosas, cuándo exactamente fue habitado el lugar y, mediante un estudio sistemático de la geomorfología del área, cómo se hundió la ciudad.

Este verano el equipo realizó una detallada exploración digital submarina y estudió los restos estructurales, que hasta ahora se pensaba que pertenecían al período micénico (entre los años 1600 y 1000 a.C.). La exploración superó todas las expectativas. Las investigaciones revelaron otros 9.000 metros cuadrados de nuevos edificios así como cerámicas que sugieren que el lugar estuvo ocupado durante la Edad de Bronce, desde al menos el año 2800 a.C. hasta el 1100 a.C.

El trabajo está siendo realizado por un equipo multidisciplinario conducido por Elias Spondylis, del Eforato de Antigüedades Submarinas del Ministerio Helénico de Cultura en Grecia, y Jon Henderson, un arqueólogo submarino del Departamento de Arqueología en la Universidad de Nottingham.

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #13 en: Noviembre 27, 2009, 08:43 Horas »
La "Mosca Unicornio" Que Vivió Hace 100 Millones de Años

Un equipo de científicos ha analizado detalladamente lo que se ha dado en llamar la "mosca unicornio". Se trata de una mosca descubierta recientemente que vivió hace unos cien millones de años y que constituye una nueva familia, género y especie de mosca, nunca antes observada.
Un único espécimen increíblemente bien conservado de la diminuta pero impresionante mosca se ha preservado durante todos estos años en ámbar birmano, incluyendo su pequeño pero espectacular cuerno que surge de la cima de su cabeza. Por si fuera poco, la cima de ese cuerno estaba coronada por tres ojos que le debían dar la capacidad de ver venir a los depredadores. Pero a pesar de ese ingenioso mecanismo de defensa, la mosca estaba al parecer en un callejón evolutivo sin salida, y por eso desapareció algún tiempo después.

Tal como señala George Poinar (hijo), profesor de zoología en la Universidad Estatal de Oregón, ningún otro insecto que se haya descubierto hasta el momento tiene un cuerno así, y no existe tampoco animal alguno con un cuerno que tenga ojos en su punta.

Esta mosca vivió en las selvas de Myanmar y fue encontrada atrapada en ámbar de 97 a 110 millones de años de antigüedad.

"Si sólo hubiéramos visto las alas de este insecto, le habríamos juzgado similar a otras moscas de la familia Bibionomorpha", hace notar Poinar.

La mosca también tiene otras características muy inusuales, como una antena de forma extraña, patas inusualmente largas que la habrían ayudado a moverse sobre las flores, y mandíbulas sumamente pequeñas que la habrían obligado a contentarse con mordisquear partículas muy pequeñas de alimento.

Los granos de polen encontrados en las patas de la mosca sugieren que se alimentaba principalmente de flores.


Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #14 en: Noviembre 30, 2009, 13:33 Horas »
La Composición y Procedencia del Polvo Doméstico
30 de Noviembre de 2009.

¿De dónde sale tanto polvo? Unos científicos en Arizona están ofreciendo una sorprendente respuesta a esa pregunta que se han hecho muchas generaciones de personas a la hora de limpiar las capas de polvo en sus mobiliarios y suelos.
En su estudio, David Layton y Paloma Beamer señalan que el polvo de las viviendas es una mezcla de productos que incluye partículas de piel muerta desprendida de los cuerpos de las personas, fibras de las alfombras y de muebles tapizados, y partículas transportadas desde el exterior por el aire o por las suelas de los zapatos y otros objetos afines.

El polvo doméstico puede incluir plomo, arsénico y otras substancias potencialmente dañinas que proceden del aire y la tierra exteriores. La presencia de tales productos nocivos resulta especialmente preocupante si tenemos en cuenta que los niños pueden ingerirlos involuntariamente al ponerse dentro de sus bocas juguetes y otros objetos sucios de polvo.



Valiéndose de un modelo informático que puede rastrear la distribución de la tierra contaminada y los materiales particulados transportados a las viviendas, los investigadores han encontrado que, al menos en el escenario local contemplado, alrededor del 60 por ciento del polvo de una vivienda se origina fuera de ella.

Los autores del estudio estiman que casi el 60 por ciento del arsénico presente en el polvo del suelo de las viviendas puede provenir del arsénico existente en el aire circundante, y el resto se debería al polvo portado hacia el interior por suelas de zapatos y otros medios afines.

Los investigadores señalan que su modelo podría usarse para evaluar métodos destinados a reducir los productos contaminantes en el polvo y la exposición humana a los mismos.

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #15 en: Diciembre 01, 2009, 09:31 Horas »
El Papel de los Volcanes en una Edad de Hielo Que Causó una Extinción

En un estudio previo, Matthew Saltzman, profesor de Ciencias de la Tierra en la Universidad Estatal de Ohio, y su equipo, lograron relacionar el proceso de elevación de los Apalaches con una edad de hielo desencadenada hace 450 millones de años. A medida que las rocas expuestas se erosionaban, las reacciones químicas extraían carbono de la atmósfera terrestre, causando un enfriamiento global que finalmente exterminó a dos tercios de todas las especies del planeta. Ahora, los investigadores han descubierto la otra mitad de la historia.

En esa otra mitad, los protagonistas son volcanes gigantes que se formaron durante el cierre del antecesor del Océano Atlántico, el Océano Japeto. Estos volcanes prepararon el escenario para el surgimiento de los Apalaches y la llegada posterior de esa edad de hielo.

Ésta es la reconstrucción de los hechos que ha logrado hacer el equipo de investigación:

Hace alrededor de 460 millones de años, durante el Ordovícico, los volcanes situados a lo largo del margen de lo que es ahora el Océano Atlántico, expulsaron enormes cantidades de dióxido de carbono a la atmósfera, convirtiendo el mundo en un invernadero gigante. La lava de esos volcanes acabó chocando con América del Norte para formar los Montes Apalaches.

La lluvia ácida, rica en dióxido de carbono, acribilló las nuevas rocas expuestas de los Apalaches y las desgastó. Las reacciones químicas atraparon el carbono en los sedimentos resultantes, que formaron arrecifes en los mares que cubrían América del Norte por aquel entonces.

Durante cerca de 10 millones de años, los volcanes continuaron agregando carbono a la atmósfera mientras los Apalaches lo retiraban de ella absorbiéndolo. Eso mantuvo estables las citadas condiciones climáticas de invernadero. En los cálidos mares, florecieron muchas formas de vida, incluyendo numerosas especies de trilobites y braquiópodos.

Hace 450 millones de años, las erupciones se detuvieron. Pero los Montes Apalaches continuaron con su proceso de erosión pétrea y absorción de carbono, con lo que los niveles de carbono atmosférico menguaron en picado. La Tierra pasó de de ser un invernadero a un congelador.

Hace unos 445 millones de años, los glaciares ya habían cubierto el polo sur sobre el supercontinente conocido como Gondwana, que posteriormente se fragmentaría para formar los continentes del hemisferio sur. La súbita era glacial exterminó a dos tercios de todas las especies.

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #16 en: Diciembre 02, 2009, 12:03 Horas »
Antiquísimos Seres Con Concha, Más Grandes de lo Creído

Los restos fósiles de algunas de las primeras criaturas con concha, seres marinos que datan de hace unos 520 millones de años, proporcionan una ventana a la evolución en aquellos tiempos. Una nueva investigación indica que estos animales eran más grandes de lo que se pensaba con anterioridad.

John Moore de la Universidad de California en Santa Bárbara, y sus colaboradores, analizaron fósiles del Período Cámbrico Temprano. Durante esta importante época en la historia de la Tierra, hubo una diversificación tremenda de la vida animal en los océanos. Muchos de los grupos principales de animales que aún existen aparecieron en aquel momento, así como muchos grupos inusuales que se extinguieron.

En particular, el Cámbrico marcó la primera amplia aparición de animales con conchas u otras partes duras. Muchos de estos animales antiguos tenían armaduras externas complejas que contenían desde docenas hasta miles de piezas pequeñas. Cuando los animales morían, sus armaduras se desintegraban. A partir de las desordenadas piezas de rompecabezas resultantes, Moore y su equipo de investigación han descifrado cómo eran estos animales, y cómo se relacionaban con otras criaturas.

Los autores del estudio se concentraron sobre todo en una extraña criatura del Cámbrico, llamada Cambrothyra. Los fósiles de este ser parecen pequeñas jarras o jarrones, de unas pocas décimas de milímetro de longitud. Han sido encontrados sólo en algunos lugares de China central.

Aunque algunos científicos creyeron en su día que cada pequeña estructura de Cambrothyra era la concha de un pequeño protista unicelular, el nuevo trabajo apoya la hipótesis de que el Cambrothyra era un animal, probablemente de varios centímetros de longitud, que estaba cubierto por una armadura compuesta de cientos de piezas diminutas independientes con forma de jarra.

Moore completó el trabajo en colaboración con Susannah Porter de su misma universidad, Michael Steiner de la Universidad Libre de Berlín, y Guoxiang Li del Instituto de Geología y Paleontología de Nanjing, dependiente de la Academia China de Ciencias.

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #17 en: Diciembre 03, 2009, 09:42 Horas »
Sin un Corte Drástico de Emisiones de CO2, la Geoingeniería Será la Ultima Esperanza

El futuro de la Tierra podría depender de tecnologías de geoingeniería potencialmente peligrosas y todavía sin estar validadas, a menos que puedan reducirse drásticamente las emisiones de dióxido de carbono.

Esto es lo que señala el último informe difundido por la Royal Society (la academia nacional británica de ciencias).

La investigación de la que se da cuenta en el informe indica que, a menos que en adelante los esfuerzos para reducir las emisiones de gases de efecto invernadero sean mucho más exitosos de lo que han sido hasta ahora, serán necesarias otras acciones adicionales, en el ámbito de la geoingeniería, si queremos refrescar el planeta.

Se ha llegado a la conclusión de que las técnicas de geoingeniería son plausibles y técnicamente posibles, y se considera que algunas son potencialmente útiles para potenciar los esfuerzos tendentes a mitigar el cambio climático por la vía de reducir las emisiones. Sin embargo, el informe identifica grandes incertidumbres en cuanto a su efectividad, sus costos, sus impactos medioambientales, y otros peligros serios.

El informe evalúa los dos tipos principales de técnicas de geoingeniería: la Extracción del Dióxido de Carbono (CDR, por sus siglas en inglés) y la Gestión de la Radiación Solar (SRM).

Las técnicas CDR se dirigen a la raíz del problema, el CO2 en aumento, y por ende presentan menos incertidumbres y riesgos, ya que persiguen devolver la Tierra a un estado más normal. Por eso son preferibles a las técnicas SRM, pero ninguna ha demostrado aún ser eficaz a un costo que se pueda afrontar, con impactos medioambientales aceptables, y además sólo reducen las temperaturas en períodos de tiempo muy largos.

Las técnicas SRM actúan reflejando la energía solar de regreso al espacio, con lo que consiguen bajar las temperaturas rápidamente, pero no afectan a los niveles de CO2. Por tanto, son incapaces de combatir los demás efectos del aumento del CO2, como por ejemplo la acidificación de los océanos. Aunque son relativamente baratas de aplicar, hay considerables incertidumbres sobre sus consecuencias a escala regional, y aunque reducen algunos de los efectos del cambio climático, posiblemente crean a su vez otros problemas. En el informe se llega a la conclusión de que las técnicas SRM podrían ser útiles si se alcanza un umbral donde la acción para reducir las temperaturas debe tomarse rápidamente, pero no son una alternativa a las reducciones de las emisiones o a las técnicas CDR.

"Ninguna de las tecnologías de geoingeniería sugeridas hasta ahora es una bala mágica, y todas tienen riesgos e incertidumbres asociadas con ellas", alerta el profesor John Shepherd, uno de los científicos principales del estudio. "Es esencial que nos esforcemos por recortar las emisiones ahora, pero también debemos afrontar la posibilidad muy real de que fracasemos. Si debemos contar con un "Plan B" como segunda opción en el futuro, entonces hay que emprender ahora un trabajo considerable de investigación y desarrollo de los diferentes métodos, el estudio de sus impactos medioambientales y el de los problemas de su control. Usada irresponsablemente o sin tener en cuenta los posibles efectos secundarios, la geoingeniería podría tener consecuencias catastróficas similares a las del propio cambio climático. Debemos asegurarnos de que las técnicas estén encuadradas en un marco seguro de gobierno para prevenir desastres".

De las técnicas CDR evaluadas en el informe, las siguientes han sido consideradas las de mayor utilidad potencial:

- Captura de CO2 del aire circundante. Éste sería el método preferido de geoingeniería, ya que revierte eficazmente la causa del cambio climático. En la actual fase de desarrollo de técnicas, no se ha encontrado todavía ningún método rentable, y se necesita mucho más trabajo de investigación y desarrollo.

- Potenciación de procesos geoquímicos naturales. Esta técnica que actúa sobre el CO2 atmosférico utiliza reacciones que se producen de forma natural entre el CO2 y rocas y minerales. La técnica ha sido identificada como una opción a largo plazo. Sin embargo, se necesita hacer más investigaciones para encontrar métodos rentables y conocer en toda su extensión las implicaciones medioambientales.

- El uso de la tierra y la forestación. En la investigación recogida en el informe se encontró que la gestión del uso de la tierra puede y debe ejercer un papel, pequeño pero significativo, en la reducción del crecimiento de las concentraciones de CO2 atmosféricas. Sin embargo, el alcance de la aplicación de esta técnica se vería limitado por los conflictos de uso de la tierra, y deben considerarse todas las demandas que compiten por el uso de la tierra al evaluar el potencial de ésta para la forestación y la reforestación.

Si las temperaturas alcanzan un nivel tan alto que hay que adoptar medidas urgentes de efecto más inmediato, en el informe se considera que las siguientes técnicas SRM son las que poseen el mayor potencial:

- Los aerosoles estratosféricos. Estos han demostrado ser factibles. Además, los efectos comparables de erupciones volcánicas pasadas han podido ser estudiados a fondo, aportando datos útiles que demuestran la eficiencia potencial de este método. El costo ha sido calculado como probablemente bajo, y el tiempo requerido para producir resultados, como corto. Sin embargo, hay algunas cuestiones serias que deben ser aclaradas sobre los efectos adversos de la técnica, particularmente el "daño colateral" de la reducción del ozono estratosférico.

- Los métodos espaciales. Han sido considerados como técnicas SRM potenciales para su uso a largo plazo, siempre y cuando puedan resolverse los grandes problemas de implementación y mantenimiento. En la actualidad, estas técnicas siguen siendo prohibitivamente caras, complejas y exigen mucho tiempo para ponerse en práctica.

- Fabricación artificial de nubes, desde inmensos barcos que bombearían agua del mar y la arrojarían al aire a través de chimeneas por las que saldría atomizada en diminutas gotas. Los efectos serían muy locales. Se sabe poco acerca de los impactos de esta técnica en los patrones meteorológicos regionales y en las corrientes oceánicas, aunque hay motivos para el temor. La viabilidad y la eficacia de la técnica son inciertas. Se necesita más investigación antes de que esta técnica pueda ser tomada en serio.

Se considera que las siguientes técnicas tienen potenciales más bajos:

- Biocarbón (una técnica CDR). El informe señala dudas significativas relacionadas con su alcance potencial, su efectividad y la seguridad de esta técnica, y se recomienda investigar mucho más para poder validar lo suficiente el método.

- La fertilización del océano (técnica CDR). En el informe se dictamina que no se ha demostrado que esta técnica sea eficaz y además tiene un elevado potencial de provocar daños colaterales ecológicos imprevistos.

- Cambios del albedo de la superficie terrestre (técnica SRM, que engloba métodos como el de pintar los tejados de blanco, usar cultivos reflectantes y reflectores en los desiertos). El estudio indica que son ineficaces, caros y, en algunos casos, probablemente tendrían serios impactos en los patrones meteorológicos locales y regionales.

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #18 en: Diciembre 04, 2009, 09:03 Horas »
Buscar Información en Internet, una Potente Gimnasia Mental Para Personas Mayores
4 de Diciembre de 2009.

En un estudio se ha comprobado que las personas de mediana edad o más mayores, con poca experiencia en internet, son capaces de alcanzar altos niveles de activación de centros clave del cerebro que controlan la toma de decisiones y el razonamiento complejo, después de sólo una semana de navegar por la red. Los resultados sugieren que aprender a usar internet y mantener un cierto nivel de actividad en ella pueden promover pautas de activación neuronal, y potencialmente podrían reforzar el buen funcionamiento del cerebro y las capacidades cognitivas en personas

Cuando el cerebro envejece, aparecen varios cambios estructurales y funcionales, incluyendo atrofia, reducción en la actividad celular y un incremento en los depósitos de placas amiloides y marañas tau, que pueden tener efectos adversos sobre la función cognitiva. Los estímulos mentales similares a los que reciben los individuos que usan frecuentemente internet pueden influir sobre la eficacia del proceso cognoscitivo y sobre la manera en que el cerebro codifica la nueva información.

El equipo encabezado por Teena D. Moody y Gary Small, ambos del Instituto Semel para la Neurociencia y la Conducta Humanas en la Universidad de California en Los Ángeles (UCLA), trabajó con 24 voluntarios neurológicamente normales con edades comprendidas entre los 55 y los 78 años. Antes del estudio, la mitad de los participantes usaban internet diariamente mientras que la otra mitad tenía muy poca experiencia. La edad, el nivel educacional y el género eran similares entre los dos grupos.

Las personas con escasa experiencia en internet, la usaron en casa para realizar búsquedas; una hora diaria en siete días durante un período de dos semanas. Estas búsquedas implicaban usar internet para responder preguntas sobre varios temas, explorando sitios web diferentes y leyendo información contenida en estos. Este trabajo intelectual resultó ser una potente gimnasia mental, tal como se comprobó al serles nuevamente escaneadas mediante fMRI diversas regiones cerebrales, y comprobar que las pautas de activación de éstas habían alcanzado en poco tiempo los niveles ostentados por el grupo de los internautas expertos.

Tal como señalan los autores del estudio, la búsqueda online puede ser una forma sencilla de ejercicio cerebral que podría emplearse para reforzar la cognición en las personas mayores.

Desconectado pelotero

  • Juvenil
  • ***
  • Mensajes: 1324
  • Sexo: Masculino
  • ¡¡¡Me gusta el futbol!!!
Re: HABLEMOS DE CIENCIA
« Respuesta #19 en: Diciembre 07, 2009, 09:47 Horas »
Esta es un poco mas antigua, pero seguro que tambien os resulta interesante

Ulises descansa tras 18 años de odisea espacial

El contacto con la sonda se ha perdido para siempre, según la NASA
El proyecto conjunto con Europa  estaba pensado para solo cinco años
Ha ofrecido datos clave del comportamiento solar en dos de sus ciclos
La nave también se acercó a las colas de tres cometas
 
EFE  01.07.2009
La sonda Ulises, un proyecto conjunto de la NASA y la Agencia Espacial Europea (ESA), ha quedado a la deriva al concluir su misión de 18 años por el cosmos, ha informado el Laboratorio de Propulsión a Chorro (JPL) de la agencia estadounidense.

La sonda se convirtió en una nave sin destino tras vagar durante casi dos décadas por regiones nunca antes exploradas del espacio.

Según el JPL, la antena de la sonda recibió la orden final emitida desde sus controles en la Tierra a las 20.09 GMT del martes (22.09 horas en la España peninsular), y como resultado, los contactos quedaron interrumpidos para siempre.

La nave fue lanzada a una órbita solar desde el transbordador Discovery el 6 de octubre de 1990 con un lapso de vida útil calculado en un máximo de cinco años. Pero duró casi cuatro veces más de lo que se esperaba y durante 18 años recogió información sobre la heliosfera y el viento solar.

"Esta ha sido una empresa científica notable", ha dicho Richard Marsden, director de la misión y científico de la ESA. "Los resultados que logró Ulises superaron con creces todos nuestros sueños", ha añadido.

"Habíamos calculado que Ulises no sobreviviría más allá de julio del año pasado. Pero la nave continuó sorprendiéndonos y siguió trabajando un año más. Ha concluido con toda elegancia", ha declarado Nigel Angold, director de operaciones de la misión en la ESA.

Ulises realizó casi tres órbitas completas en torno al Sol y reveló por primera vez el carácter tridimensional de la radiación galáctica, las partículas de energía producidas por las tormentas solares, así como el viento solar, según sus responsables.

Ulises no sólo permitió que los científicos identificaran los ingredientes de la heliosfera, sino que además su longevidad hizo posibles que observaran al Sol durante un tiempo mas prolongado que nunca antes. La actividad del Sol varía en un lapso de 11 años y "ahora tenemos mediciones que cubren casi dos ciclos completos".

El científico ha explicado que esa prolongada observación permitió descubrir que los vientos solares se han debilitado progresivamente y que en estos momentos se encuentran en el momento más bajo de toda la era espacial.

Además de medir los vientos solares y las partículas cargadas del espacio, los instrumentos de Ulises también midieron aquellas de polvo espacial así como los gases neutrales provenientes del espacio interestelar que penetran en la heliosfera.

Asimismo, la nave tuvo tres aproximaciones a colas de cometas, registró más de 1.800 explosiones de rayos gamma y muchos descubrimientos más.

 


* Temas Recientes

Re: 33ª Jor.; R. BETIS-SEVILLA; Domingo: 28-04-24; 21 horas:; B. Villamarín. por JamesCG
[Ayer a las 21:05]


Re.33ª Jor.; SAT. -UCAM DE MURCIA, Domingo-28-04-24; 12 horas; Est. J. Navas. por asturgabriel
[Ayer a las 09:03]


Sevilla F.C.: Cantera por asturgabriel
[Abril 25, 2024, 11:55 Horas]


Víctor ORTA por jmpn
[Abril 24, 2024, 09:42 Horas]


QUIQUE Sánchez Flores por drodgom
[Abril 23, 2024, 21:16 Horas]


Re: 32ª Jor.; SEVILLA(2)-RCD. MALLORCA(1); Lunes-22-04-24; 21 hor.; RSP. por pincho
[Abril 23, 2024, 10:09 Horas]


Planificación temporada 2023-2024 por jmpn
[Abril 23, 2024, 07:56 Horas]


Iván RAKITIC por drodgom
[Abril 23, 2024, 00:46 Horas]


SERGIO RAMOS García por anonimo_sevillista
[Abril 23, 2024, 00:00 Horas]


Re: 1ª División tda. 2023-24 por jocarvia
[Abril 22, 2024, 13:57 Horas]

* User Info

 
 
Bienvenido(a), Visitante. Por favor, ingresa o regístrate.

* En línea

  • Dot Visitantes: 850
  • Dot Oculto(s): 0
  • Dot Usuarios: 0

There aren't any users online.

* Búsqueda


* @forooficialsfc

* FB

* Calendario

Abril 2024
Dom Lun Mar Mié Jue Vie Sáb
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 [27]
28 29 30

No calendar events were found.