Archivo de la etiqueta: Ciencia

Descubren cuatro posibles planetas sin estrella

Últimamente se han vuelto muy comunes los descubrimientos de planetas que giran alrededor de otras estrellas. Sin embargo, un planeta de fuera de nuestro sistema solar no tiene que estar necesariamente en órbita a otra estrella o astro masivo. Los planetas sin estrella, llamados también planetas “errantes”, “nómadas” o “huérfanos”, no giran en torno a ninguna estrella sino que describen trayectorias más o menos constantes en torno al centro de la galaxia, como hacen las estrellas. Estos planetas “independientes” han sido un tema tocado por la ciencia-ficción, pero en los últimos tiempos han dejado de ser una mera especulación para convertirse en un hecho cada vez más aceptado como común.

Ahora, los resultados de un análisis de datos recolectados durante observaciones realizadas por el telescopio espacial Kepler de la NASA apuntan a la posible detección de cuatro de estos planetas sin estrella.

El estudio, llevado a cabo por el equipo internacional de Iain McDonald, antes en la Universidad de Manchester y ahora en la Universidad Abierta, ambas en el Reino Unido, utilizó datos obtenidos por el Kepler en 2016. Durante una campaña de dos meses, Kepler escrutó un sector del firmamento en el que hay millones de estrellas. Ese sector está cerca del centro de nuestra galaxia. El Kepler examinaba la zona entera cada 30 minutos en un intento de encontrar eventos de microlente gravitacional, bastante inusuales.

Las lentes gravitacionales son un efecto en la observación que se produce porque la presencia de masa deforma el tejido del espacio-tiempo y observando desde la dirección precisa se percibe una intensificación de la imagen comparable a la que ejerce una lente. El efecto es extremo alrededor de objetos muy masivos, como agujeros negros y galaxias enteras. Pero incluso los planetas solitarios pueden provocar un grado detectable de deformación, en su caso llamado microlente por resultar mucho más sutil.

Predicho por Albert Einstein hace 85 años como consecuencia de su Teoría General de la Relatividad, el fenómeno describe cómo la luz de una estrella situada al fondo puede ser ampliada temporalmente por la presencia de otras estrellas situadas en primer plano, desde el punto de vista del observador. Esto produce un efímero “estallido” de brillo. Se estima que aproximadamente una estrella de cada millón de estrellas de nuestra galaxia está visiblemente afectada por el fenómeno en un momento dado. Los casos de microlente causada por un planeta son aún más difíciles de detectar, con la tecnología disponible actualmente.

El análisis de los datos ha revelado 27 señales candidatas a microlente de corta duración que varía entre una hora y 10 días. Muchas de ellas se habían observado previamente en datos obtenidos simultáneamente desde tierra. Sin embargo, los cuatro eventos más cortos son nuevos descubrimientos que además concuerdan con lo que cabe esperar de planetas con masas similares a la de la Tierra.

Estos nuevos eventos no muestran una señal larga, como la que puede esperarse de una estrella cercana al planeta, lo que sugiere que estos nuevos eventos pueden indicar la presencia de planetas errantes. Estos planetas tal vez se formaron originalmente alrededor de una estrella anfitriona antes de ser expulsados de su sistema solar como consecuencia de un efecto de desestabilización orbital provocado por el tirón gravitatorio de otros planetas más masivos del sistema.

Confirmar la existencia y la naturaleza de planetas sin estrella será uno de los principales objetivos del Telescopio Espacial Roman de la NASA, y posiblemente del telescopio espacial Euclid de la ESA (Agencia Espacial Europea), ambos optimizados para buscar señales de microlente y a ser lanzados al espacio en un futuro no muy lejano.

En el caso del telescopio espacial Roman, unas simulaciones ejecutadas el año pasado por el equipo de Samson Johnson, de la Universidad Estatal de Ohio en Estados Unidos, permiten pronosticar que detectará cientos de planetas sin estrella.

El estudio realizado por el equipo de McDonald se titula “Kepler K2 Campaign 9 – I. Candidate short-duration events from the first space-based survey for planetary microlensing”. Y se ha publicado en la revista académica Monthly Notices of the Royal Astronomical Society.

Nuevo aire para la computación y la robótica neumáticas

La lógica neumática es anterior a los ordenadores electrónicos y en su día proporcionó niveles avanzados de control en una amplia gama de dispositivos, desde termostatos y otros componentes de sistemas de control climático hasta mecanismos de interpretación automática de piano a principios del siglo XX. En la lógica neumática, el aire, y no la electricidad, fluye a través de circuitos o canales y la presión del aire se utiliza para representar el encendido/apagado o el verdadero/falso. En los ordenadores modernos, estos estados lógicos se representan mediante 1 y 0 en código, lo que equivale a activar o desactivar las cargas eléctricas.

Los robots neumáticos blandos utilizan aire a presión para mover sus extremidades, incluyendo pinzas blandas y gomosas, y son superiores a los robots rígidos tradicionales. Además, a la hora de realizar tareas muy delicadas son más seguros para los humanos. Baymax, el robot sanitario de la película animada de Disney “Big Hero 6”, de 2014, es un robot neumático por una buena razón.

Sin embargo, los sistemas existentes para controlar robots blandos neumáticos siguen utilizando válvulas electrónicas y ordenadores para mantener la posición de las piezas móviles del robot. Estas piezas electrónicas añaden un coste, un tamaño y una demanda de energía considerables a los robots, lo que limita su viabilidad.

Shane Hoang, William Grover, Philip Brisk y Konstantinos Karydis, de la Universidad de California en Riverside, Estados Unidos, han ideado una solución para ese problema, haciendo progresar a la robótica blanda neumática hacia el futuro.

Los robots blandos neumáticos necesitan un modo de recordar y mantener las posiciones de sus piezas móviles. Hoang y sus colegas se dieron cuenta de que si podían crear una memoria neumática para un robot blando neumático, podrían eliminar la memoria electrónica que se utiliza actualmente para ese fin.

Los investigadores fabricaron su chip de memoria neumática de acceso aleatorio, o RAM, utilizando válvulas microfluídicas en vez de transistores electrónicos. Las válvulas microfluídicas se diseñaron originalmente para controlar el flujo de líquidos en chips microfluídicos, pero también pueden controlar el flujo de aire. Las válvulas permanecen selladas contra un diferencial de presión incluso cuando se desconectan de una línea de suministro de aire, creando diferenciales de presión que funcionan como memorias y mantienen los estados de los actuadores de un robot. Un conjunto lo bastante nutrido de estas válvulas puede realizar operaciones avanzadas y reducir la necesidad de hardware electrónico caro, voluminoso y con alto consumo de energía, utilizado habitualmente para controlar robots neumáticos.

Tras modificar unas válvulas microfluídicas para que pudieran manejar mayores caudales de aire, el equipo produjo un chip RAM neumático de 8 bits capaz de controlar robots blandos más grandes y de mayor velocidad, y lo incorporó a un par de manos de goma robóticas impresas en 3D. La RAM neumática utiliza aire a presión atmosférica para representar un valor “0” o “FALSO”, y el vacío para representar un valor “1” o “VERDADERO”. Los dedos robóticos se extienden cuando se conectan a la presión atmosférica y se contraen cuando se conectan al vacío.

Al variar las combinaciones de presión atmosférica y vacío dentro de los canales del chip RAM, los investigadores pudieron hacer que el robot tocara notas, acordes e incluso una canción completa (“Mary Had a Little Lamb”) en un teclado musical.

En teoría, este sistema podría utilizarse para hacer funcionar otros robots sin ningún tipo de hardware electrónico y solo con una bomba a pilas para crear el vacío. Los investigadores señalan que sin presión positiva en ninguna parte del sistema (solo la presión atmosférica normal) no hay riesgo de sobrepresurización accidental y fallo violento del robot o de su sistema de control.

Los resultados del estudio se han hecho públicos a través de la revista académica PLoS ONE. La referencia del trabajo es la siguiente: Hoang S, Karydis K, Brisk P, Grover WH (2021) A pneumatic random-access memory for controlling soft robots. PLoS ONE 16(7): e0254524. (Fuente: NCYT de Amazings)

Cómo el clima cambió el tamaño del cuerpo humano

· En el último millón de años, los lugares más fríos impulsaron la evolución de individuos más grandes y los más cálidos, más pequeños

El tamaño corporal de los humanos ha fluctuado durante el último millón de años a causa de los cambios en la temperatura. Así lo cree un equipo de investigadores de las universidades de Cambridge y Tübingen, que ha recopilado medidas del tamaño del cuerpo y el cerebro de más de 300 fósiles de miembros del género Homo descubiertos en todo el mundo. Al combinar esos datos con una reconstrucción de los climas regionales durante todos esos años, los investigadores han comprobardo cómo los más fríos y duros impulsaron la evolución de individuos más grandes, mientras que los climas más cálidos llevaron a cuerpos más pequeños. Los resultados se publican este jueves en la revista ‘Nature Communications’.

Nuestra especie, Homo sapiens, surgió hace unos 300.000 años en África. El género Homo existe desde hace mucho más tiempo e incluye a los neandertales y otras especies extintas relacionadas, como Homo habilis y Homo erectus. Un rasgo definitorio de la evolución de nuestro género es la tendencia al aumento del tamaño del cuerpo y del cerebro; en comparación con especies anteriores, como Homo habilis, somos un 50% más pesados y nuestros cerebros son tres veces más grandes. Pero los factores que impulsan estos cambios siguen siendo objeto de grandes debates.

«Nuestro estudio indica que el clima, en particular la temperatura, ha sido el principal impulsor de los cambios en el tamaño corporal durante los últimos millones de años», afirma Andrea Manica, investigador del Departamento de Zoología de la Universidad de Cambridge y responsable del estudio.

Es algo que podemos ver en las personas que viven hoy en día. «Las que viven en climas más cálidos tienden a ser más pequeñas y las que viven en climas más fríos tienden a ser más grandes. Ahora sabemos que las mismas influencias climáticas han estado operando durante el último millón de años», señala.

Los investigadores también observaron el efecto de los factores ambientales sobre el tamaño del cerebro en el género Homo, pero las correlaciones fueron generalmente débiles. El tamaño del cerebro tendía a ser mayor cuando los humanos vivía en hábitats con menos vegetación, como estepas abiertas y praderas, pero también en áreas ecológicamente más estables. En combinación con datos arqueológicos, los resultados sugieren que las personas que viven en estos hábitats cazaban animales grandes como alimento, una tarea compleja que podría haber impulsado la evolución de cerebros más grandes.

«Descubrimos que diferentes factores determinan el tamaño del cerebro y el tamaño del cuerpo; no están bajo las mismas presiones evolutivas. El entorno tiene una influencia mucho mayor en el tamaño de nuestro cuerpo que el tamaño de nuestro cerebro», indica Manuel Will, de la Universidad de Tubinga (Alemania) y primer autor del estudio.

Según explica, «hay una influencia ambiental indirecta sobre el tamaño del cerebro en áreas más estables y abiertas: la cantidad de nutrientes obtenidos del ambiente tuvo que ser suficiente para permitir el mantenimiento y crecimiento de nuestros cerebros grandes y particularmente demandantes de energía».

Esta investigación también sugiere que los factores no ambientales fueron más importantes para impulsar cerebros más grandes que el clima, siendo los principales candidatos los desafíos cognitivos adicionales de vidas sociales cada vez más complejas, dietas más diversas y tecnología más sofisticada.

Seguimos evolucionando

Los investigadores dicen que hay buenas evidencias de que el cuerpo humano y el tamaño del cerebro continúan evolucionando. El físico humano todavía se está adaptando a diferentes temperaturas, y en la actualidad, en promedio, las personas con cuerpos más grandes viven en climas más fríos. Se cree que un tamaño más grande actúa como un amortiguador contra el frío, ya que se pierde menos calor de un cuerpo cuando su masa es grande en relación con su área de superficie. 

Sin embargo, el tamaño del cerebro de nuestra especie parece haberse reducido desde el comienzo del Holoceno (hace unos 11.650 años). La creciente dependencia de la tecnología, como que las computadoras hayan asumido las tareas más complejas, puede hacer que los cerebros se encojan aún más durante los próximos miles de años.

«Es divertido especular sobre lo que sucederá con el tamaño del cuerpo y el cerebro en el futuro, pero debemos tener cuidado de no extrapolar demasiado con base en el último millón de años porque muchos factores pueden cambiar», dice Manica.

Por primera vez, logran hacer mapa tridimensional del límite de la heliosfera

· La cartografía ayudará a entender mejor cómo interactúan los vientos solares e interestelares

Por primera vez, se cartografió el límite de la heliosfera, lo que permite a los científicos comprender mejor cómo interactúan los vientos solares e interestelares.

Los modelos físicos han teorizado este límite durante años, señaló Dan Reisenfeld, del Laboratorio Nacional de Los Alamos y autor principal de la investigación, que se publica en Astrophysical Journal. Pero es la primera vez que hemos podido medirlo y hacer un mapa tridimensional.

La heliosfera es una burbuja creada por el viento solar, una corriente de principalmente protones, electrones y partículas alfa que se extiende desde el Sol al espacio interestelar y protege a la Tierra de la radiación interestelar dañina.

Reisenfeld y un equipo de otros científicos utilizaron datos del satélite de la NASA Explorador de Límites Interestelares (IBEX, por sus siglas en inglés) en órbita terrestre, que detecta partículas que provienen de la heliovaina, la capa entre el sistema solar y el espacio interestelar. El equipo pudo mapear el borde de esa zona, región llamada heliopausa. Aquí, el viento solar, que empuja hacia el espacio interestelar, choca con el que empuja hacia el Sol.

Para hacer esta medición, utilizaron una técnica similar a la forma en que los murciélagos usan el sonar. Así como ellos envían pulsos de sonar en todas direcciones y la señal de retorno a fin de crear un mapa mental de su entorno, nosotros utlizamos el viento solar, que sale hacia todas partes con el propósito de crear un mapa de la heliosfera, explicó Reisenfeld en un comunicado.

Lo hicieron utilizando la medición del satélite IBEX de átomos neutros energéticos (ENA, por sus siglas en inglés) que resultan de las colisiones entre las partículas del viento solar y las del interestelar. La intensidad de esa señal depende de la del viento solar que golpea la heliovaina. Cuando una onda pega a la vaina, el recuento de ENA aumenta y el IBEX puede detectarlo.

Pauta única

“La ‘señal’ del viento enviada por el Sol varía en fuerza, formando una pauta única, que el IBEX verá en la de ENA que regresa de dos a seis años después, dependiendo de su energía y la dirección en la que mira el satélite a través de la heliosfera. Esta diferencia de tiempo es la forma en que encontramos la distancia a la región de la fuente átomos neutros energéticos en una dirección particular”.

Luego aplicaron este método en la construcción del mapa, para lo cual usaron datos recopilados durante un ciclo solar completo, desde 2009 hasta 2019.

“Al hacer esto, podemos ver el límite de la heliosfera de la misma manera en que un murciélago usa un sonar para ‘ver’ las paredes de una cueva”, agregó.

La señal tarda tanto tiempo en regresar al IBEX debido a las grandes distancias involucradas, que en el sistema solar se miden en unidades astronómicas (AU), donde 1 AU es la de la Tierra al Sol.