La memoria “eterna”

La memoria “eterna”

Investigadores han dado con un material con una estructura increíblemente estable y que podría que podría superar con facilidad la extensión de la raza humana. Se le bautizado como memoria 5D, una tecnología de 5 dimensiones con un nivel de sofisticación y potencia sin precedente en lo que a almacenamiento de información se refiere.

Científicos de la Universidad de Southampton afirman con mucha confianza que su memoria 5D tiene la capacidad de ser “eterna” y su densidad puede cubrir prácticamente todo. Aunque la verdad, no están exagerando y las razones por las que presumen orgullosamente su invento son válidas. En 2013 realizaron presentaciones donde probaron que su tecnología es tanto posible como viable. No solo puede durar miles de millones de años, sino que también puede tolerar temperaturas hasta de 1000 °C y contener decenas te Terabyte de información en una pequeña memoria de cristal hecha a base de cuarzo.

cristal-memoria

 

¿En qué consiste?

La ORC (Optoelectronics Research Center) ubicado en la Universidad de Southampton presento el modelo tecnológico basado en cinco dimensiones para el almacenamiento de información en el 2013. La tecnología usa cristales de estructura nanometrica en la que se puede almacenar datos por medio de un láser capaz de escribir información en femtosegundos (en pocas palabras, es abrumadoramente rápido). Actualmente la  tecnología permite guardar información en pequeños discos de 360 TB, estos soportan temperaturas de hasta 1000 °C, y pueden durar hasta 13.800 millones de año  a 190 °C (es más tiempo del que se estima tiene el universo) y virtualmente eterno si se conserva a temperatura ambiente. Esta tecnología podría significar un punto de inflexión histórico y revolucionaria el proceso de almacenar volúmenes grandes de información y de manera muy segura. Grandes empresas, entidades y organizaciones podrían ver en la memoria 5D un futuro muy prometedor.

10 almacenamiento cristal de superman3

Funcionamiento

Para grabar datos a tal velocidad, se precisa de un láser muy especializado que escribe la información mediante pulsos muy intensos en un periodo de tiempo que opera  en el orden de  femtosegundos. Esto no solo permite escribir de manera rápida sino que también evita consumir prematuramente la energía, sostener la intensidad del láser periodos mayores de tiempo resulta ineficiente.

La información se escribe en forma de capaz de puntos en el cristal nanoestructurado cambiando la manera en que la luz atraviesa el material. Un microscopio óptico polarizado hace el papel de lector de la información que luego es decodificada. Las estructuras cristalinas están constituidas de cuarzo fundido, procesado y ordenado.

La información es guardada en cinco parámetros: tamaño, orientación, alto, largo y ancho que ocupan en la nanoestructura, de allí el nombre de memoria 5D. Esta tecnología no está pensada para uso doméstico debido a lo costoso de que resulta su grabación y solo es posible de realizar en laboratorios. De momento solos las grandes organizaciones para preservar datos por periodos largos de tiempo, tanto asi, que podríamos llegar a desaparecer como raza y la declaración de los derechos humanos, leyes de newton y el resto de la información nuestra cultura aun existan en un pequeño disco. El siguiente video muestra el proceso de guardado de información en la memoria de cristal.

 

 

 

Nueva tratamiento contra el cáncer logra remisión hasta en 94% de los casos

Nueva tratamiento contra el cáncer logra remisión hasta en 94% de los casos

Stanley Riddell, científico norteamericano afirmo que los resultados de una terapia novedosa podría marcar un ante y un después en la lucha contra el cáncer debido a los extraordinarios resultados obtenidos, sin precedentes en la historia de la medicina.

Manipoulando las células del sistema inmunológico de los pacientes con cáncer es fase terminal, Riddell y su equipo lograron que en uno de sus estudios, eliminar los síntomas de la enfermedad con una taza de éxito del 94% de los casos. Sin embargo, los científicos advirtieron que de momento el estudio es reducido y el riesgo de algunos efectos secundarios está presente. La nueva terapia ha generado altas expectativas en la comunidad médica pese a sus limitaciones.

Cancer

Terapia Revolucionaria

Los resultados de los estudios fueron presentados por Riddell y su equipo a la AAAS (American Association for the Advancement of Science) cuya sede se encuentra en Washington. La investigación se llevó a cabo en el Centro Fred Hutchinson de investigaciones sobre el Cáncer en la ciudad de Seattle, los resultados obtenidos por el científico y su equipo serán publicados con lujo de detalles en próximos meses.

Los estudios involucraron a diferentes tipos de cáncer en estado avanzado en una variedad de pacientes, siendo el estudio más destacable, el de 35 pacientes con Leucemia Linfoide Aguda cuyos resultados arrojaron que el 94% de los casos (33 pacientes) la enfermedad entro en estado de remisión. Los síntomas desaparecen, aunque esto no implica que los pacientes hayan sido curados.

Otro estudio realizado con 40 pacientes que padecían linfoma, el resultado fue un 50% de remisión. Pacientes enfermos con linfoma no hodgkiniano, la taza de remisión alcanzo el 80%, en la mayoría de los casos los pacientes responden bien al tratamiento y sus síntomas se ven disminuidos de manera considerable.

cancer-investigacion-tratamiento

Los estudios se realizaron en pacientes en los que tratamientos más convencionales no tenían ningún efecto, muchos de ellos se les estimaba como mucho cinco meses de vida.

¿En qué Consiste?

Mediante manipulación genética se alteran células tomadas del sistema inmunológico del paciente conocidas como linfocitos T encargadas de coordinar la respuesta inmune a nivel celular. Luego de extraer las células, se les ajunta una molécula receptora que toma por objetivo un tipo determinado de cáncer. Finalmente las células reforzadas se insertan nuevamente en el paciente.

Las moléculas que refuerzan la célula se conocen como “receptores de antígenos quiméricos”, y su trabajo consiste en reducir las defensas que tiene el cáncer ante el sistema inmunológico. Las células cancerosas presentan mecanismos de defensa bastante ingeniosos y su capacidad de evadir a los linfocitos es un problema muy grande debido a que pueden colapsar el sistema inmunológico. En pocas palabras, es una técnica que reprograma las células T a nivel genético y las dota de la capacidad de buscar, reconocer y eliminar células cancerígenas.

¿Efectos secundarios?

La posibilidad de una respuesta desmedida por parte del sistema inmunológico es el principal efecto secundario del tratamiento. Algunos pacientes presentaron fiebre, hipotensión, neurotoxicidad y náuseas producto de una respuesta excesiva que es extremadamente mortal. Dos pacientes resultaron muertos y otros siete fueron hospitalizados en cuidados intensivos durante los estudios.

¿Limitaciones de la terapia?

Según Riddell, existen algunas razones para ser optimistas y otras para ser pesimistas. La próxima tarea será reducir la dosis de linfocitos T alterados para evitar efectos no deseados pero buscando mantener la tasa de éxito. El tiempo que los pacientes duren en remisión no ha podido ser estimado con exactitud y solo se han realizado pruebas en pacientes con cáncer en la sangre por lo que aún falta determinar la efectividad del método en tumores sólidos. Al igual que la quimioterapia o radioterapia, este método es más efectivo ante algunos tipos de cáncer por lo que es una tarea difícil hacer que se desempeñe de manera competente en todos los tipos de cáncer, reto que han asumido con confianza.

 

Combustible líquido creado a partir de dióxido de carbono y agua

Combustible líquido creado a partir de dióxido de carbono y agua

El problema de la contaminación ambiental ha sido abordado por varios académicos de la comunidad científica desde diferentes frentes, los volúmenes de dióxido de carbono presentes en la atmósfera son preocupantes y se han elaborado una serie de experimentos para convertir este gas en algo aprovechable.

58448-822-550

En algunos experimentos se ha logrado obtener hidrógeno y metanol, sin embargo, estos resultados son poco prácticos debido a la complejidad de los procesos involucrados y la cantidad de métodos necesarios. Otros investigadores han desarrollado un método muy simplificado que permite convertir el CO2 en combustible líquido de hidrocarburos y a una un costo muy reducido. Para ello han hecho uso de calor concentrado, alta presión y luz de alta intensidad.

Este método fue descubierto por científicos de la universidad de Texas, no solo utiliza el CO2 presente en la atmósfera, sino que trae los beneficios de presentar una alta sostenibilidad y como subproducto libera oxígeno, lo que en teoría revertiría el efecto invernadero causado por el CO2 y da a la atmósfera un merecido cuidado.

Proceso

Han bautizado el fenómeno como “combustión foto solar termoquímica inversa de alcanos”, consta de solo una etapa y utiliza CO2 y agua para sintetizar oxígeno y combustible líquido de hidrocarburos bajo una presión de 6 atmósferas, cabe destacar que, este combustible puede ser usado en los vehículos de uso diario.

El jefe Interno de química y bioquímica que el proceso brinda múltiples beneficios a la sociedad, por un lado está la disminución del gas invernadero a la atmósfera y producción de oxigeno dando un impacto positivo en la misma, por otro lado, está el combustible líquido que puede ser empleado para para los vehículos como: automóviles, camiones, barcos e incluso aviones, por lo que disminuye la urgencia por el cambio en la distribución actual de combustible o de los motores empleados. Los motores eléctricos son una solución amigable con el ambiente pero implican un cambio brusco de tecnología que ha sido difícil de asimilar por la sociedad, si bien no soluciona el problema de combustible a largo plazo si podría funcionar como un método de transición entre el combustible fósil y el eléctrico.

base_image

Para poner en marcha la reacción fotoquímica y termoquímica, el dióxido de titanio (TiO2) hace permite la fotocatálisis. El TiO2 es muy efectivo para realizar hidrolisis y alcanza su mejor rendimiento al trabajar bajo luz ultravioleta, no es tan eficaz si se utiliza luz visible, sin embargo, el equipo está trabajando para desarrollar un fotocatalizador que sea compatible con la luz ordinaria.

El método ha demostrado ser eficiente y relativamente económico. El equipo se suma a la lista de inventos que han sido concebidos con la única de idea de ayudar a la sociedad a encontrar soluciones sostenibles ante algunos inconvenientes así como la de dar un descanso al planeta. Como toda tecnología en su fase inicial aún quedan algunas pruebas y optimizaciones que deben realizarse antes de aplicar el método en la sociedad, aun así los investigadores confían en que el uso de materiales como cobalto o rutenio podrían hacer de papel de catalizadores más eficientes y darle al método una taza mayor de eficiencia y versatilidad.

Nueva Bateria Electrolítica y Desalinizadora de Agua

Nueva Bateria Electrolítica y Desalinizadora de Agua

A pesar de que el 70% del mundo está cubierto de agua, la mayoría de esta no es acta para el consumo humano, hoy en día se invierte gran cantidad de tiempo y energía en ampliar de alguna manera nuestras reservas de agua potable así como las fuentes de energía para las generaciones futuras. La falta de agua es un problema que muy grave de por si que no necesita mucho tiempo para volverse un factor que impacte de manera negativa la vida de las personas, lo mismo podríamos decir de la falta de energía aunque en menor medida.

Investigadores de la Universidad de Illinois decidieron encarar estos dos problemas a la vez haciendo uso de la misma tecnología. El equipo de científicos ideó un concepto de bacteria  que utiliza el agua salada para almacenar y liberar energía eléctrica, al mismo tiempo el proceso elimina la salinidad del agua.

bateria-iones-sodio-desalinizar-agua

Las baterías de  litio han sido de gran ayuda en el desarrollo de teléfonos inteligentes y computadoras portátiles, sin embargo, son capaces de almacenar cantidades masivas de energía. EL litio es un elemento escaso por lo que los científicos han estudiado alternativas más abundantes, siendo el sodio una de ellas. 2,6% de la corteza terrestre está representada por este elemento.

De momento el proyecto se encuentra en sus primeras fases ha demostrado el suficiente potencial para ser una solución económica para los problemas de almacenamiento energéticos. En el 2015 investigadores combinaron el sodio con una serie de materiales igualmente abundantes con la idea de crear una especie de batería  que pueda ser masificadas en un futuro hasta crear estructuras que funcionen como celdas de almacenamiento de energía eléctrica.

El uso de baterias de sodio tienen otras ventajas, al igual que sus homologas de litio, su funcionamiento se basa en el traslado de electrones de un electrodo a otro, sin embargo, este  proceso deja la batería cargada con agua desalinizada, pero por un tiempo muy corto y se da a medida de que los iones se reintegran cuando la corriente fluye hacia otro lado. Los investigadores de Illinois idearon un método para evitar que esto ocurriera volviendo a la bateria capaz de desalinizar el agua permanentemente.

El profesor Kyle Smith afirmo que en las baterias convencionales, el separador permite que la sal sea dispersada desde el electrodo positivo hasta el electrodo negativo. Esto resulta ser un inconveniente si lo que se desea es eliminar la sal ya que limita el proceso., para solucionarlo es necesario colocar una membrada que impida el paso de iones de sodio entre los electrodos, de esta manera pueden ser aislados del lado que esta desalinizado.

Batería-de-Sodio-puede-ser-la-Solución-para-la-Desalinización-del-Agua

Los científicos realizaron un modelo para averiguar la eficiencia de estas baterias en concentraciones de sal iguales a las presentes en el agua de mar y afirman que es capaz de recuperar hasta un 80% del agua, sin embargo, el método no toma en consideración la contaminación que pueda estar presente en el agua, aunque ya de por si es un gran avance. Actualmente se encuentran realizando pruebas de esta tecnología en agua de mar real para observar su comportamiento.

Escanner 3d de bolsillo

Escanner 3d de bolsillo

La tecnología 3D ha estado muy de moda en los últimos años y permite a muchos desarrolladores independientes construir piezas y mecanismos a un precio muy accesible, sus aplicaciones son muy prácticas, dentro de ellas podemos destacar las prótesis médicas. Desde sus inicios muchas personas han desarrollado métodos bastante interesante de fabricación y modelado de objetos, sin embargo, para que la impresión 3D pueda llevarse a cabo primero se debe tener una serie de modelos digitales generados por algún software de diseño 3D, también es posible copiar un objeto ya existente mediante un scanner 3D.

Adquirir una impresora 3D está fuera del alcance de la mayoría de las personas y el uso de scanner 3D son muy costosos o no son capaces de capturar imágenes en alta resolución. Esta tecnología es relativamente nueva y por ende algo costosa, sin embargo, un equipo de la Universidad de Browm (EEUU) han desarrollado un algoritmo que abarata considerablemente los costos que implica el Scanner 3D y tiene el potencial de poner tal tecnología en nuestras manos de la manera más literal posible.

etri-scaner-3

Tal hazaña es posible gracias al uso de los Smartphone, en la actualidad casi el 40% de los teléfonos móviles activos del plantea son inteligentes y para el 2020 se estima que la cifra suba a no menos de un 70%.

Estos equipos básicamente recolectan la información geométrica de un objeto que luego será usada para generar un modelo tridimensional basándose en la posición en el espacio de cada punto recolectado. Simple en principio pero algo más complejo en la práctica. La recolección de la data puede realizarse de varias maneras, pero en este caso se usa el Escaneo sin contacto ya que se usa la cámara del Smartphone.

Existen varios inconvenientes en el escaneo 3D que el quipo tuvo que considerar. Si la data es recolectada sin sincronizar el proyector con los patrones a menudo las imágenes captadas estarán superpuestas. Algunas cámaras toman las imágenes desde diferentes puntos de vista y planos para luego enviarlas a la memoria mediante cadenas de pixeles, este método ofrece gran calidad de detalles pero si las imágenes son tomadas en tiempos ligeramente distintos puede ocasionar igualmente una superposición.

Gabriel Taubin y Daniel Moreno desarrollaron un algoritmo que estructura la luz emitida por el flash de una cámara de tal manera que no necesita que el proyector y la cámara estén sincronizados. La única condición necesaria, es que la cámara tenga pueda disparar la cámara en modo de ráfaga, mientras más fotogramas pueda disparar por segundo mejor definición tendrá el objeto escaneado. Lo anterior no es problema para las cámaras réflex digitales integradas en nuestros dispositivos móviles.

trimensional

 

Una vez capturadas las imágenes es posible modelar digitalmente un modelo 3D de un objeto por medio de un software, aunque quedaría resolver el problema de disponer de impresoras 3D para replicar los objetos, como toda tecnología emergente debemos esperar que los precios sean batidos en cada generación debido al fenómeno de la masificación, no estamos lejos de poder fabricar en casa las piezas necesarias para elaborar herramientas, mecanismos, juguetes etc. La imaginación del ser humano se encargara de poner un techo a este tipo de tecnología.

 

Desarrollan un nuevo Procesador Fotónico

Desarrollan un nuevo Procesador Fotónico

Un equipo de investigadores de la Universidad de Colorado han  afirmado haber desarrollado un nuevo procesador que utiliza haces de  luz para la transmisión de datos en lugar de impulsos eléctricos. Usar haces de luz en lugar de impulsos eléctricos contiene muchos beneficios en cuanto a velocidad de transmisión y uso eficiente de energía, pero complica de manera abrumadora la electrónica necesaria para manejar las señales. El uso más conocido de esta tecnología es la fibra óptica, aumenta de manera considerable la velocidad de transferencia de datos y es el método preferencial para los cables submarinos que interconectan todos los continentes del mundo.

procesador-luz

Los impulsos eléctricos pierden gradualmente su energía a medida que se desplaza por un medio conductor, el problema se agrava cuando la distancia entre los puntos es muy larga (como el caso de un continente a otro) ya que la resistencia intrínseca en el material puede atenuar por completo la señal y esta nunca llegaría al receptor. Este problema puede resolverse jugando la frecuencia y la potencia con la que el emisor envía la señal pero no es eficiente a nivel de consumo energético. Por otro lado, en tierra es necesario colocar repetidores que reacondiciona la señal para que pueda llegar de manera fiel al punto de destino, nuevamente implica un uso adicional de energía, por último, los cables constan de fibras conductoras que son propensas a generar impulsos parasito o señales no deseadas debido a campos electromagnéticos externos que de alguna manera u otra logran atravesar el material aislante y se mezclan con los impulsos eléctricos distorsionando la información.

Las ventajas del uso de haces de luz son muy convenientes, por un lado el medio conductor deja de ser un cable y pasa a ser un tubo muy delgado de vidrio que guía el haz de luz, este es completamente inmune a los campos electromagnéticos, los cambios de estado debido a la resistencia intrínseca del material es imperceptible y el uso de la energía es altamente eficiente. Ademas, el uso de luz eleva considerablemente la velocidad de transmisión de datos, puede llegar a ser cientos o miles de veces más rápidos que los circuitos convencionales.electronica-fotonica

Esta serie de ventajas implican unos retos en cuanto al diseño de hardware,  los decodificadores convencionales son muy lentos tanto para la transmisión como para la recepción de luz, es necesario decodificadores más rápidos que resultan ser mucho más complicados de diseñar y más costosos de fabricar. Por otro lado, aunque son inmunes a campos electromagnéticos que adulteren la información presentan vulnerabilidad ante la radicación. Pese a todo lo anterior, siguen siendo un método muy eficiente de transmisión.

El Chip creado por el equipo no es completamente fotónico, pero sus entradas y salidas si lo son, esto aumenta el ancho de banda y hace que los chips eléctricos parezcan tecnología obsoleta. El integrado es de apenas 0.2 cm2 y consta con dos núcleos y considerando que los procesadores convencionales están alcanzando los límites físicos y el desarrollo de microprocesadores cuánticos esta apenas en su etapa inicial, es una manera muy viable de elevar la capacidad de proceso sin tener que reinventar por completo esta tecnología.