sábado, 15 de enero de 2011

Ordenador 3D sin gafas... Fujitsu

Fujitsu ha anunciado su nueva computadora Todo en Uno Esprimo FH99/CM la cual viene equipada con un procesador Intel Core i7 2630QM de 2GHz y 4 núcleos, 4 GB de Ram DDR3, disco Duro de 2TB, Unidad de Blu-ray y acelerador de video integrado Intel HD 3000. Para mejorar la experiencia 3D el ordenador incluye un control remoto con sintonizador de TV.

En cuestiones de conectividad tampoco tenemos nada que desear: Puertos USB 3.0, Ranura para SD Card, Puerto de Red Ethernet, tarjeta wifi integrada y un puerto HDMI.

A partir del 25 de febrero estará a la venta en japón con un costo aproximado de 3 mil USD. Pero nos sabemos si se venderá solo en japón o lo llevarán al resto del mundo...

miércoles, 24 de noviembre de 2010

Un ordenador trabajando a cero grados

Cualquiera que haya hecho overclocking en su ordenador sabe que de la noche a la mañana puede encontrarse con una sorpresa. Un día con más calor de lo normal puede ser la diferencia entre un sistema estable y media docena de pantallazos azules. Pero larefrigeración no solo es importante para el usuario extremo, sino también para el que requiere de una terminal confiable y eficiente. Una vieja regla que algunos usuarios todavía obedecen dice que cuanto más "propietario" es el diseño de un ordenador, mayores son las posibilidades de que sufra problemas de refrigeración. Carcasas especiales, sistemas pasivos y una ventilación reducida representan un cóctel perfecto para colgar a cualquier sistema. Sin embargo, existen fabricantes y ensambladores que se toman la refrigeración y el overclocking muy en serio, tanto que ofrecen sistemas completos, funcionando al límite desde el comienzo.


La gente de Digital Storm, empresa estacionada en California y dedicada a la venta de ordenadores personalizados, ha presentado a su "Sub-Zero Liquid Chilled System", unsistema de refrigeración que permite a un ordenador operar a temperaturas inferiores a cero grados aún con un alto nivel de overclocking. El ordenador es el "Black-Ops Hailstorm", con una configuración que puede ir desde un procesador Core i7-950 hasta el monstruoso Core i7-980X de seis núcleos. Según la empresa, este procesador combinado con el Sub-Zero puede alcanzar un overclocking estable de 4.6 Ghz, una velocidad 1.3 Ghz superior a su reloj por defecto.

Por supuesto, la gran pregunta es cómo se alcanza dicha temperatura. El fabricante ha explicado que el Sub-Zero es una combinación entre un sistema de refrigeración líquida yrefrigeración termoeléctrica, lo que en la jerga conocemos como "coolers Peltier". A temperaturas tan bajas, la condensación se convierte en un problema muy serio, pero en Digital Storm evitan esto al aislar por completo el zócalo del CPU. El costo de la configuración "base" para el Hailstorm supera los 3.900 dólares, mientras que una personalización más elaborada puede llevar el costo final a unos escalofriantes siete mil dólares. Aunque cualquier entusiasta podría alcanzar el mismo efecto con una suma mucho menor (y tendría razón), cualquiera que desee un sistema "high-end" con lo último enrefrigeración y sin preocuparse por el presupuesto, ya puede obtenerlo sin siquiera apretar un tornillo.

Después de algunos minutos se formó una capa de hielo!

Detectan el objeto más luminoso del universo local

Esto es un no parar. Llevamos un año en que no dejan de aparecer acontecimientos estelares de gran interés y magnitud. Ahora le toca lucirse al telescopio Spitzer de la NASA, que ha encontrado un estallido de luz infrarroja tan grande que ha sorprendido a los astrónomos. Se trata del resultado de la colisión de dos titanes galácticos que debido a las altísimas cantidades de energía que desprende, su luz ha resultado diez veces más luminoso que el anterior estallido estelar más brillante conocido, la denominada Galaxia Antena. Los responsables del hallazgo, Hanae Inami y Lee Armus, del JPL (Jet Propulsion Laboratory) afirman que nos encontramos ante un evento de enorme interés porque demuestra que las fusiones de galaxias pueden desencadenarse alejadas de los centros galácticos respectivos, donde se acumula el polvo y gas que da lugar a la formación de estrellas.

Inami, Estudiante graduado en la Universidad de Postgrado para Estudios Avanzados en Japón y el Centro de Ciencia Spitzer en el Instituto de Tecnología de California lo deja claro: "Este descubrimiento demuestra que la fusión de galaxias puede generar destellos de gran alcance fuera de los centros de las galaxias padre”. Como primer autor del artículo publicado en The Astronomical Journal, Inami remata su comentario asegurando que “ La emisión de luz infrarroja de la erupción domina su galaxia anfitriona y rivaliza con el de las galaxias más luminosas que vemos que están relativamente cerca de nuestra casa, la Vía Láctea". Armus, segundo autor del artículo y un astrónomo de la investigación de alto nivel también en el Centro de Ciencia Spitzer, coincide con su compañero y afirma que "no importa cómo se mire, este estallido estelar es uno de los objetos más luminosos del Universo local".


El Spitzer detectó esta gran explosión sideral a unos 500 millones de años luz, en la constelación de Delphinus, donde se encuentra el grupo de galaxias que se está fusionando conocido como II Zw 096. Las tremendas fuerzas gravitacionales ya han desvirtuado la forma típica de espiral que poseen estas galaxias. Al menos a una de ellas, pero se estima que en pocos millones de años habrá acabado con la forma de molinete de la otra. El tamaño de este gigantesca explosión se cifra en unos 700 años luz, una porción ridícula dentro de los 50.000 o 60.000 años luz que mide el grupo de galaxias de referencia. Sin embargo, su potencia es tan grande, que el 80 % de toda la luz infrarroja emitida por este cúmulo estelar lo ocupa el mega-estallido.


El mutante de Neill Blomkamp [video]


Realidad o Ficción, Júzguelo usted...

Una cámara que captura lo que no está en su línea de visión


Como no podía ser de otra manera, una vez más un grupo de investigadores en el MIT planean crear algo extraordinario. Las cámaras de vídeo de hoy en día son capaces de captar lo que está frente a ellas con una definición excepcional, sin embargo, a pesar de que el rayo que emiten luego rebota por todos lados, no es capaz de captar cosas fuera de su campo de visión. El objetivo de estos investigadores es crear una cámara laser capaz de ver aquellas cosas que están tapadas por paredes u otros obstáculos.

El proyecto está siendo liderado por el profesor del MIT, Ramesh Raskar, y según explica, el objetivo es “rodear el problema, en vez de intentar atravesarlo.” Actualmente están llamando al sistema Femtosecond transient imaging system (Obtención de imágenes transitorias por laser de femtosegundo), cuyo funcionamiento explota la posibilidad de capturar luz en cortos períodos de tiempo. Al capturar continuamente la luz y calcular el tiempo y distancia que viajó cada pixel, la cámara puede crear una imagen 3D de la escena.

Y tal como explican los desarrolladores, el objetivo es aprovecharse de las técnicas de captura de imagen de alta velocidad, que “pueden conducir a una nueva fuente de percepción visual computada.” Para dar una idea de la velocidad a la que trabaja esta cámara, trata con femtosegundos, la unidad de tiempo que equivale a la milbillonésima parte de un segundo y es la fracción de tiempo más pequeña medida hasta el momento.

El proyecto aún se encuentra en una etapa muy temprana y el objetivo actual es llevar a cabo las mismas pruebas en escenas más complejas. Pero más allá de que todavía falta para verlo en acción, creen que puede tener varias utilidades, como buscar sobrevivientes en un edificio a punto de colapsar o evitar accidentes de tránsito en esquinas donde no se puede ver con claridad. También tienen pensadas varias aplicaciones médicas para la tecnología, pero todo eso llegará una vez que esté terminado, algo que creen que tomará un poco más de dos años.

lunes, 22 de noviembre de 2010

Científicos logran atrapar antimatéria

Un equipo del Laboratorio Europeo de Física de Partículas (CERN, por European Laboratory for Particle Physics) ha capturado por primera vez átomos de antihidrógeno, la forma más sencilla de antimateria. Se trata de un hecho trascendental para la física, ya que podría proporcionar pistas que nos permitan comprender por que, luego del Big Bang, el Universo solo conservó la materia, desechando la antimateria. La producción de partículas de antimateria es algo relativamente común en los laboratorios, pero juntarlas para obtener átomos de antimateria es mucho más difícil. Si bien en 2002 el mismo laboratorio había logrado producir átomos de este tipo, estos se aniquilaban de inmediato, dejando tras de sí un brillante destello de energía. Esto impedía a los físicos analizar sus propiedades. Pero en esta ocasión se crearon 38 átomos de antihidrógeno, que sobrevivieron durante una décima de segundo antes de aniquilarse con átomos de materia “normal”. A escala subatómica, una décima de segundo es una verdadera eternidad, por lo que este experimento le ha permitido a los científicos obtener una gran cantidad de información sobre las propiedades de estas extrañas partículas.


La antimateria se compone de partículas que poseen una carga inversa a la de las partículas convencionales. Cuando materia y antimateria se juntan, se aniquilan instantáneamente, en medio de un destello de energía. Esto hace que sea complicado “atrapar” antiátomos, ya que no puede utilizarse un “envase” compuesto de materia. Todos los modelos disponibles predicen que luego del Big Bang el Universo contenía cantidades similares de materia y antimateria. Por algún motivo, la materia se impuso mientras que la antimateria desapareció de la escena cósmica. Jeffrey Hangst, uno de los responsables del experimento, ha declarado que "suponemos que es posible retener la antimateria mucho más tiempo, y ya estamos trabajando en esa dirección.”

Produjeron 38 átomos de antihidrógeno (NSF)

El "modelo estándar" que utilizan los físicos sostiene que cada partícula -protones, electrones o neutrones, por ejemplo- tienen un “gemelo negativo” que es su antipartícula. Los investigadores del experimento ALPHA del LHC produjeron 38 átomos de antihidrógeno -compuestos por un antiprotón y un antielectrón– y mantenerlos estables. "Por razones que aún no conocemos, la naturaleza excluyó la antimateria", explica Hangst. Se trata de un misterio que ocupa a los especialistas desde hace tiempo, por que no hay -hasta donde sabemos- un motivo que origine esta asimetría. Las leyes de la física no hacen ninguna distinción, y la misma cantidad de ambas debería haber sido creada en el nacimiento del Universo. Sobre la forma en que se logró mantenerlos “a salvo” de la materia ordinaria durante ese lapso de tiempo, el científico explicó que “los átomos de antihidrógeno requieren de un tipo de campo particular. Los átomos son neutros -no tienen carga neta- y ligeramente magnéticos. Se puede pensar en ellos como si fuesen pequeños imanes, por lo pueden ser desviados utilizando campos magnéticos, así que construimos una 'botella magnética' alrededor de la cual producimos el antihidrógeno, en la que atrapamos los que se movían más lentamente.” Todos los datos obtenidos permitirán confirmar (o derrocar) el actual marco teórico que rige la física de partículas.

Intel busca procesador de mil núcleos


La evolución de los procesadores parece haber encontrado una buena porción de tierra firme con el incremento de los núcleos. De esta forma no sólo se aumenta su capacidad potencial, sino que también se mantiene la obediencia sobre la famosa Ley de Moore, aunque todos sabemos que su duración no será eterna. El gran detalle a tener en cuenta es el software. Siguen siendo pocos los ejemplos que pueden aprovechar al máximo todos los núcleos presentes en un chip, y los diferentes "modos Turbo" que existen en los nuevos procesadores tanto de Intel como de AMD son la prueba de ello. Sin embargo, en lo que se refiere a investigación y desarrollo, el software se encuentra altamente optimizado, y por esta razón es que Intel desarrolló el primer prototipo del SCC (Single-chip Cloud Computer), con un total de 48 núcleos.

De acuerdo a Intel, el chip tiene un diseño similar al de una "nube" de ordenadores, sólo que integrados sobre el silicio. Esta tecnología, además de mejorar la eficiencia energética y la comunicación entre núcleos, permite un alto nivel de "escalabilidad". Según el investigador de Intel Timothy Mattson, el SCC podría alcanzar un máximo de mil núcleos, solamente agregándolos. Ese sería el límite máximo del diseño, ya que al pasar los mil núcleos, la red de conexión inter-núcleo dejaría de ser óptima, impactando de forma negativa al rendimiento final del chip. Por supuesto, la escala no solo puede ir hacia arriba, sino también hacia abajo. El prototipo del SCC tiene 48 núcleos, pero nada le impediría a Intel crear unidades con menor cantidad de núcleos, alcanzando así un umbral térmico más bajo.

En esta clase de diseños, la administración de energía se vuelve algo crítico. Los entornos que utilicen al procesador podrán desconectar individualmente aquellos núcleos que no sean necesarios, o alterar su reloj de forma dinámica. Según Intel, el SCC puede operar con 48 núcleos a la vez con un máximo de 125 vatios, y un mínimo de 25. Cada bloque de dos núcleos tendrá su propia frecuencia, mientras que grupos de cuatro bloques compartirán un voltaje en común. ¿Seis voltajes diferentes en un sólo chip? Son muchos parámetros para ajustar en caso de querer hacer overclocking, pero no debemos olvidar que el SCC es apenas un prototipo. Habrá que esperar un poco más para que llegue a nosotros como una solución de escritorio.