Enlaces

miércoles, 3 de junio de 2009

Noticias de Ciencia y Tecnologia

Noticias de tecnologia


miércoles, 27 de mayo de 2009

Robot Con Cerebro Biologico


Crean robot con cerebro biológico
Se llama Gordon y tiene 300,000 neuronas de rata cultivadas e implementadas sobre una matriz de sesenta electrodos.
Se mueve y esquiva obstáculos gracias a estímulos neuronales


Científicos de la Universidad de Reading en Reino Unido -no podían ser otros- han creado el primer robot con un cerebro biológico.
Es "Gordon" -¿Por qué no podía ser mujer?- que con 300,000 neuronas de rata cultivadas e implementadas sobre una matriz de sesenta electrodos puede moverse y esquivar obstáculos gracias a estímulos neuronales.
Su cerebro se encuentra en una unidad especial con temperatura controlada independiente de la unidad del robot, que mediante Bluetooth manda señales de control -funciona como los hombres ¿no cree?.

La vida de las neuronas de ratas en un medio rico en nutrientes puede mantenerse a una temperatura constante y responder a los impulsos eléctricos recibidos de los sensores en las ruedas.
La información que recoge el pequeño robot mediante sensores, como la distancia entre, objetos la transforma en estímulos que se distribuyen entre las neuronas.

La finalidad del proyecto es para conocer más a fondo las enfermedades neurodegenerativas como el Parkinson o el Alzheimer, pero Ben Whalley, uno de los creadores de Gordon, considera que los resultados pueden utilizarse el día de mañana para mantener las células cerebrales de alguien que va a morir, para cultivarlas y vivir en un robot -al mejor estilo del Hombre Bicentenario.

Tal vez, en un futuro cercano, podríamos ver cerebros o cabezas dentro de un frasco con una sustancia azul-verdosa para mantenerlas mediante la criogenia sobre cuerpos robot, como en Futurama.

Robot Para Cuidar Abuelitos

¡Chinos hacen un robot para cuidar a nuestros abuelitos!



El hombre aparato de 1,6 metros de altura y que puede llevar comida y remedios, podría estar en las tiendas dentro de dos o tres años.


Si su miedo siempre ha sido quien cuidará a sus familiares más ancianos, no se preocupe, la tecnología lo puede todo, científicos chinos están afinando detalles para lanzar pronto al mercado un robot que cumplirá las labores de cuidado para personas mayores que viven solas.

Dentro de sus funciones, el robot podrá llevar comida y remedios, activar las alarmas en caso de que haya escapes de gas o agua, enviar mensajes de texto e incluso cantar canciones o jugar ajedrez, ¡increíble!, ¿no le parece?

Este hombre aparato, mide 1,6 metros de altura y podría estar disponible para la venta dentro de dos o tres años.

La idea de este proyecto fue un encargo del Gobierno chino a el instituto de Tecnología de Harbin, para encontrar una solución al rápido envejecimiento de la población china, de hecho ese país tiene 159 millones de habitantes con más de 60 años, por lo que éste invento hará aminorar la necesidad de unos 10 millones de asistentes sociales y enfermeras que se necesitan para atender a ese grupo de la población.

Si usted cree que está solución es inalcanzable para su bolsillo, no desespere, su costo no es elevado para una tecnología de este tipo, ya que rondará entre los 3 y 4 millones de pesos.

Combustibles Extraterrestres





¿COMBUSTIBLES EXTRATERRESTRES?
El investigador de la UNAM, Louri Taran, dijo que México podría ser punta de lanza para la invetigación de hidrocarburos abiogénicos, conocidos así por su origen extraterrestre. Se ha descubierto concentraciones de hidrógeno y carbono en restos de meteoritos y emanaciones en la isla mexicana Socorro. Ahí podría estar el "petróleo" del futuro.


Estudiarán hidrocarburos abiogénicos en México


Se han descubierto grandes concentraciones de hidrógeno y carbono en emanaciones volcánicas, como en la Isla Socorro
Hay compuestos de carbono e hidrógeno que no se originaron biológicamente, vinieron del espacio y quizá dieron origen a la vida en el planeta; podrían ser una alternativa energética y sustituir al petróleo o el gas natural, informó el investigador del Instituto de Geofísica (IGf) de la UNAM, Iouri Taran.
Los hidrocarburos, explicó, están compuestos de hidrógeno y carbono, y naturalmente se presentan en diversas modalidades, como el petróleo y el gas natural (uno pesado y otro ligero).
Sin embargo, también se ha detectado la presencia de este tipo de compuestos en los meteoritos.
Como su procedencia no puede ser orgánica han sido denominados abiogénicos y su estudio (junto con el de los cuerpos prebiogénicos o prebiológicos) es de interés para los geoquímicos y biólogos.
Se piensa que ahí está la clave para entender cómo surgieron los organismos animados en la Tierra, como se desprende de algunas de las tesis expuestas en el Seminario Origen de la Vida, que se celebró recientemente en El Colegio Nacional y que contó con la participación de algunos de los científicos más prestigiosos del mundo.
Actualmente, se discute sobre el origen del petróleo y la mayoría de los especialistas coincide en que es un producto biogénico.
Al respecto hay dos vertientes. Un grupo asegura que éste se genera en el manto terrestre sin intervención de procesos orgánicos, mientras que el otro argumenta que procede del espacio y, para demostrarlo, colecta muestras de gas para detectar fenómenos que no tienen origen biológico. Estas emanaciones de comportamiento extraño reciben el nombre de hidrocarburos abiogénicos.
Quienes defienden la primera teoría, afirman que no hay de qué preocuparse si se termina el petróleo y creen que basta con encontrar los huecos por donde se filtra al subsuelo para extraer más en cualquier momento.
Aquellos que estudian los gases abiogénicos, encontrados en los restos de meteoritos, en el fondo marino o en la superficie (como en los gases volcánicos de la Isla Socorro de México) de contados lugares alrededor del mundo, descubrieron que estos efluvios contienen grandes cantidades de hidrógeno, superiores a las registradas en compuestos de origen biológico.
Este hallazgo podría llevar al desarrollo de tecnología para su aprovechamiento en el consumo energético cotidiano, luego de que son expulsados por los manantiales submarinos, agregó el investigador de origen ruso.
Los trabajos al respecto son incipientes y aún falta mucho por conocer, pero México podría profundizar en su estudio debido a que en la Isla Socorro hay una fuente importante de hidrocarburos abiogénicos, concluyó.
Con información de la UNAM

Diez Mil Neuronas Pierde el Cerebro Cada Dia





DESCANSEN EN PAZ. El cerebro humano pierde diariamente unas 10 mil neuronas, de las 100 mil millones que tenemos. Éstas "mueren" por el efecto natural del envejecimiento y aunque existen fármacos para evitarlo, muchas veces resultan con efectos secundarios para el organismo. El abuso de drogas provoca una pérdida mayor, pues se incrementa hasta 50 veces.


Pierde cerebro humano, 10 mil neuronas diarias


Está asociado con el efecto natural del enevejecimiento, pero el abuso de drogas eleva la cifra 50 veces
La muerte de las neuronas es un proceso natural de envejecimiento y se calcula que al día una persona de entre 20 y 30 años de edad pierde alrededor de 10 mil neuronas, es decir, al año desaparecerán unos tres millones y medio.
Aproximadamente, el ser humano tiene 100 mil millones de neuronas, por lo que la pérdida natural es poco considerable, informó el investigador del Instituto de Fisiología Celular (IFC) de la UNAM, Julio Morán Andrade.
La muerte de esas células como un proceso fisiológico y natural ocurre en el desarrollo del sistema nervioso del ser humano, cuando se eliminan alrededor del 50 por ciento de ellas; no obstante, este proceso es armónico y ordenado, y genera las bases para establecer un cerebro maduro y funcional.
Células extremadamente especializadas
Las neuronas son células que forman parte del sistema nervioso. Se encargan de procesar la información que regula una gran cantidad de funciones básicas y complejas. Los tipos y las funciones realizadas son diversos, lo que se refleja en la existencia de una proporción elevada de genes exclusivos de este tejido, así como en un alto grado de especialización.
Las neuronas dependen de otras células y para subsistir requieren de un aporte directo energético de glucosa y oxígeno. Cualquier situación que afecte mínimamente su homeostasis puede llevarlas a la muerte.
Si un infarto cerebral se prolonga por largo tiempo, se produce una reducción crítica en el aporte de glucosa y oxígeno, y esas células inician su deterioro. Para retrasarlo, una de las prácticas es la reducción de la temperatura del cerebro, lo que ayuda a estabilizar y evitar que se propague la muerte neuronal, explicó el investigador.
Existen otras condiciones que se asocian a la muerte patológica, como el envejecimiento, observable en pacientes con enfermedades neurodegenerativas como Alzheimer y Parkinson, entre otras.
El abuso de drogas disociativas como la ketamina o inhalantes también provoca una mengua considerable, y se calcula que la propensión a perderlas, comparada con el proceso natural, aumenta entre 30 y 50 veces, con efectos directos en la fisiología y conducta del individuo, añadió el jefe del Departamento de Neurociencias.
La combinación de estupefacientes puede ser devastadora, más en el caso de una mujer embarazada, porque se podrían generar malformaciones o alteraciones en las capacidades intelectuales del producto.
El sistema nervioso puede estar expuesto a condiciones ambientales dañinas, como ocurre en ciertas comunidades donde el agua puede estar contaminada con metales pesados como arsénico, plomo o manganeso, entre otros.
El efecto puede ser a mediano o largo plazos, pues esos componentes se acumulan en el organismo hasta generar un estado tóxico, que puede incluir un estrés oxidativo que deriva en el deceso de grupos neuronales. La polución ambiental también influye porque el aire puede contener esas partículas, especificó.
A nivel molecular, uno de los eventos que pueden provocar estas condiciones patológicas por toxicidad es el estrés oxidativo. En condiciones normales, el cerebro cuenta con una serie de mecanismos que permiten enfrentar esta situación; no obstante, existen factores que la complican, como el metabolismo de las neuronas, que es alto comparado con otras células y, por ende, utiliza una mayor cantidad de oxígeno.
Además, esas células tienen membranas con alto contenido de ácidos grasos insaturados, los sistemas antioxidantes no son eficientes y algunos grupos neuronales tienen niveles significativos de fierro, lo que promueve la generación de estrés oxidativo; si a esta condición se aúna la acumulación de compuestos tóxicos, ciertas drogas e incluso el envejecimiento natural, las condiciones oxidantes pueden resultar dañinas.
Se han desarrollado fármacos que contrarrestan las consecuencias; en algunos casos son útiles y en otros derivan en efectos secundarios indeseables. Por ello, a nivel mundial se perfeccionan medicamentos que pudieran detener ese proceso, concluyó

Satelite Colombiano en el 2012


Colombia tendrá satélite en 2012
El proyecto del satélite colombiano SATCOL ayudará a mejorar la conectividad entre las entidades del país.Este satélite tiene un costo cercano de 230 millones de dólares y será financiado con recursos del Fondo de Comunicaciones, para mejorar el acceso a las cerca de 40 mil sedes de entidades oficiales ubicadas en la Orinoquía, Costa Atlántica, Amazonía entre otras, para que puedan conectarse a la red, convirtiendo al satélite como una forma de las formas de interconexión.
Según projecciones del Plan de Desarrollo Nacional, prevé que para el 2019 esas sedes públicas tengan penetración a la Internet.
La ministra de Comunicaciones, Maria del Rosario Guerra, se mostró optimista ya que éste será “un gran salto da Colombia con un satélite propio para asegurar la conectividad a Internet en las regiones apartadas donde en el mediano plazo no es fácil el despliegue de la infraestructura para masificar las Tecnologías de la Información y las Comunicaciones (TIC), en todo el territorio nacional”, aseguró.
Se estima que el inicio de selección se dará en julio de este año y la firma para la construcción y lanzamiento para finales del 2009. SATCOL estará en órbita a comienzos del 2012 y su vida útil será de 15 años.

Vivir en Otro Pais Aumenta la Creatividad

Vivir en otro país aumenta la creatividad

Una serie de investigaciones realizadas por un profesor de la Kellogg School of Management, en los Estados Unidos, ha puesto de manifiesto que los directivos que han tenido que vivir en el extranjero o adaptarse a otra cultura son más creativos y tienen la mente más abierta a la hora de dar con la solución de un problema.

Los resultados de esta investigación llegan en un momento en el que las empresas están recortando gastos y centralizan sus oficinas, por lo que los viajes o permanencias en el extranjero de sus directivos se han reducido.

El estudio advierte que es importante tener en cuenta sus resultados, sobre todo para mantener la innovación y la creatividad de aquellos trabajadores que, precisamente, "viven" de su creatividad.

Vivir en otro país puede ser una experiencia muy gratificante.

Una nueva investigación asegura, además, que puede ayudar a los directivos a abrir sus mentes y a ser más creativos. A esa conclusión llega el estudio a cabo por el profesor comportamiento organizativo de la Kellogg School of Management William Maddux.

La investigación ha sido publicada por la American Psychological Association y es la primera de esta naturaleza que se adentra en la relación que hay entre vivir en el extranjero y la creatividad.

Esta tesis llega en momento en el que las empresas recortan gastos y centralizan sus oficinas. Toda una paradoja si tenemos en cuenta que el contexto comercial obliga a los directivos a viajar.
"Aumentar el conocimiento en culturas extranjeras ha sido una prescripción clásica para artistas interesados en estimular su imaginación o afinar su oficio. Pero, ¿vivir en el extranjero hace que la gente sea más creativa?", se pregunta Maddux en un comunicado. "Es una pregunta recurrente que creo que hemos empezado a responder a través de este estudio".

Los investigadores realizaron cinco experimentos distintos en este sentido. En el primero de ellos, a varios estudiantes MBA de la Kellogg School se les pidió que resolvieran el problema de las velas de Duncker, un test clásico de creatividad.

En este problema, se presentó a los participantes tres objetos en una mesa situada cerca de una cartulina colgada en la pared: una vela, una caja de cerillas y una caja de chinchetas. La finalidad era pegar la vela en la pared de tal modo que prendiera de manera correcta y sin gotear cera sobre la mesa. La respuesta correcta está relacionada con usar la caja de chinchetas como candelabro.

La solución está considerada como una medida de la creatividad, ya que tiene que ver con la habilidad para ver los objetos desempeñando un papel muy diferente para los que fueron pensados. Los resultados muestran que aquellos estudiantes que vivieron en el extranjero tenían más posibilidades para dar con la solución más creativa.

Vender una gasolinera

En otro estudio, los investigadores simularon una negociación para la vender una gasolinera. En la negociación, un acuerdo basado sólo en el precio era imposible porque el precio mínimo que el vendedor estaba dispuesto a aceptar era mucho mayor de lo que el comprador estaba en disposición de pagar. Dado que las dos partes estaban muy interesadas, el acuerdo sólo sería posible gracias a la creatividad para casar ambos intereses.

En este caso, y una vez más, los negociadores con una experiencia en el extranjero daban más fácilmente con una solución creativa y satisfactoria para las dos partes. En los dos estudios descritos, la cantidad de tiempo vivido en el extranjero no tenía nada que ver, tan sólo el hecho de haber vivido en otro país estaba realmente relacionado con la creatividad.

Maddux llevó a cabo un nuevo estudio para saber por qué se producían estos resultados. Con un nuevo grupo de estudiantes MBA en el INSEAD en Francia, descubrió que cuanto más se adaptaron éstos a una cultura extranjera más probabilidades tenían de resolver el problema de Duncker.

Trabajo personal

"Esto muestra que hay algún tipo de transformación psicológica cuando alguien vive en el extranjero para que aumente su creatividad. Esto puede ocurrir cuando la gente trabaja para adaptarse a esa nueva cultura", comentan.

Para desentrañar el mecanismo, los investigadores aplicaron una técnica llamada "priming". En dos experimentos, pidieron a dos grupos de estudiantes de la Sorbona parisina que escribieran algo sobre el tiempo que vivieron en el extranjero. A otros grupos, sin embargo, se les pidió que escribieran sobre otras experiencias, como ir al supermercado o aprender un deporte, pero no sobre adaptarse a otra cultura.

Los resultados muestran que los estudiantes que recrearon mentalmente sus experiencias pasadas en otro país eran más creativos. Por ejemplo, estos estudiantes resultaron ser más diestros a la hora de resolver crucigramas.

"Esta investigación tiene algo que decir sobre el creciente impacto de la globalización en el mundo, un hecho que se ha visto afectado por la reciente crisis financiera", comenta Maddux. "Saber que la experiencia en el extranjero es clave para la creatividad hace que la asignación de trabajo en otros países sea muy importante, sobre todo para la gente que necesita mantenerse creativa o innovando para mantenerse competitiva", remarca.

GPS pueden fallar en el 2010


Sistema GPS podría fallar en 2010

Los militares estadounidenses ya no pueden mantener de forma correcta los satélites y prevén que desde el año 2010 el sistema podría empezar a fallar.

La tecnologia GPS existe hace muchos años, su uso masivo empezó en 1996. Hoy en día esta es una herramienta fundamental a la hora de querer conocer alguna ubicación, esta tecnología se ha incorporado en computadores, autos, motos y hasta en celulares.

Pero hace pocos días se dio a conocer una noticia que generó incertidumbre mundial, ya que desde el año 2010 el sistema de GPS mundial podría empezar a mostrar sus primeros síntomas de falla, esto se debe a que los militares estadounidenses no puede mantener de forma correcta sus satélites, si bien en primera instancia fue creado con fines militares, con el correr de los años se masificó.

La fuerza aérea de EE.UU es la encargada de mantener estos sistemas, ellos proyectaban lanzar un satélite de repuesto para el que dejará de funcionar hace ya dos años, pero se ha demorado y será lanzado recién en Noviembre de este año.
En la actualidad sería realmente difícil volver a la época en donde se tenía que recurrir a los mapas para ubicar carreteras y calles.
Hoy en día prácticamente todos los medios de transporte llevan un GPS integrado para poderse ubicar; así mismo en Chile tenemos celulares que tienen dicha ventaja como el iPhone 3G.

Super Telescopios




SUPER-TIERRAS.

Gracias a los avances en materia de telescopios, como el Hubble, todos los días se encuentran planetas más grandes que la Tierra fuera de nuestro sistema solar.

A 400 años de las observaciones de Galileo, los expertos esperan con ansias el telescopio Darwin, de la ESA, el cual será capaz de detectar si hay atmósfera en las llamadas "Super-Tierras".


Nuevos telescopios podrían detectar hasta atmósfera en otros planetas

Cada día se localizan más planetas fuera del sistema solar. Los denominan "Super-Tierras", porque son más grandes que la tierra y podrían ser similares

Ciudad de México

Fuera del Sistema Solar existen planetas conocidos como "Súper Tierras" que tendrían las condiciones adecuadas para albergar vida, planteó la investigadora del Instituto de Ciencias Nucleares (ICN) de la UNAM, Antígona Segura Peralta.

En la conferencia Crónicas Extraterrestres, efectuada en el marco de la celebración del Año Internacional de la Astronomía y el aniversario de los 400 años de las primeras observaciones de Galileo Galilei, la astrobióloga detalló cómo es que los científicos buscan organismos extraterrestres en el espacio.

En una charla de divulgación impartida a alumnos de maestría y doctorado, a la que asistieron especialistas como el astrónomo Arcadio Poveda Ricalde, Segura Peralta explicó que fuera del Sistema Solar se han encontrado cientos de planetas (a diario se halla uno nuevo), de los que sobresalen unos tan grandes que el más pequeño es 14 veces mayor que la Tierra.

Cada uno tiene actividad geológica (necesaria para que se genere vida) y podría estar cubierto por océanos.

Sin embargo, estudiar las "Súper Tierras" es sumamente complicado, porque se trata de cuerpos localizados más allá del campo visual de los aparatos más sofisticados.

No obstante, este año será lanzado un instrumento que aunque no responderá a la incógnita sobre si hay vida en el cosmos, determinará qué planetas cercanos tienen un tamaño mayor al de la Tierra y menor al de Júpiter (dimensiones que lo harían habitable), indicó.

Este telescopio, llamado Kepler, medirá un metro y dispondrá de un fotómetro capaz de observar varias estrellas que hará análisis más rápidos que los que se venían realizando con objetivos tradicionales, que sólo se enfocan en un astro.

Actualmente, hay aparatos que sondean el espacio en pos de estos cuerpos celestes, como el Spitzer, que pesa 10 kilogramos, mide sólo 27 centímetros y es utilizado en misiones de astrosismología.

Sin embargo, los que resultarán más útiles para los astrobiólogos son el Proyecto Espacial Darwin, de la Agencia Espacial Europea (ESA), y el TPF (siglas en inglés de Buscador de Planetas Terrestres), que buscan cuerpos masivos para determinar si tienen atmósfera o no.

Así, la especialista explicó que será a través de aparatos como se indagará si hay más organismos en el universo, y añadió que la vida extraterrestre es un concepto mucho más amplio de lo que hace creer la ciencia ficción, que sólo describe a seres humanoides y civilizados, cuando en realidad esta noción es infinitamente más amplia.

domingo, 10 de mayo de 2009

Descubren Planeta Como Jupiter

Descubren un planeta del tamaño de Júpiter




Han descubierto un planeta del tamaño de Júpiter. ESPECIAL

Esté planeta está próximo a una estrella como el Sol

El nuevo mundo due bautizado como HD80606b

Cuando en esa órbita el planeta alcanza el punto más lejano a la estrella, esa distancia es como la que separa a la Tierra del Sol

LONDRES, INGLATERRA.- Un grupo de astrónomos han descubierto un planeta del tamaño de Júpiter que gira alrededor de una estrella similar al Sol, informó hoy la cadena pública británica BBC.

El nuevo mundo, bautizado como HD80606b, se mueve por una órbita elíptica inusual alrededor de esa estrella, según explicaron los expertos, del University College de Londres, en una conferencia celebrada en Hertfordshire, al norte de Londres.

Cuando en esa órbita el planeta alcanza el punto más lejano a la estrella, esa distancia es como la que separa a la Tierra del Sol (132 millones de kilómetros).

Sin embargo, cuando el planeta se coloca en el punto más próximo, la distancia es diez veces menor que la que separa a Mercurio del Sol (cinco millones de kilómetros).

Según el estudio de los astrónomos, HD80606b se sitúa en el punto más cercano a la estrella cada 111 días.

Si en ese "doble" de Júpiter, una persona mirase al cielo, vería una estrella treinta veces más grande que el Sol, indicaron los expertos, que observaron el tránsito de ese nuevo mundo al cruzarse frente a la estrella.

Del estudio de ese trayecto espacial, los especialistas del University College extrajeron datos sobre el tamaño, la densidad y la inclinación del planeta, así como sobre la excentricidad de su órbita.

De esa manera, los astrónomos están convencidos de que, entre todos los planetas observados en tránsito, HD80606b bate de entrada dos marcas: tiene el periodo orbital más largo y la órbita más rara.

Además, "la temperatura en el planeta varía entre los tres grados centígrados que podrían registrarse en la Tierra y los 1.200 grados centígrados. Por tanto, se produce un enorme cambio en la cantidad de calor", dijo David Kipping, uno de los investigadores.

Según el director del grupo investigador, Steve Fossey, "la inusual órbita del planeta podría explicarse porque la estrella matriz puede ser miembro de un sistema binario".

De esa manera, concluyó Fossey, "la estrella compañera ha empujado a la órbita del planeta durante millones de años para darle la extraña configuración que vemos hoy".

Preparan Vuelos A Marte

Preparan vuelos tripulados a Marte



Imagen del piso de Marte. EFE

Los vuelos serán en cavernas de desierto chileno de Atacama

El proyecto Programa de detección de cavernas Tierra-Marte, expedición al Desierto de Atacama se divide en varias fases de 2008 a 2010

SANTIAGO DE CHILE.- Científicos de la NASA analiza posibles escenarios y realizan primeras pruebas en el desierto chileno de Atacama para realizar en el futuro posibles viajes tripulados a otros planetas como Marte, informa hoy el diario El Mercurio.

La sequedad, alta radiación ultravioleta y vientos asociados a violentas tormentas que pueden degradar y descomponer materiales orgánicos se asemejan a la superficie marciana, señalaron los científicos que se encuentran en la zona considerada más árida del planeta.

Son ocho científicos de la NASA y universidades asociadas, encabezados por el biólogo Judson Wynne, que investigan de modo permanente ocho cavernas abiertas en sal, yeso y sedimentos ubicados en la Reserva Nacional de Los Flamencos, a unos 1.600 kilómetros al noreste de Santiago.

En opinión de los expertos que con sensores miden la temperatura, presión y humedad de las cavernas, éstas son un laboratorio natural, con escenarios comparables a los que habría en la superficie marciana y que enfrentarían futuros astronautas-exploradores.

El proyecto "Programa de detección de cavernas Tierra-Marte, expedición al Desierto de Atacama" se divide en varias fases de 2008 a 2010. El equipo de Wynne llegó a la zona en 2008.

Los habitantes de la localidad cercana de San Pedro de Atacama describen como "impactos de meteoritos" a las cavernas ubicadas en la Cordillera de la Sal

Sin embargo éstas conforman un sistema conectado, con longitudes que van desde un kilómetro hasta algunos cientos de metros, en donde incluso de han encontrado huesos de camélidos.

En tanto, Guillermo Chong, líder de un equipo de geólogos de la Universidad Católica del Norte que apoyan los trabajos de los estadounidenses, explica que se busca definir cómo se realizarán las misiones y los instrumentos adecuados para detectar cuevas en Marte y estudiar indicios de vida.

Ello permitirá determinar si es factible instalar un asentamiento permanente en Marte, explicó el experto.

En una primera fase se usarían las cavernas como refugios para luego instalar viviendas que soporten las condiciones climáticas extremas de la superficie, agregó Chong.

Explicó que ya se pudo perfeccionar técnicas cartográficas para hacer mapas e identificar cuevas con accesos desde el exterior desde tragaluces, que entregarían indicios sobre la existencia de vida.

En la segunda fase, en desarrollo, se indagan diferencias térmicas en las cavernas, entrada y zonas interiores, donde sería más estable, para contrastarlas con el exterior y la presencia de agua en el subsuelo.

sábado, 9 de mayo de 2009

Asi Sera La Tecnologia

Así será la tecnología del futuro

En una década y media, las computadoras personales podrían ser muy distintas a los modelos actuales.

Por esas fechas, es muy probable que ya se haya abandonado por completo el silicio como fundamento de los más avanzados procesadores, pues no se podrán integrar más transistores en un solo chip elaborado con ese elemento.

Podría comenzar entonces una nueva era de la computación, gracias al desarrollo de la nanotecnología. Por Hugo Sandoval de El Universal.

Hoy día, todos los PC operan mediante dígitos binarios conocidos como bits. El código binario es conducido a través de transistores: pequeños interruptores que pueden encenderse o apagarse para simbolizar series de "unos" y "ceros".

Las futuras computadoras cuánticas emplearían un fenómeno físico conocido como "superposición", donde objetos de tamaño infinitesimal, como los electrones, pueden existir en dos o más lugares al mismo tiempo.

Esto significaría que las futuras computadoras creadas con procesadores "superpuestos", podrían utilizar bits cuánticos (llamados "qubits": quantum bits).


Un qubit tiene la capacidad de representar ambos estados: un "0" y un "1" en forma simultánea.

Al ser capaces de calcular cada combinación de encendido y apagado de manera paralela, las computadoras cuánticas serían increíblemente más rápidas que los procesadores actuales, pues tendrían una enorme capacidad de procesamiento.

Se estima que operarían a velocidades hasta mil veces mayores que las presentes.

Alberto Galindo, académico del departamento de Física Teórica de la Universidad Complutense de Madrid, es enfático al respecto: "Al igual que la sociedad usuaria de los mastodónticos ordenadores de finales de los 40, con miles de tubos de vacío y decenas de toneladas de peso, no se imaginaba que medio siglo después cualquier colegial dispondría de máquinas de calcular mucho más ligeras y potentes, queremos pensar que el ingenio de los científicos logrará vencer finalmente las dificultades para construir ordenadores cuánticos de potencia adecuada".

Entre algunas de sus principales ventajas, estos increíbles equipos tendrían una potencia mucho mayor para la encriptación de información; permitirían una búsqueda más rápida en gigantescas bases de datos; posibilitarían el desarrollo de productos digitales seguros (como firmas digitales e incluso dinero electrónico a prueba de fraudes), y simularían complejísimos sistemas bioquímicos para el diseño de medicamentos

Redes Opticas Digitales En Movimiento



Redes ópticas digitales en movimiento

Infinera se pondrá en marcha esta primavera con el Infinera Express, una unidad de demostración itinerante equipada con los sistemas más avanzados de Infinera.
El Infinera Express ha comenzado su ronda europea en Londres y las siguientes paradas se realizarán en Reino Unido, España, Francia, Alemania, Italia y Benelux.

El Infinera Express está acondicionado con los sistemas más innovadores de Infinera para llevar la experiencia de Redes Ópticas Digitales (DTN) de Infinera a la puerta de todos los clientes.
El DTN de Infinera, basado en los primeros circuitos integrados fotónicos (PICs) de gran escala disponibles en el mercado ofrecen una velocidad de hasta 1,6 Terabits por segundo sobre un canal de fibra cuya escalabilidad, flexibilidad y facilidad de uso son incomparables.
Los PIC de Infinera ofrecen ventajas muy sustanciales en términos de escalabilidad, flexibilidad y velocidad de operación, así como en eficiencia energética.
Los sistemas de Infinera utilizan la arquitectura Bandwidth Virtualization™ de Infinera, diseñada para poder ofrecer cualquier servicio -como es el caso de los servicios de 40 Gigabits/segundo (Gb/s) que ya ofrece actualmente, y los de 100 Gb/s del futuro-, sobre cualquier infraestructura de red.
El Infinera Express también incorpora la Infinera Management Suite, una suite de software potente y escalable que facilita el despliegue, aprovisionamiento y monitorización del rendimiento de las redes.
La gestión de red de Infinera basada en GMPLS automatiza muchos de los procesos involucrados en la gestión y configuración de la red.
El Sistema de Planificación de Red de Infinera dispone de capacidades de modelado gráfico, planificación y configuración para diseñar soluciones basadas en la Red Optica Digital de Infinera.
Todas estas herramientas pueden verse en acción en el Infinera Express. Además, los ingenieros de Infinera podrán demostrar la simplicidad y la rapidez del sistema de Infinera, que permite el despliegue de grandes redes de tecnología óptica con unos pocos clicks de ratón.
La demostración enseña cómo una infraestructura con capacidad de transmisión de 100 Gigabyte puede ponerse en marcha y estar operativa en cuatro minutos o menos.
Los visitantes tendrán la oportunidad de probar por sí mismos a poner en marcha y configurar una de estas redes sobre un enlace de Infinera en el Express.
"El Infinera Express está totalmente equipado para proporcionar a los clientes una experiencia práctica sobre el DTN de Infinera y la Infinera Management Suite", ha manifestado Tom Schmitt, Vicepresidente de Infinera para Europa, Oriente Medio y África.
"Se trata de una potente demostración de las funcionalidades y capacidades de la arquitectura de Infinera, que nuestros clientes van a poder disfrutar prácticamente en su propia casa."

Tecnologia Para Recordar

TECNOLOGIA PARA RECORDAR

En medio del crecimiento de la tecnología moderna con tantos aparatos y adelantos, tales como la calculadora de bolsillo, la primera computadora compacta, el disco compacto (CD) para almacenamiento digital de audio, la primera computadora personal, el primer libro en CD, el advenimiento avasallante del “Ancho mundo de la Internet”, los teléfonos celulares y el desarrollo de la alta Tecnología Medica tales como los equipos de ultrasonido y las imágenes por resonancia magnética, etc.

Dedicaremos este espacio para conocer mejor los beneficios que proporcionan los satélites artificiales y el comienzo de la era atómica.

Los satélites artificiales y la tecnología moderna

Al referirnos a los satélites artificiales, como parte de la tecnología moderna, y una de las más adelantadas realizaciones del intelecto humano, no podemos dejar de recordar al físico inglés Isaac Newton (1642-1727) quien en su obra señera describió perfectamente en términos matemáticos aún válidos, de qué modo el Sol y sus planetas, se atraían entre sí, formulando en esa ocasión su famosa “ley de la gravedad universal”.

En base a tales leyes puede el hombre colocar en órbita los instrumentos por él lanzados en torno a la Tierra.

Si en un punto que llamaremos A se imprime una velocidad de 7.900 m/s al cuerpo que se quiere convertir en satélite, su movimiento en el espacio se producirá a lo largo de una órbita que no se encuentra con la superficie terrestre.

Después de la segunda guerra mundial se diseñaron proyectiles-cohete cada vez más potentes y precisos.

Fue entonces creado el proyecto americano “Vanguard”, que preveía la puesta en órbita de una pequeña esfera con instrumentos de la ya existente tecnología moderna.

Cuando de pronto desde el espacio llegó un “bip-bip” que preocupó al mundo entero, por creerse que éste provenía del espacio exterior y que era totalmente ajeno al ser humano.

El primer satélite artificial, el denominado “Sputnik”, había sido lanzado por Rusia el día 4 de octubre de 1957.

La importancia de los satélites artificiales

Explicar todos sus usos y utilidades sería muy largo. Así que hablemos sólo de los más importantes.

Ante todo, los satélites desarrollan un trabajo de observación muy útil sobre las altas capas de la atmósfera, y por lo tanto, sobre el espacio extra atmosférico.

Estudian los rayos cósmicos, los micro meteoritos, etc., y preparan, de ese modo, el camino de los viajes espaciales del futuro.

Para los usos terrestres hacen de puente de radio en las comunicaciones de radio y televisión.

Todos habrán oído hablar del famoso Early Bird (Pájaro del Alba), el primer satélite comercial y un ejemplo de la tecnología moderna, utilizado para las trasmisiones de los programas de televisión.

Además de las inevitables utilizaciones militares (satélites espías), los satélites artificiales se emplean también para la asistencia de la navegación, de los submarinos y de los aviones.

Se habla desde hace tiempo de espejos solares orbitales capaces de facilitar energía para la desalinización del agua de mar o de observatorios de astronomía colocados por encima del inestable y opaco espesor del aire.

Actualmente, los satélites con mayor tecnología moderna, son lanzados casi exclusivamente por los Estados Unidos y por la Unión Soviética, pero existen también algunos programas europeos que ya han obtenido óptimos resultados.

El espacio y el hombre

Los satélites artificiales han prestado valiosos servicios y contribuido sobremanera al progreso de la ciencia y la tecnología moderna.

Aunque su tarea se desarrolla completamente en el espacio, sus resultados influyen cada vez más sobre nuestra vida terrestre.

La necesidad de construir satélites complejos y livianos ha contribuido a desarrollar una técnica constructiva que se denomina micro miniaturización.

Gracias a esta técnica ha sido posible construir pequeñísimos aparatos electrónicos que, insertados bajo la piel, regulan el ritmo cardíaco de los enfermos del corazón. Igualmente se han construido aparatos para facilitar la audición a quienes oyen mal.

La necesidad de fabricar materiales resistentes a las altas temperaturas ha dado grandes resultados.

Hoy existen materiales livianísimos y muy resistentes que forman parte de la tecnología moderna; utilizados en la industria, frutos de esta búsqueda.

Incluso en minería se utilizan algunas técnicas de excavación que se basan en experiencias espaciales.

El continuo perfeccionamiento de las calculadoras electrónicas, debido a la complejidad de los vuelos cósmicos, ha permitido una gran difusión de estas maravillosas máquinas.

Y esto ha influido muchísimo en la vida del hombre del futuro.

La era atómica

Durante casi dos mil años, los científicos creyeron que los átomos eran pequeñísimas partículas indivisibles de las cuales se componía toda la materia.

John Dalton, abriendo una inmensa brecha hacia el desarrollo de la tecnología moderna, demostró que la materia, en todos sus aspectos, está compuesta por pocos elementos.

Combinando átomos de elementos distintos es posible obtener las diversas sustancias conocidas. Hasta el siglo XIX se conocía en la naturaleza sólo 92 elementos.

¡El hierro era hierro y nadie podía convertirlo en otro metal! Pero a fines del siglo algo cambió.

Pierre y Marie Curie, en noviembre de 1898, descubrieron la radioactividad y el concepto del átomo indivisible sufrió un duro golpe. El átomo era, pues, divisible y transformable.

La luminiscencia observada por los Curie se debía, efectivamente, a partículas de energía emitidas por el átomo mismo.

De tal modo, el átomo se consumía en una transformación de materia de energía. Era realmente un descubrimiento revolucionario y que mucho colaboraría con el desarrollo de la ciencia y la tecnología moderna.

La transformación de la materia y el poder de la energía atómica

En 1919, Ernest Rutherford (1871-1937) logró “bombardear” átomos de nitrógeno con rayos alfa.

Cuando una partícula alfa golpeaba un núcleo de nitrógeno, éste se rompía liberando algunos de sus siete protones.

Alguno de estos protones liberados “capturaba” un electrón transformándose en un átomo de hidrógeno.

El experimento de Rutherford fue extremadamente importante.

Los progresos sucesivos para la utilización de la energía atómica (importantísima dentro de la tecnología moderna) llegaron con el descubrimiento del “neutrón”, partícula sin ninguna carga eléctrica contenida en todos los núcleos de los átomos, salvo el hidrógeno.

En la combustión se produce una reacción química: los átomos de algunas sustancias se combinan entre sí para formar nuevas sustancias, pero sus núcleos permanecen inalterables.

Pero cuando se rompe un núcleo atómico, la materia misma, es decir, la masa, se transforma en calor. Albert Einstein fue el primero que previó la enorme energía encerrada en el núcleo atómico.

La terrible confirmación del poder de semejante energía tuvo lugar el 6 de agosto de 1945, cuando un avión americano dejó caer una bomba atómica sobre la ciudad japonesa de Hiroshima, matando a casi 100.000 personas y destruyendo completamente la ciudad.

En este caso se hizo uso de una invención de la tecnología moderna de modo terrible y nefasto.

diNovo El Nuevo teclado



Logitech presenta sorprendente diseño en teclados

El teclado de Logitech diNovo Edge recargable integra diseño ultra delgado, TouchDisc integrado e iluminación dinámica.
Su precio sugerido de venta es de US$199.99 dólares en Estados Unidos.

- Logitech dio a conocer el teclado Logitech diNovo Edge, una mezcla de diseño refinado e innovación.
Siguiendo el diseño heredado del galardonado diNovo Media Desktop original de Logitech (2003), el diNovo Edge refleja la creciente importancia y visibilidad de la PC en el hogar de hoy.
Hecho para verse y tocarse, el nuevo teclado, con un acabado brilloso, está cortado con láser de una sola pieza semi-translúcida de Plexiglas negro y tiene un marco de aluminio cepillado.
Su estilo minimalista es más evidente en el número limitado de botones y los iconos dinámicos iluminados integrados al teclado, que son invisibles cuando no están iluminados.
Considerando las muchas innovaciones y tecnología avanzada del teclado, este diseño atractivo parece imposiblemente delgado con sólo 7.62mm de espesor.

Algo totalmente novedoso en tecnología, el diNovo Edge es el primer teclado recargable de Logitech, integra un panel de navegación sensible al tacto e incluye la tecnología inalámbrica Bluetooth®.
Su fusión de tecnología avanzada y estética añade una sensación de prestigio a cualquier estudio u oficina.
Asimismo, hace del teclado la adición perfecta para la sala, donde cada vez más gente utiliza sus computadoras.
“El diNovo Edge es el teclado más bello y elegante que hemos hecho”, aseguró Denis Pavillard, vicepresidente de mercadotecnia de producto para teclados y escritorios de Logitech. “Logra establecer una conexión emocional inmediata la primera vez que lo ve – y esa conexión sólo se hace más fuerte cuando pone sus manos sobre él.
El diNovo Edge brinda una experiencia superior en todos sentidos, desde la forma en que luce en la oficina o la sala, hasta cómo se siente y funciona en las manos de su propietario”.
La máxima experiencia en cómputo
El diNovo Edge es el miembro más reciente de la familia de Periféricos Avanzados de Logitech.
Está diseñado para complementar perfectamente al igualmente sorprendente y poderoso Logitech® MX™ Revolution Cordless Laser Mouse.
Para crear el mejor sistema de cómputo, la gente puede añadir el Logitech® Z-10 2.0 Interactive Speaker System, que hace juego con el diNovo Edge con un display de cristal líquido anaranjado y una superficie negra brillante.
Diseño minimalista redefinido
El diseño del teclado diNovo de primera generación de Logitech, presentado en 2003, reflejaba los crecientes gustos minimalistas de los consumidores – con ángulos agudos y un perfil ultra delgado que complementaba los monitores de panel plano.
El nuevo teclado diNovo Edge lleva este modelo aún más lejos al reducir el número de uniones y botones en el teclado, ofreciendo tecnología sensible al tacto y controles que están al mismo nivel de la superficie del teclado, y usando luz posterior dinámica en naranja suave detrás del panel de Plexiglas.
La superficie semitraslúcida permite la iluminación posterior dinámica de los iconos integrados en el teclado, que son invisibles sin iluminación.
Al presionar la tecla de función se iluminan los iconos para funciones secundarias de teclas F, incluyendo controles de medios y teclas de ejecución de aplicaciones.
Después de que se libera la tecla de función, los iconos sobre las teclas F desaparecen y el panel superior del teclado vuelve a su estado en negro.
El teclado se coloca de manera totalmente plano, con inclinación baja, sobre un escritorio o mesa, o sobre su regazo.
Varios estudios han mostrado que los teclados de menor inclinación reducen la extensión de la muñeca y reducen el riesgo de sufrir malestares en la mano y el antebrazo.
Experiencia de navegación superior
Las funciones de navegación del teclado diNovo Edge están diseñadas cuidadosamente para ofrecer un desempeño superior, sea con una PC en la oficina o en la sala – usando Windows® XP, Windows® XP Media Center Edition, o el próximo sistema operativo Windows Vista™.
Por ejemplo, incluye una tecla dedicada que lanza el menú de inicio Windows Vista™, y un botón de búsqueda en las teclas F ofrece acceso de un toque a la función de búsqueda de Vista.
El teclado incluye el primer TouchDisc™ de su tipo sensible al tacto, que le permite a la gente recorrer y navegar una interfaz gráfica de usuario sin tener que usar un mouse, - perfecto para inclinarse hacia atrás en su silla, para hacer un pequeño ajuste cuando se trabaja en el escritorio o para usar una PC en la sala de la casa.
Cuando se mueve un dedo hacia arriba y abajo o por el disco, el cursor se mueve en la pantalla de la computadora, y moviendo el dedo de forma circular alrededor del perímetro del TouchDisc™ le permite al usuario recorrer los documentos de forma horizontal y vertical.
Ubicado sobre el TochDisc™, el cursor de volumen del teclado facilita el ajuste rápido del volumen del audio de la computadora.
Y en el extremo izquierdo del teclado, tres botones de zoom – acercamiento, alejamiento y vista de 100 por ciento – le permiten a la gente navegar y editar fácilmente fotos digitales.
Un botón de puntero, utilizando el TouchDisc™, permite la navegación con dos manos.
La máxima experiencia para escribir
Con el diNovo Edge, cada vez que se oprime una tecla puede percibirse una sensación fluida y estable gracias al sistema de teclas PerfectStroke™ de Logitech, que integra mecanismos de microtijera de precisión que distribuye la fuerza de forma uniforme en la superficie de las teclas.
En muchos teclados, cuando se aplica presión en el extremo de una tecla, ésta se atora y requiere más fuerza para destrabarla.
En el diNovo Edge, si uno presiona el centro de la tecla o un extremo de ella, la pulsación de la tecla se siente igual.
Logitech también ha calibrado cuidadosamente la tensión y el recorrido necesarios para las pulsaciones de teclas, optimizando cada especificación para ofrecer el mejor desempeño.
Tecnología inalámbrica avanzada
Con la tecnología inalámbrica Bluetooth®, el diNovo Edge puede conectarse directamente, sin el micro-receptor USB incluido, a las PCs con tecnología Bluetooth.
Para las computadoras sin tecnología Bluetooth integrada, la gente sólo tiene que insertar el micro-receptor a un puerto USB para conectar el teclado a la PC; el teclado y el receptor son pre-sincronizados durante su fabricación para que se conecten automáticamente.
La tecnología inalámbrica Bluetooth le da al teclado un rango más amplio (hasta 10 metros), detalle importante para usarse en la sala cuando se usa la PC como centro de entretenimiento.
Elegante base de recarga
El diNovo Edge viene con una elegante base que sirve como una estación de recarga y una base de despliegue; cuando se inserta en la base, el teclado se coloca de forma perpendicular al escritorio, mostrando su diseño delgado y liberando espacio valioso del escritorio.
Una carga de dos horas alcanza hasta para dos meses energía para el teclado.

Genetica e Inteligencia



Genética e inteligencia

En un nuevo estudio, Paul Thompson, profesor de neurología de la Universidad de California en Los Ángeles (UCLA), y sus colegas, han usado un nuevo tipo de escáner de obtención de imágenes para mostrar que la calidad de los axones del cerebro, o sea, el cableado que conduce las señales por el interior de éste, tiene mucha influencia en la inteligencia.


Cuanto más rápida sea la señalización, más velozmente el cerebro procesa la información.


Y debido a que los genes tienen influencia sobre la integridad del cableado del cerebro, los genes que heredamos desempeñan en el grado de inteligencia de cada persona un papel mucho más importante de lo que se creía anteriormente.

Parece que los genes influyen en la inteligencia al determinar cuán bien los axones están recubiertos de mielina, la "funda aislante" que recubre nuestros axones y posibilita ráfagas rápidas de señales en nuestros cerebros.


Cuanta más gruesa sea la capa de mielina, más rápidos serán los impulsos nerviosos.

Thompson y sus colegas escanearon los cerebros de 23 pares de gemelos y 23 pares de mellizos.


Como los gemelos comparten los mismos genes y los mellizos comparten cerca de la mitad de los genes, los investigadores fueron capaces de hacer comparaciones que mostraron que la integridad de la mielina estaba determinada genéticamente en muchas partes del cerebro que son fundamentales para la inteligencia.


Éstas incluyen a los lóbulos parietales, responsables del razonamiento espacial, el procesamiento visual y la lógica, y el cuerpo calloso, el cual agrupa información proveniente de ambos lados del cuerpo.

Debido a que la formación de mielina en los circuitos cerebrales sigue una trayectoria con forma de U invertida, alcanzando el máximo en la edad adulta y luego comenzando a descender lentamente, Thompson considera que identificar los genes que propician una buena abundancia de mielina es crucial para prevenir enfermedades del cerebro como la esclerosis múltiple y el autismo, las cuales han sido vinculadas a problemas con esta sustancia.

viernes, 8 de mayo de 2009

Disco Para Almacenar 100 DVD

General Electric inventa disco capaz de almacenar la misma información de 100 DVD

El sistema funciona gracias a la holografía, que permite grabar datos en tres dimensiones.
La empresa General Electric (GE) anunció la creación de un nuevo tipo de disco óptico con capacidad para almacenar una cantidad de información equivalente a la de 100 DVD comunes.

Según esa compañía, el nuevo formato de disco todavía está en etapa de pruebas en el laboratorio. Sin embargo, GE anticipó que los aparatos reproductores de estos nuevos discos holográficos también podrán leer los actuales discos DVD y Blu-ray.

Científicos de GE explicaron que este sistema permite escribir los datos en la superficie del disco en tres dimensiones, a diferencia de la tecnología actual, que lo hace en dos.

El invento permite almacenar 500 gigabytes (GB) de datos en un disco, frente a los 4,7 GB de los DVD actuales. Los discos Blu-ray, que son los más modernos, pueden guardar hasta 25 GB de información.

"Dentro de poco será posible tener una colección completa de películas en alta definición, en un único disco, por un precio muy asequible", le dijo a la agencia AFP Brian Lawrence, un científico de General Electric que coordinó las investigaciones de más de seis años.

Incluso confirmó que la intención de la empresa es producir discos holográficos del doble de capacidad, es decir, 1.000 GB.

General Electric no reveló una fecha de lanzamiento del producto, aunque se espera que las primeras unidades, en aplicaciones especializadas de tipo empresarial, salgan al mercado en el 2011.

Sepa cómo detectar el virus Conficker en su PC y cómo vacunarlo

Guía de recursos gratuitos en Internet, para empresas y usuarios individuales, sobre cómo eliminar el famoso gusano de computador.

Hasta el momento no se han producido daños ni alertas especiales por el accionar del virus

Conficker, según los principales medios de comunicación del mundo.

Se suponía que el primero de abril se activaría un ataque masivo.

No obstante, es posible saber si usted tiene el virus en su computador. En una nota publicada por el sitio de noticias Computerworld, expertos explican los síntomas:

El más relevante es la imposibilidad de acceder a uno de los 114 sitios que el virus bloquea, es decir, que no le permite a usted visitarlos, como por ejemplo www.microsoft.com, www.symantec.com, o www.McAfee.com, por mencionar algunos.

Una vez usted determine que está infectado, puede optar por tratar de ejecutar la herramienta de remoción de programas maliciosos que Microsoft tiene habilitada en Internet.

También existen herramientas en línea gratuitas de las empresas F-Secure, Symantec y McAfee.

Si su PC no tiene el virus, es recomendable de todas maneras que descargue el parche de actualización que corrige el fallo de seguridad de Windows que aprovecha Conficker.

Por último, la Universidad de Bonn puso a disposición de las empresas una herramienta que permite no sólo entender cómo funciona el mal, sino que permite hacer un escaneo en red par determinar cuáles PC de una compañía estarían infectados.

Embarcación movida por energía solar dará la vuelta al mundo

El prototipo, que se está diseñando con ayuda de computadores especiales, recorrerá más de 40.000 kilómetros en la ruta ecuatorial, en un viaje que se espera que culmine en 120 días.

La iniciativa es de la entidad alemana PlanetSolarCon el fin de demostrar la viabilidad que tienen las fuentes alternativas de energía.

Según Raphael Domjan, presidente de PlanetSolar, el vehículo será capaz de desarrollar una velocidad sostenida de 10 nudos. "Nuestro planeta merece algo mejor.

Debemos empezar a preguntarnos acerca de las tecnologías del mañana, y al mismo tiempo, ofrecer respuestas tangibles", señaló el ejecutivo.

Domjan será el director de esta travesía a bordo del catamarán solar, como se ha denominado la embarcación.

La idea es que el bote atraque en los principales puertos durante su trayecto para exponer, de manera masiva al público, mayor información sobre energías alternativas como la que este utiliza para moverse.

El diseño del bote se hizo con la ayuda de aplicaciones de Autodesk, una compañía experta en software gráfico de alto desempeño, que además es capaz de simular factores como desempeño y resistencia de materiales al realizar los diseños.

"Construir un prototipo de la embarcación (para evaluar su viabilidad) iría en contraposición de la filosofía ambiental del proyecto", afirmó Robert Kross, directivo de la empresa Autodesk.

Así mismo, destacó cómo las herramientas incluidas en el programa de computador permiten calcular y simular de manera digital el modelo a construir, sin gastar materiales ni perjudicar el medio ambiente.

Además, dijo Kross, de esta manera es posible que los ingenieros desarrollen productos de una manera cómoda y utilizando un mínimo de recursos.

Mensajes De Internet Con Solo El Cerebro


Envían mensajes en Internet empleando solamente el cerebro

El tiempo de la comunión entre el cerebro humano y los ordenadores parece estar llegando. Una interfaz cerebro-computadora desarrollada por investigadores de la University of Wisconsin-Madison (Estados Unidos), el Centro Wadsworth (New York) y otros institutos asociados permite comunicarse con el sitio de microblogging Twitter a través del cerebro, sin necesidad de accionar ninguna tecla o realizar algún tipo de actividad física.

Una interfaz cerebro-computadora desarrollada por investigadores de la University of Wisconsin-Madison (Estados Unidos), el Centro Wadsworth (New York) y otros institutos asociados ha permitido comunicarse con el sitio de microblogging Twitter a través del cerebro, sin necesidad de accionar ninguna tecla o realizar algún tipo de actividad física.

Sobre principios del mes de abril, la confirmación del envío de un mensaje de 23 caracteres mediante este sistema hacia Twitter abrió las posibilidades para seguir avanzando en esta investigación.


El responsable de esta primera respuesta positiva fue Adam Wilson, estudiante de doctorado en el Department of Biomedical Engineering University of Wisconsin-Madison (Estados Unidos).

El financiamiento de esta ambiciosa iniciativa, que podría ser vital para el uso de diferentes aplicaciones en la red por parte de personas con problemas de movilidad, proviene de un conjunto de organizaciones: National Institutes of Health (NIH), University of Wisconsin-Madison y Wisconsin Alumni Research Foundation, todas de Estados Unidos.

A través de este proyecto, un grupo de investigadores ubicados en diferentes partes del mundo persigue la idea de perfeccionar un sistema capaz de permitir la comunicación con ordenadores e Internet de personas que, a pesar de no poder movilizar ninguna parte de su cuerpo, si poseen intactas todas sus funciones cerebrales.

De esta manera, individuos que sufren enfermedades como esclerosis lateral amiotrófica (ELA), anomalías y patologías cerebrales graves, del tallo cerebral o lesión de la médula espinal podrían ser capaces de utilizar los servicios más comunes y cotidianos que ofrece la web, como los sitios de microblogging, redes sociales, chat o correo electrónico.

La principal innovación

Hasta el momento, los desarrollos de sistemas de interfaz cerebro-ordenador se circunscribían al uso de electrodos capaces de detectar señales eléctricas en el cerebro, tras lo cual las mismas se traducían en acciones físicas, como por ejemplo un movimiento del cursor en la pantalla del ordenador.

Sin embargo, estas opciones resultan poco útiles para aquellas personas con problemas extremos de movilidad, cuyo principal objetivo a la hora de utilizar un ordenador es la comunicación.


Por eso, el trabajo conjunto de estas instituciones apunta a crear un dispositivo especialmente pensado para la comunicación por Internet.

La interfaz que se desarrolla actualmente se inició gracias al trabajo del investigador Gerwin Schalk y colegas del Centro Wadsworth en Albany, New York, Estados Unidos, junto a las tareas desarrolladas por Adam Wilson. Williams y Wilson comenzaron así a dar forma a una interfaz de comunicación que se centra en la actividad cerebral relativa a los cambios que pueden advertirse en una pantalla.

¿Cómo funciona esta interfaz?


Trabaja mediante un teclado que puede visualizarse en la pantalla misma del ordenador, y el cual funciona ante diferentes estímulos y elecciones del cerebro, las cuales posteriormente se traducen en letras y palabras para ser publicadas en las aplicaciones web, como en el caso de Twitter.

Un sistema que requiere tiempo de práctica

Según explican los investigadores en un reciente comunicado de prensa de la University of Wisconsin-Madison (Estados Unidos), el sistema de comunicación posee una agilidad y funcionalidad similar a la que puede observarse en los mensajes de textos de la telefonía celular, ya que por ejemplo es necesario concretar cuatro indicaciones hasta obtener el carácter deseado.


En consecuencia, es un sistema que requiere de entrenamiento y práctica hasta poder lograr agilidad en su manejo.

Se ha seleccionado el sistema de Twitter para comenzar las pruebas con esta interfaz debido a que los mensajes son realmente muy cortos.


Los mismos tienen un límite de 140 caracteres, lo que facilita la comunicación en este período de prueba, aunque esto no quita que la innovación referida pueda trasladarse posteriormente a otras aplicaciones en Internet.

De acuerdo a lo mencionado por los diferentes especialistas a cargo del proyecto, esta interfaz constituye la innovación más útil obtenida hasta el momento en el campo de la comunicación cerebro-ordenador y la aplicación de la tecnología de Internet a esta relación. Por supuesto, el ingrediente principal es el adelanto que supone en cuestiones de integración comunicacional de personas con diferentes discapacidades motoras.

Aunque la aplicación generalizada de una interfaz cerebro-ordenador-Internet es un proyecto que podría concretarse recién de aquí a unos años, diferentes investigadores en distintas partes del mundo (como por ejemplo un grupo en la Universidad de Tübingen, Alemania) ya han iniciado ensayos y pruebas de esta tecnología aplicada a Twitter, además de haberse iniciado una investigación postdoctoral en el Centro Wadsworth (New York).

Sensores De Vigilancia



Un revolucionario sistema de sensores mejorará la vigilancia de grandes infraestructuras

Un revolucionario sistema de sensores eficientes ha sido creado por un investigador de la Universidad de Twente, en Holanda.
Se trata de una red inalámbrica diez veces más eficiente que redes de sensores convencionales. Según su creador, sus aplicaciones son múltiples, pero servirá, sobre todo, para vigilar el estado de conservación de infraestructuras, como puentes o puertos, lo que permitirá aumentar a su vez la eficiencia de las redes logísticas y de transporte.
Otra de las características de este sistema es que genera un mayor intercambio de información y evita las típicas interferencias que aquejan a las redes desplegadas actualmente.
Por Raúl Morales de Tendencias Científicas.

El ingeniero Özlem Durmaz Incel, de la universidad holandesa de Twente, ha desarrollado un nuevo método que permite a una red de sensores inalámbricos funcionar diez veces más eficientemente.
Una red basada en este método, calificado como "revolucionario", puede usarse para múltiples aplicaciones. Así, su creador afirma que sería útil para vigilar el estado de conservación de puentes, puertos o grandes centros de distribución.
Además, aumentaría la eficiencia en las redes logísticas y de transporte.
Según informa la Universidad, Se necesita un gran número de sensores trabajando juntos para funcionar correctamente en complejos procesos logísticos automatizados.
Hasta ahora, los ingenieros no habían conseguido que muchos sensores se comunicasen entre sí sin interferencias.
En el puerto de Rotterdam, por ejemplo, cientos de contenedores, camiones y cargueros "hablan" entre sí gracias a una red inalámbrica inteligente.
Esta red, sin embargo, ha sufrido todo tipo de interferencias. Este problema técnico ha sido ahora resuelto de un modo muy ingenioso por Özlem Durmaz Incel, que ha hecho uso de una comunicación automatizada cambiando las frecuencias.
Esto significa que los sensores pueden siempre hablar sin interrumpir la comunicación de otros. Cuando se produce una interferencia en una frecuencia, las redes cambian automáticamente.
Redes de este tipo están ya funcionando, sin interferencias, en lugares donde hay gran número de sensores intercambiando mucha cantidad de información.
Protección efectiva
Este avance asegurará que puertos, puentes y centros de distribución puedan ser protegidos con más precisión y con más eficiencia.
Por ejemplo, para detectar peligros en puentes, hay que medir varios factores, como la vibración y la velocidad del viento, en cientos de sensores al mismo tiempo.
La red de sensores ha de ser capaz de recoger y enviar 500 mediciones por segundo. Para monitorizar estos factores correctamente, hay que detectar los problemas con antelación.
La vigilancia de grandes puertos y centros de distribución mejorará, dice Incel. En estos lugares, se instalan miles de sensores en una superficie muy pequeña. Monitorizando los alrededores con más precisión, una fuga en una carga puede ser detectada a tiempo.
Este investigación de la Universidad de Twente ha consistido en desarrollar un protocolo multi canal capaz de enviar datos a través de múltiples canales de manera simultánea.
Otra de las características del sistema es una eficiencia energética y su escalabilidad.
Asimismo, el nuevo protocolo aumenta la cantidad y la velocidad de intercambio de datos e información.
Como resultado, la red no está sujeta a interferencias. De hecho, los datos recibidos doblan a los que se reciben normalmente a través de una frecuencia sencilla.
Alimentarlos y mantenerlos
El uso de sensores para vigilar y controlar infraestructuras es muy común, pero su utilización se enfrenta a dos problemas básicos: cómo alimentarlos energéticamente y cómo mantenerlos.
Hace unos meses, ingenieros civiles de la universidad norteamericana de Texas, en Austin, presentaban un proyecto para, precisamente, facilitar el mantenimiento de los sensores que vigilan el estado de los puentes.
Hay que recordar la importancia que estas infraestructuras tienen en los Estados Unidos.
La idea es desarrollar un equipamiento sencillo, que cueste poco mantener y que pueda ser utilizado en construcciones ya existentes y de nueva creación.
La principal preocupación en estos casos es asegurarse de que los puentes no van a fallar sin un aviso previo.
Muchos viejos puentes no han de ser sustituidos sin más, sino que sencillamente necesitan ser monitorizados para detectar signos de corrosión o desgaste.
En concreto, este equipo de ingenieros trabaja también en nuevos métodos para la recogida de datos y en especificaciones para colocar estos sensores en el lugar más adecuado.
Los investigadores de Austin prueban a alimentarlos con energías renovables (solar y eólica) o incluso con las vibraciones que produce el tráfico de dichos puentes.
De esta manera, se evitaría tener que cambiar las baterías de estos dispositivos, como ocurre en la actualidad.
Otro apartado de esta investigación es prevenir que las estructuras de acero interfieran en las señales de radio usadas para la transmisión de los datos.
Hace unos meses, la revista Tendencias 21 recogía otra investigación en este mismo sentido. Ingenieros de la Universidad de Michigan anunciaban la creación de un sistema integrado por cuatro tipos de sensores de última generación para recoger datos diversos respecto al estado de conservación del puente.
Una de las novedades del proyecto es que, por primera vez, se podrá medir qué reacción tienen estas infraestructuras cuando sufren la presión directa del tráfico, sobre todo de camiones, gracias a un sensor que llevarán instalados unos vehículos en pruebas.

Biologia Y Filosofia Para El Estudio De La Vida

Una nueva alianza entre la Biología y la Filosofía es necesaria para el estudio de la vida

La Biología, como ciencia, no trata de la vida en sí misma, sino que estudia las manifestaciones o fenómenos de aquellos seres que llamamos organismos vivos por contraposición al mundo inorgánico.

Pero el conocimiento en profundidad de las causas que producen en la evolución la complejidad ontológica de la vida obliga a la ciencia a ir más allá de la limitación impuesta por sus propios métodos para abordar los grandes temas de la Biofilosofía.

Cuestiones de fondo que siguen hoy planteadas en la actualidad epistemológica de la biología.
Entre los grandes temas básicos de la Biofilosofía destacan la ontología de la complejidad holística y de la teleonomía.

Por Ignacio Núñez de Castro de Tendencias Científicas.

01 May 2009 TENDENCIAS CIENTÍFICAS

Desde Aristóteles hasta nuestros días los problemas para la comprensión de los seres vivos son recurrentes.

Así, una nueva alianza entre la Biología y la Filosofía es necesaria en la búsqueda de las bases epistemológicas y ontológicas del estudio de la vida.

Se perfila una racionalidad diferente del mecanicismo lineal post-cartesiano, cuyas matrices conceptuales serían: totalidad, sistema, proceso, teleología, jerarquización, complejidad, emergencia de novedad y la evolución que da sentido.

La explicación del hecho histórico de la evolución ha pasado por diferentes paradigmas: darwinismo, neodarwinismo y últimamente la síntesis entre la evolución y el desarrollo epigenético, con el soporte experimental de la genómica y proteómica, ha alumbrado el programa de investigación interdisciplinar (conocido como EVO-DEVO), al que dedicamos un segundo artículo.

Biología

Recuerdo que no hace mucho leí un artículo de Gustavo Caponi en Ludus vitalis sobre Biofilosofía y el futuro de la biología del desarrollo; el autor llama la atención sobre el énfasis que, en los últimos años, la Biofilosofía ha puesto en los problemas relativos a la filosofía de la evolución legitimando el paradigma neo darwinista imperante, citando a autores como Ernst Mayr, Elliott Sober, Michael Ruse, David Hull, etcétera.

Para confirmar esta afirmación, basta dar un vistazo a los índices de la revista Biology and Philosophy y caer en la cuenta del sesgo y desequilibrio de los estudios publicados desde la fundación de la revista cuyo primer volumen es de 1986; los estudios relativos a los problemas evolutivos sobrepasan en mucho a los referentes a la epistemología de la Biología y al estatuto ontológico de los seres vivos.

Sin embargo, la pregunta pertinente que podemos hacernos, es si siempre la reflexión filosófica sobre la vida ha llegado en el claroscuro del atardecer o si, por el contrario, ha sido tan temprana como la Biología misma.

La Biología, como ciencia, no trata de la vida en sí misma, sino que con ayuda del método hipotético-deductivo, estudia las manifestaciones o fenómenos de aquellos seres que llamamos organismos vivos por contraposición al mundo inorgánico.

Así lo entendieron Treviranus y Lamarck, quienes al comienzo del siglo XIX utilizaron el término Biología para describir: «todo lo que es común a vegetales y animales, como todas las facultades que son propias a estos seres sin excepción, debe constituir el único y vasto objeto de una ciencia particular, todavía sin fundar, que, incluso, no tiene nombre y a la que daré el nombre de Biología». Frase sacada de una monografía de Lamarck publicada en 1801.

Lamarck creyó haber formulado un nuevo término y haber creado una nueva ciencia. Sin embargo, parece ser que no fueron ni Treviranus ni Lamarck los que acuñaron el término Biología y habría que acudir a Michael Christoph Hanoi, discípulo de C. Wolff, quien ya en 1766 había utilizado el término Biología en el subtítulo del tercer tomo de su obra Philosophia Naturalis sive Physica dogmatica: Geology, Biology, General Phytology and Dendrology.

La Biología nace con la pretensión de formar parte de una de las ciencias de la naturaleza (Naturwissenschaft) como oposición a la Filosofía natural (Naturphilosophie) que tanto había impresionado a Schelling y a los filósofos del romanticismo.

En una obra reciente, Rafael Amo Usanos, citando a F. T. Gottwald, ha propuesto que en la historia del pensamiento biológico se dan tres grandes periodos que se corresponden con otras tantas cosmovisiones (vitalista, materialista y organicista): la del Timeo platónico, donde el universo es imaginado como un inmenso viviente, la dominada por la cosmología mecanicista y la tercera sería la del paradigma de la complejidad.

Biología y Filosofía

Ahora bien, desde el momento en que la Biología se constituye como ciencia que estudia lo que es común a todos los organismos vivos, se plantea para todas las ciencias la relación entre Biología y Filosofía.

En la era de la Biotecnología, la Biofilosofía vuelve a plantearnos los mismos problemas recurrentes, como podemos ver en el título de la obra de Étienne Wilson: De Aristóteles a Darwin (y vuelta).

Ensayo sobre algunas constantes de Biofilosofía. Podríamos parafrasear el título y decir: desde Aristóteles a la revolución biotecnológica (y vuelta).

Puesto que tratar de definir la esencia de la vida ha sido una cuestión ardua desde Aristóteles hasta nuestros días.

El camino más obvio y sencillo es la descripción de los fenómenos que manifiestan los seres que llamamos vivos, por eso la mayoría de las definiciones clásicas de la vida son puramente fenomenológicas o descriptivas, empezando por la definición aristotélica.

Convencidos de que la pregunta que se hizo Schrödinger: «¿Qué es la vida?» escapa a la Biología como ciencia experimental, intentaremos introducirnos en el planteamiento del estado de la cuestión de la Biofilosofía actual en la búsqueda de las bases epistemológicas y ontológicas de la Biología que puedan conducirnos a un discurso coherente; conjuntamente estudiaremos algunos problemas que el desarrollo de la Biología experimental plantea a la fundamentación del discurso coherente al que hemos hecho alusión.

Epistemología del discurso biológico. Una nueva racionalidad

Si consideramos a la epistemología como la reflexión filosófica sobre la ciencia en general y, una vez adjetivada, sobre una ciencia particular, podríamos delimitar la epistemología de la Biología, como aquella parte de la Filosofía que estudia los contenidos de verdad que las ciencias biológicas poseen y formula los cauces de significación; para ello será necesario reflexionar primeramente sobre la propia racionalidad de la Biología.

El conjunto de los puntos de partida de esta racionalidad podríamos formularlos así:

• Todo fenómeno puede reducirse a unas cuantas leyes físicas.

• Todos los fenómenos son deterministas.

• El estudio de los sistemas complejos se reduce al resultado de la conducta de sus elementos.

• Afirmación del postulado de la objetividad que supone: «el rechazo sistemático de considerar como conducente a un conocimiento verdadero, toda interpretación de los fenómenos en términos de causas finales».

Frente a este tipo de racionalidad aceptada por algunos como la única racionalidad científica posible, podemos considerar otro tipo de racionalidad que podríamos llamar: «racionalidad teleológica evolutiva», propia de las ciencias biológicas, cuyas características serían:

• No todo el conocimiento es reducible al conocimiento derivado de la física; es decir, la negativa sistemática al reduccionismo epistemológico.

• La afirmación de que la propia metodología física es incapaz de abarcar el estudio de los fenómenos de alto nivel de complejidad, como son el sistema nerviosos central y los comportamientos psicosociales.

• La evidencia de que los organismos vivos se comportan como totalidades, donde los elementos estructurales y funcionales están interconectados entre sí, formando una unidad que al mismo tiempo es un sistema reactivo abierto al medio.

• La afirmación de que la finalidad, la emergencia y el progreso son categorías epistémicas necesarias para la construcción de todas las ramas de la Biología.

La no distinción de estas dos racionalidades y querer avanzar por la arista del diedro mental sin ningún balancín crítico sumió a Jacques Monod en lo que él llamó «flagrante contradicción epistemológica».

Así pues, si queremos tener un discurso racional y coherente, que nos permita reflexionar sobre las ciencias biológicas, necesitamos delimitar una serie de categorías que conformen un nuevo paradigma de comprensión.

La formulación de esas nuevas categorías constituye, a mi juicio, uno de los debates actuales en Biofilosofía, y tiene razón É. Gilson, pues los problemas son constantes y recurrentes.

Las categorías o matrices conceptuales fundamentales de este discurso para la comprensión completa de los fenómenos que presentan los organismos vivos serían: comprensión holística (o totalidad), sistema, proceso, teleología, jerarquización, emergencia de novedad, evolución, desarrollo epigenético.

En este artículo de Tendencias de las Religiones me referiré a los primeros fenómenos, dejando la, emergencia de novedad, evolución y desarrollo epigenético para otro artículo complementario.
La comprensión holística

Afirmamos que un organismo está vivo cuando percibimos su reactividad como una unidad con individualidad.

Los organismos vivos se comportan como unidades interdependientes de estructuras y funciones integradas. «Hay un pequeño agregado de átomos y moléculas que no se encuentra en parte alguna del mundo que llamamos sin vida.

Es exclusivo de los seres vivientes; muchos de ellos están constituidos por él, el cual forma parte de ellos como una unidad.

Es una unidad con individualidad». Palabras de Sherrington, citadas por Waddington, que afirman la teoría celular y connotan el carácter de totalidad e independencia de todo organismo vivo; independencia del medio del cual paradójicamente no puede prescindir, pues el medio es parte de su misma vida.

A esta unidad con individualidad, Robert Hooke en 1665, en su obra Micrographia, dio, por vez primera, el nombre de célula.

Es interesante notar que este concepto primario de unidad lo sacamos de nuestra propia experiencia; nos contradistinguimos de nuestro entorno con la afirmación del «yo», como una unidad en el espacio y en el tiempo.

El organismo vivo es un todo aunque no clausurado en sí mismo. La unidad de análisis es la célula. Existe un modelo estructural único.

Teilhard de Chardin llamaría a la célula: «grano elemental de vida, como el átomo es el grano natural de la materia inorgánica».

La vida comenzó en el planeta Tierra cuando comenzó la primera estructura individual, frágil e independiente, que llamamos célula.

El paso de organismos unicelulares procariontes a unicelulares eucariontes y el paso de organismos unicelulares a organismos pluricelulares, así como la estructuración de ecosistemas, no son sino manifestaciones simbióticas de organizaciones jerárquicas.

Dicho en otras palabras, según vayamos cambiando de escala de observación, o niveles de organización, iremos percibiendo unidades integradoras de los fenómenos observados.

Esta experiencia le hizo decir a Teilhard de Chardin: «considerada en su totalidad, la sustancia viviente extendida sobre la Tierra dibuja, desde los primeros estadios de su evolución, las alineaciones de un único y gigantesco organismo».

Así pues, para percibir la vida, no hay que perder de vista esa unidad total de la biosfera que la Bioquímica actual confirma, puesto que son los mismos para todo viviente: los veinte aminoácidos proteinogenéticos, las cuatro bases de los ácidos nucleicos, el código genético y los principales ciclos metabólicos.

El que la vida sea una posibilita que se le pueda aplicar calificativos aparentemente antinómicos y decir: que es una en una multidiversidad; caduca para cada individuo y sin embargo perenne; que cada célula es independiente y dependiente del medio; indivisa y, sin embargo, está en continua división en una fase determinada del ciclo celular; y que es invariante, cuando observamos poblaciones a pequeña escala temporal y, sin embargo, es lícito afirmar también que la vida está en continua evolución.

La hipótesis sobre el origen simbiótico de los organismos eucariontes, ardorosamente defendida, por Lynn Margulis, tiene cada día más comprobación experimental.

El ser vivo como sistema jerarquizado

Somos herederos de una cultura mecanicista en la que se ha dado un predominio analista, que tiene la pretensión de que el conocimiento exhaustivo de las partes nos llevaría a la comprensión del todo.

La Física clásica concibió un universo determinista, en un espacio y tiempo concebidos como absolutos en el que se postulaba la ausencia de toda finalidad.

En esta concepción no cabía una visión organicista del ser vivo. Por contraposición la racionalidad sistémica interpreta el universo mediante un discurso no lineal, sino complejo en el que se entrelazan diferentes niveles que se relacionan entre sí a partir de bucles interactivos.

Así, la racionalidad sistémica actúa por aproximaciones, utilizando conceptos preñados de significación, con gran apertura semántica y complementariedad comprensiva.

La misma etimología de la palabra sistema (del griego: syn-ístemi, «lo colocado conjuntamente») indica un conjunto de elementos y acontecimientos, que relacionados jerárquicamente entre sí contribuyen a un determinado fin.

Cualquier elemento estructural o funcional de un sistema no puede entenderse sino en relación con todos los otros elementos estructurales y funcionales del mismo.

Todo sistema es una unidad, aunque no clausurada en sí misma, puesto que el sistema puede estar en continua interacción con otros sistemas jerárquicamente relacionados, formando un nuevo sistema de nivel superior, así «una función no viene determinada nunca por una estructura particular, sino por el contexto de la organización y del medio en que dicha estructura se encuentra sumergida».

El control jerárquico es una de las características esenciales y diferenciales de los sistemas vivos. Los niveles de organización y de complejidad creciente pueden observarse tanto en el orden estructural, como en el orden funcional.

Afirma Fritjot Capra: «en el marco mecanicista de la ciencia cartesiana hay fuerzas y mecanismos a través de los cuales estas interactúan dando lugar a procesos. En la ciencia sistémica cada estructura es vista como la manifestación de procesos subyacentes.

El pensamiento sistémico es siempre pensamiento procesual».

No tendría sentido fijarse únicamente en la organización jerarquizada para la atribución a un sistema la cualidad de vivo.

Todos los artefactos construidos por el hombre, desde el más sencillo como sería una rueda, un instrumento musical, al más complejo aeroplano supersónico, son sistemas jerarquizados en todos sus elementos estructurales, pero todos ellos responden a una finalidad externa que les impuso el inventor de la rueda, el luthier o el equipo de ingenieros aeronáuticos, pues ninguno de estos aparatos por sí mismos son capaces de funcionar.

El violín junto con la fricción del arco y los ágiles dedos comandados por el cerebro del violinista forman parte de una unidad jerárquica superior compuesta por el violinista y su instrumento.

La Biología, desde Aristóteles hasta nuestros días, se sigue preguntando, una vez superado todo tipo de animismo, por esa cualidad que tiene un ser vivo, un pajarillo, que le hace poder cantar y volar proclamando el territorio en el bosque en un día soleado.

La imprescindible finalidad

Una gran parte del Corpus Aristotelicum que ha llegado hasta nosotros trata de estudios sobre Biología. Para Aristóteles el principio de animación de todo organismo viviente es el alma definida como entelequia.

La misma etimología del término, formado a partir de dos palabras griegas: entelés y échein, es decir, lo que tiene el fin en sí mismo, nos refiere a la entelequia como causa final. Así pues, desde su definición de ser vivo, Aristóteles introduce las explicaciones teleológicas en Biología.

Étienne Gilson comienza el estudio de Aristóteles a Darwin, arriba comentado, diciendo: «La noción de finalidad no ha tenido éxito».

Una de las causas de la hostilidad es sin duda el temor a ser contaminada con cualquier tipo de connotación teológica.

El debate sigue abierto por el estricto darwinismo ortodoxo de nuestros días, aunque sostenemos que Darwin en este punto como en otros Darwin no fue darvinista.

Por otra parte, no es infrecuente que los biólogos actuales en su discurso usen, más o menos veladamente, categorías finalistas.

Es muy interesante a este respecto la correspondencia entre Theodosius Dobzhansky y John C. Greene en la que el abanderado del neodarwinismo reclama para los biólogos el poder hablar en términos que tienen un cierto regusto finalista como: finalidad (purpose), creatividad (creativity), crecimiento (improvement) y tanteo (trials and errors), cuando se observa que esto es lo que ocurre de hecho en la naturaleza.

Arguye que el mismo Ernest Naguel acepta que los biólogos utilicen este lenguaje, puesto que algunos procesos evolutivos suponen: a) aparición de algo nuevo, b) hacen avanzar la vida y c) pueden resultar en éxito o fracaso.

El mismo Greene confiesa que la teoría moderna de explicación del hecho histórico de la evolución está cargada de términos valorativos (higher, lower, success, failure, progress) y concluye: o los biólogos eliminan estos términos de su discurso o tienen que reconocer que la Biología requiere conceptos que solamente pueden interpretarse en una Filosofía de la Naturaleza, en cuyo lenguaje las expresiones valorativas tienen sentido.

Según Greene, el mismo Darwin se encontró a sí mismo prisionero entre los hechos biológicos y la implacable (pitless) lógica de una Filosofía natural mecanicista.

De la correspondencia de estos dos biólogos se desprende que el debate sobre la finalidad, una vez más, está planteado en los diferentes presupuestos por la que consciente o espontáneamente se ha optado.

Jacques Monod en su lección inaugural de la Cátedra de Biología Molecular del Collége de France, que viene a ser como el preludio de su obra El azar y la Necesidad, al hablar de las características de los organismos vivos no quiso utilizar la palabra teleología: «la teleonomía es la palabra que puede utilizarse, si por cierto recato se quiere evitar hablar de finalidad».

Según Ernst Mayr fue Colin S. Pittendrigh el primer autor en usar el término teleonomía: «parece desafortunado utilizar el término "teleología" y creo que se ha abusado de él.

La confusión en que han permanecido los biólogos durante largo tiempo se eliminaría más completamente si todos los sistemas dirigidos a un fin fueran descritos mediante algún que otro término como "teleonómico"».

Teleología (teleonomía) en la explicación biológica

Jacques Monod planteó certeramente el problema epistemológico.

La ciencia moderna, en cuyo discurso quiere entrar con pleno derecho la Biología, debe aparecer como ciencia explicativa por sus causas y por tanto objetiva y no proyectiva.

Sin embargo, en virtud de la misma objetividad, muchos autores admiten las explicaciones teleológicas en Biología. La aceptación de una racionalidad diferente y de una autonomía epistemológica para la Biología puede ser el camino de solución del problema.

Quizá el genetista y biofilósofo español Francisco José Ayala haya sido entre los biólogos actuales el que mejor ha enfocado el debate sobre la finalidad, puesto que Ayala además de su reconocida labor en el campo de la biología experimental evolutiva, posee una sólida formación filosófica.

Ayala reconoce el valor heurístico de las explicaciones teleológicas en los siguientes casos:

• Cuando el estado final o meta es anticipado por una agente.

• En los mecanismos autor reguladores. En general todas las reacciones homeostáticas pertenecen a este tipo de fenómenos teleológicos.

• Las estructuras anatómicas y fisiológicas diseñadas para cumplir una misión.

Al menos estas explicaciones teleológicas, correspondientes a la autorregulación y finalidad, son admitidas espontáneamente por la mayoría de los biólogos. Michael Ruse, en su obra la Filosofía de la Biología, nos dice: «Afirmaré finalmente en este capítulo, que, aunque el pensamiento biológico no presupone una "sólida" teleología (esto es una teleología que postule causas futuras), la Biología tiene, en un sentido más amplio, un elemento teleológico intraducible (aunque quizá eliminable).

De manera muy real, los biólogos alcanzan una intelección explicativa refiriéndose al futuro».

Desde el punto de vista heurístico, las explicaciones teleológicas han sido una fuente de progreso del conocimiento.

Es obvia la afirmación de que toda la Fisiología está construida bajo la pregunta del para qué de una determinada función.

En Bioquímica la estructura de una proteína guarda una relación con la función a realizar catalítica, transportadora, de andamiaje celular, etcétera; igualmente acontece con los ciclos metabólicos.

A este tipo de explicación teleológica Ayala la denominará teleología natural (interna).

El concepto de selección natural de Darwin posibilita una explicación natural. Según Ayala: «uno de los mayores logros (de Darwin) fue llevar los aspectos teleológicos al terreno de la ciencia».

La teleología natural desde ahora se podría explicar como resultado de leyes naturales.

Este pensamiento de Ayala coincide con la afirmación de Elliott Sober: «Darwin está adecuadamente considerado como un innovador que impulsó la causa del materialismo científico.

Pero su efecto sobre las ideas teleológicas fue bastante diferente del de Newton. Mas que desterrarlas de la Biología, Darwin fue capaz de mostrar cómo podían hacerse inteligibles desde un marco naturalista».

Es interesante caer en la cuenta que el mismo Darwin aceptó plenamente esta visión teleológica de su pensamiento como consta en su correspondencia con el botánico de Harvard Asa Gray.

En la revista Nature de 4 de Junio de 1874 Asa Gray publicó un artículo titulado sencillamente: «Charles Darwin» y afirmaba: «reconocemos el gran servicio prestado por Darwin a la ciencia natural devolviéndole la teleología, de modo que en lugar de enfrentar morfología y teleología, tendremos a la morfología unida la teleología».

Darwin respondió a Gray con una carta en la que le decía: «lo que ha dicho Vd. de la teleología me es especialmente grato y creo que nadie se había fijado en ello. Siempre he dicho que era Vd. el hombre más indicado para darse cuenta», (literalmente: to hit the nail on the head) .

La novedad de la vida en el universo

La filosofía de la biología, la biofilosofía, muestra que la vida, en efecto, no es simplemente puro mundo físico.

Lo viviente tiene sus raíces en lo físico.

Pero representa una sorprendente novedad emergente que exige una nueva racionalidad explicativa.

El holismo biológico supone un nivel de complejidad no visto en el mundo físico.

El ser vivo como sistema y proceso jerarquizado teleológicamente dibuja una compleja organización que emerge novedosamente y que exige a la ciencia pasar a rigurosas preguntas filosóficas.

A esta novedad emergente nos referiremos en otro artículo.

Enlaces