jueves, 8 de abril de 2010

Criptografía cuántica


La criptografía cuántica es la criptografía que utiliza principios de la mecánica cuántica para garantizar la absoluta confidencialidad de la información transmitida. Las actuales técnicas de la criptografía cuántica permiten a dos personas crear, de forma segura, una clave secreta compartida que puede ser usada como llave para cifrar y descifrar mensajes usando métodos de criptografía simétrica.

La criptografía cuántica como idea se propuso en la década del 70, pero no es hasta 1984 que se publica el primer protocolo.

Una de las propiedades más importantes de la criptografía cuántica es que si un tercero intenta hacer eavesdropping durante la creación de la clave secreta, el proceso se altera detectándose al intruso antes de que se trasmita información privada. Esto es una consecuencia del principio de incertidumbre de Heisenberg, que nos dice que el proceso de medir en un sistema cuántico perturba dicho sistema.

La seguridad de la criptografía cuántica descansa en las bases de la mecánica cuántica, a diferencia de la criptografía de clave pública tradicional la cual descansa en supuestos de complejidad computacional no demostrada de ciertas funciones matemáticas.

La criptografía cuántica está cercana a una fase de producción masiva, utilizando láseres para emitir información en el elemento constituyente de la luz, el fotón, y conduciendo esta información a través de fibras ópticas.

El mundo funciona con muchos secretos, materiales altamente confidenciales. Entidades como gobiernos, empresas y individuos no sabrían funcionar sin estos secretos altamente protegidos. Nicolás Gisin de la Universidad de Génova dirige un movimiento tecnológico que podrá fortalecer la seguridad de comunicaciones electrónicas. La herramienta de Gisin (quantum cryptography), depende de la física cuántica aplicada a dimensiones atómicas y puede transmitir información de tal forma que cualquier intento de descifrar o escuchar será detectado. Esto es especialmente relevante en un mundo donde cada vez más se utiliza el Internet para gestionar temas. Según Gisin, "comercio electrónico y gobierno electrónico solo serán posibles si la comunicación cuántica existe". En otras palabras, el futuro tecnológico depende en gran medida de la "ciencia de los secretos".


Glycomics


El término "Glycomics" fue identificado por el MIT -Massachussets Institute of Technology- como una de las diez tecnologías emergentes que podrían cambiar el mundo en los próximos años. Se espera que el estudio, comprensión y control de la gran cantidad de azúcares que tiene el organismo permitirá diseñar medicinas y solucionar problemas de la salud humana.

Un campo de investigación que pretende comprender y controlar los miles de tipos de azúcares fabricados por el cuerpo humano para diseñar medicinas que tendrán un impacto sobre problemas de salud relevantes. Desde la artrosis reumática hasta la extensión del cáncer. Investigadores estiman que una persona está compuesta por hasta 40.000 genes, y que cada gen contiene varias proteínas. Los azúcares modifican muchas de estas proteínas, formando una estructura de ramas, cada una con una función única.

Glicómica, un término análogo a la genómica y la proteómica, es el estudio exhaustivo de glycomes (el complemento entero de los azúcares, sea o no presentes en moléculas más complejas, de un organismo), incluidos los genéticos, fisiológicos, patológicos, y otros aspectos. Glicómica "es el estudio sistemático de todas las estructuras glycan de un tipo celular u organismo" y es un subconjunto de glicobiología. El término se deriva Glicómica del prefijo químicos por lo dulce o azúcar un "glico- ", y se formó para seguir la convención de nomenclatura establecida por la genómica (que trata de los genes) y la proteómica (que trata de las proteínas).
Retos

* La complejidad de los azúcares: en cuanto a sus estructuras, no son lineales sino que son muy ramificada. Por otra parte, glicanos pueden ser modificados (modificada por azúcares), este aumento de su complejidad.
* Complejo vías de biosíntesis de glicanos.
* Por lo general glicanos se encuentran ni a las proteínas (glicoproteínas) o conjugadas con lípidos (glucolípidos).
* A diferencia de los genomas, glicanos son muy dinámicos.

Esta área de investigación tiene que lidiar con un nivel inherente de complejidad no visto en otras áreas de la biología aplicada. 68 bloques de construcción (moléculas de DNA, RNA y proteínas; categorías de lípidos, los tipos de vínculos de azúcar para sacáridos) proporcionan la base estructural de la coreografía molecular que constituye la vida entera de una celda. ADN y el ARN tienen cuatro bloques cada uno (los nucleósidos o nucleótidos). Los lípidos se dividen en ocho categorías en función de cetoacil y el isopreno. Las proteínas tienen 20 (los aminoácidos). Sacáridos con 32 tipos de vínculos de azúcar. Mientras que estos bloques de construcción puede fijarse más que linealmente para las proteínas y los genes, pueden ser dispuestos en una matriz ramificada de sacáridos, aumentando aún más el grado de complejidad.
[Editar] Importancia

Para responder a esta cuestión hay que conocer las funciones diferentes e importantes de los glicanos. Las siguientes son algunas de esas funciones:

* Gylcoproteins encuentra en la superficie de células juegan un papel fundamental en el reconocimiento de bacterias y virus.
* Están involucrados en las vías de señalización celular.
* Afectan a la estabilidad y el plegamiento de proteínas.
* Hay muchas enfermedades específicas glicano.

Software seguro y fiable

Los ordenadores se averían - es un hecho ya contrastado por la experiencia diaria. Y cuando lo hacen, suele ser por un virus informático. Cuando se trata de un sistema como control aéreo o equipos médicos, el coste de un virus pueden ser vidas humanas. Para evitar tales escenarios, se investigan herramientas que produzcan software sin errores. Trabajando conjuntamente en MIT, investigadores Lynch y Garland han desarrollado un lenguaje informático y herramientas de programación para poder poner a prueba modelos de software antes de elaborarlo.

Litografía Nano-impresión



Esta hoja de plástico de 10 por 30 centímetros (arriba) ha sido estampada con una serie de líneas de polímero a nanoescala utilizando la litografía por nanoimpresión rollo-a-rollo (abajo). La película es iridiscente debido al modo en que sus características a nanoescala dispersan la luz.

En diversos sitios del mundo, se desarrollan sensores, transistores y láser con la ayuda de nanotecnología. Estos aparatos apuntan hacía un futuro de electrónica y comunicadores ultra-rápidos, aunque todavía se carece de las técnicas adecuadas de fabricación de los hallazgos logrados en el laboratorio. Según Stephen Choue, ingeniero universitario de Princeton, "Ahora mismo todo el mundo habla de la nanotecnología, pero su comercialización depende de nuestra capacidad de fabricar". La solución podría ser un mecanismo algo más sofisiticado que la imprenta, según Choue. Simplemente a través de la impresión de una moldura dura dentro de una materia blanda, puede imprimir caracteres más pequeños que 10 nanometros. Esto parece sentar la base para nanofabricación.

Una técnica de impresión capaz de alcanzar detalles de sólo décimas de nanómetro está, por fin, a punto de salir del laboratorio. El nuevo sistema litografía por nanoimpresión rollo-a-rollo se podría utilizar para producir de forma barata y eficiente, además de en grandes cantidades, películas ópticas con patrones a escala nanométrica con las que mejorar el rendimiento de las pantallas y las células solares.

La litografía por nanoimpresión utiliza la fuerza mecánica para impresionar un patrón a escala nanométrica y es capaz de conseguir características mucho más pequeñas que la litografía óptica, que está a punto de alcanzar su límite físico. La técnica fue desarrollada como herramienta para miniaturizar los circuitos integrados, y una serie de compañías, entre las que se incluye Molecular Imprints en Austin, Texas, la siguen desarrollando para esta aplicación.

Sin embargo, hasta ahora ha resultado difícil poder escalar la litografía por nanoimpresión de forma fiable. Para alcanzar la resolución necesaria para la impresión de transistores, por ejemplo, se necesita utilizar un sello plano de unos cuantos centímetros cuadrados y que se debe mover de forma repetida a lo largo de una superficie. Esto es algo que no resulta práctico a la hora de imprimir grandes áreas de película para muchas otras aplicaciones. “Las pantallas y las células solares requieren que la impresión se lleve a cabo sobre áreas mucho más grandes, para luego cortarlas en hojas,” afirma Jay Guo, profesor asociado de ingeniería eléctrica y ciencias informáticas en la Universidad de Michigan. “Lo tienes que poder llevar a cabo de forma continuada.”

Para solucionar este problema, Guo ha desarrollado un sello que se puede utilizar para la impresión rollo-a-rollo de grandes áreas. Su configuración utiliza un molde de polímero enrollado alrededor de un cilindro y que se utiliza para impresionar el patrón sobre un material que se coloca o bien encima de un soporte de cristal rígido o sobre uno de polímero. Para crear el componente final, el patrón se fija mediante el uso de una luz de flash o ultravioleta. El proceso, descrito en la publicación ACS Nano, se puede llevar a cabo de forma continuada a un ritmo de un metro por minuto, y Guo afirma que lo ha utilizado para imprimir características de hasta 50 nanómetros a lo largo de un área de 6 pulgadas de ancho (alrededor de 15 centímetros). Esa resolución no es lo suficientemente buena como para crear circuitos integrados, pero es adecuada para imprimir dispositivos ópticos tales como concentradores rejillas de luz.

Esta no es la primera vez que se explora la impresión rollo-a-rollo para su uso en la litografía por nanoimpresión. Sin embargo Yong Chen, profesor de ciencias de los materiales e ingeniería en la Universidad de California, en Los Angeles, afirma que el grupo de Michigan “ha hecho que este proceso sea mucho más fiable y con una menor densidad de defectos.”


Imagenes Moleculares


Las técnicas recogidas dentro del término imágenes moleculares permiten que los investigadores avancen en el análisis de cómo funcionan las proteínas y otras moléculas en el cuerpo. Grupos de investigación en distintos sitios del mundo trabajan para aplicar el uso de técnicas de imagen magnéticas, nucleares y ópticas para estudiar las interacciones de las moléculas que determinan los procesos biológicos. A diferencia de rayos x, ultrasonido y otras técnicas más convencionales, que aportan a los médicos pistas anatómicas sobre el tamaño de un tumor, las imágenes moleculares podrán ayudar a descubrir las verdaderas causas de la enfermedad. La apariencia de una proteína poco usual en un conjunto de células podrá advertir de la aparición de un cáncer.

El concepto de imagen molecular, es la acción conjunta de las posibilidades que ofrecen:

  • la imagen médica en sí,
  • la bioquímica y
  • la informática, a las que últimamente se han sumado
  • la genómica,
  • la proteómica o
  • la inteligencia artificial.

MI La acción conjunta de estos recursos otorga un valor añadido a la exploración de las diferentes modalidades por separado o bien formando parte del concepto de "multimodalidad" aprovechando la información conjunta y fusionada de técnicas estructurales, (TAC, MR) con técnicas funcionales (PET). Estas ventajas no sólo tienen implicaciones diagnósticas, si no también terapéuticas, por ejemplo para el cálculo de dosis en Radioterapia, o en la Neurocirugía (epilepsias).

MIEn una amplia definición, se podría decir que se trata del estudio de procesos bioquímicos y posibles rutas metabólicas tanto a nivel anatómico, como a nivel molecular (organismos, órganos, tejidos y células) que pueden provocar alteraciones en la expresión genética de los procesos biológicos normales que realizan los tejidos vivos (replicación, migración, transducción de señal, etc) y que pueden ser originadas por factores propios (envejecimiento, defectos hereditarios) o mediados por el entorno.

La imagen molecular será el resultado de la exploración de esos procesos y rutas metabólicas en el que se utilizan moléculas marcadas con trazadores (sonda molecular), empleando la sustancia cuya actividad biológica esté más relacionada del punto de vista bioquímico con la patología que se quiera analizar.


Sistemas informáticos Grid


En los años 80, los protocolos intranet nos permitieron enlazar dos ordenadores y la red Internet estalló. En los años 90, el protocolo de transferencia de hipertextos nos permitía enlazar dos documentos, y una enorme biblioteca tipo "centro comercial" llamado el World Wide Web (la Red) estalló. Ahora, los llamados protocolos grid nos podrán enlazar casi cualquier cosa: bases de datos, herramientas de simulación y visualización y hasta la potencia grandísima, enorme, de los ordenadores en sí. Y puede ser que pronto nos encontremos en medio de la explosión más grande hasta la fecha. Según Ian Foster de Argonne National Laboratory, "avanzamos hacía un futuro en el que la ubicación de recursos informáticos no importa". Se ha desarrollado el Globos Toolkit, una implementación "open-source de protocolos grid" que se ha convertido en un tipo estandarizado. Este tipo de protocolos pretenden aportar a las maquinas domésticas y de oficinas la capacidad de alcanzar el ciberespacio, encontrar los recursos que sean, y construirles en vivo en las aplicaciones que les hagan falta. La computación, el código abierto, de nuevo en alza.
La computación grid es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (entre ellos cómputo, almacenamiento y aplicaciones específicas) que no están sujetos a un control centralizado. En este sentido es una nueva forma de computación distribuida, en la cual los recursos pueden ser heterogéneos (diferentes arquitecturas, supercomputadores, clusters...) y se encuentran conectados mediante redes de área extensa (por ejemplo Internet). Desarrollado en ámbitos científicos a principios de los años 1990, su entrada al mercado comercial siguiendo la idea de la llamada Utility computing supone una revolución que dará mucho que hablar.
El término grid se refiere a una infraestructura que permite la integración y el uso colectivo de ordenadores de alto rendimiento, redes y bases de datos que son propiedad y están administrados por diferentes instituciones. Puesto que la colaboración entre instituciones envuelve un intercambio de datos, o de tiempo de computación, el propósito del grid es facilitar la integración de recursos computacionales. Universidades, laboratorios de investigación o empresas se asocian para formar grid para lo cual utilizan algún tipo de software que implemente este concepto.


Llamamos grid al sistema de computación distribuido que permite compartir recursos no centrados geográficamente para resolver problemas de gran escala. Los recursos compartidos pueden ser ordenadores (PC, estaciones de trabajo, supercomputadoras, PDA, portátiles, móviles, etc), software, datos e información, instrumentos especiales (radio, telescopios, etc.) o personas/colaboradores.
La computación grid ofrece muchas ventajas frente a otras tecnologías alternativas. La potencia que ofrecen multitud de computadores conectados en red usando grid es prácticamente ilimitada, además de que ofrece una perfecta integración de sistemas y dispositivos heterogéneos, por lo que las conexiones entre diferentes máquinas no generarán ningún problema. Se trata de una solución altamente escalable, potente y flexible, ya que evitarán problemas de falta de recursos (cuellos de botella) y nunca queda obsoleta, debido a la posibilidad de modificar el número y características de sus componentes.
Estos recursos se distribuyen en la red de forma transparente pero guardando unas pautas de seguridad y políticas de gestión de carácter tanto técnico como económico. Así pues, su objetivo será el de compartir una serie de recursos en la red de manera uniforme, segura, transparente, eficiente y fiable, ofreciendo un único punto de acceso a un conjunto de recursos distribuidos geográficamente en diferentes dominios de administración. Esto nos puede llevar a pensar que la computación Grid permite la creación de empresas virtuales. Es importante saber que una grid es un conjunto de maquinas distribuidas que ayudan a mejorar el trabajo sobre software pesados.

Mecatrónica


El termino "mecatrónica" fue acuñado en Japón a principios de los 80’s y comenzó a ser usado en Europa y USA un poco después.
"El espiritu de la mecatronica, rechaza dividir a la ingieneria en disciplinas separadas". Pero una definición aproximada seria la utilizada por la comunidad europea: "mecatrónica es la integración cinegética de la ingeniería mecánica con la electrónica y con el control de computadores inteligentes para el diseño y la manufactura de productos y procesos".

Una definición más amplia de mecatrónica en el diseño de productos y máquinas ha sido adaptada así para estas notas: "mecatrónica es el diseño y manufactura de productos y sistemas que posee una funcionalidad mecánica y un control algorítmico integrado".

¿Porqué mecatrónica?

Desde la concepción de ingeniería de la manera romántica se observo a un D'vinci como un hombre que utilizaba su ingenio y sus conocimientos para crear los mas diversos inventos y aparatos a un Arquímedes que proponía ya sistemas de propulsión y control a maxwell que proponía la integración de las ciencias; todos estos hombres tenían algo en común contaban con un equipo interdisciplinario y se comprendían con el {sabían el lenguaje de todos.} A esto se refiere la mecatrónica que queremos hacer en la universidad y es el termino que define mejor el perfil del ingeniero que este tiempo necesita.

Diseño mecatrónico:

En el proceso de diseño para un producto o sistema con un controlador electrónico de forma convencional. Los componentes mecánicos son diseñados aisladamente del controlador electrónico, el cual es entonces diseñado y ´sintonizado´ para encajar con la mecánica. No hay razón para que esto deba llevar a una mecánica de solución general de diseño óptima (de hecho usualmente no lo hace). La partición entre las funciones, mecánica y electrónica.

Se requieres individuos con amplias habilidades en ingeniería, y equipos bien integrados, cuyos miembros traigan una apreciación general de la amplitud del campo tecnológico, tanto como de su propio campo de especialización. Al cabo, estás no son las clases de ingenieros que nuestra tradicional educación en ingeniería (disciplinas separadas) ha estado produciendo.
Se podría decir, por tanto, que los practicantes modernos de la mecatrónica son los herederos del espíritu de los grandes hombres cuyas cualidades ya se mencionaron, se espera que el término ´mecatrónica´ ayude a resaltar la existencia de éste tipo de ingeniería, y a traer más ingenieros a intentar esta experiencia por ellos mismos.

¿Qué puede hacer la mecatrónica?

La habilidad para incorporar el control microprocesador en sus diseños, será útil mirar los objetivos para hacer esto en la creación de los productos y sistemas que puedan considerarse mecatrónicos.

Objetivos de diseño para sistemas mecatrónicos:

  • MEJORAMIENTO
  • SIMPLIFICACIÓN:
  • INNOVACIÓN

  • DISCUSIÓN

Las primeras dos categorías señaladas: mejoramiento y simplificación, no son mutuamente exclusivas.
Se llama mecatrónica a la integración de mecánica, electrónica y software para crear ahorros de energía y de recursos y sistemas de alta inteligencia.
La mayoría de los productos desarrollados bajo parámetros mecatronicos cumplen ciertas características.

Características comunes de estos productos mecatrónicos:

  • Mecanismo de precisión.
  • Control de software mediante medios electrónicos, principalmente mediante microcomputadores.
  • Necesarios para tecnología de producción precisa y avanzada

Concepto de mecatrónica.

La mecatrónica de por sí no apunta a ser precisamente una tecnología y/o ingeniería, es la síntesis de tecnologías, usando no solamente tecnología mecánica convencional, sino también tecnología de ingeniería existente tal como electrónica, ingeniería de sistemas, etc. Libremente para los propósitos necesarios. O sea, se requieren dos conceptos básicos para mezclar las tecnologías en este rango amplio y organizarlas, el concepto de sistema y el de interface.

Las características del sistema mecatrónico son: mecanismo preciso de operación como elemento componente de la función principal, y del propósito más importante, y la función de información de control avanzada.

Donde los elementos componentes ejecutan cada una de las funciones independientemente. La comparación entre los elementos componentes del sistema mecatrónico y los del ser humano. El computador responde al cerebro, los sensores a los cinco sentidos, los ejecutores a los músculos, el mecanismo al esqueleto, y la fuente de energía al metabolismo. Ya que el robot es el típico sistema mecatrónica que logra hacer actividades humanas con la ingeniería, la meta del sistema mecatrónico es el desarrollado bien balanceado y la conexión orgánica.

Nano-células solares


Puede ser que el sol sea la única fuente con suficiente capacidad para hacer que no seamos dependientes de combustibles fósiles. No obstante, atrapar la energía solar requiere capas siliconas que aumentan los costes hasta 10 veces el coste de la generación de energía tradicional. A través de la nanotecnología se está desarrollando un material fotovoltaico que se extiende como el plástico o como pintura. No solo se podrá integrar con otros materiales de la construcción, sino que ofrece la promesa de costes de producción baratos que permitirán que la energía solar se convierta en una alternativa barata y factible.
La tecnología fotovoltaica no es nueva, pero todavía existen obstáculos grandes que impiden su implementación en grande escala.
La célula solar más simple usa una sola juntura p-n planar. Los semiconductores pueden absorber la energía de un fotón incidente, elevando un electrón de la banda de valencia a la de conducción. Esto crea un par electrón-hueco o excitón. El campo eléctrico puesto por la diferencia de band gaps de los dos semiconductores lleva el electrón al tipo-n y hueco al tipo-p, de
modo que el flujo de electrones (y huecos, con cuales combinan después de pasar por el circuito) genera una corriente.
Hoy en día hay que escoger entre células que son caras o de bajo rendimiento. Las mejores células son hechas de junturas múltiples de diferentes semiconductores inorgánicos, sus band gaps afinados para absorber gran parte del espectro solar. Sin embargo, los procesos de purificación y fabricación requieren altas temperaturas y vacío, y varios pasos lithográficos1. Además, muchos de estos materiales son escasos. El resto del papel se enfocará en dos alternativas: células orgánicas mejoradas con nanotecnología (híbridas) y células nanocristalinas. Pero la nanotecnología se encuentra en todas partes de la investigación fotovoltaica.
La morfología superficial, técnicas de deposición y crecimiento de láminas, hasta los electrodos pueden ocupar física de la escala nano. Acá sólo se ve las aplicaciones en el interior de la célula, la región semiconductor.

Ingeniería inyectable de tejidos


Para sustituir a los tradicionales transplantes de órganos, se está a punto de aplicar un método por el que se inyecta articulaciones con mezclas diseñadas de polímeros, células y estimuladores de crecimiento que solidifiquen y formen tejidos sanos.
surgio ya, como producto de extensas investigaciones y desarrollo de biotecnologías aplicadas para una opcion sustitutoria a los Transplantes tradicionales de organos, se inicia la aplicación de un metodo innvador que consiste en inyectar articulaciones con mezclas diseñadas de polímeros, células y estimuladores de crecimiento que solidifiquen y formen tejidos sanos a saltar la gran barrera de rechazos de tejidos como se ha tenido en los transplantes por metodos clasicos hasta ahora.
Aquí un caso demostrativo en un trabajo estomatologico donde mas se estan aplicando este metodo aun incipiente como revolucionario “

Se investigó una correlación entre osseointegration en implantaciones dentales y un hueso tramado por tejido inyectable, usando mesenchymal células de tallo (MSCs) y plasma rico de plaqueta (PRP). Al principio, los dientes en la región de mandíbula fueron extraídos y el período que se cura era 1 mes. Los defectos de hueso a ambos lados de la mandíbula estuvieron listos con una barra de trephine. Los defectos fueron implantados con materiales de injerto como sigue: el PRP, perro MSCs (dMSCs), y PRP, autogenous particulate cancellous hueso y tuétano (PCBM), y control (desertan sólo). Dos meses más tarde, los animales fueron Dos meses más tarde, los animales fueron sacrificados y las secciones nondecalcified fueron evaluadas histologicamente histometricamente. Según las observaciones histologicaa, el grupo dMSCs/PRP tenía el hueso maduro gramaticalmente correcto y neovascularization, comparado con el control (defecto sólo) y grupos PRP, como era el mismo para el grupo PCBM. Un nivel de hueso marginal más alto fue observado alrededor de implantaciones con PRP, PCBM, y dMSCs/PRP comparado con el control. Además, los valores que describen la cantidad del contacto de implantación de hueso (BIC) en el interfaz de hueso/implantación eran considerablemente diferentes entre el PRP, PCBM, dMSCs/PRP, y grupos de control. Las diferencias significativas también fueron encontradas entre el dMSCs/PRP y grupos de control en la densidad de hueso. Las conclusiones de este estudio experimental indican que el uso de una mezcla de dMSCs/PRP causa resultados buenos como la cantidad de BIC y densidad de hueso comparable con esto conseguido por PCBM.

Redes de sensores sin cables


Son redes de nano aparatos autónomos capaces de una comunicación sin cable y suponen uno de los avances tecnológicos más investigados en la actualidad. A través de redes de sensores, se puede integrar funcionalidades que antes eran independientes unas de otras, con el fin de lograr máxima eficiencia sobre todo en los campos de consumo y gestión de energía.

Las redes de sensores con cable no son nuevas y sus funciones incluyen medir niveles de temperatura, líquido, humedad etc. Muchos sensores en fábricas o coches por ejemplo, tienen su propia red que se conecta con un ordenador o una caja de controles a través de un cable y, al detectar una anomalía, envían un aviso a la caja de controles. La diferencia entre los sensores que todos conocemos y la nueva generación de redes de sensores sin cable es que estos últimos son inteligentes (es decir, capaces de poner en marcha una acción según la información que vayan acumulando) y no son limitados por un cable fijo.

Pero nuevos avances en la fabricación de microchips de radio, nuevas formas de routers y nuevos programas informáticos relacionados con redes están logrando eliminar los cables de las redes de sensores, multiplicando así su potencial.

Las redes de sensores pueden utilizar distintas tecnologías de sin cable, incluyendo IEEE 802.11, LANS sin cable, Bluetooth y identificación de la frecuencia de radio. Actualmente se trabaja con radios de baja frecuencia con un alcance de hasta 80 metros y velocidades de hasta 300 Kb/segundo.

Las últimas investigaciones apuntan hacia una eventual proliferación de redes de sensores inteligentes, redes que recogerán enormes cantidades de información hasta ahora no registrada que contribuirá de forma favorable al buen funcionamiento de fábricas, al cuidado de cultivos, a tareas domésticas, a la organización del trabajo y a la predicción de desastres naturales como los terremotos. En este sentido, la computación que penetra en todas las facetas de la vida diaria de los seres humanos está a punto de convertirse en realidad.

Aunque la tecnología relacionada con las redes de sensores sin cable está todavía en su primera fase, equipos de investigación en la Universidad de California Berkeley ya han fabricado una caja que se puede adaptar a muchos tipos de sensores. Los científicos utilizan los sensores sin cable para encontrar y controlar microclimas y plagas en plantaciones de uva, para estudiar los hábitos de aves y para controlar sistemas de ventilación y calefacción. En la Universidad de California Los Angeles, investigadores utilizan las redes de sensores sin cable para recibir información detallada sobre el efecto de los movimientos sísmicos en los edificios.

Si los avances tecnológicos en este campo siguen a la misma velocidad que han hecho en los últimos 2 años, las redes de sensores sin cable revolucionará la capacidad de interacción de los seres humanos con el mundo.

Las 10 Tecnologías avanzadas que cambiarán el mundo

Estmos en la sociedad del conocimiento y algunos grandes avances, nuevos inventos y descubrimientos progresará exponencialmente. las universidades más prestigiosas como el MIT ya identifican "lo ultimo" y más nuevo en tecnología e investigación.
La Biología (biotecnología), nanotecnología, e infotecnología tienen y tendrán un protagonismo importante en los últimos progresos y adelantos alcanzados.
En pocos años, la innovación tecnológica puede hacer posible hasta una segunda revolución industrial con la construcción de nanomáquinas.
Poco a poco les iremos mostrando las novedades cientificas mas importantes desde la mecátronica a las redes de sensores.