viernes, 4 de mayo de 2012

NANOTECNOLOGIA

NANOTECNOLOGIA:

 Como su propio nombre indica Nano=pequeño, Tecnologia=avance, es decir la reducion de componentes hasta hacerlo micropequeño, es un campo de la ciencia aplicadas dedicado al control y manipulacion de las materias a una escala menor que un micrometro, es decir nivel de átomos y moleculas.
Con esto hemos conseguido (-) consumo (+) eficientes, aumento del desempeño, velocidad de procesar, y de almacenar informacion, en un menor espacio.
Gracias a la nonotecnologia nos pueden llegar informacion desde culquier lugar del mundo, gracias a sus moleculas y átomos.



MINIATUARIZACION:

 Es la reducion de componentes y aparatos en el ciclo informatico, es decir la reducion desde que aparecio la valvula de vacio hasta hoy.  Para que todos nos entendamos antes necesitabamos una habitacion para un ordenados y ahora lo podemos llevar en la mano. Como ha ido reduciendo gracias a los avances.




NANOMEDICINA.

Nanomedicina: Una de las vertientes más prometedoras dentro de los potenciales nuevos avances tecnologicos en la medicina. Podríamos aventurar una definición situándala como rama de la nanotecnología que permitiría la posibilidad de curar enfermedades desde dentro del cuerpo y al nivel celular o molecular.
Se considera que determinados campos pueden ser objeto de una autentica revolución, especialmente: monitorización (imágenes), reparación de tejidos, control de la evolución de las enfermedades, defensa y mejora de los sistema biológicos humanos; diagnóstico, tratamiento y prevención, alivio del dolor, prevención de la salud, adeministración de medicamentos a las células, etc. etc. Todos ellos constituirían nuevos avances tecnologicos en la medicina que la posicionarían en una nueva era científica y asistencial.

La descripción de algunos últimos avances científicos lleva a lo que hace poco sería considerado ciencia ficción dentro de la Medicina. Biosensores, nuevas formas de administrar medicamentos más directas y eficaces y el desarrollo de nuevos materiales para injertos, entre otras, son algunos de los avances en lo que se trabaja en la actualidad en multitud de laboratorios de los centro de nanotecnología en todo el mundo.
El siguiente párrafo recoge de forma clara algunas de sus aplicaciones:
La posibilidad de diseñar sensores que se activan cuando cambien determinadas constantes biológicas cambian. Por ejemplo, los pacientes diabéticos podrían verse favorecidos al recibir insulina encapsulada en células artificiales, que la dejen salir cuando aumente la glucosa en la sangre.
Esto también permite realizar exámenes en forma muy sencilla, incluso en la casa para un autodiagnóstico. “Los biosensores se han utilizado para muchas aplicaciones, por ejemplo, para detectar la presencia de ántrax (...) La silicona porosa también puede utilizarse como sistema de administración de medicamentos inteligentes. A diferencia de la tradicional, es biocompatible y no tiene efectos tóxicos. La característica de porosa fue creada con nanotecnología. Además con ella se pueden hacer injertos. “Es una plataforma espectacular, muy útil y además la silicona es barata”, afirma Ford.... Otros vehículos son los dendrímeros que consisten en polímeros con ramificaciones. Cada cabo puede tener distintas propiedades. Los dendrímeros podrían tragarse y realizar diferentes funciones bastante complicadas, como buscar daños dentro del organismo y repararlos. (Recogido en Clínica Alemana).
El objetivo del Instituto Nacional de Cáncer de los Estados Unidos es utilizar la nanotecnología, para eliminar, antes de 2015, las muertes y el sufrimiento causados por el cáncer. Las investigaciones actuales se centran en como utilizar la nanotecnología para cambiar de forma radical la capacidad de la medicina para diagnosticar, comprender y tratar el cáncer (Ver: Avances Tecnológicos: Nanotecnología y cáncer).
La Nasa impulsa actualmente programas para el diseño de un prototipo de célula artificial.
La nanomedicina se convierte así en una rama fundamental de las prometedoras aplicaciones de la nanociencia. Probablemente una de las de mayor alcance para el ser humano. No son pocos los que alertan de riesgos no despreciables que pueden estar ligados a estos avances








TRANSISTORES.


La segunda generacion de los ordenadores fue entre el 1955 y 1964, en la decada de los 60, donde aparecio, el transistor, desarrollado en 1947 por John Bardeen, Walter Brattain y Willian Shockeley.
El transistor, inventado en 1951, es el componente electrónico estrella, pues
inició una auténtica revolución en la electrónica que ha superado cualquier
previsión inicial.
Con el transistor vino la miniaturización de los componentes y se llegó al
descubrimiento de los circuitos integrados, en los que se colocan, en pocos
milímetros cuadrados, miles de transistores. Estos circuitos constituyen el
origen de los microprocesadores y, por lo tanto, de los ordenadores actuales.
Por otra parte, la sustitución en los montajes electrónicos de las clásicas y
antiguas válvulas de vacío por los transistores, reduce al máximo las pérdidas
de calor de los equipos.
Un transistor es un componente que tiene, básicamente, dos funciones:


IMAGENES DE TRANSISTORES.


CIRCUITOS INTEGRADOS.


Los circuitos integrados aparecieron en la tercera generacion de la informatica,  sobre (1964-1974),  IBM, fue la empresa que empezo a comercializarlo, la idea pasaba por la integracion de los componentes en sustrato semiconductor.

Esten avance fue conseguido optimizando los procesos de fabricacion, consiguiendo asi disminuir los consumos y, por tanto, las disipaciones de potencia de calor. Asi, si se deseba integrar una resistencia, en lugar de usar un núcleo o bobinado de hilo, se dopaba el conductor consiguiendo una mayor dificultad al paso de corriente electrica.


    
VLSI es la sigla en inglés de Very Large Scale Integration, integración en escala muy grande.
La integración en escala muy grande de sistemas de circuitos basados en transistores en circuitos integrados comenzó en los años 1980, como parte de las tecnologías de semiconductores y comunicación que se estaban desarrollando.
Los primeros chip semiconductores contenían sólo un transistor cada uno. A medida que la tecnología de fabricación fue avanzando, se agregaron más y más transistores, y en consecuencia más y más funciones fueron integradas en un mismo chip. El microprocesador es un dispositivo VLSI.
La primera generación de computadoras dependía de válvulas de vacío. Luego vinieron los semiconductores discretos, seguidos de circuitos integrados. Los primeros CIs contenían un pequeño número de dispositivos, como diodos, transistores, resistencias y condensadores (aunque no inductores), haciendo posible la fabricación de compuertas lógicas en un solo chip. La cuarta generación (LSI) consistía de sistemas con al menos mil compuertas lógicas. El sucesor natural del LSI fue VLSI (varias decenas de miles de compuertas en un solo chip). Hoy en día, los microprocesadores tienen varios millones de compuertas en el mismo chip.


ENIAC.

Se ha considerado a menudo la primera computadora electrónica de propósito general, aunque este título pertenece en realidad a la computadora alemana Z3. Además está relacionada con el Colossus, que se usó para descifrar código alemán durante la Segunda Guerra Mundial y destruido tras su uso para evitar dejar pruebas, siendo recientemente restaurada para un museo británico. Era totalmente digital, es decir, que ejecutaba sus procesos y operaciones mediante instrucciones en lenguaje máquina, a diferencia de otras máquinas computadoras contemporáneas de procesos analógicos. Presentada en público el 15 de febrero de 1946.
La ENIAC fue construida en la Universidad de Pennsylvania por John Presper Eckert y John William Mauchly, ocupaba una superficie de 167 y operaba con un total de 17.468 válvulas electrónicas o tubos de vacío que a su vez permitían realizar cerca de 5000 sumas y 300 multiplicaciones por segundo. Físicamente, la ENIAC tenía 17.468 tubos de vacío, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de soldaduras. Pesaba 27 Toneladas, medía 2,4 m x 0,9 m x 30 m; utilizaba 1.500 conmutadores electromagnéticos y relés; requería la operación manual de unos 6.000 interruptores, y su programa o software, cuando requería modificaciones, demoraba semanas de instalación manual.
La ENIAC elevaba la temperatura del local a 50 °C. Para efectuar las diferentes operaciones era preciso cambiar, conectar y reconectar los cables como se hacía, en esa época, en las centrales telefónicas, de allí el concepto. Este trabajo podía demorar varios días dependiendo del cálculo a realizar.
Uno de los mitos que rodea a este aparato es que la ciudad de Filadelfia, donde se encontraba instalada, sufría de apagones cuando la ENIAC entraba en funcionamiento, pues su consumo era de 160 kW.











MOLECULAS / ADN.

La molécula de ADN es uno de los más grandes descubrimientos científicos de todos los tiempos. Descrita primero por James Watson y Francis Crick en 19531, el ADN es el famoso almacén de genética que establece las características físicas de cada organismo. No fue hasta mediados del 2001, que el "Proyecto Genoma Humano" y Celera Genomics, conjuntamente presentaron la verdadera naturaleza y complejidad del código digital inherente al ADN. Sabemos ahora que la molécula del ADN comprende bases químicas dispuestas en aproximadamente 3 billones de secuencias precisas. Hasta la molécula de ADN de la bacteria unicelular, E. coli, contiene suficiente información para llenar una colección entera de la Enciclopedia Británica.

Como en el software de una computadora, el código del ADN es un lenguaje genético que comunica información a la célula orgánica.

El código del ADN, como un disquete de código binario, es bastante simple en su estructura básica de pares. Sin embargo, es la secuenciación y el funcionamiento de ese código lo que es enormemente complejo. A través de tecnologías recientes como la cristalografía de rayos X, sabemos ahora que la célula no es una "gota de protoplasma," sino una maravilla microscópica que es más compleja que el trasbordador espacial. La célula es muy complicada, usa incalculables números de instrucciones de ADN, increíblemente precisas para controlar cada una de sus funciones.

Aunque el código de ADN es extraordinariamente complejo, es el sistema de traducción de la información conectado a ese código lo que realmente desconcierta a la ciencia. Como en cualquier lenguaje, las letras y las palabras no significan nada fuera de la convención de lenguaje usada para dar significado a esas letras y palabras. Esto es teoría de información moderna en su esencia. Un ejemplo binario simple de teoría de información es el "Midnight Ride de Paul Revere." En esa historia famosa, el Sr. Revere le pide a un amigo que coloque una luz en la ventana de la Iglesia del Norte si los ingleses venían por tierra, y dos luces si venían por mar. Sin una compartida convención de lenguaje entre Paul Revere y su amigo, ese simple esfuerzo de comunicación no habría significado nada. Bien, tome ese ejemplo simple y multiplíquelo por un factor que contenga cientos de ceros.


IMAGENES DE MINIATURIZACION.













No hay comentarios:

Publicar un comentario