Buscar este blog

domingo, 9 de octubre de 2011

REPARAR UN CD O DVD


Reparar un CD rallado




Este método es un poco "casero" pero funciona, es útil si tenéis algún cd con contenido importante para vosotros. En caso que sea un cd cualquiera (o que podáis hacerla otra vez) es mejor coger el "Leetodo" o "Blind Read" hacer la imagen y montarla otra vez con el Nero.
Si os ocurre el primer caso, entonces...
Primero debéis saber que la parte importante (la que el lector lee) del cd es la parte superior (donde escribimos el nombre del cd). La inferior es la más gruesa, plateada echa de plástico o derivados.


Pero igualmente las ralladas por la parte inferior provocan al lector, cuelgues, o mal sonido. La solución a eso es pulirla, ya que la parte inferior es un poco gruesa y la podemos lijar.
Pero claro, debemos pulirlo con un algún material de lijar suave (cera de coches, limpiador de vitrocerámicas, pasta de dientes...).
Cogemos un algodón fino (que no ralle) y lo untamos de cera, frotamos por la superficie inferior del cd siempre en una misma dirección hasta conseguir que las ralladas desaparezcan.
Este procedimiento como ya he dicho antes es un poco "casero" así que no te garantizo que funcione en todos los casos (ralladuras profundas por ejemplo).



Que Es Multisesion y Para que sirve






Grabar un CD en multisesión



No finalizar un CD y terminar de grabarlo en otro momento puede ser una opción muy interesante para no desperdiciar espacio en un CD virgen.
En primer lugar abrimos el Nero que ha sido el software elegido para crear nuestro CD. En la parte superior de la interfaz, encontraremos varias pestañas (Info, Multisesión, ISO, Etiqueta, Fechas, Varios y Grabar), seleccionaremos la de Multisesión porque es la tarea que vamos a realizar.



En el menú que nos aparece debemos marcar la opción de multisesión. Esto nos permitirá volver a grabar sobre el CD que no completaremos. Una vez hecho esto grabamos el CD como habitualmente estamos acostumbrados. Es decir, arrastramos los archivos que queremos copiar a la ventana correspondiente y pulsamos en el icono de quemar CD. Cuando queramos volver a grabar en ese CD, lo introducimos en la grabadora y Nero reconocerá directamente que no está completado. En caso contrario, en la ventana que nos aparece al principio seleccionaremos la opción Continuar sesión multisesión. Ahora podemos decirle que cuando grabe finalice el CD y no volver a grabar en él o por el contrario dejar esa casilla sin marcar y volver a grabar en otra ocasión del mismo modo hasta que ocupemos toda su capacidad.



Métodos de grabación






Multisesión o track-at-Once:



Mucha gente cree que un CD-R es un disco que se puede escribir una sola vez; esto es cierto, pero hay que matizarlo. Lo que es cuestionable es que los datos guardados en un CD-R no pueden modificarse, porque no permiten la opción de reescritura. Sin embargo, sí existe espacio sobrante en el disco, podremos continuar grabando otro día, hasta ir completando el espacio libre. A cada grabación que hagamos en un disco se le llama “sesión”y la opción multisesión se refiere a que podemos realizar más de una sesión hasta que llenemos el disco. También existe la posibilidad de evitar que se puedan grabar mas datos-añadir más sesiones-, y para ello tendremos que llevar a cabo lo que se denomina “cerrar el disco”. Todos los programas de software de grabación permiten estas operaciones.
La mayoría de lectores CD-Rom actuales leerán sin problemas todas las sesiones almacenadas, pero en unidades antiguas puede suceder que solo sean capaces de leer la ultima sesión. Algo parecido sucede con los equipos de música y en general cualquier lector exclusivo CD-Audio: éstos reconocen únicamente la primera sesión, por lo que, si queremos crear un disco para escucharlo en el equipo de música, no emplearemos multisesión, sino el disc-at-once(DAO). Como nota informativa diremos que, entre sesión y sesión, se graba una información para asegurar la relación entre las distintas sesiones, y esto resta simpre algo de capacidad al disco, de manera que la capacidad útil se ve ligeramente rebajada.






Disc-at-once(DAO):
Esta mopdalidad de grabación no tiene la opción de grabar multiples sesiones por lo que, una vez que hayamos grabado en el disco CD-R, éste queda cerrado y no es posible escribir mas datos en él por mucho espacio libre que haya quedado. Este será desaprovechado y el disco quedará tal y como está. Si queremos copiar un disco a otro, como por ejemplo para realizar una copia idéntica, éste debería ser el método a emplear y también deberíamos de decantarnos por el DAO en el caso de querer crear un disco de audio, prar que todas las canciones queden almacenadas en la primera-y única- sesión, que es la única que pueden leer.






Sesión-at-once(SAO):
Si ya teníamos un método track-at-once y otro Disc-at-once, ¿por qué no tener uno que los mezcle?, pues eso es precisamente el SAO. Gracias a él podemos escribir CDs mixtos, en los que se mezclan pistas de audio con datos para el ordenador. Para hacer esto posible, todas las pistas de audio se graban en una primera sesión, con el estándar CD-audio, y el resto de datos se almacenan en sesiones posteriores, pero con el estándar de datos (en general el ISO). Además, presenta la ventaja de que el disco permite ir añadiendo sesiones siempre que no sean de audio.



Al vuelo (on the fly): La grabación que se realiza directamente desde un disco CD-ROM a otro disco CD-ROM, sea una copia exacta o simplemente la copia de una serie de archivos y directorios, recibe el nombre de on the fly -al vuelo- en la jerga informática.



-Ventajas de este tipo de grabación:
Indudablemente, la primera ventaja evidente de la copia on the fly es que es maás rápida. Ciertamente, por mucho que tengamos un lector CD-ROM de 52x, la velocidad de grabación vendrá limitada por la grabadora, por tratarse de una unidad mucho más lenta -la máxima velocidad actual de grabación es de 16x, para CD-R. Es decir, nos llevaría alrededor de diez minutos realizar una copia completa de un disco de 80 minutos en una grabadora que permita escribir a 8x.Además, al no tener que pasar por el disco duro, no ocupamos espacio en él, con lo cual nos libramos de tener que reservar unos 700 "megas" para realizar copias. Por lo tanto, al no interferir en absoluto el disco duro, los recursos que emplea el sistema son mucho menores, por lo que el procesador queda más liberado, lo cual resulta siempre muy ventajoso en operaciones tan importantes como grabar.



-Los inconvenientes de on the fly:
La principal desventaja de realizar copias al vuelo es el riesgo que conlleva. Efectivamente, el disco CD-ROM fuente debe encontrarse en un buen estado, de manera que permita al lector extraer datos a velocidad suficiente y, sobre todo, constante.Pero no sólo depende del estado del disco, sino que muchas veces es más importante la calidad del lector CD-ROM.Indudablemente , éste deberá tener una velocidad al menos dos veces mayor a la grabación. No olvidemos que las unidades de una velocidad determinada no son capaces de leer continuamente a esa velocidad, sino que se refiere a la máxima posible , y ésta se da al final, en la zona más alejada del centro.Por lo tanto, en pistas cercanas al centro, la velocidad no tiene nada que ver con la máxima, y puede ser demasiado reducida como para grabar.
Además, muchas veces sucede que las unidades lectoras no son capaces de leer todos los datos de un disco, por lo que una copia realizada de disco a disco puede no ser idéntica. En cambio, si se utiliza la grabadora para leer los datos y guardarlos temporalmente en el disco duro-mediante el proceso denominado "imagen"-, al ser ésta capaz de leer datos enmascarados, la probabilidad de que la copia sea exitosa es superior.






Escritura en paquetes (UDF):



Cuando se vio que el estándar ISO 9660 para grabar CDs quedaría limitado para el uso con los discos CD-RW y DVD, se diseñó el estándar UDF. Este estándar se caracteriza por estar optimizado para manejar una gran cantidad de datos y minimizar los cambios si se ha de añadir o eliminar un fichero.



Actualmente se aplica a discos CD-RW, sobre todo para emplearlos como si se tratara de un disquete gigante.Sin embargo, antes de ser empleado como tal, debe ser formateado, y esta labor se resta alrededor de 100 Mbytes. Las ventajas son claras, al igual que la acomodidad. Actualmente el software mas empleado para esto es el Adaptec directCD.


CREAR HIPERVINCULOS CON CODIGO HTML

Para poder crear un hipervinculo en nuestro blog debemos utilizar un codigo HTML. Codigo que encontraremos en el siguyiente link:
Clic Aqui para ver el link.

Se abrira una ventana nueva en la cual tendremos dos opciones para poder crear el hipervinculo. La primera nos permitira crear hipervinculo para ejecutarlo en la misma ventana. La segunda crea el hipervinculo para ejecutarlo en otra ventana.

Este codigo nos sirve de complemento y amplia el manejo del codigo HTML que tenemos hasta el momento pues podemos conbinarlo con el codigo que utilizamos para poner fondo al texto de nuestras ENTRADAS DE BLOG. Por si olvidaron el codigo les dejo el link:

Clic Aqui


Recuerden que todo el codigo debe editarse en la opcion EDICION DE HTML:

Debe quedar de color negro el texto de la pestaña que aparece encerrada en el circulo rojo y para colocar la imagen la buscamos en google le damos doble clic encima para que la abra una vez que ya hemos escogido la imgen adecuada al tema. Luego le damos en ver imagen tamaño completo para que nos lleve al link de origen de la imagen y asi evitar que se dañe la imagen y nuestros visitantes no la puedan ver.



ENTRADAS DEL BLOG CON FONDO



Para poder colocar fondo alas entradas del blog tenemos que hacer lo siguiente damos clic en donde dise EDICION DE HTML




Y PEGAMOS EL TEXTO del siguiente link:


http://tutorialesparablogspot.com/2010/02/poner-fondo-un-widget-o-una-entrada.html


donde dice aqui el contenido agregamos lo que hemos investigado para la publicacion


buscamos una imagen acorde al tema y donde dice URL DE TU IMAGEN copiamos la url de la imgaen que deseamos aplicar

domingo, 25 de septiembre de 2011

FUTBOL



El mundo del fútbol
El fútbol es uno de los deportes más practicado a nivel mundial, tanto a nivel popular como a nivel profesional. Pero la historia del fútbol, lejos de estar ligada siempre a la grandeza de un deporte popular, ha estado sujeta a los avatares de la historia de la humanidad y adaptándose a cada cultura hasta llegar a convertirse en lo que hoy conocemos por fútbol.



Historia del Fútbol
Para empezar a narrar la historia del fútbol y localizar el origen de este deporte sería necesario remontarse hasta las antiguas civilizaciones e imperios, donde pueden encontrarse diversos antecedentes de juegos de pelota con características similares.



Así, según algunas teorías, la historia del fútbol podría comenzar en el antiguo Egipto, ya que durante el siglo III a.C. se realizaba un juego de pelota como parte del rito de la fertilidad, en el que se practicaba algo parecido al balonmano. Sin embargo en China ya se había inventado la pelota de cuero un siglo antes, cuando Fu-Hi, inventor y uno de los cinco grandes gobernantes de la China de la antigüedad, creó una masa esférica juntando varias raíces duras en forma de cerdas a las que recubrió de cuero crudo; con esto nacía la pelota de cuero, con la que se jugaba simplemente a pasarla de mano en mano. Esta pelota fue adoptada posteriormente en los juegos populares de sus vecinos India y Persia. Por otra parte, en las antiguas civilizaciones prehispánicas también se conocen juegos de pelota más similares a lo que se conoce hoy como fútbol. Así por ejemplo los aztecas practicaban el tlachtli, una mezcla entre tenis, fútbol y baloncesto en el que se prohibía el uso de las manos y los pies y el capitán del equipo derrotado era sacrificado.



La historia del fútbol continuaría en la Grecia clásica, donde incluso Homero llegó a hacer alusión también a un juego de pelota, al que llamaban 'esfaira' o 'esferomagia' debido a la esfera hecha de vejiga de buey que se utilizaba en el mismo. Desde ahí pasó al Imperio Romano, que utilizaban en su juego 'harpastum' un elemento esférico llamado 'pila' o 'pilotta' que evolucionó hasta el término 'pelota' utilizado actualmente. Durante la Edad media tuvo mucha fama entre diferentes caballeros y culturas; entre otras anécdotas se dice que Ricardo Corazón de León llegó a proponer al caudillo musulmán Saladino, que dirimieran sus diferencias sobre la propiedad de Jerusalén con un partido de pelota.



Los romanos llevaron hasta Britania su juego de pelota. Durante la Edad Media la historia del fútbol tuvo grandes altibajos y fue prohibido por su carácter violento para más tarde ser adaptado y utilizado como deporte nacional en las islas británicas. A comienzos del Siglo XIX comenzó a practicarse el 'dribbling-game' en las escuelas públicas y de ahí pasó a las universidades más importantes (Oxford, Cambridge) donde se escribieron las primeras reglas (el Primer Reglamento de Cambridge apareció en 1848) y en 1863 se funda la Football Association, naciendo el denominado 'juego moderno' o 'fútbol asociado' y separando este juego del actual rugby. La separación entre el rugby y el fútbol o soccer británico surgió en la Universidad de Rugby, donde comenzó a jugarse un deporte que permitía coger el balón con las manos y correr con él.



El nombre 'fútbol' proviene de la palabra inglesa 'football', que significa 'pie' y 'pelota', por lo que también se le conoce como 'balompié' en diferentes regiones hispano parlantes, en especial Centroamérica y Estados Unidos. En la zona británica también se le conoce como 'soccer', que es una abreviación del término 'Association' que se refiere a la mencionada Football Association inglesa. El uso de un término u otro dependía del status de la clase social en la que se practicaba; así las clases altas jugaban al 'soccer' en las escuelas privadas mientras que las clases trabajadoras jugaban al 'football' en las escuelas públicas.



El fútbol se hizo muy popular en las islas y se extendió gracias a los trabajadores ingleses que marchaban al extranjero con las grandes sociedades financieras y empresas mineras. También se exportó el nombre del deporte, llamándose 'fußball' en Alemania, 'voetbal' en Holanda, 'fotbal' en Escandinavia, 'futebol' en Portugal o 'fútbol' en España, por ejemplo. Pronto surgieron nuevos equipos por toda Europa, como Le Havre Athletic Club en Francia (1.872) o el Génova en Italia (1.893).



En España se comenzó a jugar al fútbol fue en la zona de las Minas de Riotinto (Huelva). Así nació el primer equipo español, el "Huelva Recreation Club" en 1.889, formado exclusivamente por jugadores extranjeros; posteriormente se fundaron el Palamós, el Águilas, el Athletic de Bilbao y el F. C. Barcelona. En 1.902 se disputó la primera competición oficial, la Copa del Rey Alfonso XIII, en la que el Vizcaya le ganó al Barcelona en la final por 2-1.



Ya en el siglo XX, el 21 de mayo de 1.904 se funda la Federación Internacional del Fútbol Asociado (FIFA) y por primera vez se establecen reglas mundiales.



Competiciones
En cuanto a las competiciones a nivel mundial, el torneo más importante es la Copa del Mundo, en lo que a selecciones nacionales se refiere. En cuanto a clubes, se puede seguir considerando como torneo más importante la Copa Intercontinental, que enfrenta al campeón de Europa y al campeón de Sudamérica. Sin embargo, la creación del Campeonato del Mundo de Clubes de la FIFA, el Mundialito, haría que se pudiera considerar como el más importante, puesto que participan los mejores equipos de cada federación continental. Sin embargo, sólo se lleva una edición disputada, y la segunda tuvo que ser suspendida, por lo que su consolidación está lejos de realizarse. La Copa Intercontinental desaparecío en 2004.




domingo, 28 de agosto de 2011

LEY MOORE


Historia

En 1965 un joven ingeniero de nombre Gordon Moore observó una tendencia en los primeros días de la microelectrónica que definió la estrategia de negocios para la industria de los semiconductores de 200.000 millones de dólares de la actualidad.
Esta observación, más tarde denominada Ley de Moore, anticipó que la complejidad de los circuitos integrados se duplicaría cada año con una reducción mensurable en costo.
Esto permitió también a una industria de semiconductores de reciente aparición crear el microprocesador (el cerebro de la computadora) y muchos otros circuitos integrados que han dado lugar a las computadoras personales, Internet, teléfonos móviles y videojuegos. Utilizando adelantos en la tecnología de los chips para computadoras, ahora tenemos películas y programas de TV con imágenes animadas con calidad fotográfica; automóviles que ofrecen un mayor rendimiento del combustible con menos contaminación; una forma de encontrar a nuestras mascotas extraviadas (con chips de identificación implantados); y dispositivos que nos ayudan a ubicarnos en ciudades que no conocemos GPS.


Aplicación

“En Intel trabajamos duro para asegurarnos de que la Ley de Moore continúe guiando a nuestra industria en el futuro. Ya hemos visualizado los próximos 10 a 15 años de adelantos en nuestros laboratorios de investigación”, observó Craig Barrett, CEO de Intel Corporation. “Anticipamos no sólo avances continuos en los sectores tradicionales de la computación y las comunicaciones, sino que también vemos un futuro en el que la tecnología de los semiconductores revolucionará la industria de la atención a la salud, la forma en que educamos a nuestros hijos, la forma de protegernos a nosotros mismos y al ambiente, y el manejo de nuestra vida cotidiana en un mundo más complejo. Los chips de silicio (que el ritmo de la Ley de Moore hace cada vez más poderosos) continuarán ofreciendo estos recursos en el futuro a personas de todo el mundo a un costo cada vez más bajo”.


¿Qué es la Ley de Moore?

El 19 de abril de 1965, la Revista Electronics publicó un documento elaborado por el Sr. Gordon Moore en el cual él anticipaba que la complejidad de los circuitos integrados se duplicaría cada año con una reducción de costo conmensurable. Conocida como la Ley de Moore, su predicción ha hecho posible la proliferación de la tecnología en todo el mundo, y hoy se ha convertido en el motor del rápido cambio tecnológico. Moore actualizó su predicción en 1975 para señalar que el número de transistores en un chip se duplica cada dos años y esto se sigue cumpliendo hoy. Además de proyectar cómo aumenta la complejidad de los chips (medida por transistores contenidos en un chip de computador), la Ley de Moore sugiere también una disminución de los costos. A medida que los componentes y los ingredientes de las plataformas con base de silicio crecen en desempeño se vuelven exponencialmente más económicos de producir, y por lo tanto más abundantes, poderosos y transparentemente integrados en nuestras vidas diarias. Los microprocesadores de hoy se encuentran en todas partes, desde juguetes hasta semáforos para el tránsito. Una tarjeta de felicitación musical que hoy se puede adquirir por muy bajo precio tiene más poder de cómputo que las computadoras centrales más rápidas de hace unas décadas.


La Ley de Moore en perspectiva

La Ley de Moore no es una ley en el sentido científico, sino más bien una observación, y ha sentado las bases de grandes saltos de progreso.
  • En 2004 la industria de los semiconductores produjo más transistores (y a un costo más bajo) que la producción mundial de granos de arroz, según la Semiconductor Industry Association (Asociación de la Industria de los Semiconductores) de los Estados Unidos.
  • Gordon Moore solía estimar que el número de transistores vendidos en un año era igual al número de hormigas en el mundo, pero para el 2003 la industria producía cerca de 1019 transistores y cada hormiga necesitaba cargar 100 transistores a cuestas para conservar la precisión de esta analogía.
  • En 1978, un vuelo comercial entre Nueva York y París costaba cerca de 900 dólares y tardaba 7 horas. Si se hubieran aplicado los mismos principios de la Ley de Moore a la industria de la aviación comercial de la misma forma que se han aplicado a la industria de los semiconductores desde 1978, ese vuelo habría costado cerca de un centavo de dólar y habría tardado menos de 1 segundo en realizarse.


¿ROMPIENDO LA LEY MOORE?

La Ley de Moore fue una declaración formulada en 1965 por Gordon Moore, uno de los fundadores de Intel. Él observó que el número de transistores que se podían insertar en un chip de silicio se duplicaba cada año. Con el correr del tiempo, se ha determinado que éstos se duplican cada 18 meses..
 BONITA IDEA, PERO…
 
La Ley de Moore se ha convertido en uno de los conceptos peor empleados en informática: A pesar que la declaración de Moore se limitó a una cantidad muy específica --el número de transistores en un chip—ahora, en computación, se aplica para casi todo. "El poder de cómputo se duplica cada 18 meses", éste es uno de los malos usos más comunes de la observación realizada por Moore.
 
Hoy, se hacen comparaciones entre distintas cantidades que no tienen nada que ver con la Ley de Moore. Por ejemplo, si "el rendimiento de la red se duplica cada nueve meses", o "la densidad de almacenamiento de datos se duplica cada 12 meses", puede que se diga que estas tendencias están "demostrando" la Ley de Moore. Esto podría significar que, de alguna manera, los procesadores de los computadores no están a la par con el almacenamiento de datos y la capacidad de la red.
 
Esto hace caso omiso de una serie de tendencias que la Ley de Moore no considera. Por ejemplo, el ciclo de reloj de los procesadores aumenta a medida que aumenta el número de transistores por chip. Esto significa que el poder de procesamiento crece más rápido que la Ley de Moore. Además, las mejoras en la arquitectura de los chips y en los sistemas operativos, también hacen que los procesadores sean más poderosos que la mera suma de sus transistores.
 
En resumen, comparar diferentes tasas de crecimiento utilizando la Ley de Moore es, a menudo, engañoso. Lo mejor es ver la Ley de Moore simplemente como una metáfora del crecimiento exponencial en el rendimiento del hardware de las TI.
 
ALGO MÁS ACERCA DE LA LEY DE MOORE
 
Como resultado de este crecimiento exponencial, con cada año que pasa, el concepto de grid se hace más viable: las redes se hacen más rápidas y los computadores distribuidos pueden ser más estrechamente integrados.
 
Las computadoras individuales también se han hecho más poderosos, lo que significa que las grid computacionales son cada vez más capaces de resolver problemas cada vez más complejos. Todo este poder computacional ayuda a nuestros científicos a encontrar soluciones a las grandes problemáticas, como el cambio climático y la energía sustentable.

domingo, 21 de agosto de 2011

Transistor 3D

El término transistor 3D (o tridimensional), es usualmente utilizado para referirse a transistores con una arquitectura tridimensional, lo que supone añadir una dimensión adicional a los transistores actuales, los cuales están fabricados en dos dimensiones.
La fabricación de transistores tridimensionales no es excesivamente novedosa, si se tiene en cuenta que desde hace alrededor de una década compañías como IBM, TSMC, Infineon e Intel entre otras, vienen desarrollando este tipo de transistores (aunque solamente haya sido en prototipos con fines de investigación).
Entre las ventajas de este tipo de transistores, se pueden destacar las siguientes:
  • El consumo eléctrico es considerablemente menor que el causado por el uso de transistores bidimensionales.
  • Este menor consumo de potencia se debe en su mayoría a que existen menos fugas de electrones entre la fuente y el colector.
  • También se consigue un mayor rendimiento de las operaciones de comunicación entre transistores debido a que los caminos entre ellos se pueden acortar gracias a la nueva dimensión utilizada.




El transistor denominado Tri-Gate en combinación con el microprocesador "Ivy Bridge", utiliza una estructura tridimensional superando la usual bidimensional hasta ahora utilizada en la mayoría de los teléfonos móviles, computadoras, dispositivos electrónicos, automóviles, aeronaves, electrodomésticos, dispositivos médicos y muchos más.
"Los científicos e ingenieros de Intel, una vez más reinventaron el transistor, esta vez utilizando la tercera dimensión," dijo el presidente de Intel, Paul Otellini. "Increíbles dispositivos que cambiarán el mundo serán creados a partir de esta nueva capacidad al mismo tiempo que movemos la Ley de Moore hacia nuevas realidades."

La ley de Moore ayuda a pronosticar el ritmo del desarrollo de la tecnología del silicio. Esta dice que aproximadamente cada 2 años la densidad de los transistores se duplicará, al mismo tiempo que la funcionalidad y el rendimiento disminuyendo los costos. Intel explicó que ésta, se ha convertido en el modelo de negocio básico para la industria de los semiconductores durante más de 40 años.
Esta nueva tecnología permitirá a los chips operar con un voltaje más bajo y con una menor fuga obteniendo un 37% más de rendimiento con un voltaje bajo en comparación con los transistores planos de 32 nanómetros de Intel.
"Al igual que los rascacielos permiten que los planificadores urbanos optimicen el espacio construyendo hacia arriba, así la nueva estructura de los transistores 3D Tri-Gate de Intel proveen una forma de administrar la densidad," agregó Intel.
Intel informó que el proceso de manufacturación comenzará pronto en el nodo conocido como 22nm en referencia al producto. Agregó que en el punto de un texto como el de este artículo, podrían caber más de 6 millones de transistores Tri-Gate de 22 nanómetros.

Tras una década de investigación y desarrollo, Intel y su tecnología Tri-Gate añaden una nueva dimensión a los transistores microscópicos utilizados en procesadores de TI. Desde grandes unidades principales hasta minúsculos sensores embebidos cambiarán las unidades de procesamiento planas por una tecnología en tres dimensiones que fue dada a conocer por primera vez en 2002 y que se empezará a fabricar este mismo año.

Los nuevos chips Ivy Bridge de Intel serán los encargados de estrenar los transistores Tri-Gate en 3D de 22 nm, que ofrecen hasta un 37% más de rendimiento en baja tensión
en comparación con los actuales transistores planos de 32 nm. Este aumento significativo indica que son ideales para su uso en pequeños dispositivos portátiles, que utilizan menos energía para “encender y apagar, apagar y encender”, comenta Bohr. También consumen un 50% menos en la misma situación de rendimiento en carga baja y son más baratos en relación a prestaciones, ya que el coste de producción sólo aumentaría entre un 2 y un 3%.
fsdvgLos nuevos transitores, más pequeños que los actuales, permitirán a los microprocesadores funcionar a menor voltaje con pérdidas mínimas, proporcionando una combinación de rendimiento mejorado y eficiencia energéticanunca antes vista en la industria, según ha explicado Mark Bohr, director de procesos de fabricación e integración de Intel. Además, los diseñadores tendrán flexibilidad para elegir transistores de baja potencia o de alto rendimiento, dependiendo de la aplicación, ya que “los Tri-Gates son muy competentes en ambos”, asegura Rohr.
Las plantas de fabricación de Intel empezarán a funcionar a todo gas a finales de año para producir la nueva tecnología de 22 nanómetros, momento en que los diseños planos serán desechados por completo. No hay información sobre cómo o cuándo va a ser comercializada o integrada en las líneas de productos existentes.
Lo que sí es probable es que este adelanto cambie la forma de hacer negocios en el área de los procesadores de TI, ya que pone en jaque a AMD y sus combos de bajo consumo como Fusion. Si bien AMD todavía posee el liderazgo en gráficos, este impulso en la eficiencia por parte de Intel podría hacer peligrar su reinado en el terreno de los “todo en uno” y los portátiles ultrafinos.
A continuación un vídeo demostración sobre los nuevos transistores tridimensionales Tri-Gate.