Libertonia
Portada · Todo · Software Libre · Desarrolladores · Comunidad · Internet · Tecnología · Meta · Diarios
64 bits, ¿para quién?

Hardware
Por man ls
departamento paracuellos , Sección Tecnología
Puesto a las Mon Nov 14th, 2005 at 07:37:51 PM CET
Tras mi flamante compra de un amd64, estoy probando algunas distros; y veo que algunas todavía están un poco verdes. Se me ocurre la pregunta ¿quién necesita en realidad 64 bits?

 


nace un monstruo

Todo empezó a principios de este milenio, cuando Intel estaba luchando en la carrera de los megahercios (en breve gigahercios) contra AMD. Sus ingenieros, presionados por la gerencia para romper la barrera de los 2 GHz cuanto antes, salieron con un diseño monstruoso: pipelines de 5 y más pasos, un montón de unidades de procesamiento interno, un consumo energético brutal (los 60 W no eran raros ni siquiera al principio, como una bombilla potente; hoy día es difícil librarse de los 100 W) y una disipación de calor desmesurada. Pero así podían cumplir con los deseos del departamento de marketing: más gigahercios.

Los primeros Pentium 4 fueron un desastre: iban peor que la anterior generación de Pentium 3 a la misma velocidad. Sin embargo, ocuparon el espacio y siguieron durante un tiempo forzando la máquina para subir de velocidad, contra las limitaciones cuánticas que inevitablemente acabarían deteniendo la carrera de velocidad de reloj. Dado el enorme peso de Intel, bastaba con desfasar la familia anterior y dejar que los Pentium 4 coparan el mercado.

Mientras tanto, en AMD respondieron de otra manera a la presión. En lugar de subir los megahercios reales, los del departamento de marketing se dieron cuenta de que bastaba con subir el numerito: así, el Athlon 1700+ iba en realidad a 1470 MHz, mi amd64 3200+ va a 2 GHz... es un timo, en realidad, pero en la práctica menos dañino que el engendro de Intel.

correr para no moverse

Hoy día, curiosamente, en Intel siguen haciendo los procesadores más rápidos que nadie... pero es mucho correr para seguir en el mismo sitio. ¿Cómo es posible que un procesador que va más rápido sea luego más lento?

Para comprenderlo es necesario entrar un poco en cómo funciona un procesador. La "velocidad" anunciada no es tal en realidad, sino una frecuencia; de ahí que se mida en hercios (Hertz o Hz, oscilaciones por segundo). Se trata de una oscilación que controla los golpes de corriente que formarán las unidades de proceso (los bits). En cada golpe, si no hay corriente será un "0", con corriente cuenta como un "1".

a qué velocidad va un electrón

Un procesador moderno tiene millones de transistores o "puertas lógicas"; cada puerta realiza una operación con los electrones. (Para ser exactos, los golpes de corriente lo que hacen es imprimir movimiento a los electrones de un material.) Por supuesto, una operación no puede comenzar hasta que los electrones de la corriente anterior han terminado de pasar por la puerta. Los electrones van siempre a velocidad finita, menor que la velocidad de la luz; y cuanto más grande la puerta, más se tarda en recorrerla. De ahí que la miniaturización haya permitido que cada vez haya más golpes de corriente (hercios) por segundo.

Pero la segunda parte de las operaciones por segundo que realiza un procesador consiste en atravesar todas las puertas necesarias y producir el resultado pedido. Antiguamente la unidad aritmético-lógica (o ALU) era la encargada de realizar cada operación. Cuando las operaciones se volvieron demasiado complejas para resolverlas de una vez, se añadieron más unidades de ejecución en los llamados diseños super-escalares; además de descomponer las operaciones en subcomponentes y ejecutarlas en tubería o pipeline.

La tubería va llenándose por un extremo de instrucciones, que se van resolviendo paso por paso. Pero ¿qué ocurre cuando hay una toma de decisión, como un if en un lenguaje de programación? En el lenguaje que entiende el procesador, el código máquina, se continúa ejecutando a partir de dos puntos distintos: si la condición es cierta, haz esto; si no, haz esto otro. El procesador habrá llenado la tubería en vano; cuando se salte a la nueva tarea, habrá que vaciarla y empezar a llenarla de nuevo. Y en código máquina estos saltos son muy frecuentes, mucho más que en los lenguajes normales de programación. La predicción de saltos es un intento de los diseñadores de procesadores por estimar por dónde seguirá la ejecución; obviamente no funciona demasiado bien, porque para calcular por dónde seguirá la ejecución es necesario seguir todos los pasos y ejecutar todas las instrucciones.

Podemos ver, intuitivamente, que un procesador a más GHz (mil millones de Hz) y con más pasos en la tubería irá más rápido en teoría, pero en la práctica tanto llenarla y vaciarla acabará pasando factura. Un diseño más limpio y más honesto será más eficiente con los Hz (los golpes de corriente) y podrá tener un rendimiento similar. El término "velocidad" no deja de ser una metáfora; los electrones no van más rápido al aumentar los GHz.

sucumbiendo a Moore

El fundador de Intel, Gordon Moore, predijo en 1965 en su famosa Ley que el número de transistores en un chip se duplicaría cada año y medio. Esto implicaba reducir su tamaño; y durante mucho tiempo esto posibilitó también aumentar las frecuencias de reloj en la misma proporción, ya que cada golpe de corriente tardaba menos en pasar por las puertas lógicas.

Sin embargo, era imposible continuar eternamente como el increíble hombre menguante: eventualmente se alcanzarían los límites de la electrónica clásica. Allá por el año 2000 la pequeña escala que se había conseguido hacía que los fenómenos cuánticos comenzaran a manifestarse: por ejemplo el efecto túnel o las irregularidades en la corriente debidas al escaso número de electrones. Pero no se trataba sólo de fluctuaciones nanoscópicas: a su vez tenían consecuencias a nuestra escala muy visibles, en forma de calor disipado. Los electrones que perdían el camino correcto, las famosas fugas de corriente, dejaban su energía en forma de calor; aumentando por un lado el consumo del procesador (los electrones que se le enchufan por segundo, o para ser más exactos la fuerza con la que van esos electrones) y por otro el calor a disipar (la fuerza sobrante se convierte en calor).

por fin, los 64 bits

Los restantes fabricantes de procesadores, aparte de jugar a trucos de marketing con la "velocidad" anunciada, tomaron la ruta contraria a Intel: simplificar los diseños lo más posible, con vistas a aprovechar mejor los preciosos MHz. AMD, IBM; incluso la propia Intel acabaría resucitando la familia de Pentium 3 y evolucionándola hacia el muchísimo más eficiente Pentium M.

En un momento dado se hizo necesario además aumentar los bits procesados por ciclo de reloj, alcanzando los 64 bits. Este momento había llegado ya en 1992 para los procesadores Alpha de DEC, adelantados a su tiempo en todos los sentidos; no fue hasta el 2002 para el G5 de IBM; y en 2003 para AMD y su nuevo juego de instrucciones amd64, quien para entonces había contratado a una parte del equipo de DEC que diseñó los Alpha. Intel cedió en el 2004 y sacó su triste copia EM64T, para irritación de Linus Torvalds. El juego de instrucciones es casi idéntico, pero el diseño interno (y por tanto el rendimiento) es peor.

Es cierto que Intel tenía su propia arquitectura de 64 bits, Itanium, desde 2001. Pero fue un fracaso descomunal: basada en instrucciones de palabra muy largas, era el compilador el que debía colocar las instrucciones para su ejecución en el orden óptimo. Con ello se ahorraban la circuitería dedicada a reordenar las instrucciones para la tubería y para la ejecución superescalar; y con ello el código heredado de 32 bits dejaba de ir a una velocidad razonable. Unido a su altísimo precio, a la dificultad de evolucionar la arquitectura sin provocar terribles pérdidas de rendimiento y a otros factores, los procesadores Itanium han sido un completo fracaso, aceptado implícitamente por Intel al copiar la arquitectura amd64.

la libertad del software, al rescate

El software propietario ha tardado bastante en llegar a los 64 bits. Hasta abril de 2005 y la versión Tiger de Mac OS X, Apple no dispuso de un sistema de 64 bits. La versión de WinXP de 64 bits no está todavía a la venta para los usuarios domésticos.

Sin embargo, Linux se ha adaptado muy bien a la arquitectura amd64. Salvo ciertos elementos de software propietario que dependen de cuándo el fabricante decida sacar una nueva versión (módulos propietarios del kernel para tarjetas gráficas, plugin de Flash, Java de Sun), el resto del software en un sistema GNU/Linux estaba a una recompilación de distancia de ser 64-bit clean: es decir, de ejecutarse completamente en 64 bits. Dado que ya había versiones de Linux y del sistema completo (Debian por ejemplo) para otros procesadores de 64 bits desde hace años, el código estaba preparado; además, los ingenieros de AMD se aseguraron de hacer funcionar el compilador gcc. Linux era muy importante para la familia Opteron, donde debutó la arquitectura: estaba orientada al mercado de servidores y a la computación de alto rendimiento, sitios donde GNU/Linux no tiene rival actualmente (como reconoce hasta Microsoft).

Actualmente existen distribuciones para amd64 (también conocida como x86-64) de Debian (no oficial), Ubuntu, SUSE, Red Hat, Gentoo y Mandriva, al menos. Es difícil saber el mercado exacto que tienen; por un lado la familia Opteron lleva tiempo en el mercado de servidores, y hasta Sun la ha adoptado como suya; por otro, el mercado doméstico parece ir más lento. Recientemente nos hemos enterado de que AMD ha aumentado su cuota de mercado un 50%. Dado que todos sus procesadores actuales son de 64 bits, parece que la arquitectura se está volviendo bastante popular. El hecho de que las distribuciones más importantes la hayan adoptado tan rápidamente lo confirma.

Hasta que los fabricantes produzcan versiones de 64 bits de sus productos, el software libre tendrá una ventaja considerable que debemos aprovechar.

< Nueva versión de Ubuntu 5.10 (3 comments) | Ahora en serio: 64 bits, ¿para quién? (226 comments) >
Enlaces Relacionados
· escomposlinux.org
· flamante compra de un amd64
· probando algunas distros
· o ALU
· super-escalares
· pipeline
· su famosa Ley
· Alpha de DEC
· el G5 de IBM
· amd64
· EM64T
· irritación de Linus Torvalds
· rendimiento
· Itanium
· sistema de 64 bits
· WinXP de 64 bits
· reconoce hasta Microsoft
· AMD ha aumentado su cuota de mercado un 50%
· More on Hardware
· Also by man ls

Encuesta
¿Tienes pensado pasarte a amd64?
· Ya lo hice 21%
· Me gusta la idea 43%
· No estoy seguro 8%
· No me convence 13%
· Paso 13%

Votos: 23
Resultados | Otras Encuestas

Menu
· crear cuenta
· FAQ
· búsqueda
· Fuentes de Noticias

Login
Nueva cuenta
Usuario:
Contraseña:

Ver: Modo: Orden:
64 bits, ¿para quién? | 36 comentarios (36 temáticos, editoriales, 0 ocultos)
¡No hay que tomarselo asi! (4.00 / 1) (#32)
por presi a las Mon Nov 21st, 2005 at 09:09:09 PM CET
(Información Usuario) http://presi.org

¿Soy el único que ha entendido que el artículo iba dirigido a una audencia de no iniciados?

Sí, tendrá imprecisiones, simplificaciones y se habrá tomado un montón de licencias pero en mi opinión sirve perfectamente para que los que no tienen conocimientos sobre procesadores puedan hacerse una idea de cómo está el panorama a grandes rasgos, las réplicas que se han dado aunque más precisas y correctas, les sonarán a chino a los no iniciados.

En lo que sí estoy de acuerdo es en que no se responde a la pregunta formulada al inicio: ¿quién necesita en realidad 64 bits?.



 
Ánimos... (3.00 / 1) (#20)
por arturop a las Tue Nov 15th, 2005 at 08:50:14 AM CET
(Información Usuario)

Hola a todos!

Pues sí, es un off-topic total en vuestra discusión, pero no puedo dejar pasar la ocasión sin animar a man ls a seguir escribiendo artículos.

Es curioso que con la escasez de artículos que tenemos en libertonia realicéis críticas tan ácidas y destructivas cuando alguien se decide a publicar algo.

No entiendo como teniendo algunos de vosotros tantos conocimientos no os animáis a escribir al respecto. No hace falta que nos iluminéis con vuestro saber para corregir cuando escriben otros. Agradeceríamos muchos más que lo hiciérais directamente y nos ahorrárais directamente tantas réplicas.

Muchas gracias por vuestra atención.

Un saludo



Gracias por los ánimos (none / 0) (#21)
por man ls a las Tue Nov 15th, 2005 at 11:11:30 AM CET
(Información Usuario)

No me tomo las críticas como algo ácido o destructivo, sino como una oportunidad para mejorar y mandar noticias más interesantes. Por ejemplo, si ahora mismo mandara (¿"manduviera"?) este artículo, dejaría fuera la parte de electrónica que parece que no ha gustado. Por otro lado, ha servido para que jorginius (tras hacerse de rogar) nos diera una explicación correcta.

Gracias de nuevo.

[ Padre ]


La electronica (none / 0) (#22)
por ridiculum a las Tue Nov 15th, 2005 at 11:55:48 AM CET
(Información Usuario)

El problema es que ni es conveniente ni necesario bajar a nivel de transistores para explicar las partes buenas/malas de un micro.

Un micro ya es suficientemente complejo incluso en altos niveles de abstraccion (fijate simplemente el tamaño de los libros de Patterson y Hennessy), como para meterse en camisa de once varas con el diseño full-custom, la microelectronica. En la universidad no cuentan nada de eso (o al menos nada que se parezca a la realidad) asi que lo mas normal es que el 150% de los que se escriba por aqui al respecto sera como minimo, impreciso.

[ Padre ]


Es casi más física (none / 0) (#23)
por man ls a las Tue Nov 15th, 2005 at 01:14:58 PM CET
(Información Usuario)

La electrónica me parece complejísima, y en asuntos de alto nivel ni se me ocurre meterme. Pero aquí en realidad el problema es físico, casi más que electrónico: se llevaba tiempo avisando de que los procesadores se acercaban a su límite cuántico, y así ha sido. De aquí han venido todos los problemas de Intel, así que era realmente relevante para el artículo. Había un par de salidas posibles para el dilema, e Intel -- dominada seguramente por su departamento de marketing -- tomó la errónea con el Pentium 4. (Por otro lado, con el Pentium M tomó el camino opuesto; con resultados mucho mejores).

No es que me sorprenda. El otro día estuve viendo portátiles, y los que llevaban Intel Inside mostraban una ridícula presentación que contaba las bondades de los procesadores, en este caso los Pentium D que son double core o de doble núcleo. Bien, pues ¡decía que al ser de doble núcleo permitían a uno de la familia ver la tele, al mismo tiempo que otro podía navegar por la internés! ¡Pero si sólo tienes un ordenador, criatura! Con este nivelón, lo de los gigahercios es poca cosa.

[ Padre ]


 
Sobre la explicación "más correcta" (none / 0) (#24)
por shamkao a las Tue Nov 15th, 2005 at 05:24:40 PM CET
(Información Usuario)

No es por seguir echando leña al fuego, pero creo que jorginius también a cometido errores básicos de esos que te achacaba a tí.

[ Padre ]


Ahí voy (5.00 / 1) (#28)
por shamkao a las Tue Nov 15th, 2005 at 10:00:26 PM CET
(Información Usuario)

Antes no he puesto las cosas que consideraba que no estaban del todo correctas, porque estaba en el curro.
Con unos conocimientos a nivel de EGB se puede plantear un primer contacto con el problema. Si los transistores son cada vez más pequeños entonces los "cables" que los conectan entre sí tienen que ser más pequeños también. La resistencia de un conductor es inversamente proporcional a su sección, luego la resistencia en los cables según hacemos transistores más pequeños es mayor lo que se traduce en que la señal e propaga más lentamente por esos cables.


La velocidad de propagación de una señal radioelectrica no depende de la resistencia total del cable. Dicha velocidad es constante y sólo depende del tipo de material, ya que la velocidad de una onda electromagnética es igual a: 1/(conductividad * permeabilidad_magnética) , siendo ambas constantes del material. Recordar que la conductividad = 1/resistividad y que para un cable de sección constante a lo largo de la longitud, la resistencia R = resistividad * longitud/sección.
Podríamos pensar en, ya que tenemos que hacerlos estrechos, hagamos más grande la sección haciéndolos más altos. Esto tampoco funciona porque al final te encuentras con que tienes "placas" conductoras paralelas, es decir: hay efecto de capacidad (condensación) que además va a peor según aumentamos la frecuencia.


Esto es correcto, pero me gustaría ampliarlo. No sólo tienes esa capacidad, sino que aparecen capacidades parásitas entre las distintas patas del transistor, más molestas aún. Además de degradar la respuesta a altas frecuencias, disparan el consumo de los circuitos (Corrientes de fugas). Un objetivo de la miniaturización es que los transistores y por extensión los circuitos electrónicos consuman menos, pero a medida que vamos aumentando la frecuencia a la que trabajan, las corrientes de fuga debidas a las capacidades parásitas, son más importantes.

Otro problema importante es la propagación de la señal de reloj en un circuito complejo con varias unidades lógicas. Puesto que los circuitos en una CPU típica son síncronos, es importante que los flancos de reloj se den en todos los puntos del circuito al mismo tiempo, o, que al menos se haya tenido en cuenta este efecto.

No sólo la propagación de las señales limita la frecuencia máxima de funcionamiento de una CPU, también tenemos los tiempos de procesamiento de cada uno de los circuitos. Su efecto puede ser más o menos importante dependiendo del circuito, por ejemplo, una ALU con acarreo anticipado para sumas y multiplicaciones, puede ahorrar una cantidad de tiempo muy importante (aunque haya introducido más circuitería) respecto a una con un diseño básico y más simple en la que no hay circuitería adicional. Uno de los efectos positivos de la miniaturización, es el hecho de que nos permite insertar más circuitería en un sólo chip. Esta circuitería puede usarse para ahorrar tiempo (como en el caso de la ALU) y de este modo poder aumentar la frecuencia de reloj, o para realizar más operaciones en paralelo y así incrementar el número de instrucciones por ciclo de reloj (un ejemplo típico son las unidades de operaciones vectoriales).

La potencia consumida por un circuito es proporcional al voltaje utilizado , la capacidad, y la frecuencia de trabajo. La miniaturización favorece una reducción del voltaje, y si se diseñan bien las células lógicas, pueden disminuir las capacidades. Como efectos secundarios, pueden darse un aumento de la resistencia de los transistores (por lo tanto aumenta el calor por efecto Joule) y los efectos de las corrientes de fugas, además de que al estar más juntos, la disipación del calor es peor.

Hay que tener en cuenta, que la energía que consume un circuito, en su mayor parte, va destinada a mover los electrones de un lado a otro. En este movimiento de electrones, gran parte se transforma en calor. [opinión personal] Por eso, considero que las CPUs que priman en su diseño la eficiencia por ciclo de reloj para conseguir incrementar la capacidad de cómputo son mejores que los que centran en incrementar la potencia de procesamiento a base exclusivamente de incrementos de la frecuencia de reloj [/opinión personal]. Por eso, los 64 bits permiten conseguir un incremento de la capacidad de cálculo, puesto que se a añadido circuitería para aumentar la eficiencia por ciclo de reloj.

[ Padre ]


Puntualización sobre la velocidad (none / 0) (#29)
por jorginius ("jorginius" en Google Mail) a las Wed Nov 16th, 2005 at 02:25:07 AM CET
(Información Usuario) http://www.rodriguezmoreno.com

La velocidad de propagación de una señal radioelectrica no depende de la resistencia total del cable.

Dicha velocidad es constante y sólo depende del tipo de material, ya que la velocidad de una onda electromagnética es igual a: 1/(conductividad * permeabilidad_magnética)


Bueno, si nos vamos a poner así... :-) La velocidad de propagación es proporcional a la raíz cuadrada inversa de la constante dieléctrica. La constante dieléctrica no sólo depende del material sino también de la frecuencia y de la temperatura.

Tienes razón en que es un poco columpiarse hablar aquí de resistencia pero las dimensiones sí que influyen en la velocidad de propagación. Según nos acercamos a las dimensiones críticas la resistividad crece exponencialmente por el descenso de la movilidad de los electrones debido, entre otros factores, a la dispersión superficial.

Si la resisitividad está aumentando y la capacitancia se mantiene entonces el retardo en los cables no hace más que aumentar a pesar de que cada vez sean más cortos.

Se me ocurrió tirar de la ley de Ohm para explicar de forma sencilla por la relación entre el tamaño y la resistencia y entre resistencia y resisitividad pero quizás fue un poco abusar. Perdón, perdón.

Sobre lo demás no hay nada que objetar.

Por cierto, cambiando de tema y viendo lo que ha pasado... Las versión de Scoop que usa kuro5hin permite ediciones en la cola de envíos. Estaría bien tener en libertonia para retocar los artículos "por consenso" antes de sacarlos X-). Ahora, si hay que cambiar algo, dependemos de algún BOFH buen samaritano.

Es más, yo no sigo el desarrollo de Scoop demasiado pero hace tiempo leí en alguna parte que estaban trabajando para permitir ediciones colaborativas, en plan wiki: el autor del artículo podía dar permisos de edición del mismo (mientras estuviese en la cola) a quien él quisiera. Eso estaría chulo: cada uno podría aportar algo a los artículos antes de sacarlos a portada.

Lo pondré en mi carta de los reyes magos, a ver si hay suerte :-)

[ Padre ]


Donde digo raíz cuadrada inversa... (none / 0) (#30)
por jorginius ("jorginius" en Google Mail) a las Wed Nov 16th, 2005 at 02:31:18 AM CET
(Información Usuario) http://www.rodriguezmoreno.com

Es inversa de la raíz cuadrada, que aquí hay que andarse con pies de plomo X-D

[ Padre ]


 
¡Ay pallo, ese BOFH buen samaritaaanoooo! (none / 0) (#31)
por iarenaza a las Wed Nov 16th, 2005 at 01:13:22 PM CET
(Información Usuario) http://www.escomposlinux.org/

Por cierto, cambiando de tema y viendo lo que ha pasado... Las versión de Scoop que usa kuro5hin permite ediciones en la cola de envíos. Estaría bien tener en libertonia para retocar los artículos "por consenso" antes de sacarlos X-). Ahora, si hay que cambiar algo, dependemos de algún BOFH buen samaritano.


Me temo que la política actual del sitio respecto al código de Scoop es la de deep freeze (o si se prefiere, completely frozen).

Este humilde administrador que escribe no tiene ni el tiempo ni el ánimo para meterle mano al bicho y saltar a la versión actual de Scoop. Primero (pero menos problemático) porque hemos hecho cambios locales que tendríamos que (posiblemente) portar a la versión actual. Y segundo, y más peliagudo y costoso en tiempo, porque migrar los datos de los usuarios, historias, comentarios y demás habría que hacerlo con lupa (la última vez que miré este tema, los chicos de kuro5hin.org no tenían herramientas para hacer todo eso de forma automatizada y confiable).

Claro que si algun valiente se anima y las mejoras realmene van a merecer la pena el esfuerzo...

Saludos. Iñaki.

[ Padre ]


 
Acabo de ver la falta de ortografía (none / 0) (#25)
por shamkao a las Tue Nov 15th, 2005 at 05:26:23 PM CET
(Información Usuario)

No tiene perdón ese ha cometido

[ Padre ]


 
¿Puedes corregirlos? (none / 0) (#26)
por man ls a las Tue Nov 15th, 2005 at 06:00:13 PM CET
(Información Usuario)

Estaría bien que dieras una explicación más correcta entonces. Es la única manera de enterarnos de si tienes razón.

[ Padre ]


 
Que yo vea... (none / 0) (#27)
por jorginius ("jorginius" en Google Mail) a las Tue Nov 15th, 2005 at 06:17:08 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

Hay un columpio con lo de TTL. Si hay otros corrígelos por favor.

[ Padre ]


 
Como se puede decir tanto sin saber nada... (1.00 / 1) (#18)
por LaNsHoR a las Tue Nov 15th, 2005 at 03:33:42 AM CET
(Información Usuario)

- Quien a escrito eso??? Tecnicamente es una patada en el culo y me ha parecido mas un planfeto PRO-AMD que un articulo historico. Alguien deberia pasarse por mi asignatura "arquitectura e ingenieria de computadores". Como se puede decir que el cuello de botella de la frecuencia es la velocidad de los electrones al recorrer la circuiteria interna entre transistor y transistor?? Alguien tiene una idea de la velocidad a la que van esos electrones? Como se puede decir que una puerta mas pequeña es una puerta mas rapida? ... Podria seguir haciendo preguntas de estas... Un procesador hoy en dia se enfrenta a muchos problemas, la miniaturizacion ayuda a reducir el calor, pero una puerta rapida (que no tiene porque ser pequeña) es una puerta bien hecha (idalmente que todas las entradas tarden exactamente lo mismo en entrar y llegar a los transistores (a la vez) y generar las salidas (a la vez)), y una puerta bien hecha, cuanto mas grande mas facil de hacer. Si tuviesemos una puerta fisicamente perfecta, al tener que sacar el minimo comun multimo del retardo de propagacion de cada señal nos dariamos cuenta que (estando sobre un superconductor de resistencia 0) podriamos general impulsos de bits a la velocidad de la luz, aunque nunca tendremos una maquina que aprobeche eso, ni una puerta tan perfecta. Pues yo tengo dos pentium4, y me los volveria a comprar, el rendimiento que me ofrecen en muchas aplicaciones no se puede comparar a los de un AMD, creo que cada procesador es para una cosa... y yo necesito pentium4.



Vaya troll (none / 0) (#19)
por man ls a las Tue Nov 15th, 2005 at 08:45:11 AM CET
(Información Usuario)

Sí, hombre, tú eres profesor de universidad, y yo soy el Ratoncito Pérez. Cómprate un corrector ortográfico para tu Ofisequispé y luego hablamos de mi "planfeto", pequeñín.

[ Padre ]


 
Esta bien, a pesar de algún error (none / 0) (#1)
por Ed hunter (eduardo.mestreENhispalinux.es) a las Thu Nov 10th, 2005 at 09:26:23 AM CET
(Información Usuario) http://speedball.servemp3.com

Como los "golpes de corriente" y lo de "hay corriente es 1" que no es estrictamente cierto, ya que no sólo puede usarse lógica inversa, sino que además no es cierto que sea la presencia o no de corriente lo que se utiliza para determinar el estado del bit, sino de voltage.

Además el título del artículo nada tiene que ver con el contenido. ¿Para quién son los 64 bits? pues el artículo no lo dice, pero se supone que tarde o temprano será para todos, ya que será todo lo que haya a la venta. Pero el título parece que diga ¿para quién va bien tener 64 bits? o ¿para que sirve tener 64 bits? o incluso ¿qué mejoras tienen los 64 bits sobre los 32? todo ello cosas que no responde el artículo y que son de interes.

Speedball la banda de heavy más chunga
Ven al Helvete Metal Bar


Aquí corriente o voltaje da más o menos igual (none / 0) (#2)
por jorginius ("jorginius" en Google Mail) a las Thu Nov 10th, 2005 at 11:48:01 AM CET
(Información Usuario) http://www.rodriguezmoreno.com

además no es cierto que sea la presencia o no de corriente lo que se utiliza para determinar el estado del bit, sino de voltage.

Mirando más abajo también se podría decir que lo que determina el estado final es qué transistores conducen y cuáles están cortados. En definitiva cuales dejan circular la corriente y cuales no.

De todas formas estoy contigo en que asociar a priori paso de corriente a un nivel alto (o bajo) no tiene ni pies ni cabeza porque depende del diseño, de lo que estemos tomando como salida. Si no hubiera más remedio que mojarse yo diría que paso de corriente es nivel bajo (si pasa corriente, la tensión en los terminales de trabajo del transistor es pequeña).

Hay muchos más puntos que chirrían:

  • Asociar frecuencia con "golpes de corriente" (¿qué será eso?). La frecuencia indica la velocidad a la que varían las salidas en función de las entradas. Las entradas no tienen por qué ser, y habitualmente no son, corrientes.
  • ¿Los bits son "unidades de proceso"?. Un bit es una unidad de información. ¿Qué procesa un bit?
  • La relación entre longitud del semiconductor y frecuencia está tan traída de los pelos que se podría decir que es falsa. El tiempo de conmutación en un transistor, que es lo que fija la frecuencia máxima, depende de la interacción entre las cuatro capacidades no lineales que se forman entre uniones. La longitud del material es un parámetro más y reduciendolo sólo a él no obtienes per sé conmutaciones más rápidas (si acaso _al contrario_). Eso del "tiempo que se tarda en recorrer la puerta" es falso. Hablamos del tiempo que tardan en recombinarse los portadores, en vencer la "inercia" en la polarización de las uniones.
  • La corriente no mueve a los electrones. Es el campo electrico, la diferencia de potencial, lo que lo hace, y esto genera la corriente, que es ni más ni menos un flujo de electrones. Lo de la corriente moviendo los electrones sería como decir que es el río el que mueve al agua.
  • Y he parado aquí porque no he podido leer más.


Esto necesita una reescritura a fondo, con una explicación o bien más simple y abstracta o bien más precisa y acertada. -1.

[ Padre ]


Un poco de imaginación (5.00 / 1) (#6)
por man ls a las Thu Nov 10th, 2005 at 01:52:20 PM CET
(Información Usuario)

De todas formas estoy contigo en que asociar a priori paso de corriente a un nivel alto (o bajo) no tiene ni pies ni cabeza porque depende del diseño
Es decir, que ¿podría ser cierto? Medio punto entonces, ¿no?
Asociar frecuencia con "golpes de corriente" (¿qué será eso?).
Intentaba que el lector se imagine, en lugar de una corriente continua (como en una bombilla) o alterna (como en un enchufe), una corriente que aparece y desaparece por pasos discretos. Puede que la metáfora no sea muy acertada.
Las entradas no tienen por qué ser, y habitualmente no son, corrientes.
¿Ah, no? ¿Qué son entonces? Yo pensaba que las entradas y salidas de los circuitos eran voltajes, que vienen a ser corrientes (sin corriente eléctrica no hay voltaje). Igual ahora entran y salen cromos de Pikachu de los circuitos.
¿Los bits son "unidades de proceso"?. Un bit es una unidad de información. ¿Qué procesa un bit?
Un bit no "procesa" nada, pero el procesamiento se hace en unidades discretas llamadas bits. Igualmente podíamos llamar a una croqueta una unidad de comida, aunque la croqueta no come nada.
La relación entre longitud del semiconductor y frecuencia está tan traída de los pelos que se podría decir que es falsa.
Bueno, no es eso lo que dicen por ejemplo googleando un poco aquí: "presenta un canal de corta longitud para permitir muy altas velocidades de conmutación, gracias al breve tiempo de transito de los portadores por el citado canal". Aporta alguna referencia, o fórmula, o algo. ¿Qué pasa con la frecuencia de conmutación de un transistor cuando se disminuye su longitud?
La corriente no mueve a los electrones.
Caramba. Por tanto, si digo "la corriente en este punto hace que el agua se mueva más rápido" es, en rigor, falso. Pregunta: ¿aporto mucho a la humanidad en general señalándolo, o sólo muestro mi gran pedantería?
Y he parado aquí porque no he podido leer más.
¿Mayra? ¿Eres tú, Mayra Gómez Kemp? ¡No sabía nada de ti desde los tiempos del 1-2-3!
Esto necesita una reescritura a fondo, con una explicación o bien más simple y abstracta o bien más precisa y acertada. -1
Suerte que no soy tu alumno. -1 a la reescritura por mi parte, +1 a que lo haga otro (por ejemplo tú).

[ Padre ]


esos titulares.... (4.00 / 1) (#9)
por jamarier a las Thu Nov 10th, 2005 at 09:36:23 PM CET
(Información Usuario) http://barbacana.net/blog/

Las entradas no tienen por qué ser, y habitualmente no son, corrientes.
¿Ah, no? ¿Qué son entonces? Yo pensaba que las entradas y salidas de los circuitos eran voltajes, que vienen a ser corrientes (sin corriente eléctrica no hay voltaje). Igual ahora entran y salen cromos de Pikachu de los circuitos.


Lamentablemente sin corriente SI puede haber voltaje. Un condensador puede estar cargado, no tiene corriente que atraviese sus patillas y si muestra voltaje entre ellas (el término correcto es diferencia de tensión). Es más, en una pila hay tensión y no corriente.

Además, es práctica común emplear transistores mosfet para alta frecuencia. Estos transistores tienen la puerta aislada de forma que no entra corriente por ella. Al igual que ocurre con los amplificadores operacionales y en general en muchos componentes y sistemas (alta impedancia de entrada y baja de salida).

Respecto a la forma de pasar información, además de por nivel, creo que es más práctico usar los flancos. Las señales digitales degeneran por los tiempos de propagación dentro de los componentes. Así que distan bastante de la forma cuadrada perfecta que se ponen en los esquemas al efecto. Si se trabaja con flancos sólo es necesario detectar cuando hay una transición desde alto a bajo o viceversa.

Aparte de eso (la gente le da igual si los electrones andan mucho o no por un cable, lo que le interesa es que la bombilla se encienda), está mi opinión sobre el artículo. Creo que lo que está rematadamente mal puesto es el título. Yo esperaba encontrarme con un análisis más o menos detallado sobre los pros y contras de la tecnología, leer sobre el precio, la eficacia de la plataforma, una explicación breve de que 64bit no significa el doble de rendimiento que un 32bits, hablar que el diseño de los programas ha de modificarse (al final si lo que se va a sumar es una serie de números byte, esto va a tardar tanto en un micro de 32 que en uno de 64), Hablar de las posibilidades de direccionamiento de memoria, que distros son útiles o funcionan y cuales no....

Y lo que me encuentro es «La historia de los 64bits». Además con errores de «física». Podría haber sido interesante enganchar con la vieja historia de por qué no se pueden comparar los Hz de los Mac con los de los PC. (indicando que los Hz no son sinónimo de velocidad ni de potencia). De hecho, he tenido que leer otra vez la historia de nuevo para cerciorarme, en ningún caso se dice qué significa eso de los 64 bits ¿64 electrones persiguiendose unos a otros? ;-)

Conclusión, me parece que al escribir te pasaste con la introducción y no has entrado en el tema. Mi voto aún así será +1 a sección. que al final es casi lo mismo que un voto a portada. Y así se aprovechan los jugosos comentarios (más que la historia, me parece) que se han escrito y que se pueden escribir a partir de ahora

¿Qué me decís de la utilidad real y practica de tener un 64bits en la actualidad?

-----
Opinión expresada por alguien que puede que no sea yo.
[ Padre ]



¿Importa que tenga utilidad práctica ahora? (5.00 / 1) (#10)
por jorginius ("jorginius" en Google Mail) a las Thu Nov 10th, 2005 at 10:46:43 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

¿Qué me decís de la utilidad real y practica de tener un 64bits en la actualidad?

Yo no actualizo mi ordenador muy a menudo (je, debería decir más bien que actualizo cada cuatro años bisiestos) pero si me tuviera que pillar algo ahora sería un AMD de 64 bits sin pensarlo dos veces.

Creo que los 64 bits van a terminar imponiéndose en uno o dos años como mucho, le veamos o no "la utilidad real y práctica" en estos momentos :-). Estamos viviendo un déjà vu de lo que pasó con el 386:

Con los 32 bits estuvimos tragando años con software de 16 bits, usando nuestros 386 como si fueran AT ultrarrapidos. No había software para sacarles partido así que, salvo por la velocidad, tampoco se veía la utilidad de pasar a un micro de 32. Había toneladas de mejoras, como el soporte completo para el modo protegido, los registros de 32, una MMU muy mejorada... Pero todo aquello era un poco abstracto.

Comenzó con los juegos. El modo protegido, los 4GB de direcciones, se adoptó entre los desarrolladores de vídeojuegos como un regalo del cielo. Ejemplos son DOOM, que no fue el pionero pero arrastró a mucha gente al 386 (también arrastro a mucha gente al PC porque -por primera vez- se veía un juego de PC que no podía ser emulado en un Amiga o en un Atari de la época, pero esa es otra historia) o el mítico Grand Prix de Geoff Hammond, Wing Commander, etc. Todo software que o bien necesitaba 32 bits o bien funcionaba mucho mejor con ellos.

Cuando era común en los videojuegos se empezó a generalizar en otro tipo de software. Linux mismo nace de los 32 bits, a partir de que Linus quería un Unix en su escritorio que explotase su 386. En aquella era remota si tenías un PC y querías tener un sistema de 32 bits entonces tenías que instalar Linux... Igual que ahora si quieres uno de 64.

Y al final calleron los sistemas operativos y el resto de aplicaciones del público general. Una pequeña transición y ya nadie se acuerda de los 16 bits.

Bien pues en mi bola de cristal veo que con los 64 bits pasará lo mismo, sólo que esta vez no se demorará 4 años el cambio: en 1 o en 2 a lo sumo lo tendremos aquí (espero :-)).

Primero tendremos las máquinas y luego encontraremos el uso, como siempre.

[ Padre ]


 
Desventajas también (none / 0) (#13)
por man ls a las Fri Nov 11th, 2005 at 01:07:02 PM CET
(Información Usuario)

Yo puedo decirte las desventajas de los 64 bits: las distros que he probado no están tan finas como sus equivalentes de 32 bits, o al menos eso me parece. Si dependes de binarios (Flash, Java, tarjeta gráfica moderna) tienes que esperarte a que les dé la gana sacar una versión de 64 bits.

Estos problemas se ven minimizados por un factor que tiene dos consecuencias: la arquitectura amd64 es una extensión de la x86 tradicional, totalmente compatible. Así que puedes usar una distro de 32 bits sin problemas, y alternativamente algunas distros para 64 bits tienen entornos de compatibilidad de 32 bits. Pero si eres de los valientes que quiere aprovechar su procesador al máximo (64 bits puros), podrías sufrir ciertas inconveniencias. Mejor estar preparado.

[ Padre ]


No solo con 64 bits (none / 0) (#35)
por presi a las Tue Nov 22nd, 2005 at 08:55:04 PM CET
(Información Usuario) http://presi.org

Ese problema no solo se da en arquitecturas de 64 bits, los que usamos sistemas libres en arquitecturas de 32 bits distintas a x86 lo llevamos sufriendo desde siempre.

Aunque bien mirado, en algunos aspectos es mejor, mi calidad de navegación ha aumentado desde que no tengo flash ni java. ;)


[ Padre ]


 
Voltajes, corrientes y entradas (none / 0) (#8)
por jorginius ("jorginius" en Google Mail) a las Thu Nov 10th, 2005 at 08:48:46 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

¿Ah, no? ¿Qué son entonces? Yo pensaba que las entradas y salidas de los circuitos eran voltajes, que vienen a ser corrientes

Si quieres bajo consumo las entradas o variables de control no serán corrientes sino tensiones.

El ejemplo más básico es el de los transistores de efecto campo, donde la corriente de entrada es nula y el canal se controla con la tensión puerta-surtidor. La puerta (la entrada) está conectada a un aislante. Difícilmente vas a conseguir nada variando una corriente en la entrada que es, salvo en los picos de conmutación, del orden de los nanoamperios (bueno, sí, freírlo perforando el aislante).

Impedancias de entrada infinitas o impedancias adaptadas. ¿Nada de eso te suena tampoco?. ¿Qué pasa cuando entras por colector común por ejemplo?. ¿Qué corrientes tienes en entrada?.

(sin corriente eléctrica no hay voltaje).

A ver, voltaje indica diferencia de potencial entre dos puntos. Corriente implica flujo neto de carga entre dos puntos. Para que exista una corriente debe haber una diferencia de potencial pero lo contrario no es cierto.

[D-MOS] "presenta un canal de corta longitud para permitir muy altas velocidades de conmutación, gracias al breve tiempo de transito de los portadores por el citado canal".

¿Y?. Tú hablas de nivel de integración o de la longitud del dispositivo y el enlace habla de la longitud del canal. Eso depende de la tecnología utilizada. No conmuta más rápido (en términos de un FET) porque sea físicamente más pequeño sino porque el canal es más estrecho, aunque como el canal es más estrecho quizás podría fabricarse más pequeño (_o no_, depende).

A lo mejor así se ve más fácilmente: los transistores de efecto campo han sido tradicionalmente de conmutación lenta pero con una gran tasa de integración. Los TTL en líneas generales son más rápidos pero más grandes. Ya la diferencia no es tan abismal (ha habido muchísimos avances en explotar las ventajas de consumo, coste e integración y en mejorar la velocidad de los primeros. Incluso podríamos hablar de MESFET) pero lo hago notar simplemente para que veas que no hay implicación clara tamaño/velocidad: según tu lógica, los FET deberían ser más rápidos en conmutación que los TTL ya que son más pequeños.

O puedes verlo de este modo: velocidad está directamente relacionada con el consumo y potencia disipada. Un dispositivo más pequeño tiene menos superficie por la que disipar.

... Y hasta aquí voy a llegar. Tenía la intención de contestar todo el mensaje pero según iba leyendo me he dado cuenta de que no merece la pena. Es tontería que siga gastando energías cuando:

  1. Es un off-topic.
  2. Me doy cuenta de que no tienes unos conocimientos mínimos. Quizás los tenías pero ya los olvidaste.
  3. Me siento estúpido rebuscando entre el sarcasmo algo a lo que contestar. Si a ti no te importa no entenderlo yo no voy a molestarme en explicártelo.


[ Padre ]


Esas formas (none / 0) (#11)
por man ls a las Fri Nov 11th, 2005 at 11:34:07 AM CET
(Información Usuario)

Me doy cuenta de que no tienes unos conocimientos mínimos. Quizás los tenías pero ya los olvidaste.
Seguramente, no creo haberlos tenido nunca. La electrónica siempre me ha dado grima. Lo poco que sé es por cierto poso que se me quedó a mi pesar.
Me siento estúpido rebuscando entre el sarcasmo algo a lo que contestar.
El problema está en mi opinión en cómo señalas los errores. Una cosa es aclarar: "esto no se entiende bien, en realidad es tal; el argumento quedaría así" y otra decir: "mal, un punto negativo" o incluso intentar ridiculizar como en "¿Qué procesa un bit?". Una actitud puede que útil en una clase si se busca la precisión, pero aceptable sólo cuando se tiene una superioridad previa sobre la audiencia; por tanto, bastante molesta en un foro.

Cualquiera puede jugar a esto porque nadie habla correctamente siempre. ¿No es cierto, señor "*calleron los sistemas operativos"? Fijarse en estos detalles todo el rato no creo que ayude demasiado al discurso.

Si crees que mi explicación patatera es demasiado patatera, entonces da una alternativa. Lo bueno de Libertonia es que hay gente que sabe de distintos temas, y tú eres por lo que he visto una de las personas con más conocimientos en ciertos asuntos. Demuéstralos enseñando al que no sabe, no ridiculizando al que intenta explicar a pesar de su ignorancia.

[ Padre ]


Asombrado estoy :-) (none / 0) (#14)
por jorginius ("jorginius" en Google Mail) a las Fri Nov 11th, 2005 at 01:53:45 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

El problema está en mi opinión en cómo señalas los errores. Una cosa es aclarar: "esto no se entiende bien, en realidad es tal; el argumento quedaría así" y otra decir: "mal, un punto negativo"

Para escribir "mal, un punto negativo" no me molesto en darle a responder. Me he preocupado de explicar la puntuación y los errores.

No he dicho nada que no fuera verdad (corrigeme en caso contrario) y por más que releo no veo ataques personales ni dobles lecturas ni mala uva. Intenté interpretar de buena fe los errores hasta el párrafo dos o tres en el que me cansé.

De todas formas es surrealista que tú me eches en cara las formas. Estoy alucinando pero de acuerdo: si ese va a servir para que no te lo tomes como un insulto personal lo corrijo.

Borra mentalmente el primer comentario y/o sustituyelo por: "En mi opinión, en el artículo hay ciertos errores de concepto con lo que voy a votar -1".

Cualquiera puede jugar a esto porque nadie habla correctamente siempre. ¿No es cierto, señor "*calleron los sistemas operativos"?

Sí, es "cayeron". Ya me di cuenta.

No sé si te acabas dar cuenta ahora de las muchas faltas de ortografía que hay en mis comentarios. ¿Será que son un pestiño y no los lees? :-)

En la nota de ROX, por no ir más lejos, hay faltas de ortografía, errores de concordancia, errores en la puntuación, rimas internas... Yo veo varios y soy disléxico así que seguro que hay un montón.

No recuerdo haber corregido a nadie su ortografía en Libertonia (más que nada porque se me caería la cara de vergüenza, sería como lo de "le dijo la sartén al cazo") ni haber sentado catedra sobre el tema, pero si alguna vez lo he hecho contigo y te sentó mal acepta mis disculpas y un socorrido "soy de ciencias, soy de ciencias" :-)

Si crees que mi explicación patatera es demasiado patatera, entonces da una alternativa.

¿Por qué?, es tú explicación. A mí ni me va ni me viene. Libertonia me ha pedido mi opinión por aquello del voto y ya está. He votado que no me parece bien y, además, he explicado por qué.

También creo que sería un poco ofensivo ir más allá: después de todo es tu criatura y te presupongo capaz de arreglarlo tú solo.

[ Padre ]


Opinión (none / 0) (#15)
por man ls a las Fri Nov 11th, 2005 at 02:20:23 PM CET
(Información Usuario)

También creo que sería un poco ofensivo ir más allá: después de todo es tu criatura y te presupongo capaz de arreglarlo tú solo.
No te creas. Una mano de vez en cuando se agradece :)

Perdón si ayer estuve un poco agresivo de más, no fue un día bueno.

[ Padre ]


Si quieres una historia... (5.00 / 2) (#16)
por jorginius ("jorginius" en Google Mail) a las Sat Nov 12th, 2005 at 03:06:53 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

Esto es más o menos lo que yo hubiera dicho de cómo funciona una cpu y dónde está el problema con los Intel.

Va por delante que no soy ningún experto, más bien al contrario. Esto es lo que te enseñan en primero o segundo de carrera. Tampoco soy profesor aunque he intentado escribirlo de la forma más comprensible que puedo.

Además, como ya dije, no creo que aporte gran cosa explicar esto y habría que integrarlo con el resto.

---
Un microprocesador actual es un dispositivo digital. Está basado en interruptor, en miles y miles de pequeños interruptores que cambian al ritmo que impone el reloj. Todas las operaciones, por complejas que pueden parecer, al final se reducen a aperturas y a cierres.

El concepto no ha variado en exceso desde el Pascaline, la calculadora automática de Pascal, que usaban dientes de engranajes (abierto/cerrado) y una manivela como reloj, o desde el Z3, el primer computador programable de la historia, basado en relés, o desde el posterior ENIAC que usaba triodos. Todos son dispositivos digitales que basan su funcionamiento en la conmutación, en la apertura/cierre de interruptores controlados y fabricados con distintas tecnologías.

El conmutador que estamos usando ahora es el transistor, inventado en los Laboratorios Bell en 1947 y perfeccionado en los 60 para el uso que nos ocupa. A partir de entonces tenemos interruptores en estado sólido, sin partes móviles y tremendamente pequeños. Nace la electrónica del semiconductor (típicamente Silicio). Un semiconductor es un material que varía su resistencia al paso de la corriente dependiendo de ciertos factores: controlando esos factores podemos tener un interruptor abierto (resistencia muy grande) o un interruptor cerrado (resistencia muy pequeña).

Tener interruptores más pequeños y más fiables nos permite meter más de ellos en menos espacio. Los dispositivos menguan y a la vez más complejos y rápidos. Muy a grosso modo, si antes para realizar una operación hacían falta cinco clicks y sólo teníamos un interruptor, entonces hacía falta cinco golpes de reloj pero ahora podemos meter cinco interruptores en el mismo espacio y todo se hará en un solo golpe. Esto es lo que nos ha catapultado en esta era de la computación, de cada vez mayor integración y conmutadores más rápidos... Que se está acabando.

Con unos conocimientos a nivel de EGB se puede plantear un primer contacto con el problema. Si los transistores son cada vez más pequeños entonces los "cables" que los conectan entre sí tienen que ser más pequeños también. La resistencia de un conductor es inversamente proporcional a su sección, luego la resistencia en los cables según hacemos transistores más pequeños es mayor lo que se traduce en que la señal e propaga más lentamente por esos cables. Podríamos pensar en, ya que tenemos que hacerlos estrechos, hagamos más grande la sección haciéndolos más altos. Esto tampoco funciona porque al final te encuentras con que tienes "placas" conductoras paralelas, es decir: hay efecto de capacidad (condensación) que además va a peor según aumentamos la frecuencia.

Ahora entraremos en detalle:

Por comodidad en la explicación, vamos a introducir a la puerta lógica. Las puertas son conjuntos de transistores que realizan una función lógica (AND, OR...) y son los bloques con los que se construyen todas las funciones más complejas. En una puerta, aplicamos una señal en la entrada y, pasado un tiempo en el que los interruptores han ido cambiado su posición y la señal de entrada ha circulado a través de ellos, obtenemos un resultado a la salida.

Como ya hemos dicho, según crece la densidad de integración podemos hacer circuitos son más complejos, con más puertas. La señal de entrada en esos circuitos tienen que cruzar esas puertas, sufriendo un retardo en cada una de ellas (debido a la velocidad a la que conmutan los interruptores y, más importante, lo que tarda en desplazarse por las conexiones). Sumando esos retardos vemos que hay un número máximo de puertas que puede cruzar una señal antes de que llegue el siguiente golpe de reloj.

Si la señal aún no ha cruzado todo el circuito para cuando eso ocurra habrá que introducir registros y buffers de sincronización (es decir, más puertas) para que se pueda completar la operación después, mientras nuevas señales empiezan a cruzar el micro. Es lo que se llama una nueva etapa del pipeline.

Hasta ahora para conseguir un micro más rápido bastaba con aumentar la velocidad del reloj. Si todo se basa en conmutadores y hacemos que estos cambien de estado más deprisa entonces la computadora trabajará más deprisa... Pero según aumentamos la frecuencia nos tropezamos de bruces con el problema de la propagación. La señal tiene menos tiempo para cruzar puertas por golpe de reloj y hacen falta más etapas de pipeline para no "dejarla colgada", es decir, mayor complejidad y más puertas. Si seguimos aumentando la frecuencia llega un punto que sí, hacemos más conmutaciones pero no hacemos más trabajo "real". Las mejoras en la densidad de integración se las come el aumento de etapas.

El aumento del reloj sería sostenible si estuviera acompañado de una reducción en los tiempos de propagación. Por desgracia los avances en los "cables" están yendo más despacio que los del reloj.

¿Cómo se palía el problema?. Cambiando los diseños para intentar que las operaciones relacionadas estén "más cerca" (explotando la localidad), intentando ofrecer caminos más cortos a la señal aún a frecuencias más bajas.

[ Padre ]


Falta explicar dónde encaja calor y consumo (none / 0) (#17)
por jorginius ("jorginius" en Google Mail) a las Sat Nov 12th, 2005 at 10:28:49 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

Quería escribirlo también pero se me pasó. Es la relación entre frecuencia y consumo, por qué los micros actuales consumen una barbaridad.

Aumentando el voltaje del micro se consiguen conmutaciones más rápidas (los interruptores tardan menos en responder al reloj) y tiempos de propagación más cortos... A costa de aumentar el consumo y la potencia disipada.

Ya expliqué que según aumentamos la frecuencia es necesario aumentar la integración añadiendo más etapas al pipeline. Por desgracia a las frecuencias actuales eso no basta y hace falta tambiñen incrementar el voltaje, tanto para alimentar a esa circuitería "extra" como para mejorar los tiempos. El problema es que al aumentar el voltaje el calor crece y esto nos obliga a disminuir la integración, con lo que se entra en un círculo vicioso:

El número de transistores que podemos meter por unidad de superficie no sólo depende del tamaño de éstos. Al ser cada vez más pequeños y estar más juntos, la dificultad de evacuar el calor que generan según metemos más y más va creciendo.

En realidad es el calor (en sistemas "normales", al menos) lo que establece el limite del nivel de integración hoy por hoy. También nos fuerza a usar sistemas de refrigeración activos (ventiladores, por ejemplo) cada vez más potentes. No basta con hacer transistores más pequeños, hay que hacer que se calienten menos, consiguiendo buenas respuestas con bajos voltajes.

[ Padre ]


 
Así me vale (4.00 / 1) (#3)
por Envite a las Thu Nov 10th, 2005 at 12:31:54 PM CET
(Información Usuario)

Yo no me interesaría tanto por el aspecto técnico, está escrito para que se entienda el resto, no para que sea formalmente correcto. Aquí los aspectos importantes son el histórico y la proyección de futuro. +1,Portada
No estoy de acuerdo con lo que dices, pero defenderé con mi vida tu derecho a decirlo.
Voltaire

[ Padre ]


Yo me intereso por la exactitud (4.00 / 1) (#4)
por jorginius ("jorginius" en Google Mail) a las Thu Nov 10th, 2005 at 12:49:48 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

Yo no me interesaría tanto por el aspecto técnico, está escrito para que se entienda el resto,

No está escrito para que se entienda, está escrito con errores de concepto. Una explicación sencilla no tiene por qué estar reñida con el rigor.

Es como si digo que los planetas se mueven porque unos enanitos buenos los van empujando a través del eter. ¿Tú aceptarías que dijese que he escrito porque "es que así se entiende mejor el resto"?

En fin, que para dar la explicación que se da en este artículo mejor no dar ninguna (que, a tenor del título del artículo, no creo que aporte gran cosa meterse en esos temas) o dar una mucho más simple en la que la palabra "electrón" no aparezca ni por asomo.

[ Padre ]


Es lo que tiene (5.00 / 1) (#5)
por man ls a las Thu Nov 10th, 2005 at 01:10:27 PM CET
(Información Usuario)

Lo bonito de la edición comunitaria, como en el software libre, es que cualquiera puede añadir o quitar lo que quiera.

Por la presente te cedo los derechos del artículo (le endoso una licencia Creative Commons attribution, vamos) para que lo reescribas resolviendo los errores conceptuales y/o eliminando la palabra "electrón", y lo vuelvas a enviar; yo seré el primero en votar +1 a la versión correcta. O también puedes enviar un comentario y explicarlo bien. De otro modo, quedarías como un listillo pedante que sólo sabe criticar.

[ Padre ]


 
Curiosamente sí (none / 0) (#7)
por man ls a las Thu Nov 10th, 2005 at 02:47:51 PM CET
(Información Usuario)

En efecto, sería la presencia de voltaje lo que marcaría un bit como activo o no; pero ese voltaje sólo puede denotarse mediante una corriente eléctrica. Por tanto, distinguir si hay o no voltaje es equivalente a distinguir si hay o no corriente. La lógica inversa no cambia la esencia del asunto.

No sólo eso. En un cable, la señal eléctrica se mueve esencialmente a la velocidad de la luz. En un transistor, es de hecho la "corriente" la que se mueve -- los electrones tienen que ocupar los huecos del semiconductor, y por tanto tienen que moverse físicamente, para aumentar la conductividad y permitir el paso de la señal. (O viceversa, para los puntillosos.) Por eso la respuesta es mucho más lenta que cuando la señal se mueve por un cable.

En cuanto al título, si veis algún hueco es el momento de llenarlo con un electr... estooo, con un comentario :)

[ Padre ]


Velocidad de propagación en un cable (none / 0) (#12)
por iarenaza a las Fri Nov 11th, 2005 at 11:47:02 AM CET
(Información Usuario) http://www.escomposlinux.org/

En realidad, la electricidad no se mueve (esencialmente) a la velocidad de la luz en los cables eléctricos. Sino más despacio. Los que no somos telecos (por aquello de las aproximaciones) solemos usar una velocidad de 2/3 de la de la luz de forma más o menos habitual (aunque no sea 100% exacta, ya que depende también de las características del conductor eléctrico).

Sí, lo sé, en Libertonia somos puntillosos hasta el extremo ;-)

En todo caso, y al margen de las inexactitudes fisico/electrónicas, el artículo me ha parecido muy interesante en sí mismo.

Saludos. Iñaki.

[ Padre ]


No es tanto (none / 0) (#33)
por man ls a las Tue Nov 22nd, 2005 at 12:12:08 PM CET
(Información Usuario)

2/3 de la velocidad de la luz puede parecer mucho, pero no lo es a estas frecuencias. La luz recorre 300.000 km en un segundo; si tiene que hacer un recorrido cuatro mil millones de veces por segundo (equivalente a una frecuencia de 4 GHz) sólo le da tiempo de viajar unos 75 mm; y 2/3 de eso son 50 mm.

No sé cuánto medirá una oblea de procesador, pero los caminos internos ya tienen que estar optimizados para que a la señal le dé tiempo a entrar por una pata y salir por otra en un solo ciclo. A 4 GHz sólo le daría tiempo a viajar 5 cm por un cable en línea recta.

[ Padre ]


Y además, para el caso que nos ocupa, es menor (none / 0) (#34)
por jorginius ("jorginius" en Google Mail) a las Tue Nov 22nd, 2005 at 06:13:14 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

Como comenté antes, la velocidad cae de forma exponencial por debajo de los 100 nm.

Todo esto lo repito porque está muy bien para hacerse una idea imaginar las conexiones como líneas de transmisión normales pero no hay que olvidar que eso de que la velocidad constante o que sólo depende de la resistividad es válido sólo para un conductor isótropo, cuya sección es uniforme y mucho mayor que un diferencial de superficie (con flujo de carga que lo cruza perpendicularmente) pero todas esas simplificaciones son erroneas según disminuimos la escala.

Vamos, que lo que es aplicable a una línea de transmisión de 20 metros no es aplicable tal cual a una línea de 50 nm. A esa escala no se puede obviar todo el problema físico y geométrico.

[ Padre ]


 
Hi (none / 0) (#36)
por Sharingan20 a las Wed Jun 14th, 2006 at 10:04:50 PM CET
(Información Usuario)

Looking Forward for the updation. Thanks for the interesting read. Good Goahead!!!

[ Padre ]


 
64 bits, ¿para quién? | 36 comentarios (36 temáticos, editoriales, 0 ocultos)
Ver: Modo: Orden:

ecol Logo Powered by Scoop
Todas las Marcas Registradas y copyrights de esta página son propiedad de sus respectivos dueños.
Los comentarios son propiedad del que los escribe.
Los iconos de las noticias y el logotipo son propiedad de Javier Malonda.
El Resto © 2002 Escomposlinux.org y aledaños.

Puedes sindicar los contenidos de libertonia en formato RSS 1.0 y RDF 0.9. También se puede sindicar la cola de envíos pendientes de moderación.

El proyecto escomposlinux.org está dedicado a la memoria de tas

crear cuenta | faq | búsqueda