Libertonia
Portada · Todo · Software Libre · Desarrolladores · Comunidad · Internet · Tecnología · Meta · Diarios
Hardware Libre, tecnologia y derechos

Hardware
Por arivero
departamento dialogos grouchoplatonicos reeditados , Sección Software Libre
Puesto a las Sun Jun 1st, 2003 at 12:24:37 PM CET
El Digital Rights Management es una combinacion de Hard y Soft para limitar las configuraciones posibles de una máquina. La amenaza de su implantación, via por ejemplo Palladium, ya es bastante conocida. Aqui os presento un dialogo en la que varias personas -reales y ficticias- discuten sobre la posibilidad o imposibilidad de construir un Hardware Libre que supere a los futuros procesadores con DRM. Aviso: No es tanto una pieza acabada y llena de argumentos solidos; mas bien un pie para discutir y recabar más datos.

 


  • Se podria decir que Apache, el servicio httpd, ha sido la Killer Application de Linux.
  • Si queremos pensar en esos terminos, sí. Pero Apache corre en otros sistemas operativos. La propia estabilidad de Linux tambien fue clave. Y no solo de HTTP vive la red. Digamos que el Servidor de Internet ha sido la KillerApplication. O la Internet a secas.
  • El httpd nos motivo para compilar Linux. ¿Cúal seria el equivalente en hardware libre?
  • Pues... httpd podria ser algun periferico interesante, quizas las tarjetas Wi-Fi, y Linux la CPU completa. Lo que significa que no necesariamente debe ser la CPU lo primero.
  • ¿El equivalente a C seria el bus del sistema?
  • Según eso, el bus existiria ya en el mercado. Pero tambien podriamos pensar en el lenguaje de descripcion de los cores. O en las herramientas gEDA.
  • Juguemos a estirar el paralelismo. Tendriamos un KillerDevice que se desarrollaria casi simultaneamente con una Free CPU, aunque podria funcionar tambien en otros sistemas. Los que fundieran el chip del Device encontrarian util trabajar tambien con la FreeCPU.
  • Quizas fundiendola en la misma oblea.
  • Por ejemplo. O aprovechandose de su arquitectura. O del Sistema Operativo preferente.
  • No necesitamos obtener un computador completo en el primer golpe. El Software era la pieza final de la cadena de montaje, y ya la hemos socializado. Ha sido el primer paso. El segundo podra llegar como decimos, de tarjetas perifericas, de routers, o de hardware de comunicaciones. Los grupos de usuarios comenzarían aprendiendo de la producción de este hardware, y de ahi... ¿Que son esas risas?
  • Pensaba en lo del primer golpe. Stroke en ingles se escribe casi como Strike.
  • ¡Ah! Ya veo por donde vas.
  • Je
  • Bueno, mira, queda heroico, pero no me parece muy buena idea tomar las fabricas de chips en una Huelga General. Se trataria mas bien de poder sustituir las fabricas por talleres. Que todo se pueda hacer en pequeñas empresas y clubs, salvo casos excepcionales. Necesitamos entrelazar la estructura vertical...
  • La de grupos de interes
  • Sí, la del proceso de producción, vamos. Digo, necesitamos enlazarla con una estructura horizontal, territorial, una de intercambio de habilidades y recursos. Podríamos crear cooperativas locales. A partir de los Grupos de Usuarios de Linux, de los Hacklabs, de las Academias, o de cualquier otro sitio. Even plain old unions. El caso es poder organizar pequeños talleres que abarquen software y hardware, mediante tecnologias menos centralizadas -menos decapitables- que la inmensa sala blanca. Recuerdo que un amigo sintetizaba YBaCuO como parte del primer curso de Quimica. Si no nos creemos del todo la cadena de fundición, pueden aparecer posibilidades sorprendentes
  • El proceso Jabbour -Yoshioka imprime 25 micras de polimero conductor, en una inkjet Y Cambridge Friend y Sirringhaus hablan de cinco micras.
  • Si pero al final, la fabrica de impresoras la han puesto en california
  • Aunque los de Cambridge estan intentando defender sus patentes en esa compañia, plastic logic
  • ¡Podrian defenderlas justo haciendo una grabadora de circuitos!
  • Tambien podria pillarnos por sorpresa algun otro metodo más al alcance. Algo de implantación ionica, o quizas alguna tecnica de radiacion. Pulsos controlados de luz de Sincrotron, que se yo

    (pausa)

  • Le he estado dando vueltas después de ver algunos modelos del MIT y bueno, en principio la debilidad de CPU se puede solventar mediante una pool, siempre y cuando no tenga todo el mundo el capricho de utilizar el ordenador a la misma hora.
  • Un sistema sencillo podría correr en máquinas como el LEON (un SPARC a 200MHz), pero todo esto serían soluciones académicas. El problema es que la tecnología de implantación en silicio de las empresas europeas no pasa de unos cuantos miles de transistores por chip, no sé de ninguna empresa europea que esté creando cosas más complejas que microcontroladores de 8 bit, que ni siquiera son competitivos con los PIC o los AVR... Ni siquiera los japoneses sé como están, tienen salas blancas, pero no sé si la tecnología es propia o si también le compran consultoría a IBM (como casi todas las empresas americanas), para empezar SONY está en la cuadra de IBM...
  • Así como ejemplo: el LEON es un proyecto de la Unión Europea, de momento tiene dos implantaciones en hard: con FPGA's de Xilinx ó Altera (empresas americanas) o la directa en silicio subcontratada a Atmel (empresa americana)...
  • Los de AMD finalmente hicieron su fabrica en Dresden (¡vaya, hablando de bombas!), no se si tienen ahi la sala blanca, pero creo que sí, que no tienen otro centro.
  • Sí, claro que la tienen, pero es como las que tiene intel en Malasia, la fábrica está en Dresde, pero la tecnología es de los yanquis, y si mañana hay problemas se llevan la maquinica y a cascarla, nos quedamos sin juguete...
  • De todas formas, no estoy seguro de que sea solo academica, la idea de contentarse con CPUs sencillas pero libres.
  • Digo que son soluciones académicas porque son soluciones que al final nos aislaría a cuatro "outsiders", que utilizaríamos sistema libres, pero obsoletos, mientras que la mayoría utilizaría las máquinas del imperio, máquinas con las que al final no podríamos ni comunicarnos, sobre todo a partir del momento que Internet pase a ser DRM compliant y los router de Cisco no dejen pasar los paquetes originados en sistemas que no tengan controles DRM.
  • Basta analizar la estrategia que elaboró Microsoft en los años 94-96 y ver por qué falló para entender que tenemos que hacer:

    Primero consiguieron un navegador mejor que Netscape; después le añadieron un montón de características propietarias; siguieron con cosas que sólo se podían utilizar desde servidores IIS (streaming)...Y el plan era después intentar que la separación entre el mundo IIS-IE y el resto fuera total, para que el dominio en un sector se lodiera en otro.

    Falló porque Apache era muchíiiiiiiiiiisimo mejor que IIS y los navegadores no eran malos del todo.

  • Pues eso, que no podemos luchar con peor tecnología.
  • Nuestra única vía de escape es el Open Hardware, pero para que eso funcione necesitamos tecnología de primer nivel en FPGA y en compiladores de silicio nocontroladas ni directa ni indirectamente por el gobierno USA.
  • Desde luego un hardware abierto no admite DRM por definicion: a un Free Chip no le puedes añadir un dispositivo secreto y sacarlo al publico, ya que deberias adjuntar todo el diseño completo del chip y la informacion que contiene.
  • Incluso se arguye algo parecido ya con Linux, pues una presunta distribucion en formato codificado deberia llevar adjunta el codigo fuente abierto ¡lo que incluiria hasta las claves de autentificacion con el DRM!
  • ¡Ah! y no olvides una cosa: Las empresas mediáticas europeas no están con nosotros, porque de la implantación del DRM depende el negocio de Vivendi, PRISA y demás gusanos mediáticos-empresariales. Por ejemplo, el PSOE está tomando posición con esto, pero ¿qué pasará después del primer editorial de El País diciendo que los mecanismos DRM son vitales para proteger la creatividad, la cultura europea y demás zarandajas? Pues que tendremos que seguir en esta guerra sólos, como hasta ahora.
  • Jo, has hecho un analisis demoledor... y eso que falta el argumento de las bombas, de que si en todo caso nos pasamos por el forro la dependencia yanqui, pues acabara siendo que somos fabricantes de chips de destruccion masiva. En cualquier caso la Sala Blanca propia no parece solucion porque economicamente sera mas rentable hacerla en Taiwan.
  • y tambien nos estamos dejando en el tintero el origen del problema: que los europeos somos unos güevones que no hemos invertido un duro en I+D en serio en 50 años, mientras que los USA han metido hasta la camisa, y ahora dependemos de ellos como un niño pequeño de su madre... pero creo que eso es otra discusión.
  • Lo que puede pasar es que la victoria tecnologica de la IBM este despreciando soluciones menos piramidales. No puede ser que pueda grabar 1.6 micron en mi CD y que necesite la hostia en verso para un multicapa de un orden de magnitud menor. Y ni siquiera un orden, que el agujerico de un DVD es 0,4 minimo, con track de 0.74.
  • Y una simple impresora tiene ya lineas de 50 micras.
  • En principio AMD han migrado a 0.13 a finales del 2002 y vete a saber si/cuando saltaran a 0,09
  • De todas formas lo dicho, la solucion no pasa por otro ARM europeo, sino por algo que no se pueda comprar, para que no le pase lo mismo.

    (pausa)

  • ¿Eso de las cooperativas, funcionaria?
  • Sí, a mi tambien me da... suena arcaico.
  • Suena arcaico porque asi conviene a la Realidad que nos venden. Funcionar, funcionar, pues eso, es como toda union de intereses comunes. Con exitos, divisiones, peleas... bussines as usual
  • Es cuestin de que existan esos intereses comunes.
  • Pero es que surgen: no hay que mear tan alto para el DRM y el silicio. Pensad por ejemplo en los talleres para antenas Wi-Fi. De hecho, la propia necesidad de mantener coordinada la red Wi-Fi les de una cohesion horizontal importante, hagan o no hardware.
  • Pero ademas un grupo de Hardware Libre respondería muy bien a la exigencia implicita de reciprocidad que flota en la Red. La gente pone un esfuerzo increible en devolver Contenido a la red, pone un monton de tiempo en weblogs y demas bases de información, del arxiv a la imdb. Para un no-programador, es la única forma de mostrar reciprocidad.
  • Ya veo. Una cooperativa es tambien otra forma de "pagar" la internet con tu tiempo. Siempre y cuando la tarea sea voluntaria y no trabajosa, claro.
  • Hay quien dice que Trabajo viene de Tripilium: instrumento de tortura. Desde luego, cualquier aportación debe ser tan divertida como el desarrollo de software libre.
  • Bueno, y eso no quita para que se pueda aspirar a vivir de ella: Los productores de hardware y los revendedores colaborarían siempre y cuando pudieran obtener beneficios en su corto y medio plazo.
  • ¿Aunque a largo plazo les lleve a la quiebra? ¿Incluso si la tendencia lleva a precios mas baratos y hardware casi gratuito?
  • Ellos lo verian como adaptación, más que quiebra. La nobleza lucha contra el cambio, los empresarios buscan beneficios de los tiempos turbulentos. Y todavia podrán obtener ganancia en temas de soporte e integración, como las compañias de software. Otros tienen beneficios más claros: las empresas de reciclado, los distribuidores via mail y web, los vendedores de cable para wirewrap.... aunque en una ciudad industrial la cooperación podria llegar a cubrir todo el proceso de producción.
  • Con el tiempo y una caña... Y esquivando a esa nobleza y sus siervos, claro.
  • Unos echaran todas las zancadillas que puedan, claro. Otros veran el hardware libre como una pieza más de un Juego y nos usaran de peones para sus propias estrategias. Como siempre.
  • Vuelvo a lo de la pool de CPUS.¿Que nos impide usar una Beowulf de cien procesadores para simular un procesador diez veces mas rapido? Y una de mil quizas podria simular la implantación en silicio. Asi podria haber muchos grupos en paralelo: unos haciendo el compilador de C para el procesador, otros trabajando en el hardware y comprobandolo en la emulación. Si el producto final es mejor que el desarrollado por las compañias "cerradas", la tentación de implementarlo sería muy fuerte para las compañias de fundición
  • Y para los propios usuarios que lo han desarrollado... aunque para ello tuvieran que aprender la tecnologia.
  • En cierto modo el Hardware Libre viene a representar el derecho a entender lo que te rodea, sea un motor de un Audi, sea un chip de ordenador, sea el artilugio que sea.
  • ¿uh?¿un Audi?
  • Es que hacen una publicidad terrible de la tecnologia, y luego no se molestan ni en gastar tres lineas de manual en indicar las piezas del motor... no te digo ya en pintarlas de distinto color.
  • Ah.
  • Bueno...
  • En fin. Lo cierto es que nos esperan días inciertos :-(
  • ...
  • Una cosa: ¡Si tienes tiempo sube este log email a algun noticiario web, o si me autorizais lo subo yo!
  • No problem, pero casi preferiría que lo elaborásemos un poco y ponerlo de forma un poco más seria.... me preocupa que la gente ni siquiera se haya parado a pensar en todo esto.
  • Bueno, mientras lo hacemos, aqui hay un punterico sobre el tema, de parte de alguno más optimista: http://erste.oekonux-konferenz.de/dokumentation/texte/seaman.html
< El ayuntamiento de Munich migra al software libre (24 comments) | Infosec'2003 (4 comments) >
Enlaces Relacionados
· More on Hardware
· Also by arivero

Menu
· crear cuenta
· FAQ
· búsqueda
· Fuentes de Noticias

Login
Nueva cuenta
Usuario:
Contraseña:

Ver: Modo: Orden:
Hardware Libre, tecnologia y derechos | 29 comentarios (25 temáticos, 4 editoriales, 0 ocultos)
Que nos perdemos (4.00 / 4) (#18)
por bruno a las Tue Jun 3rd, 2003 at 07:53:30 PM CET
(Información Usuario)

El problema del hardware libre / software libre no está relacionado ni con el precio, ni con los servicios ni nada parecido. El problema está relacionado con la LIBERTAD. Libertad para contar tus opiniones, libertad para difundirlas, libertad para comprar y vender... libertad para hacer todo esto sin estar obligado a utilizar una herramienta de Microsoft, ni pagar una tasa a un ciudadano privado que ni siquiera es de mi pais. La importancia de apache no es que fuese una Killer App, ni que httpd saliese casi a la vez de apache, la importancia de Apache es que cuando Bill Gates hablaba de comprar misiles rusos para lanzar satélites, y pensaba en establecer IIS como un monopolio de facto, y cobrar una tasa por cada transacción realizada por internet igual que cobran una tasa por cada PC vendido en el mundo, en ese momento, los chicos de Apache resisten el envite de IIS, siguen siendo líderes y evitan que IIS se convierta en un estandar de facto, y de esa forma impiden los sueños de Bill. Desde entonces, partiendo de una situación límite, nuestra posición ha ido mejorando cada día y hoy estamos pensando lanzar nuestro ataque al desktop, pero aquí viene Fritz y sus sistemas DRM y TPCA. La esencia del DRM no está en que no te bajes canciones de internet, la esencia está en que te van a poner un chip en tu ordenador y si el sistema operativo no está firmado por una entidad certificadora, tu ordenador no ejecutará el sistema operativo. Y para que la entidad certificadora firme el sistema operativo, este tiene que restringir que programas utilizas... y así ad-nauseam. Al final todo esto quiere decir que, si les va bien, los ordenadores de dentro de cinco años no van a ejecutar ningún sistema que garantice la libertad del usuario, ni linux, ni *bsd, ni mandangas, solo los SO adecuadamente domesticados. Y teniendo en cuenta las alternativas comerciales a linux volveremos al negro futuro que nos esperaba en 1995: Un mundo de comunicaciones dominado por Bill. En 1995 nos libró el software libre, pero nuestro problema es que no tenemos medios para hacer lo mismo con el hardware.



Malentendidos y memes (quizás) (4.00 / 3) (#19)
por jorginius ("jorginius" en Google Mail) a las Tue Jun 3rd, 2003 at 10:10:10 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

La esencia del DRM [...] está en que te van a poner un chip en tu ordenador y si el sistema operativo no está firmado por una entidad certificadora, tu ordenador no ejecutará el sistema operativo.

Si te refieres, como apuntas en el párrafo anterior, a TCPA, esto que dices es falso. Por favor, revisa la documentación de TCPA.

Últimamente, parece que lo único que hago es citarme a mí mismo (qué egocéntrico soy :-)), pero en fin: allá voy otra vez. Consulta este hilo.

TCPA se ha discutido bastante por estos lares:



Y seguramente en alguna historia más.

[ Padre ]


El documento de IBM... (3.00 / 1) (#21)
por arivero (rivero at sol unizar es) a las Wed Jun 4th, 2003 at 11:25:13 AM CET
(Información Usuario) http://dftuz.unizar.es/%7Erivero/

... dice explicitamente que Microsoft Palladium podria bloquear la ejecucion de Linux al menos desde el punto de vista legal, via patentes. Desde el punto de vista alegal parece sugerir que el chip podria ser sobrepasado via ingenieria inversa. Pero eso asume que se tiene la tecnologia para hacer la ingenieria inversa a cualquier nivel.

La referencia a este documento la dio jorginius en la tercera thread de las que cita aqui. En resumen se dice que
  1. TCPA no es Palladium
  2. Palladium tiene su propio chip, SCP, "similar to the TCPA", y ademas tiene un sistema de arquitectura protegida, ¿"ring -1"?
  3. Palladium podria bloquear Linux
  4. TCPA o SCP pueden usarse para DRM
  5. DRM no triunfará -en opinion del autor del articulo-
Vamos, que el "rebuttal" es simplemente una clarificacion de terminos, pero no niega nada de lo dicho.

[ Padre ]


A ver, a ver... (3.25 / 4) (#23)
por jorginius ("jorginius" en Google Mail) a las Wed Jun 4th, 2003 at 01:47:04 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

Palladium o el NGSCB, como se llama ahora, no es más que un montón de palabrería para explicar cómo Windows utilizará la tecnología de la TCPA (o del TCG o como quieran llamarlo), que poco o nada tiene que ver con Linux.

SCP es el coprocesador de cifrado que usará Palladium (con soporte para RSA para clave asimétrica y SHA-1 para los resúmenes)... Pero no estan hablando de otro chip: SCP es, según la nomenclatura de Microsoft, el chip de TCPA. Si otro fabricante independiente al Trusted Computing Group saca su propio chip compatible, también será referenciado como "SCP".

El SCP no tiene por qué estar incluido en el micro: puede enchufado al bus del sistema como tarjeta de expansión o a un bus común como el USB sin problemas.

TCPA puede usarse para DRM, pero un sistema efectivo de DRM no tiene porque usar, por fuerza, TCPA. Es un posible uso, de los cientos que se le pueden dar a esa tecnología (En Linux, en Windows o en donde sea: no es más que un, otro, chip programable dentro del PC).

Y ya me dirás como el código de Windows puede bloquear a Linux. Con esta tecnología Windows se puede "aislar": por ejemplo, obligando a que todos las máquinas de un mismo dominio tengan que ser Windows, o que los documentos escritos por el MS Office sólo puedan ser leídos por PCs confiables o lo que sea, pero no afecta a Linux, de por sí.

Repito: no es verdad que con TCPA/Palladium/loquetuquieras, Linux quede "bloqueado".

[ Padre ]


Se quedara en palabreria si lo luchamos. (3.00 / 1) (#24)
por arivero (rivero at sol unizar es) a las Wed Jun 4th, 2003 at 04:59:43 PM CET
(Información Usuario) http://dftuz.unizar.es/%7Erivero/

¿Estamos leyendo el mismo documento? Porque en la pagina dos dice "Microsoft could easily block Linux from using these features".

Lo que bloquearía Linux no sería el OS, claro, sino lo que Safford llama "ring -1 level protection" (en alusion a los niveles de proteccion de windows, supongo, que tienen esos números: "ring 1", "ring 3" and so on). Este nivel -1 son modificaciones del chipset en la placa base y estarian protegidas por patentes de Microsoft, en el mejor de los casos.

En el peor de los casos, y eso ya lo digo yo y no Safford, la modificacion podria integrarse en la propia CPU, ya que tiene que ver con gestion de memoria y por tanto sigue la misma logica que cuando se integro la MMU dentro del Chip, creo que en el salto del 286 al 386.

Total, que los sueños de M-soft van bastante mas alla que un simple chip TCP. Y no daria tanto miedo si no fiera porque Intel, a fin de cuentas, forma parte de la TCPA. Naturalmente que linux arrancaria en esos primeros TCP-Intels: ya es un mercado lo suficientemente grande para que que Intel no lo desperdicie, sobre todo si sigue siendo dominante en servidores. Pero andando el tiempo, y con patentes Microsoft por enmedio, ya veriamos. Desde luego lo que no podria, aunque arrancara, seria certificarse como un NGSCB ring -1 secure server, y eso le empezaria a cortar conectividad. Hoy en dia si te conectas a un servidor Windows con Mozilla y este exige que seas un navegador windows, siempre puedes falsificar la identidad del navegador. En la nueva arquitectura no seria posible.

¿Sería legal? Pues posiblemente. La TCPA, al ser una asociacion de fabricantes, no es sospechosa de formar un Trust (salvo por el significado de las siglas :-DDDD), asi que si la arquitectura la diseñan ellos el comite anti-trust yanqui poco tiene que hacer. Ahora, el chiste seria cuando los de Debian se presentaran a pedir certificaciones "¿Y ustedes que empresa son?" Y pa pagarlas, claro, si hay patentes por el medio y todo.

[ Padre ]


Más de lo mismo (3.33 / 3) (#25)
por jorginius ("jorginius" en Google Mail) a las Wed Jun 4th, 2003 at 06:02:15 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

¿Estamos leyendo el mismo documento? Porque en la pagina dos dice "Microsoft could easily block Linux from using these features".

Documento de IBM, que se caracteriza por su neutralidad y por no manipular a la comunidad Linux en su beneficio... En ese documento hay cosas que son verdad (o lo parecen) y otras que son dudosas.

Si encuentras una sola referencia a que tal cosa es posible en toda la documentación técnica que hay publicada y te juro que me comeré mis palabras con patatas.

"ring -1 level protection"

Ese anillo de ejecución -1 sólo existe en un diagrama de bloques en una transparencia de una conferencia que creo recordar se dio en MIT, pero de acuerdo, vamos a suponer que fuera algo más que una "metáfora de diseño".

Los micros actuales compatibles x86 soportan cuatro anillos de protección, mientras ahora se están usando dos. Si quieren añadir un nivel "-1", lo único que tienen que hacer es segregar, dentro del sistema operativo, la parte confiable de la que no lo es: dejar la primera en el 0, que se las hablará con el SCP y proveera una base segura, y mover lo que no es confiable al anillo 1, sin modificaciones en los micros actuales.

Huelga decir que dividir el sistema operativo de esta forma, metiendo un anillo más, aumenta drásticamente los cambios de contexto. Una llamada al sistema (o "trusted agent", en la jerga de NGSCB) se resolverá como mínimo en un par de cambios de contéxto más, penalizando seriamente el rendimiento, y sobre esto no hay mucho que discutir.

No me creo que Microsoft vaya a sacrificar el rendimiento y la interactividad de sus entornos haciendo esto: hablamos de Microsoft, la empresa que tiro el diseño microkernel a la basura, cuando el versión 4 de NT metieron todo el subsistema gráfico en el nucleo sólo para que fuera más rápido el escritorio.

el chiste seria cuando los de Debian se presentaran a pedir certificaciones "¿Y ustedes que empresa son?"

TCPA intenta ofrecer una base para solucionar el tema de la confiabilidad entre iguales, saltándose a las entidades certificadoras. La gracia, y uno de los argumentos a favor de TCPA, es que no hace falta una entidad certificadora de primer nivel que me respalde para que mi interlocutor sepa que yo soy realmente yo, y no otra persona. Así que no, lo siento, pero no cojo el chiste :-)

Por favor, aporta información sobre lo que dices (información técnica y contrastada, quiero decir).

[ Padre ]


importa la especificacion no las intenciones (4.50 / 2) (#28)
por arivero (rivero at sol unizar es) a las Thu Jun 5th, 2003 at 04:35:41 PM CET
(Información Usuario) http://dftuz.unizar.es/%7Erivero/

Estas reduciendo todo tu analisis al TPM, al chip criptografico, y con eso se pierde bastante de la informacion. ¿Te valen como datos tecnicos las especificaciones publicadas en el nodo de la TCPA? Alli se describe bien claro que el proceso de confianza arranca en el Reset de la maquina y por ello controla el proceso de Boot.

Tienes razon en que la especificacion no corta el proceso de ejecucion, simplemente va tomando notas de la integridad de cada proceso y esas notas, encriptadas, pueden ser solicitadas por cualquier Desafiante. En particular la implementacion para PC (TCPA PC S.I.S. v 1.0) especifica la necesidad de analizar el sector de arranque antes de darle el control al sistema operativo: fase PCR[4] del proceso de auditoria, usando el HashLogExtendEvent

La propuesta de la TCPA es un escenario suave. Se limita a tomar nota durante los PCRs, no impide que arranque Linux, pero impide por ejemplo que Linux pueda simular a nivel "de confianza" el ser Windows o Cisco. Usease que puede impedir que Mozilla simule ser Internet Explorer o que Linux haga una conexion Samba a un servidor Microsoft: los servidores seguros harian un desafio de confiabilidad que Linux u otro OS no podrian responder. Lo mas gracioso es que un doble boot no te soluciona el asunto: si instalas LILO entonces has corrompido el master boot record, y eso es chequeado en el arranque, de manera que incluso tu particion Windows deja de ser considerada confiable -aunque pudieras parchearla para que arrancara y se creyera ella misma segura, los Desafiantes detectarian que estaban hablando con un WIndows corrupto. De transferir ficheros ya ni hablamos.

Explicitamente se deja a la politica de cada fabricante el especificar los accesos a la plataforma para reparaciones y modificaciones. En principio la zona "segura" de una placa base solo podria ser accedida por personal autorizado, utilizando herramientas MAE (manufactured approved), so pena de perder su caracter de "confiable". Si quieres llamar a eso certificacio entre iguales, pues parece que algunos fabricantes deben ser mas iguales que otros :(

Por cierto que el propio website del Trust este tiene una FAQ en la que se dice que Microsoft va a su bola con la arquitectura suya y que ellos no dicen nada de Palladium o similares. De ahi podria uno especular que la arquitectura de los Hasenfrochianos sería mas exigente que la de la TCPA: por ejemplo en vez de tomar nota de la "corrupcion" podria negarse a seguir avanzando en el proceso de boot. O podria usar el chip de TCM para otras gestiones de claves relacionadas al arranque de software. Habria que leer tambien las notas de Microsoft ¿alguna idea de donde conseguirlas?

[ Padre ]


La realidad y la ficción (2.00 / 1) (#29)
por jorginius ("jorginius" en Google Mail) a las Thu Jun 5th, 2003 at 06:02:19 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

Estas reduciendo todo tu analisis al TPM, al chip criptografico,

No. Eres tú el que atribuye más cosas de lo que puede hacer a ese chip.

¿Te valen como datos tecnicos las especificaciones publicadas en el nodo de la TCPA? Alli se describe bien claro que el proceso de confianza arranca en el Reset de la maquina y por ello controla el proceso de Boot.

También se deja bien claro que lo que hace el TPM es medir y recoger las medidas de forma fiable. Lo que decida el software hacer con esas medidas (no arrancar, por ejemplo) atañe exclusivamente al software, entendiendo por software el BIOS o el sistema operativo.

Tienes razon en que la especificacion no corta el proceso de ejecucion, simplemente va tomando notas de la integridad de cada proceso y esas notas pueden ser solicitadas por cualquier Desafiante.

Como tú bien dices, se saca la suma de comprobación del sector de arranque y se notifica al sistema operativo, a través del BIOS mismamente.

El hecho es que no se toma el control de la máquina, por parte del hardware. En ningún momento.

pero impide por ejemplo que Linux pueda simular a nivel "de confianza" el ser Windows o Cisco [...] Los servidores seguros harian un desafio de confiabilidad que Linux u otro OS no podrian responder.

Para establecer una comunicación segura con otra máquina, el sistema operativo pide al TPM un par de claves. Ambas máquinas se intercambian las públicas y comienza la comunicación. En esas claves no hay información de qué sistema operativo estamos usando. Sólo hay información, si así lo queremos, de que fueron generadas por nuestra máquina, pero nada más.

Es como decir que por usar una u otra implementación de SSL, se ve en nuestras comunicaciones qué sistema operativo estamos usando o cuál es la suma de comprobación de nuestro sector de arranque.

Nuestras medidas "no se exponen al mundo". Si uno de los interlocutores quiere saber qué sistema operativo está corriendo el otro, tendrá que recurrir a otros mecanismos.

Una hipotético manera sería pedir el fingerprint de la clave pública de nuestra versión de Windows, que iría firmada con la clave de respaldo de nuestra máquina. Y después consultar si ese fingerprint tiene la licencia en regla, en los servidores de Microsoft.

PERO es que esto mismo se puede hacer por software a día de hoy, sin recurrir a ningún chip extra. Ni siquiera es mucho más engorroso de hacer.

Lo mas gracioso es que un doble boot no te soluciona el asunto: si instalas LILO entonces has corrompido el master boot record,

No es necesario instalar el LILO en el MBR, pero sí. Es una posibilidad. Tampoco es tan difícil para Windows ahora mismo leer si hay una partición Linux en el proceso de instalación y negarse a continuar, o en cada arranque.

Explicitamente se deja a la politica de cada fabricante el especificar los accesos a la plataforma para reparaciones y modificaciones. En principio la zona "segura" de una placa base solo podria ser accedida por personal autorizado

El TPM no está especialmente diseñado para soportar ataques por parte del usuario. Como ya dije antes, tampoco es su cometido controlarle ni controlar que software ejecuta, así que no tendría por qué ser sólo manipulable/reparable/reemplazable por personal autorizado.

Los dispositivos para hacer PCs confiables (y PC confiables) ya se está vendiendo y no se toman "medidas especiales" como las que mencionas.



el propio website del Trust este tiene una FAQ en la que se dice que Microsoft va a su bola con la arquitectura suya [...] De ahi podria uno especular que la arquitectura de los Hasenfrochianos sería mas exigente que la de la TCPA

Cierto, pero en vista de que no hay nada palpable y de que algunas de las proclamas de Microsoft al respecto son bastante fantasiosas, no dejan de ser especulaciones.

En fin, si Intel anuncia un nuevo modo de ejecución y nuevos opcodes "trusted" para el siguiente Pentium, me echaré a temblar, pero mientras tanto el otro chip no existe.

Por otra parte, evitando algunos términos pomposos, creo que Palladium es realizable sobre TCPA.

Habria que leer tambien las notas de Microsoft ¿alguna idea de donde conseguirlas?

En la comunidad de NGSCB hay bastante documentación y foros de discusión. También hay una dirección de correo impersonal donde puedes pedir más info (publicidad, más bien :-)).

Por otro lado, tienes la sección de seguridad de la MSDN, donde están publicados todos los whitepapers sobre esa tecnología y en la web (así como, y sobre todo, en las news) puedes encontrar referencias bastante completas.

[ Padre ]


 
Importa la intención no las especificaciones (3.00 / 1) (#26)
por bruno a las Wed Jun 4th, 2003 at 07:39:05 PM CET
(Información Usuario)

Las especificaciones de Pallacion y TCPA pueden decir lo que quieran, el problema es que una vez que esté desarrollado, poder bloquear el botado de un determinado SO en un determinado hardware es muy sencillo (basta con eliminar la opción de la configuración del sistema), y como la intención es hacerlo, se hará.

De momento la historia es: hombre no te sulfures, que esto es solo para aumentar tu seguridad, si no quieres no lo usas... y se trabaja en el tema, aparecerán las placas, e incluso procesadores que lo integren, por otro lado ciertos SO y otra clase de software lo implantará, y cuando el tema esté maduro, sólo entonces, se cierra la puerta y a cascarla.

Y el problema es que si las cosas van por este camino, no tenemos via de escape.

Por cierto, conviene recordar que ya han existido iniciativas en el senado norteamericano para ilegalizar todo soft/hard que no disponga de dispositivos de protección de la propiedad intelectual...

[ Padre ]


what if? (2.66 / 3) (#27)
por jorginius ("jorginius" en Google Mail) a las Wed Jun 4th, 2003 at 09:11:23 PM CET
(Información Usuario) http://www.rodriguezmoreno.com

Las especificaciones de Pallacion y TCPA pueden decir lo que quieran

La especificación no dice lo que quiera, dice cómo funciona. Si la parte técnica no nos importa, entonces ¿de qué estamos hablando?, ¿de las impresiones generales de cada cual?, ¿tratamos de descubrir cuál es la opinión mayoritaria?. ¿Cual es el más horrible what if posible con Microsoft de protagonista?

Lo lamento, pero ese enfoque no me interesa. Me retiro de la discusión.

[ Padre ]


 
cosas raras (2.50 / 4) (#20)
por ridiculum a las Wed Jun 4th, 2003 at 03:41:11 AM CET
(Información Usuario)

Segun netcraft , el IIS aparece por 1996. En esa epoca, el SO de M$ para servidores era Windows NT 4.0. Apache ya tenia un 21% de cuota de mercado.

¿Cuando sucedio el tema ese raro de los misiles? Fue posterior a 1995 seguro. M$ no tenia mucha fe en eso de Internet, por eso el IE era tan lamentable en sus primeras versiones (windows 95) y por eso querian crear una red rara de M$. Por que no triunfo esa idea?. Pues lo se, quizas por que era un poco abusrda. Rebuscando en google, el tema de internet por satelite fue en el año 2001, pero segun universal.edu.com seria a finales de 1999. He encontrado alguna referencia en otras webs a lo de los misiles rusos, pero no hay fechas.

Apache no triunfo exclusivamente por que era libre, lo hizo por que era una solucion que funcionaba, y de una forma mas o menos buena.

Sobre la apocalipsis del DRM y TCPA, jorginius ya comentó lo suyo, a parte de que Linus esta de acuerdo con DRM

[ Padre ]


batallitas (2.00 / 2) (#22)
por arivero (rivero at sol unizar es) a las Wed Jun 4th, 2003 at 01:03:07 PM CET
(Información Usuario) http://dftuz.unizar.es/%7Erivero/

Lo de los satelites creo fue simultaneo al lanzamiento de Microsoft Network, de hecho MSN en principio iba a ser, como dices, una red privada muy gorda en plan Microsoft-Bitnet o Compuserve o algo asi.

Pa mi que la idea de Gates fue antes que la quiebra del Iridium, por eso la historia inicial de usar cohetes rusos. De seguro fue antes de que decidieran entrar a saco en internet con el Server.

M$ tardo en creer en internet, y eso dio la ventaja decisiva, junto con el caracter libre del software. El codigo del CERN httpd inspiro claramente el del NCSA httpd, y a partir de este segundo -añadiendo modulos y limpiando vulnerabilidades- aparecio Apache. Pero eso no quita para que la entrada de M$ en internet fuera tan agresiva como la recordamos, incluyendo capturas de empresas -hotmail- y sistemas de paswords por todos lados -passport, que era incluso mas desagradable al principio que ahora.

Me parece que tanto Bruno como yo, que somos abuelos cebolletas en esto (El Bruno lleva, creo, desde el 94 en Linux, yo desde navidad del 93), tenemos cierta tendencia, por eso de no perder tiempo, a citar de memoria en vez de usar google. De hecho en este caso es mejor usar altavista y restringirse a fechas del siglo pasado. Asi encuentro que Gates recently announced that Microsoft and McCaw Cellular Communications will form a joint 840-satellite global communications network y que esta Joint venture acabo llamandose Teledesic y la financiacion se realizó directamente del bolsillo de Gates, supongo que por evitar el antitrust. Eso fue en el 94. Eso de pactar con los rusos fue en el 97. No hay nada como las fuentes clasicas: el Playboy y el Wired :)))

[ Padre ]


 
Profano entre profetas. (3.66 / 3) (#5)
por yum (almula@BORRALOteleline.es) a las Fri May 30th, 2003 at 11:02:04 PM CET
(Información Usuario)

La verdad que interesante el articulo es, pero a mi personalmente se me hace incomprensible por falta de base y de entender conceptos... aun así, sabiendo que soy un profano en tierra de profetas, vamos a dar la opinión sobre el hardware libre.
El hardware, a diferencia con el software, necesita mucho dinero y maquinaria especifica q no está al alcanze de todos. El software no es más que plasmar unos razonamientos e ideas en lineas siguiendo unas pautas, al igual q lo puede ser la literatura. Todo el mundo puede escribir, pero se necesita mucho dinero para publicar un libro en papel: Hay q pagar el papel, las tapas, la imprenta y la distribución. Con internet cayó esa barrera y esos costes, aunque aun existan otros que son más sutiles de ver y no estamos acostumbrados a valorar: El coste de las lineas de datos, la infrastructura informatica, el personal que lo mantiene, troncales internacionales, etc... Hoy en dia publicar en internet gracias al esfuerzo de todos es, ademas de sencillo, barato.
Volviendo al hardware, como se habla en la conversación que da pié al articulo, tenemos problemas añadidos que frenan esta posibilidad:
  • Costes: Solución Cooperativas.
  • Leyes: Cada pais tiene unas normas de homologación de sus productos, de distribución de los mismos, de garantias basicas de funcionalidad, de seguridad, de materiales a usar... esto nos lleva al punto 1: Se necesita dinero para homologar el producto y conocer las normas de cada pais y no hablemos de la distribución.
  • Desarrollo/campo de pruebas: Se plantea no reinventar la rueda e ir paso a paso. Desarrollar por partes, usar FPGA para el diseño y para conseguir potencia usar varios... pero esta solución es, como no, cara. Para una empresa potente es relativamente facil invertir un dinero que a la larga puede recuperar. El dinero gastado en I+D se revierte luego con la frabicación en masa, con la distribución masiva y la reducción de costes. En un modelo como el de pequeños talleres y cooperativas estos costes son muy elevados.

    Pero dandole la vuelta al planteamiento, el efecto bola de nieve, se puede dar. Los costes, el tiempo y el desarrollo se reducen cuanto más gente contribuya a esto y ya se sabe que la gente llama a gente y nos vemos envueltos en la disyuntiva moral de devolver el esfuerzo a la comunidad. Lo dificil es empezar ese movimiento que permita que nuestra bola de nieve crezca y se haga más fuerte... porque en esto donde ademas de las ideas se mezcla muy mucho el dinero es dificil llevarlo a buen termino.

    Aún así, vuelvo a repetir, en este tema me siento como un profano entre profetas ¿alguien provocará la avalancha?



  • alguna aplicacion tendra que haber (3.00 / 2) (#6)
    por arivero (rivero at sol unizar es) a las Sat May 31st, 2003 at 04:08:33 PM CET
    (Información Usuario) http://dftuz.unizar.es/%7Erivero/

    Con respecto a lo de la avalancha, justo por eso reordene el dialogo para que empezaran hablando de la Killer Application - La primera version empezaba a la altura de la primera pausa.

    Este es un concepto viejo, se dice por ejemplo que Apple II vencio gracias al VisiCalc (la hoja de calculo), que el Mac sobrevivio gracias a Pagemaker y sus clones, quark Xpress, Adobe blablabla, y todo eso. Y se puede aplicar la ley a linux, que salio a la vez que el httpd. De hecho mi primer linux fue en el 93, en navidad, para poder correr el CERN httpd.

    Asi que creo es una una pregunta interesante, no exactamente si "alguien" provocara la avalancha, sino si "algo" llevara a la gente a adoptar una filosofia abierta -y libre- tambien en hard.

    [ Padre ]


     
    Mi humilde opinión (3.00 / 4) (#7)
    por Walden (waldenmail at gmx dot net) a las Sun Jun 1st, 2003 at 08:40:21 PM CET
    (Información Usuario)

    Estoy realizando una Tesis en la cual una parte consiste en el diseño e implementación de una antena inteligente para GPS. El diseño es cuestión de horas y horas peleándose con las especificaciones del sistema, buscar los dispositivos disponibles, etc. etc. Todo eso lo puedo publicar con una licencia pública y queda al alcance de todo el mundo. Pero ¿y la implementación? Conseguir los componentes está fuera del alcance de un usuario doméstico. Las FPGA todavía son bastante caras. Quizá los precios bajen en un futuro, pero por ahora veo inviable montarse en casa algo demasiado complejo. La instrumentación mínima (osciloscopio, generador, analizador de espectros y de redes, multímetro...) requiere una inversión importante incluso recurriendo a soluciones baratas (que suele coincidir con las de poca calidad, no aptas para trabajos "serios"). Siendo un poco habilidoso, uno puede construirse una antena para Wi-fi estupenda con muy poco dinero... pero montar una tarjeta inalámbrica, incluso contando con los componentes, no está al alcance de cualquiera. Me encantaría que el hardware libre sea una realidad en el futuro, pero de comento tenemos que contentarnos con publicar los diseños por ejemplo con esta licencia.

    [ Padre ]


    Caemos en el mismo problema que con el S.L (3.50 / 4) (#8)
    por jamarier a las Mon Jun 2nd, 2003 at 09:31:46 AM CET
    (Información Usuario) http://barbacana.net/blog/

    Recordemos que Free Software no quiere decir Software Gratuito sino libre. Tampoco quiere decir que cualquiera pueda compilar/modificar un programa (requiere ciertos instrumentos o programas compiladores y conocimientos, mínimos pero algunos al fín y al cabo).

    Con el Free Hardware pasa exactamente lo mismo. El problema es que si yo quisiese montar un sistema de antena ingeligente para GPS, tendría 2 opciones:
    • Contratar los servicios de una empresa que la tuviera hecha. Con los inconvenientes de tener que adaptar mi necesidad a la solución que me dan.
    • Contratar a un grupo de ingenieros para que diseñen y construyan desde cero un dispositivo.


    A partir de las implementaciónes de Hardware Libre, podría (un ingeniero contratado al efecto) tomar tus diseños e modificar las partes que no se ajustasen a mis necesidades.

    Luego es libre porque puedo usarlo y modificarlo a libertad; pero no es gratuito porque existen costes de fabricación y diseño. Como efecto secundario, siempre será más económico partir de un proyecto que funciona y adaptarlo que empezar de cero.

    [ Padre ]


    libre vs. libre-libre (1.66 / 3) (#11)
    por arivero (rivero at sol unizar es) a las Mon Jun 2nd, 2003 at 11:18:51 PM CET
    (Información Usuario) http://dftuz.unizar.es/%7Erivero/

    Bueno, el software libre acaba siendo gratuito porque su definicion (GPL o similares) impide que se le pueda asignar precio. En economia de mercado las cosas adquieren precio no mediante el trabajo, sino mediante el ejercicio del derecho de propiedad.

    En hardware es posible que los precios no acaben bajando a su cero, porque hay muchos mas mecanismos de propiedad involucrados, y lo peor es que los propios mecanismos de "debugging" son propietarios, o al menos muy caros de producir.

    [ Padre ]


    Estás MUUUYYY equivocado :) (3.00 / 4) (#12)
    por advocatux a las Tue Jun 3rd, 2003 at 01:25:28 AM CET
    (Información Usuario)

    Bueno, el software libre acaba siendo gratuito porque su definicion (GPL o similares) impide que se le pueda asignar precio. (arivero)

    Pues... ¡nada más lejos de la propia filosofía del SL!

    Te recomiendo la lectura de vender software libre de Richard Stallman.

    Destaco esta cita: "El software libre trata de libertad, y aplicar y defender la GPL es defender la libertad. Cuando defendemos la libertad de los usuarios no nos distraemos por cuestiones secundarias como cuál es el precio de distribución. Libertad es el asunto, todo el asunto y el único asunto."
    --
    - Por una Europa libre de Patentes de Software - EuropeSwPatentFree
    [ Padre ]


    subscribo la cita... pero respondo :-( (2.33 / 3) (#13)
    por arivero (rivero at sol unizar es) a las Tue Jun 3rd, 2003 at 03:19:25 AM CET
    (Información Usuario) http://dftuz.unizar.es/%7Erivero/

    No queria distraerme por cuestiones secundarias como cuál es el precio, o de que es el precio. ¿No habia otra thread sobre esto?. En todo caso, digo algo aqui:

    La definicion del software libre impide que los mecanismos de mercado le asignen un precio al software. Lo que no significa que no se pueda ganar dinero distribuyendo software libre, al igual que uno puede ganar dinero, pasmense, trabajando. Ahora, lo que es hacerse millonario, millonario, eso se consigue robando. Usease, con material propietario.

    El dinero en el software libre se gana basicamente vendiendo no el software sino el servicio. ¿Eso creo que lo tiene claro todo el mundo de RedHat para abajo, no? Hay quien gana dinero usando otros productos propietarios, por ejemplo escribiendo un manual de uso de Linux y publicandolo en una Editorial De Prestigio Que Defiende Su CopyRight. Pero la mayoria lo gana en el mas genuino estilo proleta, usease, con el trabajo de sus manos. Configurando sistemas, programando, manteniendo, &c.

    [ Padre ]


    Confusión en algunos conceptos básicos (4.00 / 2) (#16)
    por advocatux a las Tue Jun 3rd, 2003 at 05:50:17 PM CET
    (Información Usuario)

    Para poder debatir sobre cualquier asunto es necesario ponerse de acuerdo en una convención: el lenguaje que se va a utilizar y el significado que van a tener las palabras que se usen.

    Para la mayoría de asuntos, esta convención se activa automáticamente, pero no es así para tratar de temas filosóficos, en lo que lo primero a estudiar es "que" significa cada cosa para el filósofo y que concepto representa para él cada palabra emitida.

    Hablo de filosofía y de conceptos porque, parece ser, ese es el enfoque que tu le das a tu visión del SL y que, para tí, las palabras significan algo distinto que a los demás.

    Si hablas de que No queria distraerme por cuestiones secundarias como cuál es el precio para, a renglón seguido, apuntar La definicion del software libre impide que los mecanismos de mercado le asignen un precio al software, para luego liarla con frases cuasi-trollescas (lo que es hacerse millonario, millonario, eso se consigue robando. Usease, con material propietario) y demás... pues apaga y vámonos...

    Por supuesto, si que es el propio mercado - las "cosas" valen lo que se esté dispuesto a pagar por ellas - el que define el rango de precios del software libre y dicho proceso lo estamos viviendo actualmente.

    Se puede ganar dinero vendiendo SL y/o servicios. En Galicia tenemos, por ejemplo, una empresa que lo está haciendo realmente bien en esta línea.

    No sé que quieres decir con lo de "...Editorial De Prestigio Que Defiende Su CopyRight...". Por supuesto, nadie niega el valor del copyright y, de hecho, es fundamental el reconocimiento de dichos derechos, incluso para la GPL o para el copyleft. Seguro que conoces a la editorial O'Reilly y su política en relación al SL.

    En resumen, que no sé que quieres decir y que entiendo menos todavía a que conclusiones quieres llegar.
    --
    - Por una Europa libre de Patentes de Software - EuropeSwPatentFree
    [ Padre ]


    A ver (2.75 / 4) (#17)
    por arivero (rivero at sol unizar es) a las Tue Jun 3rd, 2003 at 06:59:03 PM CET
    (Información Usuario) http://dftuz.unizar.es/%7Erivero/

    No queria distraerme con cuestiones secundarias -y esto era una cita de rms en tu mensaje, por cierto- dado que me parecia que el tema propuesto -el hardware- era mas concreto que esto. Pero ya que entramos al trapo, entramos.

    Al referirme al "mecanismo de mercado" debiera ser evidente que me estoy refiriendo a los mecanismos de propiedad. Esto ya lo he dicho en el primer mensaje, pero parece que tengo que repetirlo. Y no lo subrayo porque el tag U no funciona aqui.

    A ver si me explico menos trollescamente(¿Proudhon era un troll? Igual si :-). Cuando se tiene la propiedad de algo es posible explotarla para ganar dinero sin trabajar. Ejemplo clasico, la especulacion inmobiliaria. O mas clasico aun, los monopolios. El software libre no admite monopolios, asi que la manera de ganar dinero directamente del soft libre es trabajando. Pero en ese caso lo que vendes es tu trabajo, no el software.

    Pongo un ejemplo rapido. Supon que tal soft libre cotiza a tal precio tal dia. Entonces te lo compro, saco una copia, y te lo devuelvo. ¿Me lo vas a recomprar a ese precio? ¿Entonces, es que ha cambiado el precio? ¿O es que no lo tenia, ya de principio? Lo que me estabas vendiendo era tu trabajo.

    Quizas un punto sutil es el de la distribucion; creo que va asociado al hecho de que es posible ganar dinero cuando el mercado no esta en equilibrio, comprando a un precio para vender a otro. Por ejemplo es algo que practican los operadores bursatiles, que lo llaman "arbitraje", y llegan a realizarlo casi en milisegundos cuando de mercados de capital se trata. En cualquier caso no es un dinero que se gane gracias a un precio de venta, sino gracias a una diferencia de precios. Un ejemplo parecido son las agencias inmobiliarias: ganan dinero no comprando ni vendiendo, sino poniendo en contacto al comprador con el vendedor.

    Como tu dices, el proceso de asignacion de precio al soft libre lo estamos viviendo actualmente. Lo que yo queria decir es que ese proceso desemboca en un precio nulo por el software, si bien la gente puede ganar dinero bien durante el proceso de asignacion, bien vendiendo otros productos, digamos servicios, libros, o su propio trabajo diario. Y que todo esto es consecuencia del derecho a la libre copia y distribucion que lleva asociado el soft libre.

    En fin, trivialidades. Una cuestion que me interesa mucho mas es si esa parte de la venta que va asociada al servicio o trabajo pudiera bajar a cero tambien, bien asociandola con un intercambio (yo te hago esto y tu me haces esto otro) bien haciendo que el servicio sea innecesario: por ejemplo si todos saben instalarse linux, es dificil vender un servicio de instalacion.

    [ Padre ]


     
    El software también puede venderse (3.20 / 5) (#14)
    por pnongrata (libertonia.5.pnongrata@spamgourmet.com) a las Tue Jun 3rd, 2003 at 09:58:57 AM CET
    (Información Usuario)

    Si vendes un software hecho a medida para una empresa, y le entregas el código fuente, con los derechos que concede una licencia libre, eso es "vender software libre", aunque esté escrito en visual basic y corra sobre Hasefroch 2008.
    --
    jabber:pnongrata@jabber.sk
    [ Padre ]


     
    Divagando (3.00 / 2) (#9)
    por yum (almula@BORRALOteleline.es) a las Mon Jun 2nd, 2003 at 09:53:49 AM CET
    (Información Usuario)

    Mi contacto con el mundo de las FPGA se reduce a la charla de "linux empotrado" del hispaLINUX 2002. Allí un "comercial" de Altera nos mostró sus productos y las bondades del FPGA, lamentablemente a la ultima hora de esta ponencia no pude asistir.
    Segun pude entender el proceso es algo así:
  • "En una memoria flash se guarda el diseño del circuito y al inicio se vuelca sobre el FPGA."
    A mi me pareció extremadamente sencillo como volcaban la info del diseño sobre la tarjeta. La ponencia comenzo con unas tarjetas con un chip de motorola no FPGA:Coldfire (sorprendentemente barato me pareció a mi) y despues sobre la placa de ALTERA.
    Para alguien como yo, que lo mas cerca que ha visto un circuito es cuando recoge los restos del mando a distancia del suelo, me pareció una autentica maravilla la simplicidad con la que un diseño se volcaba en la FPGA. Creí entender ademas que los FPGA de ALTERA (no sé si todos) podian unirse, es decir ir añadiendo más chips y para el sistema seria como si de un unico micro se tratase.

    Ahora bien, siguiendo con mis divagaciones. Aparte del precio y del coste me asaltan las dudas tipicas como los ciclos a los que puede trabajar el procesador o como de compatible son estos chismes con la tecnologia actual: ¿soportan AGP, PCI, ISA? ¿Sobre que bus trabajan? Si se pueden "unir" los FPGA ¿Como lo hacen fisicamente y sobre que BUS y conectores? ¿será facil adaptar el gcc a un nuevo micro?.

    Otro inconveniente es la propia naturaleza del procesador. En el software libre yo veria más posible una CPU de tipo CISC a la que se le fuesen añadiendo juegos de instruciones que una arquitectura RISC que ganaria en rendimiento solo con el aumento de la frecuencia del reloj. Pero nuevamente jugamos en nuestra contra, pues el numero de ¿puertas logicas? influye en el precio exponencialmentey tendriamos que a mas INSTRUCCIONES de la CPU más puertas logicas deberia tener la FPGA. En un momento como el actual que se está produciendo en las arquitecturas dominantes PC y MAC el paso a los 64Bits y rompiendo en algunos casos con la compatibilidad x86, quizá fuese un buen momento para empezar el movimiento.

    Aun así quiero ser optimista con esta tecnologia, la propia evolución tecnologica y la ley de la oferta y la demanda haran bajar los precios y poco a poco se iran colando en nuestras casas. Soñar con que puedo reciclar mi procesador cuando quiera, añadiendole o quitandole funcionalidades, pasando mi FPGA de procesador a controlador de la tj. de red por ejemplo...

    Hace tiempo leí un proyecto de hardware libre llamado F-CPU pero creo que este proyecto ha muerto, quizá sea ahora el momento de que renazca.

    PD: ¿Que es el proyecto LEON de la comunidad europea? ¿Es hardware libre?

    [ Padre ]


  • el infierno del hardware ;) (4.00 / 4) (#15)
    por ridiculum a las Tue Jun 3rd, 2003 at 05:36:34 PM CET
    (Información Usuario)

    Yo de hardware lo justito, pero voy a intentar responder a algunas cosillas

    Para alguien como yo, que lo mas cerca que ha visto un circuito es cuando recoge los restos del mando a distancia del suelo, me pareció una autentica maravilla la simplicidad con la que un diseño se volcaba en la FPGA. Creí entender ademas que los FPGA de ALTERA (no sé si todos) podian unirse, es decir ir añadiendo más chips y para el sistema seria como si de un unico micro se tratase

    Normalmente, una FPGA se puede programar de dos formas: tal y como comentaba el señor de hispalinux, y hacer el volcado del programa a la FPGA de forma que esta no sea reconfigurable una vez que esta pinchada en la placa.

    ¿soportan AGP, PCI, ISA? ¿Sobre que bus trabajan? Si se pueden "unir" los FPGA ¿Como lo hacen fisicamente y sobre que BUS y conectores? ¿será facil adaptar el gcc a un nuevo micro?. Las FPGA no soportan nada per se. Es una pastilla virgen. No sabe hacer nada. Si tu tienes un diseño que necesita comunicarse con otros via PCI o USB, por ejemplo, pues tienes que programarte una interfaz PCI o USB.

    Por poner un ejemplo, en mi escuela tuvimos que programar un iterfaz EPP-I2C y luego meterlo en una FPGA. El invento era para hacer algo ta.que:
       PC----EPP-----FPGA-----MEMORIA i2c
    
    La FPGA evidentemente no sabe nada de buses, asi que tienes que currarte un iterfaz EPP por un lado, un interfaz i2c por otro, y luego hacer que se comuniquen. En la web de opencores tienes diversos cores en VHDL listo para usar. Como ves, esto de las FPGA's no es tan simple como conectar y listo.

    Respecto a si se puede unir 2 FPGA's, si, se puede. Con ese cacharro puedes hacer lo que quieras por que tu eres el que dice lo que debe hacer.

    Las FPGA tiene su cosa. En slashdot creo recordar que salio una notica sobre una empresa que habia metido el mod_gzip en una FPGA, de tal modo que la compresion se hacia por hardware. Tambien es interesante para los criptos por hardware, pero intentar hacer un micro competitivo a base de FPGA's es durillo, mas que nad por el precio de la pastilla respecto de lo que valdria el micro "clasico"

    [ Padre ]


     
    El LEON y el LEON-II (3.33 / 3) (#10)
    por jorginius ("jorginius" en Google Mail) a las Mon Jun 2nd, 2003 at 04:09:10 PM CET
    (Información Usuario) http://www.rodriguezmoreno.com

    Es una implementación de la arquitectura Sparcv8 para sistemas empotrados (muy completa). En principio fue desarrollado por la ESA, pero ahora lo lleva una empresa privada independiente.

    El código VHDL de la primera versión está publicado bajo la LGPL y es sintetizable sin problemas. La versión 2.0 incluye la autocorrección y tolerancia a fallos, y es una añadido cerrado. El simulador tampoco es libre, pero tiene versiones de evaluación. μLinux, así como el "toolchain" GNU (gcc, binutils, etc) está portado a ese micro.

    Ya hablé por aquí antes del LEON

    [ Padre ]


     
    Hardware Libre, tecnologia y derechos | 29 comentarios (25 temáticos, 4 editoriales, 0 ocultos)
    Ver: Modo: Orden:

    ecol Logo Powered by Scoop
    Todas las Marcas Registradas y copyrights de esta página son propiedad de sus respectivos dueños.
    Los comentarios son propiedad del que los escribe.
    Los iconos de las noticias y el logotipo son propiedad de Javier Malonda.
    El Resto © 2002 Escomposlinux.org y aledaños.

    Puedes sindicar los contenidos de libertonia en formato RSS 1.0 y RDF 0.9. También se puede sindicar la cola de envíos pendientes de moderación.

    El proyecto escomposlinux.org está dedicado a la memoria de tas

    crear cuenta | faq | búsqueda