Es cierto que avances técnicos previos al ordenador, el acceso cada
vez mayor de grandes sectores de la población a la cultura, que tiene
lugar sobre todo en la segunda mitad del siglo XX, y otros factores
socio-culturales y económicos procuraron la posibilidad de un
intercambio a gran escala de información y conocimiento. Basta, por
ejemplo, con pasarse por una gran libería para reconocer, sin ningún
genero de duda, que la cantidad de libros almacenados en sus anaqueles
durante un sólo año supera las posibilidades de recepción de una vida
entera. Y basta ---por continuar con otro ejemplo--- con revisar
la bibliografía existente sobre un campo muy especializado de un
ámbito de conocimiento cualquiera para reconocer la imposibilidad de
leer aunque sea una mínima parte de ese legado.
Con Internet esta situación llega a un extremo vertiginoso. ¿Cuántas
páginas indexa Google? ¿Cuántos productores de conocimiento pueden ser
enumerados como creadores activos de la red de redes? Nos movemos,
sin duda, en cifras astronómicas. Y esto no ha hecho más que empezar.
Defender la libre diseminación del conocimiento parece algo
indiscutiblemente bueno, por muchas razones que no voy a enumerar
aquí.
Pero del mismo modo que han de ser fomentados los esfuerzos en esta
dirección, es necesario empezar a plantearse el problema que la
proliferación indiscriminada de conocimiento puede provocar, y empieza
a provocar ya.
Hoy en día la Red mundial es una especie de palimpsesto cuasi-infinito
de información interconectada por una inextricable red de
relaciones. Si un hipotético historiador del futuro acometiese la
tarea de descifrar este palimpsesto dinámico, continuamente cambiante
y en continua ampliación, caería en un vértigo mortal que le
paralizaría.
Signos de esta misma parálisis pueden observarse en tendencias
aparentemente irrelevantes como la de almacenar en el disco duro ese
vínculo o ese artículo que nunca visitaremos o leeremos, por miedo a
perdernos algo importante; o aquella otra de vagar de aquí y allá
durantes horas en busca de algo de lo que ni siquiera podríamos
asegurar su conveniencia. Estos comportamientos no son en el fondo
sino síntomas leves de un problema más grave: la dificultad ---quizá
habría que decir imposibilidad--- de catalogar, organizar, filtrar y
asimilar adecuadamente la ingente cantidad de información que tenemos
hoy en día ante nosotros.
Pero la información en sí misma no es suficiente. Es necesario
encontrar un medio para hacerla nuestra, al menos potencialmente.
Hay, es cierto, trabajos en esta dirección: el propio Google u otras
arañas semi-inteligentes son formas de clasificar primitivamente la
información. En otros ámbitos más especializados proyectos como DOAJ o
las correspondientes infraestructuras ---ver, por ejemplo,
OAI--- tratan de proporcionar sistemas de organización eficaces.
No obstante, existe todavía el problema del filtrado. Entiendo por
esto lo siguiente: aunque construyeramos bases de datos
extraordinariamente comprehensivas y perfectamente organizadas, una
busqueda, aun compleja, en esas bases de datos arrojaría todavía
demasiados registros y, en un futuro no muy lejano probablemente,
tantos como para marear al más equilibrado de los usuarios. ¿Quién
decidiría sobre la calidad y / o pertinencia de cada uno de esos
registros? ¿Nos conformaríamos con una mera estadística hecha a partir
de la valoración de los usuarios? ¿Y si nuestro punto de vista y
nuestra forma de evaluar es diferente de la mayoría? ¿Estaríamos
dispuestos a ceder la responsabilidad al experto de turno, que como
humano que es tiene también sus preferencias personales y sus gustos
completamente subjetivos? ¿Veríamos con buenos ojos una especie de
Canon como los que ahora están de moda en contextos literarios?
Yo, en particular, no tengo respuesta a estos problemas. Pero se me
ocurre otra forma de acercarse a la cuestión, que esbozaré sólo en sus
líneas generales.
El problema de lo que he llamado proliferación indiscriminada de
información es una consecuencia de la multiplicación ad infinitum del
número de productores de conocimiento. Cada productor es sujeto
posible de una serie relativamente limitada de obras, pero en el
concepto tradicional ---esto es, moderno--- de producción subyace la
idea de la atribución de un producto a un creador. Si el número de
creadores tiende a infinito, también tiende a infinito el de
creaciones. Ahora bien, si somos capaces de concebir la creación no
como una relación de uno-a-uno entre el creador y su obra, sino como
una relación de muchos-a-uno, el problema podría desaparecer, al menos
paliarse.
El modelo de desarrollo del software libre, tanto en su aplicación al
software en concreto, como a otros terrenos ---wikies de mayor o menor
alcance--- muestra aquí, de nuevo, su originalidad y sus ventajas. En
mi opinión una gran parte del éxito de Linux radica en este
hecho. Dicho de otra forma, si cada desarrollador hubiera creado su
propio sistema operativo ---cosa nada fácil para un solo hombre,
entiéndase no obstante el sentido del ejempo---, nada sabríamos de
este software. El encadenamiento de esfuerzos dirigidos a una única
meta no sólo tiene la ventaja de la calidad suficientemente
contrastada, sino el de evitar la disolución del producto en el
marasmo, potencialmente infinito, de otros productos semejantes.
Sabemos ---aquí en Libertonia se ha recordado varias veces--- que este
modelo de desarrollo no es nada nuevo, pues es sustancialmente el
mismo que ha seguido la ciencia históricamente. Pero conviene recordar
---al menos así lo creo yo--- su importancia y las consecuencias que
una aplicación de la teoría artística del genio ---el modelo
contrario--- pudiera tener en la era de Internet.
¿Cómo veis vosotros este asunto? ¿Os parece que es solo una tendencia
a lo apocalíptico lo que promueve mis temores? ¿Veis otras opciones?