petitebanx.jpgion.jpgescolar.jpgbiblioteca1.jpg

Septiembre 22, 2005

Inteligencia colectiva en la Web 2.0

José Luis de Vicente
(En Creación e Inteligencia Colectiva, catálogo del Séptimo Festival Zemos98)

goglemaos.jpg flickr.jpg newspmap.jpg
Google Maps, FlickrGraph, Newsmap:3 aplicaciones canónicas de la web 2.0

Por qué 2005 puede ser tan importante para la Red como 1995

Este año, la Web celebra un aniversario importante. No el de su creación, ni el de su popularización masiva. En 1995, Netscape se convirtió en la primera empresa de Internet en cotizar en bolsa, abriendo con ello la era de la nueva economía e inaugurando una nueva concepción de la Web como un espacio no reservado a los pocos que habían pasado por sus complejos rituales iniciáticos, sino como un medio para los muchos; un medio de masas.

Diez año después, para muchos consultores y bloggers visionarios, 2005 parece ser una especie de segunda oportunidad para la Web. O al menos para aquella clase de Red que nació en 1995 y parecía morirse definitivamente en el 2001, cuando a Silicon Valley se le cerró el grifo del capital riesgo y la famosa “burbuja punto com” explotó, llevándose por delante a decenas de empresarios vestidos informalmente y de oficinas amuebladas con sillas Aeron de precios ridículos. El declive de la era punto.com no fue por supuesto el final de nada verdaderamente importante (de hecho, fue el principio de otra web mucho más activa e interesante, la de la blogosfera, los wikis y las multitudes inteligentes). Pero a diferencia de la de 1995, los efectos de la nueva web que se está fraguando ahora puede que sean verdaderamente trascendentales. Las promesas son emocionantes, las tecnologías espectacularmente prometedoras. Y los posibles resultados, en realidad todavía no los conoce nadie realmente.

Los síntomas en la superficie son familiares. Un mercado bursátil excitable. (Google, la verdadera estrella de la nueva nueva economia, produciendo muchos más beneficios tras su salida a bolsa de los que los agoreros le pronosticaban). Una dinámica familiar: tres gigantes de la economía de la información compitiendo por ser el primero en hacerse con la pequeña compañía (Flickr y Konfabulator para Yahoo, Keyhole o Dodgeball para Google) que ha desarrollado un servicio innovador que podría convertirse en la próxima killer app. Una tecnología vistosa y revolucionaria que se presenta como la solución a todos los problemas de la Web (entonces se llamaba Flash y todos parecían odiarla; ahora se llama AJAX, y de momento no tiene mala prensa). Todo un léxico flamante estrenado para la ocasión (“folksonomías”, RSS, “tagging”, software social, APIs). Y una etiqueta atractiva y fácil de recordar que lo resume todo en una marca vendible. Olvídense de las punto.com; bienvenidos a la Web 2.0.

La Web 2.0 es el sueño que se ha estado fraguando progresivamente y sin hacer demasiado ruido en las cocinas de la industria de Internet durante los últimos dos años. Una profunda reinvención de las estrategías y las arquitecturas sobre las que se implementan los servicios online que promete sentar los cimientos de la web de la próxima década. En la que se habrán quedado obsoletos los símiles con la biblioteca de Babel, porque cada vez habrá menos documentos cerrados que almacenar y distribuir. En la nueva web las metáforas con las que trabajar son el radar en el que seguir la evolución dinámica de los objetos, el cuadro de mandos lleno de potenciómetros, el barómetro que proporciona una lectura en tiempo real del estado de las cosas. Quizás podemos decirlo sin salir de Borges: la nueva Web es mucho más El Aleph que la biblioteca infinita o el libro de arena.

Las buenas noticias son que la industria parece haber aprendido mucho de sus errores de la primera vez, y la nueva revolución no se está construyendo de espaldas a los internautas, sino sobre los internautas, con su imprescindible colaboración y presumiendo su complicidad. El desastre del 2000-2001 dejó claro que la estretegía de considerar a los usuarios exclusivamente consumidores pasivos, cuyo grado de intervención en el medio se limita a marcar casillas y rellenar funcionarios, casi nunca funciona. Sobre todo cuando dotarles de una cierta capacidad de intervención les convierte en consumidores mucho más eficaces (Amazon, Ebay). El digital lifestyle promovido por Apple y las revoluciones autoorganizadas de la Blogosfera y el Peer to Peer han convencido a la industria de que a la gente le encanta crear y compartir contenido, y está dispuesta a hacer la mayor parte del trabajo (generarlo, distribuirlo y clasificarlo) si se le dan las herramientas adecuadas para ello. La ética del remix y lo derivativo, aupadas por el rápido despegue y el amplio apoyo de iniciativas como las licencias Creative Commons, se encontraría con una arquitectura hasta cierto punto abierta que me permite combinar y reelaborar mis datos con los de otros usuarios en vistosos interfaces flexibles y dinámicos, configurables a mi gusto por cortesía de los grandes servicios online. De todas las encarnaciones de Internet, el modelo de la Web 2.0 es el que más se acerca a implementar de manera efectiva la visión de Internet como un sistema nervioso compartido, como una inteligencia global distribuida, donde una estructura de significado emerge de los procesos colaborativos desarrollados por todos sus usuarios. Incluso cuando estos procesos son tan banales como etiquetar millones de fotografías y asignarles palabras claves.

Tres pasos hacía la Web 2.0

Dan Gillmor, experto en periodismo participativo y autor del excelente We the Media (Nosotros, el Medio) explica muy bien las distintas etapas históricas de la Web y en qué se diferencian de la etapa de transición que se está abriendo en estos momentos.

La Web inicial era relativamente estática, y estaba diseñada prácticamente sólo para la lectura. La mayor parte de nosotros sencillamente se descargaba textos e imágenes de sitios remotos que eran actualizados periódicamente con nuevos textos e imágenes.

Gracias a la combinación de diferentes tecnologías que han desembocado en el estándar AJAX (iniciales en inglés de Javascript y XML asíncrono), La Web 2.0 deja de ser estática hasta el punto de que las páginas que nos descargamos no existen ya en un estado cerrado y fijo. Si antes para actualizar una información era necesario recargar la página para sustituir una versión del archivo por otra, ahora es posible actualizar una página a medida que se va cargando, modificando su estado en tiempo real en función de las decisiones del usuario. Véase Google Suggest, por ejemplo, un servicio del popular buscador en el que a medida que introducimos caracteres en la caja de búsqueda aparecen los términos más populares que empiezan por esa serie de caracteres, y el número de resultados que genera cada búsqueda. O Google Maps, el servicio de mapas y fotografía por satélite , en el que los paisajes que recorremos se van cargando y componiendo sobre la marcha al desplazarnos en una dirección concreta.

(…) La primera gran transición se produjo cuando la Web se convirtió en un sistema de lectura y escritura, un gran cambio que está todavía en progreso. La gran revolución en este ámbito tuvo lugar con los weblogs, los diarios personales y los wikis. Ahora no sólo la gente podía crear sus propios sitios web, sino que podía actualizarlos fácil y rápidamente.

Asumida la revolución de los sistemas de publicación de contenidos como weblogs y wikis, en la web 2.0 la atención se desplaza desde la información hacía la metainformación. La cantidad de datos generados empieza a ser de tal volumen que no sirven para nada si no vienen acompañados de otros que les asignen jerarquía y significado. La estrategía de dotar a los usuarios de instrumentos para clasificar la información colectivamente se ha definido como folksonomía, y su implementación más popular son los tags o etiquetas. Para el “super blogger” Jason Kottke, si los blogs democratizaron la publicación de contenidos, las folksonomías están democratizando la arquitectura de la información. Los usuarios de Flickr, por ejemplo, no sólo comparten sus fotografías a través del servicio, sino que al asignarles múltiples etiquetas con las que asocian significado a las imágenes, construyen una gran estructura semántica de imágenes que se puede recorrer en todas las direcciones. En el servicio de “bookmarks” social del.icio.us, los usuarios etiquetan con diferentes conceptos los enlaces de interés que encuentran en la Red, generando así una clasificación temática muy precisa del crecimiento diario de la Web. La comunidad de del.icio.us está llevando a cabo el simulacro más eficaz del viejo sueño de la Web Semántica, una Web que se entienda a sí misma.

La web que está emergiendo es una en la que las máquinas hablan entre sí de la misma manera en que antes los humanos hablaban con las máquinas o entre ellos mismos. Si la Red es el equivalente de un sistema operativo, en esta fase estamos aprendiendo a programar a la Web.

La más profunda de las transformaciones de la Web 2.0 reside en la reinvención de la manera en que la información circula por la Red, democratizando y poniendo a disposición de todos los usuarios la capacidad de programar el comportamiento de diferentes flujos de datos que interactúan entre sí de maneras hasta hace poco inimaginables. En la nueva Web se está construyendo toda una arquitectura de canalizaciones de información que permite conducir cualquier dato específico (una fotografía por satélite, un archivo de sonido, el pronóstico del tiempo en cualquier ciudad del mundo para mañana) desde un servidor hasta cualquier tipo de interfaz que el usuario determine; una web en html, un widget, o un programa para la interpretación de música en tiempo real sobre el escenario.

La adopción en masa del estándar de sindicación de contenidos RSS por parte de los blogs ha sido el primer paso importante hacía la web automatizada y programable. El RSS permite, por decirlo de manera gráfica, extraer el zumo de una página web (el contenido) y arrojar las cáscaras (el diseño). Una vez que todo el contenido de la página está codificado en este feed (flujo de datos), puede trasladarse periódicamente hacía cualquier otro interfaz en la Web designado por otro usuario. Inicialmente, los internautas han utilizado principalmente el RSS para informar sobre cuándo se actualiza un sitio web y cuáles son los nuevos contenidos que se han incorporado a él, pero se pueden hacer muchas más cosas con este estándar: desde informar sobre las incidencias horarias en la red del metro de Londres, hasta transmitir en directo la evolución de un valor en bolsa.

Tras la popularización del RSS, el siguiente paso importante ha sido la puesta a disposición de los internautas de los “interfaces de programación de aplicación”, o APIs, de los servicios más populares. Una API permite extraer la información de la base de datos de un gran servicio online (Google, Amazon, Flickr) e incorporarla a cualquier otra nueva aplicación que hayamos creado. Es lo que permite que podamos, por ejemplo, incluir una caja de búsqueda en Google en cualquier otra página. Abrir la API del servicio de mapas de Google, por ejemplo, ha permitido que surja toda una comunidad de programadores aficionados que crean aplicaciones en las que se superponen toda clase de datos sobre las imágenes de estos mapas: desde los pisos en alquiler disponibles en este momento en las ciudades de Norteamérica (Housing Maps) hasta el parte de heridos en los últimos San Fermines durante cada encierro.

Folksonomías, AJAX, RSS, APIs…se combinan en las primeras y tempranas aplicaciones que están anticipando el aspecto y la funcionalidad de la Web 2.0. Impactantes como Chicago Crime Map, que proyecta sobre el mapa de Chicago los delitos que se cometen en esta ciudad diariamente; mágicas como Flickr Color Pickr, que permite extraer de la base de datos de Flickr las imágenes de un color específico, que representan un tipo de objeto o categoría (flores, por ejemplo); o poéticas, como el Amaztype de Yugo Nakamura, una forma completamente diferente de descubrir libros en la Red antes de comprarlos.

Viejos sueños y señales inquietantes

Los términos son nuevos y las tecnologías se están empezando a explorar, pero muchas de las ideas subyacentes en el discurso de los que dibujan este escenario las hemos oido antes. La Web 2.0 parece la última encarnación de la que ha sido la fantasía más común de la cibercultura, anticipada y anhelada en textos como “Out of Control” de Kevin Kelly o “Emergence” de Steven Johnson. La idea de que la Web acabará convirtiéndose en un sistema nervioso global, un cerebro en el que cada internauta constituye una neurona y que acabará generando algún tipo de inteligencia colectiva que produzca pensamientos e ideas por encima de las capacidades de cada una de sus pequeñas partes.
Evaluar el grado de posibilidad de esta teoría o como se ajusta a la tradición de un cierto discurso positivista y utópico trazado en el norte de California desde comienzos de los 90 está por encima de lo que podemos hacer aquí y ahora. Pero el modelo que se está armando emite algunas señales inquietantes.

Todo esto sucederá, cada vez más, dentro del patio de juegos de los gigantes de la Red. El grado en el que los grandes conglomerados de intereses permitán que sus APIs se utilicen para aplicaciones concretas que revelen determinadas realidades o faciliten el acceso a información sensible –como Casualty Maps, que muestra la procedencia de los soldados americanos muertos en el conflicto de Irak- está por ver, y es evidente que tarde o temprano estas estrategías generarán conflictos de intereses entre los usuarios y los gestores de los servicios.
Nadie pudo controlar realmente la expansión de la blogosfera ni lo que sucedía dentro de ella, ni siquiera cuando Google compró Blogger. Pero lo que puedan hacer los usuarios dentro de Flickr o de Google Maps estará determinado por lo que sus arquitectos permitan. El futuro de la Web 2.0 como espacio social y político está vinculado indefectiblemente a la evolución de los “terms of service”, esas licencias kilométricas que nos saltamos sin prestarles mucha atención cada vez que instalamos un programa o nos suscribimos a un servicio. Quizás haya que empezar a leerlas.

José Luis de Vicente
Comentarios

En este articulo hay recopiladas un montón de novedades, y otro poco de cosas ya conocidas, pero lo que es más importante, puestas en relación para ofrecer un panorama global, una estructura. No solo es interesante e instructivo... también es MUY dificil hacerlo tan bien. En serio, da gusto leeros.

Puesto por Ansible a las Septiembre 23, 2005 12:57 AM

Gracias ;-)

Puesto por JL a las Septiembre 23, 2005 03:25 PM

Completamente de acuerdo con Ansible.

Magnífica labor de síntesis y francamente interesante.

Gracias a tí

Puesto por otto a las Septiembre 24, 2005 06:12 PM

Impresionante post.
Habra que estar atento a la web 2.0

Puesto por javi a las Septiembre 24, 2005 09:00 PM

Magnífico artículo. Habéis conseguido explicar hacia qué está evolucionando "todo esto del internés", lo cual no es baladí. Es bonito ver como WWW ya no sólo es HTML, sino que se van sumando nuevos conceptos que hacen que se multiplique su valor. Dentro de unos años el acceso a contenidos online desde cualquier dispositivo será tan habitual que nos preguntaremos cómo ha sido posible vivir sin ello!

Puesto por Repoker a las Septiembre 26, 2005 06:39 PM

Este impresionante ensayo de clara influencia borgiana hace que mis mas lejanas fantasias cobren sentido,la nueva era comienza a ver la luz!!!!!!

Puesto por Anabella a las Septiembre 29, 2005 11:02 AM

Vaya, hemos pensado en algunos carriles paralelos parece. A los consumidores a quienes haya gustado este artículo quizá también gustará uno que escribí llamado "Linkterature" :
http://www.unizar.es/departamentos/filologia_inglesa/garciala/publicaciones/linkterature.htm

Puesto por José Angel a las Noviembre 9, 2005 07:48 PM

Felicidades por el artículo. Ya te aviso que, de ahora en adelante, lo voy a usar como referencia para explicar la cosa 2.0, porque:

* Está en castellano (cuestión nada trivial, gastándose el personal el nivel de inglés que se gasta)
* Es equilibrado: ni vende humo 2.0 ni es anti 2.0
* Tratas sobre aspectos del tema que me interesa de la cosa 2.0: la vertiente social, la inteligencia colectiva

He escrito algo que te puede interesar al respecto en este artículo de mi bitácora:cosechar o explotar la inteligencia colectiva (http://tinta-e.blogspot.com/2005/10/cosechar-o-explotar-la-inteligencia.html). Te agradecería cualquier opinión al respecto

saludos

PD: ¿Tienes desactivado HTML en los comentarios?

Puesto por Juan Luis a las Noviembre 10, 2005 01:57 PM

Es un artículo casi perfecto (a no ser por la "s" que le falta al "años" del segundo párrafo. Es compensado y bien explicado, pues me parece que has sabido explicar de forma sintética la Web 2.0. Curiosamente la falta de esa "s" ha producido en mi una reacción humana que los ordenadores no saben interpretar: la incomodidad de la antiestética. Me refiero con esto, a que la "cáscara" de la información crea un entorno que da lugar a diferentes interpretaciones, el contexto. Incluso el tipo de letra puede llegar a variar una información. Tengamos en cuenta esto porque la letras son signos con significado y significante pero el contexto en Internet (a mi modo de ver, por supuesto)es la ubicación virtual basada en archivos gráficos. No la supeditemos a un segundo plano, por favor. Por piedad. ¿O acaso esto significa la muerte de la estética?


En cualquier caso te felicito efusivamente porque pocas cosas se ven tan bien explicadas. Gracias.

Puesto por Un diseñador desde el mundo real a las Noviembre 16, 2005 04:33 PM
Poner un comentario









¿Nos quedamos con tus datos?











copyfight_thumb.gif




Más Proyectos Elásticos
free_culture-thumb.jpg
Free Culture en español


GET CREATIVE
getcreativesmall.gif
Un vídeo CC
sobre el Copyleft




Patrocinador



Especiales y Agenda
artfutura04.jpg
artFutura 04

ars2004_thumb.jpg
ARS electronica 04

artfutura.jpg
artFutura 03

arslectronica.jpg
ARS electronica 03

entrevistas-thumb.jpg
entrevistas


Categorías

Archivos


Enero 2006
D L M X J V S
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        


Creative Commons License
Este blog es copyleft y se acoge a la licencia Creative Commons.


XML

Creado con
Movable Type 3.15
Estadí­sticas