Contáctenos por...   +58.4145436937  +58.4144558956

Blog

Dic
26
2005
                                  PDF

El reventón de la burbuja puntocom en el otoño de 2001 marcó un punto de inflexión para la web. Muchos concluyeron que la web había recibido un bombo exagerado, cuando en realidad tanto las burbujas como las conmociones consiguientes parecen ser una característica común a todas las revoluciones tecnológicas. Las conmociones acostumbran a marcar el punto en el que una tecnología ascendente está a punto para ocupar su lugar en el centro del escenario.

Los aspirantes reciben una patada en el trasero, los verdaderos triunfadores demuestran su fuerza, y todo el mundo comienza a comprender lo que distingue a los unos de los otros.


El concepto de "Web 2.0" nació durante una sesión conjunta de O'Reilly y MediaLive Internacional para la preparación de conferencias. Dale Dougherty, pionero de la web y vicepresidente de O'Reilly, observó que en lugar de haberse "estrellado", la web era más importante que nunca, y que nuevas aplicaciones y sitios iban surgiendo con una regularidad sorprendente. Además, las empresas que habían sobrevivido al derrumbamiento parecían tener algunas cosas en común. ¿Podría ser que el hundimiento del mercado puntocom marcase una especie de punto de inflexión para la web, de modo que tuviera sentido una invitación a la "Web 2.0"? Estuvimos de acuerdo en que sí, y de este modo nació la Conferencia Web 2.0.

En el año y medio que ha transcurrido desde entonces, la expresión "Web 2.0" ha cuajado claramente, con más de 9 millones y medio de referencias en Google. Pero todavía hay un enorme grado de desacuerdo sobre el significado preciso de Web 2.0, con gente que lo denuncia como un simple lema de marketing sin sentido, y otros que lo adoptan como nueva sabiduría convencional.

Este artículo pretende aclarar a qué nos referimos cuando hablamos de Web 2.0.

En nuestra discusión inicial, formulábamos nuestra percepción de la Web 2.0 a través de ejemplos:

Web 1.0 Web 2.0
DoubleClick --> Google AdSense
Ofoto --> Flickr
Akamai --> BitTorrent
mp3.com --> Napster
Britannica Online --> Wikipedia
páginas personales --> bitácoras
evite --> upcoming.org y EVDB
especulación con nombres de dominio --> optimización en buscadores
páginas vistas --> coste por clic
raspado de pantalla --> servicios web
publicación --> participación
sistemas de gestión de contenidos --> wikis
directorios (taxonomía) --> etiquetas ("folksonomía")
fidelización --> sindicación


Y la lista continúa. Pero ¿qué es lo que nos lleva a calificar una aplicación o un enfoque como "Web 1.0" y otro como "Web 2.0"? (Esta cuestión resulta especialmente acuciante, ya que el meme de la Web 2.0 se ha difundido tanto que las empresas ya lo aplican como lema de marketing, sin comprender de verdad lo que significa. La pregunta es particularmente difícil, porque muchas de esas empresas nacientes y adictas a los lemas de marketing no son Web 2.0 en absoluto, mientras que algunas de las aplicaciones que consideramos Web 2.0, como Napster y BitTorrent, ni siquiera son aplicaciones web propiamente dichas). Empezamos tratando de establecer los principios que se ven demostrados de uno u otro modo por los éxitos de la web 1.0 y por las más interesantes de las nuevas aplicaciones.

1. La Web como plataforma


Al igual que muchos otros conceptos importantes, la Web 2.0 no tiene límites definidos, sino más bien un núcleo gravitatorio. Uno puede representar la Web 2.0 como un conjunto de principios y prácticas que mantienen unido un verdadero sistema solar de sitios que demuestran algunas de esas prácticas, o todas ellas, situados a una distancia variable de dicho núcleo.

Por ejemplo, durante la primera conferencia Web 2.0, celebrada en octubre de 2004, John Battelle y yo mismo detallamos una serie de principios preliminares durante nuestra intervención inaugural. El primero de estos principios era el de "La web como plataforma". Pero ése había sido también uno de los gritos de guerra de Netscape, uno de los estandartes de la Web 1.0 que acabó cayendo tras una acalorada batalla con Microsoft. Además, dos de nuestros ejemplos iniciales de la Web 1.0, DoubleClick y Akamai, fueron pioneros en el tratamiento de la web como plataforma. Aunque mucha gente no piense en ellos como "servicios web", en realidad los servidores de banners fueron el primer servicio web de implantación generalizada, y también el primer puré (mashup, por utilizar otro término que goza últimamente de gran aceptación) de adopción generalizada. Cada banner publicitario se entrega como fruto de una colaboración sin fisuras entre dos sitios web, que presentan una página integrada a un lector que la ve en otro ordenador. Akamai también trata la red como plataforma, y lo hace en un nivel más profundo de la pila, construyendo una red transparente de caché y contenido que alivia la congestión de ancho de banda.

No obstante, estos pioneros aportan un contraste útil, ya que quienes llegaron mas tarde han avanzado más en su solución al mismo problema, asumiendo algo más profundo respecto a la naturaleza de la nueva plataforma. Tanto DoubleClick como Akamai fueron pioneros de la Web 2.0, pero también podemos apreciar de qué modo es posible hacer realidad un mayor número de sus posibilidades, aplicando otros patrones de diseño de la Web 2.0.

Analicemos brevemente cada uno de estos tres casos, para poner de relieve algunos de los principales elementos diferenciales.

Netscape frente a Google


Si Netscape fue el emblema de la Web 1.0, Google lo es indudablemente de la Web 2.0, aunque sólo sea porque sus respectivas salidas a bolsa hayan sido los acontecimientos que definen cada una de dichas eras. Por eso comenzaremos comparando ambas empresas y sus posicionamientos.

Netscape enmarcó "la web como plataforma" en los términos del antiguo paradigma del software: su producto emblemático era el navegador web, una aplicación de sobremesa, y su estrategia consistía en utilizar su dominio del mercado de los navegadores para establecer un mercado de productos de precio elevado para servidores. En teoría, el control de los estándares de presentación de contenidos y aplicaciones en el navegador iba a proporcionar a Netscape el grado de poder sobre el mercado del que Microsoft disfrutaba en el mercado del PC. Tal como el "carruaje sin caballos" enmarcaba el automóvil como extensión de lo ya conocido, Netscape promovía la sustitución del escritorio por el "webscritorio" (webtop), y planeaba llenarlo de actualizaciones de información y applets enviados al webscritorio por proveedores de información que comprarían servidores Netscape.

Al final, tanto los navegadores web como los servidores web acabaron siendo simples productos genéricos, y el valor se desplazó hacia arriba, hacia los servicios prestados a través de la plataforma web.

En cambio, Google comenzó su existencia como aplicación web nativa, que ni se vendía ni se empaquetaba, sino que se prestaba como servicio, con clientes que pagaban, directa o indirectamente, por dicho servicio. No se aprecia ninguna de las características de la vieja industria del software. Nada de versiones planificadas de los programas, sólo mejoras continuadas. Nada de licencias ni ventas, sólo uso. Nada de conversiones a diferentes plataformas para que los usuarios puedan ejecutar el software en sus propios equipos, sólo una enorme colección ampliable de PC genéricos, que funcionan con sistemas operativos de código abierto y aplicaciones y utilidades creadas internamente, que nadie ajeno a la empresa llega a ver jamás.

En el fondo, Google requiere una competencia que Netscape nunca necesitó: la gestión de bases de datos. No es sólo una colección de herramientas de software: es una base de datos especializada. Sin los datos, las herramientas son inútiles; sin el software, no se pueden manejar los datos. Las licencias de software y el control sobre las API --el resorte del poder durante la era anterior-- dejan de tener importancia, porque el software ya no se distribuye, sino que se utiliza, y también porque sin la capacidad de recoger y gestionar los datos, el software no sirve de gran cosa. De hecho, el valor del software es proporcional a la escala y al dinamismo de los datos que contribuye a gestionar.

El servicio de Google no es un servidor --aunque sea prestado por una enorme colección de servidores de internet-- ni un navegador --aunque el usuario lo utilice a través de un navegador. Su servicio emblemático, el de búsqueda, ni siquiera aloja el contenido que ayuda a los usuarios a encontrar. Al igual que en una llamada telefónica, que no sólo se produce en los teléfonos de los interlocutores, sino en la red que hay entre ambos, Google sucede en el espacio que hay entre el navegador, el motor de búsqueda y el servidor de contenido de destino, como facilitador o intermediario entre el usuario y su experiencia en línea.

Si bien tanto Netscape como Google podrían ser descritas como empresas de software, está claro que Netscape pertenecía al mismo mundo del software que Lotus, Microsoft, Oracle, SAP y otras empresas que empezaron en la revolución del software de los años 80, mientras que los colegas de Google son otras aplicaciones de Internet como eBay, Amazon, Napster y, efectivamente, DoubleClick y Akamai.

DoubleClick frente a Overture y AdSense


Al igual que Google, DoubleClick es un verdadero hijo de la era de Internet. Utiliza el software como servicio, su competencia principal está en la gestión de los datos, y como hemos dicho antes, fue pionero de los servicios web mucho antes de que los servicios web tuvieran nombre. No obstante, DoubleClick acabó viéndose limitada por su modelo de negocio. Se creyó la noción de los 90 de que la web iba de publicación, no de participación; que eran los anunciantes, y no los lectores, quienes mandaban; que el tamaño importaba, y que Internet iba siendo dominada cada vez más por los sitios web principales, según los medían MediaMetrix y otras empresas de clasificación publicitaria de webs.

En consecuencia, DoubleClick proclama con orgullo en su web que su software cuenta con "más de 2.000 implantaciones con éxito". Yahoo! Search Marketing (antes Overture) y Google AdSense, por su parte, ya atienden a centenares de miles de anunciantes cada uno.

El éxito de Overture y de Google se debe a lo que Chris Anderson vino en denominar "el largo rastro" (the long tail), el poder colectivo de los pequeños sitios que forman el grueso del contenido de la web. La propuesta de DoubleClick exige un contrato formal de venta, lo que limita su mercado a los pocos miles de sitios mayores. Overture y Google descubrieron la manera de habilitar la colocación de anuncios prácticamente en cualquier página web. Y por si fuera poco, evitaron formatos publicitarios tan estimados por editores y agencias de publicidad como los banners y los popups, optando por anuncios de texto dependientes del contexto, nada intrusivos y muy apreciados por los consumidores.

Moraleja de la Web 2.0: aprovechar el autoservicio de los clientes y la gestión algorítmica de los datos para alcanzar a toda la web, a los extremos y no sólo al centro, a la larga cola y no sólo a la cabeza.

Y no estamos diciendo que no existan oportunidades para la captura y la ventaja competitiva, sino que no creemos que se encuentren en el control de las API de software y los protocolos. Las reglas de juego han cambiado. Las empresas que triunfaran en la Web 2.0 serán las que comprendan dichas reglas, en lugar de tratar de volver a las de la era del software para PC.Como era de esperar, otros casos de exito de la web 2.0 muestran este mismo comportamiento. eBay hace posibles transacciones ocasionales de unos pocos dólares entre individuos aislados, actuando como intermediario automático. Napster (si bien clausurado por motivos legales) construyó su red sin crear una base de datos centralizada de canciones, sino que diseñó un sistema de modo que cada descargador se convertía también en servidor, y de ese modo fue creciendo la red.

Akamai frente a BitTorrent


Como DoubleClick, Akamai está optimizado para hacer negocios con la cabeza y no con la cola, con el centro y no con los extremos. Si bien sirve a los intereses de los individuos situados a los extremos de la web, al acelerar su acceso a los sitios más solicitados del centro, sus ingresos proceden de dichos sitios centrales.

BitTorrent, al igual que otros pioneros del movimiento P2P, aborda la descentralización de Internet de forma radical. Cada cliente es también servidor; los ficheros se descomponen en fragmentos que pueden ser entregados desde varias ubicaciones, utilizando de manera transparente la red de descargadores para ofrecer ancho de banda y datos a los otros usuarios. De hecho, cuanto más popular es el fichero, más rápidamente se puede servir, ya que hay más usuarios aportando ancho de banda y fragmentos del fichero completo.

De este modo, BitTorrent demuestra un principio fundamental de la Web 2.0: el servicio mejora automáticamente cuanta más gente lo utiliza. Mientras Akamai tiene que añadir servidores para mejorar el servicio, cada consumidor de BitTorrent aporta sus propios recursos a la fiesta. Existe una "arquitectura de participación" implícita, una ética de colaboración incorporada, en la que el servicio actúa principalmente como intermediario inteligente, conectando los extremos entre sí y aprovechando la potencia de los propios usuarios.

2. Aprovechamiento de la inteligencia colectiva


  • El principio central que sustenta el éxito de los gigantes nacidos en la era de la Web 1.0 y que han sobrevivido para encabezar la era de la Web 2.0 parece ser precisamente el uso de la potencia de la web para aprovechar la inteligencia colectiva:

  • Los hipervínculos son los cimientos de la web. Cuando los usuarios añaden contenidos y sitios, quedan integrados en la estructura de la web por otros usuarios que descubren dicho contenido y enlazan hacia él. Tal como las sinapsis se forman en el cerebro y las asociaciones se fortalecen mediante la repetición o la intensidad, la trama de conexiones crece de forma orgánica como un fruto de la actividad colectiva de todos los usuarios de la web.

  • Yahoo!, el primer gran éxito de Internet, nació como un catálogo o directorio de enlaces, una agrupación del mejor trabajo de miles, y luego millones, de usuarios de la web. Si bien Yahoo! se ha dedicado posteriormente al negocio de crear diversos tipos de contenido, su papel como portal de aceo al trabajo colectivo de los usuarios de la red continúa siendo la clave de su valor.

  • La revolución de Google en el campo de los buscadores, que lo convirtió de inmediato en el líder indiscutible del mercado de las búsquedas, fue el PageRank, un método para utilizar la estructura de enlaces de la web en lugar de limitarse a las características de los documentos, para obtener unos mejores resultados de búsqueda.

  • El producto de eBay es la actividad colectiva de todos sus usuarios; como la web misma, eBay crece orgánicamente en respuesta a la actividad de los usuarios, y el papel de la empresa es el de facilitar el contexto en que tiene lugar dicha actividad de los usuarios. Además, la ventaja competitiva de eBay procede casi por completo de la masa crítica de compradores y distribuidores, que hace que cualquier recién llegado que ofrezca parecidos servicios resulte considerablemente menos atractivo.

  • Amazon vende los mismos productos que competidores como Barnesandnoble.com, y recibe de los proveedores las mismas descripciones de producto, imágenes de portada y contenido editorial. Pero Amazon ha convertido en toda una ciencia la implicación de los usuarios. Tiene un orden de magnitud más reseñas de usuarios, invitaciones a participar de las formas más diversas prácticamente en todas las páginas, y todavía más importante, utiliza la actividad de los usuarios para producir unos mejores resultados de búsqueda. Mientras una búsqueda en Barnesandnoble.com probablemente estará encabezada por los productos propios de la empresa, o resultados patrocinados, Amazon siempre las encabeza con "los más populares", un cálculo en tiempo real no basado únicamente en las ventas, sino también en otros factores que los conocedores de Amazon denominan la "circulación" alrededor de los productos. Al ser la participación del usuario mayor en un orden de magnitud, no es extraño que las ventas de Amazon también superen a las de la competencia.

Actualmente las empresas que dejan huella en la web son las que han captado este concepto, y probablemente lo extienden:

  • Wikipedia, una enciclopedia en línea basada en la improbable noción de que cualquier usuario de la web puede añadir artículos, y cualquier otro puede modificarlos, constituye un experimento radical de confianza, aplicando el dictado de Eric Raymond (formulado originalmente en el contexto del software de código abierto) según el cual "si hay suficientes ojos mirando, todos los errores son superficiales", a la creación de contenido. Wikipedia ya figura entre los 100 principales sitios web, y mucha gente opina que no tardará mucho en estar entre los 10 primeros. ¡Este sí es un cambio sustancial en la dinámica de la creación de de contenido!

  • Sitios como del.icio.us y Flickr, dos empresas que han despertado gran interés últimamente, han sido pioneras de un concepto que algunos denominan "folksonomía" (en oposición a la taxonomía), un estilo de categorización cooperativa de sitios mediante descriptores elegidos libremente, a menudo denominados etiquetas (tags). Las etiquetas hacen posible el mismo tipo de asociaciones múltiples y parcialmente coincidentes que emplea el cerebro, en lugar de categorías rígidas. En el ejemplo canónico, una foto de un cachorro en Flickr se podría etiquetar como "cachorro" y "monada", lo que permitiría encontrarla siguiendo los ejes naturales generados por la actividad de los usuarios.

  • Los productos de filtrado cooperativo del correo basura (spam) como Cloudmark agregan las decisiones individuales de los usuarios de correo-e sobre lo que consideran o no spam, superando a los sistemas que confían en el análisis de los mensajes propiamente dichos.

  • Es bien conocido que los mayores éxitos de Internet no hacen publicidad de sus productos. Su adopción está impulsada por el "marketing viral", es decirm por las recomendaciones que se propagan directamente de un usuario a otro. Casi se podría asegurar que si un sitio o producto recurre a la publicidad para difundirse, es que no pertenece a la Web 2.0.

  • Incluso buena parte de la infraestructura de la web, incluidos Linux, Apache, MySQL y los programas Perl, PHP o Python que se utilizan en la mayoría de los servidores web, depende de los métodos de producción cooperativa propios del código abierto, a su vez un caso de inteligencia colectiva facilitada por la web. En SourceForge.net figuran más de 100.000 proyectos de software de código abierto. Cualquier persona puede agregar un proyecto, descargar y utilizar el código, y los proyectos nuevos evolucionan desde los extremos hacia el centro como consecuencia de que los usuarios los ponen a trabajar, un proceso de adopción orgánica del software que depende casi por completo del marketing viral.

Moraleja: Los efectos en red de la participación de los usuarios son la clave del dominio del mercado en la era de la Web 2.0.

Los blogs y la sabiduría de las multitudes

Una de las características más proclamadas de la era de la Web 2.0 es el ascenso de los blogs. Las páginas personales existen desde los primeros días de la web, y los diarios personales y las columnas diarias de opinión desde mucho antes, así que ¿a qué viene tanta agitación.

Un blog en su forma más básica no es más que una página personal en formato de diario. Pero como observa Rich Skrenta, la organización cronológica de un blog "podrá parecer una diferencia banal, pero introduce enormes diferencias en cuanto a la entrega, la publicidad y la cadena de valor.

Uno de los elementos que marcan la diferencia es una tecnología denominada RSS. RSS es el avance más significativo en la arquitectura fundamental de la web desde que los primeros hackers descubrieron la posibilidad de usar los CGI para crear sitios web apoyados en bases de datos. RSS permite que alguien no sólo enlace con una página, sino que se suscriba a la misma, recibiendo una notificación cada vez que dicha página cambia. Es lo que Skrenta denomina "la web incremental." Otros lo llaman "la web viva".

Es cierto que los "sitios web dinámicos" (es decir, sitios basados en bases de datos, cuyo contenido se genera de forma dinámica) sustituyeron hace más de 10 años a las páginas web estáticas. En la web viva, lo dinámico no son únicamente las páginas, sino también los enlaces. Se espera que un enlace a un weblog apunte a una página que cambia constantemente, existiendo "permalinks" (enlaces permanentes) para cada una de las anotaciones, y notificaciones de cada cambio. Por lo tanto, un feed RSS es un enlace mucho más fuerte que, pongamos, un favorito o un enlace a una página determinada.

RSS también significa que el navegador web no es el único medio de ver una página web. Si bien existen algunos agregadores RSS, como Bloglines, que son páginas web, otros son clientes de sobremesa, y también los hay que permiten a los usuarios de dispositivos portátiles suscribirse a contenido actualizado constantemente.

En la actualidad, RSS no sólo se utiliza para enviar avisos de nuevas anotaciones en el blog, sino también todo tipo de actualizaciones de datos, desde cotizaciones de bolsa hasta información meteorológica y disponibilidad de fotografías. Este uso es, en realidad, una vuelta a uno de sus orígenes: RSS nació en 1997 de la confluencia entre la tecnología "Really Simple Syndication" de Dave Winer, utilizada para comunicar actualizaciones de blogs, y el "Rich Site Summary" de Netscape, que permitía a los usuarios crear sus propias páginas de inicio de Netscape a partir de caudales de datos actualizados periódicamente. Netscape perdió el interés, y la tecnología fue llevada adelante por Userland, la empresa de Winer, pionera de los blogs. No obstante, en la actual cosecha de aplicaciones se aprecia el legado de ambos padres.

Pero el RSS es sólo una parte de lo que distingue a un weblog de una página web normal. Tom Coates destaca

la importancia del permalink:

Ahora podrá parecer un elemento funcional muy banal, pero en realidad fue el dispositivo gracias al cual los weblogs pasaron de de fenómeno de publicación fácil a desorden conversacional de comunidades solapadas. Por vez primera, resultaba relativamente fácil apuntar hacia una anotación determinada en el sitio de alguien y comentarla. Surgió el coloquio. Surgió la charla. Y - como resultado - surgieron amistades o se vieron fortalecidas. El permalink fue el primer -y el más exitoso- intento de construir puentes entre weblogs.

En muchos sentidos, la combinación de RSS y permalinks aporta muchas de las posibilidades del NNTP (el protocolo de noticias en red de Usenet), al HTTP, el protocolo de la web. La "blogosfera" puede ser considerada un nuevo equivalente entre pares de la Usenet y los tablones de anuncios, los watering holes de la Internet más temprana. La gente no sólo se puede suscribir a los sitios de los demás, y enlazar fácilmente con un comentario determinado de una página, sino también, mediante un mecanismo denominado de trackbacks, puede ver si alguien ha enlazado con sus páginas, y responder, ya sea con enlaces recíprocos o realizando comentarios.

Es interesante destacar que los enlaces bidireccionales eran el objetivo de los primitivos sistemas de hipertexto, como Xanadu. Los puristas del hipertexto han acogido los trackbacks como un avance hacia los enlaces bidireccionales. Pero hay que tener en cuenta que los trackbacks no son realmente bidireccionales; más bien son enlaces unidireccionales (potencialmente) simétricos, que producen el efecto de los enlaces bidireccionales. Tal diferencia puede parecer más bien nimia, pero en la práctica es enorme. Los sistemas de red social como Friendster, Orkut y LinkedIn, que requieren la aceptación del destinatario antes de establecer la conexión, carecen de la escalabilidad de la web. Tal como indica Caterina Fake, cofundadora del servicio Flickr de compartición de fotos, la atención sólo es recíproca por coincidencia. (por ello, Flickr permite que los usuarios creen listas de vigilancia: cualquier usuario puede suscribirse a las fotos de otro mediante RSS. El objeto de atención recibe la notificación, pero no tiene que aprobar la conexión.)

Si bien una parte fundamental de la Web 2.0 es el aprovechamiento de la inteligencia colectiva, que transforma la web en una especie de cerebro global, la blogosfera sería el equivalente de una charla mental ininterrumpida, la voz que todos oímos en nuestras cabezas. Puede que no refleje la estructura profunda del cerebro, a menudo inconsciente, sino que es el equivalente del pensamiento consciente. Y como reflejo de un pensamiento y atención conscientes, la blogosfera ha comenzado a ejercer un poderoso efecto.

En primer lugar, como los buscadores utilizan la estructura de enlaces para predecir cuáles son las páginas más útiles, los blogueros, que son los más ágiles y prolíficos enlazando, juegan un papel desproporcionado en la definición de los resultados de los buscadores. En segundo lugar, dado que la comunidad bloguera es tan auto-referencial, la atención que prestan unos blogueros a otros magnifica su visibilidad y su potencia. La tan criticada "cámara de eco" también actúa como amplificador.

Si fuera un simple amplificador, los blogs no tendrían mucho interés. Pero al igual que la Wikipedia, los blogs aprovechan la inteligencia colectiva a modo de filtro. Aquí entra en juego lo que James Suriowecki denomina "la sabiduría de las multitudes", y tal como el PageRank produce mejores resultados que el análisis de cualquier documento individual, la atención colectiva de la blogosfera selecciona según el valor.

Mientras los medios de comunicación convencionales consideran determinados blogs como competidores, lo que realmente les preocupa es competir con la blogosfera como un todo. No se trata únicamente de competencia entre sitios, sino de competencia entre modelos de negocio. El mundo de la Web 2.0 también es el mundo que Dan Gillmor denomina "nosotros, los medios," un mundo en el que es "lo que antes llamábamos audiencia", y no sólo unas cuantas personas entre bastidores, quien decide lo que es importante.

La arquitectura de la participación


Algunos sistemas han sido diseñados para fomentar la participación. En su ponencia titulada The Cornucopia of the Commons, Dan Bricklin indica que hay tres formas de construir una gran base de datos. La primera, demostrada por Yahoo!, consiste en pagar a gente para que lo haga. La segunda, inspirada por las lecciones de la comunidad del código abierto, consiste en buscar voluntarios que lleven a cabo esa labor. El resultado es el Open Directory Project, un competidor de Yahoo en código abierto. Pero Napster demostró que hay una tercera manera. Al establecer Napster su configuración por omisión de modo que toda la música descargada quedaba a disposición de la red, cada usuario contribuyó automáticamente a aumentar el valor de la base de datos compartida. Este mismo enfoque ha sido aplicado por todos los demás servicios P2P de compartición de ficheros.

Una de las lecciones principales de la era Web 2.0 es la siguiente: Los usuarios aportan valor. Pero sólo un pequeño porcentaje de los usuarios se molestará en aportar valor a su aplicación mediante acciones explícitas. Por lo tanto, las empresas de la Web 2.0 aplican unos parámetros por omisión que agregan los datos de los usuarios y aumentan el valor como efecto colateral del uso cotidiano de la aplicación. Como ya hemos indicado, crean sistemas que mejoran cuantas más personas los utilizan.

En una ocasión, Mitch Kapor afirmó que "la arquitectura es política." La participación es algo intrínseco en Napster, y forma parte de su arquitectura fundamental.

Este dominio de la arquitectura también podría resultar más crucial para el éxito del software de código abierto que la más frecuentemente citada apelación al voluntariado. La arquitectura de Internet y la World Wide Web, así como los proyectos de software de código abierto como Linux, Apache y Perl, es tal que los usuarios que persiguen sus propios intereses "egoístas" aportan valor colectivo como subproducto automático. Cada uno de dichos proyectos cuenta con un núcleo reducido, mecanismos de ampliación bien definidos, y un enfoque que permite que cualquier persona incorpore un componente que se comporte correctamente, ampliando las capas exteriores de lo que Larry Pared, el creador de Perl, denomina "la cebolla". En otras palabras, estas tecnologías demuestran los efectos de la red, simplemente a través del modo en que han sido diseñadas.

En estos proyectos se puede apreciar una arquitectura natural de participación. Pero como Amazon también demuestra, mediante un esfuerzo homogéneo (así como mediante incentivos económicos como el programa Associates), es posible superponer una arquitectura a un sistema que normalmente no la poseería.

3. Los datos son el próximo Intel Inside


Todas las aplicaciones importantes de Internet hasta la fecha se han apoyado en alguna base de datos especializada: la araña web de Google, el directorio (y la araña web) de Yahoo!, la base de datos de productos de Amazon, la base de datos de productos y vendedores de eBay, las bases de datos cartográficas de MapQuest, la base de datos distribuida de canciones de Napster. Tal como Hal Varian me aseguraba el año pasado en una conversación personal, "el SQL es el nuevo HTML." La gestión de bases de datos es una competencia básica de las empresas de la Web 2.0, hasta el punto de que a veces nos referimos a dichas aplicaciones como "infoware" en lugar de simple software.

Lo cual nos lleva a formular una pregunta fundamental: ¿A quién pertenecen los datos?

En la era de Internet ya se pueden distinguir una serie de casos en los que el control sobre la base de datos ha conducido al control del mercado y a unos beneficios económicos más que apreciables. El monopolio sobre el registro de nombres de dominio, concedido inicialmente por concesión gubernativa a Network Solutions (posteriormente adquirida por Verisign) fue uno de los primeros grandes filones de Internet. Si bien hemos aducido que en la era de Internet es mucho más difícil adquirir ventaja empresarial mediante el control de los API de software, controlar las principales fuentes de datos no lo es, sobre todo si dichas fuentes de datos son de creación costosa o pueden generar unos beneficios crecientes mediante los efectos de la red.

Observe las declaraciones de copyright que figuran al pie de todos los mapas servidos por MapQuest, maps.yahoo.com, maps.msn.com o maps.google.com; en todos ellos encontrará la línea "Maps copyright NavTeq, TeleAtlas," o en los nuevos servicios de imágenes de satélite, "Images copyright Digital Globe." Estas empresas han realizado inversiones considerables en sus bases de datos (NavTeq asegura haver invertido 750 millones de dólares en la construcción de su base de datos de direcciones. Digital Globe se gastó 500 millones en el lanzamiento de su propio satélite, a fin de mejorar las imágenes proporcionadas por el gobierno.) NavTeq ha llegado hasta el punto de imitar el popular logotipo Intel Inside de Intel: los automóviles con su sistema de navegación ostentan el sello "NavTeq a bordo." De hecho, los datos son el Intel Inside de estas aplicaciones, un único componente fuente en unos sistemas cuya infraestructura de software es, en buena parte, de código abierto o de difusión masiva.

El mercado de la cartografía web, tan disputado actualmente, demuestra cómo el no comprender la importancia de poseer los datos centrales de una aplicación puede acabar minando su posición competitiva. MapQuest fue pionera en la categoría de cartografía web en 1995, pero cuando Yahoo!, seguida por Microsoft, y últimamente por Google, decidieron entrar en el mercado, tuvieron muy fácil ofrecer sus aplicaciones competidoras, con sólo adquirir la licencia de los mismos datos.

Comparémoslo con la posición de Amazon.com. Al igual que sus competidores, como Barnesandnoble.com, su base de datos original procedía del proveedor del registro del ISBN, la firma R.R. Bowker. Pero a diferencia de MapQuest, Amazon ha ido ampliando sin descanso los datos, añadiendo información facilitada por las editoriales, como las imágenes de portada, el sumario, el índice y los contenidos de muestra. Y todavía más importante es que han utilizado a sus usuarios para anotar los datos, hasta el punto de que, transcurridos 10 años, es Amazon, y no Bowker, la fuente principal de información bibliográfica sobre libros, una fuente de consulta tanto para estudiosos y bibliotecarios como para los consumidores. Amazon también introdujo su propio identificador, el ASIN, que corresponde al ISBN si lo hay, y crea un espacio de nombres equivalente para los productos que carecen de él. En la práctica, Amazon "acogió y amplió" los datos de sus proveedores.

Imaginemos lo que habría ocurrido si MapQuest hubiera hecholo mismo, utilizando a sus usuarios para comentar sus mapas y direcciones, agregando capas de valor. La competencia hubiera tenido mucho más difícil introducirse en el mercados limitándose a adquirir la licencia de los datos base.

La reciente introducción de Google Maps constituye un laboratorio vivo de la competencia entre los vendedores de aplicaciones y sus proveedores de datos. El modelo de programación ligera de Google ha llevado a la creación de numerosos servicios de valor añadido, en forma de purés (mashups) que enlazan Google Maps con otras fuentes de datos accesibles a través de Internet. housingmaps.com de Paul Rademacher, que combina Google Maps con los datos de pisos y casas en alquiler de Craigslist para crear una herramienta interactiva de búsqueda de vivienda, es el ejemplo palmario de este tipo de purés.

Hasta ahora, dichos purés son ante todo experimentos innovadores, creados por hackers. Pero la actividad empresarial les pisa los talones. Y ya se puede ver que, al menos para una clase de desarrollador, Google ha arrebatado a Navteq el papel de fuente de datos y se ha insertado como intermediario preferente. Durante los próximos años asistiremos a batallas entre los proveedores de datos y los vendedores de aplicaciones, cuando ambos se den cuenta de la importancia que adquieren ciertos tipos de datos en tanto que componentes de las aplicaciones de la Web 2.0.

Se ha desatado una carrera por la posesión de determinados tipos de datos fundamentales
: ubicación, identidad, calendarios de actividades públicas, identificadores de productos y espacios de nombres. En muchos casos, cuando la creación de los datos tiene un coste significativo, puede surgir la oportunidad de una posición tipo Intel Inside, con una única fuente de datos En otros, ganará la empresa que alcance antes una masa crítica, mediante la agregación de sus usuarios, y transforme en un servicio dichos datos agregados.

Por ejemplo, en el terreno de la identidad, tanto PayPal como 1-click de Amazon y los millones de usuarios de sistemas de comunicaciones podrían aspirar a la creación de una base de datos de identidades que alcance a toda la red. (En este sentido, el reciente intento de Google de utilizar los números de teléfono móvil como identificadores para las cuentas de Gmail podría ser un paso hacia la incorporación y la ampliación del sistema telefónico.) Entretanto, nuevas empresas como Sxip están explorando el potencial de las identidades federadas, en busca de una especie de "1-clic distribuido" que proporcione un subsistema transparente de identidad para la Web 2.0. En el campo de los calendarios, EVDB es un intento de crear la mayor agenda compartida del mundo, mediante una arquitectura de participación de tipo wiki. Si bien todavía no existe dictamen sobre el éxito de ninguno de los intentos citados, está claro que serán los estándares y las soluciones en estos campos, que transforman efectivamente ciertas clases de datos en subsistemas fiables del "sistema operativo de Internet", los que harán posible la próxima generación de aplicaciones.

Es preciso hacer otra consideración sobre los datos: se trata de la preocupación de los usuarios por la intimidad y por los derechos sobre sus propios datos. En muchas de las primeras aplicaciones web, el cumplimiento del copyright se contempla sólo de manera ambigua. Por ejemplo, Amazon asegura ser propietaria de todos los comentarios publicados en su web, pero a falta de acciones que lo hagan cumplir, la gente puede volver a publicar el mismo comentario en otra parte. SIn embargo, a medida que las empresas descubran que el control de los datos puede ser su fuente principal de ventaja competitiva, podríamos asistir a una intensificación de los intentos de control.

Del mismo modo que el ascenso del software privativo llevó al movimiento del software libre, es de esperar que el ascenso de las bases de datos privativas produzca como resultado un movimiento de datos libres durante la próxima década. Ya se aprecian los primeros signos de esta tendencia en proyectos de datos abiertos como la Wikipedia o los Creative Commons, y en proyectos de software como Greasemonkey, donde los usuarios pueden controlar de qué modo se presentan los datos en su ordenador.

4. El fin del ciclo de versiones de software


Tal como hemos indicado al tratar sobre Google frente a Netscape, una de las características que definen el software de la era de Internet es que éste se entrega en forma de servicio, y no de producto. Este hecho desemboca en una serie de cambios fundamentales en el modelo de negocio de las empresas:

  • Las operaciones deben pasar a ser una competencia básica. La capacidad de Google o de Yahoo! para el desarrollo de productos debe tener una capacidad de operaciones a la misma altura. El cambio de 'producto de software' a 'servicio de software' es tan crucial que el software dejará de cumplir sus funciones a menos que se le aplique un mantenimiento a diario. Google tiene que recorrer continuamente la web y actualizar sus índices, filtrar sin descanso los enlaces basura y demás intentos de influir en sus resultados, responder de manera contínua y dinámica a centenares de millones de consultas asíncronas de los usuarios, combinándolas al mismo tiempo con anuncios dependientes del contexto.

    No es casual que las técnicas de administración de sistemas, redes, y distribución de cargas de Google sean secretos tal vez más celosamente guardados que sus algoritmos de búsqueda. El éxito de Google en la automatización de dichos procesos es una pieza fundamental de su ventaja de coste respecto a sus competidores.

    Tampoco es casual que lenguajes de programación como Perl, Python, PHP, y últimamente Ruby, jueguen un papel tan importante en las empresas de la Web 2.0. Es famosa la descripción que Hassan Schroeder, el primer webmaster de Sun, hizo de Perl, definiéndolo como "la cinta aislante de internet." Los lenguajes dinámicos (con frecuencia denominados lenguajes de scripting y despreciados por los ingenieros de software de la era de los productos de software) son la herramienta preferida por los administradores de sistemas y de redes, y por los desarrolladores de aplicaciones que crean sistemas dinámicos que requieren modificaciones constantes.

  • Hay que tratar a los usuarios como co-desarrolladores, en un reflejo de las prácticas de desarrollo de código abierto (aunque el software en cuestión no vaya a ser distribuido bajo licencia de código abierto.) De hecho, el dictado del código abierto, "sal pronto y a menudo" se ha transformado en una posición todavía más radical, "la beta perpetua," en la que el producto se desarrolla abiertamente, introduciéndose nuevas funciones cada mes, cada semana, o incluso cada día. No es casual que servicios como Gmail, Google Maps, Flickr, del.icio.us y otros ostenten durante años un logotipo de "Beta".

    Por lo tanto, la monitorización en tiempo real del comportamiento del usuario, para ver cuáles de las nuevas funciones se utilizan y cómo se utilizan, pasa a ser otra competencia básica imprescindible. Tal como dice un desarrollador web de uno de los principales servicios en línea: "Cada día añadimos dos o tres funciones nuevas en alguna parte de la web. Si los usuarios no las adoptan, las quitamos. Pero si les gustan, las ampliamos a toda la web".

    Cal Henderson, desarrollador principal de Flickr, reveló hace poco que aplican una versión nueva cada media hora. ¡Eso sí es un modelo de desarrollo realmente distinto! Si bien no todas las aplicaciones web están desarrolladas con un estilo tan radical como Flickr, prácticamente todas tienen un ciclo de desarrollo completamente distinto a todo lo que conocemos de la era del PC o cliente-servidor. Ésta es la razón por la que un reciente editorial de ZDnet concluía que Microsoft no será capaz de derrotar a Google: "El modelo de negocio de Microsoft depende de que todos actualicemos nuestros entornos informáticos cada dos o tres años. El de Google depende de que todos exploremos las novedades de nuestros entornos informáticos cada día."


Si bien Microsoft ha demostrado una enorme capacidad para aprender de sus competidores y acabar superándoles, es incuestionable que esta vez, la competencia exigirá que Microsoft (y por extensión, todas las demás empresas de software) se transforme en un tipo de empresa profundamente distinto. Las empresas nacidas para la Web 2.0 gozan de una ventaja natural, y es que no están lastradas por patrones anticuados (ni por sus correspondientes modelos de negocio y fuentes de ingresos).

5. Modelos de programación ligeros


En cuanto la idea de los servicios web se ha puesto de moda, las grandes empresas han lanzado a ella de cabeza, con una compleja pila de servicios web diseñada para crear entornos de programación extremadamente fiables para las aplicaciones distribuidas.

Pero del mismo modo que la web triunfó precisamente porque derribaba buena parte de la teoría del hipertexto, sustituyendo el diseño ideal por el pragmatismo, el RSS se ha convertido probablemente en el servicio web más difundido gracias a su sencillez, mientras que las pilas web de los servicios empresariales complejos todavía tienen que lograr un despliegue amplio.

Igualmente, Amazon.com presta sus servicios web de dos formas: en una de ellas cumple formalmente la pila de servicios web de SOAP (Simple Object Access Protocol), mientras que en la otra se limita a suministrar datos XML a través de HTTP, adoptando un enfoque ligero que a veces se denomina REST (Representational State Transfer). Mientras las conexiones B2B de elevado valor (como las existentes entre Amazon y sus aliados comerciales como ToysRUs) utilizan la pila SOAP, Amazon asegura que el 95% del uso corresponde al servicio ligero REST.

Esta misma búsqueda de la sencillez se puede observar en otros servicios web "orgánicos". El reciente lanzamiento de Google Maps por parte de Google es un caso demostrativo. El sencillo interfase AJAX (Javascript y XML) de Google Maps fue descifrado rápidamente por los hackers, que a continuación procedieron a remezclar los datos en forma de nuevos servicios.

Hacía ya tiempo que proveedores de GIS (sistemas de información geográfica) como ESRI ofrecían servicios web relacionados con la cartografía, al igual que MapQuest y Microsoft MapPoint. Pero Google Maps provocó una revolución debido a su sencillez. Mientras que para experimentar con cualquiera de los servicios web formales hay que establecer un formal entre las partes, el sistema de implementación de Google Maps deja los datos a disposición de cualquiera, y los hackers no tardaron en encontrar maneras creativas de reutilizarlos.

De ello se desprenden varias lecciones significativas:

  • Apoyar los modelos de programación ligeros que permiten unos sistemas débilmente acoplados. La complejidad de la pila de servicios web patrocinados por las empresas está diseñada para habilitar un acoplamiento fuerte. Aunque esto sea necesario en muchos casos, muchas de las aplicaciones más interesantes pueden mantenerse débilmente acoplados, e incluso frágiles. ¡La perspectiva de la Web 2.0 es muy distinta a la perpectiva informática tradicional!

  • Sindicación, no coordinación. Los servicios web simples, como los basados en RSS y RES, consisten en sindicar los datos hacia el exterior, sin controlar lo que ocurre cuando llegan al otro extremo de la conexión. Esta idea es fundamental para la Internet en sí misma, un reflejo del denominado principio de extremo a extremo.

  • Diseñar pensando en las posibilidades de "hackeo" y de remezcla. Sistemas como la web original, el RSS y AJAX tienen todos algo en común: los obstáculos para la reutilización son extremadamente bajos. En realidad, buena parte del software útil es de código abierto, pero incluso cuando no es así, existe muy poca protección de la propiedad intelectual. La opción "Ver código fuente" de los navegadores web permite que cualquier usuario copie la página web de otro; RSS fue diseñado para que el usuario pudiera ver el contenido que desea, cuando lo desea, en lugar de quedar a expensas de los proveedores de la información; los servicios web de mayor éxito son los que han resultado más fáciles de orientar en nuevas direcciones no imaginadas por sus creadores. La frase "algunos derechos reservados", popularizada por los Creative Commons en contraste con la más habitual "todos los derechos reservados", constituye un indicador útil.

Una tesis para invertir en la Web 2.0

El capitalista de riesgo Paul Kedrosky
escribe que: "La clave es encontrar inversiones viables en las que uno se aparte del consenso generalizado". Es interesante observar cómo cada una de las facetas de la Web 2.0 implica un desacuerdo con el consenso establecido: cuando todo el mundo resaltaba la privacidad de los datos, Flickr, Napster y compañía los hicieron públicos. no es sólo discrepar por discrepar (¡comida para perros! ¡y por Internet!), sino discrepar cuando se puede sacar provecho de la diferencia. Flickr crea comunidades, Napster ampliaba la discoteca.

Otra forma de verlo es que todas las empresas que triunfan renuncian a algo costoso y considerado crucial, para conseguir gratuitamente algo valioso que antes era caro. Por ejemplo, la Wikipedia renuncia al control editorial central a cambio de la rapidez y la amplitud. Napster renunció a la idea de "el catálogo" (todas las canciones que ofrecía el vendedor) y obtuvo amplitud. Amazon renunció a contar con un establecimiento físico, pero logró atender al mundo entero. Google renunció a los grandes clientes (inicialmente) y obtuvo el 80% cuyas necesidades no estaban siendo atendidas. Hay algo muy propio del aikido (emplear la fuerza del adversario en contra suya) en decir "pues tiene usted razón: absolutamente todo el mundo PUEDE actualizar este artículo. Y ¿sabe una cosa?, eso es una mala noticia para ustedes." --Nat Torkingto


Innovación en el ensamblaje

Los modelos de negocio ligeros son un concomitante natural de la programación ligera y de las conexiones ligeras. La perspectiva de la Web 2.0 favorece la reutilización. Un servicio nuevo como housingmaps.com fue creado simplemente juntando dos servicios existentes. Housingmaps.com (todavía) no tiene modelo de negocio, pero para muchos servicios a pequeña escala, Google AdSense (o bien las comisiones de Amazon, o las dos cosas) aportan el equivalente a un modelo de ingresos.

Estos ejemplos permiten comprender otro principio fundamental de la web 2.0, que denominaremos "innovación en el ensamblaje." Cuando los componentes genéricos abundan, se puede crear valor sencillamente

Una plataforma siempre es mejor que una aplicación


En cada una de sus confrontaciones anteriores con sus rivales, Microsoft ha jugado con éxito la carta de la plataforma, derrotando incluso a las aplicaciones más dominantes. Windows permitió a Microsoft desplazar a Lotus 1-2-3 con Excel, a WordPerfect con Word y a Netscape Navigator con Internet Explorer.

No obstante, esta vez el choque no se produce entre una plataforma y una aplicación, sino entre dos plataformas, cada una con un modelo de negocio completamente distinto. En un lado, un único proveedor de software, cuyo inmenso parque instalado y su sistema operativo profundamente integrado con las API proporcionan control sobre el paradigma de la programación; en el otro, un sistema sin propietarios, ligado por un conjunto de protocolos, estándares abiertos y acuerdos de colaboración.

Windows representa la cumbre del control privativo mediante API de software. Netscape trató de arrebatarle el control a Microsoft utilizando las mismas técnicas que la propia Microsoft había usado contra otros rivales, y fracasó. En cambio, Apache, que se ajustó a los estándares abiertos de la web, ha prosperado. Ya no es una batalla desigual, entre una plataforma y una sola aplicación, sino entre dos plataformas, y la cuestión es cuál de las arquitecturas, o más profundamente, cuál de los modelos de negocio, es más indicado para las oportunidades que se avecinan.

Windows fue una solución brillante a los problemas de la era de los primeros PC. Allanó el terreno de juego para los desarrolladores de aplicaciones, resolviendo un montón de los problemas que aquejaban antes a la industria. Pero ahora, un único enfoque monolítico, controlado por un solo proveedor, ha pasado de ser una solución a ser un problema. Los sistemas orientados hacia las comunicaciones, como lo es sin duda Internet en tanto que plataforma, exigen interoperatividad. A menos que un proveedor 
pueda controlar los dos extremos de cualquier interacción, las posibilidades de atrapar a los usuarios mediante API de software son pocas.

Cualquier proveedor de la Web 2.0 que aspire a atrapar los beneficios de su aplicación mediante el control de la plataforma, estará dejando de utilizar, por definición, las posibilidades de la plataforma.

La arquitectura de la participación


Algunos sistemas han sido diseñados para fomentar la participación. En su ponencia titulada 
The Cornucopia of the Commons, Dan Bricklin indica que hay tres formas de construir una gran base de datos. La primera, demostrada por Yahoo!, consiste en pagar a gente para que lo haga. La segunda, inspirada por las lecciones de la comunidad del código abierto, consiste en buscar voluntarios que lleven a cabo esa labor. El resultado es elOpen Directory Project, un competidor de Yahoo en código abierto. Pero Napsterdemostró que hay una tercera manera. Al establecer Napster su configuración por omisión de modo que toda la música descargada quedaba a disposición de la red, cada usuario contribuyó automáticamente a aumentar el valor de la base de datos compartida. Este mismo enfoque ha sido aplicado por todos los demás servicios P2P de compartición de ficheros.

Una de las lecciones principales de la era Web 2.0 es la siguiente: Los usuarios aportan valor. Pero sólo un pequeño porcentaje de los usuarios se molestará en aportar valor a su aplicación mediante acciones explícitas. Por lo tanto, las empresas de la Web 2.0 aplican unos parámetros por omisión que agregan los datos de los usuarios y aumentan el valor como efecto colateral del uso cotidiano de la aplicación. Como ya hemos indicado, crean sistemas que mejoran cuantas más personas los utilizan.

En una ocasión, Mitch Kapor afirmó que "la arquitectura es política." La participación es algo intrínseco en Napster, y forma parte de su arquitectura fundamental.

Este dominio de la arquitectura también podría resultar más crucial para el éxito del software de código abierto que la más frecuentemente citada apelación al voluntariado. La arquitectura de Internet y la World Wide Web, así como los proyectos de software de código abierto como Linux, Apache y Perl, es tal que los usuarios que persiguen sus propios intereses "egoístas" aportan valor colectivo como subproducto automático. Cada uno de dichos proyectos cuenta con un núcleo reducido, mecanismos de ampliación bien definidos, y un enfoque que permite que cualquier persona incorpore un componente que se comporte correctamente, ampliando las capas exteriores de lo que Larry Pared, el creador de Perl, denomina "la cebolla". En otras palabras, estas tecnologías demuestran los efectos de la red, simplemente a través del modo en que han sido diseñadas.
&a

                                  PDF

Artículos Relacionados

8 principios de la innovación en Google 10 preguntas que guiarán su estrategia de contenido
Las videografías, ¿una verdadera amenaza para la moda de las infografías? La Nueva Televisión Inteligente: Por Demanda, Interactiva y Social (TV 2.0)
 
Topicos Asociados

CursosEventosNoticias

APROVECHA ESTA OPORTUNIDAD
Libro "Negocios en Internet"
¡Descárguelo GRATIS  AQUÍ!

Libro NEGOCIOS EN INTERNET y algo más - Descarga GRATIS
 
 
 
+58-243-2327296, 2328569, 9358781, 9358782 / 414-4558956, 5436937, 3456865, 4922433