Saltar al contenido →

Categoría: Internet

¿Debería la UNESCO declarar a la Wikipedia ‘Patrimonio Cultural de la Humanidad’?

La Wikipedia cumplió hace poco su octavo aniversario que coincidió con una ronda de financiación a la que llegó por los pelos. En esta ocasión, el montante fueron seis millones de dólares (Unos cuatro millones de euros) y aunque la mayoría de los medios de comunicación informaron que Jimmy Wales había conseguido la financiación durante una semana (entre donaciones de particulares y otras instituciones), lo cierto es que la ronda permanecía abierta desde el verano, tal y como los usuarios de Barrapunto intuían. Puede ser que una de estas dificultades a la hora de obtener financiación, descartando la crisis económica, pase por que una de las mayores obras construidas de forma desinteresada por miles o millones de personas está repleta de claroscuros que la cubren con la sombra de la duda. ¿Dónde va a parar el dinero? ¿Se utilizan los fondos para lo que se supone que se debería de utilizar?

Obviando los reproches que se realizan a Wales sobre su gestión, la Wikipedia es actualmente uno de los mayores monumentos dedicados al conocimiento humano de forma desinteresada. Cualquiera persona puede editarla, ampliarla, enriquecerla; tan sólo debe disponer de un poco de tiempo, paciencia (porque tampoco es tan intuitiva su edición) y sus conocimientos. Lo mejor de todo es que es un éxito entre los internautas por su sencillez de uso, fiabilidad y rápida edición y actualización. Actualmente, dispone de 12 millones de artículos (2’7 millones de ellos en inglés) repartidos en 253 idiomas (236 de ellos activos actualmente). Incluso se ha calculado que si se imprimiese toda su información (con datos de octubre de 2006) el número de volúmenes ascendería ha 750, desde luego que el resultado es una obra magna. La pregunta que os lanzo es ¿Debería la UNESCO declarar a la Wikipedia ‘Patrimonio Cultural de la Humanidad’? Pero vayamos por partes.

Según la UNESCO, el patrimonio cultural representa lo que tenemos derecho a heredar de nuestros predecesores y nuestra obligación de conservarlo a su vez para las generaciones futuras. Las formas visibles de la cultura, monumentos, libros y obras de arte son tan preciosas que los pueblos tienen la responsabilidad de asegurar su protección. […] La UNESCO es la entidad responsable de la protección jurídica internacional del patrimonio cultural. Esto lo hace a través de las administración de diversas convenciones que protegen los bienes culturales en conflictos armados, impiden la importación y exportación ilícitas, y protegen el patrimonio subacuático.

Tal vez las lenguas que se extinguen, el folklore que se desvanece por la occidentalización de las culturas de todos los rincones del planeta, las sociedades que desaparecen por la presión migratoria, los conflictos armados que todo lo destruyen, merezcan un mayor foco de atención por parte de la UNESCO -Ante esto poco puedo añadir y está fuera de toda discusión-, puede ser que mi mirada sea un tanto reduccionista, apartada de la realidad por ser precisamente digital, pero ¿no es acaso la Wikipedia un patrimonio de miles de personas de distintas culturas, corrientes, pensamientos, orígenes, preocupaciones, etc. que debería ser preciso proteger desde alguna institución supranacional? ¿O la Wikipedia acabaría muriendo al pasar a manos privadas más allá de la Fundación Wikimedia que la gestiona?

17 comentarios

«El Manifiesto Cluetrain» en castellano

Decíamos ayer que no nos destacábamos precisamente por ser los primeros en publicar con urgencias. Desgraciadamente, por una vez que nos deberíamos haberlo primado, resulta que llegamos demasiado pronto. Porque al igual que en otros blogs, desde la editorial Deusto, nos ponían sobre la pista de la traducción y edición de El Manifiesto Cluetrain en castellano y la posibilidad de obtener una copia completamente gratuita a aquellos que accediesen a la página web de la editorial para solicitarla. E hicimos correr la voz a través del correo electrónico, pero en aquella fecha, martes 2 de diciembre, nos advertían que la página no estaba accesible. Es decir, desde la editorial se habían adelantado a su página web y, al menos, a principios de la tarde del 2 de diciembre, la página no era accesible para solicitar el libro. Así que nos hallamos en la tesitura de publicarlo en el blog o no hacerlo, para finalmente dejarlo estar por el momento hasta el día siguiente.

Pero sucedió que en menos de 24 horas la noticia había corrido como la pólvora dentro de la blogosfera y los 2000 ejemplares gratuitos que la editorial había puesto a disposición de los primeros lectores se agotaron, dejándonos impávidos ante el éxito de la propuesta. Cabe destacar, como no puede ser de otro modo, el seguimiento que se realizó desde la editorial, apagando los fuegos y subsanando los errores que durante esta promoción se habían revelado, acallando las posibles críticas que se hubiesen derivado de ello. Para mi, la campaña fue perfecta y no podría haberse ejecutado de otra forma teniendo en cuenta del libro que estamos tratando. Y es que antes de que la Web 2.0 fuese ni siquiera definida como etiqueta de marketing, ya existía el Manifiesto Cluetrain en 1999.

Y es que dentro de este texto, más allá de las 95 tesis sobre las que se fundamenta el desarrollo de esta teoría, se perfila el cambio de paradigma que nacería tras la difusión de Internet dentro de los consumidores y el seguimiento que las empresas deberían realizar para cimentar y desarrollar su branding dentro de un mercado donde los grandes medios de comunicación son simples actores. Más allá de las nuevas concepciones de la Empresa 2.0 que se fundamentan sobre los desarrollos tecnológicos posteriores (Blogs, wikis o redes sociales) una serie de autores vieron más allá y concibieron el cambio de «La Conversación» antes de que éste se produjese. Es posible que el crash de la Burbuja.com a finales del siglo XX y la decepción que supuso, soterrase una visión que a principios del presente siglo se antojase una quimera, aunque realmente ya estaba ahí y que posteriormente otros retomaron con un nuevo término. Pero lo que no cabe duda es que antes de O’Reilly se editó y difundió El Manifiesto Cluetrain y, por ello, es sumamente acertado e interesante que se edite en castellano en España ampliando la visión de la nueva comunicación dentro de la Red.

Un comentario

Los enlaces también son una estrategia de marketing en la Web

Uno de los aspectos más criticables a los medios de comunicación presentes en la Web es su reticencia a la hora de citar, a través de un enlace, los recursos de información sobre los que están tratando en una pieza de información. En muchas ocasiones, esta negación de la realidad sobre la que desarrollan su actividad ofrece que se den situaciones rocambolescas, puesto que un periodista puede estar recogiendo la información de un hecho noticioso de un sitio web y, aunque su dirección web se encuentre dentro del texto, no aparece enlazada. Esto supone más un inconveniente al lector que una utilidad para no perder tráfico, ya que esta actitud va en detrimento del prestigio del propio medio de comunicación.

El concepto de enlace puede que sea uno de los aspectos más maltratados dentro de la Web, lo cual no deja de ser un tanto contradictorio teniendo en cuenta la esencia misma de la World Wide Web diseñada por Tim Berners-Lee. En este sitio web, le hemos dedicado algunos textos específicos a los enlaces desde cómo enlazar correctamente, la decadencia del blogroll, su posible desvirtuación debido a las malas prácticas publicitarias o incluso por parte de Google y la implementación de su Autolink.

Hoy queremos introduciros el texto de Peter Da Vanzo, Linking Out Can Be A Valuable Marketing Strategy, desde el que se nos señala algunas de las razones por las cuales enlazar hacia otros sitios web es positivo para promocionar nuestras webs, así como darnos algunas estrategias y consejos de cómo hacerlo.

  1. Estoy aquí. Enlazando a un sitio web externos, estás señalando al autor de ese sitio tu presencia. En general, los webmasters realizan retroenlaces a los sitios que los enlazan, además de que ofreces razones por las que ser enlazado (Contenidos, tráfico, influencia, etcétera).
  2. Convertirse en un concentrador. Tener miedo a que los lectores se marchen de tu sitio web es un poco ridículo. Tenemos que tener presente que Google es un enorme concentrador que distribuye el tráfico de la Web. Además, tenemos que ser conscientes de que nadie dispone de todas las respuestas, pero si ofreces la suficiente información y despiertas el suficiente interés, podrás comprobar cómo los tiempos medios de permanencia dentro de tu web aumentan. Además, enlazando obtienes autoridad en un sentido amplio, ofreciendo recursos de información que traten con mayor profundidad el tema sobre el que gire tu página web.
  3. El contrapunto. Si todo el mundo dentro de tu nicho temático se encuentra diciendo lo mismo, ¿por qué no posicionarse de forma más equidistante? De esta forma, se puede crear un debate fructífero, además de que enlazando y creando feedback se alimenta el tráfico de tu web. No importa si el enlace es positivo o negativo, al fin de cuentas un enlace es un enalce.
  4. Alabanza. Alabar a alguien siempre despierta interés recíproco, por lo que se puede obtener enlaces simplemente felicitando a alguien.
  5. Dar antes de pedir. Hay que tratar de ser generosos antes de pedir a alguien un favor (en forma de retroenlace), porque si no la petición podrá encontrarse vacía de interés para la otra persona.
  6. Ego. Muchas personas personas se buscan en Google simplemente para ver qué se dice de ellos o qué hay en Internet sobre ellos, es lo que se denomina «egobúsquedas». Por supuesto que también pueden, si se da el caso, comprobar hacia dónde van los enlaces que sus nombres contengan lo que puede ser positivo para tu sitio web.
  7. Controversias. No hay nada que venda más que la controversia, especialmente si es personal; por lo que esto puede ser aprovechado en ciertos temas. Sin embargo, hay que ser cauteloso ya que también podemos socavar nuestra autoridad y destruir los puentes que ya teníamos construidos si no tenemos un poco de cuidado y respeto.
  8. Investigaciones académicas. Enlazar a textos académicos provoca un aumento en la percepción de autoridad. Por otro lado, este tipo de información suele formar parte de la Web profunda y no es fácil que las arañas de los buscadores lleguen hasta ella. Además, el que se enlace desde nuestra web facilita el trabajo de los buscadores y nos convierte en un concentrador y referente en la temática de nuestro interés.
  9. No ser atipico. Si alguna vez habéis visto un grafo que ha tratado de realizar un mapa del web, habréis comprobado que en general la web no se comporta como un universo de planetas flotando en el espacio. Si no que la Red se supone una amalgama de lugares interconectados entre sí, con enlaces hacia dentro pero también hacia a fuera, comportándose como autoridades y concentradores con enlaces fluyendo hacia dentro y hacia fuera de los sitios web.
3 comentarios

Web 2.0: ¿Crisis? ¿Qué crisis?

«La Web 2.0 es una tendencia muy potente y creo que la recesión le afectará muy poco. Todos queremos estar conectados, tener redes más amplias al margen de lo que ocurra en la economía. Un puñado de empresas saldrá perfectamente adelante, y otras, más obsoletas, van a dejar el negocio.»
Tim O’Reilly sobre la crisis económica y la Web 2.0

Hace unos meses, me aventuraba a realizar una reflexión sobre los efectos que la crisis económica podría llegar a tener sobre la Blogosfera (1234). Aunque en ese momento, dentro del texto, me centraba en los modelos de negocio que se habían ido adoptando dentro del mundo de los blogs y los efectos que la crisis podía y ya se encontraba acarreando, es el momento de ir un poco más allá y contemplar qué esta sucediendo en el resto de la Web 2.0.

Permitidme la irreverencia de que, al menos, me parezca curioso que los gurús de la Web 2.0 consideren que esta crisis económica va a afectar bien poco a la Web 2.0, como si la economía real y la tecnológica dispusiesen de caminos separados y que en ningún momento se encontrasen, como he llegado a leer. No cabe duda de que el concepto de la Web 2.0, social y participativa, permanecerá aunque es bastante obvio que algunos de estos negocios nacidos y crecidos al calor de las inversiones facilitadas por el dinero barato y fácil de obtener van a pasar por serias dificultades. Que Tim O’Reilly considere que ahora se va a demostrar cuáles de estos proyectos son los realmente viables para seguir funcionando, es como afirmar que hay que esperar para descubrir qué bancos están saneados y no infectados por las hipotecas tóxicas o subprime., es decir casi nada Obviamente, las empresas más fuertes y con un modelo de negocio de verdad sobrevivirán, mientras que otras no lo harán. La pregunta es: ¿cuáles?

Pero a pesar de esto, también me parece muy interesante que se afirme que la Web 2.0 se encuentra ante una falta de ideas y de conceptos nuevos, ya que ante la celebración de la Web 2.0 Summit en San Francisco parece ser que las discusiones, los debates y las nuevas ideas van a transcurrir por otros derroteros que no son exactamente la Web Participativa. Claro que hay quien considera que la Web 2.0 nunca llegó a existir, una entelequia fruto del marketing que se empaquetó para la venta de un nuevo producto y el relanzamiento de las empresas un tanto tocadas en su imagen por la burbuja tecnológica. El marketing era sencillo antes de la burbuja tecnológica Web 1.0, después Web 2.0, perfecto para la búsqueda de nueva financiación, negocios y nuevas tecnologías. Sin embargo, las empresas se engrasan con dinero y cuando hay falta de él, no es fácil que los proyectos web se mantengan solos.

Esto nos conduce al listado que se nos ofrece dentro del sitio News.com con 11 compañias bien conocidas de la Web 2.0 que se encuentran en dificultades económicas y que van a tener que buscarse financiación para seguir funcionando. Curiosamente, entre ellas, nos encontramos algunas bien conocidas como Twitter, Second Life, Skype, Netvibes o MySpace y, como si nos encontrásemos en el año 2000 justo al borde de la explosión de la Burbuja.com, se les echa en cara que se hayan preocupado más por la búsqueda de tráfico, puesto que las inversiones dependían de ello, que por la búsqueda de un modelo de negocio viable. Pero la Web 2.0 nos trae un nuevo concepto, maravilloso, de la recapitalización consorciada: «Tú haces todo el trabajo, yo me llevo el dinero… Y si hay pérdidas me ayudas a reflotar el negocio»

Ante, la falta de financiación actual, que tanto está castigando a las empresas no tecnológicas, las tecnológicas se están resintiendo por la falta de caja para seguir funcionando y en la Web Social se puede llegar a echar mano de nuevos modelos de financiación de auxilio solicitando dinero a sus usuarios mediante la modalidad de donaciones. Hoy, podemos encontrarnos con dos ejemplos: Mobuzz y la Wikipedia.

Mobuzz es un ejemplo español, se trata de una empresa que trata de rentabilizar el negocio de los videoblogs y que se encontró recientemente con una falta de financiación que le iba a impedir seguir funcionando. Ante esto, comienza una campaña de marketing viral mediante la cual solicitaba donaciones de 5 euros a sus seguidores hasta alcanzar la cifra de 120.000 € dándose el plazo de una semana para ello. Finalmente, se salva pero no por la generosidad de sus fieles (Consigue un cuarto del dinero solicitado), sino porque consigue una nueva ronda de financiación tras el ruido mediático generado. Por supuesto que esta acción levanta no pocas suspicacias sobre qué se va a hacer con el dinero de los donativos, en qué situación dentro de la empresa quedan los donantes, si se lo reintegrarían una vez mejore la situación de la empresa, si tendrían participaciones dentro de ella, etc.

Pero esta modalidad de financiación ya fue explorada por otros proyectos de la Web 2.0 como la Wikipedia e insisten en él. Así, actualmente, la Wikipedia necesita 6 millones de dólares para seguir funcionando, aunque las críticas no se han hecho esperar y teniendo en cuenta los distintos problemas que el proyecto ha tenido a lo largo de este tiempo a los usuarios no les van a faltar razones para poner en solfa su gestión y dirección. La  pregunta es: ¿veremos muchos más proyectos bajo esta situación?

4 comentarios

La Web 2.0 y las revistas científicas, algunas reflexiones

Al hilo del resumen que realizamos sobre la mesa La Web 2.0 y las revistas científicas que tuvo lugar durante el 3rd International LIS-EPI Meeting en Valencia, me parece interesante destacar algunas conclusiones que personalmente extraje de lo allí expuesto. Desgraciadamente, por una cuestión de tiempo no pude llegar a compartir con los asistentes, aunque queda aquí la cuestión abierta por si algún lector quisiera participar.

Durante el debate de la mesa, quedó claro que los científicos no son especialmente participativos a la hora de realizar Ciencia cuando se les pone al alcance herramientas 2.0. De hecho, según afirmaba una asistente, desde la propia revista Nature se confesaba que se obtenía un mayor interés por su sección de Sala de Prensa, donde se había colgado una serie de vídeos, que en el resto de las secciones colaborativas. Por otro lado, se concluía que los científicos no parecían muy interesados en evaluar el trabajo de sus semejantes durante el desempeño del Open Peer Review y que los ratios de participación eran bastante modestos. Tras todo lo anterior, podemos llegar a la conclusión que:

  1. Los científicos se encuentran cómodos dentro del actual modelo comunicativo, a pesar de las críticas sobre los costes que deben de soportar las instituciones públicas a la hora de financiar los trabajos e incluso a publicarlos en las revistas.
  2. Los científicos no desean que sus trabajos se muestren de forma pública antes de su aceptación definitiva (Pensemos en los preprints). Obviamente, si un trabajo es rechazado, se puede intentar su publicación en otra revista con menor factor de impacto o donde seamos conscientes de que es posible su publicación por las circunstancias que sean.
  3. La evaluación del trabajo de los científicos todavía se fundamenta en la publicación (Publica o muere) en las revistas científicas y ponencias, por lo que mientras los evaluadores no contemplen otros indicadores para la baremación de la actividad científica, los investigadores no migrarán hacia otros modelos comunicativos más participativos y abiertos, aunque algunos realicen pequeños ensayos con ellos.

Por otro lado, la reflexión que realizó Isidro F. Aguillo en otra mesa del encuentro me pareció sumamente interesante al hilo de lo anteriormente expuesto. Aguillo abogaba por que los científicos mejorasen sus páginas web personales, que no se limitasen a pequeños currículums vitae con listados de sus publicaciones, clases impartidas y trabajos realizados; sino que se tornasen en sitios web mucho más dinámicos y abiertos a la participación. Es posible que el investigador estuviese pensando de forma indirecta en los blogs, lugares donde crear pequeñas reflexiones, demostrar conocimientos y establecer puentes hacia otros investigadores, así como la difusión de trabajos de forma más concreta.

En definitiva, que es posible que la Ciencia se fundamente en los conceptos 2.0 como Torres-Salinas considera, sin embargo el reconocimiento de un investigador científico por parte de sus iguales,todavía no llega por la vía de la Web 2.0. El networking y el reconocimiento todavía se realiza de forma completamente tradicional mediante la publicación de textos científicos y de revisión, la presencia en libros, la presentación de ponencias en los congresos, etcétera. Sí, la Ciencia dispone de fundamentos 2.0, como el crecimiento de forma colaborativa y de forma casi desinteresada, aunque lo de desinteresada merecería dejarlo en un aparte, pero obviamente todavía no se trata de las mismas escalas.

En cualquier caso, la presencia de la Ciencia en la Web 2.0, la Ciencia 2.0, serviría para reforzar ese sentimiento de comunidad abierta y desinteresada por el crecimiento del ser humano. Sería útil a la hora de tender puentes hacia la Sociedad que la apoya y la financia, en el establecimiento de redes de investigación, así como la localización de grupos de investigación con intereses semejantes. Es posible que quede un largo camino por recorrer, aunque es bastante probable que lentamente, con la llegada de nuevas generaciones, la brecha en la asimentría digital se vaya reduciendo.

Un comentario

No utilizarás mi marca en tus meta-tags

Podría parecer un tanto retrógrado a estas alturas del desarrollo de la Red, pero en Estados Unidos el enfrentamiento entre dos empresas, Venture Tape Corp. y McGills Glass Warehouse, respecto a la utilización de las Meta-Tags dentro del código fuente del sitio web de una de ellas ha sentado jurisprudencia respecto al uso de las mismas. Los hechos se remontan al año 2000, cuando McGill mantenía relaciones comerciales con Venture Tape vendiéndole productos de diversa índole y decidió de forma unilateral la inclusión  dentro de sus descriptores web las marcas comerciales «Venture Tape» y «Venture Foil», además de enmascararlas en color blanco dentro del sitio web. Tres años más tarde, en 2003, Venture Tape se percata de ello y decide denunciar los hechos por infringimiento del uso de marca. Finalmente, este año, un tribunal de justicia se ha declarado a favor del demandante sentenciando el pago de 426,487$ por distintos conceptos.

Es obvio que lo que pretendía McGills con esa estratagema era el robo de tráfico web a Venture Tape utilizando sus distintas marcas e intentando posicionarse mejor que ella. Actualmente, esta acción no tiene ningún sentido, puesto que ni Google ni Microsoft utilizan las Meta-Tags para el posicionamiento en la Red, mientras que Yahoo y Ask sí que las utilizarían. En cualquier caso, no es la primera vez que se denuncia la utilización ilícita de marca dentro de la Red, puesto que la propia Google se tuvo que enfrentar a una acusación por infringir el uso lícito de marcas permitiendo su utilización como descriptores en las campañas publicitarias a realizar dentro de su sistema publicitario Adwords.

Nunca unos descriptores habían dado tantos dolores de cabeza.

Comentarios cerrados

Google se descubre en la guerra de los navegadores presentando ‘Chrome’

Es posible que uno de los mayores errores estratégicos de Microsoft durante la década de los años 90 fuese no percatarse de las posibilidades que podía ofrecer Internet como canal comunicativo, de negocios y de distribución de contenidos y productos que llegaría a ser a finales del siglo XX. Fruto de esa falta de perspectiva inicial, se desarrolló lo que se ha denominado como primera batalla dentro de la guerra de navegadores que dispuso de dos contendientes: Netscape, cuyo navegador era casi un estándar de facto en 1995, y la compañía de Redmond que no dudó en utilizar todas sus herramientas y sus posibilidades para acabar hundiendo el modelo de negocio de su competidora, ofreciendo su navegador Internet Explorer de forma gratuita y configurando su página inicio para que señalase a Microsoft, lo que derivó en que el Netscape Navigator fuese barrido y que languideciese durante algunos años.

De aquella primera batalla, Microsoft salió relativamente airosa. Su navegador Internet Explorer 6 disponía de una cuota de mercado superior al 80%, mientras que el Navigator, junto a Netscape, era adquirido por AOL, para finalmente desaparecer el pasado 1 de marzo de 2008. Sin embargo, el trabajo realizado por Netscape no acabó abandonado en su totalidad puesto que el motor del navegador de Netscape renacería para acabar presentando batalla al Explorer que, por otro lado, durante un lustro permaneció estanco y sin mejoras importantes. Estamos hablando de Mozilla Firefox.

Firefox, basándose en la filosofía Software Libre, tomó el testigo para intentar hacerle sombra al dominio aplastante del Explorer bajo la tutela de la Fundación Mozilla encargada de desarrollarlo, mientras que paralelamente surgían otros navegadores – Opera desarrollado por Opera Software y Safari desarrollado por Apple Inc.- que estarían dispuestos a presentar armas en lo que se ha considerado como la segunda batalla de la guerra de los navegadores. Sin embargo, no podemos olvidar que dentro de esta pugna tras el deceso de Netscape falta señalar puede que el actor más importante de todos los citados hasta el momento: Google.

La Fundacion Mozilla, cuyo navegador ha conseguido arañar cuota hasta alcanzar el 20% del mercado, reconocía hace pocas semanas que su dependencia respecto a los ingresos que le aportaba el acuerdo de colaboración con Google era excesivo. De hecho, los aportes de Google se acercan al 85% del total de los ingresos de la Fundación y, aunque los tienen asegurados hasta el año 2011, desde la propia Fundación reconocen que es completamente necesario diversificar sus ingresos para evitar suspicacias entre usuarios y desarrolladores, además de evitar que Google tome cartas sobre lo que se debe y lo que no se debe desarrollar para el producto estrella de la Fundación, Firefox.

Desgraciadamente, los recelos hacia la estrecha relación entre el gigante de Mountain View y Firefox ya se han producido en la utilización del ‘Google Safe Browsing’ que se trata de un sistema anti-phising desarrollado por Google que necesita de algunos datos privados de los internautas para ser efectivos comprometiendo la privacidad de los usuarios del navegador.

Pero, ¿por qué necesita Google de un producto como Firefox? En primer lugar, para evitar que los usuarios del buscador tengan que pasar por un producto desarrollado por la competencia directa de Google -Microsoft y su navegador Explorer- que podría comprometer la experiencia de usuario de los productos de Google en caso de que Microsoft lo desease. Así, por ejemplo, es conocido que Hotmail, uno de los servicios de correo electrónico más populares y propiedad de Microsoft, no funcionaba demasiado bien en las primeras versiones de Firefox, y además en la nueva versión del Explorer, la octava, está planteado que el internauta disponga de modo de navegación, denominado InPrivate, cuyo objetivo es la navegación anónima. En segundo lugar, teniendo presente que cada vez más tareas se realizan a través de los navegadores, en mayor medida los internautas comienzan a trabajar de forma completamente distribuida, en la Web, alejándose cada vez más del escritorio de su ordenador y de su disco duro, por lo que es el propio navegador una de las herramientas que más se utilizarán y con mayores fines en un futuro.

Por lo tanto, a lo que estamos asistiendo no es a una batalla sobre software, sino a una guerra sobre cómo en el futuro se accederá a la Web, cómo se procesará la información y qué características técnicas dispondremos para ello. Los pasos de Google ya no se encaminan hacia organizar la información del mundo como nos anunciaba cuando daba sus primeros pasos, sino que está dispuesto a avanzar un poco más su propia herramienta para acceder a la Web y a toda la información que ésta contiene: El navegador Google Chrome. De esta manera, Google está dando un golpe sobre la mesa, presentando su candidatura formal en el desarrollo de software, preparando al usuario a utilizar su interfaz, dispuesto a crear una comunidad en torno a él, además de dar el salto a otros terminales más allá del ordenador sobremesa, puesto que el futuro de Internet es la ubicuidad y la movilidad.

De momento, el navegador no ha decepcionado a los early adopters y más allá de los fallos de programación y de seguridad que se detecten en esta versión 0.6 (Beta), la compañía está dispuesta a apostar fuerte por crear un producto que favorezca completamente a sus intereses corporativos y de sus productos desde cualquier plataforma, permitiendo a sus usuarios que Google Gears, una aplicación que nos permite trabajar off-line con los servicios de Google, se encuentre implementada en nuestro navegador y que los fallos a la hora de la utilización de los servicios de Google sean los menores posibles.

No, esto no va a ser una guerra contra un software, esto es una guerra total por el futuro del acceso a la información, donde podríamos estar vendiendo nuestra alma al diablo pervirtiendo nuestra privacidad si no andamos con tiento. No, esto no es guerra por un software para situarse en un rincón de nuestros escritorios, es una guerra por la Web como Sistema Operativo donde el mejor posicionado se llevará el gato al agua y donde no dejaremos de ver zancadillas e incomodidades entre las empresas desarrolladoras. Desde luego que esto es sólo es el principio.

3 comentarios