Saltar al contenido →

Etiqueta: Internet

¿Internet nos está haciendo vagos?

Ya nos habíamos percatado que los jóvenes -y no tan jóvenes- estaban comenzando a doblegar el lenguaje y la ortografía tratando de economizar esfuerzos en un lenguaje heredado de los SMS, que el Copia & Pega se ha convertido en una de las actividades preferidas de los estudiantes más pequeños y los que no lo son tanto a la hora de enfrentarse a sus trabajos escolares, que se puede caer en la creencia de que la información que no está en Internet simplemente no existe, pero lo único que nos faltaba era que nos dijesen que Google, o la Web, nos convertía en estúpidos.

Este es un debate que ya ha sido abordado en innumerables foros y en muchos artículos nacidos fundamentalmente de la publicación por parte de Nicholas Carr de su texto Is Google Making Us Stupid? En él, el autor se confesaba y venía a asegurar que encontraba que estaba perdiendo la capacidad de concentrarse en la lectura de textos largos, que se agotaba y perdía la concentración durante esta actividad y lo peor de todo es que no sólo le pasaba a él, sino que también a sus conocidos. Por supuesto que, con un título tan incendiario, mucho se ha comentado sobre este texto como ,por ejemplo, el artículo de Juan Freire, Condenados a la estupidez digital, y qué decir de lo expresado dentro la blogosfera. Incluso, recientemente, El País le dedicó un espacio a esta temática reflejando los cambios que la lectura de Internet estaba provocando en los internautas.

Como contraposición, esta semana se hacía público un estudio reciente que trata de demostrar que en la búsqueda en Internet las áreas del cerebro que se muestran activas son mayores que durante el ejercicio de la lectura de un libro en sujetos de mediana edad y ancianos. Es decir, que la búsqueda en Internet dentro de este rango de edad fomentaría el ejercicio mental. Por supuesto que debemos recoger este estudio con ciertas reticencias. En primer lugar, porque la muestra de población es muy pequeña, 24 personas, y segundo porque los sujetos dentro de este rango de edad bien pueden no estar habituados al uso de la Web, al contrario de las generaciones más jóvenes, por lo que deben dedicarle mayores esfuerzos a la hora de leer y utilizar la Web.

En fin, el debate de los beneficios y los perjuicios que nos provoca la Red va a ser largo y muy interesante, sin embargo debemos ser conscientes de que el ser humano tiende a economizar recursos y energías siempre que le es posible. Nuestro cerebro entiende la ventaja que supone la utilización de la calculadora, mucho más potente en la mayoría de los casos, que la agilidad mental a la hora de realizar operaciones aritméticas. De igual forma, nuestra mente entiende el ámbito y el consumo que debe de hacer de la información en Internet teniendo presente el soporte sobre el que la recibe.

En cualquier caso, me parece interesante recalcar una serie de conclusiones extraídas de un informe de la University College de Londres sobre hábitos de búsqueda de información en Internet que distingue mitos y realidades sobre el uso que hacen los jóvenes de ella:

  1. Los usuarios jóvenes no suelen comprender bien sus necesidades informativas y por tanto les resulta difícil desarrollar estrategias de búsqueda efectivas.
  2. Tienen un mapa mental poco sofisticado de lo que es Internet. No logran entender que se trata de una colección de recursos en red procedentes de diferentes fuentes. Así, los motores de búsqueda, ya sean Yahoo! o Google, se convierten en la primera marca que asocian con Internet.
  3. Son en general más competentes con la tecnología que la generación anterior, aunque los adultos se ponen rápidamente al día. Emplean, sin embargo, menos aplicaciones digitales de lo que se cree.
  4. Prefieren sistemas interactivos y le dan la espalda al consumo pasivo de información. Prefieren la visual sobre la textual.
  5. Son la generación del corta y pega. Abundan los casos de plagios de diversas fuentes en los trabajos encargados.
  6. Prefieren, como los adultos, la información despiezada, en vez de textos completos.
  7. No son expertos buscadores.
7 comentarios

Cómo pasar por 2.0, cuando no se llega a 1.0

Es de todo bien sabido que los medios de comunicación muestran verdadero pánico a que sus visitantes se marchen con los bártulos a otro lugar. Cuando la competencia está a un clic, aparentemente lo menos deseable es ofrecerle una ventanasa un mundo lleno de oportunidades y curiosidades. Un mundo que tal vez pueda reflejar la realidad, o una parte de ella, mucho mejor que el tratamiento que los medios de comunicación tradicionales pudiesen otorgar. Desde mi punto de vista, se asemejaría a la situación de aquel que, dado de alta al servicio de acceso a Internet por tarifa plana de Ya.com, se quiso dar de baja porque ya había visto todo Internet. En realidad, el internauta novato no había salido del portal de contenidos de Ya.com,  no había encontrado el camino, y llamando al servicio de atención al cliente, el teleoperador le sugirió que probase una dirección nueva: http://www.google.es. Después de esto, creo que todos podremos concluir que el internauta novato no volvió a llamar asegurando que se quería dar de baja porque ya había visto toda la Web.

Los medios de comunicación se han afanado últimamente en ser más 2.0, ofrecen servicios de sindicación de contenidos, un cierto movimiento aperturista mediante la realización de comentarios a las noticias e incluso hacia el periodismo ciudadano; han incluido enlaces para añadir sus páginas hacia servicios de marcado social o promoción social de noticias, foros o incluso la oportunidad a sus lectores para gestionen sus propios blogs. Todo lo anterior constituyen servicios que persiguen que los lectores se mantengan fieles a su URL aumentando su tráfico, así como el tiempo de permanencia medio en sus webs que, al fin y al cabo, es lo que les va a aportar publicidad e ingresos.

Podríamos entrar a discutir la evolución de los medios de comunicación hacia la etiqueta 2.0, incluso el desarrollo de contenidos más avanzados como canales de televisión propios dentro de ellos o la utilización del microblogging como Twitter, sin embargo no han conseguido quitarse de encima su tradición de convertirse en lo que se denomina Black Hole SEO, agujeros negros de enlaces que sólo aspiran a recibirlos desde fuentes externas e internas pero nunca a citar hacia el exterior.

Lo cierto es que en ocasiones, leyendo informaciones en la Web, las situaciones se me antojan ridículas y fuera de lugar teniendo presente el desarrollo actual de la Web. Así, por ejemplo, los medios de comunicación son capaces de publicar un texto sobre una página web ¡sin enlazarla! Concretamente, recientemente en La Vanguardia abordaban la experiencia de BuzzMetrics, desarrollado por la empresa de medición de audiencias Nielsen Online, bajo el titular Lanzan un sistema para medir las opiniones de los usuarios en blogs y redes sociales y no se encontraban capaces de enlazar al web, ni siquiera con el atributo «nofollow», no sea que les mejore el posicionamiento para más inri.

Afortunadamente, los medios de comunicación están quitándose las antiguas ataduras impuestas desde las redacciones impresas en un momento de convergencia. De hecho, es frecuente que las informaciones  publicadas en la web que se editan para las ediciones impresas de los diarios no provean enlaces para el enriquecimiento de la noticia, sin embargo en noticias elaboradas por las redacciones digitales sí que comienzan a disponer de ellos. Me refiero, por ejemplo, a la estupenda Revista de Webs de El País, donde la redacción trata de conformar una nota sobre qué se cuece en ese momento en la Red y, más concretamente, en la Blogosfera.

Pero podríamos profundizar un poco más. Fijándonos en artículos de economía, porque no sólo de tecnología vive el hombre, en la pieza informativa Las fortalezas de la banca española no hallaremos ni un solo enlace dentro del texto, mientras que en el artículo Las «lecciones» que enseña la economía española, según Financial Times sí que se nos ofrecen una buena cantidad de ellos que sirven para acotar, aclarar y contextualizar la noticia. Es decir, en el primer artículo, el medio de comunicación no ofrecía ningún tipo de apoyo para relacionar la noticia dentro de su contexto, a pesar de que exista un epígrafe «Si te ha interesado esta información, te recomendamos:» que sirve de apoyo al marco de la noticia, aunque imperceptible para los lectores; mientras que en el segundo se nos da una buena cantidad de ellos (internos, de acuerdo, pero enlaces). Tengo que aclarar que me he cerciorado de que el primer documento se publicó en la edición impresa del diario, mientras que el segundo, seguramente por el marco temporal, se realizó para la digital. Esto nos puede llevar a la conclusión que al tratarse de una noticia volcada desde el papel no disponga de los elementos enriquecedores que dan los enlaces, en cambio la segunda se realizó contando con posibilidades para añadir estos elementos.

Nos hallamos, por lo tanto, ante la transición definitiva de los medios que irán aceptando y empapándose del entorno en el que desarrollan sus actividades económicas. Son muchos los que se comienzan a revolver contra estas prácticas, la de no-enlazar, que no favorecen el feedback, pero que los medios aprovechan bajo el entorno 2.0 para posicionarse dentro de los buscadores. Los medios deberán aprender a adaptarse rompiendo otra barrera, la del miedo a lo ajeno, porque al final de cuentas ellos son los grandes generadores de contenidos de la Web y ante eso no van a encontrar rival. Y eso Google también lo sabe…

5 comentarios

La asimetría digital

Hace ya unos días que mi madre intentó explicarlos el "nuevo" invento de Google que era ni más ni menos su nueva enciclopedia, Knol. Como podéis imaginar mi madre no se ha acercado a un ordenador en su vida, si no fuese para limpiar la pantalla, ni creo que lo toque puesto que se ha negado en rotundo en numerosas ocasiones a pesar de que sus hermanos sí que se han lanzado a escribir correos electrónicos. Así que, como podéis imaginar, la explicación que me ofreci, tomada prestada de la radio sobre Knol, no fue lo más ajustada posible a la realidad. Obviamente, me quedé en silencio durante sus argumentaciones a pesar de sus preocupaciones sobre la conveniencia de la creación de una enciclopedia colaborativa y la autoridad que ésta podría dar respecto a los datos e informaciones que pudiese albergar. En fin, que os puedo asegurar que mi madre no lee mi blog, ni tampoco lo que voy escribiendo en papel y eso que sólo nos llevamos una generación.

Por otro lado, mi padre siempre se sintió un poco fascinado por mi destreza con los ordenadores. Vale, puede que mi nivel sea un poquito superior al de un usuario avanzado, pero soy plenamente consciente de que camino hacia la obsolescencia poco a poco. Es cierto, puedo acercarme a los nuevos fenómenos de la Red, el microblogging, las redes sociales, la promoción de noticias, etcétera; sin embargo os confesaré que siempre me queda el regusto de no estar utilizando completamente su potencial, como si fuesen más exprimibles de lo que yo realizo en ellas, aunque mi consuelo es que simplemente no dispongo del tiempo necesario y no puedo dedicarles ni todo mi esfuerzo ni mi interés. De hecho, recientemente se ha realizado el cálculo de cuánto tiempo se debería dedicar a la Web 2.0 para ser un usuario normal de estas herramientas y lo cierto es que no les puedo dedicar el mínimo de 8 horas semanales. ¡Ya me gustaría dedicárselo a mis aficiones!

Puede que se trate de una excusa de mal pagador, de alguien que camina hacia la obsolescencia gritando ¡paparruchas!, o simplemente que considere que mi blog es mi identidad digital en la Red y por ello lo potencio sobre otras cosas, sin tener la necesidad de contaminar mi presencia en ella sin nada más que lo que aquí recojo y publico, pero sin renunciar a mirar con curiosidad otros fenómenos de la Web 2.0, claro. Por supuesto que no renuncio a ser participativo, he roto lanzas en proyectos que me parecían interesantes y necesarios, pero obviamente no dispongo de todo el tiempo del mundo y para mantener algo que acabaré abandonando, es mejor no comenzarlo.

¿La obsolescencia terminológica pronto se convertirá en tecnológica? Indudablemente que una parte sí. Es probable que el año que viene o el próximo, cuando amaine esta crisis económica, aparezca un nuevo concepto o se desarrolle una nueva idea y que yo ya no sea captar su utilidad o descubrir su inutilidad, lo que es más grave. Sinceramente, espero que no se me escape, si existe y que no pierda la curiosidad. Pero, esto mismo ya está sucediendo a nivel empresarial y no puede ser detenido.

Francis Pisani nos pone sobre la pista de esta nueva Asimetría Digital donde los más jóvenes adoptarían las nuevas tecnologías y sus nuevos conceptos de forma más rápida que el resto. En su artículo, La dificultad de adaptarse a los cambios, nos describe la situación dada en Unilever donde Wendy Wilkes se desesperaba por la lentitud de su organización a la hora de adoptar las nuevas tecnologías. De hecho, ella lo describe como "shock tecnológico" puesto que no se les permitía usar ni MySpace, Facebook, Twitter o Skype. Afortunadamente, Wilkes escribió un correo a su jefe quejándose y abriéndole los ojos. La reacción de su superior distó mucho de ser airada, más bien al contrario, puesto que le encomendó un puesto nuevo: buscar aplicaciones (gratuitas, preferentemente) que se podría aplicar en la empresa.

5 comentarios

No utilizarás mi marca en tus meta-tags

Podría parecer un tanto retrógrado a estas alturas del desarrollo de la Red, pero en Estados Unidos el enfrentamiento entre dos empresas, Venture Tape Corp. y McGills Glass Warehouse, respecto a la utilización de las Meta-Tags dentro del código fuente del sitio web de una de ellas ha sentado jurisprudencia respecto al uso de las mismas. Los hechos se remontan al año 2000, cuando McGill mantenía relaciones comerciales con Venture Tape vendiéndole productos de diversa índole y decidió de forma unilateral la inclusión  dentro de sus descriptores web las marcas comerciales «Venture Tape» y «Venture Foil», además de enmascararlas en color blanco dentro del sitio web. Tres años más tarde, en 2003, Venture Tape se percata de ello y decide denunciar los hechos por infringimiento del uso de marca. Finalmente, este año, un tribunal de justicia se ha declarado a favor del demandante sentenciando el pago de 426,487$ por distintos conceptos.

Es obvio que lo que pretendía McGills con esa estratagema era el robo de tráfico web a Venture Tape utilizando sus distintas marcas e intentando posicionarse mejor que ella. Actualmente, esta acción no tiene ningún sentido, puesto que ni Google ni Microsoft utilizan las Meta-Tags para el posicionamiento en la Red, mientras que Yahoo y Ask sí que las utilizarían. En cualquier caso, no es la primera vez que se denuncia la utilización ilícita de marca dentro de la Red, puesto que la propia Google se tuvo que enfrentar a una acusación por infringir el uso lícito de marcas permitiendo su utilización como descriptores en las campañas publicitarias a realizar dentro de su sistema publicitario Adwords.

Nunca unos descriptores habían dado tantos dolores de cabeza.

Comentarios cerrados

Googlelizados, 10 años del nacimiento de una revolución /1

Google desbancó a la competencia gracias a su calidad, sin tener necesidad de gastarse un dólar en publicidad, todo gracias al boca-boca de los internautas que simplemente lo abrazaron según lo fueron descubriendo. Puede que algunos consideren que Google dispuso de mucha suerte, aunque en realidad sus fundadores sabían lo que estaban haciendo y lo mejor es que todo les marchó sobre ruedas desde un principio.

Nos encontramos a finales de los años 90, en esa época nos hallamos ante una Web donde se exigían cada vez más recursos tecnológicos para indexar páginas web, donde la información crecía de forma exponencial y donde los spammers se encontraban a sus anchas colocando sus páginas va´cías y rebosantes de publicidad en las primeras posiciones de los buscadores existentes. Los mejores motores de búsqueda -Incluyendo al más eficiente por entonces, Altavista– se veían desbordados ante la avalancha de información junto a la basura que se generaba día tras día, mostrándose incapacitados para ofrecer lo que los internautas deseaban: Páginas relevantes frente a sus ecuaciones de búsqueda.

En el año 1998, todavía era posible mantener actualizado de una forma manual mediante editores directorios de sitios web de calidad sin casi obviar ninguna página de relevancia, como por ejemplo Yahoo!, los portales  web causaban furor, creciendo de forma exorbitada siendo concebidos como lugares donde un usuario se mantuviese atrapado disponiendo de infinidad de servicios y posibilidades. Por otro lado, las conexiones a Internet eran realmente lentas, insufribles para un internauta de la década actual, incapaces de procesar la cantidad de páginas recargadas que se diseñaban y se lanzaban sin considerar apenas las dotes de navegación de los usuarios y, algo más importante aún, su paciencia.

El motor de búsqueda Backrub desarrollado por Sergey Brin y Larry Page nació concebido para analizar la web e indexarla desde una aproximación revolucionaria, considerándola como una suerte de democracia de contenidos. Si Tim Berners-Lee diseñó un sistema de información (La World Wide Web) mediante el cual todos documentos relacionados pudiesen estar conectados mediante enlaces, Page y Brin descubrieron todo un sistema democrático dentro de él. De este modo, creyeron que las mejores páginas web sobre un tema debían encontrarse muy enlazadas por páginas de contenido similar, por lo que comenzaron a asignar pesos a los sitios web otorgándoles relevancia mediante un baremo denominado Pagerank. De este modo, iban más allá de las palabras clave incluidas en el HTML (Meta-datos) que tan fáciles habían resultado de explotar por los spammers. El salto desde la universidad de Stanford, donde Page y Brin habían realizado sus estudios, hacia el mundo empresarial se realizó mediante una cantidad inicial de 100.000$  cuyo destinatario era una compañía no constituída todavía bajo la denominación de Google Inc. El resto ya es historia.

Una visión, una imagen

Es probable que la buena imagen que dispone Google actualmente por parte de la comunidad internauta se deba a que tanto Brin y Page surgiesen del ámbito universitario y no dejasen en ningún momento el pilotaje de su nave. Bajo dos frases sencillas Organizar toda la información del mundo y No seas malo (Don’t be evil) construyeron una cultura corporativa que hasta ahora no ha sido manchada a pesar de las suspicacias levantadas y las críticas recibidas. Su manera de concebir la web, de comprender lo que quieren los internautas en todo momento mientras se lo ofrecían, y no dejar que las presiones económicas y empresariales les desviasen de los productos y servicios diseñados; constituyen un punto más a su favor en la construcción de una marca sin reproche y que tiene mucho a su favor para seguir creciendo durante los próximos diez años.

Porque Google, nacida en septiembre de 1998, no se lanzó a la carrera del capital-riesgo para salir inmediatamente en bolsa durante la Burbuja.com. Infinidad de empresas tecnológicas se abalanzaron en una carrera epara la obtención de fondos que después no pudieron devolver. Algunas de ellas simplemente estaban vacías, mientras que otras fracasaron porque se adelantaron a su tiempo. Sin embargo. Brin y Page, junto al CEO de Google Eric Schmidt, arrumbaron su proyecto confiando en él y esperando mejores oportunidades (Google no comenzó a cotizar en bolsa hasta agosto de 2004), a la vez que buscaban un modelo de negocio para lo que aparentemente no lo tenía: Sólo un buscador. Sin embargo, la adquisición de la compañía Applied Semantics y el desarrollo de una plataforma para la venta de publicidad contextual a empresas (Adwords) junto al desarrollo de una plataforma de publicidad contextual para sitios webs (Adsense) sin querer asaltar a los internautas ni ser intrusivo como se hacía con las pop-ups, le abrió las puertas para hallar un modelo de negocio viable y seguir creciendo.

Sin embargo, Page y Brin no se encantaron con las alabanzas recibidas y siguieron trabajando. Conscientes de que su mayor y mejor producto era el buscador, se centraron en su perfeccionamiento, así como la mejora de su algoritmo para evitar que los spammers mejorasen sus técnicas de posicionamiento dentro de él. Google se convertiría muy pronto en el buscador de referencia, el que (En general) no devolvía ruido ante una consulta y si no estaba en Google no se existía. Con el tiempo, Google representaría para una generación la idea abstracta de lo que es la Web, páginas interconectadas sin ningún orden, amontonadas, apiladas en una actualización y adición sin fin que podían ser ordenadas en una lista sorprendentemente útil. Hoy en día, muchas personas no sabrían moverse por la Web sin este motor de búsqueda.

Durante estos diez años, Google ha desarrollado motores de búsqueda específicos, tratando de categorizar los diversos contenidos que disponía la web. Nació de esta forma Google News para la actualización constante de medios de comunicación, Google Images, Froogle (Un intento fallido de realizar un buscador comparativo de productos en venta en la web), Google Scholar para artículos científicos o Google Blogs Search. Sin embargo, Google pronto se percató que no podía contentarse con ser un mero distribuidor de contenidos, a la vez que sacaba réditos de la publicidad contextual, pronto se dio cuenta que necesitaba controlar también los contenidos.

Un comentario

Google se descubre en la guerra de los navegadores presentando ‘Chrome’

Es posible que uno de los mayores errores estratégicos de Microsoft durante la década de los años 90 fuese no percatarse de las posibilidades que podía ofrecer Internet como canal comunicativo, de negocios y de distribución de contenidos y productos que llegaría a ser a finales del siglo XX. Fruto de esa falta de perspectiva inicial, se desarrolló lo que se ha denominado como primera batalla dentro de la guerra de navegadores que dispuso de dos contendientes: Netscape, cuyo navegador era casi un estándar de facto en 1995, y la compañía de Redmond que no dudó en utilizar todas sus herramientas y sus posibilidades para acabar hundiendo el modelo de negocio de su competidora, ofreciendo su navegador Internet Explorer de forma gratuita y configurando su página inicio para que señalase a Microsoft, lo que derivó en que el Netscape Navigator fuese barrido y que languideciese durante algunos años.

De aquella primera batalla, Microsoft salió relativamente airosa. Su navegador Internet Explorer 6 disponía de una cuota de mercado superior al 80%, mientras que el Navigator, junto a Netscape, era adquirido por AOL, para finalmente desaparecer el pasado 1 de marzo de 2008. Sin embargo, el trabajo realizado por Netscape no acabó abandonado en su totalidad puesto que el motor del navegador de Netscape renacería para acabar presentando batalla al Explorer que, por otro lado, durante un lustro permaneció estanco y sin mejoras importantes. Estamos hablando de Mozilla Firefox.

Firefox, basándose en la filosofía Software Libre, tomó el testigo para intentar hacerle sombra al dominio aplastante del Explorer bajo la tutela de la Fundación Mozilla encargada de desarrollarlo, mientras que paralelamente surgían otros navegadores – Opera desarrollado por Opera Software y Safari desarrollado por Apple Inc.- que estarían dispuestos a presentar armas en lo que se ha considerado como la segunda batalla de la guerra de los navegadores. Sin embargo, no podemos olvidar que dentro de esta pugna tras el deceso de Netscape falta señalar puede que el actor más importante de todos los citados hasta el momento: Google.

La Fundacion Mozilla, cuyo navegador ha conseguido arañar cuota hasta alcanzar el 20% del mercado, reconocía hace pocas semanas que su dependencia respecto a los ingresos que le aportaba el acuerdo de colaboración con Google era excesivo. De hecho, los aportes de Google se acercan al 85% del total de los ingresos de la Fundación y, aunque los tienen asegurados hasta el año 2011, desde la propia Fundación reconocen que es completamente necesario diversificar sus ingresos para evitar suspicacias entre usuarios y desarrolladores, además de evitar que Google tome cartas sobre lo que se debe y lo que no se debe desarrollar para el producto estrella de la Fundación, Firefox.

Desgraciadamente, los recelos hacia la estrecha relación entre el gigante de Mountain View y Firefox ya se han producido en la utilización del ‘Google Safe Browsing’ que se trata de un sistema anti-phising desarrollado por Google que necesita de algunos datos privados de los internautas para ser efectivos comprometiendo la privacidad de los usuarios del navegador.

Pero, ¿por qué necesita Google de un producto como Firefox? En primer lugar, para evitar que los usuarios del buscador tengan que pasar por un producto desarrollado por la competencia directa de Google -Microsoft y su navegador Explorer- que podría comprometer la experiencia de usuario de los productos de Google en caso de que Microsoft lo desease. Así, por ejemplo, es conocido que Hotmail, uno de los servicios de correo electrónico más populares y propiedad de Microsoft, no funcionaba demasiado bien en las primeras versiones de Firefox, y además en la nueva versión del Explorer, la octava, está planteado que el internauta disponga de modo de navegación, denominado InPrivate, cuyo objetivo es la navegación anónima. En segundo lugar, teniendo presente que cada vez más tareas se realizan a través de los navegadores, en mayor medida los internautas comienzan a trabajar de forma completamente distribuida, en la Web, alejándose cada vez más del escritorio de su ordenador y de su disco duro, por lo que es el propio navegador una de las herramientas que más se utilizarán y con mayores fines en un futuro.

Por lo tanto, a lo que estamos asistiendo no es a una batalla sobre software, sino a una guerra sobre cómo en el futuro se accederá a la Web, cómo se procesará la información y qué características técnicas dispondremos para ello. Los pasos de Google ya no se encaminan hacia organizar la información del mundo como nos anunciaba cuando daba sus primeros pasos, sino que está dispuesto a avanzar un poco más su propia herramienta para acceder a la Web y a toda la información que ésta contiene: El navegador Google Chrome. De esta manera, Google está dando un golpe sobre la mesa, presentando su candidatura formal en el desarrollo de software, preparando al usuario a utilizar su interfaz, dispuesto a crear una comunidad en torno a él, además de dar el salto a otros terminales más allá del ordenador sobremesa, puesto que el futuro de Internet es la ubicuidad y la movilidad.

De momento, el navegador no ha decepcionado a los early adopters y más allá de los fallos de programación y de seguridad que se detecten en esta versión 0.6 (Beta), la compañía está dispuesta a apostar fuerte por crear un producto que favorezca completamente a sus intereses corporativos y de sus productos desde cualquier plataforma, permitiendo a sus usuarios que Google Gears, una aplicación que nos permite trabajar off-line con los servicios de Google, se encuentre implementada en nuestro navegador y que los fallos a la hora de la utilización de los servicios de Google sean los menores posibles.

No, esto no va a ser una guerra contra un software, esto es una guerra total por el futuro del acceso a la información, donde podríamos estar vendiendo nuestra alma al diablo pervirtiendo nuestra privacidad si no andamos con tiento. No, esto no es guerra por un software para situarse en un rincón de nuestros escritorios, es una guerra por la Web como Sistema Operativo donde el mejor posicionado se llevará el gato al agua y donde no dejaremos de ver zancadillas e incomodidades entre las empresas desarrolladoras. Desde luego que esto es sólo es el principio.

3 comentarios

¿Predijo Borges Internet? No, fue Paul Otlet

MundaneumHace ya unos meses que se publicó el libro Borges 2.0: From Text to Virtual Worlds en el que su autora Perla Sassón-Henry trataba de realizar un paralelismo entre los mundos imaginados del libro que tenía Jorge Luis Borges con la concepción actual que se tiene de la Red. De este modo, Sassón-Herny contemplaba una predicción de Internet dentro del relato El libro de arena o la Biblioteca de Babel, mientras que los blogs se encontrarían anticipados en el relato Funes el memorioso. Por supuesto que el estudio no se queda sólo en estos tres relatos y señala, además, Tlön, Uqbar, Orbis Tertius que conjuntaba las posibles visiones de un futuro digital del texto.

Por supuesto que esta idea se contempla desde cierto escepticismo como algo traído por los pelos o sustentado con alfileres, porque tal como se nos recuerda en Papel en blanco:

Borges sería el espíritu poético de Internet si no fuera por un detalle que Sassón-Henry parece haber pasado por alto: su pesimismo. La biblioteca universal que contiene todo el saber humano es ininteligible, y aquellos que tratan de desencriptarla acaban perdidos y dementes. El Aleph que concentra todos los puntos del universo en uno es falso, una ilusión, un juguete: a la omnisciencia no cabemos aspirar. Borges, el mismo Borges que creía tan poco en el tiempo que de joven ya se conocía de viejo, sabía perfectamente a dónde se dirigía la especie humana. Él ya vivía ahí. Pero lo que nos dejó suena a advertencia, porque es la historia de un fracaso.

Sin embargo, tal y como se nos recuerda recientemente en un artículo publicado en El País, La Red que cayó en el olvido, los historiadores están recuperando como primer visionario de la idea de una Red para la gestión de la información y el conocimiento a Paul Otlet considerado como el padre de la Documentación moderna. De este modo, Otlet en 1934 concibió la idea de un mundo interconectado en el que «cualquier persona desde su sillón será capaz de contemplar el conjunto de la creación».

En 1895, Otlet comenzó su tarea, junto a Henri La Fontaine, de intentar crear una bibliografía maestra (Mundaneum) que recogiera todo el conocimiento publicado del mundo. Los dos hombres se pusieron a coleccionar datos sobre todos los libros que se habían publicado en la historia, junto con una inmensa colección de artículos de revistas y periódicos, fotografías, carteles y todo tipo de objetos impresos coleccionables. De este modo, de una forma completamente analógica y utilizando fichas, empezaron a crear una inmensa base de datos en papel que contuvo en su momento de apogeo unos 12 millones de registros.

Sin embargo, a medida que el proyecto avanzaba, Otlet se percató de que el Mundaneum se comenzaba a ahogar debido al volumen excesivo de papel, por lo que concibió que fuesen las máquinas las que se encargasen de la sobrecarga de información proponiendo la eliminación del papel en sí. Así pues, comenzó a escribir sobre esa posibilidad de almacenamiento electrónico detallando sus ideas en su libro Monde (1934) donde explicaba su visión de un «cerebro mecánico y colectivo» que acogería toda la información del mundo, accesible rápidamente a través de una red global de telecomunicaciones.

Comentarios cerrados