Saltar al contenido →

Categoría: Internet

Twitterrific!!!

Definitivamente, no soy un buen gurú. Nunca creí que 140 caracteres dieran para mucho, consideré que si bien el microblogging disponía de cierta utilidad, nunca llegaría a romper definitivamente y ser un instrumento de masas. Puede ser que se trate de una perspectiva demasiado personal, si para enviar un SMS me quedo corto, imaginaos para explicar una idea por la Web. Es posible que nuestra acelerada vida nos empuje invariablemente a ser cortos y concisos, pero dentro de Internet esto se convierte en una necesidad.

El menos es más aplicado a las noticias o al argumentario de las ideas nunca me acabaron de agradar. Si nos quedamos con el teletipo no contemplamos el contexto, perdemos la profundidad del hecho. Es como contemplar el Guernica de Picasso sin comprender porqué se pintó y en qué condiciones se compuso. Nos agradará más o menos, pero perderemos la intención del pintor.

Dicen que tienes que utilizar Twitter para poder criticarlo, que se contempla con cierto escepticismo al principio pero que después te engancha. Lo siento no es mi caso. Ni siquiera algunas de las aplicaciones trasladadas al mundo Twitter son de mi agrado, más bien me parecen cierta involución. Sin embargo, no puedo negar que éste es el año Twitter pese a quien le pese, aunque puede que dentro de dos, el efecto Twit se diluya como un azucarillo como sucedió con la revolucionaria Blogosfera (Aunque quien tuvo retuvo, por supuesto).

El mundo descubrió la potencia de Twitter cuando la oposición iraní se lanzó a las calles coordinada y convocada a través de esta red social/servicio de microblogging. En realidad, su uso fue alentado por el propio gobierno de forma accidental que se apresuró a cortar los servicios de mensajería corta a través del móvil y capando el acceso a otro tipo de páginas web como Facebook. Si el proceder de sus autoridades se hubiese desarrollado de otra manera, puede ser que en vez de libros sobre la revolución Twitter hubiesen llevado otra marca comercial en la portada.

Sin embargo, Twitter también arrastra sus propios problemas a pesar de su popularidad entre las personalidades famosas. El primero de ellos, la competencia feroz de Facebook y los servicios de redes sociales que está tratando de trasladar el modelo de qué estás haciendo hacia sus cotos cerrados con cierto éxito. De hecho el joven becado de Morgan Stanley ya baticinó que Twitter es para viejos reservando el olimpo del sabroso mercado adolescente y juvenil a Facebook. El segundo es su falta de un modelo de negocio que tratará de ser creado mediante el establecimiento de cuentas Premium de pago (Pero, ¿no utilizábamos en la Web 2.0 el término molón Fremium?). Finalmente, el tercero es la falta de actualización de las cuentas, pero bueno esto es una constante en casi cualquier servicio web.

Mientras tanto, las compañías parecen encantadas con el nuevo juguete, mientras según se asevera Twitter y Facebook han trasladado parte de lo que se denominó “La Conversación” hacia su terreno. E incluso amenaza con engullir los agregadores RSS considerados como algo obsoletos y difíciles de entender para cualquier internauta normal; a la vez que los medios e infinitos sitios web se muestran encantados de volcar sus actualizaciones informativas hacia este nuevo servicio que amenaza en convertirse en un nuevo foco de infoxicación para el internauta, a pesar de lo corto de los mensajes a lanzar dentro del mismo.

Por otro lado, los spammers también han puesto su ojo en él, aunque no consigo a vislumbrar su meta y su porcentaje de éxito. Tienes que ser follower o seguidor de alguien para ver sus mensajes, es decir, el usuario tiene que cometer una acción para recibir el spam de Twitter.

Twitter también puede dejar a contrapié a los buscadores de empleo, porque ya se realizan ofertas de trabajo cuyo requisito para los aspirantes es disponer de 250 seguidores. Aunque los followers pueden comprarse con relativa facilidad, porque como no podría ser de otra forma de cualquier asunto podemos establecer un nuevo sistema económico, que el mundo debe seguir girando.

6 comentarios

¿Está bajando la audiencia en la Web? Los datos según Google Trends

Trasteando un poco con Google Adplanner, la plataforma diseñada por Google similar a Google Trends para la gestión de la publicidad en la Web, es decir para los usuarios de Adwords; recibo la bienvenida con un gráfico referido al volumen de tráfico que está soportando el dominio Wikipedia.org. En un principio, no le doy excesiva importancia porque, al fin y al cabo, quién puede poner anuncios en la Wikipedia (Nadie de momento porque la Wikipedia no admite publicidad), hasta que me percato que el gráfico tiene un dibujo con una tendencia claramente descente. Actualmente, en Google Adplanner se muestra de la siguiente manera:

Según los datos de Google, o sus estimaciones, el volumen del tráfico soportado por la Wikipedia es descendente desde principios del 2008, lo que me conduce a preguntarme si esto también está sucediendo en el resto de los sitios webs más populares y de esta manera convirtiéndose en una tendencia. Así pues, decido realizar unas cuantas comparativas sirviéndome de Google Trends. Siguiendo el OJD (Oficina de Justificación de la Difusión) trato de trazar una gráfica con tres de los medios de comunicación de ámbito español más populares en la Red, aunque para el trazado de gráficos significativos y legibles debo separar algunos de ellos y agruparlos.


El resultado es bastante interesante puesto que, en general, podríamos afirmar que en todos los casos las páginas web de los medios de comunicación están perdiendo tráfico salvo un repunte en las últimas semanas. Pero, ¿cuál sería el resultado si utilizásemos algunos blogs tecnológicos más populares en España? ¿También se encontrarían perdiendo tráfico?


La tendencia como se puede comprobar es la misma que en los sitios web de los medios de comunicación. Lo que me lleva a considerar que o los gráficos y los datos están mal o realmente la audiencia dentro de la Web se está reduciendo. Pero, si la Web está perdiendo visitantes, ¿dónde podrían estar actualmente los internautas? ¿Dónde pasan actualmente su tiempo? Puede que este gráfico nos pueda despejar las dudas.

Nota: Gráficos generados el 4 de julio de 2009 a través de la herramienta Google Trends con los datos correspondientes a la opción Websites, al ámbito geográfico Spain y temporal All years.

7 comentarios

Los buscadores de Internet mienten

Cada vez con mayor frecuencia, los medios de comunicación exponen en las noticias los resultados que el Buscador, dejémoslo así, ofrece ante una consulta para apoyar la importancia de cierta tendencia, fenómeno emergente o personaje popular. Esta costumbre ya fue objeto de nuestra reflexión en un texto anterior, pero considero conveniente volver sobre ella para afirmar que estos datos se sustentan sobre unas mentiras intencionadas.

Una mentira que forma una estrategia de marketing de los tres buscadores principales (Google, Yahoo! y Bing -Antiguo Live, antiguo MSN-) para intentar capturar usuarios ofreciendo una mayor cantidad de resultados. No debemos olvidar que la tarea de indexar toda la Web constituye una tarea titánica que nunca se puede llegar a conseguir. De hecho, durante mucho tiempo Google señalaba la cantidad de páginas que tenía indexadas en sus bases de datos, hasta que retiró el dato de su página principal. El hecho es que la exhaustividad en esa obtención de información se antojaba como un componente más para demostrar la veracidad de los datos trasladando la idea quien tuviese la base de datos más grande podría ofrecer, al fin y al cabo, mejores resultados.

La semana pasada asistí a la jornada Innovadores sistemas de vigilancia tecnológica impartida por Prudencio Herrero celebrada en la Cámara de Comercio de Valencia que me demostró que todavía existen personas con una visión crítica de la tecnología que nos rodea. A modo de juego, nos enseñó la gran mentira de los buscadores donde lo importante es la apariencia.

El ejercicio que nos propuso pasó por buscar de distintas maneras el concepto de Vigilancia Tecnológica en sus distintas vertientes:

  • vigilancia tecnologica
  • vigilancia tecnológica
  • “vigilancia tecnologica”
  • “vigilancia tecnológica”

Las búsquedas se debían acometer en distintos buscadores en sus distintas formas, obteniendo resultados sorprendentes. En primer lugar, debíamos comparar los resultados ante los distintos términos en cada uno de los buscadores, para posteriormente compararlos:

Google

Yahoo!

Bing

vigilancia tecnologica

2.080.000

3.750.000

315.000

vigilancia tecnológica

615.000

3.490.000

315.000

vigilancia tecnologica”

157.000

925.000

1.810.000

vigilancia tecnológica”

158.000

826.000

1.810.000

Como podemos comprobar, los resultados se demuestran como un tanto dispares dependiendo de cómo acometamos la búsqueda y, sin embargo, completamente falsos y sin poder comprobarlos, porque en general los buscadores no nos dan más allá de los primeros 1000 resultados.

Así pues, porqué no buscar algo más específico, probemos con el libro de Pere Escorsa y Ramón Maspons, “De la Vigilancia Tecnológica y la Inteligencia Competitiva” utilizando la ecuación vigilancia tecnológica escorsa maspons y comprobemos hasta dónde llegamos. Debemos tener en cuenta que llegado a cierto punto, los buscadores nos invitan a realizar las búsquedas de nuevo sin que se eliminen ciertos resultados muy similares que son omitidos automáticamente, pero aún así desde la cantidad inicial que se nos ofrece hasta la real recuperada correspondiente a la última página, los resultados van menguando.

Resultados iniciales

Resultados reales (Última página de resultados)

Resultados sin omisiones

Resultados reales sin omisiones (Última página de resultados)

Google

885

271

876

491

Yahoo!

921

195

921

421

Bing

316

181

No procede

No procede

NOTA: La muestra se realizó el 30 de junio de 2009 en los sitios web:

2 comentarios

¿Es la web social el inicio del declive de Google?

Antes que nada debo puntualizar a que me refiero a Google y su buscador, sobre el que sustenta buena parte de su modelo de negocio y uno de los productos que no va a permitir que se quede obsoleto. Sin embargo, puede suceder que los cambios en los hábitos de los internautas condenen al buscador a cambiar, a buscar alternativas, porque de lo contrario puede encontrarse con que puede estar perdiendo la eficiencia de la que disponía antaño.

El éxito de Google se fundamenta en que entendió cómo funcionaba la Red, comprendió cómo funcionaba su ecosistema de información sustentado sobre enlaces. Cuando el resto de buscadores trataban de realizar un análisis documental de los textos para posicionar sus resultados analizando la densidad de ciertas palabras dentro de los documentos en HTML, Google entendió que lo que realmente había que hacer era analizar los votos que recibía cada documento contando los enlaces que redirigían a él y la manera cómo lo hacían. De esta manera, si una página sobre una temática era más enlazada que el resto, Google consideraba que era ésta la merecedora de aparecer en la primera posición frente a cierta ecuación de búsqueda.

Este razonamiento sencillo, muy pulido mediante su algoritmo, supuso toda una revolución a la hora de recuperar información en la Red. Frente a la descripción del contenido mediante etiquetas (Meta Tags) o el propio texto del documento, Google añadió un elemento más que le otorgaba mayor peso, pasando a pies juntillas de los intentos de establecer estándares para la descripción humana de los contenidos web. Obviamente, el buscador no lo eludió del todo, puesto que el contenido y cómo se dispone todavía es importante para Google, sin embargo el factor determinante pasaría a ser otro y el buscador se convertiría en el rey dentro de esa economía de enlaces.

Tanto es así que actualmente las directrices de Google a la hora de describir y etiquetar enlaces, más o menos opacas, sirven de mandamientos para los webmasters a la vez que los SEO se pelean en un intento de desentrañar el enigma del algoritmo de Google. Sin embargo, puede ser que el buscador se enfrente a un mayor desafío y que puede en un futuro sea vital para la vigencia de su tecnología: Los cambios en la forma que los internautas intercambian información.

Porque no podemos llevarnos a equivocación, la Web 2.0 desarrolló la economía del enlace hasta extremos insospechados. Los blogs, los wikis y los sistemas de filtrado social de información todavía utilizan la forma tradicional de enlazar documentos dentro de la Web, sin embargo los nuevos desarrollos dentro de la Web Social están cambiando las maneras de actuar de los internautas, pudiendo llegar el caso de que tengan un efecto decisivo a la hora de que Google desarrolle su producto y posicione distintos tipos de información por encima de otros.

Debemos tener presente que los hábitos informacionales de los internautas más activos y avezados están cambiando. Hoy en día, se considera que el buscador desarrollado por Twitter es la forma de mantenerse informado y actualizado sobre las nuevas tendencias, sobre los hechos más relevantes, considerado por algunos como incluso más actualizado por Google. Porque hoy en día, se tuitea mucho más rápido que se bloguea, perdiendo perspectiva sí, pero transmitiendo el hecho más que reflexionado sobre él. La blogosfera, aquella masa pensante, se abandona por la inmediatez del telegrama, absorbida por la necesidad de ser el primero buscando la aspiración de los tradicionales medios de comunicación.

Por el camino nos dejamos el tradicional enlace, en Twitter ya no se cita la fuente directamente, sino que se utiliza un intermediario, un acortador de URLs y los problemas derivados de su utilización, para que el telegrama y su posible ampliación quepan en 144 caracteres. Dentro de esto, los SEO se preguntan si realmente Twitter permite posicionar mejor, mientras Google presiona para que los sistemas de microblogging pasen por su rodillo y utilicen el atributo Nofollow, para que sus bots no se pierdan en un marasmo de contenido breve y sin demasiado jugo que extraer.

Mientras tanto existe un reto mucho mayor que se le presenta a Google, un pedazo de la Internet Invisible como lo son las redes sociales. De esta manera, al mismo tiempo que la red social Facebook intenta convertirse en un Twitter ampliado, la información y la recomendación que se daban en una web abierta se desplazan lentamente hacia este sistema. ¿Cuántos enlaces se intercambian dentro de las redes sociales y sus foros inalcanzables para Google? ¿Cuántas recomendaciones se envían? ¿Cuantos enlaces se colocan en los muros y espacios de sus usuarios?

Infinitos, mientras las arañas de Google no pueden franquear ese muro. La privacidad de este tipo de redes sociales manda a la vez que aumentan su tráfico y su volumen, atrapando y fascinando a sus usuarios por partes iguales. De este modo, Google podría encontrarse con que la Red abierta poco a poco languidece, doblegándose por su sencillez de uso y su masa crítica.

Ante esto la pregunta es si las redes sociales son una moda o una tendencia y el impacto que tendrán sobre el futuro y la forma de entender la Web.

9 comentarios

Porqué lo llaman “Nube” cuando quieren decir Internet

La pasada semana, leyendo a un columnista tecnológico bastante popular, me sorprendía cuando utilizaba Nube refiriéndose indudablemente a la Internet de forma genérica. Este comunicador señalaba que una aplicación del iPhone se conectaba a El País para descargarse la información, pero en vez de denominar esta acción como conexión a la Web, lo definía como conexión a la Nube. Ya hemos reflexionado aquí mucho sobre los continuos cambios a la hora de designar las cosas, la creación de nuevos términos y mucho más si se trata en el sector tecnológico. El término Web 2.0 está tan manido que ya se huye de él y precisamente el de Web Social, buscando sustituirlo, tiene una serie de connotaciones que no se ajustan al anterior y algunos sugieren que en realidad el primero engloba al último. De forma bastante similar ha sucedido con los términos multitudes inteligentes o inteligencia colectiva que reinventados como inteligencia de enjambre que no acabó de cuajar, aunque desde luego este último dispone de mi simpatía.

Puede ser que Internet sea uno de los entornos más sujetos a los cambios de tendencias y a la reinvención de las ruedas, como alguien me señaló en cierta ocasión, aunque, todo hay que decirlo, es precisamente uno de los lugares donde la información se mueve a mayor velocidad y donde su intercambio se produce de forma más acelerada. Tal vez por ello, la Web deba estar redenominándose tratando de adaptarse a las nuevas tendencias, al mismo tiempo que urge a la rápida adopción de las mismas para que la máquina no deje de funcionar nunca.

Sin embargo, es justo decir que los nuevos bautizos surgen gracias a los nuevos conceptos y puede que ante el éxito de uno, los nichos de mercado similares lo adopten rápidamente y de forma no distintiva, provocando confusiones y el cruce de fronteras que provocan la confusión más allá de la aclaración de los términos.

Porque, volviendo a mi columnista, en esta ocasión el iPhone se descarga información a través de la Web sin pasar por un navegador, que siempre ha sido la forma más tradicional de conseguirla. No se trata de un RSS, ni de un correo electrónico sino de un software finalista para las alertas informativas, aunque esta idea también la habíamos visto en este mismo sitio web en forma de aplicaciones de escritorio. Por lo tanto, en este caso, la Nube describe un ente abstracto que no hace referencia a los mecanismos tradicionales a la hora de obtener información de la Web, aunque obviamente el proceso es bastante similar.

Es posible que el concepto Nube esté desplazando a la Web (Telaraña en inglés) debido a la rápida penetración de la ubicuidad (se encuentra en todas partes gracias a las conexiones inalámbricas) dentro de nuestra sociedad. Si hace unos años, la Web en el móvil, sí hablo del WAP, parecía una broma comparada con lo que se veía a través de un ordenador y un navegador de escritorio, el iPhone y el desarrollo de navegadores específicos para móviles, por ejemplo el Opera Mini, junto con el desarrollo de redes WiFi están trasladando el concepto de Internet ligado a un ordenador, una mesa y una silla, a casi estar disponible en cualquier dispositivo imaginable.

Pero esta Nube no es más que una reinvención de otro término, el Grid Computing o computación distribuida mediante el cual una serie de ordenadores se conectaban simultáneamente para la realización de cálculos, almacenamiento y procesos de forma coordinada y más barata que si de grandes supercomputadores se tratase. De Grid Computing, pasamos a Cloud Computing, aunque esta vez la necesidad de darle una capa de barniz era más comercial y centralizada y de ahí lo de Nube, mediante el cual una serie de empresas contrataban la capacidad de cálculo de servidores de tercero para el alojamiento o procesamiento de información de tal manera que el coste fuese inferior que disponer de un servidor dedicado propio.

Sin embargo, la metáfora de Cloud o Nube es demasiado romántica para dejarla escapar, así que aprovechando todo el marasmo de aplicaciones destinadas a la Web 2.0, donde el trabajo ya no se realiza en el escritorio de uno sino en la Web y en servidores ajenos, los difusores de los beneficios de la Web 2.0 decidieron quedarse con este término convirtiendo casi todo el trabajo que se realiza en la Web en trabajo que se realiza en la Nube.

Nube porque nuestros documentos (Google Docs o Zoho), correo electrónico (Gmail o Hotmail), fotografías (Flickr o Microsoft Live), vídeos (YouTube o Dalealplay) e incluso marcadores se quedaban en sitios webs, en ordenadores y servidores ajenos a los usuarios, cambiando nuestra forma de trabajar y permitiendo que nuestros trabajos y datos personales los gestionasen otros.

En fin que si la Web es sólo una parte de Internet, aunque utilicemos estos términos casi de forma indistinta, es posible que la Nube pase a ser un sinónimo de la Web a pesar de que sólo se trate de un subconjunto de ella, subconjunto al mismo tiempo de la Web 2.0; pero en realidad no importará en exceso porque la máquina deberá seguir funcionando.

¿Para cuándo la Nube 2.0?

9 comentarios

Las folksonomías en los blogs de Biblioteconomía y Documentación

Las folksonomías, además de convertirse en una de las palabras más odiadas por los internautas, disponen de distintos puntos débiles bien conocidos. Así esta forma de clasificar la información hereda todos los problemas bien conocidos por los documentalistas de los vocabularios no controlados. De esta manera, al utilizar el tagging nos enfrentamos a la ambigüedad, polisemias, sinonimias y falta de control a la hora de describir de forma específica o más general las mismas cosas.

Concretamente, tenemos ambigüedad porque diferentes usuarios aplican términos a las mismas informaciones de forma completamente distinta, polisemia ante la utilización de las mismas palabras para designar objetos o conceptos distintos, sinonimia porque distintas palabras pueden ser utilizadas para definir las mismas cosas y, finalmente, sobre la especificidad de los términos, porque un usuario experto puede definir una información como AJAX o javascript, olvidándose de indicar lenguajes de programación que un usuario no-experto puede utilizar a la hora de recuperar información sobre esta temática.

Además, la utilización del tagging es tan abierta que no otorga una guía de uso a la hora de aplicarlas, cómo deben usarse, la puntuación a utilizar, el orden de las palabras, si se deben usar plurales en vez de singulares, si se deben usar palabras compuestas sobre las simples, si se deben añadir sinónimos, etc.

Recientemente, se han publicado dos textos científicos que hacen referencia al uso que se hace de las folksonomías en los blogs de Biblioteconomía y Documentación a los que os recomendamos echarles un vistazo. En el primero de ellos, Etiquetado libre frente a lenguajes documentales. Aportaciones en el ámbito de Biblioteconomía y Documentación, su autor Luis Rodríguez Yunta realiza una reflexión muy interesante sobre el uso de las folksonomías dentro de distintas herramientas de la denominada Web 2.0 por parte de los profesionales de la información:

Los profesionales de la Documentación han sido tradicionalmente valedores del empleo de lenguajes controlados, por su consistencia en la representación sistemática del análisis documental de contenido y su capacidad para combinar búsquedas genéricas y específicas. Sin embargo, a partir de las herramientas de la web social, el etiquetado también está siendo aplicado por los propios documentalistas y bibliotecarios. Parece oportuno reflexionar sobre este hecho ¿Se trata de una renuncia a valores tradicionales de la disciplina? ¿O es una adaptación a las demandas de nuevas generaciones de usuarios? ¿Hay un cambio de paradigma en la percepción de las herramientas de recuperación?

Por otro lado, en la revista Library & Information Science Research se publica el artículo Librarians and information scientists in the blogosphere: An exploratory analysis en el que se realiza un análisis de las etiquetas más utilizadas en los 30 blogs de Biblioteconomía y Documentación dentro del ámbito anglosajón para determinar los temas que más se abordan dentro de la biblioblogosfera inglesa.

Un comentario

EE UU se dispone a regular a los blogs y el Social Media

No es la primera vez que se realizan intentos para tratar de legislar lo que se publica dentro de la blogosfera o de la Web Social. En su momento, la Unión Europea ya propuso la creación de un registro de blogs, aunque finalmente desechó la idea ante el gran revuelo que supuso aquella idea. Incluso Tim O’Reilly trató de que se estableciese un código de conducta para la blogosfera que fue muy comentado y contestado que finalmente quedó en nada ante la imposibilidad de alcanzar algún tipo de acuerdo. En esta ocasión, la polémica nos llega desde los Estados Unidos donde la FTC (Federal Trade Commission) se plantea comenzar a regular los blogs y el Social Media (Facebook o Twitter) al considerar que estos son, en realidad, más una herramienta de marketing que un medio de comunicación y que promete en acabar de la misma forma que las dos circunstancias señaladas anteriormente. Desde la FTC, se argumenta que se está tratando de actualizar las directrices para la defensa de los consumidores aprobadas hace treinta años, de modo que se ajusten a la realidad actual donde los consumidores acuden cada vez más a la Red para informarse.

Concretamente, el punto de mira de la FTC se centra en aquellos blogs que aceptan la publicación de lo que se denomina posts patrocinados, que son textos donde el bloguer recibe una compensación, en especie o monetaria, por comentar sus experiencias con determinado producto o servicio. Dentro de este tipo de informaciones, existen distintas variantes que van desde la total libertad del bloguer para comentar su experiencia basándose en su opinión personal y otras donde el fabricante especifica las recomendaciones que el bloguer debería de plasmar en el su texto. De este modo, el regulador estadounidense abre la puerta para que las webs dedicadas al Social Media puedan ser denunciadas por los consumidores si publican o alojan informaciones falsas sobre los productos que se reseñen.

Por supuesto que la polémica ha saltado a la blogosfera americana que ya se pregunta si las autoridades estadounidenses comenzarán a considerar a los bloguers como criminales por escribir este tipo de textos o qué harán con el resto de blogs que no se encuentran alojados dentro del territorio de su jurisdicción. En definitiva, la conclusión es que se tiene la impresión de que la FTC está intentando regular estos medios como si se tratase de publicaciones impresas sin contemplar otras consideraciones que obviamente les sobrepasan y que no son posibles de controlar dentro de un mundo interconectado.

5 comentarios