Saltar al contenido →

Etiqueta: Redes Sociales

Algunas serpientes de verano que no te quisieras perder (2009)

Este año sí, he conseguido mantenerme más o menos conectado al Mundo Real™ dejando a un lado los quehaceres de mi actividad de “documentalista enredado”. Sin embargo, como bien sabemos todos, el mundo sigue girando aunque nos ausentemos brevemente de él, así que, como ejercicio de reentré, os dejo algunas noticias aparecidas durante las últimas tres semanas que no me hubiese querido perder en este periodo vacacional.

Agosto, el mes por excelencia de playa y descanso, el mes de la aparición de bibliobuses y las bibliopiscinas en los medios de comunicación como bien nos recordaba el diario Levante-EMV el pasado día 16, así como el aumento de la afluencia de estudiantes a las instalaciones bibliotecarias ante la proximidad de los exámenes de septiembre.

Y es que los bibliotecarios no han permanecido precisamente ociosos durante este mes de agosto. En un acto de marketing viral, se dispusieron a ejecutar un Twitter Bombing para posicionar la palabra #biblioteca en Twitter. La campaña funcionó a medias a pesar de las muchas manos dispuestas y de que, según nos consta, algún bibliotecario se apresuró a darse de alta en el sistema para poder posicionar la palabra en las primeras posiciones. Lara Rey recogió las principales impresiones de los bloguers, así cómo se gestó la propuesta que, aunque no alcanzó el objetivo trazado en un principio principalmente por tratarse de un mes tan difícil para encontrar una buena cantidad de twitteros enfrente de sus ordenadores, da para la reflexión.

Situándonos ya fuera del ámbito bibliotecario, Twitter también se situó en las primeras planas debido a que permaneció caído durante dos horas tras un ataque informático. El infierno pareció congelarse durante durante dos horas, las suficientes para que se replantease el debate de la seguridad en la Nube en un mes en que la actualidad tecnológica no es que sea precisamente efervescente, aunque no deje de ser interesante. Como lo es, el hecho de que las grandes compañías tecnológicas se alíen para realizar un frente común contra Google y su macroproyecto de digitalización de libros, que no deja de añadir nuevas Bibliotecas como la Nacional Francesa, y que merecerá un ejercicio de reflexión por nuestra parte en breve.

Por otra parte, señalaros los artículos dedicados a la reputación on-line del diario Cinco Días. El primero de ellos referente a la red social Facebook, mientras que el otro de forma más genérica a la Web 2.0 y las Redes Sociales y los usos que hacemos de ellas.

Para finalizar, el paso adelante que ha dado Rupert Murdoch hacia el pago de los contenidos de los medios de comunicación que conforman su empresa News Corp., que está siendo seguido con especial atención por el resto de empresas informativas y que puede convertirse en una realidad en un futuro no muy lejano.

Parece que agosto tampoco parece ser un mes para permanecer completamente desconectado, después de todo.

Comentarios cerrados

¿Está bajando la audiencia en la Web? Los datos según Google Trends

Trasteando un poco con Google Adplanner, la plataforma diseñada por Google similar a Google Trends para la gestión de la publicidad en la Web, es decir para los usuarios de Adwords; recibo la bienvenida con un gráfico referido al volumen de tráfico que está soportando el dominio Wikipedia.org. En un principio, no le doy excesiva importancia porque, al fin y al cabo, quién puede poner anuncios en la Wikipedia (Nadie de momento porque la Wikipedia no admite publicidad), hasta que me percato que el gráfico tiene un dibujo con una tendencia claramente descente. Actualmente, en Google Adplanner se muestra de la siguiente manera:

Según los datos de Google, o sus estimaciones, el volumen del tráfico soportado por la Wikipedia es descendente desde principios del 2008, lo que me conduce a preguntarme si esto también está sucediendo en el resto de los sitios webs más populares y de esta manera convirtiéndose en una tendencia. Así pues, decido realizar unas cuantas comparativas sirviéndome de Google Trends. Siguiendo el OJD (Oficina de Justificación de la Difusión) trato de trazar una gráfica con tres de los medios de comunicación de ámbito español más populares en la Red, aunque para el trazado de gráficos significativos y legibles debo separar algunos de ellos y agruparlos.


El resultado es bastante interesante puesto que, en general, podríamos afirmar que en todos los casos las páginas web de los medios de comunicación están perdiendo tráfico salvo un repunte en las últimas semanas. Pero, ¿cuál sería el resultado si utilizásemos algunos blogs tecnológicos más populares en España? ¿También se encontrarían perdiendo tráfico?


La tendencia como se puede comprobar es la misma que en los sitios web de los medios de comunicación. Lo que me lleva a considerar que o los gráficos y los datos están mal o realmente la audiencia dentro de la Web se está reduciendo. Pero, si la Web está perdiendo visitantes, ¿dónde podrían estar actualmente los internautas? ¿Dónde pasan actualmente su tiempo? Puede que este gráfico nos pueda despejar las dudas.

Nota: Gráficos generados el 4 de julio de 2009 a través de la herramienta Google Trends con los datos correspondientes a la opción Websites, al ámbito geográfico Spain y temporal All years.

7 comentarios

¿Es la web social el inicio del declive de Google?

Antes que nada debo puntualizar a que me refiero a Google y su buscador, sobre el que sustenta buena parte de su modelo de negocio y uno de los productos que no va a permitir que se quede obsoleto. Sin embargo, puede suceder que los cambios en los hábitos de los internautas condenen al buscador a cambiar, a buscar alternativas, porque de lo contrario puede encontrarse con que puede estar perdiendo la eficiencia de la que disponía antaño.

El éxito de Google se fundamenta en que entendió cómo funcionaba la Red, comprendió cómo funcionaba su ecosistema de información sustentado sobre enlaces. Cuando el resto de buscadores trataban de realizar un análisis documental de los textos para posicionar sus resultados analizando la densidad de ciertas palabras dentro de los documentos en HTML, Google entendió que lo que realmente había que hacer era analizar los votos que recibía cada documento contando los enlaces que redirigían a él y la manera cómo lo hacían. De esta manera, si una página sobre una temática era más enlazada que el resto, Google consideraba que era ésta la merecedora de aparecer en la primera posición frente a cierta ecuación de búsqueda.

Este razonamiento sencillo, muy pulido mediante su algoritmo, supuso toda una revolución a la hora de recuperar información en la Red. Frente a la descripción del contenido mediante etiquetas (Meta Tags) o el propio texto del documento, Google añadió un elemento más que le otorgaba mayor peso, pasando a pies juntillas de los intentos de establecer estándares para la descripción humana de los contenidos web. Obviamente, el buscador no lo eludió del todo, puesto que el contenido y cómo se dispone todavía es importante para Google, sin embargo el factor determinante pasaría a ser otro y el buscador se convertiría en el rey dentro de esa economía de enlaces.

Tanto es así que actualmente las directrices de Google a la hora de describir y etiquetar enlaces, más o menos opacas, sirven de mandamientos para los webmasters a la vez que los SEO se pelean en un intento de desentrañar el enigma del algoritmo de Google. Sin embargo, puede ser que el buscador se enfrente a un mayor desafío y que puede en un futuro sea vital para la vigencia de su tecnología: Los cambios en la forma que los internautas intercambian información.

Porque no podemos llevarnos a equivocación, la Web 2.0 desarrolló la economía del enlace hasta extremos insospechados. Los blogs, los wikis y los sistemas de filtrado social de información todavía utilizan la forma tradicional de enlazar documentos dentro de la Web, sin embargo los nuevos desarrollos dentro de la Web Social están cambiando las maneras de actuar de los internautas, pudiendo llegar el caso de que tengan un efecto decisivo a la hora de que Google desarrolle su producto y posicione distintos tipos de información por encima de otros.

Debemos tener presente que los hábitos informacionales de los internautas más activos y avezados están cambiando. Hoy en día, se considera que el buscador desarrollado por Twitter es la forma de mantenerse informado y actualizado sobre las nuevas tendencias, sobre los hechos más relevantes, considerado por algunos como incluso más actualizado por Google. Porque hoy en día, se tuitea mucho más rápido que se bloguea, perdiendo perspectiva sí, pero transmitiendo el hecho más que reflexionado sobre él. La blogosfera, aquella masa pensante, se abandona por la inmediatez del telegrama, absorbida por la necesidad de ser el primero buscando la aspiración de los tradicionales medios de comunicación.

Por el camino nos dejamos el tradicional enlace, en Twitter ya no se cita la fuente directamente, sino que se utiliza un intermediario, un acortador de URLs y los problemas derivados de su utilización, para que el telegrama y su posible ampliación quepan en 144 caracteres. Dentro de esto, los SEO se preguntan si realmente Twitter permite posicionar mejor, mientras Google presiona para que los sistemas de microblogging pasen por su rodillo y utilicen el atributo Nofollow, para que sus bots no se pierdan en un marasmo de contenido breve y sin demasiado jugo que extraer.

Mientras tanto existe un reto mucho mayor que se le presenta a Google, un pedazo de la Internet Invisible como lo son las redes sociales. De esta manera, al mismo tiempo que la red social Facebook intenta convertirse en un Twitter ampliado, la información y la recomendación que se daban en una web abierta se desplazan lentamente hacia este sistema. ¿Cuántos enlaces se intercambian dentro de las redes sociales y sus foros inalcanzables para Google? ¿Cuántas recomendaciones se envían? ¿Cuantos enlaces se colocan en los muros y espacios de sus usuarios?

Infinitos, mientras las arañas de Google no pueden franquear ese muro. La privacidad de este tipo de redes sociales manda a la vez que aumentan su tráfico y su volumen, atrapando y fascinando a sus usuarios por partes iguales. De este modo, Google podría encontrarse con que la Red abierta poco a poco languidece, doblegándose por su sencillez de uso y su masa crítica.

Ante esto la pregunta es si las redes sociales son una moda o una tendencia y el impacto que tendrán sobre el futuro y la forma de entender la Web.

9 comentarios

EE UU se dispone a regular a los blogs y el Social Media

No es la primera vez que se realizan intentos para tratar de legislar lo que se publica dentro de la blogosfera o de la Web Social. En su momento, la Unión Europea ya propuso la creación de un registro de blogs, aunque finalmente desechó la idea ante el gran revuelo que supuso aquella idea. Incluso Tim O’Reilly trató de que se estableciese un código de conducta para la blogosfera que fue muy comentado y contestado que finalmente quedó en nada ante la imposibilidad de alcanzar algún tipo de acuerdo. En esta ocasión, la polémica nos llega desde los Estados Unidos donde la FTC (Federal Trade Commission) se plantea comenzar a regular los blogs y el Social Media (Facebook o Twitter) al considerar que estos son, en realidad, más una herramienta de marketing que un medio de comunicación y que promete en acabar de la misma forma que las dos circunstancias señaladas anteriormente. Desde la FTC, se argumenta que se está tratando de actualizar las directrices para la defensa de los consumidores aprobadas hace treinta años, de modo que se ajusten a la realidad actual donde los consumidores acuden cada vez más a la Red para informarse.

Concretamente, el punto de mira de la FTC se centra en aquellos blogs que aceptan la publicación de lo que se denomina posts patrocinados, que son textos donde el bloguer recibe una compensación, en especie o monetaria, por comentar sus experiencias con determinado producto o servicio. Dentro de este tipo de informaciones, existen distintas variantes que van desde la total libertad del bloguer para comentar su experiencia basándose en su opinión personal y otras donde el fabricante especifica las recomendaciones que el bloguer debería de plasmar en el su texto. De este modo, el regulador estadounidense abre la puerta para que las webs dedicadas al Social Media puedan ser denunciadas por los consumidores si publican o alojan informaciones falsas sobre los productos que se reseñen.

Por supuesto que la polémica ha saltado a la blogosfera americana que ya se pregunta si las autoridades estadounidenses comenzarán a considerar a los bloguers como criminales por escribir este tipo de textos o qué harán con el resto de blogs que no se encuentran alojados dentro del territorio de su jurisdicción. En definitiva, la conclusión es que se tiene la impresión de que la FTC está intentando regular estos medios como si se tratase de publicaciones impresas sin contemplar otras consideraciones que obviamente les sobrepasan y que no son posibles de controlar dentro de un mundo interconectado.

5 comentarios

Las cuatro leyes matemáticas de las Redes Sociales

[…] En la economía de las redes sociales a través del ordenador, [se] han formulado cuatro leyes de crecimiento matemáticas fundamentales: la ley de Sarnoff, la ley de Moore, la ley de Metcalfe y la ley de Reed. Todas ellas tratan sobre la influencia del desarrollo tecnológico en el valor.

La ley de Sarnoff surgió a partir del desarrollo de las redes radiofónicas y televisivas a comienzos del siglo XX, redes en las que una fuente central mide desde un pequeño número de emisoras a un gran número de receptores. David Sarnoff […] concluyó lo más evidente: el valor de las redes de difusión es proporcional al número de espectadores.

La tan manida ley de Moore es el motivo por el que la miniaturización electrónica ha impulsado la hiperevolución de la electrónica, los ordenadores y las redes. […] La previsión de Moore era que el número de elementos [transistores que pueden introducirse dentro de un circuito integrado] se duplicaría cada dieciocho meses en el futuro. […] Sin las eficiencias descritas por la ley de Moore, el PC, Internet y los teléfonos móviles serían excesivamente grandes, caros y poco inteligentes. […]

Metcalfe […] formuló la ley que lleva su nombre que describe el crecimiento de valor en las redes. El principio es sencillo y se basa en una propiedad matemática fundamental de las redes: el número potencial de conexiones entre nodos crece más rápidamente que el número de nodos. El valor total de una red en la que cada nodo puede conectarse con todos los demás equivale al cuadrado del número de nodos. Si hay dos nodos, cada uno con un valor de una unidad, el valor de la unión de ambos nodos es de cuatro unidades. Cuatro nodos interconectados, cada uno con valor de una unidad, equivalen a dieciséis unidades cuando se ponen en red, y cien nodos equivalen a cien veces cien, es decir, diez mil. Cuando el valor crece exponencialmente con respecto al número de nodos, la consecuencia matemática se traduce en impulso económico: la conexión de dos redes crea mucho más valor que la suma de sus valores respectivos como redes independientes. […]

La ley de Reed demuestra que el valor de la red (una red informática junto a la comunicación humana) no crece en proporción al cuadrado de los usuarios, sino exponencialmente. Esto significa que la fórmula es dos elevado a la potencia del número de nodos, en lugar de elevar este número al cuadrado. El valor de dos nodos es cuatro según ambas leyes, pero el valor de diez nodos es cien (diez elevado al cuadrado) en la ley de Metcalfe y 1024 (dos elevado a diez) en la ley de Reed. […] Esto explica que las redes sociales, creadas por correo electrónico y otras comunicaciones sociales, hayan expandido el crecimiento de la red más allá de las comunidades de ingenieros, hasta el punto de incluir toda clase de grupos de interés. La ley de Reed es el enlace entre las redes informáticas y las redes sociales.

RHEINGOLD, Howard. Multitudes inteligentes. La próxima revolución social. Barcelona: Gedisa, 2004. pp. 85 – 87

2 comentarios

En tiempos de crisis, crecen los agujeros negros en la Web 2.0

Una de las principales críticas que siempre se han realizado a los medios de comunicación que se desplazaron a la Web desde sus productos impresos consistía en que tendían a no realizar enlaces. De hecho, siguen mostrándose incómodos a la hora de hacerlo, temiendo quizás que los lectores se marchasen al encontrar un sitio web mucho más rico, reduciendo su permanencia en su sitio web. No cabe duda de que las noticias de los medios son las que más enlacen reciben desde los distintos servicios de la Web 2.0, ya se trate desde los blogs, marcadores sociales o desde sistemas de filtrado social de noticias, por lo que contemplar a estas webs como agujeros negros (Webs que reciben muchos enlaces pero que no realizan ninguno) estaba más que justificado.

Los internatuas siempre se han mostrado un tanto molestos con estas prácticas, sobre todo si se trata de una noticia que necesita de ampliación de información citando la fuente original (Por ejemplo un informe o un estudio), sin embargo en tiempos de crisis los webmasters también están descubriendo que la economía de las webs y los enlaces recíprocos que Google contribuyó a construir se está comenzando a resquebrajar lentamente. The Guardian advertía a principios de 2007 que la Wikipedia se estaba convirtiendo en un agujero negro al incluir dentro de sus enlaces externos el atributo nofollow, con este atributo Google no cuenta el enlace realizado hacia una página web externa en términos de posicionamiento. Por otro lado, recientemente, Twitter ha implementado este atributo en los enlaces que se hagan dentro de ella convirtiéndose a su vez en otro agujero, aunque en este caso parece que Google sugirió que se realizase este cambio a pesar de que no se sabe a ciencia cierta qué sucederá en el posicionamiento de los resultados de esta herramienta de microblogging en un futuro.

Pero aún hay más. Otros dos estandartes de la Web actual, la red social Facebook y el sistema de filtrado social de información más popular en Estados Unidos Digg han decido poner en implementar lo que se denomina iFrame que consiste en la utilización de marcos que engloban los contenidos de otras webs. Es decir, si un usuario hace clic en un enlace externo dentro de estas dos webs, el usuario será redireccionado hacia una página con una barra superior que puede llegar confundir al usuario respecto la autoría y el origen de la información que está visualizando (Os dejo, un ejemplo). De esta manera, también se persigue que el usuario permanezca mucho más tiempo dentro de Digg y que no se marche.

Esto es muy similar a lo buscado en un principio por los medios de comunicación, aunque dándole obviamente una vuelta de tuerca y creando una gran controversia dentro de la Web sobre este movimiento de Digg. Por otra parte, y para mayor escarnio de los webmasters, Digg ha implementado un acortador de URLs de tal manera que no muestra los enlaces hacia las páginas webs promocionadas dentro de su sitio, convirtiéndose además en otro agujero negro.

Comentarios cerrados

Facebook mete la pata por enésima vez con la privacidad de sus usuarios

Los medios de comunicación han transmitido la reculación de Facebook como una batalla ganada por los usuarios, pero ¿es que nunca vamos a aprender que los mercados son conversaciones? ¿Dónde quedan las cacareadas La Conversación o la Inteligencia Colectiva? ¿No debería Facebook precisamente por tratarse de una Red Social, por ser una empresa nacida por y para Internet, contemplar todos estos aspectos antes de empantanarse en el cambio unilateral de las Condiciones de uso de su sitio web? ¿No deberían aceptar los usuarios esas modificaciones como un nuevo contrato a firmar? En cualquier caso, no deberíamos cometer el error de caer en la sorpresa por este desliz acometido por Mark Zuckerberg, porque desde luego no hay dos sin tres.

En esta ocasión, Facebook realizaba una pequeña modificación en el contrato de las Condiciones de uso, según el cual la Red Social se reservaba el uso de todos los materiales (incluyendo la identidad) que un usuario pudiese subir o utilizar dentro de su web, aunque esto ya lo hacía antes del escándalo, incluso si el usuario se daba de baja. El blog Consumerist daba la voz de alarma en el texto Las nuevas condiciones de uso de Facebook: “Podemos hacer lo que queramos con tu contenido para siempre” – Facebook’s New Terms Of Service: «We Can Do Anything We Want With Your Content. Forever.» Y la reacción no se hizo esperar sobrepasando a la empresa de tal manera que sus directivos han constituido un grupo llamado Declaración de Derechos y Deberes de Facebook mediante el cual los usuarios pueden aportar ideas para una nueva propuesta, más respetuosa con la información personal de los internautas. Es decir, los responsables de la empresa se retractan pero seguirán intentando “jugar”, si se quiere esta expresión, con la información con la que les estamos alimentando continuamente.

Pero este gran error, se conjuga con otros de igual o peor calado en la búsqueda de rentabilización de la ingente cantidad de información que está recogiendo y gestiona de sus usuarios y que es muy reticente a borrar de sus bases de datos. De hecho, hace aproximadamente un año, se descubrió que no había manera de darse de baja de forma definitiva de Facebook (Con el borrado de los datos que esto supone), sino que sólo podías desactivar la cuenta. La empresa se defendió arguyendo que no se borraban los datos por si en algún momento el usuario cambiaba de opinión y quería retornar a la Red Social, argumento que curiosamente también ha desempolvado en esta ocasión asegurando que los datos permanecían en la Red para que los amigos que todavía permanecían dentro de ella pudiesen recuperar los elementos textuales y audiovisuales que hubiesen dejado en ella. Por supuesto que, desde Facebook, tuvieron que desandar el camino y aceptar que los usuarios pudiesen darse de baja de forma completa y definitiva cuando ellos deseasen.

De forma previa a esta polémica, la empresa lanzó Facebook Beacon, un sistema que se intercambiaba información de usos y comportamientos de los usuarios de Facebook a otras empresas de tal manera que éstas pudiesen realizar campañas de marketing dentro de ella. Así, por ejemplo, se dio el caso de una usuaria que adquirió una cafetera a través de una web y Facebook informó a todos sus contactos de la compra, así como dónde la había comprado. Obviamente, no existió consentimiento por parte de la usuaria ni de, primero, que la web compartiese información con Facebook, ni que posteriormente esta información se redistribuyese con los contactos, lo que provoca un serio conflicto entre la privacidad y el control de la información que diseminamos dentro de esta Red Social sobre la que Facebook parece insistir en esta ocasión.

2 comentarios