Saltar al contenido →

Etiqueta: Web

Are you buzzing? (1) – Midiendo la relevancia de un dominio en Internet

Buzz es un término de marketing que en su traducción al castellano corresponde a zumbido. El concepto de Buzz Marketing se utilizaría, por tanto, cuando queremos que una idea o un producto se comente mucho, produciendo un ruido de fondo constante. En pocas palabras que algo esté en boca de todos. Dependiendo de los medios utilizados, este Buzz podrá ser más o menos intenso, más o menos prolongado en el tiempo y su traslación a Internet correspondería a que en muchos sitios web se hablase al mismo tiempo sobre lo que queremos vender o promocionar. Sin embargo, como en el mundo real, en Internet existen sitios webs más o menos influyentes, más o menos visitados, más o menos relevantes dependiendo de su público y nuestro objetivo con estos textos es dar algunas herramientas para precisamente evaluar esta importancia relativa. Pero, ¿quién pone la relevancia a un sitio web? ¿Por qué unos sitios son más importantes que otros? ¿Cómo averiguar si un sitio web tiene mucho tráfico o poco?

En España, se utilizan fundamentalmente dos metodologías para la evaluación y comparativa controlada de audiencias en la Red. Una la desarrolla OJD (Oficina de Justificación de la Difusión), mientras que la segunda es Nielsen Ratings, aunque hay que indicar que estas dos oficinas de medición de audiencias se centran en sitios web con mucho tráfico como medios de comunicación, redes de blogs y distintas empresas. Pero, ¿qué sucede con el resto de webs?

Alexa compone un ranking de los sitios web más visitados gracias a los internautas que instalan su barra de herramientas (Toolbar) de forma desinteresada. Obviamente, Alexa recopila información de navegación de las personas que instalan su herramienta por lo que su difusión y uso siempre ha estado cuestionada primero por la privacidad y luego por su implantación en los navegadores, por lo que las cifras aportadas nunca han sido consideradas del todo fiables.

Así pues si no podemos conocer la audiencia real de un sitio web, a no ser que sus estadísticas sean públicas, debemos buscar otros medios para conocer la relevancia de un sitio web como, por ejemplo, el número de enlaces que recibe una página web. Debemos señalar que el primero que trató de categorizar los sitios web según su importancia fue, cómo no, Google y su Pagerank. Obviando otras consideraciones, Google dispuso un sistema democrático según el cual cuantos más enlaces recibiese un sitio web mayor importancia debería disponer a ojos de los internautas. De este modo, estableció un ranking de 0 a 10 mediante el cual categorizó las webs según su relevancia. Por supuesto que, hoy en día, la barrita verde de Google parece tener menos peso que antaño, nuevas variables se conjugan en su algoritmo, sin embargo sigue siendo un referente para muchas personas, incluyendo a los propios webmasters.

Averiguar cuál es el Pagerank de una página web es bastante sencillo (es una información que Google publica) a través de la instalación de la Google Toolbar o utilizando servicios que nos ofrecen distintas páginas web como MiPagerank. Pero el Pagerank es la suma de los distintos Pageranks de los datacenters de Google, es decir, no tiene porqué ser uniforme y nos puede servir de guía para un futuro en nuestro objetivo de ir aumentándolo a lo largo del tiempo. Sin embargo, por distintas razones, Google puede llegar penalizarnos disminuyéndolo siguiendo una serie de criterios, pero en la Red disponemos de otras herramientas para evaluar el posible peso de un sitio web en un momento determinado y, por lo tanto, de un dominio.

Así, por ejemplo, disponemos del Genuine Site Rank donde se nos calcula qué Pagerank deberíamos tener dependiendo de una serie de parámetros, o Web Site Grader donde aportando una serie de palabras clave junto a dominios de nuestra competencia se nos realiza un estudio comparativo de nuestra relevancia respecto a ellos o CuWhois donde se aglutinan una serie de herramientas para la obtención de una serie de estadísticas de nuestro dominio incluyendo el valor monetario que nuestro sitio web, junto el valor que podríamos obtener si quisiéramos vender enlaces desde nuestras páginas. Se tratan, por supuesto, de distintas herramientas SEO que bien pueden ayudarnos a la hora de mejorar el comportamiento de nuestros visitantes unido a los resultados que los buscadores pueden arrojar sobre ellos en un momento determinado.

Comentarios cerrados

«Web 2.0 – El usuario, el nuevo rey de Internet» de Ismael Nafría

Web 2.0Ismael Nafría, subdirector de contenidos de Prisacom, no se contenta con realizar un estado del arte de la Web 2.0, a saber, los consabidos sitios, las acostumbradas definiciones; sino que desea darle un valor añadido a su libro "Web 2.0. El usuario, el nuevo rey de Internet" aportando una perspectiva histórica de cómo nacieron los negocios en Internet, cómo y porqué fracasaron, desde qué punto comienza a evolucionar lo que hoy en día se considera la Web 2.0 y porqué no está condenada a ser una nueva Burbuja 2.0.

De los textos que he tenido la oportunidad de leer relacionados con la Web 2.0 y, anteriormente, relacionados con la blogosfera; éste es de los más amenos y accesibles que he tenido en mis manos. Este periodista nos permite tener una perspectiva global, alejándose de tecnicismos, de cómo las principales empresa de las que hoy hablamos que nacieron en la Red evolucionaron hacia lo que son hoy, junto aquellas que fracasaron y/o fueron fagocitadas por las grandes, pero que caminaron hacia lo que se entiende una nueva forma de hacer las cosas en Internet.

Este nuevo libro sobre la Web 2.0 [ISBN: 978-84-96612-75-4] abre fuego con la consabida portada de la revista Time dedicado al personaje del año 2006 que señalaba directamente a los internautas. Las razones de porqué un ente, un ordenador que abría un vídeo de YouTube, era considerado como representativo del personaje destacado del año; se desgranan en el texto punto a punto, remarcando que fueron los usuarios los que tomaron finalmente el control de Internet, algo que no había sucedido en la Web 1.0, y que había provocado un terremoto en las comunicaciones y en los medios yendo más allá de la circunstancia puntual ante grandes hechos noticiosos como desastres o atentados terroristas.

No hace falta señalar que listados, directorios, de lo más representativo de la Web 2.0 no faltan. Pero Nafría consigue darle un punto de interés más allá de su uso y evolución a lo largo del tiempo, aportando entrevistas con algunos de los desarrolladores de estos lugares que además de aportar su punto de vista particular sobre el fenómeno de la Web 2.0 van más allá señalando algunos consejos para los que empiezan.

Para los ya expertos en los vericuetos de la Web 2.0, puede que los más relevante que vayamos a encontrar sea el desarrollo de la financiación de esta forma de hacer las cosas, de cómo el dinero ha establecido unos flujos de inversión más seguros después de la crisis bursátil de las empresas tecnológicas, pero que decididamente Internet cambiará la publicidad y cómo los seres humanos se comunicarán y recibirán las noticias a partir de ahora. Por supuesto que Nafría no se detiene en el ahora y marcha un poco más allá, ofreciéndonos un último capítulo desentrañando cómo será el futuro, la Web 3.0 que al igual que la anterior está en continuo desarrollo, aunque ésta parece que nunca llega a materializarse.

6 comentarios

La polémica sobre el bloqueo de la publicidad en Internet

Cuando escribimos un texto dedicado al navegador Firefox, indicábamos que utilizábamos un addon, una pequeña aplicación que sirve para ampliar las capacidades y usos de este software, que nos permitía bloquear la publicidad. Esta pequeña aplicación lleva por nombre Adblock Plus y es tan bueno en su cometido que ha comenzando a preocupar a los webmasters de los sitios web, a la par que la popularidad de Firefox va creciendo entre la comunidad internauta.

La publicidad ha sido desde siempre una de las principales vías de ingresos en los medios de comunicación. La Radio, Televisión y Prensa están trufadas de ella y, hoy en día, no podríamos concebir uno de estos medios sin la presencia de ésta. Pero el abuso que se hace, provoca que los anuncios sean considerados por los usuarios como molestos y algo a evitar fundamentalmente en la televisión. La publicidad en televisión tal vez sea la más molesta por la extensión y duración de los bloques comerciales, así como por tratarse del medio más popular, y esto a pesar de la existencia de un código de autorregulación que las televisiones en España deben tratar de cumplir sin mucho éxito hasta ahora. Los bloqueadores de publicidad en televisión existen y se comercializan, al menos en Alemania, aunque, obviamente, no es algo que les guste a las cadenas televisivas.

El problema, o la virtud según se mire, en los sistemas unicanal, como son estos tres medios, es que el usuario no tiene más remedio que soportar este tipo de información para proseguir el consumo de lo que despierta su interés. El consumidor de medios es un agente pasivo en el acto comunicativo y no dispone de gran margen de maniobra a la hora de retroalimentar ese canal. Sobre la publicidad, poco se puede hacer que no se trate el de evitarla o simplemente sintonizar otra emisora. Sin embargo, en Internet, el usuario dispone de una mayor libertad pudiendo elegir y desarrollar técnicas hacia qué quiere consumir y, mucho más importante, cómo lo quiere consumir.

La existencia del citado addon en Firefox es una mera evolución de los bloqueadores de Pop-Ups, que fueron considerados una plaga en la Red, y que Google ayudó a erradicar gracias en parte a su barra de herramientas para el navegador y que, posteriormente, tanto Internet Explorer como Firefox implementaron al poco tiempo. Por supuesto que el buscador desarrolló su propio sistema publicitario mientras fundamentaba su propio modelo de negocio. Se decidió por la publicidad contextual considerándola un método poco intrusivo ya que sólo mostraba publicidad pertinente ajustándose al contenido de la página en la que se colocaba. Esto junto al hecho de que abrió la posibilidad de implementación a pequeños editores, junto a una sencilla gestión, fomentó la creación de una economía dentro de Internet en la que muchos eran los beneficiados.

Sin embargo, la posibilidad de bloqueo de este tipo de publicidad o de otros tipos, no nos llevemos a engaño el planeta Firefox no es el único desde el que disponemos de esta funcionalidad, se vislumbra la erradicación de todo ese ecosistema. El fin de la visión de la publicidad, siendo el contenido el principal activo de las páginas que se visitan, socava el modelo de negocio sobre el que se fundamenta la mayor parte de la Red. En efecto, es difícil, por no decir casi imposible, conocer qué visitante de un sitio web está utilizando un bloqueador de publicidad, por lo que un webmaster decidió no permitir el acceso a los contenidos a aquellos que utilizasen Firefox, derivando a los internautas  a una página web creada con ese fin. Esto supone coartar la capacidad de decisión del usuario, no permitiéndole visionar los contenidos de un sitio por utilizar un determinado navegador. Obviamente, eso significa un riesgo:

  1. Por un lado, el navegante puede entender lo que ha sucedido y puede utilizar otro navegador si realmente le interesa el contenido de la web.

  2. El internauta puede decidir no consultar la página web que le ha bloqueado y no volver.

  3. Puede publicar y publicitar la situación generando un debate.

Fundamentalmente, el debate surgido a partir de entonces gira entorno si es legal o no bloquear la publicidad (Retiario, Baquia o Sigt), pero tal vez lo más grave consista en que se crea justo el efecto contrario, ya que la comunidad de internauta comienza a considerar si Firefox debería implementar el addon de serie. Desde el punto de vista del webmaster, el bloqueo indiscriminado de usuarios de Firefox sólo crea un problema: Pierdes audiencia. En Internet, la oferta informativa es ingente y abrumadora, no es suficiente con el nombre y el prestigio, los propios medios de comunicación se percataron de ello cuando saltaron a la Red.

En un principio, se parapetaron bajo su Cabecera, considerando que su marca, les garantizaría un flujo constante de audiencia e ingresos mediante modelos de suscripción. Obviamente fracasaron. Los periódicos españoles El Mundo y El País decidieron utilizar modelos distintos, El País confió en las suscripciones, no permitiendo a los no suscritos acceder a sus contenidos. El resultado fue que los usuarios acudían al diario El Mundo que sí disponía de contenidos en abierto, mientras que El País  sólo conseguía 30.000 suscripciones, por lo que tuvo que dar marcha atrás abriendo sus contenidos. La última noticia respecto a la accesibilidad de los contenidos de los medios periodísticos, y muy celebrada, es que The New York Times abría todos sus contenidos de pago, incluyendo su fondo centenario a cualquier internauta, aprovechando así los ingresos que la larga cola que le podría otorgar.

La prohibición a un internauta de visionar contenido de un sitio web porque ha elegido utilizar un navegador, sólo provoca que éste considere en no volver, a la vez que puede animar a otros a que no lo hagan. Considero que el bloqueo de usuarios no parece ser la solución más adecuada, perdemos audiencia y popularidad. La censura a nuestros visitantes sólo puede provocar el efecto contrario y llamarles ladrones por utilizar algo a su elección tampoco es excesivamente inteligente.

Puede que al contrario que la televisión, el visionado de publicidad se convierta en un pacto de concordia entre el internauta y el dueño de los contenidos de un sitio web.

Un comentario

La visión de la web semántica de Tim Berners-Lee

Los ordenadores no pueden «entender» la información en la forma que lo hace la gente. La Web Semántica no tiene que ver con «entender» los datos, sino con ponerlos en la Web para que estén accesibles y podamos utilizarlos. Hay una enorme cantidad de información allí, y es por eso que algunos hablan de una Web de datos o «Web profunda», que no es realmente accesible porque sólo podemos sondearla a través de los sitios web que tienen bases de datos detrás. Los documentos, los resúmenes bancarios, los rollos de películas, también son archivos de datos. De modo que la Web Semántica tiene que ver con subir información a la Web, y con que la información pueda exponerse de la Web profunda pueda exponerse mediante un lenguaje. Nosotros tenemos el Marco de Descripción de Recursos (RDF), como lenguaje de datos, y hemos desarrollado un lenguaje de consulta llamado “Sparql ”.

En términos de compartir datos e imitar la asociación de ideas humanas mediante el enlace de información, la World Wide Web se construye sobre las ideas y el trabajo de pioneros como Vannevar Bush y Doug Engelbart. La Web de hipertexto nos brinda un espacio de información común, global, a sólo un clic. La Web Semántica da un paso más y, además de brindar una trama de datos, permite que la máquina analice el contenido de los datos RDF.

POWELL, Sarah. Cuestión semántica En: HSM Management, V.1 Nº 5, sept-oct 2007. P.86

Comentarios cerrados

La Larga Cola (Long Tail) está llena de basura

La Larga Cola (The Long Tail) es un concepto acuñado por Chris Anderson, editor de la revista Wired, basado en las conocidas distribuciones estadísticas como, por ejemplo, la de Pareto o la ley de Zipf. En el artículo The Long Tail, publicado en Wired octubre de 2004, Anderson afirmaba, tras el análisis de datos y tendencias en los comercios digitales, que Internet y el entorno digital han cambiado las leyes de distribución y las reglas del mercado. La reducción en el coste de almacenamiento y distribución que permiten las nuevas tecnologías, hace que no sea ya necesario focalizar el negocio en unos pocos productos de éxito, en los superventas. Por lo tanto, proseguía, ahora existen dos mercados: uno centrado en el alto rendimiento de pocos productos y otro, nuevo y todavía no familiar, basado en la suma o acumulación de todas las pequeñas ventas de muchos productos, que puede igualar o superar al primero. Son el antiguo mercado de masas y el nuevo nicho de mercados, representados por la cabeza y la cola de la conocida gráfica de distribución estadística.

[…] Hace una década, la gente se quejaba de que había demasiada basura en Internet y, en efecto, una navegación al azar rápidamente lo confirmaba. Luego llegaron los motores de búsqueda para permitir que algunas señales sobresalieran del ruido, y por fin llegó Google, que utilizaba la inteligencia colectiva y ha convertido una masa incoherente en lo más parecido a un oráculo.

Esto no es exclusivo de la web, ocurre en todas partes. La ley de Sturgeon (llamada así por el autor de ciencia ficción Theodor Sturgeon) establece que "el 90 por ciento de cualquier cosa es basura". Pensemos en el arte, no desde la perspectiva de una galería sino de un mercadillo. El 90 por ciento (por lo menos) es basura. Y lo mismo se puede decir de la música, de los libros y de todo lo demás. El motivo por el cual no lo vemos así es porque la mayoría de esos bienes son filtrados por el cedazo de la distribución comercial minorista.

3 comentarios

Fesabid 2007: ¿Fractura 2.0?

Fesabid 2007No sé si soy yo, pero repasando los textos que ya redactamos de nuestra experiencia en el Fesabid anterior, parece que lo que ya dijimos entonces podría ser perfectamente trasladado a lo que ha sucedido en éste. No vamos a negar que este congreso empezó con gafe, con una polémica sobre la conveniencia o no de abrir un blog para estas jornadas, pero lo que fue bastante evidente teniendo en cuenta el programa era que se iba a hablar y mucho de la Web 2.0 y la Biblioteca 2.0 y lo previsible sucedió.

Puede ser que tengamos que rendirnos a la evidencia de que el efecto Buzz funciona a la perfección, por lo que había mucho interés entre los profesionales de la información por saber lo que es la Web social y su impacto en las bibliotecas y centros de documentación, pero lo que se había planificado para aquellos tres días daba para eso y mucho más.

Porque las Jornadas del Fesabid 2007 iniciaban su primer día fuerte con una mesa redonda sobre el futuro de los buscadores, que obviamente iba a estar impregnada por la nueva forma de generar información en Internet gracias al nuevo concepto derivado de los wikis y las bitácoras, y además a medio acto se inauguraba la mesa redonda de los blogs y la biblioteca 2.0 de la que fui partícipe y ya dimos merecida cuenta. Pero lo que no se puede negar es que, posteriormente, aquellos que llenaron aquella sala, llenaron las siguientes, es decir, las mismas personas que presenciaron la mesa de blogs, también estuvieron presentes, y de qué manera, en la siguiente mesa rendonda que portaba el título de Biblioteca 2.0: ¿el futuro de los OPACs? Eso sí, no se calculó bien el interés que despierta esta nueva concepción de la Red y las salas se convirtieron en una suerte de saunas que torturaron en buena medida a los que se encontraban sentados en las sillas, pasillos o huecos disponibles de las abigarradas habitaciones.

Una impresión general que todavía me impregna es que según iban desgranándose poco a poco los contenidos de aquel congreso, nos encontrábamos frente a dos corrientes diferenciadas, como si se estuviesen sucediendo tres congresos a la vez de una forma simultánea, como si las distintas corrientes en la Biblioteconomía y Documentación actual, se hubiesen puesto de acuerdo en concentrarse en un único punto, pero nada más, como si no quisiesen verse a pesar de ser perfectamente conscientes las unas de las otras.

8 comentarios

Hay, entre todas tus memorias, una que se ha perdido irreparablemente

Recuerdo perfectamente que, cuando era niño, a mis hermanas y a mí nos encantaba grabar nuestras voces a modo de juego para inmediatamente después oírnos y echar unas risas. Como sabéis, los juegos de niños no están planificados, son espontáneos y caóticos por lo que aquella cinta, curiosamente sólo jugábamos con una y sólo con esa, disponía de distintos cortes apilados uno tras otro que nunca llegaban a estar completos, pero que escuchados ahora los consideraría maravillosos.

Aquellas vocecitas, que no reconoceríamos como propias, se han perdido irreparablemente; primero porque no sé dónde se halla la cinta y segundo porque no sabría cómo volcar aquella información a un formato más manejable en el siglo XXI. Es obvio que la digitalización del audio sería una de las principales opciones, aunque debo de aclararos que primero debería hallar el documento original, la cinta de cassette.

Es cierto, es una torpeza mía, sí, pero a veces los documentos antiguos se dejan en un cajón a esperar mejores tiempos y de tanto esperar se acaban extraviando. Me sucedió a mí, un documentalista despistado, y le sucedió de una forma más pecaminosa a la NASA cuando admitió que las cintas del primer alunizaje se habían perdido, aunque ante tal revuelo finalmente algunas se encontraron. En cualquier caso, tampoco deberían sorprendernos estos desaguisados de la NASA, si son capaces de enviar a sus astronautas al espacio con tecnología de los años 80, mientras se vuelven locos para localizar esa tecnología obsoleta para poder seguir haciéndolo.

Comentarios cerrados