Saltar al contenido →

Categoría: Buscadores Web

Google, el medio de comunicación del siglo XXI (1) – Formas de visitar una web

Una de las cosas que más nos gustan a los editores de páginas web, imagino que para eso nos pagan -aunque aquí eso está mal visto-, es comprobar cuántas visitas conseguimos generar a lo largo del día. Nos gusta conocer de dónde provienen nuestros lectores, por dónde se entretienen dentro de nuestras webs, cuánto tiempo permanecen, las rutas que siguen, etc. Esto, a un nivel profesional, se le denomina Web Analytics y, a pesar de que en nuestro caso sólo sirve para hinchar el orgullo, es un asunto muy serio que se tiene en cuenta dentro de la mayoría de las organizaciones que se dedican a la generación de contenidos para la Web. Fundamentalmente, las visitas hacia un sitio web se generan a través de cinco fuentes:

  • Introduciendo la dirección web de memoria en la barra de direcciones de un navegador web. Respecto a esto un apunte breve, últimamente se está detectando que los internautas utilizan cada vez los cuadros de texto de los buscadores como meras barras de direcciones, es decir, que introducen las URL en ellas para hacer dos veces clic o simplemente escriben la denominación del sitio web que quieren visitar. Es decir, la barra de direcciones de los navegadores parece estar cayendo en desuso.
  • Mediante un marcador (o bookmark) a través de las opciones para la gestión de estos que ofrecen los propios navegadores o, recientemente, sitios web que tienen este fin como del.icio.us.
  • Mediante un enlace. Sencillamente, un editor de un sitio web, sea el que sea, considera relevante lo que hemos señalado en cierto momento o, mejor, nos recomienda la visita por los contenidos que albergamos. Es decir, nos da un voto recomendándonos como fuente de información sobre cualquier temática y deriva la atención de sus lectores hacia nuestra web.
  • La sindicación de contenidos. La última en llegar y tal vez la más interesante puesto que aporta un valor añadido respecto a los marcadores para los editores web. Gracias a ellos, podemos llegar a saber qué audiencia tenemos y detectar qué contenidos son los más interesantes para nuestros lectores, así como poder seguir las tendencias de interés que despierta nuestro sitio web.
  • Un buscador. Obviamente, la búsqueda es una de las actividades preferidas de los internautas y, por lo tanto, una de las fuentes de tráfico más importantes de las que disponemos, aunque uno de los objetivos de todo webmaster es depender cada vez menos de los buscadores por razones de dependencia.

La más poderosa, en cuanto a tráfico e influencia, sin duda alguna la última; las que crean marca las cuatro primeras. Obviamente, todas se encuentran interrelacionadas y son dependientes. Las cuatro primeras buscan la fidelización del usuario, es decir, que nos busquen como generadores de contenidos y sitios web de referencia, mientras que la última, a pesar de que pueda parecer residual, es la que nos obliga a hacer algo más en la Red, a ir un paso más allá a la hora de crear los contenidos y preocuparnos por posicionarnos para que los buscadores sean los que nos coloquen más arriba, que nos promocionen y nos hagan publicidad. En definitiva que nos envíen el tráfico, porque no todo es hacer marca en la Web.

Los medios de comunicación descubrieron tarde que la cabecera, su marca, no es vital en la Red, que sus modelos de suscripción, sus modelos cerrados fracasaban estrepitosamente dentro de ella. Teniendo presente que la distancia de la competencia más inmediata se encuentra a tan sólo un clic, en Internet, se da la competencia pura y perfecta y los medios deben doblegarse precisamente ante alguien que no era productor de contenidos sino conductor de audiencias: Google.

Un comentario

Are you buzzing? (1) – Midiendo la relevancia de un dominio en Internet

Buzz es un término de marketing que en su traducción al castellano corresponde a zumbido. El concepto de Buzz Marketing se utilizaría, por tanto, cuando queremos que una idea o un producto se comente mucho, produciendo un ruido de fondo constante. En pocas palabras que algo esté en boca de todos. Dependiendo de los medios utilizados, este Buzz podrá ser más o menos intenso, más o menos prolongado en el tiempo y su traslación a Internet correspondería a que en muchos sitios web se hablase al mismo tiempo sobre lo que queremos vender o promocionar. Sin embargo, como en el mundo real, en Internet existen sitios webs más o menos influyentes, más o menos visitados, más o menos relevantes dependiendo de su público y nuestro objetivo con estos textos es dar algunas herramientas para precisamente evaluar esta importancia relativa. Pero, ¿quién pone la relevancia a un sitio web? ¿Por qué unos sitios son más importantes que otros? ¿Cómo averiguar si un sitio web tiene mucho tráfico o poco?

En España, se utilizan fundamentalmente dos metodologías para la evaluación y comparativa controlada de audiencias en la Red. Una la desarrolla OJD (Oficina de Justificación de la Difusión), mientras que la segunda es Nielsen Ratings, aunque hay que indicar que estas dos oficinas de medición de audiencias se centran en sitios web con mucho tráfico como medios de comunicación, redes de blogs y distintas empresas. Pero, ¿qué sucede con el resto de webs?

Alexa compone un ranking de los sitios web más visitados gracias a los internautas que instalan su barra de herramientas (Toolbar) de forma desinteresada. Obviamente, Alexa recopila información de navegación de las personas que instalan su herramienta por lo que su difusión y uso siempre ha estado cuestionada primero por la privacidad y luego por su implantación en los navegadores, por lo que las cifras aportadas nunca han sido consideradas del todo fiables.

Así pues si no podemos conocer la audiencia real de un sitio web, a no ser que sus estadísticas sean públicas, debemos buscar otros medios para conocer la relevancia de un sitio web como, por ejemplo, el número de enlaces que recibe una página web. Debemos señalar que el primero que trató de categorizar los sitios web según su importancia fue, cómo no, Google y su Pagerank. Obviando otras consideraciones, Google dispuso un sistema democrático según el cual cuantos más enlaces recibiese un sitio web mayor importancia debería disponer a ojos de los internautas. De este modo, estableció un ranking de 0 a 10 mediante el cual categorizó las webs según su relevancia. Por supuesto que, hoy en día, la barrita verde de Google parece tener menos peso que antaño, nuevas variables se conjugan en su algoritmo, sin embargo sigue siendo un referente para muchas personas, incluyendo a los propios webmasters.

Averiguar cuál es el Pagerank de una página web es bastante sencillo (es una información que Google publica) a través de la instalación de la Google Toolbar o utilizando servicios que nos ofrecen distintas páginas web como MiPagerank. Pero el Pagerank es la suma de los distintos Pageranks de los datacenters de Google, es decir, no tiene porqué ser uniforme y nos puede servir de guía para un futuro en nuestro objetivo de ir aumentándolo a lo largo del tiempo. Sin embargo, por distintas razones, Google puede llegar penalizarnos disminuyéndolo siguiendo una serie de criterios, pero en la Red disponemos de otras herramientas para evaluar el posible peso de un sitio web en un momento determinado y, por lo tanto, de un dominio.

Así, por ejemplo, disponemos del Genuine Site Rank donde se nos calcula qué Pagerank deberíamos tener dependiendo de una serie de parámetros, o Web Site Grader donde aportando una serie de palabras clave junto a dominios de nuestra competencia se nos realiza un estudio comparativo de nuestra relevancia respecto a ellos o CuWhois donde se aglutinan una serie de herramientas para la obtención de una serie de estadísticas de nuestro dominio incluyendo el valor monetario que nuestro sitio web, junto el valor que podríamos obtener si quisiéramos vender enlaces desde nuestras páginas. Se tratan, por supuesto, de distintas herramientas SEO que bien pueden ayudarnos a la hora de mejorar el comportamiento de nuestros visitantes unido a los resultados que los buscadores pueden arrojar sobre ellos en un momento determinado.

Comentarios cerrados

Todo bloguer tiene que ser un poco SEO (Algunos consejos)

Un bloguer cuando decide escribir lo hace para ser leído, es decir, desea que sus ideas transciendan un poco más allá de su círculo de allegados y recibir de esta forma visitas en su bitácora. Al principio, dependiendo de la tipología del blog, puede querer que se trate de un puñado de visitantes para, posteriormente, ir un poco más allá. Obviamente, una de las fuentes principales de tráfico en Internet son los buscadores, Google fundamentalmente, así que los bloguers pronto decidimos comenzar  a trabajar para que Google nos sitúe en los primeros puestos de los resultados, para ser encontrados.

Esta pequeña actividad, que la mayoría de bloguers laboriosos realizamos casi sin percatarnos, aunque es práctica frecuente en Internet, se denomina "Posicionamiento en Buscadores" o, según su denominación anglosajona más conocida, Search Engine Optimization (SEO). Fundamentalmente, los SEOs deben preocuparse de:

  • Conseguir que otras webs de temática relacionada enlacen con tu web.
  • Darse de alta en directorios web importantes.
  • Crear contenidos con textos que contienen frases con que buscan los usuarios web los servicios y/o productos de este sitio.
  • Hacer nuestra web lo más accesible posible.
  • Crear títulos únicos y descripciones pertinentes del contenido de cada página.
  • Enlazar internamente las páginas de nuestro sitio de manera ordenada y clara.
  • Actualizar la página con contenido original de calidad.
  • Intercambio de contenido.

Por supuesto que estas técnicas son muy básicas e incluso los buscadores nos ofrecen algunos consejos para el posicionamiento de nuestras webs, por ejemplo ésta es la página de Google, pero debemos de advertir que las actividades de los SEO pueden variar a lo largo del tiempo debido, fundamentalmente, a los cambios que realizan los buscadores para mejorar sus algoritmos y de esta manera sus resultados. Estos cambios en los algoritmos no son conocidos por todos, ni mucho menos, así que los SEOs deben hacer sus cábalas y desplegar una serie de actividades para adaptarse a los continuos cambios en los algoritmos de los buscadores e incluso a las evoluciones propias de la Red. Así, para este año recién comenzado, los SEO tienen algunos nuevos retos a los que enfrentarse:

Afortunadamente, para aquellos que utilizamos WordPress como gestor de contenidos, podemos utilizar alguno de los muchos plugins SEO existentes para mejorar nuestro posicionamiento de forma automática si no deseamos realizar muchas de estas tareas, aunque siempre tenemos que tener presentes algunos consejos para nuestra labor de mantenimiento de nuestras bitácoras:

  • ‘Humaniza’ tus permalinks: unos enlaces permanentes que aporten información fácilmente reconocible por el ser humano (palabras, fechas…).
  • Elimina las ‘www’ de tu dominio preferido: el dominio preferido es aquel que reconocen los buscadores como el principal.
  • Crear y remitir sitemaps.
  • Añade metatags al header.
  • Ofrece buenas páginas de impresión.
  • Genera etiquetas en los contenidos: muchos buscadores y, en especial Technorati, dan prioridad a las etiquetas (tags) y construyen sobre ellas búsquedas especializadas.

Por cierto, ¿quién dijo que mantener un blog iba a ser una tarea sencilla?

7 comentarios

El fondo «digital» de Google Books

El proyecto de digitalización de fondos bibliotecarios de Google, Google Books, avanza a una media de 3000 libros escaneados diarios y se encuentran disponibles para cualquiera que desee consultarlos e incluso descargarlos en formato PDF si los derechos de autor se han extinguido. Sin embargo, el proceso no es perfecto al realizarse manualmente y algunos de los trabajadores de Google dejan su impronta dactilar en los libros que son digitalizados.

The Sydney Morning Herald nos informaba que podemos encontrar una muestra de estos errores en, por ejemplo, el número de 1885 de The Gentleman Magazine o en The Trial and Death of Socrates de Platón. Google ha replicado esta información asegurando que el sistema no es perfecto por su proceso y que la web no está ideada como un lugar para que los usuarios leyesen a través de la pantalla.

Uno de los dedos del escaneo de Google

2 comentarios

¿Googlepolio en búsquedas? Pues sí… A vueltas con la cuota de mercado de los buscadores

Hace poco os comentamos que Google aparentemente nos había penalizado, para la composición de aquel texto me dispuse a hallar la cuota de mercado y, por tanto, la penetración que tenía Google en el mercado español para argumentar nuestra pérdida de visitantes. Lo cierto es que me costó encontrar un dato fiable y, de aquella búsqueda, os ofrecí una cifra inexacta pues afirmé entonces que Google disponía del 90% del mercado de búsquedas en España. Reconozco que rebajé un poco la cuota, puesto que según se afirma en el artículo Google y las cuotas de mercado el porcentaje se sitúa en un 99%.

Sinceramente, el dato me pareció un tanto escandaloso, ¿dónde quedaba la compentecia (Yahoo, MSN o Ask)? El profesor Enrique Dans en su reciente artículo ¿Es Google un monopolio? detallaba las distintas cuotas de mercado de las que dispone Google, no debemos olvidar que es su principal actividad, en el Globo:

Pero ¿es realmente Google un monopolio? En algunas de las actividades que realiza, como la búsqueda, la pregunta recibe una respuesta diferente según dónde sea planteada. Para un español, un alemán o un holandés, la respuesta es afirmativa: en los tres casos, la penetración de búsquedas hechas en Google supera el 90%. Sin embargo un chino diría que no, dado que Google representa tan solo el 21%, claramente por detrás de Baidu, el buscador dominante. En Japón, la penetración de Google es inferior a la mitad de la que posee Yahoo! En Corea del Sur, Google es prácticamente un desconocido, un competidor completamente minoritario, que sólo se utiliza en un 1.7% de las búsquedas realizadas. En el país más conectado del mundo, Google todavía lo tiene todo por hacer. Aún así, el caso de Corea del Sur, aunque preocupante y prioritario para Google, no deja de ser moderadamente anecdótico: en todo el mundo, el porcentaje de búsquedas realizadas en Google sobre el total ronda el 65%.

Hay quien cree que Google obtuvo su éxito en España, a parte de sus buenos resultados ante las distintas cadenas de búsqueda, debido a la sencillez de su interfaz (Hay que recordar que muchos utilizábamos en España una irrisoria conexión a 56 kbs en plena esfervescencia puntocom) frente a las recargadas páginas de buscadores patrios como el de Terra u Ozú. Debemos señalar que, dependiendo de los estudios a los que acudamos, la cifra puede variar hacia arriba o hacia abajo, aunque nunca descendiendo del 90% de cuota y aclarando nuestras dudas al respecto del poder de Google en la Internet hispana. Así, por ejemplo, desde Webrankinfo nos ofrecen un cuadro con los hábitos de búsqueda de los europeos por países basándose en datos de comScore:

Se afirma que la información es poder y los puntos de a través se accede a ella son importantes. Desde luego que, en España, deberíamos comenzar a plantearnos nuestro hábitos informacionales a la hora de buscar y recuperar documentación en la Red (Y en esto también debemos implicarnos los profesionales de la información) porque no sólo de Google debería de vivir el internauta.

8 comentarios

La importancia del número de referencias en Google

Enrique Dans publicaba, en su columna de Libertad Digital, un artículo muy interesante sobre Ley de Impulso a la Sociedad de la Información (LISI), bajo el título La SGAE, la ley y Torquemada, y el subterfugio empleado por la SGAE para incluir un artículo polémico en el texto que debía pasar por el Consejo de Ministros. El revuelo levantando entre los Internautas y las empresas de telecomunicaciones provocó que finalmente fuese sido retirado, no sin algunos escepticismos sobre lo que realmente sucedería después y sobre la redacción del articulado.

En cualquier caso, y a pesar de la importancia que tiene esta ley para el futuro del funcionamiento de Internet y la Sociedad de la Información en España, no es el objetivo de este texto abordar este tema. De hecho, hoy queremos señalar el uso que se realiza de los resultados que devuelve Google ante una consulta para el refuerzo de una idea a la hora de defender una tesis. Así pues, pongamos el ejemplo del texto de Dans antes citado como ilustrativo:

Fray Tomás de Torquemada fue nombrado Inquisidor General por Isabel de Castilla y Fernando de Aragón en el año 1482. En su momento calificado de "martillo de herejes, luz de España, salvador de su país y honor de su orden", Torquemada y la Inquisición se convirtieron en el sinónimo de la crueldad, la tortura y el fanatismo al servicio de unas ideas. Nadie nunca tuvo tanto poder para, al margen de toda supervisión, imponer sus bárbaros criterios a toda una sociedad, algo que ha dejado una huella indeleble en la imagen de España en el mundo. La frase "nobody expects the Spanish Inquisition" tiene casi cien mil resultados en Google). […]

2 comentarios

Google Patent Search versus USPTO Database

Cuando descubrí que Google había sacado un buscador de patentes, Google Patent Search, en vista de que tenía una búsqueda pendiente para el trabajo, decidí probar a ver cómo funcionaba antes de aventurarme en alguna de las bases de datos en las que suelo buscar.

Pero nada más empezar sufrí una decepción al comprobar que el buscador de patentes de Google sólo buscaba en la base de datos de la oficina de patentes de Estados Unidos (United States Patent and Trademark Office), la USPTO Patent Full-Text and Image Database  -aunque tratándose de una versión beta poco más nos podemos esperar-, ya que mi búsqueda abarcaba también patentes españolas, europeas y mundiales; pero de todas formas decidí comprobar su funcionalidad.

2 comentarios