Saltar al contenido →

Etiqueta: Search Engine Optimization (SEO)

La herida de Google

La herida de Google

Empezó, como suelen suceder las grandes cosas, con pequeños toques de atención. El pasado mes de diciembre, The New York Times publicaba que algunas empresas utilizaban las malas críticas realizadas por internautas como un factor para subir escalones dentro del algoritmo de relevancia de Google. ¿Cómo? Sencillamente porque el algoritmo no penaliza las malas críticas, los comentarios negativos incluidos dentro de los enlaces, por lo que más enlaces, aunque sean malos, son puntos para aparecer en las primeras posiciones del buscador. El escándalo fue mayúsculo, con el autor de esta “manipulación” detenido y con la reacción de la empresa de Mountain View tratando de tranquilizar a los internautas sugiriendo que penalizaría a aquellas empresas que tratasen mal a sus clientes.

Sin embargo, que algo está pasando con Google va más allá de rumor. Los síntomas de que algo está pasando son cada vez más palpables. Desde innumerables foros, se denunciaba que el buscador, su algoritmo, no se encuentra en su mejor momento. De hace un tiempo a esta parte, los internautas aseguran que los resultados que devuelven son de peor calidad, que hay que realizar un esfuerzo extra para encontrar la información que buscamos. Si se preconizó que Google acabaría con el SEO, es bastante probable que el SEO acabe antes con Google, vencido por la gran colmena de mentes tratando de “colar” sus páginas web en lo más alto de la página de resultados. El problema de Google es Google, el gran ecosistema que ha creado entorno a su buscador, su modelo de negocio y, no olvidemos, el de otros que se alimentan del mismo.

Hasta no hace mucho, los internautas creían que Internet es meramente Google, aunque cada vez más el ecosistema se convierte en más cerrado con plataformas como Facebook o más participativo, más rápido, como Twitter, pero propietario al fin y al cabo. Algunos consideran que la marca Google es intocable, intachable y denunciarla, acusarla de malos resultados, una ofensa y abrir una brecha para la competencia (La omnipotente Microsoft) ante la que podríamos sucumbir.

Recientemente, Google denunció que Microsoft (Bing) copiaba sus resultados, utilizando precisamente su algoritmo para demostrar que ante una ecuación de búsqueda que no podía devolver resultados, Bing devolvía los mismos resultados que Google, alimentándose de él. De nuevo, los cimientos de la Web se vieron sacudidos, con cruce de acusaciones incluido. Sin embargo que el gigante se revuelva acusando a otra empresa que comienza a comerle terreno justo donde hasta entonces Google había reinado, es todo un síntoma. Es bien sabido que Bing siempre ha sido superior al algoritmo de Google a la hora de buscar imágenes, aunque parece que todo apunta hacia que Bing le sigue comiendo terreno a Google.

Este estrenado año promete ser apasionante, no sólo por el asentamiento del Social Media, si no por la vuelta a la quinta esencia de la Web, los buscadores. Todo dependerá por las decisiones que adopte Larry Page tras su vuelta a la dirección del gigante y que puede que cambie esta tendencia.

Un comentario

Google Everflux, Google Dance, Google Sandbox y otros conceptos del montón

Personalmente, me gusta seguir algunos blogs SEO. Tengo que advertir que algunos llegan a aburrir, dando siempre consejos sobre cómo escribir, cómo posicionarse dentro del Social Media, cómo plantear un post para que tenga una buena visibilidad… Aunque comprendo de su necesidad, llegan a ser un tanto reiterativos y te llevan a pensar “esto ya lo he leído aquí antes”, por ello no me agradna en exceso. En el caso de esos blogs SEO tan enfocados al mundo blog, una bitácora es algo tan personal que no debería estar enfocado hacia qué van a pensar los demás cuando la lean o la encuentren, ya que se trata de una herramienta disponible más, sobre la infinidad que ya existen, para estar conectado, compartir conocimientos y, por supuesto, fijar los que ya tenemos.

El hecho es que, de vez en cuando, los SEO se quejan de encontrarse agotados. Algunos consideran que ése no es un trabajo para toda la vida y que la presión a la que se vienen sometidos es demasiada. Puedo imaginar que si tu trabajo depende de un sólo punto de vista, de un solo factor, dónde aparece tu página posicionada dentro de un frío algoritmo, no debe de ser muy sano para el estrés ni para las satisfacciones personales que un trabajo nos debería aportar.

Google Caffeine parecía un nombre irónico, puesto que los SEO iban a tratar que filtrar mucho café para sobrevivir las noches en vela ante la nueva actualización del algoritmo de Google. Algoritmo que ha ido evolucionando, según la Web crecía y los nuevos hábitos de los internautas cambiaban. La denominada Real-Time Web es el efecto de la popularización de plataformas de microblogging y de redes sociales a las que Google ha tenido que adaptarse y, por supuesto, cómo posiciona y muestra sus resultados.

Posicionamiento, actualización de los índices de Google más bien, que la empresa de Mountain View realizada cada ciertos meses, con las variaciones de su famoso Pagerank, provocando el denominado Google Dance. Este baile en los resultados que mostraba, se debía a que no todos los datacenters del buscador se actualizaban a la vez, por lo que dependiendo de en cuál se buscase, una página web ante una misma ecuación de búsqueda durante el mismo período de tiempo, podría encontrarse o más arriba o más abajo de los resultados orgánicos del buscador.

Google Sandbox también era un efecto de estas actualizaciones. Este concepto ha generado mucha controversia y desde Google no se ha confirmado su existencia. En este caso, el Sandbox afectaba a páginas de nueva creación. Si una página de nueva creación recibía muchos enlaces en poco tiempo, Google la penalizaba porque consideraba que no era probable que una página nueva, aunque su contenido fuese relevante, obtuviese tal popularidad por lo que durante los primeros días de su publicación podría aparecer en las primeras posiciones, aunque posteriormente cayese en su posicionamiento. Es curioso que también existiese lo que se ha denominado Sandbox Reverse que hace justo lo contrario. Una página de nueva creación aunque no dispusiese de muchos enlaces, podía aparecer en los primeros resultados ante una búsqueda.

Actualmente, el posicionamiento de webs no se actualiza cada ciertos meses, si no que puede producirse cada día, por lo que ya se comienza a hablar del Google Everflux. Esto casi no da ningún margen a los SEO a la hora de posicionar sus páginas, puesto este flujo continuo de variaciones en las posiciones cada pocas horas no les ayuda a la hora de evaluar sus acciones como positivas o negativas, dejándoles poco margen a la hora de presentar resultados en el caso de que trabajen para distintas organizaciones.

Lo que me lleva a considerar que, efectivamente, el trabajo de un SEO no debería ser para toda la vida.

6 comentarios

Los tres pilares de las acciones de marketing en Internet

Berta Martínez, responsable del área de Marketing de Aidico, me invitó a escribir un texto para el Boletín que publica el Instituto Tecnológico de la Construcción. El resultado ha sido este «Los tres pilares de las acciones de marketing en Internet» que confío que os agrade.

Es probable que su organización disponga de un sitio web desde el que oferte sus productos y servicios, sin embargo debe ser consciente de que este hecho no es suficiente para ser visible dentro de Internet. Le propongo que pruebe lo siguiente, si introduce la denominación de su organización en un buscador de Internet, es posible que su sitio web aparezca en el primer resultado, pero seguramente le interesará utilizar ese buscador como una herramienta de marketing más allá de la utilidad referencial que pueda tener.

Por ejemplo, pruebe ahora introducir alguno de los productos o servicios que ofrece. ¿En qué posición aparece su sitio web? Si su web aparece más allá de la segunda página de resultados del buscador, siento informarle que la página web de su organización es invisible para los internautas y, por ende, para sus posibles clientes.

Pero no se preocupe, hay acciones para mejorar el posicionamiento de su web dentro de los buscadores y de esta manera incrementar el número de visitantes hacia su web. El primero de ellos, es el SEO (Search Engine Optimization), u Optimización en Buscadores, una disciplina que trata de acometer una serie de acciones para tratar de situar su sitio web y las páginas que lo conforman dentro de los primeros resultados de los buscadores. De este modo, atendiendo a una serie de palabras clave, el SEO tratará que ante una ecuación de búsqueda específica un buscador coloque las páginas de su organización en las primeras posiciones, por ejemplo, los productos que su organización oferta.

A pesar de todo, el SEO es un proceso lento y debe estar convenientemente planificado. En el caso de que a su organización le urja atraer visitantes hacia su web para mejorar las ventas, dispone de otra opción: el SEM (Search Engine Marketing), o Marketing en Buscadores. Esta acción, complementaria a la anterior, tiene como fin desplegar acciones en la compra de enlaces de la publicidad contextual que los buscadores disponen tanto en los resultados de las búsquedas de los internautas como en las páginas relevantes dentro de cierta temática. De este modo, los buscadores situarán enlaces, que deberá comprar previamente mediante un sistema de puja en la mayoría de los casos, atendiendo a razones de contenido mediante la utilización de una serie de palabras clave. Es decir, su organización pagará a un buscador para que sitúe el enlace de su sitio web atendiendo a una serie de palabras clave que se deberán ser previamente definidas y adquiridas.

Por otro lado, debemos tener en cuenta la aparición de una tercera vía dentro del marketing que atiende a la reputación que una organización dispone dentro de Internet. Es el denominado SMO (Social Media Optimization) que monitoriza y mejora la imagen de los servicios y productos de las organizaciones dentro de la Web Social y los servicios de Redes Sociales. Esto atiende al hecho de que, cada vez más, los consumidores acuden a Internet para informarse de las experiencias de otros a la hora de contratar el servicio de una empresa o un determinado producto antes de adquirirlo. La monitorización de las opiniones de los clientes y tratar de atajar las crisis de comunicación son otro de los puntos a contemplar a la hora de establecer una estrategia de marketing en la Web.

Como puede comprobar, hoy en día, en Internet no es suficiente con estar, sino que también se debe actuar. Ahora lo que debe considerar es si desea que el sitio web de su organización sea simplemente una aguja en un pajar o transformarla en una herramienta de marketing de verdad.

4 comentarios

El robo de contenidos web (Content scrapping) no es un buen negocio

Copy & PasteNo es la primera vez que hablo de ello, aunque es una de las cosas que más me enerva como editor web. Como sabréis, el término anglosajón es Content Scrapping, del que se pueden encontrar infinidad de entradas, y en castellano se ha traducido, de forma muy directa, como robo de contenidos. La sindicación de contenidos (RSS), un tanto denostada últimamente gracias a la irrupción del Social Media, fue una de las principales innovaciones que trajo la Blogosfera. La difusión de una nueva forma de recuperar la información de los sitios web sin tener que estar consultándolas constantemente, un buen ejemplo del concepto pull & push, fue una buena oportunidad para mejorar la fidelización de lectores para pequeñas publicaciones electrónicas.

Aparentemente, los grandes medios nunca acabaron de apostar por esta tecnología y prefirieron ofrecer sus RSS capadas con el titular y un pequeño extracto del texto, fundamentalmente, el primer párrafo. Podríamos discutir si se trata realmente de una componente mercantilista, una necesidad para aumentar el número de visitantes de la página web; o de uso, si generas mucho contenido y de diversa índole es mejor ofrecerlo resumido y que el lector decida qué le interesa leer realmente. Pero imagino que se conjugan distintos factores.

Sin embargo, desde aquí siempre invitamos a ofrecer los feeds completos como un premio a la fidelización a los lectores, a pesar de que la tentación de que otras webs “enchufen” nuestros contenidos a través de nuestros feeds sea irrefrenable y los republiquen. Personalmente, aunque es probable que discrepéis, que una web duplique mi contenido no es un halago. Lo fuese si me preguntase y yo le diese mi visto bueno. No me malinterpretéis, está bien que se republique una información, un texto (nosotros lo hacemos), al menos demuestra interés; que se reconvierta y se reelabore, aumenta la difusión de la información, pero redifundir contenidos de forma completa sin ni siquiera consultar, no me parece correcto. No me está bien que el editor web tenga que descubrirlo, que deba solicitar al webmaster o al administrador del sitio que redistribuye los contenidos a que cese su actividad. Esto no debería funcionar así, pero desgraciadamente en la mayoría de los casos lo hace.

Recientemente, El Mundo publicaba una nota muy interesante en la que se afirmaba que se podía redistribuir (Copiar y pegar) un artículo periodístico completo respetando el derecho de cita, pero que si se hacía con todos los contenidos y de una forma constante, si ambas partes buscaban un beneficio económico, la frontera de lo legal era claramente traspasada. Por otra parte, desde el punto de vista tecnológico y de difusión, Google lo tiene claro, no es una buena idea alimentar un sitio web con contenido copiado, así que los afectados que no se preocupen demasiado, que sitúen un enlace hacia el contenido original y el tiempo (en términos de posicionamiento y visitas) les dará la razón.

Sin embargo, para aquellos que no pueda refrenar su indignación sobre el robo de contenidos que puedan sufrir a través de sus feeds pueden hacer varias cosas:

  1. Como señalamos anteriormente, solicitar al webmaster que redifunde los contenidos que cese su actividad.
  2. Situar varios enlaces en sus feeds hacia el contenido original, así como un pequeño aviso de no redistribución de contenidos (Esto ahuyentará a la mayoría y en WordPress tenemos a nuestra disposición algunos buenos plugins para ello).
  3. Acciones tecnológicas concretas para los usuarios más avanzados, como bloqueo de las IPs o dominios de los Scrappers (Aunque hay que meterse en el fichero .htaccess del servidor donde tienes alojada la publicación), aunque para que esto sea efectivo habrá que dejar de utilizar, en la mayoría de los casos, el servicio de Feedburner.
10 comentarios

En tiempos de crisis, crecen los agujeros negros en la Web 2.0

Una de las principales críticas que siempre se han realizado a los medios de comunicación que se desplazaron a la Web desde sus productos impresos consistía en que tendían a no realizar enlaces. De hecho, siguen mostrándose incómodos a la hora de hacerlo, temiendo quizás que los lectores se marchasen al encontrar un sitio web mucho más rico, reduciendo su permanencia en su sitio web. No cabe duda de que las noticias de los medios son las que más enlacen reciben desde los distintos servicios de la Web 2.0, ya se trate desde los blogs, marcadores sociales o desde sistemas de filtrado social de noticias, por lo que contemplar a estas webs como agujeros negros (Webs que reciben muchos enlaces pero que no realizan ninguno) estaba más que justificado.

Los internatuas siempre se han mostrado un tanto molestos con estas prácticas, sobre todo si se trata de una noticia que necesita de ampliación de información citando la fuente original (Por ejemplo un informe o un estudio), sin embargo en tiempos de crisis los webmasters también están descubriendo que la economía de las webs y los enlaces recíprocos que Google contribuyó a construir se está comenzando a resquebrajar lentamente. The Guardian advertía a principios de 2007 que la Wikipedia se estaba convirtiendo en un agujero negro al incluir dentro de sus enlaces externos el atributo nofollow, con este atributo Google no cuenta el enlace realizado hacia una página web externa en términos de posicionamiento. Por otro lado, recientemente, Twitter ha implementado este atributo en los enlaces que se hagan dentro de ella convirtiéndose a su vez en otro agujero, aunque en este caso parece que Google sugirió que se realizase este cambio a pesar de que no se sabe a ciencia cierta qué sucederá en el posicionamiento de los resultados de esta herramienta de microblogging en un futuro.

Pero aún hay más. Otros dos estandartes de la Web actual, la red social Facebook y el sistema de filtrado social de información más popular en Estados Unidos Digg han decido poner en implementar lo que se denomina iFrame que consiste en la utilización de marcos que engloban los contenidos de otras webs. Es decir, si un usuario hace clic en un enlace externo dentro de estas dos webs, el usuario será redireccionado hacia una página con una barra superior que puede llegar confundir al usuario respecto la autoría y el origen de la información que está visualizando (Os dejo, un ejemplo). De esta manera, también se persigue que el usuario permanezca mucho más tiempo dentro de Digg y que no se marche.

Esto es muy similar a lo buscado en un principio por los medios de comunicación, aunque dándole obviamente una vuelta de tuerca y creando una gran controversia dentro de la Web sobre este movimiento de Digg. Por otra parte, y para mayor escarnio de los webmasters, Digg ha implementado un acortador de URLs de tal manera que no muestra los enlaces hacia las páginas webs promocionadas dentro de su sitio, convirtiéndose además en otro agujero negro.

Comentarios cerrados

¿SEO o SEM? La adicción a Adwords

Esta semana pasada se ha celebrado en Valencia el VIII Workshop Calsi en el que, como suele, los contenidos suelen ser superiores a la asistencia que muestra la sala. Como cada año, nosotros estuvimos por allí tanto como nuestras ocupaciones laborales nos permitieron y, además de saludar a las viejas amistades y hacer nuevas, lo cierto es que las mesas a las que asistimos no nos dejaron indiferentes.

Personalmente, la mesa que me despertó mayor interés, fue la moderada por Javier Leiva que llevaba por título Modelos de Negocio 2.0. Es una lástima que llegásemos tarde a ella y sólo pudiésemos disfrutar de su parte final, pero nos sorprendió gratamente que en esta ocasión el moderador no tuvo que emplearse a fondo para lanzar sus preguntas a sus ponentes, algo que suele suceder con demasiada frecuencia, sino que la sala fue la generadora del debate y fue concretando los temas a discutir. Por supuesto que los ponentes estuvieron a la altura y tanto Angel María Herrera, Javier Celaya, Juan Luís Hortelano como Javier Martín nos ilustraron con su experiencia o, ante la falta de ella, su siempre estimulante punto de vista.

No hace falta señalar que son innumerables los temas tratados como, por ejemplo, el cansancio de la utilización del término Web 2.0 y el comienzo de la utilización de Web Social por parte de algunos de los ponentes, pero uno de los temas tratados por el público y más interesantes fue la Adicción a Google Adwords, algo de lo que ya había oído hablar pero me pareció sumamente interesante en su exposición.

El sistema publicitario de Google, por el que obtiene el 95% de sus ingresos, se basa sobre dos soportes: Google Adsense para los creadores o administradores de contenidos (Los editores) y Google Adwords para las empresas anunciantes. Los anunciantes crean sus anuncios textuales o gráficos y posteriormente pujan por determinadas palabras clave. Google se encarga de colocar estos anuncios dentro de páginas relevantes dependiendo de las palabras clave adquiridas. Por ejemplo, si un anunciante quiere vender coches, comprará determinadas palabras clave de esta temática y Google colocará sus anuncios en webs que traten esta temática.

El objetivo fundamental es que los internautas que hagan clic sobre un anuncio estén interesados realmente en el mundo de la automoción y que el visitante adquiera cierto producto. Por supuesto que un anunciante puede tener dos tipos de tráfico hacia su web: El generado mediante el sistema de Adwords (SEM) o mediante el posicionamiento que haga de su sitio a través de los buscadores (SEO).

En la mesa del Calsi, se expuso la problemática de que el sistema funcionaba, pero que la dependencia a éste era contemplada como excesiva. Concretamente, se afirmó que el gasto mensual de la empresa que expuso su caso era de 12.000 € y que obviamente se quería ir reduciendo esta cifra fundamentalmente porque era considerada como una visión cortoplacista. Sin embargo, desde su punto de vista era una manera fácil y rápida de generar ventas, aunque también se había desplegado toda una operativa SEO para posicionar correctamente las páginas del producto.

Los resultados expuestos tanto SEM y SEO eran bastante buenos para la empresa, pero desde ella se contemplaba con preocupación la excesiva dependencia de Google. Aunque la empresa, obviamente, no se identificó, los ponentes de la mesa consideraron que si la política desplegada funcionaba no tenía que preocupar en exceso. Por otro lado, consideraron que las acciones desarrolladas mediante SEO más bien podría tener un efecto pernicioso al inundar la Web de spam y además podría resultar más caro que la compra de palabras clave mediante Adwords.

Tal vez, lo que nos cabría añadir, es que la imagen de una empresa, su posicionamiento en el mercado, más allá de las consideraciones de Google, no se construye en un día. Los internautas que hayan adquirido sus productos y sus servicios gracias a Adwords es bastante probable que vuelvan a ella si están satisfechos, por lo que la Marca se construye poco a poco y las políticas de fidelización no son competencia de Google, sino más bien de sus directivos.

3 comentarios

¿Apocalipsis SEO? Google va a apostar por las Marcas en sus resultados

Parece ser que últimamente Google, aunque también el resto de compañías con los buscadores más importantes Yahoo y Microsoft, disponen de más poder a la hora de desarrollar estándares para nuestras páginas web que el mismísimo W3C. Por supuesto que seguir las recomendaciones del W3C tampoco es que hayan sido seguidas a pies juntillas por las grandes empresas informáticas. Sin ir más lejos, Microsoft no ha sido del gusto de seguir los dictados del consorcio y bien conocidos son los quebraderos de cabeza que los diseñadores web han sufrido a la hora de desarrollar páginas web porque los chicos de Redmond no se han arrugado a la hora de saltárselos en el desarrollo de su Internet Explorer.

No me sorprende la influencia de Google sobre los webmasters y sobre los cambios de la estructura de la Web, bajo el paraguas del combate del Spam y el contenido duplicado han sido capaces de marcar sus dictados para tratar de hacerles frente con relativo éxito claro. En un primer lugar, nos sugirieron la utilización de la etiqueta rel=”nofollow” que debía ser insertada de forma casi obligatoria en los comentarios cuando los blogs comenzaban a expandirse para evitar el Spam – Fundamentalmente, la utilización de esta etiqueta señalaba a los bots de Google que no debían seguir estos enlaces y de esta manera no promocionar las páginas web de destino –. También, nos propusieron que situásemos dentro de nuestras webs un fichero en XML denominado Sitemap que listaba todas las páginas de un sitio web de forma jerárquica, de tal manera que facilita las tareas de rastreo de los bots que no tienen que seguir todos y cada uno de los enlaces de un sitio para recuperar su contenido. Y recientemente los principales buscadores nos proponían la utilización de la etiqueta link rel=”canonical” para evitar la penalización por el contenido duplicado, puesto que esta etiqueta señala a los buscadores cual es la página principal que dispone del contenido frente a otras que podrían contenerlo como Archivos o Categorías. Obviamente, la adopción de todas estas etiquetas ha resultado masiva haciendo un poco más sencilla la tarea a Google de “organizar la información del mundo”, a la vez que se facilitaba nuestras tareas para aparecer en las primeras páginas de resultados de Google, aunque parece que desde Mountain View las cosas van a cambiar para los pequeños editores.

El pasado noviembre el buscador realizó una actualización en su algoritmo, la Google Florida update, aunque en ámbitos SEO esta actualización, aparentemente, no tuvo excesivas implicaciones a primera vista, lo cierto es que esto no es del todo cierto. De hecho, desde entonces se ha detectado que muchas páginas web que utilizaban técnicas básicas SEO han ido desaparecido de las primeras páginas de resultados frente a otras, tal vez, entrando en consideración la nueva política de Google a la hora de devolver resultados en las búsquedas. Eric Schmidt, CEO de la compañía, señaló hacia dónde se dirige Google:

Internet se está convirtiendo en un agujero putrefacto donde reina la información falsa. Tenemos que encontrar indicativos sólidos de credibilidad, y las marcas (marcas comerciales) son la solución, no el problema.
Las Marcas son una buena forma de salir de ese agujero de información falsa.
Estamos totalmente conectados a las marcas. Están tan fundamentalmente conectadas con el ser humano que no hay marcha atrás. Tiene que tener un componente genético.

Es decir, que los pequeños editores lo van a tener un poco más difícil a la hora de posicionarse dentro del algoritmo de Google, mientras que el buscador va a intentar ofrecer puntos de credibilidad a las informaciones editadas por los medios de comunicación y las empresas posicionadas en otros ámbitos junto al resto de consideraciones. ¿Es este el principio del fin de los SEO?

Comentarios cerrados