Saltar al contenido →

Etiqueta: Google

¿Apocalipsis SEO? Google va a apostar por las Marcas en sus resultados

Parece ser que últimamente Google, aunque también el resto de compañías con los buscadores más importantes Yahoo y Microsoft, disponen de más poder a la hora de desarrollar estándares para nuestras páginas web que el mismísimo W3C. Por supuesto que seguir las recomendaciones del W3C tampoco es que hayan sido seguidas a pies juntillas por las grandes empresas informáticas. Sin ir más lejos, Microsoft no ha sido del gusto de seguir los dictados del consorcio y bien conocidos son los quebraderos de cabeza que los diseñadores web han sufrido a la hora de desarrollar páginas web porque los chicos de Redmond no se han arrugado a la hora de saltárselos en el desarrollo de su Internet Explorer.

No me sorprende la influencia de Google sobre los webmasters y sobre los cambios de la estructura de la Web, bajo el paraguas del combate del Spam y el contenido duplicado han sido capaces de marcar sus dictados para tratar de hacerles frente con relativo éxito claro. En un primer lugar, nos sugirieron la utilización de la etiqueta rel=”nofollow” que debía ser insertada de forma casi obligatoria en los comentarios cuando los blogs comenzaban a expandirse para evitar el Spam – Fundamentalmente, la utilización de esta etiqueta señalaba a los bots de Google que no debían seguir estos enlaces y de esta manera no promocionar las páginas web de destino –. También, nos propusieron que situásemos dentro de nuestras webs un fichero en XML denominado Sitemap que listaba todas las páginas de un sitio web de forma jerárquica, de tal manera que facilita las tareas de rastreo de los bots que no tienen que seguir todos y cada uno de los enlaces de un sitio para recuperar su contenido. Y recientemente los principales buscadores nos proponían la utilización de la etiqueta link rel=”canonical” para evitar la penalización por el contenido duplicado, puesto que esta etiqueta señala a los buscadores cual es la página principal que dispone del contenido frente a otras que podrían contenerlo como Archivos o Categorías. Obviamente, la adopción de todas estas etiquetas ha resultado masiva haciendo un poco más sencilla la tarea a Google de “organizar la información del mundo”, a la vez que se facilitaba nuestras tareas para aparecer en las primeras páginas de resultados de Google, aunque parece que desde Mountain View las cosas van a cambiar para los pequeños editores.

El pasado noviembre el buscador realizó una actualización en su algoritmo, la Google Florida update, aunque en ámbitos SEO esta actualización, aparentemente, no tuvo excesivas implicaciones a primera vista, lo cierto es que esto no es del todo cierto. De hecho, desde entonces se ha detectado que muchas páginas web que utilizaban técnicas básicas SEO han ido desaparecido de las primeras páginas de resultados frente a otras, tal vez, entrando en consideración la nueva política de Google a la hora de devolver resultados en las búsquedas. Eric Schmidt, CEO de la compañía, señaló hacia dónde se dirige Google:

Internet se está convirtiendo en un agujero putrefacto donde reina la información falsa. Tenemos que encontrar indicativos sólidos de credibilidad, y las marcas (marcas comerciales) son la solución, no el problema.
Las Marcas son una buena forma de salir de ese agujero de información falsa.
Estamos totalmente conectados a las marcas. Están tan fundamentalmente conectadas con el ser humano que no hay marcha atrás. Tiene que tener un componente genético.

Es decir, que los pequeños editores lo van a tener un poco más difícil a la hora de posicionarse dentro del algoritmo de Google, mientras que el buscador va a intentar ofrecer puntos de credibilidad a las informaciones editadas por los medios de comunicación y las empresas posicionadas en otros ámbitos junto al resto de consideraciones. ¿Es este el principio del fin de los SEO?

Comentarios cerrados

La caída de Gmail y las debilidades del “Cloud Computing”

Todo parece indicar que este 2009 está siendo especialmente problemático para Google a nivel de gestión. Si finalizando enero cometía un error a la hora de actualizar la base de datos de sitios web dañinos que dejaba en fuera de juego su buscador (sin excesivas repercusiones gracias sobretodo a que se trataba de un sábado), el pasado 24 de febrero dejaba a los usuarios de su servicio de correo electrónico, Gmail, y otros servicios sin acceso vía web durante tres horas y media debido a un error durante las tareas de mantenimiento rutinario en un centro de datos del mismo. Desgraciadamente, la caída del servicio se produjo durante el mediodía de una jornada laboral en Europa, por lo que no pasó desapercibido. Es curioso, pero los dos sucesos me cogieron delante de un ordenador y pude sufrir sus efectos, a pesar de que si bien el primer error, el del buscador, lo achaqué a la página web a la que intentaba acceder, en el segundo me percaté de que algo grave estaba pasando con Google y sus servidores.

De hecho, de Gmail me trasladé inmediatamente al buscador para comprobar hasta dónde llegaba el desaguisado, aunque por fortuna el buscador se encontraba en perfecto funcionamiento porque, de otro modo , sí que nos hubiésemos encontrado frente a un problema y el “pánico” que se ha llegado a señalar que sacudió a los usuarios del servicio de email de Google se hubiese extendido y de qué manera sobre toda la Web. En este caso, sí que nos hubiésemos encontrado frente a frente la gran dependencia que la economía de la Web dispone de Google y las conclusiones habrían sido otras, claro.

Sin embargo, la caída de los servidores de Gmail conduce necesariamente al replanteamiento de la nueva tendencia de este año, el Cloud Computing, que desde luego no lo va a tener fácil después de este incidente. Obviamente, se trata de un asunto de escala. Los defensores del Cloud Computing -entendamos esto como el establecimiento de herramientas de productividad (Office, comunicación y demás) en servicios en la Web- argüirán que el coste del mantenimiento de estas herramientas dentro de una empresa es mayor que dejar que sean los técnicos del servicio web los que se encarguen de ello. El problema, además de los problemas de dejar datos confidenciales a recaudo de otra empresa, es que si hay una caída de los servidores, como ha sucedido en el caso de Gmail, el hecho puntual se convierte global. De este modo, en vez de encontrarnos con que el problema lo tiene una sola empresa, nos trasladamos a un marco donde la incidencia la sufren distintas organizaciones, relentizando y dificultando las transacciones económicas y la productividad de los trabajadores.

Obviamente, el posible impacto de una caída de los servidores de un servicio de Cloud Computing dependen en buena medida de la urgencia y de la finalidad del servicio mismo. En mi caso, por ejemplo, Gmail sólo me sirve para fines personales por lo que la incidencia de que el correo electrónico se encontrase inaccesible durante tres horas fue mínima. Sin embargo, si utilizamos esta plataforma con fines corporativos, la dimesión del problema es otro. Por otro lado, Google además de Gmail ofrece otro tipo de herramientas como las destinadas a la edición de documentos, gestión de la información (Calendars por ejemplo) o la creación de internets corporativas básicas (Google Sites). ¿Podemos imaginarnos 1000 empresas sin poder acceder a sus respectivas intranets a la vez? ¿Y si además del problema de acceso, no disponemos de un back-up?

Por otro lado, el error que se ha producido en Gmail era de acceso vía web, pero se podía trabajar con él a través de los servicios POP e IMAP (aunque también se podía trabajar con él off-line gracias a Google Gears) por lo que aquellos que tenían sus aplicaciones de correo electrónico de escritorio configuradas, o los que accedían vía móvil, no sufrieron la incidencia, además de que ningún correo electrónico se perdió o pudo ser contestado. Sin embargo, el Cloud Computing a pesar de disponer de muchas ventajas como el menor coste de mantenimiento y de gestión, no debería ser confiado a tareas críticas de las organizaciones y no sólo por la individualidad de una sola, sino por el conjunto que quedarían inoperativas.

6 comentarios

¿Batacazo en los ingresos Adsense?

Cuando decidimos incluir publicidad en nuestro blog, lo hicimos en primer lugar para curiosear, para probar cosas nuevas y , como dijimos entonces, para disponer de una estadística más; y segundo, cómo no, quitarnos de encima el coste de mantenimiento de nuestro blog. Entonces, al igual del 90% de los pequeños editores de Internet, nos decantamos por Google y su Adsense por tratarse de uno de los servicios más confiables disponibles en el mundo publicitario en Web y lo cierto es que la experiencia ha sido al menos divertida (con la cancelación de nuestra cuenta y todo).

El hecho es que disponer de una cuenta en Adsense, ha abierto un poco la temática de nuestro blog, vigilantes sobre la publicidad y los modelos de financiación de los bloguers y pequeños editores, preocupados por el mundo SEO y SEM, pero lo que no me esperaba comprobar era la tremenda caída de los ingresos que se iban a dar. Porque no nos podemos llevar a engaño, somos un blog muy modesto, no esperamos grandes retribuciones, pero la denunciada caída del 60% del CTR parece que se va a quedar pequeña. Sólo tendríamos que echarle un vistazo a la evolución de las cifras del eCPM (Acrónimo de coste efectivo por cada mil impresiones y se usa para medir el rendimiento de los bloques de anuncios) en gráficos comparativos de distintos países.

En el caso español (que os recojo), aunque podéis consultar otros, es significativo y puede desembocar hacia que los usuarios de Adsense apuesten por otros modelos publicitarios huyendo de la cierta opacidad de Google (Qué es lo que el anunciante paga, qué es lo que Google se queda y qué es lo que le toca al editor nunca ha estado muy claro) y sus extrañas políticas de uso. En nuestro caso, hemos contemplado la posibilidad de eliminar la publicidad porque realmente, a pesar de que los clics puedan incrementarse o mantenerse, obviamente no percibimos el retorno como compensatorio o también podemos decantarnos por probar otros modelos publicitarios como el de TradeDoubler que nos recomendaron.

Ante las denuncias de caídas, Google se ha defendido, por supuesto, asegurando que las fluctuaciones en los ingresos son normales, pero que en los tiempos de incertidumbre económica, mucho más dramáticas, que no a todos los sectores o segmentos les afectan igual ni durante el mismo tiempo, por lo que no a todos los sitios web se encontrarán afectados en igual medida.

De momento, en nuestro caso, esperaremos y comprobaremos cuál es la evolución, cómo les va afectando esta situación a los blogs y lo que van comentado sobre este asunto. Pero no es descartable que volvamos a ser un blog limpio de publicidad a lo largo de estos meses. Para ello aprovisionamos hace poco.

8 comentarios

Cuando Google falla

Durante el año 2007, el servidor de Google.com sólo estuvo inaccesible durante 7 minutos – tan sólo superado por Yahoo.com que estuvo accesible durante todo los días sin caídas –, sin embargo Google se encontró con su pantalla azul de la muerte, haciendo referencia a la pantalla que se muestra cuando el sistema operativo Windows se queda colgado, el pasado 31 de enero entre las 15:30 y 16:30 hora española cuando todos y cada uno de los resultados de Google aseguraban que todos los sitios y páginas web disponían de malware. Esto supone que Google no permitía acceder a ninguna página web a través de él y, ante cualquier búsqueda, remitía siempre a una página de aviso sobre el peligro que suponía que el internauta accediese al recurso informativo resultado de una consulta.

Durante una hora, el buscador de Google se volvió, literalmente, loco durante el proceso de actualización en la noche del viernes al sábado [en Estados Unidos] el fichero con la lista de URLs consideradas con ‘badware’ que consulta Google a través del sitio web especializado StopBadWare.org. Según ha asegurado la compañía, se trató de un error humano, atribuido al uso de una barra “/ ” y que declaraba que toda la web era maliciosa, aunque hubo un cruce de acusaciones previo entre Google y StopBadware sobre la responsabilidad del error que finalmente decayó en el buscador que admitió su fallo.

Aunque el fallo se haya tratado como un hecho puntual, realizado durante las tareas de mantenimiento del buscador justo en el momento de menor tráfico en Internet, creo que no se ha analizado con suficiente profundidad la incidencia. De hecho, durante una hora, muchas personas se quedaron casi sin Internet, con su fuente de consulta completamente colapsada y sin permitirles el acceso a sus los recursos web que solicitaban. Si Google acapara el 80% del tráfico mundial en el negocio de las búsquedas, ¿qué sucedió durante ese lapso de tiempo? ¿Las visitas decayeron de forma generalizada como si el Pagerank de todas las páginas se hubiesen convertido en cero? ¿Utilizaron los internautas otros buscadores? ¿Qué sucedió con los ingresos publicitarios de las webs? ¿Desaparecieron, se mantuvieron? ¿Qué hubiese sucedido si el fallo se hubiese producido durante una de las horas de mayor actividad del buscador?

De momento, no se han publicado datos. Pero, ante el fallo de Google, la reacción de la blogosfera y de los medios de comunicación fue descubrir la fragilidad de los datos que se sitúan en los servidores de Mountain View y de lo que se ha pasado a denominar La Nube (Cloud Computing). Como acción más inmediata y para evitarnos disgustos, se ha sugerido la necesidad de realizar copias de seguridad de todos los datos personales que se almacenan en los servidores de Google, pero se sigue obviando la verdadera cuestión de fondo que es ¿cuál fue el alcance real de esa hora en blanco? Por supuesto que existen precedentes, en mayo de 2005, el buscador se quedó inaccesible durante 15 minutos por un error interno, por otro lado, YouTube quedó colapsado durante horas el pasado febrero de 2008 cuando el gobierno de Pakistán prohibió el acceso al sitio y desvió el tráfico provocando un efecto en cadena. Lo que nos deja con la incertidumbre de lo peor de todo, ¿existe una alternativa al buscador y sus principales servicios?

5 comentarios

Cómo acabar con la prensa de una vez por todas /y 2

En la encuesta Pew Research Center for the People & Press correspondiente al año pasado, el 40% de los estadounidenses identificaban la Red como su fuente primera de información respecto a noticias nacionales e internacionales, dejando un 37% a los medios de comunicación impresos. Esta encuesta constituye todo un hito puesto que se trata de la primera vez que Internet supera a los periódicos como fuente para mantenerse actualizado por parte de los ciudadanos y, aunque se trata de una encuesta local, no sería sorprendente que esto mismo comenzase a trasladarse también al resto de países desarrollados.

Sin embargo, las vías de las que disponen los medios para mantenerse en funcionamiento, es decir la publicidad, se antoja un tanto complicada dentro de la situación de crisis actual tanto dentro como fuera de la Red. Pero aportemos algunos datos, la inversión publicitaria en Internet en España todavía dista mucho de las cifras que se alcanzan en los medios de comunicación impresos. Así, según el estudio correspondiente al año 2008 de Infodaex, Internet había tenido un crecimiento interanual de 55,4% durante el 2007, llegando a alcanzar un volumen de inversión publicitaria de 482,4 millones de euros frente a los 310,4 millones del año 2006. El porcentaje que Internet supone sobre el total de la inversión en el año 2007 en Medios Convencionales es del 6,0%.

En contraste, los diarios alcanzaron durante 2007 un volumen de inversión publicitaria de 1.894,4 millones de euros, ocupando el segundo lugar de inversión por detrás de la televisión, representando el 23,7% del total de la inversión publicitaria recogida en los Medios Convencionales. La inversión publicitaria obtenida en 2007 está un 5,8% por encima de la cifra del año anterior, que fue de 1.790,5 millones. Tengo que aclarar que Julio Alonso, cabeza visible de la empresa Weblogs S.L., ha sido muy crítico con estas cifras, considerándolas distantes de la realidad por lo pequeño de las mismas. Recientemente publicaba un texto en el que cuestionaba la metodología y las fuentes utilizadas para la confección de la proyección, mientras que también realizaba una reflexión sobre las perspectivas de la publicidad en blogs y en medios sociales para el año que viene. En cualquier caso, la inversión publicitaria on-line hasta el primer semestre del año 2008 había crecido un 39’46% en comparación con el mismo periodo del año anterior situándose en los 307,24 millones de euros, mientras que en la prensa se estaba viviendo una caída de un 16% de la inversión situándose en 805’8. Es posible que se tratase simplemente de un indicador de que los tiempos están cambiando, que las empresas comienzan a volcarse a la Red, buscando a los jóvenes despegados de los medios tradicionales donde a buen seguro van a encontrase.

Desgraciadamente, a pesar de que los medios de comunicación pudiesen incrementar sus ingresos a través de la publicidad en Internet que, actualmente y a pesar de la crisis, crece dentro de unos ratios del 30%, mientras huye en desbandada de los medios tradicionales, la publicidad on-line a nivel mundial está gestionada en un 57% por Google y sus sistemas Doubleclic y Adsense. Es curioso que su más inmediato competidor, Yahoo! que estuvo a punto de firmar un acuerdo de colaboración con la compañía de Mountain View, disponga tan sólo de un 9’7% de la cuota de mercado, dejando según el estudio de la compañía Attributor, en evidencia que la situación de la publicidad en la Red se sitúa a todas luces en una posición dominante.

De este modo, los medios de comunicación se encuentran en una situación francamente incómoda. Por un lado, su razón de ser es la generación de contenidos para atraer lectores, bien sea a través de su cabecera o a través del tráfico que les dan los buscadores –En esto Google también es dueño y señor del mercado– , mientras que a la hora de rentabilizar los esfuerzos técnicos y humanos realizables a través de la publicidad, se encuentran con que Google se queda con una parte importante del pastel de los ingresos que podrían obtener por los mismos y que no pueden controlar de ninguna manera. Desde este punto de vista, Google se encontraría, con cierta razón, canibalizando el mercado de la información en la Web.

La entrevista que ha soliviantado, y de qué manera, los ánimos de los periodistas se la realizaban a Eric Schimdt en la revista Fortune en la que declaraba: «Somos capaces de proporcionar clicks a las páginas web de los diarios para que ellos las moneticen. Eso les proporciona algunos ingresos. El problema es que esos ingresos no son suficientes para compensar la pérdida de sus otros ingresos». Tal vez, la pérdida de sus otros ingresos se refiera a las redacciones en papel, a las de la televisión o radio, aunque para Schmidt los medios de comunicación tienen una función irreemplazable dentro de la sociedad: «La gente ama las noticias, las discute, las copia, las envía. Internet ha hecho las noticias más accesibles. El problema está en la publicidad y el coste mismo del periódico: imprimirlo, distribuirlo, etcétera. Y lo cierto es que el modelo de negocio se está estrechando».

Sin embargo, lo que está en peligro más allá de las empresas, es lo que representan, es decir, la pluralidad informativa, la posibilidad de contrastar informaciones y ofrecer puntos de vista completamente distintos y mucho más ricos ante un mismo suceso. Hay que incidir que la generación de información de calidad tal y como vienen desarrollando una buena parte de los medios de comunicación tradicionales es un proceso muy caro, pero que a todas luces se constituye como un proceso completamente necesario para el correcto desarrollo y evolución de las sociedades democráticas. Pero la solución de los medios ante esta crisis tampoco pasa por solicitar ayudas a los distintos gobiernos de una nación (Central o autonómico) porque simplemente aceptarían el abrazo del oso que acabaría completamente con su ya en entredicho independencia informativa.

Es posible que los periódicos en papel se mueran, que algunos queden como una vagatela del pasado, reminiscencias de un modelo comunicativo obsoleto en un mundo globalizado donde esperar 24 horas para estar informado se antoje inconcedible. Hasta ahora la esperanza se depositaba en la convergencia, la integración de las redacciones impresas y de internet, con mayores o menores traumas, o simplemente separadas, pero lo que está claro es que algo se mueve en el mundo del periodismo y se encamina hacia algo sismológico.

Hay periódicos digitales que son cerrados en detrimento de los impresos, cabeceras que cierran, periódicos gratuitos que clausuran delegaciones, grupos mediáticos que ajustan plantillas y costesperiodistas que se preparan para las movilizaciones -, profesionales que se declaran en huelga por los movimientos corporativos en época de crisis, publicaciones impresas que se transmutan a Internet, que se  coloque publicidad donde hasta ahora era un sacrilegio hacerlo o simplemente que se nos presente un annus horribilis para la prensa

En definitiva, ésta es la transición más complicada que van a realizar las empresas informativas impresas en toda su historia. Su modelo de negocio cae hacia la obsolescencia, sus márgenes se estrechan, no controlan el nuevo medio en el que se disponen a competir, la publicidad y sus ingresos los dominan otros actores, la información que se genera es ingente, dispersa, contrastarla se realiza en pocos segundos, sus lectores se pueden organizar para desacreditar cualquier error, los deslices informativos quedan en mayor evidencia, cualquiera puede ser periodista, las audiencias están más fragmentadas, los pasos que se dan dentro de la Web son inseguros, el valor de una Web lo dan otros y no sólo el dinero, el terreno es completamente desconocido e inhóspito… pero el periodismo no desaparecerá y por lo tanto los medios de comunicación tampoco lo harán, aunque el camino hasta vislumbrar la luz al final del túnel va a ser muy duro para todos.

3 comentarios

Cómo acabar con la prensa de una vez por todas /1

Los medios de comunicación impresos están encarándose hacia su futuro, un presente que será digital o simplemente ya no será. Es posible que los medios ya hayan visto pasar su oportunidad de reconvertirse, de dar un golpe en la mesa, de erigirse como uno de los pilares fundamentales del ecosistema de la información en la Web y desde ahí desarrollar un nuevo modelo de negocio viable para ellos. Es posible que ya sea demasiado tarde.

Los tradicionales periódicos vienen sufriendo el desafío de la Web prácticamente desde que se lanzaron a volcar sus contenidos en ella a mediados de los años 90. En un principio, lo hicieron bajo el convencimiento que debían tener presencia dentro de ella como medio de comunicación del futuro, defendiendo sus cabeceras (marca) dentro de ella, pero lo hicieron con cierto temor y recelo.

En primer lugar, porque no supieron bien qué hacer dentro de ella, dónde buscar sus audiencias, cómo establecer su viabilidad económica para el ingente esfuerzo que exigía la edición de un diario, sin embargo esta primera etapa de toma de contacto acabó tras el estallido de la Burbuja Tecnológica, los ingresos publicitarios cayeron, sólo las audiencias ya no eran suficientes para mantener un proyecto en la Red y el modelo del «todo gratis» fue cuestionado. Simplemente, los medios trataron de volver sobre sus pasos, defendiendo su producto sobre el papel y sobre la Red. De este modo, ante el volcado total de los contenidos publicados, los medios de prensa trataron de buscar nuevas vías de financiación pasando al modelo de pago con todos los contenidos cerrados o el modelo mixto con una serie de contenidos en abierto, mientras que la información que se publicaba en la página web que era editada en papel era de pago.

El modelo de pago, defendido por una de las mayores cabeceras del país, fue terriblemente contestado y considerado como un error desde un principio. Los defensores de este modelo poco pudieron hacer cuando la evidencia de que se estaba perdiendo audiencia e influencia dentro de la Web en detrimento de la competencia que se afianzaban y crecían, el resultado fue una vuelta a los contenidos en abierto para tratar de recuperar el terreno perdido.

Pero mientras los medios de comunicación trataban de encontrar un modelo de negocio viable dentro de la Web, ésta comenzaba a moverse tras el primer fiasco de su historia a principios del siglo XX. Frente al descrédito de los medios de comunicación que se consideraba que flirteaban más con el poder y las empresas que escuchar y transmitir los verdaderos intereses ciudadanos, estos comenzaron a desarrollar sus propias plataformas de publicación. El Periodismo 3.0 o el Periodismo Ciudadano se cimentó sobre los blogs y los wikis y aunque a lo largo del tiempo se ha venido a demostrar que los medios de comunicación son en cierta manera irreemplazables a la hora de producir informaciones, de aquel movimiento, se heredaron dos conceptos fundamentales: The Long Tail (La larga cola) y las nanoaudiencias.

Aunque intrínsecamente entrelazados, la teoría de la Larga Cola consideraba que cualquier producto podría encontrar su nicho de mercado gracias a las posibilidades de acceso a la distribución del mismo que Internet brindaba. Si el producto es informativo, mucho más como los medios refrendaron al comenzar a abrir sus archivos y buscar ese efecto de Larga Cola sobre su patrimonio documental, y sobre estos cimientos nacieron los nanomedios, diferenciándose del periodismo digital y encontrando sus apasionados redactores (y lectores) en el incipiente movimiento de la Blogosfera y la Web 2.0.

De esta forma, las grandes estructuras anquilosadas de los medios de comunicación se encontraron con infinidad de pequeños medios específicos y muy concretos, de una apertura hacia los lectores que no habían sabido prever antes. Si en la Blogosfera se defendía que «El lector sabe más que tú», los medios de comunicación tuvieron que saber adaptarse a los usos sociales que la misma estaba estableciendo. La posibilidad de enriquecer una noticia mediante comentarios, obtener tráfico mediante el filtrado social, la recepción de críticas a través de blogs especializados y/o profesionales, la consolidación de audiencias propias mediante la creación de comunidades de blogs para los lectores o específicos, la integración de otras herramientas como Twitter, el paso desde el medio de comunicación impreso hasta el medio de comunicación audiovisual dentro de la Web… son herencia de lo que se denominó Web 2.0 y sus  desarrollos tecnológicos para una audiencia cada vez más acostumbrada a la participación, mucho más abierta y que desea sentir que un producto informativo es más suyo que de la editorial que lo publica.

Sin embargo, no podemos olvidar el ecosistema de la información y cómo funciona la Web. Hemos señalado en anteriores ocasiones que la competencia es pura y perfecta en la Web, es decir, el gesto hasta desplazarse a la competencia se encuentra a tan sólo un clic y, ante esto, los medios de comunicación poco pueden hacer. Un ejemplo de esto es la sección Google News, donde el metabuscador junta las noticias que publican 700 medios hispanos en la Web. Obviamente, éstas ya no se diferencian las unas de las otras y que una aparezca la primera sobre el resto depende en buena forma del frío algoritmo de la compañía de las letras de colores. Es cierto que Google News distribuye el tráfico hacia los medios de comunicación, pero también les señala indefectiblemente que deben diferenciar sus productos, porque de lo contrario están perdidos.

6 comentarios

¿Será el 2009 el año que nos rebelamos contra Google?

Nos disponemos a cerrar el año 2008, confiando que el venidero no sea tan mal año como algunos agoreros aseguran debido a la crisis económica. En la Red, a pesar de las buenas intenciones de algunos, los apretones y los ajustes presupuestarios están ya al orden del día. Aquellos proyectos a los que se les asignaba un valor, descubrirán que en realidad valen la mitad, simplemente porque a día de hoy el panorama es completamente distinto al que nos habíamos acostumbrado en estos últimos cuatro. Es curioso el argumentario que se ofrece para el ajuste a la baja de innumerables proyectos, sea tan similar al del crack de la Burbuja.com de principios de siglo, que fue y es: «No te puedes centrar en generar tráfico tan sólo, también tienes que desarrollar un proyecto económico viable».

Sin embargo, a diferencia del año 2000, la situación es bien distinta, con una crisis económica estructural, atacando a todos los sectores económicos sin distinción, contrayendo el consumo y afectando directamente al crecimiento económico de casi todos los países. Si bien, en aquella ocasión, se resumió la crisis tecnológica en que las prisas por ser los primeros en posicionarse dentro de un nuevo mercado, las malas gestiones y la mala previsión fue lo que derivó en aquel pinchazo bursátil y tecnológico, en esta ocasión, durante 2009, el chivo expiatorio va a ser otro: Google.

La economía en la Web, la generación de valor, ha cambiado completamente. Si en 2000 Google era un buscador entre el amplio abanico que se nos ofrecía en la Red, actualmente su cuota de mercado en campo de las búsquedas ha barrido completamente a su competencia. Por otro lado, Google ha sido capaz de desarrollar un modelo de negocio estableciendo todo un ecosistema económico para sí y para el resto de la Web mediante su sistema publicitario: Adwords para los anunciantes y Adsense para los editores. De este modo, Google ha desarrollado su principal fuente de ingresos a través de la publicidad en la Web y su gestión, pero a la vez ha alimentado al resto de webs ofreciéndoles participar de su tarta con una porción de la misma, aunque las webs nunca han sido conscientes qué porción era para Google y cual era el tamaño que les correspondía.

Sin embargo, durante 2008, la situación ha ido evolucionando. La imagen de Google y sus acciones están siendo son cada vez más contestadas y discutidas, llegando a enfrentarse con toda una industria. No nos referimos tan sólo a las suspicacias que levantan las actividades del buscador sobre la privacidad en sus usuarios, sino que se está yendo un paso más allá. De este modo, por un lado, tenemos a los pequeños editores, aquellos que contemplaron a Adsense como un sistema práctico y cómodo para rentabilizar sus esfuerzos a la hora de actualizar sus webs, pero que ahora contemplan con preocupación y frustación cómo los ingresos se ajustan cada vez más a su tráfico, descendiendo en algunos casos, mientras que en otros son baneados sin explicación ni razones suficientes, lo que les está conduciendo a plantearse otras alternativas publicitarias como el patrocinio. Es interesante señalar que los números sobre el dominio de Google en la publicidad dentro de las pequeñas webs son demoledores y, según la compañía Attributor, éste alcanzaría el 98% de las webs que actualmente disponen de algún tipo de publicidad.

Pero no sólo los editores están preocupados por el cambio en la tendencia de Google, desde el lado de los anunciantes, los que alimentan al buscador, las cosas tampoco se encuentran mejor. La crisis ha tocado al gigante de Mountain View y, necesitado de ingresos, ha aplicado una serie de políticas que se han considerado penalizadoras respecto a los usuarios de Adwords. Se ha llegado a un extremo que los anunciantes consideran que estas nuevas políticas están diseñadas para aumentar su gasto en publicidad, a pesar de que el retorno que preven respecto a esta nueva política del buscador va en contra de sus intereses con un tráfico de peor calidad. La situación ha generado tal malestar que se ha llegado al extremo de que los SEM, responsables de ajustar las campañas publicitarias en la Web, se han planteado un boicot a Google y aunque se contempla con cierto excepticismo desde el gremio sobre su éxito, lo cierto es que plantear una protesta contra el gigante es sintomático de que algo está cambiando.

Pero hay más, Google controla actualmente el 57% del mercado mundial de la publicidad en la Web y los grandes productores de información -Esto es editores y medios de comunicación- están acusando a la compañía californiana de canibalizar el ecosistema de la información dentro de ella. Según sus argumentos, por un lado, les provee de tráfico, mediante su buscador y su servicio de Google News, mientras que por otro les propone la gestión publicitaria a través de Adsense y Ad Manager, con estas dos premisas los grandes grupos multimedia consideran que el margen de ingresos publicitarios es tan ajustado que va en detrimento de sus intereses. Tanto es así que en Francia, pero no hay que olvidar Bélgica, los ánimos están tan revueltos que el responsable de Google News, Josh Cohen, tuvo que desplazarse hasta el país europeo para tratar de calmar los ánimos. Sin embargo, a corto plazo, es bastante probable que las aguas se embravezcan mientras la crisis económica se va endureciendo.

Para tratar de mejorar la situación, la discográfica Warner ha decidido retirar todos los vídeos de sus artistas desde el portal multimedia YouTube (Propiedad de Google). La razón principal para su abandono de esta Web es que el modelo de publicidad incrustrada dentro los vídeos aparentemente no funciona y los ingresos que la discográfica recibía de YouTube son considerados insuficientes e insostenibles a largo plazo para desarrollar un modelo empresarial viable. Además, tras este anuncio, se cree que el resto de discográficas secundarán la decisión de la Warner lo que podría inducir tanto a discográficas como a artistas y televisiones a comenzar a retirar contenidos, lo que dejaría a YouTube sin una parte importante de sus contenidos.

Como se puede comprobar, la situación en estos dos últimos meses de 2008 se ha complicado tremendamente para la multinacional de Mountain View, con innumerables frentes, que no parecen tener camino a solucionarse en un corto plazo. Aún habrá que esperar un poco para comprobar si la crisis sigue ampliándose o se mantiene estable, pero no cabe duda que nos adentramos a una nueva etapa en la que posición de Google va a ser cada vez más contestada y su imagen cada vez más en entredicho, ¿será el 2009 cuando cambiemos la visión que tenemos de Google?

2 comentarios