Saltar al contenido →

Categoría: Internet

En tiempos de crisis, crecen los agujeros negros en la Web 2.0

Una de las principales críticas que siempre se han realizado a los medios de comunicación que se desplazaron a la Web desde sus productos impresos consistía en que tendían a no realizar enlaces. De hecho, siguen mostrándose incómodos a la hora de hacerlo, temiendo quizás que los lectores se marchasen al encontrar un sitio web mucho más rico, reduciendo su permanencia en su sitio web. No cabe duda de que las noticias de los medios son las que más enlacen reciben desde los distintos servicios de la Web 2.0, ya se trate desde los blogs, marcadores sociales o desde sistemas de filtrado social de noticias, por lo que contemplar a estas webs como agujeros negros (Webs que reciben muchos enlaces pero que no realizan ninguno) estaba más que justificado.

Los internatuas siempre se han mostrado un tanto molestos con estas prácticas, sobre todo si se trata de una noticia que necesita de ampliación de información citando la fuente original (Por ejemplo un informe o un estudio), sin embargo en tiempos de crisis los webmasters también están descubriendo que la economía de las webs y los enlaces recíprocos que Google contribuyó a construir se está comenzando a resquebrajar lentamente. The Guardian advertía a principios de 2007 que la Wikipedia se estaba convirtiendo en un agujero negro al incluir dentro de sus enlaces externos el atributo nofollow, con este atributo Google no cuenta el enlace realizado hacia una página web externa en términos de posicionamiento. Por otro lado, recientemente, Twitter ha implementado este atributo en los enlaces que se hagan dentro de ella convirtiéndose a su vez en otro agujero, aunque en este caso parece que Google sugirió que se realizase este cambio a pesar de que no se sabe a ciencia cierta qué sucederá en el posicionamiento de los resultados de esta herramienta de microblogging en un futuro.

Pero aún hay más. Otros dos estandartes de la Web actual, la red social Facebook y el sistema de filtrado social de información más popular en Estados Unidos Digg han decido poner en implementar lo que se denomina iFrame que consiste en la utilización de marcos que engloban los contenidos de otras webs. Es decir, si un usuario hace clic en un enlace externo dentro de estas dos webs, el usuario será redireccionado hacia una página con una barra superior que puede llegar confundir al usuario respecto la autoría y el origen de la información que está visualizando (Os dejo, un ejemplo). De esta manera, también se persigue que el usuario permanezca mucho más tiempo dentro de Digg y que no se marche.

Esto es muy similar a lo buscado en un principio por los medios de comunicación, aunque dándole obviamente una vuelta de tuerca y creando una gran controversia dentro de la Web sobre este movimiento de Digg. Por otra parte, y para mayor escarnio de los webmasters, Digg ha implementado un acortador de URLs de tal manera que no muestra los enlaces hacia las páginas webs promocionadas dentro de su sitio, convirtiéndose además en otro agujero negro.

Comentarios cerrados

De L’Encyclopédie a la Wikipedia, cambiando la difusión del conocimiento de la Humanidad

L’Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers, dirigida por los filósofos franceses Denis Diderot y Jean d’Alembert, representa la obra que trata de resumir el movimiento de la Ilustración desarrollado durante el siglo XVIII. Se trata de un texto cuyo objetivo pasaba por tratar el resumen de los principales conocimientos que la Humanidad había acumulado hasta el siglo XVIII y que, curiosamente, se incluyó dentro del Index Librorum Prohibitorum por elogiar dentro del mismo a pensadores protestantes y desafiar el dogma católico, clasificando la religión como una rama de la filosofía, no como el último recurso del conocimiento y de la moral.

Puede que los mismísimos Diderot y d’Alembert no hiciesen otra cosa que descubrirse ante una de las mayores obras colectivas jamás concebidas por la Humanidad, un lugar donde cualquiera pudiese compartir sus conocimientos y si estos fuesen erróneos pudiesen ser cambiados y si estos quedasen desfasados actualizados en pocos segundos. Es posible que pasemos de considerar que si algo no está en Internet no exista, como hacíamos durante la década anterior, a que si algo o alguien no se encuentra en la Wikipedia, no es lo suficientemente importante.

No hace falta señalar que los caminos de la Wikipedia no han sido sencillos, ya señalamos aquí sus dificultades iniciales, sus puntos oscuros, los intentos de prohibición de su uso en colegios y administraciones públicas por su supuesta inexactitud y sencilla manipulación. Frente a los ataques que ha sufrido sobre su contenido, el argumentario de sus defensores pasa por aprender a utilizar sus recursos, así como los de la Web en general, contrastar los datos, en definitiva, e ir con pies de plomo a la hora de republicar su información. Y no estamos señalando algo que sólo competa a estudiantes y profesores, sino que otros colectivos, como los profesionales de la comunicación, deberían comenzar a alzar el mea culpa, confundiendo fuentes y considerando que el modelo de la Wikipedia es extensible a otros proyectos, digámoslo así, con otros objetivos mucho más lúdicos.

Las enciclopedias, así como otros productos editoriales similares como los vocabularios y diccionarios, puede que sean los primeros caídos en la guerra editorial en la era que se inauguró con la Web. Puede que la Wikipedia sea la cabeza visible de la terrible transformación y de sus caminos futuros, pero no podemos negar que las editoriales de estos productos ya se percataron de que las cosas estaban cambiando. Las grandes enciclopedias analógicas ya abrieron sus contenidos de forma tímida, sin querer perder el control sobre el producto final, invitando a la participación de los ciudadanos de la Red, aunque puede que tengan que adoptar medidas mucho más agresivas en un futuro no tan lejano tal y como ya lo ha comenzado a hacer la Encyclopaedia Britannica.

La Britannica se las ha visto y deseado con la Wikipedia, como por ejemplo cuando trataron de comparar la calidad de sus contenidos y no salió tan bien parada como les hubiese gustado a sus editores en el famoso artículo de la revista Nature, pero puede que descubriendo que se encuentra perdiendo la partida ha comenzado a dar tímidos avances hacia la filosofía 2.0. No debemos olvidar que si deseamos consultar la Britannica debemos pagar por ello, sin embargo puede que consciente de que en Internet sólo se es popular si tus contenidos son accesibles, los editores consideraron oportuno abrir sus contenidos de forma limitada a los bloggers a través de Britannica Webshare. Este movimiento ha sido reforzado recientemente con la posibilidad brindada a sus lectores para que puedan editar los contenidos de la enciclopedia, aunque por supuesto que los textos no sufrirán ninguna variación hasta que las modificaciones sean revisadas por un equipo de expertos y finalmente aprobadas, claro.

¿Podría la Britannica desaparecer? Puede ser que disponiendo de una buena base de usuarios disponga del sustento suficiente para soportar las nuevas tensiones del mercado, sin embargo la guerra no va a ser sencilla. La mismísima Microsoft ha considerado cerrar su Enciclopedia Encarta tras 16 años de actualizaciones. Debemos resaltar que la Encarta no era una gran enciclopedia en cuanto a contenidos en sus inicios, de hecho Microsoft la adquirió tras recibir la negativa de la Britannica para licenciar sus contenidos en CD-Rom, pero a mediados de la década de los 90 era muy popular por su interactividad y contenidos audiovisuales junto a las posibilidades interactivas que ofrecía a sus usuarios. La traslación a la web no fue sencilla para esta enciclopedia y, de hecho, la falta de un modelo de negocio claro para el futuro ha pesado mucho para que Microsoft considerase su abandono.

El fin de la Encarta ha traído la aparición de distintos análisis. Puede que la Wikipedia entienda mejor a los internautas y ofrezca el producto que ellos necesitan, pero de lo que no cabe duda de que la influencia de esta Enciclopedia 2.0 bien depende de otro actor hasta ahora no mencionado: Google. Y es que el buscador también lo ha intentado con su enciclopedia colaborativa Knol, pero obviamente la naturaleza de la enciclopedia de Google es bien distinta y no ha llegado a cuajar. Sin embargo, los internautas han dispuesto del tiempo para que sus recelos y sospechas se levantasen cuando descubrieron que los artículos de Knol posicionaban mejor y más rápido que otros. También debemos señalar que el propio Google puede funcionar como un diccionario si utilizamos el atributo define, pero lo que no debemos pasar por alto es que la propia Web es un gran repositorio de informaciones de todo tipo que puede funcionar como una gran enciclopedia. Claro que este marasmo de informaciones no disponen del discurso estructurado de las enciclopedias de antaño, obligándonos a discurrir un poco más de lo que consideramos necesario, pero ante esta saturación de informaciones buscamos una marca a la que aferrarnos, aunque mañana el escenario haya cambiado completamente.

Comentarios cerrados

¿Apocalipsis SEO? Google va a apostar por las Marcas en sus resultados

Parece ser que últimamente Google, aunque también el resto de compañías con los buscadores más importantes Yahoo y Microsoft, disponen de más poder a la hora de desarrollar estándares para nuestras páginas web que el mismísimo W3C. Por supuesto que seguir las recomendaciones del W3C tampoco es que hayan sido seguidas a pies juntillas por las grandes empresas informáticas. Sin ir más lejos, Microsoft no ha sido del gusto de seguir los dictados del consorcio y bien conocidos son los quebraderos de cabeza que los diseñadores web han sufrido a la hora de desarrollar páginas web porque los chicos de Redmond no se han arrugado a la hora de saltárselos en el desarrollo de su Internet Explorer.

No me sorprende la influencia de Google sobre los webmasters y sobre los cambios de la estructura de la Web, bajo el paraguas del combate del Spam y el contenido duplicado han sido capaces de marcar sus dictados para tratar de hacerles frente con relativo éxito claro. En un primer lugar, nos sugirieron la utilización de la etiqueta rel=”nofollow” que debía ser insertada de forma casi obligatoria en los comentarios cuando los blogs comenzaban a expandirse para evitar el Spam – Fundamentalmente, la utilización de esta etiqueta señalaba a los bots de Google que no debían seguir estos enlaces y de esta manera no promocionar las páginas web de destino –. También, nos propusieron que situásemos dentro de nuestras webs un fichero en XML denominado Sitemap que listaba todas las páginas de un sitio web de forma jerárquica, de tal manera que facilita las tareas de rastreo de los bots que no tienen que seguir todos y cada uno de los enlaces de un sitio para recuperar su contenido. Y recientemente los principales buscadores nos proponían la utilización de la etiqueta link rel=”canonical” para evitar la penalización por el contenido duplicado, puesto que esta etiqueta señala a los buscadores cual es la página principal que dispone del contenido frente a otras que podrían contenerlo como Archivos o Categorías. Obviamente, la adopción de todas estas etiquetas ha resultado masiva haciendo un poco más sencilla la tarea a Google de “organizar la información del mundo”, a la vez que se facilitaba nuestras tareas para aparecer en las primeras páginas de resultados de Google, aunque parece que desde Mountain View las cosas van a cambiar para los pequeños editores.

El pasado noviembre el buscador realizó una actualización en su algoritmo, la Google Florida update, aunque en ámbitos SEO esta actualización, aparentemente, no tuvo excesivas implicaciones a primera vista, lo cierto es que esto no es del todo cierto. De hecho, desde entonces se ha detectado que muchas páginas web que utilizaban técnicas básicas SEO han ido desaparecido de las primeras páginas de resultados frente a otras, tal vez, entrando en consideración la nueva política de Google a la hora de devolver resultados en las búsquedas. Eric Schmidt, CEO de la compañía, señaló hacia dónde se dirige Google:

Internet se está convirtiendo en un agujero putrefacto donde reina la información falsa. Tenemos que encontrar indicativos sólidos de credibilidad, y las marcas (marcas comerciales) son la solución, no el problema.
Las Marcas son una buena forma de salir de ese agujero de información falsa.
Estamos totalmente conectados a las marcas. Están tan fundamentalmente conectadas con el ser humano que no hay marcha atrás. Tiene que tener un componente genético.

Es decir, que los pequeños editores lo van a tener un poco más difícil a la hora de posicionarse dentro del algoritmo de Google, mientras que el buscador va a intentar ofrecer puntos de credibilidad a las informaciones editadas por los medios de comunicación y las empresas posicionadas en otros ámbitos junto al resto de consideraciones. ¿Es este el principio del fin de los SEO?

Comentarios cerrados

¿Batacazo en los ingresos Adsense?

Cuando decidimos incluir publicidad en nuestro blog, lo hicimos en primer lugar para curiosear, para probar cosas nuevas y , como dijimos entonces, para disponer de una estadística más; y segundo, cómo no, quitarnos de encima el coste de mantenimiento de nuestro blog. Entonces, al igual del 90% de los pequeños editores de Internet, nos decantamos por Google y su Adsense por tratarse de uno de los servicios más confiables disponibles en el mundo publicitario en Web y lo cierto es que la experiencia ha sido al menos divertida (con la cancelación de nuestra cuenta y todo).

El hecho es que disponer de una cuenta en Adsense, ha abierto un poco la temática de nuestro blog, vigilantes sobre la publicidad y los modelos de financiación de los bloguers y pequeños editores, preocupados por el mundo SEO y SEM, pero lo que no me esperaba comprobar era la tremenda caída de los ingresos que se iban a dar. Porque no nos podemos llevar a engaño, somos un blog muy modesto, no esperamos grandes retribuciones, pero la denunciada caída del 60% del CTR parece que se va a quedar pequeña. Sólo tendríamos que echarle un vistazo a la evolución de las cifras del eCPM (Acrónimo de coste efectivo por cada mil impresiones y se usa para medir el rendimiento de los bloques de anuncios) en gráficos comparativos de distintos países.

En el caso español (que os recojo), aunque podéis consultar otros, es significativo y puede desembocar hacia que los usuarios de Adsense apuesten por otros modelos publicitarios huyendo de la cierta opacidad de Google (Qué es lo que el anunciante paga, qué es lo que Google se queda y qué es lo que le toca al editor nunca ha estado muy claro) y sus extrañas políticas de uso. En nuestro caso, hemos contemplado la posibilidad de eliminar la publicidad porque realmente, a pesar de que los clics puedan incrementarse o mantenerse, obviamente no percibimos el retorno como compensatorio o también podemos decantarnos por probar otros modelos publicitarios como el de TradeDoubler que nos recomendaron.

Ante las denuncias de caídas, Google se ha defendido, por supuesto, asegurando que las fluctuaciones en los ingresos son normales, pero que en los tiempos de incertidumbre económica, mucho más dramáticas, que no a todos los sectores o segmentos les afectan igual ni durante el mismo tiempo, por lo que no a todos los sitios web se encontrarán afectados en igual medida.

De momento, en nuestro caso, esperaremos y comprobaremos cuál es la evolución, cómo les va afectando esta situación a los blogs y lo que van comentado sobre este asunto. Pero no es descartable que volvamos a ser un blog limpio de publicidad a lo largo de estos meses. Para ello aprovisionamos hace poco.

8 comentarios

Cuando Google falla

Durante el año 2007, el servidor de Google.com sólo estuvo inaccesible durante 7 minutos – tan sólo superado por Yahoo.com que estuvo accesible durante todo los días sin caídas –, sin embargo Google se encontró con su pantalla azul de la muerte, haciendo referencia a la pantalla que se muestra cuando el sistema operativo Windows se queda colgado, el pasado 31 de enero entre las 15:30 y 16:30 hora española cuando todos y cada uno de los resultados de Google aseguraban que todos los sitios y páginas web disponían de malware. Esto supone que Google no permitía acceder a ninguna página web a través de él y, ante cualquier búsqueda, remitía siempre a una página de aviso sobre el peligro que suponía que el internauta accediese al recurso informativo resultado de una consulta.

Durante una hora, el buscador de Google se volvió, literalmente, loco durante el proceso de actualización en la noche del viernes al sábado [en Estados Unidos] el fichero con la lista de URLs consideradas con ‘badware’ que consulta Google a través del sitio web especializado StopBadWare.org. Según ha asegurado la compañía, se trató de un error humano, atribuido al uso de una barra “/ ” y que declaraba que toda la web era maliciosa, aunque hubo un cruce de acusaciones previo entre Google y StopBadware sobre la responsabilidad del error que finalmente decayó en el buscador que admitió su fallo.

Aunque el fallo se haya tratado como un hecho puntual, realizado durante las tareas de mantenimiento del buscador justo en el momento de menor tráfico en Internet, creo que no se ha analizado con suficiente profundidad la incidencia. De hecho, durante una hora, muchas personas se quedaron casi sin Internet, con su fuente de consulta completamente colapsada y sin permitirles el acceso a sus los recursos web que solicitaban. Si Google acapara el 80% del tráfico mundial en el negocio de las búsquedas, ¿qué sucedió durante ese lapso de tiempo? ¿Las visitas decayeron de forma generalizada como si el Pagerank de todas las páginas se hubiesen convertido en cero? ¿Utilizaron los internautas otros buscadores? ¿Qué sucedió con los ingresos publicitarios de las webs? ¿Desaparecieron, se mantuvieron? ¿Qué hubiese sucedido si el fallo se hubiese producido durante una de las horas de mayor actividad del buscador?

De momento, no se han publicado datos. Pero, ante el fallo de Google, la reacción de la blogosfera y de los medios de comunicación fue descubrir la fragilidad de los datos que se sitúan en los servidores de Mountain View y de lo que se ha pasado a denominar La Nube (Cloud Computing). Como acción más inmediata y para evitarnos disgustos, se ha sugerido la necesidad de realizar copias de seguridad de todos los datos personales que se almacenan en los servidores de Google, pero se sigue obviando la verdadera cuestión de fondo que es ¿cuál fue el alcance real de esa hora en blanco? Por supuesto que existen precedentes, en mayo de 2005, el buscador se quedó inaccesible durante 15 minutos por un error interno, por otro lado, YouTube quedó colapsado durante horas el pasado febrero de 2008 cuando el gobierno de Pakistán prohibió el acceso al sitio y desvió el tráfico provocando un efecto en cadena. Lo que nos deja con la incertidumbre de lo peor de todo, ¿existe una alternativa al buscador y sus principales servicios?

5 comentarios

La evolución del costo-beneficio de la Web 2.0

No puedo dejar de comentaros el hecho de que me sorprende mucho el cambio de actitud que se está adoptando en la Web 2.0 sobre la rentabilización de los contenidos que hasta hace bien poco se consideraba que el internauta ofrecía a los demás de forma completamente altruista. De hecho, me parece terriblemente curioso que ante esta crisis económica los medios y los webdospuntocerocentristas consideren la adopción de medidas similares cuando bien sabemos todos que son visiones cortoplacistas que ya probaron otros y fracasaron.

Porque como bien recoge Nieves González, la corriente que actualmente se está generando sobre el futuro de la Web, abandonemos ya el 2.0 y lleguemos al 3.0, pasa por la consideración de que los contenidos generados por los usuarios deben evolucionar hacia activos generados por los usuarios. Es decir, ya no es suficiente que los usuarios generen contenidos, sino que deben de generar valor, activos para el sitio web que visitan. Pero, ¿cómo se consigue eso? Pues sencillamente, según este razonamiento, los contenidos creados por los usuarios de forma gratuita decrecerán, mientras que los de pago aumentarán.

Vaya, hasta ahora creíamos que construíamos una Web de forma colaborativa y completamente altruista, conformándonos con el reconocimiento de la Comunidad o de la Red Social que se generaba alrededor nuestro como handicap, y ahora debemos enfocarnos hacia la generación de valor económico y a la recompensa de los usuarios que generan realmente contenidos valiosos para nuestro sitio web para la construcción de una denominada Web 3.0.

Hace poco, esto simplemente hubiese resultado un insulto dentro de la blogosfera. De hecho, tampoco hay que retrotraerse en exceso para recordar los tiempos en los que el hecho de que un bloguer pusiese publicidad en su blog era contemplado como algo completamente censurable, como si mantener un blog fuese algo que naciese de una persona que publicaba lo que realmente pensaba de forma independiente y que se debiese a su comunidad.

Pero, desgraciadamente, los tiempos han cambiado. Los A-List bloguers abandonaron la blogosfera, considerando que tal vez ya estuviese muerta. Puede ser que buscasen nuevos nichos donde mantener la Conversación, donde hacerse realmente fuertes manteniendo su influencia pero sin dedicarle excesivo tiempo y esfuerzos a un medio muy sacrificado. Por otro lado, la Web 2.0 ya no es buenrollista, su mecenas Google se encuentra en aprietos (imaginemos el resto de Webs que dependen de él) y ha comenzado el recorte presupuestario, la cancelación de proyectos y como, antes de la Web 2.0, el tráfico no es suficiente, hay que generar dinero.

El costo-beneficio ha cambiado para los administradores de los sitios web como para los usuarios. Es el momento de premiar los mejores usuarios 2.0 pero pagándoles,  los que generen valor, hay que diseñar mejores servicios pero que sean de pago y el resto que sufran la selección natural. Ya no hay compadreo, la espadas se encuentran en alto y no es suficiente con mostrar una comunidad, unas páginas servidas, unos tiempos de permanencia en el sitio. Hay que demostrar un balance saneado y (algunos) usuarios que paguen.

¿Y los usuarios? ¿Considerarán que es el tiempo de obtener beneficios por los contenidos que van dejando por toda la Web 2.0? ¿Seguirán pagando a WordPress por alojar sus blogs? ¿Permitirán a La Coctelera situar publicidad en los contenidos que ellos generan? ¿Les publicitarán o los abandonarán? ¿Los usuarios decidirán abandonar la Wikipedia a su suerte porque no obtienen nada a cambio?

¿Y las empresas? ¿Serán las redes de blogs comerciales de medios de comunicación, de empresas de nanoaudiencias el futuro de la blogosfera (Pagar a los bloguers)? ¿Pagarán las empresas a profesionales de creación de contenidos para mantener actualizadas sus web, para que creen contenidos dentro de la Web 2.0 para dejarlas en la mejor situación posible?

¿O es que simplemente ya lo estábamos haciendo sin percatarnos y la Web 2.0 dejó de ser lo que nosotros creímos que era desde hace tiempo?

2 comentarios

Crisis, autoridad y confianza en la Web 2.0

Sucede que, en ocasiones, vas encontrándote a cada paso, actitudes que creías desterradas, que no te volverías a encontrar, que eran salvas al aire para comprobar qué sucedía; sin embargo puede suceder que no se trate de algo que se deja caer para ver hacia dónde conduce, que en realidad es una tendencia y que, desgraciadamente, a pesar de lo dicho, donde dije digo, digo Diego.

Esta semana me sorprendía al leer que The New York Times se encontraba estudiando volver a los contenidos de pago. Curiosamente, al mismo medio que aplaudimos cuando decidió aprovechar aquello de la Larga Cola y abrió su archivo para aprovechar para la rentabilización de todo aquel tráfico. Este jueves también se publica en la revista Time un artículo cuyo título era muy esclarecedor sobre sus intenciones: How to Save Your Newspaper, y donde se urgía el establecimiento de un modelo de negocio en los medios de comunicación que debería basarse en el pago de ciertos contenidos para que estas empresas puedan sobrevivir a la crisis económica en las que nos encontramos inmersos.

Podríamos caer en la tentación al considerar que esto es algo que nos es ajeno, que los medios de comunicación ya tuvieron que vérselas con una crisis -La burbuja tecnológica también tuvo que ver con ellos puesto que los ingresos publicitarios se resintieron-, ensayaron modelos nuevos en las que el pago constituía cierta bandera y algunos tuvieron que volver sobre sus pasos cuando la situación amainó. Sin embargo, a pesar de aquellos que negaron la evidencia, la crisis en la Web 2.0 es ya un hecho y el debate sobre la búsqueda de nuevos modelos de financiación ya se encontraba sobre la mesa antes de entrar en ella con toda su crudeza. Porque actualmente Adsense y la publicidad on-line ya no es la panacea, los ingresos mediante este sistema han caído un 40% de media, y hay que agudizar el ingenio y tratar de ensayar otros medios para obtener ingresos aunque no pasen por Mountain View.

Porque el debate sobre si los blogs deben o no deben tratar de buscar ingresos por sus audiencias, hace tiempo que cayeron en saco roto y mientras algunos contemplan cómo aquellos que trataron de encontrar su nicho en las nanoaudiencias comienzan erosionar su crédito tropezando en las mismas piedras que sus hermanos mayores de papel, ya plantean lo que los medios no dudaron en contemplar: El pago por contenidos de calidad.

Por supuesto que, en nuestra andadura, podemos realizar el camino inverso, que otros nos inciten a publicar sobre un producto o a publicar sobre una temática específica (El famoso post pagado). En realidad, una suerte de publirreportaje que los medios de comunicación aceptan pero que bien se preocupan de destacar para no empañar la información con la promoción, porque no hay peor pecado que publicitar algo en lo que no se cree. No olvidemos que la autoridad se gana en el día a día y es muy difícil recuperarla.

A todo esto, en un brainstorming de marketing muy Web 2.0 ya se ha tenido tiempo de elucubrar el servicio de pago 2.0, el Freemium, que funciona sobre la base de la oferta de servicios básicos gratuitos junto con otros más avanzados de pago. Vamos, los bien definidos servicios Premium, pero buscando darle una vuelta de tuerca más al lenguaje y sus neologismos cruzados, aunque esta vez sí desde el otro lado del Atlántico. Así pues, muchos proyectos Web 2.0 se reenfocan hacia esta nueva terminología, buscando la financiación para poder sobrevivir hasta la nueva reactivación de la economía confiando en la creación o la rentabilización de su base de usuarios. Sin embargo, está por ver que los internautas bien acostumbrados a obtenerlo todo casi de forma gratuita se encuentren cómodos pagando por algo que casi consideran un derecho, donde la picaresca está muy asentada y donde casi todo se puede hacer sin pagar un euro.

Es difícil poder apuntar hacia dónde nos va a conducir la situación que vivimos hoy en día, pero me da la impresión que después de este bache muchas cosas van a cambiar en la Web y nuestra relación con ella.

3 comentarios