Saltar al contenido →

Categoría: Tecnología

El declive de la Wikipedia

La Wikipedia es uno de los ejemplos por antonomasia de la Web 2.0, de la web colaborativa y, por supuesto, de la sabiduría de las masas (Wisdom of the crowd). Son muchos los servicios a terceros que la utilizan como fuente de información empezando por las dos tecnológicas más grandes Google y Apple (Siri). Sin embargo, el éxito y el impacto más que evidente de la Wikipedia son extraños, ya que este proyecto se ha mantenido por una organización sin ánimo de lucro que intermitentemente solicita ayuda a sus usuarios y colaboradores para poder mantener su funcionamiento. La Wikipedia provocó que Microsoft tuviese que cerrar Encarta, mientras que Google lo intentó con su enciclopedia Knol. Las enciclopedias tradicionales se han debatido entre el modelo freemium como el caso de la enciclopedia Britannica que mantiene algunos textos abiertos con publicidad a la vez que mantiene un sistema de suscripción por $70.

Recientemente, la publicación MIT Technology Review publicaba un texto denunciando la agonía de la Wikipedia. Desde 2007, según la publicación, la Wikipedia ha perdido hasta un tercio de sus colaboradores (siempre refiriéndose a su versión inglesa) pasando durante este período de 51.000 a 31.000 y las bajas siguen ascendiendo. Un debate que se mantiene desde 2009 y al que se añaden otros como que esta bajada no ayuda a tapar las miserias de una enciclopedia que ha crecido de forma inorgánica y cuyos artículos frívolos disponen de mayor dedicación que aquellos que son más complejos o que existan más entradas dedicadas a la Antártida que a muchos países africanos. Por otro lado, la calidad de la Wikipedia, atendiendo al criterio de las 1000 entradas que toda enciclopedia debería tener, no pasa de una calidad media.

Sin embargo, los achaques de la Wikipedia no son exclusivos. Cualquier comunidad on-line que disponga de un impacto tan relevante como la enciclopedia colaborativa sufre de ciertas disfuncionalidades como un exceso de burocracia. Para tratar de atajarlo, se incide en que satisfacer a los usuarios más activos es importante, pero no vital y que son estos los que deberían ayudar a los nuevos a adaptarse al medio en vez de tratar de penalizarles.

En 2005, cuando la Wikipedia supuso una bocanada de aire fresco tras el batacazo de las tecnológicas en 2001, comenzó su gran popularidad. Aumentaron sus colaboradores de forma exponencial al mismo tiempo que lo hacían los actos de vandalismo y de falsas entradas (hoax). Para tratar de atajar esas malas actuaciones, desde la organización de la enciclopedia se programaron una serie de bots que se dedicaban a vigilar las modificaciones de las entradas y, ante cualquier alarma, debían avisar a los bibliotecarios. El problema se atajó pronto, sin embargo, este nuevo proceder provocó que los nuevos miembros que se agregaban a la Wikipedia descubriesen que añadir nuevos conocimientos era bastante complicado.

Por otro lado, si los expertos en una materia trataban de realizar aportaciones, descubrían cómo sus esfuerzos podían ser modificados por otros casi inmediatamente. Al final, poder agregar contenidos en la Wikipedia pasó de «la enciclopedia que cualquiera puede editar» a la que «cualquiera que entienda las reglas, socialice, esquive el muro impersonal de rechazo semiautomatizado y siga queriendo contribuir […], puede editar».

Para añadir más leña al fuego, editar la Wikipedia no es sencillo ya que utiliza un lenguaje de marcado (de programación por así decirlo) propio. Desde la enciclopedia, se trató de atajar esa dificultad añadiendo un editor visual que facilitase la tarea, pero los editores tradicionales se rebelaron ya que ese editor aparecía por defecto. Se inició una lucha por su desactivación en la que se buscaban sus fallos y se ponían al descubierto, mientras se justificaba su falta de necesidad, lo que empeoraba la usabilidad de edición de la misma. Parece que, finalmente, podría resultar que los peores enemigos de la Wikipedia son aquellos que se encuentran dentro de ella.

Un comentario

Amazon’s clandestine pack

Muy entretenida la descripción que se hace en Business Week del departamento de Inteligencia Competitiva de Amazon en un largo extracto del libro dedicado a Jeff Bezos The Secrets of Bezos: How Amazon Became the Everything Store. En una simplificación, parece que los analistas de Amazon, además de comportarse como James Bond (sic) y ser definido como grupo clandestino, adquieren productos por toda la Red y se dedican a cronometrar cuánto tardan en recibir la mercancía. Para la empresa estadounidense, un cronómetro y una conexión a Internet es suficiente para establecer un departamento de estas características. Aunque hay que señalar que en la siguiente página se demuestra que el grupo se dedica a algo más que comprar trastos por toda la Web.

Amazon has a clandestine group with a name worthy of a James Bond film: Competitive Intelligence. The team, which operated for years within the finance department under longtime executives Tim Stone and Jason Warnick, focuses in part on buying large volumes of merchandise from other online retailers and measuring the quality and speed of their services—how easy it is to buy, how fast the shipping is, and so forth. The mandate is to investigate whether any rival is doing a better job than Amazon and then present the data to a committee of Bezos and other senior executives, who ensure that the company addresses any emerging threat and catches up quickly.

2 comentarios

La sociedad sobreestimulada

Nuestra sociedad sobreestimulada se basa en arquetipos que muchos no podremos alcanzar. Los anuncios constantes en la Web, en la TV, la presión de nuestras redes sociales en el móvil, los mensajes instantáneos requieren nuestra atención constantemente en un ciclo cercano a las 24 horas del día. La segunda pantalla es una de las consecuencias evidentes de esa necesidad de estar haciendo otra cosa, en vez de concentrarse en una tarea primaria. El problema deviene cuando ese contenido tiene que entrar en competición con otros servicios en los que el usuario está más activo y, por lo tanto, se convierte en accesorio. Cuando, además, tiene que competir con otros contenidos multimedia y con otros soportes que tratan de completarlo, ese contenido se deprecia en valía y por añadidura puede que no lo hagan precisamente ni mejor ni más único.

Por supuesto que esta evasión del objetivo primario, que requiere un esfuerzo intelectual mayor y de estos requerimientos continuos de atención por parte de los dispositivos móviles, va en detrimento de otras actividades más necesarias y perentorias que estar comprobando constantemente si se ha recibido alguna alerta. El desempeño de las tareas laborales podría ser una de ellas, pero existen otras víctimas colaterales de esta sobreexcitación que son los niños.

Los niños deben enfrentarse durante una serie de horas en el colegio al trabajo tranquilo y reposado que, se supone, se da en una clase. Un trabajo de absorción de conocimientos en muchos casos difícil y necesario. Sin embargo, cuando están fuera del colegio, los niños reciben estímulos de forma desenfrenada en forma de videojuegos, TV o móviles. Estos elementos dentro de nuestra sociedad están centrados en el individuo, en el Ego, aunque se pueda interactuar con otros. Por el contrario, las clases se destinan a un colectivo sin posibilidad de cambiar de canal, enfrentándose en muchas ocasiones a una simple pizarra. No hay maestro que pueda competir con un videojuego y además dividirse por cada niño, a pesar de que muchos de ellos lo intenten.

Los adultos también perdemos la capacidad de concentrarnos en las tareas buscando el alivio inmediato del móvil o de la última actualidad en nuestro sitio de noticias. Puede que Google no nos llegue a hacer más tontos, simplemente se trata de un proceso de adaptación a una nueva realidad social. Nos consideramos multitarea, aunque realmente tal concepto no pueda ser posible, pero perdemos otras capacidades como la de leer textos largos. Cabe recordar que la tecnología no es neutral, cambia las normas sociales e influye en nuestras elecciones.

Comentarios cerrados

Evitando la infoxicación

Desgraciadamente, no existen curas para la infoxicación. Las razones de nuestra ansiedad pueden ser variadas o podemos tratar de sobrellevarla; sin embargo, hoy en día la única forma que podríamos evitarla sería desconectándonos de Internet y convertirnos en una especie de paria social. En cualquier caso, no debemos sucumbir bajo esa ansiedad provocada por el descontrol que sentimos a la hora de recibir tantos estímulos informativos. El control de la información no debe pasar por recibir toda la información de calidad que podamos, sino más bien poder controlar ese flujo de información y sentirnos cómodos con él.

La infoxicación no es un fenómeno reciente ni mucho menos. Alain Toffer popularizó el concepto de “sobrecarga informativa (information overload o infobesity)” en 1970, aunque mucho antes, James G. Miller, en 1960, describió siete técnicas (ha implementar en organizaciones) con las que evitar el consumo intensivo de información ante una avalancha de ella.

  1. Omisión. Como no se puede consumir toda la información que se recibe, lo mejor es ignorarla.
  2. Error. Tratar de responder a los estímulos informativos sin prestarle excesiva atención.
  3. Colas. Poner la información en cola hasta poder prestarle la atención que se merecerían.
  4. Filtrado. Similar a la omisión, aunque en este caso se desecha una parte de la información y se les aplican prioridades para discriminar las unas de las otras.
  5. Empleo de canales paralelos. Se trata de encargar a distintas personas el seguimiento de cada canal de información y que realicen un filtrado.
  6. Aproximación. Tratar de procesar la información de una forma limitada o somera (Skimming).
  7. Escape. Hacer que el consumo de esa información se convierta en el problema de otras personas.

A lo largo del tiempo, se ha prestado especial énfasis a las colas, el empleo de canales paralelos y la aproximación como las mejores maneras de procesar la información. Sin embargo, actualmente, el filtrado es la que más atención ha recibido sobretodo gracias a los recientes desarrollos de la Web 2.0 (Social media, RSS, configuración de alertas, filtrado social de noticias, etc.)

Un comentario

Tu vida social se sostiene en Internet

Hace un tiempo, un amigo se quejaba que desde que todo el mundo tenía un smartphone y concretamente Whatsapp, él había dejado de tener vida social -En modo irónico, se entiende-. Se sentía excluido al no pertenecer al grupo de contactos agregados a su grupo de amigos, así como perder el hilo de las conversaciones que en ocasiones se generaban a través de esta plataforma. También es sorprendente el número de personas que ya no hablan por teléfono o se niegan a hacerlo, prefiriendo el envío secuencial de mensajes de texto instantáneos, aunque se podrían ahorrar malos entendidos, donde se pude controlar la temporización de lo que se quiere decir y donde se pierde la inmediatez y por tanto la frescura en las conversaciones.

Desgraciadamente, mi amigo no debe ser el único desubicado por los nuevos usos sociales que la tecnología va imponiendo en el transcurrir de los días. Paul Miller, editor de The Verge, hizo un experimento consigo mismo tratando de vivir un año sin Internet. Consideraba que Internet le había convertido en una persona impaciente e improductiva, por lo que decidió no utilizar ordenadores conectados a Internet, cuando redactaba un artículo debía llevarlo a la redacción en un pendrive y cuando quería enviar un mensaje debía utilizar el correo ordinario. Las consecuencias fueron un descenso notable de su vida social. Su frase: “Se ha gastado mucha tinta sobre el falso concepto de Amigo de Facebook pero puedo decirles que un amigo de Facebook es mejor que nada” se me presenta como completamente hilarante, aunque inevitablemente me recuerda al comentario lastimero de mi amigo.

Las dos situaciones me llevan a reflexionar que aunque algunas personas se consideren torpes y temerosas en esto de las nuevas tecnologías, aunque crean que las Redes Sociales como tales no van con ellos; la necesidad de estar conectados trasciende a la capacidad de decisión humana. Es decir, a pesar de la negación de lo evidente, el ser humano necesita establecer relaciones sociales y aunque el número de plataformas tecnológicas establecidas a través de Internet sean diversas, e incluso algunas hayan estado diseñadas para interactuar socialmente, Internet en sus distintas vertientes es el mayor nodo social creado hasta la fecha y que forma ya parte de nuestras vidas nos guste o no.

Un comentario

Del outsourcing científico al Science as a Service (SCIaaS)

La revolución de la Web 2.0 nos trajo el concepto de “Cloud Computing” y, por ende, “Software as a Service (SaaS)”. Nuevas palabras que, aunque similares, definen y añaden pequeños matices especificando y diferenciando distintas formas de trabajar. El SaaS y la “Nube” son modelos de distribución de software a los que se accede a través de un navegador e Internet, pero donde el soporte lógico y los datos que se manejan se alojan en servidores de una compañía de tecnologías de información y comunicación. Las principales ventajas de la contratación de SaaS por las empresas son la reducción de costos de entrada en nuevas formas de trabajo y de software, el fomento de la cooperación entre trabajadores, así como favorecer su movilidad.

El concepto de “Science as a service”, rescatado por Renee DiResta y sugerido por Bill St. Arnaud a través del artículo “Accelerating and Democratizing Science through Cloud Based Services” de Ian Foster; trata de aglutinar todos los conceptos anteriores en una nueva manera de hacer Ciencia. La SCIaaS pretende suponer un ahorro de tiempo sin comprometer la calidad de la investigación científica y abarca tanto la contratación de investigadores de forma muy flexible, el alquiler de instalaciones de forma que supongan un ahorro de costos y el desarrollo de la Ciencia de una manera más eficiente, creativa y colaborativa.

Obviamente, lo que se propone en los textos antes citados es el desarrollo de un nuevo modelo de outsourcing que en el campo científico surgió ya en la década de los años 80 y es utilizada sobretodo en el ámbito farmacéutico. Sin embargo, el outsourcing científico desarrollado hasta la fecha es un tanto opaco y bastante caro, además de difícil de encontrar.

Los nuevos modelos desarrollados a calor de la Web 2.0, así como los modelos B2B y B2C pueden ayudara redefinir este outsourcing a través de la creación de Marketplaces donde las instalaciones, los equipos y los profesionales ofrezcan sus servicios a empresas y organizaciones para hacer Ciencia. El ejemplo es el sitio web Science Exchange donde se ofertan y demandan servicios de este tipo de forma abierta y transparente. Este nuevo modelo se encuentra todavía en un estado embrionario, pero ¿sera éste un nuevo modelo de “Open Innovation”?

Comentarios cerrados

Big Data, Twitter y la Library of Congress

No dudéis que el Big Data va a ser trending topic este año. Habrá discusiones de si el término se utilizaba previamente o si simplemente es una buena idea de marketing, ¿no las hubo antes?, pero las discusiones terminológicas en ocasiones obvian la eficiencia y el desarrollo efectivo de las ideas.

Uno de los proyectos más apasionante en torno al Big Data que actualmente se están desarrollando se sitúan justamente en el ámbito bibliotecario. En abril de 2010, the Library of Congress (LoC) de Estados Unidos y Twitter llegaban a un acuerdo para que ésta se hiciese cargo del archivo de todos los tweets que almacenaba la empresa. En total, en ese momento, la biblioteca nacional estadounidense se hacía cargo de 170.000 millones de tweets públicos, 130 terabytes de información que crecían a un ritmo de 140 millones de tweets al día pero que actualmente lo hace más rápido, en torno a 500 millones.

El proyecto, además de la preservación, era ambicioso queriendo poner a disposición de los investigadores una basta fuente documental de hechos desarrollados los últimos años como la Primavera Árabe y que habían utilizado Twitter como correa de transmisión. Desde el punto de vista, periodístico, social e histórico, Twitter se presenta como una fuente primaria basta, pero de datos en crudo, de información dispersa que hay que ir hilvanando para poder obtener conclusiones.

Para tratar de hacer viable la recuperación de información, la LoC ha utilizado técnicas de Big Data desde distintos enfoques. Sin embargo, la biblioteca ha declarado su frustración a la hora de hacer viable la recuperación de la información considerando que las técnicas actuales no están tan avanzadas como la tecnología para crear y distribuir esos datos. Desde la LoC, afirman que si hoy en día las grandes empresas son incapaces de obtener resultados relevantes para las cantidades de información que generan dentro de su actividad diaria, qué puede hacer una organización pública con un presupuesto limitado.

El archivo de Twitter está planteado para que sólo pueda ser utilizado por investigadores, de momento 400 personas han declarado su interés por usarlo, sin embargo la situación actual no es muy prometedora, puesto que al lanzar una consulta, el sistema tardaría 24 horas en ofrecer resultados. Para poder mejorar la eficiencia del sistema, desde la LoC afirman que sería necesaria la inversión de una cantidad mayor de recursos de los que la institución no dispone actualmente, además de existir restricciones presupuestarias por la situación económica actual, por lo que la viabilidad del proyecto a la hora de ofrecer una herramienta útil de recuperación de la información es incierta en un corto plazo.

 

Comentarios cerrados