Saltar al contenido →

Categoría: Internet

Una Web que se devora asimisma (1)

En la década de los 90, cuando se echaba mano del socorrido símil autopistas de la información para entender qué es lo que podría aportar a futuro la World Wide Web (que acabó reducida a Web o Red), se nos prometió un El Dorado donde el acceso a la información será universal y barato. Sin embargo, ese paraíso futurible donde todavía el acceso era caro y con unas necesidades tecnológicas aún lejanas para la inmensa mayoría de la población pronto mutó hacia otra cosa mientras el dinero comenzó a fluir hacia un entorno que lo redefiniría todo.

En una primera fase, la recopilación de enlaces de sitios interesantes en forma de directorios fue sencillo de mantener. Pero pronto esa curación humana se tornaría inmanejable dando espacio a otro tipo de tecnologías como la de En una segunda, Google que acudió a salvarnos frente aquella intoxicación, haciendo racional y sencillo la categorización de la información mediante algoritmia y una serie de rankings que fueron cambiando a lo largo del tiempo. Esta clasificación automática tuvo que ir adaptándose a la realidad de una web que crecía y se bifurcaba hacia todo tipo de contenidos e intereses según se democratizaba la generación de contenido (Web 2.0) y el acceso sencillo e inmediato en cualquier punto (teléfonos móviles).

Cada nueva evolución tecnológica significaba un cambio del paradigma anterior, pero la Web supo pudiendo ofrecer soluciones de información a todo tipo de sensibilidades y de esperanzas. Hubo un momento que la Web era un foro abierto en que cualquier persona tenía una oportunidad para promocionarse, opinar de forma transparente y mostrar sus conocimientos. Con suerte, hasta poder construir una comunidad propia, pero el modelo se fue retorciendo según se añadían capas y capas nuevas al algoritmo y el ecosistema móvil se posicionaba como una nueva gallina de los huevos de oro, según las marcas buscaban llegar a consumidores jóvenes y no tanto. Por supuesto que los mensajes y la capacidad de influir a la opinión pública también cambiaba; trasladándose desde los medios de comunicación y hacia Facebook y, en menor medida, a Twitter entonces y ahora X.

Por si la situación no fuese compleja, y con las redes sociales ya siendo sometidas a escrutinio y control debido a su alcance a la población en general, otra capa de complejidad se añade apoyándose en todo lo anterior. La Inteligencia Artificial viene a incorporar un poco más de confusión a todas esas vías de acceso de información a los usuarios. Ya se trate mediante texto o imagen (en la mayor brevedad vídeo), las IAs se posicionan como grandes generadores de textos que de forma barata son capaces de sobrepasar al resto de generadores de contenidos ya sean medios de comunicación como referentes de la opinión pública individuales.

[Continúa]

Un comentario

EdgeRank vs PageRank o cómo consumimos información en Internet

Es cierto. Hablar hoy en día sobre cómo interactuamos con el contenido en la Red basándonos en los algoritmos de Google (PageRank) y Facebook (EdgeRank), sólo nos puede ilustrar respecto a los filtros a los que nos vemos sometidos para acceder a la información que estamos consumiendo. Hace mucho tiempo que Google trata de ocultar la puntuación de Pagerank en los sitios web animando a los desarrolladores a que se centren más en el SEO, mientras que Facebook dejó de utilizar su algoritmo EdgeRank en 2011 siendo sustituido por una inteligencia artificial en 2013 que tiene presentes 100.000 factores distintos. Sin embargo, es necesario retroceder al nacimiento de estos dos algoritmos, para entender cómo consumimos la información hoy en día y cómo las grandes empresas recaban información sobre nuestros comportamientos para tratar de mostrarnos la mejor información posible.

Google se basó en conceptos bibliométricos para desbancar a su competencia a finales del siglo XX. Realmente, cuando buscabas cualquier término en el buscador de Mountain View los resultados eran relevantes y parecía que su motor de búsqueda se encontrase a gran distancia de su competencia más inmediata. Tanto es así que Google estuvo mucho tiempo relacionado con el concepto de «buscar en Internet» porque funcionaba realmente bien. Sencillamente, el algoritmo PageRank consideraba los enlaces del hipertexto como votos. Si una página web recibía muchos enlaces era como citarla, por lo que había muchos autores que referenciaban a esa página web como interesante dentro de un campo. Además, PageRank también tenía presente el contenido de la página, si un término aparecía en el título o al principio del texto es que esa página abordaba esa temática de forma relevante.

Sin embargo, PageRank en sus inicios sólo consideraba que el contenido era relevante gracias a los productores de contenido, por ejemplo, los periodistas, los bloggers… Pero no por los usuarios finales de ese contenido, es decir, los internautas que eran los que finalmente los consumían. ¿Cómo afinar los contenidos teniendo presente los intereses de un usuario?

Facebook se enfrentó a su problema desde un principio. A medida que su red social se incrementaba, los usuarios necesitaban de esa priorización. ¿Cómo podía saber Facebook en sus inicios qué contenidos tenía que destacar en la página principal de un usuario? EdgeRank fundamentaba la relevancia no por el contenido en sí mismo, sino por la interacción entre usuarios y tenía presente tres variables:

  • La puntuación de afinidad entre usuarios. Cuantos más usuarios compartiesen dos «amigos» significaba que tenían vínculos sociales más fuertes entre ellos dos. Además, también podía identificarse esa afinidad mediante los mensajes que se enviasen, la visualización de sus respectivos perfiles y otro tipo de interacciones dentro de la red social.
  • Asignación de pesos a las interacciones. El algoritmo tenía presente que un mensaje o un comentario tenía más peso en la puntuación final que un simple like, por ejemplo.
  • Tiempo pasado. A la hora de mostrar contenido, EdgeRank preponderaba contenido más nuevo frente a contenido más viejo.

Si bien Google lo tuvo más complicado en un principio por su propia naturaleza como buscador, tanto la Gran G como Facebook se esforzaron por conocer cuáles es nuestro comportamiento con los contenidos en la Web. Facebook y Google han tratado de capturar nuestros clics, nuestras interacciones, cómo compartíamos y con quién la información y cómo la consumíamos. Todo ello, no sólo para mejorar los resultados que nos muestra si no también para poder vender esa información a terceros para mejorar los impactos publicitarios.

Sin embargo, esa búsqueda por mostrar la información que es relevante para nosotros tiene efectos perniciosos puede que no buscados por las tecnológicas. Por un lado, se provoca un filtro burbuja en la que nos muestra tan sólo la información que es relevante para nosotros como por ejemplo de nuestra tendencia política, pero también afecta a nuestro bienestar puesto que se puede provocar un sesgo respecto a la información positiva o negativa que se nos puede llegar a mostrar.

Comentarios cerrados

Memex, una propuesta de proto-hipertexto

Si lo hubiésemos leído en cualquier relato de algún autor clásico de ciencia-ficción, no hubiese pasado de una anécdota literaria; pero Vannebar Bush se tomó muy en serio la descripción de su máquina Memory – Extender (MEMEX). En la descripción de esta máquina, se aportaba una primera idea de cómo un documento podría ser unido con otro para su recuperación mecánica. La idea fue difundida en un artículo en The Atlantic Monthly en 1945 bajo el título As We May Think, aunque el autor comenzó a trabajar en el texto seis años antes, en 1939. En el documento, Bush se planteaba cómo se estaba gestionando la información en aquella época y cómo se podría hacer más accesible.

Inspirado por Paul Otlet, Bush consideraba que los métodos utilizados para transmitir y revisar los resultados de la investigación no eran los más adecuados. De hecho, consideraba que la cantidad y el volumen de la información que se generaba en aquel momento era tal que no se podía gestionar adecuadamente. Por ello, proponía un dispositivo que permitiese gestionar la información y que evitase en buena medida la sobrecarga de información (infoxicación). Con su Memex, las personas podrían comprimir y almacenar todos sus libros, registros y comunicaciones, además de gestionarlos.

A memex is a device in which an individual stores all his books, records, and communications, and which is mechanized so that it may be consulted with exceeding speed and flexibility. It is an enlarged intimate supplement to his memory.

It consists of a desk, and while it can presumably be operated from a distance, it is primarily the piece of furniture at which he works. On the top are slanting translucent screens, on which material can be projected for convenient reading. There is a keyboard, and sets of buttons and levers. Otherwise it looks like an ordinary desk.

Esquema del MEMEX de Bush

Bush consideraba que su aparato podría extender la memoria de las personas – de ahí su nombre -, podría ser consultado con velocidad y flexibilidad. El soporte elegido por el investigador era el microfilm. De este modo, creía que todos los registros debían ser almacenados en ese soporte, ya se tratase de materiales adquiridos o materiales introducidos por el autor. El Memex permitía al usuario «fotocopiar» aquellos contenidos que desease e integrarlos dentro del sistema.

Tal vez, lo más interesante conceptualmente era que sugería un sistema de clasificación que podría ser considerado como un sistema proto-hipertextual. El aparato facilitaba un tipo de indexacion asociativa a través del que cualquier elemento podría llevar a otro mediante la voluntad del usuario y los senderos (trails) que defina. Según Bush, el usuario tiene que indexar un documento o imagen mediante un código que se registrará en un libro de forma independiente y que facilitará la recuperación de información. El autor no describe en ningún momento un sistema de recuperación automática, ni esquemas de metadatos universales como una clasificación bibliotecaria.

The essential feature of the memex [is] the process of tying two items together… When the user is building a trail, he names it in his code book, and taps it out on his keyboard. Before him are the two items to be joined, projected onto adjacent viewing positions. At the bottom of each there are a number of blank code spaces, and a pointer is set to indicate one of these on each item. The user taps a single key, and the items are permanently joined… Thereafter, at any time, when one of these items is in view, the other can be instantly recalled merely by tapping a button below the corresponding code space.

El concepto del Memex se considera como una de las ideas semilla de lo que vendría a posterior cuando se empezó a diseñar Internet en primera instancia y la Web en segunda, evolucionando esa concepción de trail el hiperenlace y el hipertexto que verían la luz varias décadas después.

Comentarios cerrados

Cuando el tagging se convierte en nocivo (en el MundoReal™)

Una de las cosas que la Web 2.0 trajo consigo es el etiquetado tanto de artículos, fotografías como de otro tipo de documentos. Estas etiquetas, asignadas en muchas ocasiones libremente por los usuarios de este tipo de servicios, son palabras clave cuyo fin es permitir a otros usuarios del mismo servicio localizar información y artículos relacionados.

Este sistema de clasificación de información de los que se sirve servicios bien conocidos como Twitter o Instagram es una buena idea en un principio. Por ejemplo, en el caso de Twitter sirve para la detección de las tendencias en distintos ámbitos de clasificación de la información, ya se geográficamente como temáticamente. Y a pesar de que esta acción parezca ser superflua en primera instancia, tiene un impacto en el MundoReal™.

Algo tan inocente como un turista o un vecino añadiendo una etiqueta a una fotografía que se acaba de hacer de un elemento natural que le resulta bonito o simplemente interesante puede llegar a convertirse en un problema precisamente para la conservación de aquello que acabamos de inmortalizar. De hecho, ya hay Parques Naturales como Keep Jackson Hole Wild que están pidiendo a sus visitantes que no Geo-localicen sus fotos en un intento de preservar los espacios naturales del parque.

Un ejemplo a pequeña escala es el Broccoli Tree que acabó siendo vandalizado y finalmente talado precisamente por su popularidad en Instagram. El árbol fue popularizado por Patrik Svedberg que realizó durante meses de un árbol situado en Suecia. Poco a poco, el árbol fue adquiriendo popularidad convirtiéndose en una pequeña atracción turística y ganándose un hueco como celebridad en Instagram con 30.000 seguidores. Sin embargo, en 2017, alguien cortó una de sus ramas y posteriormente alguna autoridad local decidió que había que cortar el árbol entero poniendo fin a este pequeño rincón natural.

De esta forma, un sistema que sirvió para destacar un elemento natural y que personas de todo el mundo lo conociesen y apreciasen, sirvió también para acabar con él. Algo que también se puede comprobar a mayor escala en espacios naturales como Maya Bay que tuvo que ser cerrada para tratar de recuperar su ecosistema ante la gran afluencia de turistas.

Comentarios cerrados

Tú en tu burbuja (de información)

2018 fue el año que se le cayó la careta de Facebook definitivamente. Detrás de la imagen, un tanto amable de Mark Zuckerberg, ya puesta en duda en la película de David Fincher La Red Social, en la que se mostraba al CEO de Facebook como una persona ambiciosa y sin apenas escrúpulos (aunque se le trataba de edulcorar hacia el final de la cinta); descubrimos una realidad en la que lo sencillo es traficar con nuestros datos casi con total impunidad. Así, tras disculpa tras disculpa, Facebook ha ido escurriendo el bulto durante todo el año.

Sin embargo, hace ya bastante tiempo que se nos advirtió que cuando algo era gratis, el producto éramos nosotros. En definitiva, que alguien estaba explotando esa información que desinteresadamente, casi sin darnos cuenta, estábamos dándoles un pozo de información de la cual se podía extraer un beneficio económico.

No nos llevemos a engaño. Cada vez que conectamos un servicio adicional (Spotify, iVoox, etcétera) a Facebook o a Google, le estamos dando una llave a acceder a una gran cantidad de información a una y a otra empresa. Una información que nos descubre quiénes somos a terceros hasta extremos que como usuarios no podemos imaginar. Os invito a que os paseéis por la web de Google My Activity o vuestro historial de localizaciones para descubrir qué sabe Google de vosotros. Por supuesto que esto es sólo una pequeña parte de lo que la empresa de la gran G sabe de nosotros.

Esta información no sólo sirve para saber qué nos ha interesado, si no también qué nos puede llegar a interesar. En el caso de Google, en diciembre de 2009, implementó un algoritmo para ajustar los resultados al usuario. De esta manera, buscásemos lo que buscásemos, Google trataría de acomodar la información que nos proveyese atendiendo a nuestros gustos. Por ejemplo, dependiendo de la información que tuviese la empresa de Mountain View, cuando buscásemos “partido político” podría preponderar información sobre partidos de la izquierda o de la derecha partiendo de nuestras búsquedas previas y nuestras preferencias.

Este filtro burbuja ya establecido provoca que nos veamos limitados a la hora de obtener la información más relevante ante una búsqueda. Realmente Google nos ofrece lo que queremos leer, no la información más completa y mejor. Esto puede derivar hacia que la próxima batalla se va a establecer respecto a qué datos pueden ser usados y cómo en cuanto usamos la red. La privacidad se está convirtiendo en una característica de los productos de Apple sin ir más lejos.

En España, tenemos un ejemplo respecto a la ley que permite recopilar datos a los partidos políticos para definirnos ideológicamente. Este movimiento legislativo ya ha sido contestado por la Agencia de Protección de Datos española afirmando que es ilegal recopilar información sobre la ideología de las personas, aunque obviamente parezca que esa información ya se encuentra recopilada y disponible para quien quiera usar de ella.

Ya se ha demostrado que en Twitter (y por supuesto en cualquier red social) seguimos a personas que tienen nuestros mismos puntos de vista, que no seguimos a personas del signo contrario. El riesgo es que se nos intente manipular de cierta manera para que cambiemos nuestro punto de vista, que no alcancemos la información que nos daría un contrapunto y que nos hiciese cuestionar nuestras creencias previas. De esta manera, una fuente podría darnos una información falsa interesadamente, dándonos una confirmación de algo que tenemos nosotros prefijado previamente y que no necesariamente se acercase a la realidad.

En definitiva, el riesgo no es la información, sino la desinformación y la manipulación como se ha ido demostrando los últimos años. Una vez más, como consumidores de información debemos considerar qué fuentes de información consultamos, qué ética se persigue y si realmente esta fuente de información es real o de humor (¿cuántas personas de habla hispana y no hispana saben que El Mundo Today es un medio satírico?).

Actualmente, el acceso a la información es casi inmediato, pero sin filtro. El filtro lo establecemos cada uno de nosotros con nuestra experiencia, aunque gracias a los algoritmos serán otros los que decidan cómo y qué tipo de información consumiremos.

Comentarios cerrados

La otra barra de internet: los comentarios

Alguien me comentó una vez divertido que cuando visitaba un medio de comunicación, tenía querencia por leerse el titular y pasar directamente a los comentarios mientras se reía. Me pareció un punto de vista interesante, ya que acababa de despreciar el contenido del medio de comunicación por la conversación que se generaba, y además marcaba otro lugar fuera de lo que actualmente se considera que el lugar donde deben realizarse las conversaciones de bar digitales: Twitter. Por supuesto que la red social no está marcada tan sólo por polémicas informativas, ya que se han llegado a diferenciar hasta seis tipos de conversaciones en Twitter, pero no me parecía sensato que se abonase el terreno dentro de una web para discutir casi de cualquier cosa porque, como es obvio, la conversación podría escalar hasta límites insospechados.

Tampoco debemos olvidar que no sólo los medios de comunicación generan polémicas alrededor de los comentarios ya que sitios de compra o de recomendación como Amazon o Tripadvisor también los poseen dentro de su ámbito. Por lo tanto, como podemos comprobar cómo gestionar la participación de los usuarios y los lectores dentro de las webs ha sido intenso y complejo. En el caso de los medios, ¿qué valor añadido pueden dar? ¿realmente fomentan el debate y la generación de argumentos, contraargumentos e ideas? ¿o simplemente se trata de armar una discusión abonada al insulto o a afirmar que el otro no tiene ni idea sin atender a nuestras propias argumentaciones?

Desde luego, que más allá de la problemática de gestión que generan los comentarios en un medio de comunicación, también hay que tener presente que los profesionales que firman un artículo también se pueden llegar a sentir afectados de cierta manera sobre el debate sin freno que pueden generar. Sin embargo, aunque el debate se ha extendido incluso teniendo que dar explicaciones en algunas ocasiones debido a la virulencia de los comentarios, que un medio renuncie a los comentarios es renegar de una parte del valor que generan los contenidos. Y aunque es cierto que ese debate se ha trasladado hacia otras fuentes de información y de difusión como son las redes sociales, esos comentarios permiten a los medios de comunicación construirse una identidad tanto dentro de internet como fuera de ella.

Por eso, en un primer momento, los medios de comunicación no percibieron la polémica con los comentarios como un problema, si no como algo positivo. Principalmente, porque la presencia de que algún usuario incitase a la polémica servía a la retención del resto de los usuarios, a registrarse en el medio y por supuesto a que permaneciesen más tiempo en la página. Claro que finalmente el contenido del artículo no era lo importante y se veía desplazado por las descalificaciones que se entrecruzaban unos y otros. Se alcanzaba un punto que los propios autores de las piezas informativas debían evitar la lectura de esos comentarios puesto que descubrían que lo importante no era lo que se relataba en ellos sino más bien la viralidad que se podía obtener de ellos.

Sin embargo, los medios de comunicación han tratado de cuidar los comentarios desde un primer momento tratando de controlar el ámbito y las buenas formas. Simplemente para dar un valor añadido a los artículos. Lamentablemente, en algunas ocasiones, las peores cosas de los propios medios de comunicación son los lectores y desde luego que tener la posibilidad de decir no implica tener algo que decir y es lo que siento cuando yo mismo leo los comentarios de algunas noticias.

Imagino que cuando ya se alcanzan las descalificaciones personales es cuando el asunto se descontrola. En el pasado, las cartas al director eran una vía de salida a aquellos lectores enfadados con el medio. Por supuesto que eran otros tiempos cuando todo se destilaba de una forma más tranquila y sin las premuras de esta sociedad líquida. En cualquier caso, los medios de comunicación todavía no han acabado con la posibilidad de que sus lectores aporten sus puntos de vista a través de los comentarios y desde luego no parece que sea una opción que vaya a cerrarse en el medio plazo.

Comentarios cerrados

Abro hilo

Hace un tiempo que Twitter dejó de ser el lugar de los 144 caracteres y pasó a ser algo más basto y probablemente más interesante. No cabe duda que fueron sus propios usuarios los que fueron marcando el camino a sus desarrolladores. Los RT fueron retuits, los FAV fueron likes y los enlaces pasaron a no contar dentro de esos 144 carácteres cuando fueron considerados como información necesaria (para drama de las plataformas desarrolladas para acortar las URLs de esos enlaces). Un tiempo después, esos 144 caracteres se duplicaron con la intención de permitir poner más contenido; aunque también es posible que simplemente sirviese para añadir más palabras de las necesarias.

Pero, Twitter es un ente que se debe ir ajustando a sus usuarios y estos comenzaron a marcar sus tuits indicando cuándo comenzaba y acababa un mensaje que sobrepasaba esos 144 caracteres iniciales. Por ejemplo, si un tuit pertenecía a un grupo de tres, y era el segundo de ellos, se marcaba claramente (2/3). Y de ahí surgieron los hilos y Twitter decidió implementarlo como otra opción más.

Me parece fascinante las aplicaciones complementarias de estos hilos tuiteros. En algunos casos, se trata de hilos periodísticos de resumen de una semana. En otras ocasiones, se trata de hilos literarios donde el autor prosigue su relato, intercalándose los comentarios de los lectores. Otras veces, es una historia de ficción, personificada en el tuitero donde transmite sus vivencias jugando con la realidad y la ficción. En otras ocasiones, son artículos más o menos elaborados de un tema, que añaden información relativamente novedosa y podrían ser considerados bastante bien una pieza periodística.

Como autor en un blog, y desde luego que amante de los textos largos puesto que considero que siempre es necesario un poco de contexto, nunca llegué a comprender muy bien las bondades de Twitter. Aunque tengo que afirmar que Twitter es una herramienta ideal dentro de esta sociedad hiperconectada, enganchada a las notificaciones, que consume contenidos en pantallas pequeñas y que agotan la vista. Twitter pertenece y es un paradigma de esta sociedad líquida. Sin embargo, los hilos también agotan a sus consumidores. El esfuerzo cognitivo y de recuperación de la información que debe realizarse para consumir contenidos en Twitter y más si se trata de un hilo es superior a otros contenidos puesto que hay que hacer una tarea de recuperación e investigación superior. En ocasiones, es imposible recuperar toda la información y obviamente se pierde.

Personalmente, opino que el drama de los hilos es que pueden quedarse en un saco roto. Nadie podrá recuperarlos dentro de un breve tiempo (unos meses) y sus autores también les perderán la pista una vez publiquen 20 tuits o incluso otro hilo. Este es el destino de los hilos, de sus contenidos, que nadie se acordará de ellos cuando sobre pasen los diez primeros tuits de las cuentas que los originaron.

Aunque también es posible que sus autores perseguían precisamente eso con sus hilos, contenidos breves y efímeros sin mayor ambición que ser consumidos en el ámbito temporal en el que fueron concebidos. Sociedad líquida en estado puro tal y como lo es también Twitter.

Comentarios cerrados