Saltar al contenido →

El Documentalista Enredado Entradas

El móvil, las redes sociales, los podcast… la lectura

“Tomé un curso de lectura rápida y fui capaz de leerme “Guerra y paz” en veinte minutos. Creo que decía algo de Rusia”
Woody Allen

Desde la pandemia que utilizo una aplicación de seguimiento de lectura y especie de red social de lectores denominada Goodreads. En ella, echo a faltar muchas cosas, pero en el fondo me parece divertida porque compruebo de forma fehaciente que cada año es imposible cumplir los objetivos que me propuse al inicio. Sí, dentro del campo de la lectura, ese compromiso intelectual que uno adquiere con uno mismo, no podría fallar dentro de las promesas aparcadas en espera de un tiempo mejor. Podría hacerme trampas al solitario y esos 20 libros como objetivo que me marco cubrirlos con novelas cortas, fotolibros o novelas gráficas, pero desgraciadamente realmente leo lo que me apetece leer y no son precisamente libros cortos. A esto también hay que añadir cuándo apetece leer y la gran competición que tiene la lectura frente a otros formatos.

Leyendo el artículo What’s Happening to Reading? de Joshua Rothman en The NewYorker, descubro que no estoy tan solo en esa pelea diaria con la lectura (más bien pelea con el día a día). El artículo describe cómo los índices de lectura han bajado y en la búsqueda de las razones, podríamos situar a las redes sociales entre otras. Pasar del denominado en el texto paréntesis de Gutenberg (cuando el ecosistema impreso imperaba en la transmisión de la información) al paréntesis de Zuckerberg (esa transmisión se ha hecho más líquida y conversacional), me ha provocado cierta estupefacción (sin restarle realidad), pero me ha impactado aún más el descubrir que hay personas que ya piensan que escriben para que las IAs las lean, más que un ser humano.

Zuckerberg no está solo. Hoy las opciones se multiplican y todo el mundo lleva un pequeño televisor y ordenador en el bolsillo. Estamos tan hiperconectados con otras personas que a veces se nos olvida que también está bien conectar con uno mismo. Los interludios deben sen rellenados con música, podcasts, chats, móviles… Olvidamos que los momentos de sosiego también son importantes, así como los momentos de silencio. No hay nada más silencioso e introspectivo que la lectura.

Hubo un tiempo que se consideró al metro, la mayor biblioteca ambulante del mundo. Hoy en día, puede que deberíamos cambiar esa acepción. Lectores todavía existen dentro de ese ecosistema cíclico y atareado, los hay que cargan con sus ebooks, los hay (y los considero la resistencia) que todavía cargan con sus libros impresos y los hay que tratan de ponerse al día de la actualidad diaria en los interludios de intercambiador de línea a intercambiador (entre los que me incluyo) con el móvil, pero el contenido que más se consume es el audiovisual. Las nucas torcidas de los trenes, los autobuses, los aviones consumen vídeos de distintas plataformas, YouTube, TikTok, Instagram… Es una batalla perdida frente al algoritmo.

La lectura nunca fue cómoda. Solitaria, densa, demandante de tiempo y concentración, nos pone frente a un espejo. Entiendo los audiolibros, pero no son una solución. El audiolibro es interpretado, se añade una pátina del recitador frente al autor. Es una forma de evitar ese momento con nosotros mismos, siempre acompañados. En breve, el recitador ya no será un actor/actriz. Esa voz será la misma, con el característico acento que te comentará un vídeo de YouTube o te leerá Tolstoi son los mismos dejes. Por supuesto que le pediremos que lea más rápido, que evite esos “adornos estilísticos” que define a la literatura, que se centre en la trama, que haga un resumen. En 20 minutos, habremos podido haber leído “Guerra y Paz” y nos sentiremos plenos en cierta medida.

Deja un comentario

Que los filtros de la IA te dejen ver el bosque

Un texto de la Defensora del Lector del diario El País trataba de explicar la razón, y por ende disculparse, de que una de las newsletter que enviaba el diario a sus lectores parecía incluir frases o expresiones que parecían sacadas de contexto o simplemente no tener ningún sentido. Los lectores se quejaban de algunas “erratas groseras” que creían no dignas de un medio de comunicación como El País, pero que se habían repetido durante algunas semanas.

A modo ilustrativo, en una de ellas, por ejemplo y entre otras, se recogía el titular “Uruguay desprecia a Mujica” (haciendo referencia al presidente recientemente fallecido) cuando en realidad desde el diario se había enviado el titular “Uruguay despide a Mujica.” Tras realizar las revisiones pertinentes, se llegó a la conclusión que desde el diario no se había cometido errores de redacción, pero ¿cuál era la razón de que esa newsletter contuviese textos erróneos?

Fueron los propios lectores los que aclararon el misterio cuando advirtieron que una opción de Gmail cambiaba algunos términos al traducirlos desde el inglés (aunque el texto esté redactado en castellano desde un inicio).

Tras la resolución del enigma, el texto periodístico concluía:

Este caso expone cómo la personalización de los servicios de las plataformas de Internet, pensada para ayudar a sus clientes, se automatiza ya tanto y sin control que cuando toma decisiones inadecuadas acaba por perjudicarlos sin que estos sean conscientes. El peligro está en no ser prudente con los permisos que se les dan o en desconocer qué tipo de servicios vienen por defecto. Porque a veces la inteligencia artificial se pasa de lista.

Este pequeño caos generado a partir de un hecho anecdótico debido a una opción que puede ser muy útil a priori, pero que puede llevar a la confusión si los usuarios del servicio no son conscientes de que está activada por defecto, puede ir escalando y haciéndose mayor a lo largo del tiempo. Por ejemplo, Gmail desde hace poco puede resumir los correos gracias a su servicio de Gemini.

Por supuesto que ya éramos conscientes de que Google revisaba nuestros correos para colocar anuncios dependiendo del contenido, pero ahora reelaborará completamente la información y mostrará un resumen justo arriba del texto original. Lo que nos puede llevar a una pregunta cuándo comenzarán estas grandes plataformas u omitir temas que generen polarización social y ha construir un relato propio.

Esta premisa no debería sorprendernos. Es conocido que DeepSeek, una IA china, evita los temas más polémicos de la historia reciente del país asiático. Al otro lado del Pacífico, la propia Apple también se ha visto envuelta en una polémica puesto que su IA inventaba o reeinterpretaba noticias. Descubrimos que si Internet ya es un lugar donde el lector debe poseer cierto espíritu crítico para entender el contexto donde se publica una información, cuando una IA autogenera contenido (contenido que se genera una vez y no tiene porqué ser similar al anterior aunque se pregunte le mismo), qué margen de credibilidad nos puede llegar a quedar como lectores.

La publicación JotDown (un magazine cultural) publicaba una nota donde trasladaba una realidad que está transformando – una vez más – a los medios de comunicación. Qué hacer cuando nadie nos busca recogía el descenso pronunciado de visitantes de las principales fuentes que habían tenido hasta la fecha (Google, X, Facebook). Aseguran en su texto que han tratado de seguir las líneas maestras definidas por las plataformas, que han diversificado las fuentes, que han adecuado los mensajes y su sitio web para que los bots y los algoritmos traten de posicionarlos en el lugar donde deberían estar. Sin embargo, los algoritmos los penalizan, puede por que la IA genera las respuestas automáticamente y los usuarios no tienen necesidad de visitar la fuente original, o puede porque sus textos sean demasiado largos.

Para cualquiera que publica en Internet ya sea un medio de comunicación o un blog, ya es que ni siquiera es necesario leer una fuente original, los navegadores incorporan herramientas IA para hacerte un resumen de la página en la que estás interesado (un ejemplo de ello es ARC Browser). De este modo, un modelo de lenguaje es capaz de extraer las ideas y representarlas en un texto mucho más corto, más digerible y por supuesto desbrozado por un algoritmo.

Deja un comentario

En el mundo IA, el acceso a la información podría ser a dos velocidades

En la pasada Google I/O (su conferencia de desarrolladores), entre muchas cosas, la compañía de la gran G desveló Google AI Ultra, un nuevo servicio de suscripción que da acceso a los modelos más potentes y funciones premium de la compañía. La compañía afirmaba que era un pase VIP a lo mejor de Google IA junto a otros servicios (como YouTube Premium y 30 TB de almacenamiento) por 250 dólares mensuales.

En sí mismo, el anuncio no debería sorprender a nadie. Los modelos de suscripción por un servicio premium o el acceso a contenidos es un modo de monetización que a mediados de la década de 2020 es muy habitual en muchos sectores (y en ocasiones cayendo en el ridículo). Estamos acostumbrados a pagar una cuota mensual por entrega de paquetes (Amazon), a ver la televisión bajo demanda (Netflix) o tener una suscripción por toda la música (Spotify). Sin embargo, no debemos olvidar que hace veinte años este modelo de pago por acceso era algo no era tan frecuente.

Tras un período de popularización del pago de cuotas y tener un público cautivo, se ha pasado a un modo de búsqueda de la eficiencia a la hora de explotación de esos contenidos. Por ejemplo, casi todas las empresas de vídeo bajo demanda están incluyendo tarifas más baratas con anuncios (que incluso son más rentables que las tarifas normales sin anuncios) y se ha impulsado la restricción de compartir contraseñas entre usuarios que tanto afectaba a los resultados de las Juntas de Accionistas.

Pero el buscador de Google siempre ha sido gratis, no ha discriminado el acceso. “Hacer accesible toda la información del mundo” era el leitmotiv de la compañía americana. Es cierto que en los primeros años la compañía de Mountain View generaba dudas sobre su sostenibilidad futura puesto que no parecía encontrar una fuente de ingresos recurrente. Por supuesto que eso cambió con la publicidad contextual (promocionada en su momento como no-invasiva) que la compañía incluyó tanto en su buscador como otros servicios como Gmail y otras webs que podían incluir los scripts de la publicidad contextual de Google. Sin embargo, la filosofía permanecía como uso gratuito con las mismas características más o menos horizontales para todos.

La inteligencia artificial generativa puede socavar el uso tradicional de los buscadores y una de sus principales fuentes de ingresos de la gran G. Tanto Google como otros servicios, deberán abordar cuál es la manera más eficiente de explotar ese producto. De momento, han ido incorporando distintos modelos de suscripción que permitían una mayor cantidad de interacciones o el acceso a mejores modelos. Google en esto no difiere en exceso a sus competidores, es cierto.

La cuestión aquí será cuando los agentes IA dejarán de dar tan buenos o los mejores resultados. Por ejemplo, los agentes podrán tratar de ser honestos cuando el usuario les diga “mejores restaurantes para comer arroz en Valencia” o puede que posicionen otro tipo de resultados tras el pago de los restaurantes por su promoción (una evolución del Search Engine Marketing actual). Dándole una vuelta de tuerca adicional, cuando se popularicen los asistentes de IA que podrán buscar el mejor restaurante por nosotros y hacer una reserva por nosotros. ¿Serán imparciales o estarán influidos por algo más?

Pero más allá de estos casos de uso, y teniendo en cuenta que hoy en día las IAs se inventan algunos resultados, ¿ofrecerán IAs honestas y verídicas si pagas más? ¿Será el fin de cierta democratización al acceso a la información (con sus fallos y aciertos) como la hemos conocido? Desde luego que hay un debate interesante por delante.

Deja un comentario

Google evoluciona su búsqueda apoyado en la IA

Cómo se han concebido las búsquedas de información en la web no han variado en exceso desde hace años. Ni siquiera Google, que destronó en su momento a Yahoo y Altavista, modificó de forma importante cómo se representaban los resultados de las búsquedas. Es cierto que, al contrario de su competidores de entonces, ofreció una página limpia a la hora de realizar las búsquedas que fue revolucionaria en su época, pero cómo se mostraban los enlaces que daban acceso a las fuentes relevantes a una búsqueda determinada no suponía un gran cambio. Al final, usase un buscador u otro, el usuario siempre se encontraba con un listado de enlaces web que seguían una prioridad determinada por un algoritmo sobre los que el usuario debería ir saltando confiando encontrar la información deseada.

Lo interesante en este punto es que el usuario tendía a conformarse con los primeros resultados que los buscadores mostraban, no tendía a profundizar en las respuesto y esto derivó en dos situaciones: Google comenzó a monetizar ese espacio prioritario (llegando en ocasiones al ridículo) y los generadores de contenido trataban de que el algoritmo les situase en los primeros puestos tratando de entender sus reglas de priorización.

Esta situación derivada desde los años 90 del siglo XX, va a cambiar con la consolidación de la tendencia de la Inteligencia Artificial (IA). Google presentó recientemente su nuevo AI Mode que viene a modificar cómo vamos a interactuar con su buscador. Pero es importante puntualizar que no lo hace por gusto, se ve empujado porque la competencia ha comenzado a robarle protagonismo a la gran G en el sector de las búsquedas de Internet.

Las implicaciones del cambio de la búsqueda hacia un listado de documentos a una conversación es un movimiento de las placas tectónicas de la web tal y como la hemos conocido. Lo primero, Google ve cómo empieza a ser desplazado en este mercado dentro de una competencia liderada por OpenAI con su ya ubicuo ChatGPT principalmente, pero emergiendo otras propuestas muy interesantes como Perplexity o Anthropic. Los modelos de IA generativa comienzan a erosionar la línea de flotación sobre la que se sustenta Google en su página principal, la publicidad contextual.

Esta percepción de cambio también comienza a involucrar a otros actores que tenían acuerdos con Google y que se comienzan a replantear cuál va a ser el futuro de la búsqueda en Internet e incluso en su integración con los dispositivos móviles. Uno de los más relevante es Apple que comienza a valorar el cambio de la opción de búsqueda por defecto de su navegador Safari preponderante en los iPhones hacia otra solución conversacional.

De momento, Google comienza a apalancarse en su liderazgo en Internet con el navegador Chrome para tratar de contener a sus competidores dentro del ámbito de las búsquedas de internet con AI, lo que puede reforzar la percepción de que es un monopolio bajo el que ya está siendo investigado.

Deja un comentario

Documentarse en tiempos de IA

Dos estudiantes de Massachussets (EEUU) fueron descubiertos utilizando una Inteligencia Artificial para la generación de textos en un trabajo escolar y sancionados. Hay que aclarar que no fueron sancionados por usar una IA per se, puesto que estaba permitido su uso para documentarse y buscar fuentes, sino por copiar y pegar textos de forma literal que, para su mala fortuna, la IA se había inventado (aunque es un caso frecuente). Esta noticia sorprende por las consecuencias que puede acarrear a los dos estudiantes, ya que es posible que no puedan acceder a estudios universitarios.

Además, con cierta perspectiva, se nos hace más difícil imaginar un uso cotidiano en el que no se pueda aplicar el uso de las Inteligencias Artificiales Generativas como ChatGPT. Las grandes empresas tecnológicas se encuentran en una carrera hacia el despliegue y la implementación de este tipo de soluciones en el día a día como el próximo The next big thingtecnológico. Microsoft, Apple, Samsung o Google se afanan en integrarlas dentro de sus dispositivos para su utilización de forma masiva, lo que las popularizará aún más. Por lo que se producirán más situaciones de uso que puede ser considerado dentro de ciertos ámbitos como no lícito o inadecuado.

No hace tanto tiempo que, para documentarse, el usuario debía realizar una tarea de filtrado exhaustiva. Saltando de ficha en ficha en formato de cartulina, almacenadas en grandes archivadores de madera y recorriendo estanterías hasta localizar el libro a consultar que debía abrir, leer (aunque fuese un capítulo específico) y determinar aquello que consideraba más interesante para hacer referencia en su trabajo de investigación. Era un trabajo de síntesis intenso y en ocasiones inabarcable, que fue haciéndose más cómodo, pero no por ello más sencillo. Como otras tareas, las referencias bibliográficas se fueron digitalizando y volcando en bases de datos para localizar de forma más rápida la información que se encontraba todavía en soporte papel. El proceso no acabó ahí, ya que la digitalización fue imparable y prácticamente todo el conocimiento se fue trasladando a bits para hacerlo en buena medida accesible en cualquier parte y a cualquier hora.

Google llegó con una misión ambiciosa, hacer todo el conocimiento accesible para todo el mundo y se convirtió en el buscador de referencia para los internautas. Ya no se salta de referencia bibliográfica a referencia bibliográfica, más bien de enlace a enlace para extraer aquello que nos parece más significativo de una página web o de un documento que se quiera consultar.

A pesar de esta nueva accesibilidad a una mayor de información, no había olvidar que en cualquier supuesto hay que tener presente qué se debe de considerar una fuente de información fiable y qué no. Lamentablemente, parece que los automatismos de las IAs nos hacen bajar la guardia como nos sucede en las redes sociales, condenados en una vida de consumo digital acelerado. Olvidamos que las IAs son solo herramientas a nuestro servicio. Su capacidad de consultar distintas fuentes, de extraer la información y estructurarla nos pueden llevar a la conclusión de que lo que nos exponen de forma tan razonada puede ser cierto, pero olvidamos que nosotros somos el último filtro. Debemos ser capaces de evaluar qué fuentes de información son mejores y en qué grado debemos confiar la información que nos exponen. Para ello, sólo deberíamos confiar en aquellas que hacen referencia a fuentes que puedan ser consultadas y que podamos comprobar.

Las IAs hacen un trabajo que antes podría llevarnos meses y tienen un potencial inmenso para ayudar al ser humano en la generación de conocimiento. Pero debe ser el ser humano el que evalúe esa información, el que la entienda y, por supuesto, que la supervise. De lo contrario, estaremos delegando y dando por bueno un sistema que está diseñado para satisfacer nuestras necesidades, olvidando que nunca admitirá “no lo sé”, “no tengo acceso” o “no lo he encontrado” (en algunos casos) y nos hará caer en la trampa de la desinformación que justo tratamos de evitar.

Deja un comentario

Refinando el nuevo petróleo: el poder de los datos

Data is the new oil. Like oil, data is valuable, but if unrefined it cannot really be used. It has to be changed into gas, plastic, chemicals, etc. to create a valuable entity that drives profitable activity. so, must data be broken down, analysed for it to have value.*

Clive Humby, 2006

Las personas nos hemos convertido en unas nuevas fuentes de información inagotable para las empresas. No es necesario ni siquiera que estemos interactuando con dispositivos electrónicos, sólo llevando uno en nuestro bolsillo, ya puede estar compartiendo información sobre nosotros de forma ininterrumpida.

Los datos que vamos dejando de forma inconsciente según la economía se digitaliza más y más conforman nuestra huella digital. Al contrario que el petróleo pero de forma similar, nuestros datos son finitos, sí, pero pueden ser refinados en infinitas formas, con distintos objetivos y usos. Tienen un valor económico intrínseco, ya que pueden mostrar patrones y modos de comportamiento de los que ni nosotros somos conscientes y que puede que no puedan ser explotados hoy, pero sí en el futuro. En definitiva, esos datos dicen mucho más de nosotros que nosotros mismos. Por supuesto que sucede lo mismo con la información de las empresas, que van dejando datos según desarrollan sus propias actividades.

La industria de los datos avanza muy rápido, más allá de legislaciones y acuerdos tácitos entre empresas. Sólo hay que comprobar la polémica entre empresas editoras y las empresas que desarrollan las inteligencias artificiales puesto que consideran que las últimas han cometido abusos sobre los datos compartidos en Internet que no se han utilizado con el fin con el que fueron publicados en un inicio.

Este punto incide sobre lo más importante del uso de los datos. No es importante acaparar los datos, conservarlos, extraerlos; si no lo especialmente relevante es cómo se usan esos datos. Como documentalistas, debemos saber establecer unas pautas de esa explotación del dato: de dónde viene el dato, qué se permite hacer con el dato y qué no; y cómo se pasa de un dato a un dato útil.

  • Origen del dato. No todos los datos son fiables. Algunos de ellos tienen sesgos, otros son falsos, otros erróneos… Es relevante saber de dónde proviene el dato, de dónde se extrae para valor la utilidad del mismo.
  • Privacidad del dato. Si hablamos de datos de personas o de cualquier índole, es importante saber con qué medio, con qué finalidad se ha extraído el dato y su finalidad de uso. Esto deviene a la capacidad de poder explotarlos y sobre todo según la legislación madura y avanza, es importante tenerlo presente.
  • Protección del dato. La privacidad es una manera de proteger el dato, otro es cómo asegurar que siempre está disponible cuando es necesario y se va a usar. Hay que tener presente que cuanto más importante sea la disponibilidad de los datos para la empresa, mayor será el impacto de la no disponibilidad de los mismos.
  • Preparación del dato. El dato en crudo no es útil, necesita ser refinado (preparación del dato, limpieza de los dato). Tener una estrategia para la preparación del dato es esencial.

Deja un comentario

La teoría de la internet muerta, ¿hay algún humano aquí dentro?

En los dos posts anteriores de este blog (12), trazaba los cambios y evoluciones de la Web a lo largo del tiempo. Además, incidía en cómo el contenido generado a través de las herramientas de inteligencia artificial iba a convertirse en un desafío para el medio que se suponía que iba a democratizar el acceso a la información y la comunicación. Sin entrar en el debate de la caza de los clics y de la atención de los usuarios con ofertas imposibles y de noticias impactantes que merecerían un texto a parte, la discusión sobre la Dead Internet theory incide en la pérdida de la creatividad y la diversidad que sufre actualmente la Red debido a la evolución de los últimos años. Además de que nos invita a hacer una reflexión sobre el estado de la Web actual.

La teoría de la internet muerta, que comenzó a plantearse dentro de los foros 4Chan a finales de los 2010, parte de dos premisas principales. La primera, la actividad humana dentro de Internet se ha visto desplazada por bots y algoritmos. Esto es algo que se puede comprobar de forma sencilla y ya ha habido grandes empresas que ofrecen datos sobre ello, ya que casi la mitad del tráfico se genera por máquinas. La segunda parte, más cerca de las teorías de la conspiración aunque podría fundamentarse en el comportamiento de algunas empresas, que todo ese tráfico autogenerado está gestionado por los gobiernos para controlar la información y manipular la opinión pública.

Como señalaba, no hace falta indagar en exceso de dónde viene esa teoría sobre el «control» de los usuarios reales de Internet. Hay estrategias muy bien definidas para generar tracción en internet tanto a nivel de marketing o comercial o político. Por ejemplo, es bien conocido que en las redes sociales se genera mucho contenido basado en textos e imágenes realizados con inteligencia artificial con idea de mover votos en unas elecciones y generar viralización (clics, comentarios, re-publicaciones, likes), pero además ese mensaje se refuerza con bots en forma de usuarios que tratan de aumentar el volumen de impacto para saltarse los algoritmos y aumentar la visibilidad hacia personas reales. En resumen, contenido generado por bots y aupado por bots de forma artificial para que impacte a los usuarios de la red social.

Nos encontraríamos con información falsa que intenta conseguir un hype (fuerte expectación) verdadero. Este comportamiento y la falta de control y mitigación del mismo apunta directamente a las grandes tecnológicas convertidas en guardianas (gatekeepers) del contenido que se consume masivamente en internet. Estas empresas son prisioneras de su propio modelo de negocio basado en la publicidad y que justifican la inversión a sus clientes (anunciantes) por las interacciones en ellas de sus usuarios (contados en cientos de millones).

Por tanto, es un producto que puede llegar a ser considerado perverso. Los algoritmos desplegados por estas empresas generan un producto atractivo en el que se consume masivamente información que puede llegar a generar burbujas virtuales de información de las que es difícil salir y ahí entra la pérdida del acceso a la información contrastada y del debate.

La web abierta, uno de los sueños a los que hacíamos referencia en textos anteriores, se va descomponiendo, a medida que las grandes empresas comienzan a controlar en mayor medida los datos que los usuarios generan y cambian sus términos y condiciones para utilizarlos en la forma que considere. Una evolución a la que es difícil ponerle coto por la gran dispersión de legislaciones e intereses empresariales y que consolida la idea de que la Web como la conocimos desaparece lentamente, convirtiéndose en una Web sintética donde el contenido se genera de forma automática y rápidamente buscando la viralización y el impacto, que muchas ocasiones no puede ser verificado.

Deja un comentario