Saltar al contenido →

Categoría: Tecnología

Documentarse en tiempos de IA

Dos estudiantes de Massachussets (EEUU) fueron descubiertos utilizando una Inteligencia Artificial para la generación de textos en un trabajo escolar y sancionados. Hay que aclarar que no fueron sancionados por usar una IA per se, puesto que estaba permitido su uso para documentarse y buscar fuentes, sino por copiar y pegar textos de forma literal que, para su mala fortuna, la IA se había inventado (aunque es un caso frecuente). Esta noticia sorprende por las consecuencias que puede acarrear a los dos estudiantes, ya que es posible que no puedan acceder a estudios universitarios.

Además, con cierta perspectiva, se nos hace más difícil imaginar un uso cotidiano en el que no se pueda aplicar el uso de las Inteligencias Artificiales Generativas como ChatGPT. Las grandes empresas tecnológicas se encuentran en una carrera hacia el despliegue y la implementación de este tipo de soluciones en el día a día como el próximo The next big thingtecnológico. Microsoft, Apple, Samsung o Google se afanan en integrarlas dentro de sus dispositivos para su utilización de forma masiva, lo que las popularizará aún más. Por lo que se producirán más situaciones de uso que puede ser considerado dentro de ciertos ámbitos como no lícito o inadecuado.

No hace tanto tiempo que, para documentarse, el usuario debía realizar una tarea de filtrado exhaustiva. Saltando de ficha en ficha en formato de cartulina, almacenadas en grandes archivadores de madera y recorriendo estanterías hasta localizar el libro a consultar que debía abrir, leer (aunque fuese un capítulo específico) y determinar aquello que consideraba más interesante para hacer referencia en su trabajo de investigación. Era un trabajo de síntesis intenso y en ocasiones inabarcable, que fue haciéndose más cómodo, pero no por ello más sencillo. Como otras tareas, las referencias bibliográficas se fueron digitalizando y volcando en bases de datos para localizar de forma más rápida la información que se encontraba todavía en soporte papel. El proceso no acabó ahí, ya que la digitalización fue imparable y prácticamente todo el conocimiento se fue trasladando a bits para hacerlo en buena medida accesible en cualquier parte y a cualquier hora.

Google llegó con una misión ambiciosa, hacer todo el conocimiento accesible para todo el mundo y se convirtió en el buscador de referencia para los internautas. Ya no se salta de referencia bibliográfica a referencia bibliográfica, más bien de enlace a enlace para extraer aquello que nos parece más significativo de una página web o de un documento que se quiera consultar.

A pesar de esta nueva accesibilidad a una mayor de información, no había olvidar que en cualquier supuesto hay que tener presente qué se debe de considerar una fuente de información fiable y qué no. Lamentablemente, parece que los automatismos de las IAs nos hacen bajar la guardia como nos sucede en las redes sociales, condenados en una vida de consumo digital acelerado. Olvidamos que las IAs son solo herramientas a nuestro servicio. Su capacidad de consultar distintas fuentes, de extraer la información y estructurarla nos pueden llevar a la conclusión de que lo que nos exponen de forma tan razonada puede ser cierto, pero olvidamos que nosotros somos el último filtro. Debemos ser capaces de evaluar qué fuentes de información son mejores y en qué grado debemos confiar la información que nos exponen. Para ello, sólo deberíamos confiar en aquellas que hacen referencia a fuentes que puedan ser consultadas y que podamos comprobar.

Las IAs hacen un trabajo que antes podría llevarnos meses y tienen un potencial inmenso para ayudar al ser humano en la generación de conocimiento. Pero debe ser el ser humano el que evalúe esa información, el que la entienda y, por supuesto, que la supervise. De lo contrario, estaremos delegando y dando por bueno un sistema que está diseñado para satisfacer nuestras necesidades, olvidando que nunca admitirá “no lo sé”, “no tengo acceso” o “no lo he encontrado” (en algunos casos) y nos hará caer en la trampa de la desinformación que justo tratamos de evitar.

Deja un comentario

Refinando el nuevo petróleo: el poder de los datos

Data is the new oil. Like oil, data is valuable, but if unrefined it cannot really be used. It has to be changed into gas, plastic, chemicals, etc. to create a valuable entity that drives profitable activity. so, must data be broken down, analysed for it to have value.*

Clive Humby, 2006

Las personas nos hemos convertido en unas nuevas fuentes de información inagotable para las empresas. No es necesario ni siquiera que estemos interactuando con dispositivos electrónicos, sólo llevando uno en nuestro bolsillo, ya puede estar compartiendo información sobre nosotros de forma ininterrumpida.

Los datos que vamos dejando de forma inconsciente según la economía se digitaliza más y más conforman nuestra huella digital. Al contrario que el petróleo pero de forma similar, nuestros datos son finitos, sí, pero pueden ser refinados en infinitas formas, con distintos objetivos y usos. Tienen un valor económico intrínseco, ya que pueden mostrar patrones y modos de comportamiento de los que ni nosotros somos conscientes y que puede que no puedan ser explotados hoy, pero sí en el futuro. En definitiva, esos datos dicen mucho más de nosotros que nosotros mismos. Por supuesto que sucede lo mismo con la información de las empresas, que van dejando datos según desarrollan sus propias actividades.

La industria de los datos avanza muy rápido, más allá de legislaciones y acuerdos tácitos entre empresas. Sólo hay que comprobar la polémica entre empresas editoras y las empresas que desarrollan las inteligencias artificiales puesto que consideran que las últimas han cometido abusos sobre los datos compartidos en Internet que no se han utilizado con el fin con el que fueron publicados en un inicio.

Este punto incide sobre lo más importante del uso de los datos. No es importante acaparar los datos, conservarlos, extraerlos; si no lo especialmente relevante es cómo se usan esos datos. Como documentalistas, debemos saber establecer unas pautas de esa explotación del dato: de dónde viene el dato, qué se permite hacer con el dato y qué no; y cómo se pasa de un dato a un dato útil.

  • Origen del dato. No todos los datos son fiables. Algunos de ellos tienen sesgos, otros son falsos, otros erróneos… Es relevante saber de dónde proviene el dato, de dónde se extrae para valor la utilidad del mismo.
  • Privacidad del dato. Si hablamos de datos de personas o de cualquier índole, es importante saber con qué medio, con qué finalidad se ha extraído el dato y su finalidad de uso. Esto deviene a la capacidad de poder explotarlos y sobre todo según la legislación madura y avanza, es importante tenerlo presente.
  • Protección del dato. La privacidad es una manera de proteger el dato, otro es cómo asegurar que siempre está disponible cuando es necesario y se va a usar. Hay que tener presente que cuanto más importante sea la disponibilidad de los datos para la empresa, mayor será el impacto de la no disponibilidad de los mismos.
  • Preparación del dato. El dato en crudo no es útil, necesita ser refinado (preparación del dato, limpieza de los dato). Tener una estrategia para la preparación del dato es esencial.

Deja un comentario

La teoría de la internet muerta, ¿hay algún humano aquí dentro?

En los dos posts anteriores de este blog (12), trazaba los cambios y evoluciones de la Web a lo largo del tiempo. Además, incidía en cómo el contenido generado a través de las herramientas de inteligencia artificial iba a convertirse en un desafío para el medio que se suponía que iba a democratizar el acceso a la información y la comunicación. Sin entrar en el debate de la caza de los clics y de la atención de los usuarios con ofertas imposibles y de noticias impactantes que merecerían un texto a parte, la discusión sobre la Dead Internet theory incide en la pérdida de la creatividad y la diversidad que sufre actualmente la Red debido a la evolución de los últimos años. Además de que nos invita a hacer una reflexión sobre el estado de la Web actual.

La teoría de la internet muerta, que comenzó a plantearse dentro de los foros 4Chan a finales de los 2010, parte de dos premisas principales. La primera, la actividad humana dentro de Internet se ha visto desplazada por bots y algoritmos. Esto es algo que se puede comprobar de forma sencilla y ya ha habido grandes empresas que ofrecen datos sobre ello, ya que casi la mitad del tráfico se genera por máquinas. La segunda parte, más cerca de las teorías de la conspiración aunque podría fundamentarse en el comportamiento de algunas empresas, que todo ese tráfico autogenerado está gestionado por los gobiernos para controlar la información y manipular la opinión pública.

Como señalaba, no hace falta indagar en exceso de dónde viene esa teoría sobre el «control» de los usuarios reales de Internet. Hay estrategias muy bien definidas para generar tracción en internet tanto a nivel de marketing o comercial o político. Por ejemplo, es bien conocido que en las redes sociales se genera mucho contenido basado en textos e imágenes realizados con inteligencia artificial con idea de mover votos en unas elecciones y generar viralización (clics, comentarios, re-publicaciones, likes), pero además ese mensaje se refuerza con bots en forma de usuarios que tratan de aumentar el volumen de impacto para saltarse los algoritmos y aumentar la visibilidad hacia personas reales. En resumen, contenido generado por bots y aupado por bots de forma artificial para que impacte a los usuarios de la red social.

Nos encontraríamos con información falsa que intenta conseguir un hype (fuerte expectación) verdadero. Este comportamiento y la falta de control y mitigación del mismo apunta directamente a las grandes tecnológicas convertidas en guardianas (gatekeepers) del contenido que se consume masivamente en internet. Estas empresas son prisioneras de su propio modelo de negocio basado en la publicidad y que justifican la inversión a sus clientes (anunciantes) por las interacciones en ellas de sus usuarios (contados en cientos de millones).

Por tanto, es un producto que puede llegar a ser considerado perverso. Los algoritmos desplegados por estas empresas generan un producto atractivo en el que se consume masivamente información que puede llegar a generar burbujas virtuales de información de las que es difícil salir y ahí entra la pérdida del acceso a la información contrastada y del debate.

La web abierta, uno de los sueños a los que hacíamos referencia en textos anteriores, se va descomponiendo, a medida que las grandes empresas comienzan a controlar en mayor medida los datos que los usuarios generan y cambian sus términos y condiciones para utilizarlos en la forma que considere. Una evolución a la que es difícil ponerle coto por la gran dispersión de legislaciones e intereses empresariales y que consolida la idea de que la Web como la conocimos desaparece lentamente, convirtiéndose en una Web sintética donde el contenido se genera de forma automática y rápidamente buscando la viralización y el impacto, que muchas ocasiones no puede ser verificado.

Deja un comentario

Una Web que se devora asimisma (1)

En la década de los 90, cuando se echaba mano del socorrido símil autopistas de la información para entender qué es lo que podría aportar a futuro la World Wide Web (que acabó reducida a Web o Red), se nos prometió un El Dorado donde el acceso a la información será universal y barato. Sin embargo, ese paraíso futurible donde todavía el acceso era caro y con unas necesidades tecnológicas aún lejanas para la inmensa mayoría de la población pronto mutó hacia otra cosa mientras el dinero comenzó a fluir hacia un entorno que lo redefiniría todo.

En una primera fase, la recopilación de enlaces de sitios interesantes en forma de directorios fue sencillo de mantener. Pero pronto esa curación humana se tornaría inmanejable dando espacio a otro tipo de tecnologías como la de En una segunda, Google que acudió a salvarnos frente aquella intoxicación, haciendo racional y sencillo la categorización de la información mediante algoritmia y una serie de rankings que fueron cambiando a lo largo del tiempo. Esta clasificación automática tuvo que ir adaptándose a la realidad de una web que crecía y se bifurcaba hacia todo tipo de contenidos e intereses según se democratizaba la generación de contenido (Web 2.0) y el acceso sencillo e inmediato en cualquier punto (teléfonos móviles).

Cada nueva evolución tecnológica significaba un cambio del paradigma anterior, pero la Web supo pudiendo ofrecer soluciones de información a todo tipo de sensibilidades y de esperanzas. Hubo un momento que la Web era un foro abierto en que cualquier persona tenía una oportunidad para promocionarse, opinar de forma transparente y mostrar sus conocimientos. Con suerte, hasta poder construir una comunidad propia, pero el modelo se fue retorciendo según se añadían capas y capas nuevas al algoritmo y el ecosistema móvil se posicionaba como una nueva gallina de los huevos de oro, según las marcas buscaban llegar a consumidores jóvenes y no tanto. Por supuesto que los mensajes y la capacidad de influir a la opinión pública también cambiaba; trasladándose desde los medios de comunicación y hacia Facebook y, en menor medida, a Twitter entonces y ahora X.

Por si la situación no fuese compleja, y con las redes sociales ya siendo sometidas a escrutinio y control debido a su alcance a la población en general, otra capa de complejidad se añade apoyándose en todo lo anterior. La Inteligencia Artificial viene a incorporar un poco más de confusión a todas esas vías de acceso de información a los usuarios. Ya se trate mediante texto o imagen (en la mayor brevedad vídeo), las IAs se posicionan como grandes generadores de textos que de forma barata son capaces de sobrepasar al resto de generadores de contenidos ya sean medios de comunicación como referentes de la opinión pública individuales.

[Continúa]

Un comentario

Mombies, esos zombies tecnológicos modernos

El hombre me miró extrañado y confuso, mientras me veía hablar animadamente. No llegó a entender lo que estaba sucediendo, comprobó que llevaba unos auriculares, sí, pero no llegaba a comprender qué sucedía mientras lanzaba palabras hacia nada y hacia nadie. Pasó de largo y no me dijo nada, qué podría decir ante tan sólo una persona con un comportamiento extravagante pero no punible, aunque sí confuso, su confusión. Su extrañeza hubiese quedado en nada si no hubiese tenido tiempo de cruzarse con mi padre y decirle para su sorpresa ese tío está loco, sin conocernos a ninguno de los dos, por supuesto.

Aquel hombre consideraba que estaba hablando solo, lo que le generó su sorpresa. Aunque, como se podrá imaginar, realmente estaba hablando por teléfono móvil y tan sólo estaba usando unos auriculares con micrófono que me permitía hablar sin que el hombre viese que estaba usando un aparato. Visto en perspectiva, me hubiese gustado haberle trasladado desde aquellos años, cuando se estaban popularizando los teléfonos móviles, a un día cualquiera en el metro de cualquier urbe. Es posible que se hubiese sorprendido por el avance tecnológico o simplemente hubiese pensado que una epidemia ha arrasado con la especie humana. Una epidemia que nos tiene enganchados y mirando constantemente a un rectángulo que genera colores.

Me gusta llamarlos, o llamarnos porque yo también lo soy, MOMBIES. Los encontráis fácilmente. Se trata de esas personas con la mirada perdida, que te miran pero no te ven, que aparentemente hablan hacia ninguna parte, generando confusión y desasosiego a sus contrapartes porque no sabes si te están hablando a ti (en ocasiones) o están enfrascados en alguna otra parte. Mombies, construida con las palabras móviles y zombies, que tienes que esquivarlos en los andenes del metro o directamente en las calles porque andan trabajosamente, mientras tratan de contestar WhatsApps (u otra aplicación de mensajería popular) o que están pasando pantallas de vídeos de Instagram o TikTok. También puedes verlos sosteniéndolos de forma perpendicular a sus orejas, escuchando algún mensaje o algún vídeo, con la mirada perdida y en una pose un tanto caricaturesca, aunque no parece importarles demasiado.

Siendo justo, a veces me sorprendo totalmente aislado, leyendo en el Metro el teléfono móvil algún periódico o mi lector de RSS (una de las mayores pérdidas de las redes sociales) enfrascado y con unos auriculares con cancelación de ruido. Me decepciono conmigo mismo porque soy de aquellos que piensa que lo mejor que puedes hacer cuando visitas una ciudad de visita es meterte en el metro o en el tren para conocerla. La vida está en un vagón de metro, me digo, pero también soy consciente de que con un teléfono en la mano, me percato que la vida pasa delante de mí sin que me dé cuenta.

Los zombies son personas muertas resucitados por medios mágicos por un hechicero para convertirlo en su esclavo. Los mombies no están muertos, pero sí que hay un hechicero que los convierte en sus esclavos para arrancarles un hálito de su vida. Puede que sean diez minutos o una hora vital de su vida al día, porque la vida no se encuentra en una pantalla.

Deja un comentario

Cuando Goliat (Google) se encontró con David (ChatGPT)

La rápida tasa de adopción de ChatGPT de OpenIA será digno de estudio en las escuelas de negocio en un breve espacio de tiempo. Desde que se permitió el acceso al gran público en noviembre de 2022, ha fascinado a todos los que se han aventurado a probarlo ofreciendo una calidad en las respuestas y en los resultados que no han podido poner en cuestión el producto en sí. Un producto que recordemos que se encuentra en fase de prototipo y que ya ha puesto a la defensiva a las grandes tecnológicas como Google, Meta (Facebook) y Apple.

ChatGPT (Generative Pre-Trained Transformer) posee la interfaz de un chatbot. La interacción con el producto es lanzando preguntas a las que el sistema genera respuestas a través de toda la información con la que se ha entrenado (570 gigabytes de información textual). Su éxito se debe a que comprende bien las instrucciones y proporciona respuestas mediante el procesamiento del lenguaje natural. Cada pregunta puede tener contestaciones similares pero no iguales, puesto que se generan automáticamente y a cada interacción por lo que puede ampliar o reducir el alcance de la respuesta a cada momento. Sin embargo, y es un punto en su contra, no aporta información sobre sus fuentes de información por lo que puede generar dudas sobre las respuestas si el usuario no es un experto en la materia que se está consultando.

En definitiva, la interfaz es similar a la de Google y muy sencilla, una caja de texto (en este caso de interacción) en la que se pueden solicitar definiciones, que detalle conceptos complejos de forma sencilla, que trace planes estratégicos para las empresas, recomendaciones de lugares que visitar en vacaciones, resúmenes de textos ya sean artículos o libros o ayudar a programar en código. Una herramienta muy potente y diversa en casos de uso que puede llegar a amenazar a Google en la mayoría de las búsquedas de internet y cuyo uso ha comenzado a generalizarse tanto en el ámbito de la educación, académico y empresarial.

Google es el gigante de internet más allá de su buscador, también posee YouTube y el sistema operativo para móviles Android, además de infinitos productos pensados para ser utilizados en Cloud. En cuanto a las búsquedas, actualmente el 92.58% del mercado de las búsquedas a nivel global y el 80% de sus ingresos provienen del mercado publicitario en Internet. Posee acuerdos marco tanto con Apple (Safari) como con Mozilla (Firefox) para que su buscador sea la opción por defecto en sus respectivos navegadores. Sin embargo, el producto de la empresa OpenIA participada por Microsoft parece dispuesta a arrebatarle el trono de las búsquedas en Internet y en otros muchos ámbitos según evolucionen los casos de uso donde aplicarse la tecnología desarrollada por la empresa.

Puede parecer que a Google el desarrollo la haya cogido con el pie cambiado, pero lleva años trabajando en aplicaciones de inteligencia artificial como ChatGPT. De hecho, la tecnología que representa el corazón del producto de OpenIA fue desarrollada por ingenieros de Google. Sin embargo, Google no había decido apostar claramente por estos interfaces porque generaría un problema con su modelo de negocio. Una estrategia que se ha demostrado errónea en cuanto el mercado se ha puesto patas arriba con ChatGPT, y la gran G se ha apresurado a lanzar su propio chat denominado Bard, aunque no estaba tan depurado como el primero.

Microsoft no ha perdido el tiempo en cuanto el producto ha obtenido tracción e interés en el mercado. Ha ampliado su inversión en la empresa OpenIA a pesar de las dudas del modelo de negocio de la empresa, ha integrado ChatGPT en su buscador Bing (a mi parecer que unos resultados más pobres, aunque sí que referencia las fuentes de información) y ha comenzado su implementación en su sistema operativo Windows y en la suite Office (Microsoft Copilot) . Una apuesta absoluta a un desarrollo tecnológico que va a hacer que cambiemos no sólo cómo buscamos en internet, si no también cómo interactuamos con nuestras aplicaciones en el ordenador.

Deja un comentario

Persuasive Technology, haciendo que la tecnología nos haga cambiar de comportamiento

La Persuasive Technology y su campo de investigación, Captology, comenzó a ser estudiada por B.J. Fogg a inicios de los años 90 en la Stanford University. Este área se define como el estudio de cómo usar la tecnología para persuadir a las personas que cambien su actitud o su comportamiento. Un ejemplo claro de su aplicación son los sitios web y sus aplicaciones móviles correspondientes (Facebook, YouTube, Instagram…) que nos hacen estar enganchados con los métodos tradicionales de persuasión – usando información, incentivos y coacciones – junto con las nuevas capacidades de los dispositivos para cambiar el comportamiento de los usuarios. En definitiva, esta rama del conocimiento estudia cómo entrenar a las personas para que hagan las acciones concretas que los diseñadores de esa tecnología desean (behavioural design)

El concepto definido por Fogg podría resumirse en la fórmula B=MAT. Donde B sería comportamiento (Behaviour) que se define como la conducta de alguien, mientras que el resto correspondería a Motivación, habilidad (Ability) y gatillo (Trigger). Además, el investigador considera que si uno de estos elementos no se encuentra, el cambio de comportamiento no ocurrirá.

  • Motivación. Las personas debe estar lo suficiente motivada para cambiar su comportamiento.
  • Habilidad. Las personas necesitan disponer de la habilidad de gestionar su comportamiento.
  • Gatillo (Trigger). Los usuarios tiene que ser alentados a cambiar su comportamiento como, por ejemplo, a través de un diseño atractivo o el uso de gamificación.

Por otro lado, los elementos se interrelacionan entre sí, por lo que hay cuatro puntos a tener presente:

  • Según la motivación y las capacidades aumentan, es más sencillo que se produzca el cambio de comportamiento.
  • Existe una relación inversa entre motivación y habilidad, cuanto más sencillo es hacer algo menor motivación se necesita.
  • Si un diseñador quiere que un tipo de comportamiento ocurra, necesita encontrar maneras para incrementar la motivación de las personas o sus habilidades (o ambas).
  • Si alguien no tiene motivación para hacer algo fracasará al hacerlo, no importa lo simple que sea. Por otro lado, si alguien está muy motivado pero es difícil hacerlo, se sentirán frustrados y no realizarán ninguna acción.
Comentarios cerrados