En los dos posts anteriores de este blog (1 – 2), trazaba los cambios y evoluciones de la Web a lo largo del tiempo. Además, incidía en cómo el contenido generado a través de las herramientas de inteligencia artificial iba a convertirse en un desafío para el medio que se suponía que iba a democratizar el acceso a la información y la comunicación. Sin entrar en el debate de la caza de los clics y de la atención de los usuarios con ofertas imposibles y de noticias impactantes que merecerían un texto a parte, la discusión sobre la Dead Internet theory incide en la pérdida de la creatividad y la diversidad que sufre actualmente la Red debido a la evolución de los últimos años. Además de que nos invita a hacer una reflexión sobre el estado de la Web actual.
La teoría de la internet muerta, que comenzó a plantearse dentro de los foros 4Chan a finales de los 2010, parte de dos premisas principales. La primera, la actividad humana dentro de Internet se ha visto desplazada por bots y algoritmos. Esto es algo que se puede comprobar de forma sencilla y ya ha habido grandes empresas que ofrecen datos sobre ello, ya que casi la mitad del tráfico se genera por máquinas. La segunda parte, más cerca de las teorías de la conspiración aunque podría fundamentarse en el comportamiento de algunas empresas, que todo ese tráfico autogenerado está gestionado por los gobiernos para controlar la información y manipular la opinión pública.
Como señalaba, no hace falta indagar en exceso de dónde viene esa teoría sobre el «control» de los usuarios reales de Internet. Hay estrategias muy bien definidas para generar tracción en internet tanto a nivel de marketing o comercial o político. Por ejemplo, es bien conocido que en las redes sociales se genera mucho contenido basado en textos e imágenes realizados con inteligencia artificial con idea de mover votos en unas elecciones y generar viralización (clics, comentarios, re-publicaciones, likes), pero además ese mensaje se refuerza con bots en forma de usuarios que tratan de aumentar el volumen de impacto para saltarse los algoritmos y aumentar la visibilidad hacia personas reales. En resumen, contenido generado por bots y aupado por bots de forma artificial para que impacte a los usuarios de la red social.
Nos encontraríamos con información falsa que intenta conseguir un hype (fuerte expectación) verdadero. Este comportamiento y la falta de control y mitigación del mismo apunta directamente a las grandes tecnológicas convertidas en guardianas (gatekeepers) del contenido que se consume masivamente en internet. Estas empresas son prisioneras de su propio modelo de negocio basado en la publicidad y que justifican la inversión a sus clientes (anunciantes) por las interacciones en ellas de sus usuarios (contados en cientos de millones).
Por tanto, es un producto que puede llegar a ser considerado perverso. Los algoritmos desplegados por estas empresas generan un producto atractivo en el que se consume masivamente información que puede llegar a generar burbujas virtuales de información de las que es difícil salir y ahí entra la pérdida del acceso a la información contrastada y del debate.
La web abierta, uno de los sueños a los que hacíamos referencia en textos anteriores, se va descomponiendo, a medida que las grandes empresas comienzan a controlar en mayor medida los datos que los usuarios generan y cambian sus términos y condiciones para utilizarlos en la forma que considere. Una evolución a la que es difícil ponerle coto por la gran dispersión de legislaciones e intereses empresariales y que consolida la idea de que la Web como la conocimos desaparece lentamente, convirtiéndose en una Web sintética donde el contenido se genera de forma automática y rápidamente buscando la viralización y el impacto, que muchas ocasiones no puede ser verificado.
Deja un comentario