La Wikipedia ha sido un referente en la Web respecto a lugar confiable a la hora de consultar información. Si bien es cierto que permitir la edición de forma abierta, siempre ha sido uno de los desafíos de los bibliotecarios de la Wikipedia, la influencia de esta web ha provocado distintas Guerra de Ediciones. Actualmente, los responsables de la calidad de la Wikipedia tratan de lidiar de un fenómeno relativamente nuevo, la web ha comenzado a ser editada mediante IAs, lo que genera un problema de confiabilidad de los contenidos de la enciclopedia online y por lo que se ha creado un grupo específico, Wikiproject IA Cleanup, para tratar de atajar el problema. Este equipo trata de revisar el contenido falso o equívoco creado por la inteligencia artificial y actualmente está compuesto por unas 80 personas.
De momento, es sencillo detectar estas inexactitudes determinado por distintos patrones a la hora de redactar los textos por parte de la inteligencia artificial o con las imágenes porque las versiones actuales tienen ciertos problemas a la hora de generar manos y dedos (algo que se está corrigiendo de forma acelerada, también habría que indicarlo). En el caso del texto, muchos bots siguen un mismo estilo a la hora de generar los textos, por lo que un ojo experimentado puede detectarlo.
Por ejemplo, en el caso anglosajón, se ha comprobado que la palabra «delve (ahondar)» ha incrementado su uso en la Web de forma exponencial según la inteligencia artificial se hacía más popular. Además, en el caso de la Wikipedia, la tendencia a generar citas incorrectas o directamente inventadas genera enlaces que no van a ninguna parte o son erróneos, lo que permite al mismo tiempo, determinar qué tipo de textos han estado generados por una IA.
Aunque lo que está sucediendo en la Wikipedia es ilustrativo en cuanto a la lucha que mantenemos los seres humanos respecto a esos generadores autónomos de contenido, la IA está cubriéndolo todo generando polémicas en distintos ámbitos como la fotografía, los diseñadores gráficos, la literatura, la música… pero también otros ámbitos profesionales como los artículos científicos o el periodismo con ciertas consecuencias todo sea dicho.
En el ámbito de la Web, la situación es aún podría considerarse peor. Cada día se generan de forma autónoma una cantidad ingente de contenidos desvirtuando los resultados de los buscadores (si es que les quedaba algo de verosimilitud a la hora de devolver los mejores resultados). El problema más allá de ese contenido es que los modelos se entrenan con una gran cantidad de información de forma abierta y esa información está desapareciendo a marchas forzadas. En un artículo de la revista Nature, se recogía que los modelos IA colapsaban cuando se entrenaban de forma recurrente con contenidos generados por IAs. Es decir, que los modelos generaban contenido basura sin ningún tipo de sentido.
Además de la necesidad de reducir su exposición a demandas por violación de las condiciones de uso de las principales editoriales, OpenAI está tratando de asegurarse el acceso al contenido de buena calidad, tratando de limitar este daño colateral firmando acuerdos con las principales empresas editoras tanto de noticias como de contenido científico para de esta manera que sus algoritmos no sufran por la cantidad de información que se autogenera e inunda poco a poco la Red.
Deja un comentario