Saltar al contenido →

Categoría: Biblioteconomía

Los documentalistas y la censura de Internet en España

Tremendamente sorprendido me quedé leyendo la sección El Acento del diario El País del pasado 13 de marzo. En ella, se realizaba una reflexión sobre la última polémica relacionada con Google sobre el encuadre que hacía el buscador de la Administración española y su tratamiento de la Web situando a nuestro país al mismo nivel que China o Irán en cuanto a censura de la Red.

Después del impresionante revuelo generado en España, con desmentidos desde la Administración estadounidense y Google España, dentro de esta sección de opinión del diario, que en general dispone de un tono informal, se reprochaba en el artículo Algo interesante para leer a la vicepresidenta de Google, Nicole Wong, sus dos faltas al situar a España como enemiga de la libertad de expresión en la que se señala sus carencias a la hora de documentarse. En concreto, dentro del texto se puede leer:

Ahora ha sido la vicepresidenta de Google, Nicole Wong, quien ha demostrado un reincidente analfabetismo. En apenas una semana y en dos ocasiones ha incluido a España en una lista negra de Gobiernos que acechan Internet. Y lo hizo sin improvisar, porque lo llevaba escrito. Si la primera vez pudo ser un error de sus documentalistas, la segunda ya entra en el terreno de la mala fe o, lo más probable, de una persistente ignorancia. Permaneció impasible en el error.

¡Ay, los documentalistas! Esa figura que sólo es recordada o cuando la información no aparece o se trata de un error. Qué le vamos a hacer.

Un comentario

Las distintas normas técnicas editadas en España por AENOR

La normalización o estandarización es la redacción y aprobación de documentos que establecen, por consenso, las características o especificaciones de un producto, servicio, proceso o sistema terminológico. La normalización persigue fundamentalmente tres objetivos:

  • Simplificación: Se trata de reducir distintos modelos quedándose únicamente con los más idóneos.
  • Unificación: Para permitir la intercambiabilidad a nivel internacional.
  • Especificación: Se persigue evitar errores de identificación creando un lenguaje claro y preciso

Las normas técnicas son documentos técnico-legales resultado de este proceso de normalización, existiendo dos tipologías:

  • Una norma de facto puede definirse como una especificación técnica que ha sido desarrollada por una o varias compañías y que ha adquirido importancia debido a las condiciones del mercado. Suele utilizarse para referirse a normas consuetudinarias. Por ejemplo, las normas NRV (Normas Renfe Vía).
  • Una norma de jure puede definirse, en general, como una especificación técnica aprobada por un órgano de normalización reconocido para la aplicación de la misma de forma repetida o continuada, sin que dicha norma sea de obligado cumplimiento (GATT y definiciones de directivas CEE 83/189).

En el caso de España, como consecuencia de la colaboración Hispano-Alemana durante la Guerra Civil Española, y sobre todo durante la 2ª Guerra Mundial, se comenzaron a utilizar las normas DIN alemanas. Ésta es la causa de que hasta hoy en los diferentes diseños curriculares españoles, se haga mención a las normas DIN, en la última propuesta del Ministerio para el bachillerato, desaparece la mención a dichas normas, y sólo se hace referencia a las normas UNE e ISO.

En diciembre de 1945, el CSIC (Centro Superior de Investigaciones Científicas), creó el Instituto de Racionalización y Normalización (IRANOR), dependiente del patronato Juan de la Cierva con sede en Madrid. IRANOR comenzó a editar las primeras normas españolas bajo las siglas UNE, las cuales eran concordantes con las prescripciones internacionales. A partir de 1986, las actividades de normalización y certificación N+C recaen en la entidad privada AENOR (Asociación Española de Normalización y Acreditación).

Los tipos de normas editadas en España son:

  • Normas UNE (Acrónimo de Una Norma Española) son un conjunto de normas técnicas creadas por los Comités Técnicos de Normalización (CTN), de los que forman parte entidades y agentes implicados e interesados en los trabajos de cada comité. Por regla general, estos comités suelen estar formados por AENOR, administración, laboratorios, centros de investigación, fabricantes, consumidores y usuarios.
  • Normas UNE-ISO son resultado de la traducción al español de las normas de la ISO (Internaciontal Standard Organization).
  • Normas UNE-EN-ISO son resultado de traducción al español de las normas de la ISO aprobadas por el Comité Europeo de Normalización (CEN). Cualquier versión en un idioma diferente al inglés, francés o alemán debe ser realizada por un miembro del comité europeo de normalización (CEN).
  • Normas UNE-EN. Las normas UNE-EN son la versión oficial en español de las normas europeas, que son adoptadas tras la aprobación de un órgano específico dentro de la estructura de normalización nacional de AENOR.
  • Especificaciones Técnicas Europeas UNE-CEN/TS. Se trata de documentos normativos de menor rango que una norma europea EN. No son de obligada adopción. Se recurre a ellas cuando no hay un consenso suficiente para adopción como norma europea. Sustituyen a las antiguas normas experimentales UNE-ENV, que van desapareciendo a medida que son sustituidas por éstas.
  • Informes Técnicos UNE-CEN/TR. Son documentos normativos de menor alcance que las normas europeas y las especificaciones técnicas. No es obligatoria su adopción. Se recurre a ellos cuando se trata de normalizar un aspecto tecnológicamente muy incipiente, todavía en fase de investigación y desarrollo industrial y sobre el que no hay mucha experiencia.
2 comentarios

Cienciometría, economistas y la reforma del mercado laboral

Según un reciente estudio de la Comisión Europea, España es el país de la Unión Europea que tiene la mayor tasa de paro (18’7% en mayo según los datos del Eurostat) duplicando la media comunitaria. De hecho, la destrucción de puestos de trabajo en nuestro país ha sido tan acelerada (ha aportado uno de cada dos nuevos parados en la UE-15 en abril) que desde distintos foros se ha propuesto la necesidad de realizar una reforma para tratar de relanzar la economía y rebajar el paro.

Uno de estos foros lo constituye FEDEA (Fundación de Estudios de Economía Aplicada) que el pasado mes de abril presentaba un manifiesto firmado por 100 economistas desde el que sugerían una serie de medidas para la reactivación del empleo. Este texto fue replicado por otro suscrito por 755 expertos en derecho laboral, profesores de universidad y sociólogos, y al que se sumaron posteriormente los principales sindicatos, que trataba de rebatir las tesis de FEDEA y que consideraba que la crisis no había sido provocada por la actual legislación laboral. Finalmente, los 100 economistas han tratado de echar por tierra las tesis defendidas por los 755 expertos (y específicamente 189 economistas) presentando el nivel académico de unos y de otros, configurando lo que algunos han definido como “guerra”. Y ¿cómo se mide el nivel académico y su nivel de influencia? A través de la Cienciometría.

La Cienciometría es la ciencia de medir y analizar la Ciencia. En la práctica, la Cienciometría suele ser desarrollada a través de la Bibliometría que se dedica a analizar los patrones de comportamiento de las citas bibliográficas que se realizan en los trabajos científicos, su impacto dentro de la Ciencia y el nivel de influencia de los investigadores, instituciones y publicaciones.

Por ello, los 100 economistas presentaban los resultados de sus trabajos científicos (número de artículos publicados y número de citas recibidas) frente a los del otro manifiesto extraídos de las bases de datos bibliométricas que desarrolla el ISI (Institute for Scientific Information), concretamente del Social Science Citation Index (SSCI). Sencillamente, lo que estaban intentando recalcar es su nivel de influencia dentro del campo científico de la Economía frente al grupo de los 755.

Sin embargo, quedarse en los números absolutos de artículos publicados y citas recibidas podría resultar demasiado reduccionista, puesto que las instituciones evaluadoras de la Ciencia utilizan una serie de indicadores para determinar la relevancia científica de un investigador, una institución o una publicación. Así, por ejemplo, la relevancia de una revista vendría determinada por su Factor de Impacto, pero no todas las publicaciones pueden ser comparadas de forma directa, puesto que dependiendo del ámbito de la Ciencia que abarquen disponen de características muy determinadas. En el caso de los investigadores, los indicadores principales son variados, sin embargo actualmente se utiliza el índice h que, a pesar de la amplia controversia que ha desatado por su sencillez y la necesidad de corrección, sigue siendo el más aceptado (El ISI lo calcula por defecto para cada autor).

Como se puede comprobar, la Cienciometría y la Bibliometría son disciplinas que deberían despertar cierto interés en los investigadores y en las instituciones para las que trabajan. Fundamentalmente a la hora de desarrollar proyectos, puesto que los indicadores de evaluación de la calidad de la investigación científica de cada cual cada vez van a disponer de mayor protagonismo, por lo que su conocimiento debería ser preocupación tanto de los investigadores como del personal técnico de las instituciones.

Ante esto, Aidico junto a uno de los grupos de investigación más importantes de la investigación de la Cienciometría en España, el EC3 de la Universidad de Granada, organizan en Valencia, para el próximo mes de noviembre, dos talleres para la introducción a la Bibliometría enfocados a dos públicos objetivos distintos: personal técnico e investigadores, a los que todos aquellos que quieran iniciarse en este mundo se encuentran invitados.

Comentarios cerrados

¡Que paren las rotativas! ¿Es éste el fin de la prensa?

Cuando descubres que alguien intenta hacer una tira cómica sobre la crisis de los medios de comunicación, te percatas de que la situación es más grave y desesperada de lo que podría parecer. El debate sobre el futuro de la prensa es muy intenso dentro de los medios en estos días, de hecho hay quien asevera que conocía que se podría llegar a esta situación y que se lamenta de no haber hecho nada. Pero mientras los EREs salpican a distintos grupos de comunicación, la crisis que se vive hoy en día en las redacciones no puede ser igualada a ninguna a las anteriormente contempladas, provocando cierta rabia e indignación en los profesionales del sector, puede que desnudando poco a poco las miserias del periodismo y descubriéndonos que no todo reluce dentro de ella.

Han sido distintos las voces que advertían a los periodistas que su trabajo iba cayendo en el descrédito dentro de una población cada vez más impregnada de lo que verdaderamente debe ser una sociedad post-industrial. En el libro, We the media de Dan Gillmor trataba de apuntalar las razones del nacimiento de la Web 2.0 y del Social Media basándose en la posición crítica adoptada por una parte de la sociedad frente al descrédito de los grupos mediáticos alumbrando una nueva forma de crear noticias. Finalmente, aquello quedó en aguas de borrajas, no pudiendo trasladar los puntuales casos de éxito a otros países.

En su evolución, los blogs, aquellos sitios web que abordarían aquellos temas que los medios desechaban centrándose en las nanoaudiencias, eran abandonados lentamente por sus impulsores -Jason Calcanis fundador de Weblogs Inc. vendió su compañía y finalmente abandonó la blogosfera en favor del microblogging favoreciendo el anuncio de la desaparición de la blogosfera-, sustituyendo aquellos por nuevas palabras, nuevos conceptos, nuevas formas de hacer negocio en la Web con la participación de sus usuarios.

Hoy en día, los medios de comunicación impresos se enfrentan al dilema del prisionero ante su futuro. Por un lado, son conscientes de que deben permanecer en la Red, mientras que por otro saben que no pueden ofrecer gratis en la web lo que venden en papel. En realidad, todo se reduce a los márgenes de beneficio, la venta de periódicos sufraga el papel, la tinta y la distribución del periódico físico, mientras que la venta de publicidad sostiene el resto; sin embargo actualmente en la Red la publicidad no genera los suficientes ingresos como para mantener toda la infraestructura del medio de comunicación. Las soluciones han sido distintas dependiendo de la situación de cada uno. Algunos han apostado por el papel, mientras que otros simplemente han abandonado el papel en favor de la Web, otros por la convergencia; el éxito de unos u otros se comprobará a medio plazo, no cabe duda.

Google ha sido señalado como el mayor de todos los males por los medios. Según la consideración de los directivos de los medios, el buscador utiliza la información que la prensa genera para la creación de varios productos sin que ellos reciban su correspondiente contrapartida. Hay que señalar que la posición del gigange nunca ha sido desdeñosa respecto a la información digital ni hacia los medios, obviamente, sí lo ha sido respecto al producto en papel.

La información es cara de producir. Una de las acusaciones que se ha lanzado a la Web 2.0 es su falta de información respecto a la opinión. Es cierto, la valoración y los puntos de vista son mayoría en la Web, junto a la republicación de informaciones y distribución de notas de prensa. Puede que haya poco valor añadido en aquello publicado en la Web 2.0, ¿pero no era precisamente eso lo que hacían los medios impresos gratuitos? ¿Publicar fundamentalmente aquello distribuido por las agencias de prensa?

En cualquier caso, a pesar de que la competencia esté a un clic, la marca, la cabecera, se mantiene como punto de referencia para el lector. La creación de comunidades gracias a la Web 2.0 y tomar partido de otras sinergias como informaciones que los periodistas del medio no cubren es un buen punto de partida. Pero hay que tener en cuenta que en la Web, al contrario de lo que sucede en el mundo físico, todo es medible. El comportamiento del usuario, qué páginas se leen, su segmentación, qué publicidad ha funcionado, cuál no, qué posición dentro de la página atrae más la atención, etc. Dicen que en la web no vemos la publicidad, la eliminamos inconscientemente, ¿a caso no sucede también a la hora de leer el periódico impreso? Las agencias de publicidad lo saben y pueden exigir resultados y, por lo tanto, las tasas de conversión ser más reducidas en el mundo digital. Por otra parte, la mayoría del pastel publicitario se lo ha llevado otro, creando una infraestructura y tecnología formidable y que trató de saltar al mundo analógico, para después abandonarlo en tiempos de crisis.

Es difícil que los medios dejen de considerar la idea de cobrar por sus contenidos, llevan 200 años haciéndolo, y buscarán la manera de conseguirlo aunque se trate de otro tipo de soportes (Kindle o Adobe Air). Pero, de lo que no cabe duda, es que son éstas tierras muy complicadas y algunos ya lo intentaron antes, descubriendo su fracaso y desdiciéndose en el camino, sin embargo este bache económico será sobrepasado y serán aquellos los que hayan encontrado la forma de financiarse sin pasar por la caja de Google, los que apuesten por las nuevas ideas y la innovación, que sepan gestionar su producto dentro de un mercado terriblemente competitivo, además de mantener sus audiencias y su impacto dentro de la sociedad los que sobrevivirán. No, los periodistas no desaparecerán, ni sus empresas editoras, ni los medios sólo el soporte a la hora de transmitir el mensaje.

5 comentarios

Más allá de la normalización de los nombres de los científicos, ¿es necesario un DNI para los investigadores?

Miquel Ros Martín no es mi hermano, ni siquiera es familiar mío (Que yo sepa), sin embargo últimamente su nombre se ha difundido mucho en los medios de comunicación gracias a que ha obtenido el primer premio en el apartado de Ingeniería Técnica en Informática, del Premio Nacional de finalización de estudios universitarios convocado por el Ministerio de Educación, Política Social y Deportes (Mi más sincera enhorabuena). Probablemente, Miquel y yo no lleguemos a coincidir nunca de forma física, ni a cruzar unas palabras, pero puede ser que los dos lleguemos a publicar algún artículo científico en un futuro.

En mi caso, he normalizado mi firma en los textos que publique de forma impresa o digital de 2008 hacia adelante, escarmentado y divertido al descubrir que los documentalistas y bibliotecarios me asignaban unos apellidos u otros cambiando mi persona, conjugándola con la de otros. Así pues, en mi ficha IraLis señala inequívocamente que firmo como Marcos Ros-Martín, pero en las referencias de las bases de datos científicas mi nombre quedará recogido como un “Ros-Martín, M.” y por lo tanto Miquel, que también podría haberse llamado Marcos, y yo puede que algún día compartamos índice h si decide firmar sus textos como Miquel Ros-Martín.

Sin embargo, esta anécdota menor se multiplicaría si yo o Miquel nos llamásemos “John Smith”. ¿Cuántos científicos aparecerán en las bases de datos como “Smith, J.”? ¿Cuántos artículos? Y si yo fuese una científica, de nombre Mary Jane, y me casase con John Smith, ¿firmaría a partir de entonces como Mary Smith aún poseyendo artículos firmados como Mary Jane? Algunos ya han propuesto que la solución pase por un identificador único para todos los investigadores.

De esta manera, en el sitio web ResearcherID de la editorial Thomson Reuters se nos propone la asignación de un identificador único para cada persona de tal manera que se pueda agilizar los trámites con los editores de publicaciones científicas. El debate ya ha producido textos a favor y en contra, mientras que otros se preguntan quién debería gestionar estos números.

Un comentario

La Prensa decide ir a Google rogando y con el mazo dando

Vaya por delante que el caso de Google News, si yo fuese un editor de un diario, me parecería obsceno. Si acudimos a una de sus secciones genéricas, por ejemplo a la de Economía, descubriremos, para mayor escarnio de los medios, que éstas aparecen agrupadas por hecho noticiable en un espacio terriblemente reducido. Es decir, ahora mismo cuando estoy escribiendo este texto, podemos encontrar hasta 484 artículos que se refieren a una misma noticia que se agrupan en escasas cuatro líneas de la página de resultados. Ante esto, podríamos considerar que ¿dónde queda el valor, el prestigio, el peso específico que una cabecera luce ante la sociedad? ¿Por qué Google, o mejor su algoritmo, dispone que un medio de comunicación aparezca sobre otro? ¿Y qué decir de las noticias trabajadas, esas que requieren un poco de documentación, contraste de fuentes y reflexión, y que quedan relegadas rápidamente por el propio dinamismo de la actualidad informativa?

A los medios de comunicación nunca les ha llegado a agradar ese invento, ese gran distribuidor de tráfico que se supone que es Google News (GN). De hecho, en este producto del gigante de Mountain View, todos los medios son iguales, sin distinción. Yo mismo me he sorprendido durante su uso que el producto de Google situase a webs desconocidas por encima de las cabeceras tradicionales. Sin embargo, ahí radica la magia de Google, que de su chistera no se sabe a ciencia cierta cómo funciona. Durante su fase de expansión geográfica, los medios han cargado las tintas y de qué manera hacia GN adoptando distintas posiciones. Así, los belgas consiguieron que el servicio desapareciera, los franceses obtuvieron que no les indizase aunque después llegasen a un acuerdo con él para que alojase sus noticias. Ahora, tras la decisión del gigante de rentabilizar al máximo sus productos e incluir publicidad contextual en Google News, los medios de comunicación intentan que Google comience a repartir el pastel. No obstante, puede que deberíamos comenzar a preguntarnos si realmente están apuntando más alto.

Porque, no estoy del todo seguro que el tráfico del producto de GN sea excesivo en comparación con otros. Si realizamos una consulta a Google Trends y comprobamos el tráfico que dispone el dominio news.google.com junto a tres de los principales diarios estadounidenses en los últimos doce meses, comprobamos que en el ámbito local los diarios le vencen por varias cabezas. Es decir, los internautas siguen acudiendo a las cabeceras de sus medios de comunicación preferidos antes que al servicio de Google. Entonces, ¿a qué se debe este movimiento entonces? Sí, es probable que quieran una pequeña parte del pastel de GN, aunque seguramente en la distribución se les quedará en un pedazo relativamente pequeño, pero si el gigante cede comenzarán a apuntar más alto, hacia el producto principal: El buscador genérico.

Como hemos señalado anteriormente, desde sus inicios, los medios de comunicación no estaban del todo conformes con el comportamiento del algoritmo de GN y deseaban que Google lo modificase para que no desapareciesen de la página principal los reportajes de forma tan acelerada. Google contestó en su momento que estudiaría sus peticiones, pero no ha demostrado urgencia a la hora de actualizarlo. En este momento, la prensa presiona al buscador para que la noticia original consiga el mejor posicionamiento frente a las otras webs que la recogen o comentan (fundamentalmente los blogs) o hacen derivaciones de ella. En realidad, están entrando en la consideración que la cabecera debería disponer de mayor peso a la hora de posicionar los resultados, algo que Google todo sea dicho ya había contemplado.

Pero, aunque los medios de comunicación presionen al buscador, éste ya se ha movido de forma estratégica. De hecho, los acuerdos que recientemente ha firmado con las agencias de prensa más importantes de distintos países nos señala que Google está tratando de convertir a GN en un medio de comunicación más y que, de forma lógica, posicionará los resultados de las noticias que aloje por encima de lo que recojan los medios de comunicación en sus webs. De esta manera, los medios de comunicación tendrán que preocuparse por la creación de contenidos originales y de cierta calidad antes de centrarse en la redistribución de los textos servidos por agencias.

Pero aquí viene el dilema: Si uno de los modelos de negocio de las agencias de prensa es servir noticias a los medios de comunicación para que los publiquen (Y los medios tradicionales pagan por ellas), pero en la Web los medios no pueden rentabilizar el esfuerzo de pagar ese servicio, ¿lo seguirán manteniendo? ¿O han sido las propias agencias las que se han disparado en el pie ofreciendo sus contenidos a Google a cambio de los réditos de Adsense?

Comentarios cerrados

“Más allá de Google” de Jorge Juan Fernández García

Aunque menos conocido de lo que debería dentro del gremio de los profesionales de la información en España, siempre me ha atraído la figura de Alfons Cornella como introductor de las teorías de la gestión de la información en el ámbito hispanohablante. No hace falta señalar que el concepto de Infoxicación ya era conocido en ámbitos anglosajones como Information Overload, aunque tal vez lo que necesitase esta disciplina para ser aplicada de forma práctica en nuestro ámbito fuese, además de la oportunidad, nuevas maneras de aproximarse a ella.

Cornella lo consiguió mediante, además del mentado término, introduciendo la Infonomía y la contemplación de la empresa como un ecosistema de la información que debía ser estudiado y convenientemente administrado para ser más competitivos. Sin embargo, ser innovador también dispone de cierto riesgo y es posible que en ocasiones el medio diluya el mensaje. Puede ser que esto me sucediera con las pequeñas píldoras que Cornella publicaba en su revista If, a la que dediqué un texto bajo el título ¿Ley de la termodinámica informacional?, no muy convencido de lo que el autor quería transmitir en su momento. Es probable que el autor descubriese que el mensaje se diluía cuando publicó su libro kNewton: buscando un orden en la información donde recogía un buen número de estas píldoras o leyes informacionales y, como bien nos cuenta en el prólogo del libro que nos ocupa, se lamente de que los lectores lo encontrasen “divertido”.

Confío que el autor, Jorge Juan Fernández García, no se moleste si algún compañero infonomista decide confesarle que ha encontrado divertido este libro, ya que enfocar un libro como si te tratase de una suerte de Ley de Murphy no puede dar un margen para su lectura desde un punto de vista que no sea otro que el de reírse sin llegar a creérselo.

No vamos a caer en el error de considerar “Más allá de Google” (Descargable en PDF y de forma gratuita) una bagatela destinada a gestores de la información, ya que la estudio de la economía de la información y de las características de la información como un bien económico son especialidades muy respetables. Sin embargo, la exposición del argumentario en algunos pasajes del libro invita a no tomar demasiado en serio lo que se afirma en él, a pesar de las intenciones manifiestas en la contraportada:

En el texto están recogidas y ordenadas casi 300 “leyes” relativas a cómo utilizamos o nos afectan a nivel individual u organizacional la información y las tecnologías. Estas leyes “todavía no científicas” son los primeros pasos hacia la definición de una nueva disciplina académica, la Infonomía, cuyo impacto en las vidas de las personas y en la eficiencia de nuestras empresas será crítico en el siglo XXI.

Como muestra sólo recogeros la Ley sobre la propiedad del futuro (P. 184) para que nuestros lectores juzguen por sí mismos, en la que se recoge “El futuro pertenece a los geeks. Nadie más lo quiere”.

Por otro lado, como el lector habrá notado ya, el título puede conducir a la confusión. No se trata de un libro para la gestión de la información en Internet dando un rodeo por Google, no es una historia de Internet, ni de un compendio de herramientas a utilizar tanto on-line como off-line. No, no lo es, aunque trate de acercarse a las tesis de la Web 2.0 o de la Larga Cola, no dispone como finalidad acercarse a ellas, por lo que aquellos lectores que se aproximen a él esperando hallar esto, se sentirán un tanto decepcionados.

En cualquier caso, considero que este libro es necesario. En primer lugar, porque el análisis y el desarrollo de la Gestión de la Información es un campo por explotar, aún un tanto desconocido y completamente indispensable para mejorar la competitividad de las empresas y organizaciones de todo tipo y, en segundo lugar, porque aunque podamos disfrazar este texto como un anecdotario, considero que, a veces para iniciar la reflexión, el cambio, para innovar hay que ser arriesgado y creo que es previsible que este libro sea uno de los ejemplos.

6 comentarios