2. INTERNET COMO MEDIO PARA LA DIFUSIÓN DE
INFORMACIÓN.
La Red es un
medio que se encuentra abierto a la participación masiva y una de
sus particularidades principales es su mutabilidad, su naturaleza
cambiante. Un intento de enumerar algunas de sus características más
relevantes, podría ser el siguiente:
- Facilidad de
publicación: este primer punto va a condicionar el resto de
cualidades de forma absoluta en los términos que a continuación
comentamos.
-
Heterogeneidad de contenidos: probablemente no exista en nuestro
entorno cultural y social un espacio como éste donde se mezclen
desde la simpleza más necia hasta contenidos científicos de primera
línea.
-
Heterogeneidad formal: a la diversidad anterior hay que sumarle la
referida al sinfín de soportes en los cuales podemos encontrar la
información que se busca: páginas web sencillas,
páginas dinámicas que sólo existen en el mismo momento de
realizar una consulta, documentos multimedia, de texto simple, etc.
- Alta
volatilidad: la facilidad de edición en los entornos digitales ha
provocado que las actualizaciones de contenidos se realicen con más
agilidad que en el medio impreso. Esa gran ventaja puede convertirse
en un inconveniente si ocurre que la página localizada ayer no
exista hoy. Como posible solución a esta eventualidad se puede
contar con el proyecto
archive.org (un archivo histórico de páginas web desde 1996)
o con la opción caché de Google (los robots de este buscador
sito en
www.google.com preservan temporalmente una imagen de cada
página web, incluso si ha sido recientemente eliminada).
-
Hipertextualidad: Esta característica fundamental hace posible que
documentos situados en diferentes máquinas, en diversos lugares,
puedan unirse mediante un lazo virtual. Esto produce la impresión de
encontrarnos en una auténtica telaraña donde se establecen
invisibles relaciones entre datos en apariencia no conectados. Esta
cualidad está siendo estudiada a través de lo que se conoce como
"web mining" o minería de datos.
- Falta de
normalización: otra consecuencia derivada directamente de la primera
característica es que en ocasiones los contenidos son vertidos a la
Red sin orden ni concierto, sin conocerse cuál es la persona que los
saca a la luz, ni siquiera con la seguridad de que él sea su autor
original. Es más, a tal punto ha llegado la posibilidad de
reproducción del documento digital que muchos son copiados y
reproducidos indiscriminadamente.
- Crecimiento exponencial: ante la
falta de control y la creación de cada vez más recursos
informativos, se impone hacer una selección de aquellas fuentes más
fiables o que nos ofrecen una mayor cantidad, y calidad, de
información. Elegir las que más confianza ofrecen se convierte en
algo fundamental.
Nos encontramos
por tanto en un entorno donde la información, de todo tipo, está
completamente a nuestra disposición y donde, además, el propio medio
influye en las características de los documentos que ofrece. Si
atendemos al contador de Google, en la actualidad el número
de páginas web indizadas se va acercando a los 5.000 millones, y eso
sin contar con las que se hallan fuera del área de actuación de los
motores de indexación: páginas dinámicas, intranets corporativas,
bases de datos, etc. Eso implica mucha cantidad de información:
Aguillo (2000) cifraba en 2.000 millones el número de páginas
web disponibles en el año 2000, así que podemos hacernos una clara
idea del desarrollo exponencial de los contenidos en internet. Una
ingente cantidad de información que supera con creces la capacidad
de asimilación de cualquier persona o la de análisis de cualquier
herramienta informática: en la actualidad ningún motor de búsqueda
es capaz de rastrear e indicar toda la web, con lo que los
resultados de una consulta no siempre son exhaustivos.
Ante esta
situación se hacen necesarios nuevos mecanismos de búsqueda (Baeza-Yates,
2004), procedimientos más potentes de consulta en los buscadores (Montes,
1999) y modos de actuar claros a la hora de localizar información
fiable de acuerdo con el entorno cambiante en el que nos movemos (Olvera,
1999). También es importante el papel de los propios autores o
productores de los recursos ya que es responsabilidad suya hacer
accesibles sus documentos mediante la incorporación de metadatos (Senso;
De la Rosa, 2003) que permitan a los robots de búsqueda su
mejor clasificación atendiendo directamente a sus contenidos. Si el
proyecto de la futura web semántica prospera, ésta será una
cuestión a tener muy en cuenta. Sin embargo dicho método presenta el
gran inconveniente de que deja en manos de los mismos productores de
la información la decisión final de poner o no las etiquetas
correspondientes a la descripción más exacta de los contenidos, lo
que puede provocar que en ocasiones no sean los más adecuados, con
lo que los resultados de la consulta en los buscadores no serán los
esperados (Codina, 2003).
3. LA EVALUACIÓN DE PÁGINAS WEB.
Ante la
problemática actual de la gran profusión de páginas web (a la que
aún no se le ha dado una respuesta convincente) y la selección de
aquellas más pertinentes, nos encontramos con la disyuntiva de
escoger entre recursos de información de calidad. Han sido varias
las disciplinas desde las que se han intentado acercamientos a este
problema ansiando ofrecer una solución. La documentación también ha
ofrecido sus herramientas a la hora de procurar una evaluación de
las páginas web disponibles en la Red y todo ello desde diversos
aspectos: de contenido, de diseño, la usabilidad, su amigabilidad,
la posibilidad de recuperación de información, estudio de citas,
etc.
Globalmente,
podríamos decir que existen dos caminos principales a la hora de
aproximarnos a la evaluación de las páginas web: desde el impacto
que tienen en su contexto de aplicación y desde el punto de vista de
la calidad del recurso, entendida ésta desde las perspectivas
anteriormente comentadas. Ambas cuestiones las desarrollaremos a
continuación:
a. El estudio
de impacto.
Existe una
disciplina íntimamente ligada a la documentación que estudia el
factor de impacto que un determinado artículo, monografía o un autor
en concreto tienen dentro de su campo de investigación. Nos
referimos a la bibliometría y la cienciometría, que intentan ofrecer
respuestas cuantitativas, es decir, medibles y cuantificables, a los
problemas planteados en relación a este punto mediante el análisis
estadístico de las citas presentes en los diferentes trabajos. De
esta forma es posible, entre otras cosas, dar datos concretos sobre
quién es el autor más influyente dentro de una disciplina atendiendo
al número de veces que se le cita, o autores influenciados por
otro/s o que siguen caminos similares en sus investigaciones.
¿Existe un área de estudio semejante a la bibliometría aplicado a la
Red? La respuesta a dicha cuestión es afirmativa: la cibermetría,
que en su modelo actual y moderno es «entendida ya como un conjunto
de disciplinas que se apoyan en técnicas aplicadas anteriormente en
información y documentación cuantitativa y que ahora encuentran su
símil en internet» (Aguillo, 2000, p. 237).
En la
actualidad existen numerosos métodos para obtener un dato aproximado
en relación a ese factor de impacto aplicado a la Red. Aguillo
(2000) ofrece un repaso a estos procedimientos de actuación así como
algunos indicadores cibermétricos aplicados en este contexto. En
nuestro caso no aplicaremos ninguno pues superaría con mucho los
objetivos de este artículo, aunque desde aquí animamos a que se
realice este tipo de análisis, intentado aportar claridad desde el
punto de vista cuantitativo de la investigación. El mundo del cómic
no debería permanecer al margen de ciertos estudios (que son
habituales en otros contextos de la comunicación y artísticos) y
pretender, al tiempo, una aceptación metodológica y cultural que
está más lejos que cerca. El reconocimiento de un estudio o un
trabajo debe basarse en varios criterios y no sólo en el de
autocomplaciencia, que en el ámbito teórico de la historieta llega a
ser alarmante y que en nada favorece su difusión fuera de sus
ambientes habituales.
De cualquier
forma, el estudio del factor de impacto también plantea una nueva
duda (tanto en el entorno impreso como en el digital): saber si una
página web muy citada o visitada ofrece garantías de calidad.
Diversos autores proponen que si una página web es muy visitada se
le supone cierta garantía, por lo menos, de credibilidad, pero no
siempre es así:
-
El número de visitas que una página recibe es un dato cuantificable
con cualquier aplicación de las muchas actualmente accesibles en la
Red. Este método presenta el inconveniente de que si una única
persona actualiza una página eso cuenta como dos visitas. O sea, el
método deja bastante que desear, aunque existen programas que
realizan análisis estadísticos dependiendo de las acciones que el
usuario realiza mientras visita la página. Otro procedimiento
consiste en usar los ficheros .log, generados por muchos sitios web
con información de las conexiones recibidas y otros datos
complementarios (un ejemplo son los periódicos digitales que se
encuentran dentro del
control OJD).
-
En cuanto al estudio de citas aplicadas en el entorno web,
actualmente la mayoría de los grandes buscadores incorporan
procedimientos de consulta que permiten saber cuántas páginas, en
este momento, incorporan un enlace a un sitio web en concreto en
toda la Red. Evidentemente, y ante la complejidad de la definición
de sitio web, donde una misma sede estará compuesta de innumerables
documentos o páginas, se hace necesaria la aplicación de un método
garante y uniforme que dé una respuesta fiable. En ese sentido,
Rodríguez i Gairín (1997) realiza un acercamiento bastante
interesante a esta cuestión y proporciona un método estadístico
relevante y fácilmente aplicable. También es importante conocer
cuáles son las páginas que citan a otras pues, como comenta
Codina (2000), muchas veces los recursos más citados en los
medios suelen ser triviales y sin mérito.
b. Evaluación
de la calidad.
Al igual que en
el caso anterior, existen diferentes formas de acercarnos al
problema para buscar soluciones. Nos interesa la evaluación del
recurso desde la perspectiva de la calidad de la información que
pueda ofrecernos, lo cual no es tarea fácil. En el punto anterior se
ha comentado que, mediante técnicas y procedimientos estadísticos
pueden medirse cuantitativamente la importancia relativa de una
página web. Pero la respuesta a una evaluación de la calidad de la
información va mucho más allá de un mero análisis estadístico.
Evidentemente este punto va íntimamente relacionado con la necesidad
de información que una persona pueda tener en un momento dado. En
este sentido, son interesantes las reflexiones sobre el concepto
"necesidad de información" planteadas por Olvera (1999) y
cómo su definición y concreción puede darnos una aproximación válida
al problema.
En este entorno
ambiguo y subjetivo, la persona que busca información es la que
determina si lo que se le ofrece le resulta pertinente o no de
acuerdo con la certeza y la veracidad de esa información (Fornas,
2002). No obstante, sí existen ciertos procedimientos
cuantitativos que nos permiten llevar a cabo una evaluación de la
calidad de los recursos de información atendiendo a una serie de
criterios ponderados, los cuales se basan en cuestiones como:
- Usabilidad y
accesibilidad: ¿el sitio se puede navegar sin dificultad?, ¿sus
diferentes secciones son fácilmente accesibles?, ¿se puede encontrar
sin problemas en la Red? Hay que tener en cuenta en este punto su
diseño, que «no es una vidriera para el despliegue de proezas
gráficas» (García de León; Garrido Díaz, 2002) y que debe de
estar supeditado al contenido, y no éste al diseño.
- Autoría: es
importante saber quién o quiénes son responsables del sitio web, en
orden a su credibilidad. Como ya se ha comentado, no todo lo que se
vuelca en internet es cierto y resulta conveniente saber quién ha
emitido cada información, pues eso nos dará pistas sobre su
fiabilidad. Además, su carácter independiente marcará su
credibilidad, pues en el mundo de los cómics siempre existen
intereses de editores, libreros, distribuidores, los propios
autores, y tendencias, gustos y amistades que pueden modelar la
información y los fundamentos de opinión. Muchas listas de criterios
para la evaluación penalizan negativamente, en buena lógica, la
relación que pueda establecerse entre la página web, o los
comentarios vertidos en ella, con una empresa relacionada con su
contexto de aplicación.
- Cantidad de
información: muchos autores equiparan cantidad a calidad. Ésta no es
una cuestión baladí ya que, aunque es más probable encontrar lo que
se necesita en un recurso donde se nos ofrece mucha información, no
es algo que tenga una correlación absoluta.
-
Actualización: es otro tema candente. Si en el contexto impreso la
actualización de un producto editado en papel necesitaba de unos
plazos que podrían ser de meses o años, esto resulta inaceptable en
la Red donde la incorporación de nuevos contenidos debe ser muy
frecuente, lo que también ofrece garantías de una esperanza de vida
que permita alumbrar un recurso de calidad futuro.
Hoy hay
diferentes criterios para evaluar la calidad de un recurso de
información en la Red. Algunas de estas propuestas pueden
consultarse en la bibliografía final; entre las que más aceptación
gozan por parte de la comunidad académica se encuentran las
planteadas por Codina (2000a y 2000b). Sin embargo, dada la
naturaleza de las páginas objeto de este estudio, las referidas al
mundo del cómic en lengua española, quizá sea más interesante
centrar el estudio mediante los criterios establecidos en Jiménez
(2001). |