Table of Contents Table of Contents
Previous Page  41 / 68 Next Page
Information
Show Menu
Previous Page 41 / 68 Next Page
Page Background

P.39

Nº4 2017 / P.P.

redirijan a grandes sitios de noticias) que directamente en sitios

o medios tradicionales de comunicación. Sin embargo, la infor-

mación que se despliega ha sido procesada previamente por un

algoritmo que ha decidido cuáles son las noticias más relevantes

para cada uno de nosotros. Lo que vemos allí no son sólo aque-

llas cosas que nuestras redes y amigos comparten. Son aquellas

noticias e informaciones que queremos leer.

Esto es lo que se ha denominado la “burbuja de filtros” y se le

ha achacado un deterioro en la capacidad de discusión demo-

crática. Después de todo, ¿cómo aprenderemos a discutir con

posiciones distintas a la nuestra si el contenido que consumimos

sólo refuerza nuestra posición ya adquirida? Autores como Cass

Sunstein han demostrado que si sólo nos exponemos a argu-

mentos similares tenderemos a extremar posiciones, debilitando

una discusión de ideas racional e igualitaria. Expuestos a una

constante reafirmación positiva, hasta lo irracional puede llegar

a sonar lógico.

Noticias falsas

La estructura actual de la economía digital se sustenta, en buena

medida, en la publicidad. Google y Facebook son, básicamente,

grandes empresas cuyo modelo de negocio no reside en la oferta

de servicios, sino en la gestión de publicidad finamente orien-

tada a perfiles de usuario. Lo que los usuarios pagan a cambio

de un servicio de búsqueda online de calidad o por participar

en una red social como Facebook es el costo de la información

personal que es procesada para enviarnos publicidad contextual.

Es por ello que buena parte de los modelos de negocio asociados

a contenido online están vinculados al tráfico de visitas, tráfico

que supone finalmente mayores tasas de retorno por publicidad.

Medios tradicionales han debido explorar diversos métodos

para mejorar sus SEO (

Search Engine Optimization

) para ob-

tener visitas que, mayormente, provienen de búsquedas online.

De la mano de este modelo de negocio surgen sitios web que

intentan capturar visitas a través de agresivas estrategias de

SEO que han derivado en los últimos meses en la creación de

sitios que no sólo intentan mejorar sus técnicas para titular sus

noticias y hacerlas más atractivas, sino que derechamente des-

entenderse de la veracidad del contenido y ofrecer contenido

falso. Contenido no verificable, pero atractivo para masas de

visitas que parecen preferir hacer click allí donde se anuncian

hechos improbables antes que la aburrida descripción de la co-

tidianidad. “Viralizar” se transforma en hacer explotar a través

de las redes enlaces a lugares donde, en el fondo, más importa

su atractivo masivo antes que su veracidad.

Regular el contenido no es la solución

Ante este desafío no han faltado las voces que han exigido a los

intermediarios de contenido tomar cartas en el asunto. Algu-

nos afirman que son estos intermediarios -Google, Facebook,

Twitter, otros- quienes tienen un deber de control editorial,

tal como cualquier medio de comunicación. Soluciones como

ésta no hacen sino amplificar el problema y llevarlo a otro lu-

gar: en vez de hacer que sea lo atractivo de un enlace lo que lo

haga viralizable, será la decisión editorial de la empresa dueña

de la plataforma la que determinará la veracidad de los con-

tenidos. Decisión editorial que será tomada por un programa

computacional, de que se tiene poco o nada de control externo

fuera de la compañía.

Los efectos de la burbuja de filtros pueden atenuarse a través de

mecanismos de transparencia algorítmica. Estos deben permitir

al usuario saber los criterios utilizados para desplegar informa-

ción y tal vez permitir elegir mecanismos distintos de ordena-

ción, tales como cronológico o aleatorio.

Ni las noticias falsas ni las burbujas de filtros deben ser com-

batidas a través del control de los contenidos. Los mecanismos

de solución deben permitir más y no menos expresión y ofrecer

cierta transparencia en la forma en la que los contenidos son

presentados a través de sus redes. De otra manera, las soluciones

que se planteen, en lugar de mejorar, empeorarán las condicio-

nes de debate y discusión pública.

“¿Cómo aprenderemos a discutir con posiciones distintas a la nuestra

si el contenido

que consumimos sólo refuerza nuestra posición ya adquirida? Autores como Cass Sunstein

han demostrado que si sólo nos exponemos a argumentos similares tenderemos a extremar

posiciones, debilitando una discusión de ideas racional e igualitaria”.