P.39
Nº4 2017 / P.P.
redirijan a grandes sitios de noticias) que directamente en sitios
o medios tradicionales de comunicación. Sin embargo, la infor-
mación que se despliega ha sido procesada previamente por un
algoritmo que ha decidido cuáles son las noticias más relevantes
para cada uno de nosotros. Lo que vemos allí no son sólo aque-
llas cosas que nuestras redes y amigos comparten. Son aquellas
noticias e informaciones que queremos leer.
Esto es lo que se ha denominado la “burbuja de filtros” y se le
ha achacado un deterioro en la capacidad de discusión demo-
crática. Después de todo, ¿cómo aprenderemos a discutir con
posiciones distintas a la nuestra si el contenido que consumimos
sólo refuerza nuestra posición ya adquirida? Autores como Cass
Sunstein han demostrado que si sólo nos exponemos a argu-
mentos similares tenderemos a extremar posiciones, debilitando
una discusión de ideas racional e igualitaria. Expuestos a una
constante reafirmación positiva, hasta lo irracional puede llegar
a sonar lógico.
Noticias falsas
La estructura actual de la economía digital se sustenta, en buena
medida, en la publicidad. Google y Facebook son, básicamente,
grandes empresas cuyo modelo de negocio no reside en la oferta
de servicios, sino en la gestión de publicidad finamente orien-
tada a perfiles de usuario. Lo que los usuarios pagan a cambio
de un servicio de búsqueda online de calidad o por participar
en una red social como Facebook es el costo de la información
personal que es procesada para enviarnos publicidad contextual.
Es por ello que buena parte de los modelos de negocio asociados
a contenido online están vinculados al tráfico de visitas, tráfico
que supone finalmente mayores tasas de retorno por publicidad.
Medios tradicionales han debido explorar diversos métodos
para mejorar sus SEO (
Search Engine Optimization
) para ob-
tener visitas que, mayormente, provienen de búsquedas online.
De la mano de este modelo de negocio surgen sitios web que
intentan capturar visitas a través de agresivas estrategias de
SEO que han derivado en los últimos meses en la creación de
sitios que no sólo intentan mejorar sus técnicas para titular sus
noticias y hacerlas más atractivas, sino que derechamente des-
entenderse de la veracidad del contenido y ofrecer contenido
falso. Contenido no verificable, pero atractivo para masas de
visitas que parecen preferir hacer click allí donde se anuncian
hechos improbables antes que la aburrida descripción de la co-
tidianidad. “Viralizar” se transforma en hacer explotar a través
de las redes enlaces a lugares donde, en el fondo, más importa
su atractivo masivo antes que su veracidad.
Regular el contenido no es la solución
Ante este desafío no han faltado las voces que han exigido a los
intermediarios de contenido tomar cartas en el asunto. Algu-
nos afirman que son estos intermediarios -Google, Facebook,
Twitter, otros- quienes tienen un deber de control editorial,
tal como cualquier medio de comunicación. Soluciones como
ésta no hacen sino amplificar el problema y llevarlo a otro lu-
gar: en vez de hacer que sea lo atractivo de un enlace lo que lo
haga viralizable, será la decisión editorial de la empresa dueña
de la plataforma la que determinará la veracidad de los con-
tenidos. Decisión editorial que será tomada por un programa
computacional, de que se tiene poco o nada de control externo
fuera de la compañía.
Los efectos de la burbuja de filtros pueden atenuarse a través de
mecanismos de transparencia algorítmica. Estos deben permitir
al usuario saber los criterios utilizados para desplegar informa-
ción y tal vez permitir elegir mecanismos distintos de ordena-
ción, tales como cronológico o aleatorio.
Ni las noticias falsas ni las burbujas de filtros deben ser com-
batidas a través del control de los contenidos. Los mecanismos
de solución deben permitir más y no menos expresión y ofrecer
cierta transparencia en la forma en la que los contenidos son
presentados a través de sus redes. De otra manera, las soluciones
que se planteen, en lugar de mejorar, empeorarán las condicio-
nes de debate y discusión pública.
“¿Cómo aprenderemos a discutir con posiciones distintas a la nuestra
si el contenido
que consumimos sólo refuerza nuestra posición ya adquirida? Autores como Cass Sunstein
han demostrado que si sólo nos exponemos a argumentos similares tenderemos a extremar
posiciones, debilitando una discusión de ideas racional e igualitaria”.