Alina Polyakova y la desinformación.

Tomado de El País.

La investigadora de la Brookings Institution Alina Polyakova es una de las voces principales en un debate candente: la resistencia frente a la creciente amenaza digital de Rusia. Acaba de publicar junto con el exdiplomático estadounidense Daniel Fried una lista de propuestas para Gobiernos, sociedad civil y compañías de redes sociales con la que los dos expertos pretenden acelerar la respuesta occidental para evitar que el Kremlin y otros “actores malignos” tomen la delantera en el nuevo campo de batalla. “Es el momento de pasar a la acción”, dicen los autores. Recientemente, Polyakova presentó su informe (Democratic Defense Against Disinformation, la defensa democrática contra la desinformación) en la sede del Real Instituto Elcano, en Madrid, donde EL PAÍS conversó con ella.

PREGUNTA. Entre todas sus recomendaciones algunas tratan directamente sobre Facebook. ¿Es posible solucionar los problemas de esta plataforma?

RESPUESTA. Hay que reconocer que Facebook está tomando algunas medidas, pero deberíamos prestar atención a su modelo de negocio para entender el alcance del problema. Las redes sociales, ya sea Facebook, Google, Twitter u otras, basan su modelo de ingresos en atraer dinero de anunciantes, así que tienen un incentivo para ofrecer herramientas cada vez más sofisticadas y refinadas a compañías que quieran llegar a sus nichos de audiencia. Estas son exactamente las mismas herramientas que usaron los rusos para tratar de influir en elecciones, exactamente las mismas. Reconocieron el valor de ellas no solo para anunciar productos, sino para difundir ideas. Creo que finalmente estas compañías tendrán que aceptar que mientras estén en este mercado movido por anuncios van a encontrarse siempre con los mismos problemas por muchos pequeños arreglos que hagan. La desilusión del público es tan grande que creo que acabará emergiendo una nueva generación de compañías de redes sociales.

P. Algunos son pesimistas porque los humanos tenemos sesgos cognitivos que debilitan nuestra defensa frente a la desinformación.

“Los Balcanes son un territorio fértil para los rusos porque son expertos en explotar sus vulnerabilidades, como las tensiones éticas”

R. Esta es una cuestión compleja. Claramente los desinformadores buscan explotar puntos débiles de la psicología humana como el deseo de buscar las cosas prohibidas. El problema se agrava por el hecho de que las redes sociales están diseñadas para dar prioridad al contenido que goza de más popularidad. Por ejemplo, la cuestión sobre si la Tierra es plana o redonda debería estar zanjada, ¿verdad? Si haces una búsqueda en YouTube, los vídeos que reciben más interacción son los que apoyan la idea de que la Tierra es plana. La gente pasa más tiempo viendo estos vídeos por el motivo que sea y el algoritmo de YouTube premia ese contenido en los resultados de búsqueda porque entiende que interesa. Eso puede ser manipulado por actores maliciosos.

P. Una de las soluciones que proponen es la educación.

R. Necesitamos pensar en cómo resolvemos este problema a largo plazo. Por lo tanto, el asunto se centra en cómo formamos a los llamados “ciudadanos digitales críticos”. Es decir, gente protegida por lentes críticas, de modo parecido a las que usaban los estadounidenses y los europeos occidentales en los años de la Guerra Fría para diferenciar entre propaganda soviética e información fiable. No hemos construido un sistema inmune como el que teníamos en la era soviética durante los años de la Guerra Fría.

P. Recomiendan que los algoritmos discriminen la información no creíble, pero ¿no plantea eso un problema de neutralidad?

R. Las plataformas ya discriminan contenido falso. ¿Crees que sus resultados son aleatorios? Si buscas en Google qué pasó en el ataque con armas químicas en Siria deberías estar obteniendo medios creíbles como la BBC y la CNN al principio de la lista. Pero eso no es suficiente. Hay una industria enorme que se ha desarrollado para manipular los resultados de YouTube o Google y consigue a veces que una información negativa aparezca entre los primeros resultados.

P. ¿Por qué teme usted que crezca la amenaza con el desarrollo de la inteligencia artificial (IA)?

R. La IA lo está transformando todo, aunque aún estamos en una fase de desarrollo muy primitiva. Hay aplicaciones benignas como, por ejemplo, los asistentes digitales de los teléfonos, que registran lo que haces con tu móvil y te hacen sugerencias basadas en tus preferencias. Pero también hay otras aplicaciones potencialmente muy negativas. Por ejemplo, el caso de los bots (usuarios automáticos) que difunden desinformación en redes sociales como Twitter. Ahora mismo hace falta aún mucho input manual humano y, normalmente, es fácil reconocer estas cuentas porque tuitean cosas sin sentido o tienen fotos de famosos. Sin embargo, se prevé que, en cuestión de dos o tres años, estos bots sean capaces de predecir respuestas y escribir cosas coherentes. Por si esto fuera poco, hay investigadores que están generando nuevas identidades humanas a partir de bases de datos de fotografías. Parecen imágenes de personas reales, pero no existen. Esas máquinas actúan como humanos reales y pueden incluso responder a comentarios e interactuar en la sección de comentarios. ¿Cómo reconoces que eso es un bot?

P. O sea que pronto los bots inteligentes reemplazarán a los bots tontos.

R. Sí. Hay un gran riesgo cuando Rusia o China empiecen a usar estos tipos de cuentas. O empiecen a manipular vídeo. Hay un vídeo en YouTube del expresidente de EEUU, Barack Obama, dando un discurso falso que fue publicado por investigadores que quisieron advertir del peligro. Es un discurso falso pero parece real. Así que imagina una situación en la que crean un vídeo de la canciller alemana Angela Merkel diciendo algo sobre ‘los horribles inmigrantes musulmanes en nuestro país’. O al contrario, dice ‘abramos las puertas a más inmigrantes en nuestro país’. Y esto aparece en redes sociales, es amplificado por lo que parecen cuentas de humanos y acaba siendo reportado en medios tradicionales. Ya hemos visto ejemplos de eso, pero creo que el futuro de la propaganda digital será mucho más terrorífico.

 

Esta entrada fue publicada en Sin categoría. Guarda el enlace permanente.

2 respuestas a Alina Polyakova y la desinformación.

  1. MaX dijo:

    Amigo se q no tiene q ver con el articulo pero veo q apollas segun tu blog la libertad d expresion, es decir, le queda poco a tu blog porque m parece q aqui no se puede hablar asi como asi. Ya han cerrado varios blog por decir mas d lo q debian. Bueno ojalá y a ti no te lo cierrren.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *