*

X
El crítico Nicholas Carr ofrece un argumento convincente y alarmante sobre los efectos de la tecnología digital en nuestros cerebros

Las redes sociales actualmente se han convertido en las nuevas plazas públicas y han reemplazado a diversos foros de discusión. La política hoy en día se hace en Twitter. En cierta manera, Google ha reemplazado a las bibliotecas. Y Facebook, junto con Twitter, es el lugar en el que nos informamos sobre el mundo y sobre nuestros conocidos. Perdemos, entonces, contacto real, y espacio para una reflexión más pausada y profunda.

El teórico de medios Nicholas Carr, autor del libro The Shallows, lleva algunos años criticando los efectos de la tecnología digital en nuestras mentes. En una reciente entrevista con El País, Carr hizo énfasis en este aspecto de superficialidad que predomina en la red. Dice de Twitter: "Ofrece, por tomar prestada la frase del filósofo John Gray, un refugio para la insignificancia". Y sin embargo, es en Twitter en donde se hace la política hoy en día, se discuten temas fundamentales y se hacen linchamientos masivos. "Las redes sociales son inadecuadas para el discurso político", señala Carr; "Fomentan la superficialidad sobre la profundidad, la emoción sobre la razón y el pensamiento grupal por encima del crítico. Su diseño auspicia que se extienda rápidamente la propaganda y la desinformación".

Como antes han notado críticos como Heidegger, McLuhan o Rushkoff, Carr señala que: "Es una tontería pensar que la tecnología es neutral. Tiene un sesgo, nos empuja a comportarnos y a pensar de una manera determinada". Si bien la tecnología es programada por seres humanos, cada plataforma, cada aparato y cada aplicación tienen una intención y reflejan ciertos valores. Rushkoff sugeriría que, en general, reflejan los valores utilitarios del capitalismo corporativo.

Carr es especialmente crítico respecto de Google:

La visión de Google de la mente humana es industrial. Se trata de la eficiencia con la que nuestro cerebro procesa la información. Por esta razón, Google y otras compañías ponen tanto énfasis en la velocidad y el volumen de consumo de la información. Lo que les falta es una apreciación de la forma en que el cerebro transforma los fragmentos de información en conocimiento de calidad. Al bombardearnos, socavan nuestra capacidad de pensar de manera profunda, crítica y conceptual. Formas de pensar que requieren atención y reflexión. Hay evidencias científicas que demuestran que los medios digitales nos empujan hacia un pensamiento superficial y lejos del rigor. Y todo es mucho peor desde que llevamos encima un smartphone todo el tiempo.

Sin duda, este es un asunto para reflexionar. Idealmente, para reflexionar desconectándose un rato. Meditar un poco. Leer un libro.

Te podría interesar:
Deep fake para textos: la máquina a la medida para la era de la posverdad

Los últimos 3 años en Internet han estado dominados por la incipiente conciencia del peligro de las fake news y la persuasión de votantes o consumidores a través de algoritmos que se alimentan en tiempo real de su información para manipular su conducta en línea. Este riesgo, que algunos consideran que atenta contra la democracia y la autonomía, podría tener un nuevo actor con el desarrollo de programas que logran escribir artículos que pueden hacerse pasar fácilmente por escritos por humanos, hasta un punto indistinguible o casi indistinguible. 

Hace un par de semanas la plataforma OpenAI anunció que estaba preocupada por el potencial uso nocivo de su modelo GPT2, que ha sido llamado "deep fake para textos". La compañía, que tiene a Elon Musk entre sus inversionistas, dijo que no hará pública la información de su investigación por miedo a que esta tecnología tenga ramificaciones negativas. El modelo GPT2 es capaz de generar texto plausible una vez que se le ha alimentado con un texto, algo así como una idea a desarrollar que conecta con otra información.

El sistema se diferencia de otros programas en que mantiene el mismo tema y sintaxis y crea pasajes estándar que parecen redactados por una persona. Esta plataforma se entrenó con más de 10 millones de artículos. Por una parte, esto es altamente interesante, pues este modelo puede realizar tareas como traducir y resumir textos. Pero por otro lado tiene un potencial que aunque podemos imaginar a dónde podría llevar, realmente es casi ilimitado en las posibilidades de usos que se le pueden dar para engañar y manipular. Por ejemplo, el sistema puede generar innumerables reseñas positivas o negativas de productos. Podría producir innumerables mensajes de spam, e incluso estudiar bases de datos para generar correos que busquen estafar a las personas. O teorías de la conspiración, o textos orientados a provocar a ciertos grupos sociales o políticos. Podría producir sitios enteros de fake news o de información con fines propagandísticos. 

Aunque esta cautela es bienvenida, por otro lado es evidente que esta tecnología en algunos años será desarrollada por otras personas y probablemente pueda ser usada con fines nocivos. Así que es importante prepararnos y educarnos. Lo que parece indudable es que estamos llegando a un punto en el que la tecnología que creamos está capacitada para rapazmente explotar algunas de nuestras vulnerabilidades mentales y nuestro nivel moral e intelectual como civilización no está a la altura para salvaguardar los usos de esta tecnología, lo cual es preocupante. Parece que vivimos en los tiempos que Philip K. Dick imaginó:

Las realidades falsas crearán humanos falsos. O bien, los seres humanos falsos generarán realidades falsas y luego las venderán a otros seres humanos, convirtiéndolas, eventualmente, en falsificaciones de sí mismos. Así que terminamos con humanos falsos inventando realidades falsas y luego vendiéndolas a otros humanos falsos.