Nexus

El famoso historiador Yuval Noah Harari publicó hace poco menos de dos meses su último libro, Nexus. El subtítulo 'una breve historia de las redes de información desde la edad de piedra hasta la IA' trata de titular las dos partes del libro. Creo que las diferencias entre las dos partes son notables. En la primera, el libro está centrado en la historia de las redes de información y el modo en que las tecnologías fueron modificando los sistemas políticos y la concentración del poder. Si bien no soy historiador, siento que los acontecimientos que relata son excelentes para entender las ideas que quiere cuestionar en la segunda parte del libro. Por ejemplo, menciona que la aparición de la imprenta no condujo directamente al avance de la ciencia y la cultura. Sino que llevó a la publicación de miles de copias de libros sobre la cacería de brujas (paradójicamente a lo que uno podría esperar, fue la inquisición española la que puso un fin a esta locura persecutoria). Pero también la imprenta fue fundamental para el desarrollo del pensamiento no oficial de la iglesia católica. Esto quiere decir, según Harari, que la iglesia católica concentraba los nodos de información en su centro. La verdad estaba localizada en el magisterio papal. La imprenta, como tecnología, produjo una crisis en esa red de información. Aquí la cuestión es quién detenta el poder en este sistema centralizado debe también controlar el flujo de la información para mantener la organización. Otro caso fue el de los medios de comunicación como la radio y el periódico. Que si bien ayudaron a la formación de un debate público que promovió ideales liberales democráticos también se utilizó para la formación de los primeros estados totalitarios. 

La primera parte del libro está dedicada a relatar el devenir de la información. Pero no es que simplemente un avance tecnológico produce un avance social o un retroceso político. Se trata más bien de las posibilidades que ofrece para concentrar o distribuir poder. Según Harari una de las maneras de evitar que se produzcan desbalances destructivos en las redes de información y gestión son los métodos de autocorrección. Dice que si un sistema incluye en su constitución mecanismos para incorporar errores y adaptarse a ellos produciendo mejores resultados, productos, políticas, ensayos, lo que fuera, esa organización tendrá una tendencia más fuerte hacia la verdad que hacia el poder. Y aquí hace otra distinción en relación a verdad y poder. El poder busca mantener la organización del sistema, no está interesado en la búsqueda de la verdad. Podríamos decir que una organización burocrática está interesada en sostener el poder a través de relatos que no tienen mucho de verdad pero sí suficiente potencia en la intersubjetividad para sostener la cohesión social. La verdad incluso puede ser una amenaza para la cohesión social. Entonces tenemos Estados que a través de la burocracia y de relatos socialmente aceptados, y reproducidos por sus miembros, pueden mantener su existencia a través del tiempo. Un ejemplo paradigmático según Harari son los imperios. En sus términos, los imperios son la expresión inevitable del desarrollo histórico. Es interesante ver que sea tan determinista su visión de la historia cuando empieza el libro acusando a otras corrientes de esto. No creo que sea algo malo, es un recurso para comunicar una idea siempre y cuando haya honestidad intelectual.


En la segunda parte del libro no vamos a encontrar historias y lecciones sobre los cambios políticos vinculados a la tecnología. La segunda parte es notable no sólo por el cambio de tono sino, también, por las ideas que comunica. El objetivo es diferente. Nos quiere advertir sobre los potenciales peligros que se esconden en las inteligencias artificiales. La competencia entre potencias mundiales por controlar primero que el resto la IA más potente y por el riesgo que significa esto para las democracias. Todas las advertencias que lanza Harari están seguidos por propuestas para mitigar los riesgos. Lo más interesante para mi no es lo que describe de la IA sino del potencial del Homo Sapiens para superar estos nuevos riesgos. Cambia por completo su visión determinista y cuestiona a aquellos que consideran que la búsqueda del poder es una actividad inevitable. Nos propone recuperar y explorar nuestro lado más natural: cooperación, altruismo y ayuda mutua. Muchas investigaciones resaltan que la ley de la selva es más bien la ley de la cooperación y no de la competencia. La competencia solo puede existir en un marco de reglas pre-establecidas y con límites bien definidos. Sino se convierte es una fuerza destructora.

La IA se diferencia del resto de tecnologías por ser una con capacidad de agenciamiento: puede tomar decisiones propias y novedosas. Si bien aquí Harari no parece conocer otros límites biofísicos sobre la IA, sí menciona que se pueden convertir en un riesgo considerando el contexto del deterioro de las democracias actuales. 

Otro concepto a destacar es que para Harari 'la información no es la verdad. Su tarea principal consiste en conectar y no en representar, y a lo largo de la historia ha sido habitual que se privilegiara el orden sobre la verdad'. Esto quiere decir que no tenemos motivos para pensar que la IA se comporte de un modo distinto. El potencial de la IA sin considerar los riesgos que trae, dados este contexto sociopolítico, pueden convertirse en una amenaza para la existencia del Homo Sapiens.

Conclusión personal

Si bien todas sus ideas son muy interesantes y es un texto que se disfruta como lectura, no me sentí convencido o persuadido como para empatizar con el temor que parece despertarle la IA. La IA en sí misma tiene muchas dificultades para desarrollarse como tecnología. No sabemos hasta dónde puede llegar. Pero sí sabemos de los retos técnicos aún no resueltos para mejorar los modelos de lenguaje actuales. Otro concepto que parece no estar presente en el libro es la noción de inteligencia. La inteligencia humana no es individual sino colectiva. El argumento principal del autor es que los relatos son la herramienta más poderosa del ser humano y que la IA podría crear nuevos relatos más atractivos que lleven a un sometimiento deshumanizante. Esto es un riesgo y ha ocurrido en la historia como él mismo menciona en la primera parte. Pero no es todo lo que ocurrió. La inteligencia así como es colectiva también es un producto de las nuevas generaciones de mentes que aparecen en la historia. El futuro puede albergar catástrofes pero también puede ser esperanzador. Nuevas ideas llegarán y cualquier sistema social y cualquier relato existente será puesto en cuestión. La IA es una gran herramienta y el futuro no está escrito, ni para bien ni para mal.


Comentarios

Entradas populares de este blog

El cáliz y la espada. De Diosas a Dioses: Las Culturas Pre-Patriarcales - Riane Eisler

La inteligencia artificial no piensa. El cerebro tampoco.

La ilusión occidental de la naturaleza humana, comentarios