“Existe un potencial totalitario en la Inteligencia Artificial (IA), a diferencia de cualquier otra cosa que hayamos visto a lo largo de la historia”, advirtió Yuval Noah Harari. Ante un centenar de periodistas de países hispanoamericanos, congregados en un webinar, el intelectual nacido en Israel y autor de libros como De animales a dioses y Homo Deus presentó la edición en castellano de su nueva obra: Nexus. Una breve historia de las redes de información desde la Edad de Piedra hasta la IA (Debate).
En más de 500 páginas, que matizan la brevedad que promete el subtítulo, el autor analiza desde la consolidación de la Biblia como artefacto unificador del cristianismo hasta el control de las herramientas de IA por parte de empresas como Facebook, Google y Tiktok, entre otras.
Además, llega al análisis de los riesgos de acentuar un “colonialismo de datos”, en donde gobiernos y corporaciones se nutren de millones y millones de fotos y videos y definen acciones sobre la sociedad en base a ese material.
Harari despliega un recorrido ambicioso. Porque más allá de diseccionar lo que llama “redes de información” a lo largo de la historia, también define otros conceptos. Así, la información no es considerada como materia prima de la verdad ni como un arma para la lucha política, sino como una conexión entre distintos elementos, a los que se les asigna un sentido.
De hecho, el autor señala en el libro que “errores, mentiras, ficciones y fantasía” son también información. Errónea, por supuesto. Y afirma que la ficción es más simple y maleable que la verdad, de ahí su mayor popularidad, rasgo acentuado por el vértigo de las redes sociales.
Sobrehumana e infalible
Respecto de la IA, Harari advierte sobre cómo desde distintos sectores se le asigna a ese conjunto de programas una mirada de “inteligencia sobrehumana e infalible”, como antes se le concedían a los textos religiosos, ya fueran la Torá, la Biblia y el Corán. Y enfatiza que aumentar la velocidad y la eficiencia de las tecnologías de la información “no tienen por qué hacer del mundo un lugar mejor”.
“La IA permite una vigilancia total que acaba con cualquier libertad. No necesitas agentes para seguir a todos los humanos. Hay smartphones, cámaras, ordenadores, reconocimiento facial y de voz…antes era imposible aniquilar la privacidad, ahora no se necesitan analistas para procesar la información, tenemos la IA”, dijo el autor de Nexus en la conferencia, y agregó: “Esto ya está sucediendo. En Israel, mi propio país, ya se está creando ese régimen en territorios ocupados con cámaras, drones y software, siguiendo a la gente, lo mismo en Irán”.
En ese país, explica, abundan las cámaras de vigilancia y programas de reconocimiento facial para castigar a mujeres que no lleven el velo en la vía pública.
Ante una pregunta sobre qué tiene de distinto el impacto actual de la IA en la sociedad respecto de otras grandes invenciones sobre las que también se le atribuyeron ser causantes del Apocalipsis, y por qué ahora habría que creer que estamos en peligro, Harari respondió: “Porque la IA es distinta de cualquier otra tecnología que hayamos inventado antes. No es una herramienta, es un agente independiente. La bomba atómica tenía un poder pero eran los seres humanos quienes decidían si la utilizaban y dónde. La bomba como tal no podía decidir nada no podía inventar ningún arma nueva. La IA es distinta, puede tomar decisiones por sí misma”, y recuerda que en las redes sociales lo que sería el rol del editor quedó absorbido por los algoritmos, que deciden cuál será la historia recomendada.
En su libro, Harari desmenuza, entre otros casos, el funcionamiento totalitario de dictaduras como la nazi y la stalinista, que pretendían el control total de la población. Sin embargo, por las propias limitaciones humanas, algunos islotes de privacidad podían mantenerse. Ante sistemas que no descansan y que son capaces de digerir, metabolizar y tomar decisiones en base a millones de datos entregados o extraídos a lo humanos, como la IA, el riesgo también es de la instalación de un modelo totalitario, ya no solo autoritario.
Ante la pregunta de la prensa sobre la capacidad de generar contenidos, antes capacidad exclusiva de humanos, Harari dice que los desarrollos actuales de IA recién son “amebas”, comparados a cómo pueden evolucionar. “Estamos en los primeros pasos, no hemos visto nada todavía”, respondió.
Más que copiar y pegar
Y la evolución del ChatGPT en diez o veinte años lo convertirá en algo impensado. “No solo hace copiar y pegar, puede crear párrafos enteros, a veces llenos de errores pero tienen sentido”, dijo, y recordó: “Soy profesor de universidad, leo muchos artículos realizados por estudiantes y les cuesta elaborar un ensayo coherente, defendiendo un pinto y enlazando argumentos. La IA lo puede hacer ahora”.
El autor de Nexus agregó que hasta ahora todas las creaciones como poemas, obras de teatro, canciones y ensayos, eran productos de la imaginación humana. Pero que cada vez más las historias, relatos, imágenes y hasta series serán productos de una inteligencia inorgánica. “¿Qué hará esto a la psicología y la sociedad humana? Nadie lo sabe y es la gran pregunta”, aseguró.
Respecto de qué se puede decir de positivo sobre la IA, aunque en rigor de verdad sobre sus bondades están repletos artículos en los medios y en textos académicos, Harari remarcó: “La IA tiene un potencial enorme, si no la gente no la estaría desarrollando”, y ejemplificó que se podrían crear “médicos” virtuales en países empobrecidos, disponibles las 24 horas que, por supuesto, serían mucho más baratos que médicos reales.
No obstante, el intelectual señaló que hay muchas “empresas ricas que inundan a la población con historias y predicciones positivas de lo que va a hacer la IA y que tienden a ignorar los peligros. Es la labor de los filósofos, académicos y pensadores centrarnos en la parte más oscura. Eso no significa que solo haya peligros”.
Que también sea seguro
En un eco de las acusaciones de fobia al progreso con las que suelen tratar de silenciarse este tipo de opciones, Harari ejemplificó: “Si fabricas un auto tienes que dedicar parte de la investigación para garantizar que el vehículo sea seguro”, aunque las empresas tecnológicas están “atrapadas en una mentalidad de carrera armamentista”, sea en Estados Unidos o en China”.
Y que a los desarrolladores de esas tecnologías, cuando se les avisa sobre posibles peligros, dicen que si surgen problemas, los resolverán sobre la marcha. “Esto es sumamente peligroso. Es como poner un vehículo en la carretera sin frenos, porque simplemente queremos que el coche vaya lo más rápido posible. Si después hay un problema con los frenos ya veremos qué hacemos, ya nos inventaremos los frenos después”, dijo.
En el libro, el autor impulsa a gobiernos y a la sociedad civil a desarrollar mecanismos “autocorrectores” para que el impacto de la IA no termine en una distorsión de la vida humana tal cual la conocemos, y que los seres humanos no estén a merced de una inteligencia ajena e inorgánica con gran capacidad sobre ellos.
Un futuro sombrío, de darse, no ofrecería la imagen de robots que persiguen personas; sin androides de metal ni grandes monstruos mecánicos, aquellas tomarían decisiones en base a instrucciones, datos y sesgos de programas que se autorreproducen y multiplican sus capacidades hasta el infinito, sin límites de sueño y muerte.