Un punto de encuentro para las alternativas sociales

Sobre la IA

Manuel Monleón

Este texto es la transcripción de una intervención en el foro interno de Espai Marx con motivo de un debate suscitado por las reacciones a la publicación [1]; el autor ha añadido al texto un párrafo y las referencias bibliográficas, para sustentar algunas afirmaciones.

Un artículo reciente [1] ha causado, al parecer, revuelo en ciertos medios. En él se pretende predecir la ideología de las personas a partir de análisis facial con instrumentos de inteligencia artificial (IA en lo que sigue). Hay varias cuestiones relacionadas que me parecen de interés. No entro en las que me parecen negligibles y despreciables.

Que «la cara es el espejo del alma» es un refrán de la sabiduría popular, y que ciertas configuraciones faciales traducen, no el alma sino el esfuerzo y la naturaleza del trabajo, es muchas veces cierto (al fin y al cabo, somos sistemas materiales). La ideología se encargó después de asociar la naturaleza de ese trabajo con características del «alma» (con propósitos de legitimación). Esta mi interpretación ‘materialista’ no descarta que, como en el exquisito poema de Brecht sobre la máscara japonesa que colgaba en su pared, el «esfuerzo que cuesta ser malvado» se pueda traducir en rasgos faciales (Brecht, La máscara del mal)…

Pero esto son anécdotas. El asunto importante son las capacidades y el uso de la IA. Obviamente, la primera circunstancia a tener en cuenta es que los instrumentos accesibles de IA son desarrollos y propiedad de unas pocas megaempresas privadas. Pero no es de esto de lo que voy a tratar. Las posibilidades, no infinitas, pero sí imprevisibles de esta tecnología son, tal vez, uno de nuestros próximos retos político-culturales más importantes. La IA se alimenta y aprende de bases de datos obtenidas de determinada manera y organizadas de determinada manera. Y sobre esas bases de datos, con algoritmos determinados, produce resultados, que pueden ir desde escribir una canción (letra y música) o una novela [2] (ojo: ¡originales!) en base a unas pocas directrices, hasta reconocer formas y personas o «reconocer» delincuentes, pasando por escribir informes o hacer diagnósticos médicos [3, 4]. Todo esto existe ya. Unos colegas, especialistas en la materia, publicaron hace poco una alerta sobre el peligro de la opacidad de todo el proceso a la hora de interpretar y validar los resultados [5], que impide reconocer sesgos en los procedimientos. Una aplicación para reconocer delincuentes por las calles identificaba sistemáticamente a las personas «de color» como delincuentes…  porque había sido alimentada y enseñada con bases de datos de las cárceles USA, donde, en efecto, ¡la mayor parte de la población reclusa es afroamericana! Y así, podéis imaginar infinidad de ejemplos. Sabréis que otros especialistas han alertado incluso sobre «el peligro de extinción de la humanidad» si no se regula bien el asunto [6, 7].

No soy un especialista en el tema. Pero me surgen preguntas-sin-respuesta sobre las consecuencias de la aplicación masiva de la IA:

– sobre el impacto en el empleo (la transformación de los empleos que conocemos (la enseñanza y otros oficios), la desaparición de otros, más la creación de una población excedente que no podrá nunca aspirar a emplearse)

– sobre la invisibilidad (opacidad) de las fuentes, que hace intrazable el camino desde las conclusiones a sus presupuestos… ¡Pero esa trazabilidad es el principio de toda posibilidad de crítica! Y, consiguientemente, la inidentificabilidad de la (posible) manipulación

– sobre la convergencia progresiva de los resultados hacia unos puntos de vista uniformes, hacia «versiones recibidas» que pasarán por «la verdad», puesto que el sistema irá progresivamente recibiendo como alimento para su aprendizaje sus propios resultados, ya sesgados de principio*) [un ejemplo abajo].

Y otras.

Por otra parte, desde un punto de vista filosófico son muchas las cuestiones interesantes que suscita la IA. Dejo aparte las éticas (todo un mundo ellas solas, sobre el que ya hay mucha gente trabajando en las instituciones [8, 9]), y me centro en las ontológicas y epistemológicas, quizá antropológicas. A otros se les ocurrirán otras [10].

El salto cualitativo de la IA producido en los dos últimos años es una ilustración, donde las haya, de lo que Marx (antes que Engels) llamó «la ley dialéctica» de la conversión de cambios meramente cuantitativos en diferencias cualitativas (Kapital I, MEW 23, pp 326-7). En efecto: la IA existe desde hace más de cuatro décadas, pero su progreso había sido lento e imperceptible. Ha sido, por un lado, el enorme crecimiento de la capacidad de computación, y, por otro, el de las bases de datos (convenientemente organizadas por matemáticos e informáticos para hacerlas ordenadamente accesibles) lo que posibilitó cambiar de paradigma rector en la IA (no puedo entrar en ello aquí) y, como consecuencia, ha provocado lo que estamos empezando a ver desde hace un par de años (y lo que vendrá). Si yo fuera Žižek, recordaría aquí la película Terminator, en la que, si os acordáis, llegado un momento de acumulación cuantitativa de la red de ordenadores ésta «cobra conciencia» …y ahí empieza la película. Lo mismo.

El desarrollo de la IA y las transformaciones sociales que acarreará es también, a mi modo de ver, una ilustración de la potente intuición marxiana resumida en su tan denostado «prólogo de 1859», resumen de urgencia de su «materialismo histórico». Mientras el género humano no regule conscientemente su metabolismo socio-natural, es el desarrollo de las ‘fuerzas productivas’ (porque convendremos que la IA lo es) el que, de manera «ciega», «férrea» (metáforas recurrentes de Marx), provoca una secuencia de cambios de todo tipo para acomodarse a la nueva realidad de ese metabolismo abierta por las nuevas fuerzas productivas. Y ello es así porque las «fuerzas productivas» son la intercara del humano con el humano y con la naturaleza, y tienen siempre una componente de imprevisibilidad debido a la creatividad humana (ni Boulton & Watt hicieron la máquina de vapor para las locomotoras, ni Einstein hizo la Relatividad Especial para la bomba (por lo de E=mc2), ni la IA se hizo para todo lo que dará lugar y aún no sabemos). La conjunción de esa imprevisibilidad y la falta de coordinación consciente del comportamiento social hace emerger consecuencias que se nos imponen con la «necesidad de una ley natural» (más metáforas de Marx). En la Física sucede algo parecido: John Archibald Wheeler lo llamó la «ley sin ley» [11], la emergencia de ‘leyes’ a nivel colectivo a partir de su «ausencia» (el «caos») a nivel molecular. Para Kant y para Hegel (quienes ya habían entrevisto este mecanismo de emergencia) esa caoticidad convierte a los individuos en agentes involuntarios del curso de la historia hacia sus «metas naturales» (Kant [12]); es la «astucia de la razón» (die List der Vernunft) mediante la que se abre paso el «espíritu del mundo» (el Weltgeist) en la historia (Hegel [13]). Para Marx y Engels (pues de éste es la idea original, que Marx le reconoce [14]), por contra, no hay tales «metas naturales» de la historia ni «espíritus universales» sirviéndose del hacer inconsciente del conjunto de átomos; la acción consciente y coordinada de éstos puede dirigir el curso de la historia. Es necesario para ello una revolución social.

Y acabo con una especulación antropológica. Desde Tales de Mileto (por poner un comienzo convenido en algún lugar) y la sistematización que continúa con Platón y Aristóteles y llega hasta Newton, la plasticidad de nuestras conexiones neurales es conformada por una educación de un cierto tipo, que hace que distingamos ‘conocimiento’ y ‘mito’. El primero se fundamenta en explicar los fenómenos no en base a unos relatos transmitidos, sino en base a ‘causas’ (o ‘esencias’, según la tradición platónica) que, una vez encontradas, nos permiten reconstruir los fenómenos «comprendiéndolos», y no sólo los primeros (los que sirvieron para encontrar las causas), sino otros muchos distintos de ellos. Este doble movimiento (de los ‘fenómenos’ a las ‘esencias’ y de éstas a los ‘fenómenos’) es lo que Platón llamaba ‘dialéctica’ (Hegel y Marx también), pero que simplemente podemos llamar ‘razón’, o ‘logos’. Ortega, deslumbrado, dice «Esta platónica fuga para acercarse me parece la invención más genial que en el orden teorético se ha hecho en el planeta, sin que quepa comparársele ninguna otra» (en La idea de principio en Leibniz). Para ver si hemos dado con las ‘causas’ es esencial que con ellas podamos «reconstruir» los fenómenos que sirvieron de problema de partida (por eso Marx no se cansa de insistir en que lo importante en la ciencia es lo que él, en 1857, llama el «ascenso de lo abstracto a lo concreto», es decir, de las ‘esencias’ a los ‘fenómenos’). Pero, ya digo, ni Hegel ni Marx inventaron la cosa, que fue aclarándose desde Aristóteles hasta el aristotelismo véneto del siglo XVI. La potencia de este «método» es enorme: ya Eudoxo y Euclides pudieron reemplazar la memorización de miles de soluciones de problemas geométricos por la de unos pocos principios, definiciones y reglas de inferencia. Se posibilita así la transmisión del conocimiento, y se pasa de su carácter ‘aristocrático’ (que siempre ha de descansar en capacidades innatas como la «intuición») a su carácter ‘democrático’ (todo el mundo puede aprender a razonar).

Pues bien. La IA se basa en todo lo contrario. Si nuestra mente procede «de arriba abajo» y no descansa hasta encontrar ‘causas’ o ‘razones’ por las que las cosas son como son, la IA procede al revés: estableciendo correlaciones entre los datos (fenómenos), sin preguntarse por las causas. Es como si uno quisiera inventar dos máquinas que pudieran hablar, basadas en sendos principios diferentes: a una le mete las reglas de la gramática y un diccionario; a la otra le mete todas las conversaciones y libros existentes. La segunda es la triunfante. Ese es el cambio de paradigma que se produjo en la IA. Naturalmente, para que triunfe, el conjunto de ‘conversaciones’ y ‘libros’ a introducir no puede ser reducido, ha de ser suficiente para que la mera correlación sea un proceso autocorrectivo, de «aprendizaje» (nótese que «aprender» ahora ya no implica conocer la ‘gramática’). La situación recuerda en cierto modo a aquel relato de Borges en el que, en un conjunto de monos situados frente a máquinas de escribir, alguno de ellos llega a escribir «El Quijote», por tecleo aleatorio. Naturalmente, el conjunto de monos-con-máquinas ha de ser infinito.

¿Qué consecuencias a la larga tendrá sobre las mentes (sobre el cableado neuronal) una mutación del sistema de aprendizaje basado en la IA?

*) Un ejemplo que escuché en la TV local la semana pasada. Se le pasó el examen de selectividad en Historia al chatGPT, y el resultado se le pasó a uno de los profesores que corrigen. El tema era la guerra civil española. Al profesor-corrector no le había gustado que el chatGPT llamase «nacionales» a los sublevados, y que «equiparase la violencia en ambos bandos»… Es decir, ¡la máquina hizo un examen correcto, pero ‘ideológico’! Esto sucede ahora. Imaginemos qué pasará cuando este examen y otros como él, y en multitud de temas, se hayan convertido en nuevos inputs para el algoritmo…

Referencias

[1] Klemmensen et al, «Using deep learning to predict ideology from facial photographs: expressions, beauty, and extrafacial information». Scientific Reports 13 (2023) 5257

[2] S Halpern, «What we still don’t know about how A.I. is trained». The New Yorker. https://www.newyorker.com/news/daily-comment/what-we-still-dont-know-about-how-ai-is-trained

[3] Silfat, «ChatGPT and the future of health policy analysis: potential and pitfalls of using ChatGPT in policymaking». Annals of Biomedical Engineering 51 (2023) 1357–1359

[4] Cheng et al, «Potential use of Artificial Intelligence in infectious disease». Annals of Biomedical Engineering 51 (2023) 1130–1135

[5] Burnell et al, «Rethink reporting of evaluation results in AI». Science 380, 14 april 2023, issue 6641

[6] Statement on AI Risk. https://www.safe.ai/statement-on-ai-risk#signatories

[7] I Hogarth, «We must slow down the race to God-like AI». Financial Times https://www.ft.com/content/03895dc4-a3b7-481e-95cc-336a524f2ac2

[8] A definition of AI: Main capabilities and scientific disciplines. High-Level Expert Group on Artificial Intelligence. European Commission 2019

[9] Ethics by design and ethics of use approaches for Artificial Intelligence. European Commission 2021

[10] Vervoort et al, «Deep Learning applied to scientific discovery: a hot interface with Philosophy of Science». Journal for General Philosophy of Science 54 (2023) 339-351

[11] Wheeler, «On recognizing ‹law without law›». Am J Phys 51 (1983) 398-404

[12] Kant, Ideas para una historia universal en clave cosmopolita y otros escritos. Tecnos, Madrid 1987 (en el original (1784) no es «Ideas», sino «Idea»)

[13] Hegel, Enzyklopädie I, HW8, § 209; Grundlinien Phil Rechts, HW7, §§ 344-348

[14] Kapital I, MEW 23, nota 28 en la pág 89.

 

Manuel Monleón
miembro de Espai Marx

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *