Un punto de encuentro para las alternativas sociales

El riesgo tecnológico: probabilidades y emociones

Manel Pau

La evaluación y la gestión de los riesgos asociados a la tecnología, tiene una gran importancia práctica. Los medios de comunicación nos ofrecen constantemente ejemplos de decisiones públicas que suscitan polémica y que conllevan conflictos de intereses y de valores: la ubicación de parques eólicos o de placas solares en terrenos rurales, la construcción de nuevas autovías, túneles o aeropuertos, las restricciones al vehículo privado en las ciudades, la instalación de industrias químicas potencial mente peligrosas o contaminantes, la regeneración de las playas periódicamente destruidas por los temporales, etc.

En las decisiones relacionadas con los riesgos tecnológicos podemos distinguir en principio dos posiciones generales. La visión tecnocrática considera que la cuestión puede estudiarse de un modo objetivo, técnico, con los métodos de la ingeniería; que la opinión importante es la de los expertos; y que en gran parte el papel de los responsables políticos es llevar a la práctica las recomendaciones técnicas y, si hace falta, convencer a las poblaciones para que las acepten. Desde este punto de vista, las objeciones de las personas afectadas o los miedos a los riesgos desconocidos se consideran en general como el resultado de la ignorancia científica de los legos o simplemente como actitudes irracionales.

La visión opuesta, que podemos denominar participativa o, según algunos autores, populista, considera que la opinión de los legos es relevante y que en última instancia, por razones democráticas, la opinión de la población general debe prevalecer sobre la de los expertos. Por lo tanto, propugna alguna forma de participación de los ciudadanos en la toma de decisiones sobre cuestiones tecnológicas.

La crítica de la consideración puramente técnica del análisis de riesgos no es nueva, pero dos aportaciones recientes han vuelto a insistir en ello desde puntos de vista distintos. En ambos casos con la intención de plantear cuestiones de más calado que abren, a mi parecer, nuevos caminos de investigación. Se trata de los libros de Sven Ove Hansson (2013) y de Sabine Roeser (2018), dos autores importantes que forman parte del grupo de investigadores del norte de Europa que se han dedicado al estudio del riesgo tecnológico desde el punto de vista de la tradición analítica y que trabajan en departamentos de filosofía de universidades técnicas o en contacto estrecho con el mundo de la ingeniería.

De modo resumido podemos decir que Hansson plantea la posibilidad de conciliar la teoría de la decisión y el análisis costebeneficio con consideraciones éticas. Roeser, por otro lado, indaga sobre el papel de las emociones morales sobre el riesgo. Antes de analizar sus propuestas, vale la pena recordar cuál es el marco del que parten.1

La teoría de la decisión racional y el análisis costebeneficio

La mayoría de los autores que han escrito sobre el riesgo tecnológico definen el riesgo como un resultado o acontecimiento adverso incierto. Si el conocimiento de que disponemos nos permite cuantificar la gravedad o severidad del resultado adverso y la probabilidad de que ocurra, el riesgo puede objetivarse como el valor esperado de la severidad de un resultado adverso.

La teoría de la decisión distingue tres tipos fundamentales de ignorancia. En primer lugar, la ignorancia total: no sabemos qué ocurrirá, no tenemos ningún conocimiento de cómo será el futuro. En segundo lugar, aquel en el que conocemos cuáles son los posibles resultados, pero no somos capaces de asignar una probabilidad subjetiva a cada uno de ellos; lo que técnicamente se denomina una situación de incertidumbre. Y finalmente la llamada situación de riesgo: aquella en que el agente tiene creencias justificadas sobre cuáles son los resultados futuros y cuál es la probabilidad de que se dé cada uno de ellos.

El marco conceptual típico en el análisis de riesgos es la teoría normativa de la elección racional que establece que enfrentado a diversos cursos de acción, el agente debe actuar de acuerdo con sus creencias y sus preferencias sobre los resultados futuros (Peterson, 2009).

Si la situación es de riesgo, estas creencias incluyen, no solamente cuáles son los resultados posibles, sino la probabilidad subjetiva de cada resultado. Si además las preferencias sobre cada uno de los resultados se pueden expresar numéricamente mediante una función de utilidad, entonces la teoría prescribe que la acción racional es aquella que maximiza la utilidad esperada (es decir, la utilidad ponderada por la probabilidad). Por supuesto, las funciones de probabilidad y de utilidad deben cumplir unas condiciones matemáticas que garantizan la coherencia de las creencias y la de las de las preferencias.

El comportamiento de un jugador profesional en un juego de azar, como una lotería o una ruleta, es el modelo ideal de la teoría de la decisión racional. En este caso, las probabilidades subjetivas de un jugador racional se corresponden con las probabilidades objetives dadas por las características físicas del juego; y la utilidad se identifica con el premio monetario de cada resultado (como se trata de un jugador “profesional” no tiene otra motivación que ganar dinero). Veamos un ejemplo muy sencillo de decisión racional:

Supongamos un juego que consiste en echar un dado con dos opciones de apuesta. En la opción A el premio es 45 € si sale 1 o 2. En la opción B el premio es de 15 € si sale 3, 4, 5 o 6. El jugador cree que el dado es perfecto y, por lo tanto, asigna una probabilidad subjetiva de a la primera opción y de a la segunda. Como el jugador solo está interesado en la ganancia económica, la utilidad de cada resultado se puede identificar con el premio. De este modo, la utilidad esperada de cada opción es

Opción A 45 € · = 15 €

Opción B 15 € · = 10 €.

La decisión racional es escoger la apuesta A.

Las decisiones reales no son evidentemente tan simples, pero este esquema normativo puede servir como orientación general. Algunas de sus limitaciones son las siguientes:

No todas las incertidumbres son tratables con modelos probabilísticos.

Las capacidades humanas son limitadas y es imposible asignar probabilidades y utilidades a todos los resultados posibles de la acción.

En general, las consideraciones morales son difícilmente cuantificables para que se puedan incluir en un análisis de riesgos.

Por estas razones, no siempre es posible un cálculo que nos dé la decisión correcta, pero podemos conservar la idea que es racional actuar de acuerdo con creencias y preferencias. Y la teoría normativa de la decisión racional todavía conserva un valor como herramienta heurística, como marco para razonar sobre el mejor curso de acción.

Uno de los malentendidos respecto de la teoría de la decisión racional es el que afecta al concepto de utilidad. Esta tiene a menudo connotaciones de valor económico. En este sentido es evidente que resulta inadecuado muchas veces para tomar decisiones morales. Pero debe entenderse que la utilidad no es más que una representación numérica de las preferencias del agente. Y que estas preferencias son el resultado de una apreciación global de un resultado, después de tener en cuenta to das las consideraciones pertinentes, incluidas las consideraciones morales.

Si una persona delibera sobre la conveniencia de someterse a un determinado tratamiento médico puede utilizar el conocimiento disponible sobre las distintas opciones. En concreto las probabilidades objetivas de éxito de cada una. Al mismo tiempo puede deliberar sobre sus preferencias. Por ejemplo, sobre sus deseos más profundos en lo que se refiere a la calidad de vida que le ofrece cada una de las alternativas que se le ofrecen. A partir de aquí, puede ponderar los costes y beneficios esperados y decidir en consecuencia. Aunque formalmente no lo presente como un cálculo preciso, el modelo de la decisión racional puede ser una buena modelización de la situación. Pero en un contexto de políticas públicas, a menudo, los colectivos que se benefician de una medida no son los mismos que los que soportan los costes o los inconvenientes. El análisis costebeneficio es una técnica que se propone re solver el problema del reparto de los riesgos a nivel social. Responde al hecho que los costes y los beneficios de algunas decisiones no afectan a las mismas personas.

El análisis costebeneficio sostiene que se pueden comparar los costes y los beneficios que afectan a distintas personas, y lo que es más importante, que se pueden compensar. En algunos casos, esta compensación es real. Por ejemplo, cuando los habitantes de un municipio en cuyo territorio se instala un vertedero se ven beneficiados por aportaciones económicas que repercuten en forma de instalaciones de otro tipo. Pero hay casos en que esta compensación no es posible. Entonces el análisis costebeneficio apela al concepto de beneficio social neto, o de compensación potencial, y establece en qué condiciones el beneficio global justifica el coste soportado por algún colectivo (Adler y Posner, 2006).

El análisis de riesgos ético

El filósofo sueco Sven Ove Hansson en su libro sobre la ética del riesgo (2013) plantea que

La incertidumbre acerca del futuro es una característica destacable de los problemas morales en la vida real. ¿Cómo podemos saber cuál es la acción moralmente correcta si no sabemos cuáles serán los efectos de nuestras acciones? Sorprendentemente, la filosofía moral tiene aquí poca ayuda que ofrecernos. Tal vez de modo menos sorprendente, las disciplinas que estudian sistemáticamente el riesgo y la incertidumbre, como la teoría de la decisión y el análisis de riesgos, tienen muy poco que decir sobre cuestiones morales. (2013: viii)

A menudo hemos de tomar decisiones a pesar de no estar seguros de sus efectos sobre acontecimientos futuros. […] El riesgo y la incertidumbre son características tan generalizadas de la toma de decisiones en la práctica que es difícil encontrar una decisión en la vida real de la cual estén ausentes.

A pesar de ello, la filosofía moral ha prestado poca atención al riesgo y a la incertidumbre. (2013: 1)

En su opinión, en general hay una división de tareas entre la filosofía moral y la teoría de la decisión. La primera disciplina analiza las situaciones como si las con secuencias de las decisiones estuviesen perfectamente determinadas y la teoría de la decisión se ocupa de incorporar los elementos de riesgo e incertidumbre. Pero, según Hansson,

No es suficiente dejar que la optimización prescrita por la teoría de la decisión se ocupe del riesgo y la incertidumbre después de completar el análisis moral que hace abstracción del riesgo y la incertidumbre. Para que la filosofía moral trate adecuadamente los problemas morales reales con los que nos enfrentamos en nuestras vidas hay que considerar el riesgo y la incertidumbre como objetos (o aspectos) de una evaluación moral directa. (2013: 2)

En las situaciones de incertidumbre o de riesgo hay distintos resultados posibles. Cada uno de estos resultados puede ser analizado en sí mismo —como resultado puro, tal como lo denomina Hansson. El problema está en componer los distintos resultados. En decidir un curso de acción que tenga en cuenta la mezcla de resultados posibles. La propuesta de Hansson es lo que llama retrospección hipotética (2013: 6473). Se trata de adelantar el juicio que tendremos sobre nuestra acción después de conocer el resultado.

Una retrospección hipotética es una evaluación de una decisión (acción) o serie de decisiones (acciones) en relación con las alternativas disponibles. Tiene lugar hipotética mente en algún momento futuro de cada una de las ramas de los desarrollos posibles siguientes a la decisión. […] Está basada en los valores morales que el deliberador tiene en el momento en que tiene lugar realmente la deliberación. Su resultado es una evaluación de la decisión o acción en una rama considerada en relación con sus alternativas y con lo que el agente cree justificadamente en el momento de la decisión. (2013: 71)

Debe distinguirse entre la emoción o el sentimiento de lamentar no haber tomado otro curso de acción y el juicio de no haber tomado la decisión correcta, es decir la mejor opción dadas mis creencias y mis preferencias en el momento de la decisión. En el juicio retrospectivo no importa lo que finalmente ocurrirá. Siempre puede haber motivos para lamentar no haber tomado una decisión. Si el boleto de lotería que compré no sale, lamentaré haberlo comprado. Pero si sale, lamentaré no haber apostado una cantidad mayor. La decisión racional se basa en la información disponible y las preferencias en el momento de tomarla, no después, cuando ya se conoce el resultado final.

Frente a la posible objeción de que su propuesta no añade nada a la deliberación moral ordinaria, Hansson aduce que se trata de insistir en la importancia de la imaginación para visualizar con más realismo y concreción los resultados posibles de las decisiones; de un modo análogo a como la consideración sistemática del punto de vista de las demás personas afectadas puede mejorar nuestro juicio moral (2013: 72). Se trataría, entiendo, de insistir en la deliberación moral concreta más allá de reglas como las de la maximización de la utilidad esperada.

Contrariamente a muchos otros marcos propuestos para el razonamiento moral, la retrospección hipotética aplica las intuiciones morales de una manera sistemática directamente sobre problemas morales reales, más que utilizar las intuiciones para derivar reglas que, a su vez, sean aplicables a problemas morales reales en una segunda fase del discurso moral. (2013: 7273)

¿Realmente es esta una alternativa de fondo a la teoría estándar? En todo caso consiste en una matización de dicha teoría, en el sentido de insistir en tener en cuenta desde el principio los valores morales. Pero, la decisión final, debe ser el producto de una deliberación, o un razonamiento, en que de un modo u otro, más o menos consciente, se otorguen diversos pesos a cada una de las opciones, en función de las probabilidades de cada uno de los resultados. Si una de estas opciones domina sobre las demás —es decir, es la mejor sea cual sea la situación en el futuro—, por ejemplo, por una consideración deontológica, entonces está claro que debe escogerse esta opción. En otros muchos casos no será así, y entonces no queda más remedio que la ponderación. La idea general de descomponer entre una componente valorativa y una de probabilidad me parece inesquivable. A mi modo de ver, Hans son insiste en incorporar los juicios morales en la componente valorativa, en las preferencias, pero no aclara cómo deben incorporarse las probabilidades en la retrospección hipotética. Es decir, si hay alguna alternativa a la regla de escoger la alternativa con el máximo valor esperado.

En la tercera parte de su libro, Hansson analiza los posibles conflictos que se pueden dar cuando una situación de riesgo afecta de manera diferente a distintos colectivos. Conflictos que desde un punto de vista tecnocrático se afrontan a partir del análisis costebeneficio.

Su propuesta consiste en partir de un derecho prima facie a no ser sometido a un riesgo. No solamente a un daño sino también al riesgo mismo de daño. Es decir, considera que el riesgo mismo ya constituye un perjuicio para la persona que lo experimenta. Hay que recalcar que estamos hablando de un riesgo que no es asumido voluntariamente por la persona. En el sentido que una persona puede, por ejemplo, aceptar los riesgos de fumar, pero no tiene por qué consentir ser un fumador pasivo.

Los derechos prima facie son derechos en principio o de entrada, que pueden ser anulados o limitados por otras consideraciones morales o por derechos de otras personas. Hansson analiza cuidadosamente cuáles pueden ser las razones que se oponen al derecho a no ser sometido a un riesgo y las distintas maneras de acomodar estas razones: mediante una lista de excepciones para no aplicar este derecho, a tra vés de una matización del derecho, o de una solución intermedia de equilibrio entre las distintas consideraciones. En resumen, su propuesta (2013: 97110) es un sis tema de intercambio social de los riesgos y de los beneficios, con las siguientes características:

  • No es necesario que la compensación sea exactamente por cada riesgo concreto, Basta con que exista un sistema social general de intercambio de riesgos.

  • El intercambio debe ser equitativo.

  • Debe haber una igualdad máxima en la capacidad de influencia sobre el reparto de los riesgos.

Es la deliberación democrática la que hace que un riesgo sea aceptable. Una deliberación democrática que no es únicamente un procedimiento de decisión mediante mayorías, sino que tiene sobre todo una dimensión moral: la de considerar que los individuos son ciudadanos con unos derechos iguales, con igual capacidad para intervenir en el gobierno de la sociedad; y que sus derechos, intereses y opiniones han de ser tenidos en cuenta de modo igualitario. Por ejemplo, las personas ha de tener derecho a la salud y ello incluye el derecho a no ser expuestas a sustancias tóxicas sin razones que lo justifiquen. Razones que no pueden ser unos supuestos beneficios netos para la sociedad, en el sentido que los concibe el análisis costebeneficio económico.

Hansson ha desarrollado posteriormente algunas de las ideas expuestas en su libro. Por ejemplo, en artículos recientes ha defendido la necesidad de un “análisis de riesgos ético” y sostiene que

Un análisis de riesgos ético debe suplementar, no reemplazar, un análisis de riesgos tradicional que pone el énfasis en las probabilidades y severidades de los resultados indeseables, pero que no cubre aspectos éticos como la agencia, las relaciones interpersonales y la justicia. (Hansson, 2018a: 1820)

Según parece, pues, su crítica del análisis de riesgos estándar no pone en duda la importancia de las probabilidades en el análisis de riesgos, a diferencia de lo que podría interpretarse de la lectura de su libro de 2013.

Otro artículo sobre el principio de precaución (Hansson, 2020), aunque no constituye una teoría general de la ética del riesgo, contiene, según creo, muchos elementos para avanzar en dicha teoría. Vale la pena señalar algunos de ellos.

El principio de precaución ha sido invocado en múltiples controversias sobre riesgos tecnológicos y ha sido atacado desde distinto enfoques. Mientras que para las posiciones que hemos llamado populistas casi incuestionable, para algunos au tores es incoherente como procedimiento de decisión (Peterson, 2006). También se ha criticado el hecho que aparentemente no tiene en cuenta las evidencias científi cas, que desdeña las probabilidades y que se basa, en cambio, en los miedos “irracionales”. Se ha insistido también en que el “no hacer”, el descartar una innovación tecnológica, también es una decisión que conlleva riesgos.

En su análisis Hansson parte de la formulación clásica que se conoce como declaración de Río:

Cuando hay amenazas de daños graves o irreversibles, la falta de plena certeza científica no debería ser usada como razón para posponer medidas efectivas en relación con sus costes para prevenir la degradación ambiental. (2020: 246)

Es decir, la falta de evidencia científica concluyente no debe impedir tomar medidas de precaución proporcionadas. Pero no se trata solo de que las medidas para prevenir el riesgo sean proporcionales en relación con sus costes y a sus riesgos pro pios. Hay que tener en cuenta, además, que no tomar una decisión, una moratoria, también supone un riesgo que la decisión racional debe tomar en consideración.

Para Hansson hay tres características que hacen que el principio de precaución sea aceptable como guía en la gestión de los riesgos:

1. En primer lugar, el principio de precaución se aplica cuando hay incertidumbre científica sobre un riesgo. No ante cualquier miedo irracional. Se aplica cuando existe alguna posibilidad real de daño, pero no hay “plena certeza científica”. Se pueden excluir, por lo tanto, los riesgos pocos definidos y con probabilidad muy pequeña. El principio de precaución es una forma de tener en cuenta la distinción entre los dos tipos de errores, el falso positivo (tener en cuenta un riesgo inexistente) y el falso negativo (ignorar un riesgo real). En situaciones de incertidumbre científica, puede tener sentido optar por la decisión que minimice la probabilidad de un falso negativo.

2. No se trata de adoptar cualquier medida, de evitar a toda costa un mal posible. Las decisiones que se adopten para evitar un daño posible deben ponderarse de acuerdo con su efectividad y su coste. Es decir, con los riesgos que implica la misma medida. Esto queda claro en decisiones que afectan a una persona individualmente. Por ejemplo, en la práctica médica habitual de tener en cuenta los efectos adversos de un tratamiento médico. En decisiones de tipo social también se aplica este enfoque cuando se admite el uso de algunos pesticidas, por ejemplo, el DDT, en algunas zonas del planeta en que resultan indispensables para luchar contra la malaria, a pesar de su justificada prohibición a nivel general. Es decir, el principio de precaución no es un principio extremista, como a veces se ha comentado.

3. Finalmente, para que el principio de precaución sea razonable, las medidas adoptadas deben ser provisionales, susceptibles de revisión según los avances del conocimiento científico. En esta línea, Hansson (2020: 252) pone como ejemplo el caso de la experimentación en ingeniería genética.

En el año 1974 un grupo importante de biólogos propuso una moratoria de ciertos experimentos a la vista de la incertidumbre sobre sus consecuencias. Pero, los conocimientos actuales permiten rectificar la decisión anterior y así lo han sostenido algunos de los defensores de la anterior moratoria. Este episodio no debe verse como un argumento en contra de la actitud prudente en 1974 sino, al contrario, como una posición razonable, la de actuar en cada momento de acuerdo con lo que se sabe en este momento.

Esta idea de actuar de acuerdo con la evidencia es quizás la que debe retenerse. Creo que la crítica a la teoría de la decisión racional es justa si se entiende que la regla de la maximización de la utilidad esperada es una fórmula rígida que se puede aplicar como un cálculo. Pero si se entiende como principio general de decidir según las preferencias y las probabilidades, parece difícil no estar de acuerdo con ella.

Las emociones en la evaluación del riesgo

Con frecuencia hay una tensión entre la visión de los legos y la de los expertos acerca de los peligros tecnológicos. Los expertos adoptan un punto de vista racionalista en el que lo que cuenta al final son las evidencias científicas y en definitiva un análisis de los costes y beneficios asociados a cada opción propuesta. En cambio, el público no especializado, en especial las personas directamente afectadas por los costes de algunas decisiones tecnológicas, tienden a oponerse a ellas basándose en un senti miento global de rechazo, a una emoción. La reacción de los expertos, en estos casos, es acusar a los legos de irracionalidad al no querer escuchar los argumentos científicos.

La filósofa Sabine Roeser ha estudiado durante más de diez años el papel de las emociones morales en las decisiones sobre el riesgo tecnológico. En su último libro (2018) fórmula de un modo preciso y sistemático el resultado de sus investigaciones. En relación con el papel de las emociones en la toma de decisiones tecnológicas sujetas a incertidumbre y riesgo, Roeser distingue tres aproximaciones: la tecnocrática, la populista y la participativa (2018: 1325). En la tecnocrática, se parte de la premisa que en general los no expertos, los legos, no están bien informados y sus emociones son irracionales. Esta es la posición que sostiene, por ejemplo, Sunstein (2005) La reacción populista admite que aunque las emociones sean irracionales por falta de información, resulta conveniente, en ocasiones, ceder a las exigencias de los disconformes, y en consecuencia, tiende a prohibir o regular las actividades o productos peligrosos. Finalmente, el punto de vista participativo consiste en defender que en primer lugar los afectados tienen derecho a ser escuchados, y que final mente debe prevalecer el parecer, irracional o no, de la mayoría expresado por los procedimientos democráticos. Es decir, que el criterio aparentemente objetivo y científico debe someterse a una decisión democrática.

Más allá de la crítica a los sesgos tecnocráticos de la gestión del riesgo y a una defensa de los valores democráticos, Roeser se propone investigar la posible racionalidad de las emociones y poner en duda la oposición entre las dos visiones, la racionalista de los expertos y la que denomina “sentimentalista” de los legos. Su enfoque

[…] Consiste en una nueva teoría epistemológica de las emociones, y una nueva filosofía política sobre como integrar las emociones sobre el riesgo en la toma de decisiones. El nuevo enfoque está basado en nuevos puntos de vista de la psicología y la filosofía de las emociones. En contraste con los enfoques racionalista y sentimentalista en ética, este libro defiende una teoría cognitiva en la que las emociones sobre el riesgo son necesarias para la racionalidad práctica. (2018: 34)

Su punto de partida son los estudios empíricos realizados por Paul Slovic y otros científicos sobre cómo las emociones influyen en la percepción del riesgo y en la aceptabilidad del mismo (Slovic et al., 2004). Según estos investigadores, las personas elaboran sus creencias acerca de un riesgo mediante lo que llaman “heurística del afecto”: en vez de comparar los beneficios y los riesgos para formarse un juicio global, las personas parten de una intuición sobre la bondad o maldad de la acción en discusión, que se expresa en forma de un sentimiento o afecto. Si el afecto es positivo se tiende a sobrevalorar los beneficios y a minimizar los costes; y si es ne gativo, al revés. En general mediante este mecanismo se asocian riesgos bajos a beneficios altos y viceversa. La reacción emocional —el afecto— es anterior a la evaluación de los riesgos sobre la base de la información disponible. De este modo, si sentimos que la energía nuclear es peligrosa, tendemos a un sesgo que exagera sus peligros y minimiza sus beneficios. Al contrario, si la reacción emocional es positiva, nos inclinamos por un sesgo positivo a favor de los beneficios.

En general, se ha interpretado esta teoría en conexión con la teoría dual de la mente que sostiene que hay dos tipos de pensamiento: el sistema rápido, intuitivo, y el sistema lento, racional. Y se da por supuesto que el sistema racional es superior normativamente al intuitivo y que las emociones forman parte del sistema intuitivo. La actitud a favor de la participación popular en la gestión de los riesgos sos tiene que los legos tienen en cuenta consideraciones que no hacen los expertos. Por lo tanto, estas consideraciones deben incluirse en la evaluación de los riesgos. Pero los estudios psicológicos sobre la heurística del afecto muestran que la evaluación de los legos se basa en la emoción. Los autores que defienden que las emociones no son fiables cognitivamente llegan a la conclusión que las preocupaciones de los legos no están justificadas epistémicamente aunque se puedan aceptar por razones morales y políticas.

Roeser, en cambio, sostiene que las emociones tienen un valor cognitivo.

Una posible hipótesis alternativa es que las emociones relacionadas con el riesgo pueden ir dirigidas hacia consideraciones evaluativas sobre el riesgo más que hacia consideraciones cuantitativas.

Esta es una hipótesis alternativa a la interpretación de Slovic de la heurística del afecto […] Esta hipótesis se basa en estas dos premisas: (1) paradigmáticamente, las emociones morales son afectivas y cognitivas al mismo tiempo; y (2) en la evaluación de los peligros, las personas legas se forman un juicio global sobre la aceptabilidad (moral) del peligro y no tanto un juicio ponderado —a menudo erróneo— sobre la magnitud de los riesgos y de los beneficios. (2018: 68)

Las emociones morales pueden entenderse como un camino para la formación de juicios morales prima facie. Juicios que pueden ser refutados o rectificados por otras consideraciones,

Al pensar sobre los riesgos, las emociones y la ciencia deben equilibrarse: mientras que la ciencia puede informarnos sobre magnitudes, las emociones pueden informarnos sobre aspectos morales. (2018: 125)

Una crítica que puede hacerse a la teoría cognitiva de las emociones morales es que (1) puede ser que respondan a las necesidades de nuestro pasado evolutivo, pero no a las de nuestro entorno actual; (2) que no son totalmente fiables, que tienen sesgos y fallos. La respuesta de Roeser es que lo mismo se puede decir de otras facultades cognitivas (86). Las intuiciones basadas en las emociones morales se pueden comparar con las percepciones visuales y sus sesgos con las ilusiones ópticas. Aunque podemos fiarnos de entrada de la información que nos proporciona el sentido de la vista, en algunos casos una reflexión posterior no obliga a rectificarla. Pero incluso entonces la ilusión óptica permanece. De un modo parecido, nos dice Roeser, las emociones morales pueden persistir aunque razonamientos posteriores nos muestren que no concuerden con un mejor juicio moral (2018: 97).

En consecuencia, Roeser propone una deliberación emocional en la que las emociones sean tenidas en cuenta de un modo explícito en la deliberación pública sobre los riesgos tecnológicos. No solamente “tolerados” por razones de inclusión democrática y de igual respeto por todos los puntos de vista, sino reconociendo que aportan un tipo de conocimiento que no dan las evidencias científicas de los expertos.

La aportación principal del punto de vista emocional sería la inclusión de consideraciones morales globales. Aquí es donde convergen las propuestas de Hansson y de Roeser al insistir en la necesidad de incluir explícitamente las valoraciones morales. Lo que no queda del todo claro, a mi parecer, es qué ocurre cuando las emociones de los legos y las razones de los expertos difieren y la deliberación democrática no logra llegar a un consenso. Pongamos, como ejemplo, el caso de la posible peligrosidad para la salud de los alimentos transgénicos. La comunidad científica mayoritariamente tiene la opinión que son seguros para la salud, y, en cambio, una parte considerable de la población los considera un riesgo.

Conclusiones

Desde un punto de vista democrático, es fácil estar de acuerdo con algunas de las propuestas prácticas de Hansson y de Roeser, que pueden resumirse en los puntos señalados por Hansson:

  • Derecho prima facie de las personas a no ser puestas en riesgo

  • Establecimiento de un sistema general de intercambio de riesgos en el conjunto de la sociedad.

  • Gestión global de los riesgos en la cual la última palabra corresponda a los mecanismos democráticos de deliberación.

También podemos aceptar la visión de Roeser según la cual las emociones de las personas legas no son “miedos irracionales”, fruto de la irracionalidad o de la ignorancia científica o técnica, sino que se deben ver como emociones morales que expresan una valoración global del peligro. Y, por lo tanto, deben incorporarse al debate sobre el riesgo. Debate que ha de ser abierto. Es decir, que la discusión sobre los valores ha de ser explícita y no ocultarse bajo la noción de bienestar general del análisis costebeneficio meramente económico.

Pero quedan abiertas algunas cuestiones. A mi modo de ver, los valiosos enfoques de Hansson y de Roeser abren un camino para profundizar en

  • El papel del razonamiento probabilístico en la toma de decisiones. Cómo mantener la idea básica —contenida en la regla de maximizar el valor esperado— de que decidir teniendo en cuenta las probabilidades subjetivas forma parte de la racionalidad. Y más en general, que es racional decidir atendiendo al conocimiento científico disponible,

  • Cómo resolver el posible conflicto entre emociones, intuiciones y razonamiento explícito en la deliberación política acerca de los riesgos tecnológicos. Cuando hay una contradicción entre la ciencia y las emociones, ¿quién tiene la última palabra? ¿Qué hacer cuando a pesar de todo el debate y el intercambio de ideas, una mayoría de la población, sigue sintiendo que un riesgo es inaceptable?

Nota

1 Para una panorámica general sobre los aspectos filosóficos del riesgo puede verse el artículo de Hans son en la Stanford Encyclopedia of Philosophy (2018b).

Referencias

Adler, M. D., y E, A. Posner (2006). New foundations of costbenefit analysis. Cam bridge, MA: Harvard University Press.

Hansson, S. O. (2013). The ethics of risk: Ethical analysis in an uncertain world. Basingstoke, GB: Palgrave Macmillan.

Hansson, S. O. (2018a). How to perform an ethical risk analysis (eRA). Risk Analysis, 38 (9), 18201829.

Hansson, S. O. (2018b). Risk. The Stanford Encyclopedia of Philosophy, E. N. Zalta (ed.). https://plato.stanford.edu/archives/fall2018/entries/risk/.

Hansson, S. O. (2020). How extreme is the precautionary principle? Nanoethics, 14, 245257.

Peterson, M. (2006). The precautionary principle is incoherent. Risk Analysis 26 (3): 595601.

Roeser, S. (2018). Risk, technology, and moral emotions. Nueva York: Routledge. Slovic, P., Finucane, M. L., Peters, E., & MacGregor, D. G. (2004). Risk as analysis and risk as feelings: Some thoughts about affect, reason, risk, and rationality. Risk Analysis, 24 (2), 311322. (Reproducido en P. Slovic, The feeling of risk: New pers pectives on risk perception, Londres: Earthscan, 2010, 2136).

Sunstein, C. R. (2005). Laws of fear: Beyond the precautionary principle. Cam bridge: Cambridge University Press.

Fuente: Oximora (https://revistes.ub.edu/index.php/oximora/article/view/41028)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *