El presente texto fue incluido en el volumen: S. López Arnal, Albert Domingo, Pere de la Fuente y Francisco Tauste (coords): Popper/Kuhn: ecos de un debate. Montesinos, Barcelona, 2003.
Para Mercedes Iglesias Serrano, que, como siempre, leyó atenta, corrigió con cuidado y me enseñó con paciencia.
[…] Sin embargo, a partir de los años setenta el mundo exterior afectó a la actividad de laboratorios y seminarios de una manera más indirecta, pero también más intensa, con el descubrimiento de que la tecnología derivada de la ciencia, cuyo poder se multiplicó gracias a la explosión económica global, era capaz de producir cambios fundamentales y tal vez irreversibles en el planeta Tierra, o al menos, en la Tierra como hábitat para los organismos vivos.
Eric Hobsbawm, Historia del siglo XX.
[…] La ciencia puede revelar el alcance de dicha crisis, pero sólo la acción social puede resolverla. Hoy en día, la ciencia puede servir a nuestra sociedad exponiendo la crisis de la tecnología ante el juicio del género humano. Este bloque dictaminador será exclusivamente el que haya de decidir si el conocimiento creado por la ciencia debe destruir la humanidad o promover el bienestar humano.
Barry Commoner, Ciencia y supervivencia
1. La irrupción del principio
Alrededor de los años cincuenta del pasado siglo y durante más de dos décadas, trabajadores portuarios de Barcelona empezaron a manipular amianto procedente de Canadá y Sudáfrica. No fueron sometidos ni a revisiones ni a controles médicos porque la legislatura sobre los trabajos de riesgo de aquella época no incluía esa substancia. Recientemente, decenas de estos trabajadores, con la baja por indisposición o ya jubilados, han enfermado de cáncer de pulmón o de pleura y sufren fibrosis pulmonar. El amianto actúa por acumulación. Las fibras de pequeño tamaño -la fracción respirable- llegan al pulmón, se acumulan en los alvéolos y producen los fibromas. Sabemos hoy que las personas con mayor riesgo de contraer asbestosis son las que han estado respirando esas partículas durante mucho tiempo. De hecho, algunas de ellas han fallecido en los últimos años sin conocer el origen de la enfermedad. El amianto, sustancia netamente tóxica, ha sido prohibido definitivamente este año y España ha sido el último país de la UE en desterrar su uso. Sin embargo, según fuentes sindicales informadas, la prohibición no impedirá la muerte en las próximas tres décadas de unos 500.000 trabajadores en la Europa comunitaria1, 50.000 de ellos de tierras hispánicas.
La teoría de las catástrofes, desarrollada en Francia en los años sesenta a partir de la topología matemática, investiga las situaciones en las que una alteración gradual produce rupturas bruscas, analiza la interrelación entre cambios continuos y discontinuos. La teoría del caos, iniciada en los años ochenta en EE.UU, construye modelos de situaciones de incertidumbre e impredictibilidad en las que hechos aparentemente nimios, como el añorado batir de las alas de una mariposa, pueden desencadenar efectos insospechados -un tornado, por ejemplo- en lugares muy distantes y distintos. En 1973, Rowland y Molina2 fueron los primeros químicos que observaron que los clorofluorocarbonados (CFC 11 y CFC 12), ampliamente usados en refrigeración y en los extendidos aerosoles, destruían el ozono de la atmósfera terrestre. ¿Por qué este peligrosísimo e indiscutido resultado no pudo percibirse antes? Probablemente, por la relación señalada entre los cambios graduales y las alteraciones bruscas. A principios de los años cincuenta, la emisión de los elementos químicos citados no superaba las 40.000 toneladas, mientras que entre 1960 y 1972 se arrojaron a la atmósfera terrestre más de 3,6 millones de toneladas de estos productos, es decir, 90 veces más. Apenas veinte años más tarde, la existencia de grandes agujeros en la capa de ozono de la atmósfera ya era de dominio público y la única investigación sensata que cabía desarrollar intentaba conocer con qué rapidez se agotaría y cuándo se rebasaría la capacidad de recuperación natural.
Estos dos ejemplos, entre otros muchos posibles, nos acercan a problemas acuciantes de política de la ciencia y de la tecnología. Thomas S. Kuhn, en su clásico de 1962, incorporó la polisémica noción de paradigma como categoría central del hacer científico normal. En el coloquio internacional de filosofía de la ciencia celebrado en Londres en 1965, Margaret Masternam señaló que el autor de La estructura empleaba el término «en no menos de veintiún sentidos, o posiblemente más…»3 En alguno de ellos, cabía usar paradigma como cambio de concepción, como nuevo marco de análisis o nueva cosmovisión. Aunque Kuhn usó el término para el análisis de las prácticas científicas y de su desarrollo histórico, probablemente no resultará inconsistente extenderlo a otros ámbitos cercanos, como el de la política científica, el I + D de los presupuestos públicos.
El objetivo de esta comunicación es dar cuenta de los razonables argumentos que señalan la necesidad de un cambio de perspectiva en la política ambiental y sanitaria, irrupción de un nuevo paradigma que, además, en opinión de sus defensores, puede y debe provocar alteraciones importantes en las prioridades de los programas de investigación y en las relaciones entre las comunidades científicas y la ciudadanía. Es momento de sopesar nuestras clásicas y usuales perspectivas de análisis y abandonar el enfoque del cálculo de riesgos para aceptar y asumir activamente el llamado principio de precaución, con los cambios legislativos que este enfoque normativo sin duda va a ocasionar4. De hecho, este principio nace, o adquiere nuevos vuelos, ante la percepción, compartida por amplios sectores de las comunidades científicas afectadas y por la ciudadanía en general, que los esfuerzos para combatir urgentes y profundos peligros avanzan a un ritmo demasiado pausado.
2. En el principio fueron los principios
Nos encontramos ante un debate moral-político nada marginal. Consultoras multinacionales como Wirthlin Worldwide y Nichols-Dezenhall Communications Management Group sostienen que el principio de precaución representa al mismo tiempo una seria amenaza contra la ciencia rectamente entendida, el comercio mundial, la libertad de los consumidores y el progreso tecnológico5. Sin embargo, no sólo el poder multinacional nada preventivamente en las turbulentas aguas del lobby anti-precaución. Henry I. Miller y Gregory Conko, en un artículo publicado en Nature biotechnology (19 abril 2001, pp.302-303), sostienen que este principio no es sólo antitecnológico y liberticida, sino que es también y preferentemente el método escogido por un minoritario y, por supuesto, violento grupo de radicales trasnochados para imponer su irracional forma de vida al resto de ciudadanos del mundo6.
En la misma línea argumentativa, Robert Nilsson, miembro de la Inspección química sueca (KEMI), profesor de toxicología en la Universidad de Estocolmo y asesor de numerosas comisiones, ha señalado su preocupación por el peligro de regulaciones ilógicas (sic) y por la excesiva prevención, mostrando su alarma, e incluso indignación, porque Massachusetts y San Francisco tiendan a seguir las reglamentaciones suecas que toman la moderación como punto de partida. Según Nilsson, la consecuencia de este enfoque normativo ha sido la actual quimofobia mundial, fomentada por este principio aparentemente positivo pero que es en realidad la antítesis de la ciencia, siendo abyectamente «aprovechado por quienes se ganan la vida asustando a los demás y quienes mantienen que la mera posibilidad de hacer algún daño es suficiente para prohibir el uso de cualquier sustancia. Ese principio exige que quienes desarrollan tecnologías demuestren que son seguras, lo cual es científicamente imposible. Uno sólo puede demostrar que algo es o no es dañino hasta ahora, no que nunca lo será»7. Nilsson se lamenta del que denomina maximalismo de la socialdemocracia sueca que, en su opinión, llega a extremos ridículos como el siguiente: los niveles de plomo en la sangre de los ciudadanos suecos han ido disminuyendo en los últimos 20 años como resultado de la progresiva disminución del uso de este metal como aditivo de la gasolina, hasta el punto de que el nivel de plomo de los niños suecos en los últimos años equivale al de los que viven en zonas no contaminadas del planeta, como el Himalaya. Sin embargo, protesta escandalizado Nilsson, el gobierno sueco ha decidido acabar con todo lo que contenga plomo: baterías de los vehículos, tanques de pesca, quillas de los veleros, uso no restringido de plomo en balas y perdigones, etc., con el consiguiente y perverso efecto en la política-económica: «La aplicación de medidas de ese tipo frena el desarrollo de cualquier país, causando los niveles de desempleo que tiene Suecia».
Pero, ¿en qué consiste este principio de precaución que tanta alarma causa entre poderosas instancias del poder económico y científico-tecnológico? Si desde un enfoque productivista desaforado resulta comercializable cualquier producto mientras no se demuestre positivamente su nocividad -y ‘demostrar’ aquí suele significar la quimera de un perfecto desarrollo sin sombra de duda deductiva y experimental-, desde la óptica de los defensores del principio de precaución «sólo deberían comercializarse productos de los que sepamos, con razonable certeza (no con una imposible certidumbre total), que no son nocivos»8. Sólo en situaciones en las que no se dispusiera de alternativa sería aceptable la distribución de productos potencialmente peligrosos siempre y cuando -y este punto es decisivo para entender la relación ciencia-sociedad que postulan los defensores del principio- la comunidad ciudadana afectada decidiera aceptar los riesgos de su uso. Obviamente, de aquí se colige la necesidad de información, discusión y crítica pública de los nuevos avances y aplicaciones tecnológicas.
En un excelente artículo sobre la «Geografía de la salud: el suroeste español bajo el microscopio»9, Joan Benach, profesor de la Unidad de Investigación en Salud Laboral de la Pompeu Fabra, ha argüido en el mismo sentido. No disponer de un diagnóstico científico totalmente ajustado y aceptado sin átomo o quark de duda no puede servir de pretexto para la inacción. Por varias razones: en primer lugar, porque el conocimiento científico siempre es incompleto; en segundo lugar, porque la obtención de buen saber siempre es tarea larga y difícil y los problemas del día a día no siempre pueden esperar y, finalmente, porque el conocimiento tan sólo no basta: un buen diagnóstico puede o no llevarnos a una intervención, ésta puede ser o no adecuada y puede desarrollarse o no de forma eficaz. «Como señala el principio de precaución -escribe Benach-, cuando una actividad amenaza con dañar la salud humana o el medio ambiente, aunque la relación entre causa y efecto no esté completamente establecida científicamente, no caben excusas para actuar». Cabe pecar aquí por defecto, pero jamás por exceso. De hecho, como se señaló anteriormente, el principio de precaución nace precisamente de la percepción de que los esfuerzos para combatir problemas como el cambio climático, la degradación de los ecosistemas o el agotamiento de los recursos naturales avanzan muy lentamente, «y que los problemas ambientales y sanitarios continúan agravándose con mayor rapidez de la que la sociedad dispone para identificarlos y corregirlos»10.
Es conocida la posición central de las creencias previas en debates que se interseccionan con el ámbito científico. Si los científicos dicen obrar, y de hecho obran, de buena fe, si la ciencia es la búsqueda desinteresada y sin término de la verdad, si todos sus practicantes creen por igual en el llamado «método científico» y si, finalmente, tienen casi todos ellos acceso a datos similares, ¿cómo explicar entonces su desacuerdo profundo en ocasiones y en temas tan acuciantes como el cambio climático, por ejemplo? Robert L. Park, nada sospechoso de maximalismo anticientífico, ha apuntado una conjetura no por sabida menos verosímil que sitúa algunas de estas discrepancias en el ámbito de las valoraciones moral-políticas:
(…) El clima constituye el sistema más complejo que los científicos se han atrevido nunca a abordar. Existen enormes lagunas en los datos relativos al pasado distante, lo cual, unido a las incertidumbres de las simulaciones informáticas, significa que incluso los cambios más pequeños en los supuestos previos dan como resultado proyecciones muy distintas y desencaminadas. Ninguno de los dos bandos discrepa en este punto. También coinciden ambos en que los niveles de CO2 en la atmósfera están aumentando. Lo que les separa son sus cosmovisiones políticas y religiosas, profundamente distintas. En pocas palabras: quieren cosas distintas para el mundo«11.
3. Las declaraciones de Wingspread y de Lowell.
Breve, pero sustanciosa, la declaración de Wingspread12, firmada básicamente por científicos suecos, alemanes, canadienses y norteamericanos, y algún trabajador o propietario agrícola, data de enero de 1998 y constata, en primer lugar, que la utilización de substancias tóxicas y su emisión, la explotación de los recursos naturales y las alteraciones del medio ambiente han tenido consecuencias involuntarias -aunque tal vez no siempre- que afectan y han afectado a la salud humana y al medio ambiente. Así, las altas tasas de dificultades de aprendizaje, el asma, el cáncer, las malformaciones fetales y las especies en extinción, la disminución de la capa de ozono y la contaminación mundial con substancias tóxicas y materiales nucleares.
Según la declaración, la legislación ambiental que se ha adoptado, especialmente las basadas en la evaluación de riesgos, no han logrado proteger suficientemente la salud humana y el medio. De ahí la necesidad de un cambio de paradigma, de otra perspectiva, de un nuevo principio regulador, puesto que, sostienen los firmantes, existe una «evidencia abrumadora de que el daño para los seres humanos y el medio ambiente a nivel mundial es de tal magnitud y gravedad que hace necesario establecer nuevos principios para encauzar la actividades humanas».
Por ello, si aceptamos por principio de realidad que las actividades humanas pueden involucrar riesgos, algunos de ellos nada despreciables, la declaración señala que todos -empresas, gobiernos, organizaciones privadas, comunidades científicas, etc- «debemos proceder en una forma más cuidadosa que la que ha sido habitual en el pasado reciente». De ahí que sea necesario poner en práctica nuevos enfoques en las relaciones entre la especie y la naturaleza basados en el principio de precaución que los autores formulan del modo siguiente: «cuando una actividad se plantea como una amenaza para la salud humana o el medio ambiente, deben tomarse medidas precautorias aun cuando algunas relaciones de causa y efecto no se hayan establecido de manera científica en su totalidad». Deben ser los proponentes de una determinada actividad, y no la ciudadanía, los que asuman la carga de la prueba de su inocuidad.
La declaración finaliza señalando que la puesta en práctica del principio ha de ser abierta, transparente y democrática, debe incluir a todas las partes potencialmente afectadas, aspirando a un examen detallado de toda la gama de alternativas que incluya como un posible hacer la no acción, la suspensión -acaso provisional- de la aplicación de una tecnología que pueda parecer arriesgada para la especie y sus equilibrios.
La segunda declaración13 fue elaborada en el encuentro internacional sobre la ciencia y el principio de precaución organizado por el Lowell Center for Sustainable Production de la Universidad de Massachusetts, celebrado entre el 20 y el 22 de septiembre de 2001, y ha sido firmada por un amplio espectro de investigadores que incluye a científicos y personas interesadas de muchas áreas geográficas (Filipinas, España, Argentina, Cuba, Noruega o Dinamarca, por ejemplo).
Se reafirman los firmantes en la declaración de Wingspread, en la necesidad de cambiar «las formas en que se toman las decisiones de protección ambiental y las maneras en que el conocimiento científico influye sobre dichas decisiones», señalando al principio de precaución como un componente clave en la toma de decisiones en los ámbitos ambiental y sanitario, «particularmente cuando deban considerarse amenazas complejas y aún inciertas» y apuntando que la puesta en práctica efectiva del principio requiere elementos como la defensa del derecho básico de cada individuo (y de las futuras generaciones) a un ambiente saludable y promotor de la vida, o la «identificación, evaluación y puesta en práctica de los caminos más seguros entre los que sean viables para satisfacer las necesidades sociales».
Señalan los autores que la toma de decisiones de forma precautoria no es enemiga del conocimiento científico sino que es consistente con la buena ciencia dadas las lagunas de incertidumbre, e incluso de ignorancia, que persisten en nuestra comprensión de los sistemas complejos. Cuando no existen certidumbres, las decisiones políticas deben tomarse reflexiva y abiertamente a partir de la información disponible. No es aceptable, por irrazonable, que tengamos que esperar una evidencia científica incontrovertible sobre posibles daños de una determinación actuación antes de emprender acciones preventivas.
Empero, prosigue la declaración, no sólo la comunicación entre científicos y diseñadores de políticas ambientales y de salud necesita mejora sino también conviene rectificar las formas en que los actuales métodos de investigación pueden contribuir a retardar la deseable acción precautoria. De este modo, la compartimentación del conocimiento científico dificulta, por una parte, la capacidad para detectar e investigar los síntomas y advertencias tempranas y, por otra, el desarrollo de opciones que eviten posibles daños. Se sostiene pues que una puesta en práctica del principio precisa nuevas metodologías mejoradas y una nueva relación entre ciencia y política «que enfatice la continua actualización del conocimiento, así como una mejora en la comunicación de los riesgos, las certezas y la incertidumbre. Con esos objetivos en mente, hacemos un llamamiento a la regulación de los programas de investigación científica, las propiedades de financiamiento, la educación sobre la ciencia y las políticas científicas».
Finaliza la declaración señalando que, indudablemente, la actividades humanas no pueden estar totalmente exentas de riesgo -respondiendo así a las falsas acusaciones de desenfoque quimérico de algunos detractores- y que, por tanto, la finalidad del principio no es erradicar definitivamente todo daño potencial. No se trata en ningún caso de detener el avance científico. Aún más, remarcan los firmantes, la implantación del principio no sólo no es contraria al progreso del conocimiento sino que puede ser un factor de desarrollo científico, al «estimular la innovación en la búsqueda de mejores materiales, de productos más seguros y de procesos de producción alternativos». Se concluye señalando que el enfoque defendido en la declaración comparte los valores y las tradiciones preventivas de la medicina y la salud públicas.
Se impone, consiguientemente, un necesario y razonable cambio de rumbo. Son obvias, según los defensores del principio, las inconsistencias del actual proceso regulador: si nuestra normativa es la adecuada, si nuestras leyes son correctas, si son, además, efectivas, ¿por qué entonces, por ejemplo, los niveles de mercurio en pescados de agua dulce son tan elevados que se desaconseja su consumo por mujeres embarazadas? ¿Cómo es posible que la leche materna no cumpla con los niveles mínimos establecidos por la FDA (Administración para alimentos y medicinas) de los EEUU para los alimentos de los bebés?14.
3.1. Una línea paralela que intersecciona con el enfoque preventivo.
Silvio O. Funtowicz y Jerome R. Ravetz15 han argüido en su ensayo La ciencia posnormal muy en consonancia con la posición anterior. Como Martí Boada apunta en la presentación de su trabajo, para estos autores, nuestra tradición cultural estrictamente cultivada no puede darnos un conocimiento suficiente que «dé las respuestas predictivas que demandan los problemas ambientales globales»16. Para dar salida a la crisis ambiental existente, el ideal de racionalidad de la ciencia normal es no sólo insuficiente sino incluso, en muchos casos, inapropiado.
En la esquemática y usual visión de las tesis kuhnianas sobre la ciencia y su historia, se suele distinguir entre ciencia normal y ciencia revolucionaria o extraordinaria. En la visión del Kuhn de La estructura, los científicos realizan su labor dentro de una cosmovisión ontológica y metodológica que es aceptada sin discusión. Su labor, la tarea de las comunidades científicas, puede ser comparada con la resolución de complejísimos rompecabezas. Cuando, por razones varias, el marco en el que se mueven se resquebraja, cuando el paradigma entra en crisis, nos movemos en un terreno resbaladizo, en una situación de ciencia no-normal -extraordinaria o revolucionaria-, hasta que, nuevamente, un exitoso paradigma sustituye al anterior y, con él, después del conflicto, la paz provisional y un nuevo período de ciencia normal, de práctica e investigación científica realizada bajo el paraguas protector de un paradigma consensuado. Funtowicz y Ravetz sostienen que la actual situación científico-ambiental -aunque no sólo- exige un cambio de paradigma que permita un nuevo tipo de práctica científica que denominan «ciencia posnormal». El subtítulo de su ensayo -«Ciencia con la gente»- es clara señal de uno de los atributos que la caracterizan: una ciencia, una práctica científica, tecnológica y cultural que, además de perseguir el beneficio de la ciudadanía en su conjunto y no sólo de la ínfima minoría dominante, sea realizada con ella, con su participación activa. Ya no es suficiente una Science for people, sino que es urgente y necesaria una science with people.
Martínez Alier cita en su prólogo a la edición castellana uno de los ejemplos analizados de esta «ciencia posnormal»: el caso de los cultivos transgénicos. El debate no era muy intenso hasta 1999, pero cuando la revista The Ecologist publico su número especial sobre Monsanto -edición que, dadas «las suaves» presiones de la multinacional biotecnológica, la imprenta habitual de la revista se negó a editar-, informando entre otros asuntos de la tecnología terminator de la transnacional (semillas manipuladas genéticamente para evitar su reproducción), el debate adquirió un auge muy importante entre sectores amplios de la población y no sólo entre los miembros destacados de las comunidades científicas, consiguiendo su prohibición en Río Grande do Sul (Brasil) y presionando fuertemente para que una normativa europea regulase su importación y etiquetado. De este modo, la participación activa de la ciudadanía ha conseguido que se reconozca la existencia de incertidumbres sobre los efectos de los cultivos transgénicos en el ambiente natural y sobre la salud humana. Con palabras de Martínez Alier, «Urgencia. Incertidumbre. Conflictos de valores. Son características de la «ciencia posnormal», que no es ciencia elitista, por encima de la gente; no es tampoco bienintencionada ciencia para el pueblo. Es, de hecho, ciencia con la gente»17. Las incertidumbres éticas de la difusión planificada de organismos vivientes genéticamente manipulados a escala microbiológica derivan, apuntan los autores, de nuestra ignorancia ecológica. No hay posibilidad de certeza predictiva en este campo. «El rango de las interacciones posibles entre los organismos y el ambiente es tan inmenso que escasamente puede ser clasificado y mucho menos cuantificado». No podemos aspirar, como ha pretendido y pretende la ciencia normal, a una anticipación certera de acontecimientos no deseados por sus importantes y nefastas consecuencias.
Otros ejemplos recientes, enmarcables dentro de lo que los autores llaman ciencia posnormal, serían el terrible asunto de las «vacas humanamente alocadas», la fiebre aftosa, las polémicas sobre incineradoras de residuos urbanos y producción de dioxinas, el debate sobre la inseguridad de los métodos de almacenamiento de residuos nucleares, la urgente discusión sobre la reducción de la emisión de gases con efecto invernadero, la polémica sobre cuánta biodiversidad silvestre y agrícola conservar en el mundo y dónde, o, como ha señalado recientemente Jeremy Rifkin, la propiedad del sistema electromagnético, hoy en manos de los gobiernos pero en el punto de mira de los sectores privados dominantes18.
¿De qué se trata entonces, qué proponen los defensores de esta ciencia posnormal? ¿Se trata de dejar orillado el paradigma de la racionalidad occidental? En absoluto. La ciencia normal, en sentido kuhniano, es perfectamente válida para contrastar la validez o no de determinada conjetura, pero en cambio, según Funtowicz y Ravetz, no es válida para decidir si debemos usar o no la energía nuclear, para determinar el valor que debemos dar a la conservación de la biodiversidad o para pronunciarnos sobre si resulta o no aceptable el uso de determinadas técnicas de manipulación genéticas. ¿Debemos servirnos entonces exclusivamente de los informes de los profesionales del sector, de los técnicos en estas materias? Ojalá, contestarían sin duda Funtowicz y Ravetz, pero la urgencia de los temas y la incertidumbre de nuestros conocimientos es tan importante que no podemos contar tan sólo con la opinión de los especialistas. Desconocemos, por ejemplo, los riesgos probabilísticos de dañar la salud humana comiendo carne con hormonas y alimentada, además, con soja transgénica. Estas limitaciones nos trasladan al ámbito de la ciencia posnormal.
Es destacable el punto de vista de la ciencia posnormal respecto a la unidad de la ciencia y a las divisiones académicas en especialidades. La unidad defendida por los autores no deriva primariamente de «un conocimiento básico compartido» sino de un «compromiso compartido con cierto tipo de enfoque tendente a resolver problemas políticos complejos» (p.75). Para esta tipo de ciencia es impensable, e indeseable a un tiempo, el conocimiento dividido en especialidades temáticas cerradas y, prácticamente, incomunicadas. El compromiso de la ciudadanía implicada con la resolución de un determinado problema científico-político les llevará, en opinión de Ravetz y Funtowicz, a adoptar cualquier forma de reflexión y acción que les resulte apropiada para su objetivo. Se ha defendido, desde determinadas y conocidas posiciones epistemológicas, la idea de la ciencia como una búsqueda sin término y desinteresada de la verdad. Los autores argumentan que esa concepción pretende restringir el compromiso ético del científico sólo al ámbito del proceso y de la construcción de su producto, pero no, en cambio, a «su uso o abuso, no a las relaciones sociales de su producción. Esta actitud tradicional ha llevado a los científicos a atribuirse todas las consecuencias benéficas de las investigaciones y a endilgar culpa a la sociedad por cualquier daño que se produjese» (p.76). La ciencia posnormal no les proporciona esta protección.
Este enfoque ético-epistemológico, señalan los autores, tiene «el rasgo paradójico de que en su actividad de resolución de problemas se invierte el dominio tradicional de los «hechos duros» sobre «los valores blandos». En virtud de los altos niveles de incertidumbre que se aproximan a la ignorancia crasa en algunos caos, y a que lo que se pone en juego en las decisiones es muy extremo, podríamos incluso intercambiar los ejes de nuestro diagrama, haciendo de los valores la variable horizontal independiente» (p.50). Estamos pues ante un nuevo enfoque de racionalidad científica en el que la política de la ciencia no es únicamente una instancia posterior y externa al «puro, estricto y no contaminado» quehacer científico sino instancia normativa con neta presencia en los programas orientativos de esa misma actividad. La tradicional distinción entre hechos y valores no sólo habría sido invertida, sino que, en la forma de actuar de los científicos posnormales, ambas categorías no podrían ni deberían ser separadas tajantemente. Consiguientemente, según esta concepción, no tendría sentido alguno considerar, por ejemplo, los riesgos ambientales como simples «externalidades» de la actividad científico-técnica.
4. Ejemplos justificativos.
Decíamos pues que el principio de precaución favorece aquellas políticas que protegen la salud humana y el medio ambiente ante los riesgos de incertidumbre y que la clara posibilidad de efectos catastróficos sobre ecosistemas del planeta han debilitado en amplias capas de la población la confianza en la capacidad de las ciencias y políticas ambientales para identificar y controlar los riesgos. Veamos ahora algunos casos que parecen abonar esta nueva dirección, este urgente cambio de paradigma en nuestras políticas sanitarias y ambientales.
En su clásico, y todavía impresionante, Ciencia y supervivencia18, Commoner señalaba que en 1957, en el resumen oficial The Effects of Nuclear Weapons, publicado por el nada sospechoso departamento de Defensa norteamericano y por la AEC (Atomic Energy Commission), se aseguraba que la lluvia radiactiva descendería lentamente de la estratosfera, y que el 50% de ella no alcanzaría la superficie terrestre hasta siete años después de haberse producido. Esta acción retardada, daría tiempo a a la descomposición de muchos isótopos durante la caída, con lo que se reducirían netamente los efectos finales sobre los seres humanos. Commoner señala que, cinco años más tarde, en la segunda edición del manual, se reconoció lo erróneo del cálculo: casi toda la lluvia radiactiva estratosférica alcanza la superficie terrestre en cuestión de meses, asunto que está en relación directa con la situación geográfica y la época elegida para el experimento. De este modo, cuando la lluvia alcanza la superficie de nuestro planeta sigue conteniendo todavía un porcentaje no desdeñable de radiactividad peligrosa. Como consecuencia de este error, los cálculos efectuados se alejaron enormemente de la realidad. Si en 1956, W. F. Libby, comisario de la AEC, predijo que las pruebas nucleares realizadas durante el mes de mayo de 1954 habrían depositado sobre suelo estadounidense un máximo de siete milicuries de estroncio-90 por milla cuadrada, las mediciones realizadas por la Comisión de energía atómica demostraron que el contenido medio de estroncio-90 en suelo estadounidense había alcanzado los 47 milicuries por milla, casi ocho veces más, en 1958, aunque el número total de experimentos apenas si se había duplicado desde 1954.
En la misma línea, en una conferencia impartida en 1981, Manuel Sacristán20 ilustraba la peligrosidad de las centrales nucleares y la variación de los datos con un par de observaciones. La primera era una historia que se recogía detalladamente en un ensayo de aquellos años, El síndrome nuclear. Su autor, Santiago Vilanova, se refería a la fluctuación de los valores de radiación máxima soportable según los gobiernos, que, como es sabido, son la instancia que prescribe la cantidad de irradiación que puede soportar un trabajador de una central nuclear o las personas de una población cercana al lugar donde está ubicada. Desde 1925 hasta 1956, la variación de los valores que se estimaban inocuos para el organismo humano pasó de 46 rems a 5 rems. Si en 1925 se aconsejaba como valor límite 46 rems por año, ya en 1934 se bajó esa estimación hasta la 21 rems y medio, menos de la mitad. En 1949 se estipuló en 15 rems y, en 1956, se dejó tan sólo en 5 rems, menos de la novena parte de la cantidad inicial. El descenso merecía el siguiente comentario de Sacristán: «Excuso decir la fiabilidad que nos puede merecer estos 5 rems por año cuando están dictados por las mismas instancias que en el año 1925 admitían la friolera de 46 rems».
La historia tenía además un epílogo. Señalaba Sacristán que cada vez eran más frecuentes los científicos que consideraban que no había dosis mínima inocua por el carácter acumulativo de toda la dosis de irradiación. «O sea, que no solamente es una trayectoria de evidente «desdecirse» de los gobiernos, sino que estamos ante la posibilidad de que no haya dosis mínima que no haga daño, que no perjudique». Contra este argumento, admitía MSL, se suele objetar que ya hay una irradiación natural en los arroyos, rocas, etc., pero, apuntaba el autor de Pacifismo, ecología y política alternativa, esa irradiación natural no podía evitarse y, por otra parte, «(…) parece haber bastante probabilidad de que la irradiación natural no se acumule en lo que se llama cadenas tróficas, es decir, en las redes de alimentación, donde sí se acumula la irradiación producida por nosotros. En los productos de la fisión de un reactor salen elementos que no existen en estado natural, sino que los producimos nosotros en el reactor».
Un tercer ejemplo ahonda en la misma dirección21. Cuando los asistentes de vuelo explican las medidas de seguridad se solicita no usar aparatos electrónicos durante el despegue y el aterrizaje y no hacer uso de teléfonos móviles en ningún momento del vuelo. Hay una evidencia limitada de que estos aparatos pueden interferir con los sistemas esenciales de navegación y control aéreos. De hecho, en 1999, la Administración Federal para la Aviación (FAA) de EEUU encomendó un estudio que presentase evidencias claras para corroborar esa hipótesis. El estudio fracasó en la búsqueda de evidencias. Sin embargo, la FAA dictaminó preventivamente que en ausencia de mayores evidencias de seguridad, la prohibición seguía vigente.
Este caso ilustra nítidamente aspectos centrales del principio en discusión. En primer lugar, actuar, no paralizarse ante la incertidumbre, incluyendo en este hacer la prohibición de ciertas prácticas. La mayoría de los usuarios coinciden, y parece la actitud más razonable, que es preferible no poder usar el teléfono móvil durante el vuelo a correr el menor riesgo de accidente. En segundo lugar, el principio señala quienes tienen la responsabilidad de modificar normativas y acciones. Probablemente, en el caso comentado, la mayoría de personas estarían de acuerdo en que quienes deseen alterar las reglas existentes deberían ser quienes aportaran pruebas concluyentes de que las rectificaciones propuestas no incrementarían los riesgos actuales. Consiguientemente, son ellos los que deberían tener toda la carga de la demostración. Pero, supongamos que la situación no fuera esa, conjeturemos que la preocupación por el uso de estos aparatos electrónicos no hubiese surgido desde un principio y los pasajeros pudieran utilizar sus móviles durante el vuelo y, supongamos igualmente, que unas pocas disfunciones aisladas aconteciesen en los sistemas de navegación de algunos aviones, causando razonables preocupaciones. ¿Debería entonces prohibirse el uso de estos teléfonos? Admitiremos sin duda que el fin de esta práctica conllevaría pérdidas económicas y es muy probable que se hiciera entonces un estudio de costes y beneficios, lo que requeriría considerar riesgos, algo muy difícil de conseguir con la certidumbre necesaria. ¿Sería esta perspectiva entonces un enfoque científicamente fundamentado? ¿Dejaría de ser un procedimiento altamente incierto, donde los riesgos evaluados serían muy pocos y las consecuencias potencialmente catastróficas? Sin duda, la disponibilidad de una alternativa viable -en nuestro ejemplo, teléfonos fijos en los aviones- facilita actuar en ausencia de mayor certidumbre, pero todo ello, en opinión en de los defensores del nuevo marco normativo, más bien abona el potencial del principio de precaución a la hora de estimular la búsqueda de tecnologías más seguras.
El siguiente caso toca fibras centrales del poder político-militar. A finales de septiembre de 2002, quince cetáceos aparecieron varados en las islas de Fuerteventura y Lanzarote. Doce de ellos muertos. El gobierno canario conjeturó que el origen de las muertes se debía a las maniobras militares hispánico-otánicas que se desarrollaban en la zona y pidió el cese inmediato del, digamos, ejercicio. El Ministerio de Defensa hizo caso omiso de la consideración de esta instancia representativa de la voluntad ciudadana. El 9 de octubre, el director general de Política Territorial y Medio Ambiente del Gobierno de Canarias, advirtiendo que el ministerio de Defensa aún no había aportado los datos solicitados sobre la intensidad de las emisiones de las embarcaciones militares, declaró con la claridad necesaria que la muerte de los cetáceos estaba relacionada con las citadas maniobras. El responsable del departamento se basaba en sendos informes científicos realizados por la unidad de anatomía patológica de la Facultad de Veterinaria de Las Palmas y por la Sociedad para el estudio de los cetáceos en Canarias (SECAC) en los que se sostenía que todos los animales afectados sufrieron «la acción causal» en el mismo intervalo de tiempo y que fue ésta la que provocó lesiones vasculares que dañaron el funcionamiento normal de los órganos afectados. Como consecuencia de esta disfunción, algunos animales vararon vivos y, posiblemente, murieron antes de llegar a la costa.
Los análisis científicos establecían pues que la única causa que no podía descartarse era la inducida por una señal acústica intensa. Parecía razonable pensar, con alta probabilidad, que esta señal era atribuible a las comunicaciones militares. Empero, en esa misma fecha, un portavoz de la Armada aseguraba que se mantenía abierta una investigación sobre lo sucedido durante las maniobras Neotapón y que habían recabado información de la OTAN -que según parece estudia el problema desde hace años-, pero que, aunque la investigación no había terminado, los datos preliminares apuntaban a que no había «una relación causa-efecto entre el sistema de sonar de los barcos y la muerte de los cetáceos»22. El 6 de octubre, otro animal había aparecido en la playa de Jacomar, al sur de Fuerteventura, en avanzado estado de descomposición. Los especialistas señalaron que, si se confirmara que el animal tenía las mismas lesiones, se elevarían a 13 el número de cetáceos muertos por causas no naturales. ¿No había aquí señales que aconsejaban una política preventiva? ¿No teníamos buenas o casi excelentes razones que apuntaban a una suspensión cautelar de estos ejercicios? ¿Acaso hay aquí un uso perverso de la consideración de que «la investigación iniciada no había terminado»? ¿Cuándo puede darse por acabada definitivamente una investigación?
Finalmente, en la misma dirección ilustrativa, puede citarse el caso de los PVC23.Hay evidencias de que varios de los plastificantes, miembros de la familia de los ftalatos, son tóxicos para la función reproductiva de los animales y existe la posibilidad, sólo la posibilidad, de que también lo sean para la reproducción humana, aunque la evidencia de esta última conjetura es limitada. Hasta 1999, muchos juguetes de plásticos de PVC, diseñados para ser chupados o masticados, contenían ftalato de diisononilo. La evidencia de riesgos para la salud humana es débil e incierta. De hecho, los fabricantes de productos con PVC han argumentado que no hay evidencia de daños provocados por su utilización, después de más de 40 años de uso sin efectos nocivos apreciables.
¿Hay algún error en este razonamiento? ¿La ausencia de evidencia del daño es equiparable a la evidencia de ausencia de daño? Si admitimos, como parece razonable, que nunca podrá probarse sin atisbo concebible de duda la absoluta seguridad de un determinado artefacto, el principio de precaución intenta entonces minimizar las limitaciones de una política reguladora basada centralmente en el análisis de riesgos, favoreciendo, por el contrario, la búsqueda de alternativas cuando tengamos sospechas en torno a la peligrosidad de un determinado producto químico. Si existe una alternativa más segura, ¿por qué aceptar riesgos por mínimos e inciertos que puedan ser? La agencia danesa para el medio ambiente utilizó esta perspectiva ético-lógica cuando decidió eliminar los ftalatos de los juguetes: había una exposición a estos compuestos, se tenían datos sobre su toxicidad en animales, la exposición afectaba a niños, especialmente susceptibles a muchas sustancias tóxicas, existían alternativas y el producto, por otra parte, no parecía cumplir una función imprescindible, ¿por qué usar entonces este plastificante en los juguetes?
5. La cultura de la prudencia.
El revuelo armado recientemente en la Academia, y fuera de la Academia, por el The Skeptical Environmentalist24 de Bjorn Lomborg no ha sido una simple brisa de verano. Las críticas, sin negar defensas25, han llovido y no desde cualquier tribuna: Lester Brown, Paul Erlich, Stuart Pinn, no se han dejado llevar por la contención al apuntar numerosos puntos débiles en los desarrollos y conclusiones de Lomborg. Pero en un alarde de imaginación y, probablemente, de generosidad, supongamos, aunque no admitamos, como sostiene Lomborg, que la tecnología está mejorando la vida en la mayor parte del planeta y que nuestra civilización occidental es medioambientalmente sostenible, ¿podemos entonces defender sus tesis de que el protocolo de Kioto no nos sirve?
Su argumentación va en sentido contrario al aconsejada por el principio de precaución. Lomborg señala que es más rentable permitir la mayor parte de las emisiones, y pagar las consecuencias según vayan llegando, que tratar de restringirlas en exceso. Usa la impactante cifra de 5 billones de dólares, extraída de un único estudio de la Universidad de Yale, y la utiliza como base para evaluar la eficacia de las alternativas propuestas, especialmente la defendida por el acuerdo de Kioto. Según él, al protocolo no le salen las cuentas: sus costes serían muy considerables y sus beneficios -detener el calentamiento- apenas serían perceptibles. Por lo tanto, hoy gloria desarrollista y mañana arreglo. Todo apunta, sin embargo, a que Lomborg parece situarse en el lado irracionalmente positivo de la vida y de la historia, y, por lo sabido y sufrido, no parece éste el caminar más sensato. El autor de The Skeptical Environmentalist2 apuesta siempre por los escenarios más optimistas, arguyendo, a título de ejemplo, que buena aparte de los combustibles fósiles serán reemplazados por energía solar. Las preguntas se imponen: cómo, cuándo y por qué.
Estamos sin duda ante una batalla política de calado y con variadas estrategias. Riechmann ha señalado un posible sendero transitable por los grupos multinacionales y sus intelectuales orgánicos: dado que es demasiado tarde para redefinir el principio de manera favorable a esas corporaciones industriales, los think tanks del capitalismo globalizado realmente existente posiblemente recomienden adherirse únicamente a un imposible enfoque precautorio totalmente comprobado en los hechos y poner el acento en la distinción entre interpretaciones razonables y lecturas desviadas o lunáticas, esto es, extremistas o radicales en su supuestamente aséptico y neutral lenguaje. Se abre así una línea de lectura «razonable» y «moderada» del principio, acorde con el más irresponsable productivismo y al servicio de los grandes poderes y su abultada cuenta de resultados. De nuevo aquí, como en tantas otras ocasiones, vale la pena no olvidar la sentencia de Tentetieso en Alicia a través del espejo: yo, el poder, fijo el verdadero y único sentido de las palabras. Como (casi) siempre, de la ciudadanía activa e informada depende que esta sentencia ‘irrefutable’ sea falsada.
Hace algo más de veinte años, Manuel Sacristán, en una comunicación para unas jornadas sobre ecología y política, ya señalaba la necesidad de aceptar, darwinísticamente, que «la especie ha desarrollado, en su evolución, para bien y para mal, una plasticidad difícilmente agotable de sus potencialidades y sus necesidades. Hemos de reconocer que nuestras capacidades y necesidades naturales son capaces de expansionarse hasta la autodestrucción. Hemos de ver que somos biológicamente la especie de la hybris, del pecado original, de la soberbia, la especie exagerada»26. Biológicamente, vale la pena subrayar, pero no, en cambio, cultural ni políticamente. Necesitamos un cambio de perspectiva, de enfoque, de análisis, que nos permita caminar por un sendero menos arriesgado, con la necesaria prevención adecuada para el caso. Y no sólo en el plano teórico, sino en el complejo ámbito de la acción. Alguien tan poco sospechoso de radicalismo o desviación irracionalista como el antiguo y admirado director de Nature, John Maddox27, ya señaló con pesimismo que:
[…] En todas partes a se presiona a la comunidad investigadora para que sea más «relevante» y por «relevante» se suele entender que contribuyan a la competitividad nacional en la producción y venta de artículos comerciales tangibles. En cambio, los gobiernos de los países más ricos se han mostrado tacaños a la hora de aportar fondos para las organizaciones de salud pública, cuando lo justo sería reforzar sus actividades para hacer frente a las necesidades aún desconocidas de los años venideros… Sin embargo, para estar prevenidos es preciso fomentar estas actividades a una escala con un vigor que esté a la altura de las desconocidas necesidades. Esto demuestra que una cosa es la retórica de supervivencia y otra muy distinta tomar decisiones.
Superar la retórica vacía, ir más allá del mero decir y de las hermosas pero olvidadas declaraciones es sin duda un buen programa moral-político-ciudadano para tiempos arriesgados y coléricos como los que nos toca vivir. No es momento de olvidar que si en el principio fue el Verbo, la Acción razonada debió siempre su fiel acompañante.
Notas
(1) Josep Maria Cortés y Laura Sali, «Las viudas del amianto», El País, 15.9.2002, p.30.
(2) Eric Hobsbawm (1995), Historia del siglo XX, Barcelona, Crítica, p.544.
(3) Margaret Masternam, «La naturaleza de los paradigmas», en I. Lakatos y A. Musgrave (eds), La crítica y el desarrollo del conocimiento, Barcelona, Grijalbo, 1975, p.162.
(4) Refiriéndose al crucial asunto del aumento de los accidentes laborales, Federico Durán López («Promover la prevención», El País, 15.9.2002, p.20) ha apuntado, entre otras razones, a la existencia de «unos planteamientos normativos centrados más en la reparación del accidente que en la evitación del
mismo, con unos déficits normativos y culturales importantes, y con una legislación de prevención compleja e indiferenciada».
(5) Jorge Riechmann, «Introducción: un principio para reorientar las relaciones de la humanidad con la biosfera», en Jorge Riechmann y Joel Tickner (coords) (2002), El principio de precaución, Barcelona, Icaria, pp. 7-8.
(6) ibidem, p.8. En el mismo sentido, Henry I. Miller, médico y biólogo investigador del Hoover Institution de la Universidad de Stanford ha señalado (analitica.com; Venezuela analítica editores 2001), después de quejarse de la actitud de gobiernos tan respetables como los de Alemania e Italia, que con la aplicación del principio de precaución «Los funcionarios gubernamentales de los países que instrumentan esas políticas promovidas por la ONU impedirán que sus conciudadanos se beneficien de adelantos tecnológicos, condenándolos al atraso y al subdesarrollo. Esa es la misma gente que se queja y se da golpes de pecho por las grandes desigualdades en los ingresos en el mundo moderno, mientras utilizan sus cargos oficiales para asegurar que su gente nunca saldrá de la miseria»
(7) http://www.analitica.com/va/ambiente/opinión/4193692.asp
(8) Jorge Riechmann, «Introducción: un principio para reorientar las relaciones de la humanidad con la biosfera», Ibidem, p.8.
(9) El País, junio 2002, p.30.
(10) David Kriebel y otros, «El principio de precaución en las ciencias ambientales», en Jorge Riechmann y Joel Tickner (coords) (2002), El principio de precaución, Barcelona, Icaria, p. 103..
(11) Robert L. Park,Ciencia o vudú. De la ingenuidad al fraude científico. Grijalbo Mondadori (Aula abierta), Barcelona 2001, 326 páginas. Traducción de Francisco Ramos [Edición original: Woodoo Science. Oxford University Press, Nueva York, 1999].
(12) La declaración de Wingspread sobre el principio de precaución puede consultarse en Jorge Riechmann y Joel Tickner (coords) (2002), El principio de precaución, Barcelona, Icaria, pp.39-40. Curiosamente, Eckard Wimmer, profesor de Genética molecular y microbiología de la Universidad de Nueva York en Stony Brook y consejero del Pentágono, ha señalado que la erradicación de la viruela no es razón suficiente para la eliminación de las dos únicas muestras el virus que se conservan en USA y Rusia. Preventivamente señala que en pocos años sería posible tomar de Internet la información de su genoma y reconstruirlo(de hecho, él lo ha hecho con el virus de la polio). Adecuadamente analizado, el mismo Pentágono es un firme partidario del principio. Wimmer ha apuntado que «tiene unidades dedicadas a analizar escenarios hipotéticos, por remotos que parezcan en principio «(Javier Sampedro, entrevista a Eckard Wimmer, «Nunca más será posible erradicar un virus», El País, octubre 2002).
(13) El principio de precaución, op.cit. pp.125-131.
(14) David Kriebel y otros, «El principio de precaución en las ciencias ambientales», El principio de precaución, op.cit., pp.103-104.
(15) Silvio O. Funtowicz y Jerome R. Ravetz, La ciencia posnormal. Ciencia con la gente, Icaria, Barcelona 2000. Presentación de Martí Boada. Prólogo a la edición española, Joan Martínez Alier. Prólogo a la edición argentina, Cecilia Hidalgo.
(16) El principio de precaución, op.cit. p.8.
(17) Ibidem, p.12.
(18) La fundación para el Progreso y la Libertad, vinculada al ex presidente de extrema derecha de la Cámara de Representantes estadounidense Newt Gingrich, instaba en un informe de finales de los noventa a que el espectro dejase de ser propiedad pública y pasara a manos privadas.
(19) Barry Commoner (1971), Ciencia y supervivencia, Barcelona, Plaza & Janés, pp.26-27.
(20) Manuel Sacristán «Las centrales nucleares y el desarrollo capitalista», curso 1980-81. Club de Debats. Biblioteca Ajuntament de Santa Coloma de Gramenet.
(21) David Kriebel y otros, «El principio de precaución en las ciencias ambientales», en El principio de precaución, op.cit., pp.106-108.
(22) S.Menéndez/M. González: «Los estudios vinculan los cetáceos muertos con las maniobras militares», El País, 9.X.2002, p.32
(23) David Kriebel y otros, «El principio de precaución en las ciencias ambientales», en El principio de precaución, op.cit. pp.109-111.
(24) Bjorn Lomborg (2001), The Skeptical Environmentalist: Measuring the Real State of the World, Cambridge University Press. Puede consultarse una excelente aproximación crítica en «El informe Lugano y la ciencia» de Fernando Sapiña Navarro y Jorge Velasco González, Revista de Libros, núm 54, mayo 2002, p.50. Curiosamente, y en sentido contrario a algunas de las críticas vertidas por Lomborg, Jeremy Rifkin («Los albores de la economía del hidrógeno», El País, 27.9.2002, p.15) sostenía: «Los expertos señalaban que nos quedaba petróleo barato y disponible para unos cuarenta años aproximadamente. Ahora, sin embargo, algunos de los geólogos petrolíferos más importantes del mundo insinúan que la producción mundial de petróleo podría alcanzar su suelo y comenzar un drástico descenso mucho antes, ya a finales de esta década, poniendo por las nubes el precio del crudo».
(25) Algunas de ellas, como la matizada defensa de Pablo Rodríguez Palenzuela y Francisco García Olmedo, «El caso Lomborg», Revista de Libros, 54, pp.3-6, no ahorra críticas. Así. «No nos parece que el autor haga una crítica seria al informe del IPCC (…); simplemente se sitúa en los escenarios más optimistas del informe, y ello por razones harto discutibles. Estando básicamente de acuerdo con las conclusiones del IPCC, Lomborg emplea un tono crítico que resulta completamente incongruente».
(26) Manuel Sacristán (1987), Pacifismo, ecología y política alternativa, Barcelona, Icaria, p. 10.
(27) John Maddox (1999), Lo que queda por descubrir, Madrid, Debate, pp.348-349.