viernes, 23 de noviembre de 2007

Divulgación del riesgo: Análisis de un caso farmacéutico

La divulgación del riesgo por lo general se hace a través de dos canales de comunicación. Por un lado está la educación formal a través de la cual se puede no sólo divulgar sino educar frente a riesgos como el que conlleva la presencia de un tsunami y, por otro lado los medios de comunicación, que en últimas son los que más público convocan. Este segundo canal se puede convertir, as u vez, en un riesgo. Luhmann al respecto expresa:

“Frente a la imposibilidad de decidir de manera perfectamente racional (óptima) y frente a la imposibilidad de prever lo que habrá sido una decisión, toda comunicación se convierte en un riesgo: el de no haber atendido algo que más adelante resulta ser importante o el de haber decidido de una manera que más adelante resulta ser errónea o, de algún modo, reprochable. Pero la no comunicación tampoco nos protege de este riesgo, puesto que puede ser convertida, como omisión, en una decisión.”

(Luhmann, 1998, pág. 242)

La divulgación debe ser entonces objetiva, responsable y efectiva (óptima), que permita una acertada prevención y gestión de los riesgos.

Evidentemente ocurre que la gestión se encuentra estrechamente vinculada a la divulgación, difusión y percepción del riesgo, aunque sólo sea porque se puede producir una ampliación de los riesgos reales por la misma forma de comunicación de los riesgos potenciales

(Alvarez Alvarez, 2005)

Ampliación, atenuación, distorsión, estigmatización, alarmismo, pánico pueden estar presentes en el análisis del caso farmacéutico de este rincón.

En 2004 circuló un correo electrónico, de una fuente de origen argentino, el cual tenía el encabezado ¡HÁGALO CIRCULAR! URGENTE - RIESGO DE MUERTE, con el siguiente contenido:

El Ministerio de Salud a través de la Agencia Nacional de Vigilancia Sanitaria suspendió por medio de la Resolución 96 la fabricación, distribución, manipulación, comercialización y almacenamiento de medicamentos con el principio activo denominado FENILPROPALAMINA. La medida fue tomada después de que la "Food and Drug Administration", (FDA), de Estados Unidos, constató que la substancia provocó efectos adversos FATALES en usuarios americanos (hemorragia cerebral). En Brasil la suspensión es preventiva, una vez que no existen casos relatados. LA FENILPROPALAMINA está presente en 21 medicamentos

Luego aparece el listado de los 21 medicamentos, entre los cuales existen algunos antigripales de venta pública en tiendas y supermercados colombianos[1]. ¿Por qué esta divulgación se hace en Argentina y no en Colombia? ¿Qué ocurre con la gran masa de la población que no tiene acceso a este medio de comunicación? Fueron mis primeros interrogantes al leer este correo.

El correo fue distribuido masivamente por Internet. Sé que no todo lo que circula en la red es para creerlo, así que consulté la FDA (Food and Drug Administration) citada por el correo, ésta anunciaba:

Scientists at Yale University School of Medicine recently issued a report entitled
"Phenylpropanolamine & Risk of Hemorrhagic Stroke: Final Report of the Hemorrhagic Stroke Project." This study reports that taking PPA increases the risk of hemorrhagic stroke (bleeding into the brain or into tissue surrounding the brain) in women. Men may also be at risk. Although the risk of hemorrhagic stroke is very low, FDA recommends that consumers not use any products that contain PPA

Federal Register: (Volume 66, Number 157)

En 2007 la página de la FDA presenta la siguiente advertencia:

No satisfecho con lo anterior, logré encontrar el estudio de los científicos de la Universidad de Yale. En un documento de 25 páginas de mayo de 2000 (el problema fue detectado cuatro años antes), se presentan los resultados de un estudio practicado a una muestra cercana a los 800 pacientes. Sin más detalles de esta investigación, me encuentro con la siguiente conclusión:

In conclusion, the results of the Hemorrhagic Stroke Project (HSP) suggest that phenylpropanolamine (PPA) increases the risk for hemorrhagic stroke. For both individuals considering use of PPA and for policy makers, the HSP provides important data for a contemporary assessment of risks associated with the use of PPA.

¿Por qué el gobierno argentino toma este tipo de decisión y el colombiano no? La estación amplificadora argentina le dio más prominencia al evento, sería una respuesta plausible.

En octubre de 2007, una noticia a nivel mundial es generada desde el laboratorio norteamericano Wyeth. En Colombia se divulgó así,

El laboratorio norteamericano Wyeth acaba de retirar del mercado el medicamento para el resfriado Dimetapp gotas pediátricas como una medida preventiva. En Colombia se comercializan entre 20 mil y 30 mil frascos de Dimetapp gotas pediátricas que son para el consumo de niños de 0 a 2 años de edad. "Hemos adoptado esta medida preventiva y responsable de suspender la venta de Dimetapp gotas pediátricas en Colombia", sostuvo el director médico del laboratorio Wyeth en la región andina, Andrés Zapata […] sostiene que el Dimetapp gotas pediátricas no es perjudicial para la salud de los niños y que desde hace 20 años se comercializa en Colombia. Lo que ocurre según el vocero del laboratorio, es que el uso indebido puede generar efectos secundarios en los recién nacidos como somnolencia.

http://www.caracol.com.co/ (10 de octubre de 2007)

Según la información, los generadores del riesgo son los irresponsables padres que no saben usar este medicamento de venta libre o sin prescripción médica.

El Dimetapp es una de las 21 drogas reportadas por el correo argentino. Hasta antes de la anterior noticia el problema era la fenilpropalamina, ahora los informes presenta como causa del retiro del Dimetapp la pseudoefedrina.

Dos días después (12 de octubre) la subdirectora de medicamentos del Invima anunció que en "una semana" se tendrá la evaluación de los medicamentos para el resfriado de venta libre que hay en el país.

Una ayudita para la subdirectora. El mismo Invima publicó un listado de más de 1200 productos del laboratorio Wyeth en Colombia. Más de 300 de esos productos tienen fenilpropalamina o pseudoefedrina, 60 de ellos con clorhidrato de pseudoefedrina (Dimettap, dristancito, Dristán caliente, Sinutab, Robitussin,…) y 125 con pseudoefedrina clorhidrato (no sé cuál es la diferencia con el anterior pero entre ellos está el dolex gripa, el noxpirín y el acetaminofén). En cuanto a la fenilpropanolamina he extraído el siguiente cuadro:

PRODUCTO

REGISTRO

FORMA FARMECUTICA

COMPONENTE

DIMETAPP JUNIOR

INVIMA M-013658

JARABE

CLORHIDRATO DE FENILPROPANOLAMINA

DIMETAPP GOTAS PEDIATRICAS

INVIMA 2001M-0000388

SOLUCION ORAL

CLORHIDRATO DE FENILPROPANOLAMINA USP

CONTAC C-

INVIMA M-010139

CAPSULA DURA

CLORHIDRATO DE FENILPROPANOLAMINA

DESCONGEL L TABLETAS

INVIMA M-13518

TABLETA

FENILPROPANOLAMINA CLORHIDRATO

DESENFRIOLITO DD TABLETAS

M-005052

TABLETA

FENILPROPANOLAMINA CLORHIDRATO


Otra ayudita,

El Instituto Nacional de Vigilancia de Medicamentos y Alimentos – INVIMA informa a la población en general que teniendo en cuenta los resultados del programa demuestra la calidad del año 2006, ha solicitado a las seccionales de salud del país y a los laboratorios farmacéuticos el retiro del mercado de los medicamentos del listado que se adjuntan, por cuanto no cumplen con los parámetros de calidad establecidos dentro del registro sanitario.

Bogotá, Agosto 25 de 2007

De 827 muestras analizadas en 2006, 34 no cumplen con los parámetros de calidad, 11 de ellas con el componente activo clorhidrato de pseudoefedrina con nombre comercial “Dristán Ultra” del laboratorio Wyeth

El laboratorio advierte ahora no usar más medicamentos para la tos y el resfriado en niños menores de 2 años,

¿Qué podemos hacer con esta información? ¿Estigmatizar al laboratorio? ¿Generar pánico en la población? O, simplemente acudir a uno de los principios del mundo de las incertidumbres… la precaución.

En asunto de precaución nos llevan mucha ventaja países como lo europeos. En mi visita a España en el primer trimestre de 2007 compré un antigripal, transcribo textualmente los efectos secundarios escritos “visiblemente” en la caja: “El efecto secundario más frecuente es la sedación y somnolencia, molestias gastrointestinales, estreñimiento, confusión, euforia, alteraciones visuales, sequedad de boca y dificultad para orinar. También se han descrito erupciones cutáneas, urticaria y reacciones alérgicas graves, así como alteraciones sanguíneas”. Por ello recomiendan consultar al médico o al farmaceuta el antigripal apropiado, en contraste a Colombia que permite la venta libre en cualquier tienda de una esquina.

No soy médico ni farmaceuta, tal vez esté exagerando la información recibida, pero en mi casa no se volverá a comprar y consumir antigripales como los enunciados en este apartado… sólo por precaución.

Bibliografía

Alvarez Alvarez, J. F. (2005). A grandes males pequeños remedios : la gestión del riesgo. En J. L. Luján, & J. Echeverría (Edits.), Gobernar los riesgos : ciencia y valores en la sociedad del riesgo (págs. 310-325). Madrid: Biblioteca Nueva.

Luhmann, N. (1998). Sociología del Riesgo. México: Triana Editores.






[1] Los 21 medicamentos suspendidos en Argentina son los siguientes: Benadryl, día y noche; Contac; Naldecon Bristol; Acolde; Rinarin Expectorante; Deltap; Desfenil; HCl de fenilpropalamina; Naldex; Nasaliv; Decongex Plus; Sanagripe; Descon; Descon AP; Descon Expectorante; Dimetapp; Dimetapp Expectorante; Ceracol Plus; Ornatrol; Rhinex AP; Contilen, y Decidex.


jueves, 6 de septiembre de 2007

Lo que debemos saber sobre los huracanes

Uno de los problemas más recurrentes en la divulgación del riesgo es la proliferación de textos o documentos que no se soportan en fuentes confiables de información. Es común encontrar, para un mismo concepto, información fuera de contexto. Dos frases de algunos de estos textos permitirán justificar mi afirmación:

Frase 1. […] aplicables a la proyección de estructuras y edificios antisímicos […]”, tomado de un documento de la UNESCO. No existen edificaciones antisímicas, ojalá… Dios lo permita.

Frase 2. […] el peor movimiento telúrico de la historia del país, que tuvo una intensidad 7,6 grados Richter […]”, tomado de el www.tiempo.com con fecha del 15 de agosto de 2007. La escala de Richter es una escala de magnitud referida a la energía liberada en un movimiento sísmico, la escala de intensidad es la de Mercalli y mide, subjetivamente, el nivel de daños causados.

Este es un problema y, en mi concepto, un problema menor. Los grandes problemas en la divulgación del riesgo se presentan cuando se mezclan con otros factores que poco tienen que ver con el o los fenómenos que originan el riesgo. La racha de huracanes en 2005 fue una gran oportunidad para justificar la teoría dominante sobre el cambio climático ¿Qué pasó en 2006? Según la teoría, el incremento de la temperatura por gases invernadero no disminuirá, así disminuyamos nuestra emisión de este tipo de gases. Sí el cambio climático es culpable de esa racha de huracanes de 2005 ¿qué pasó en 2006?

Centrarnos en la validez o no de la teoría es algo que debemos dejárselo a los científicos. En lo que debemos centrar la atención es en el conocimiento de las amenazas que nos rodean y en las condiciones de vulnerabilidad que nosotros mismos propiciamos. Que el cambio climático haya generado huracanes como el Katrina, sólo sirve para distraer la atención del desastre mismo ¿cuál ha sido el debate en torno a la inacción del gobierno de Bush antes y después del desastre? ¿Cuán divulgado ha sido que Bush estuvo informado de que los diques de Nueva Orleáns estaban rotos el día que el huracán Katrina tocó tierra, según la denuncia de Michael Brown, ex director del FEMA (Federal Emergency Management Agency)? Mucho se habló de la incapacidad del gobierno para atender el desastre, pero poco sobre el exiguo presupuesto del FEMA, el cual fue desviado para atender la guerra personal de Bush con Irak.

Las afirmaciones anteriores podrían pensarse que contradicen mi propuesta de no cambiar el rumbo de nuestra atención en el riesgo per se. Más no es así. Las condiciones de vulnerabilidad están asociadas a condiciones de seguridad. La seguridad frente amenazas naturales como los huracanes no es más que la resistencia frente a la destrucción. Un término muy de moda, en el estudio del riesgo, que define mejor esta resistencia es la “resiliencia”, definida como la capacidad que tiene un sistema para resistir cambios producidos por el entorno. Nueva Orleans no la tuvo, sus condiciones de vulnerabilidad fueron irresponsablemente incrementadas. Los diques no se repararon a tiempo, el FEMA no respondió, la población pobre (la más vulnerable) se dejó a su suerte.


Este rincón, en el contexto del párrafo introductorio, se ocupará de lo que debemos saber sobre los huracanes.

¿Qué es un huracán?

El FEMA en su publicación “Are you ready” (www.fema.gov/areyouready/ ) lo define como un tipo de ciclón tropical, el cual va acompañado de tormentas eléctricas y con vientos sostenidos iguales o superiores a 119 Km/h (74MPH o 64 nudos). Para velocidades menores son simples tormentas tropicales (entre 61 y 188 Km/h) o depresiones tropicales (menores de 61 Km/h).

En general un huracán es un ciclón o “Tormenta Tropical” del Atlántico, como lo es en otras partes del mundo, así en Filipinas se le diga Baguío, en Japón se le denomine Tifón y Wyly Wyly en Australia. Cada uno de ellos son un mismo fenómeno… una tormenta tropical.

¡De dónde vienen los nombres que se le dan a los huracanes?

Desde 1953, a las tormentas tropicales en el Atlántico se les asigna un nombre de las listas originadas por el Centro Nacional de Huracanes de EEUU, que en la actualidad mantiene y actualiza un comité internacional de la Organización Meteorológica Mundial. Actualmente se usan seis listas cada una con 21 nombres en rotación, con nombres alternados de hombre y mujer. Las listas de 2001 se usan en este año. Cuando una tormenta es desastrosa, el nombre se tacha de la lista. Es decir, Katrina, Andrews, Mitch , etc. han desparecido de las listas, pero sobreviven en la historia de los desastres.

Estos nombres son reemplazados por otros. Por una extraña razón, en las listas no aparece el nombre de George.

En caso de que una temporada registrara un número superior a 21 ciclones, se utilizarían las letras del alfabeto griego (Alfa, Beta, etc.) para designar el resto de huracanes.

Para el 2007 esta es la lista: Andrea, Barry, Chantal, Dean, Erin, Felix, Gabrielle, Humberto, Ingrid, Jerry, Karen, Lorenzo, Melissa, Noel, Olga, Pablo, Rebekah, Sebastien, Tanya, Van y Wendy. A la fecha de esta publicación, ya había pasado el huracán Felix.

¿Qué es un huracán de categoría 5?

La respuesta es simple. Es un huracán de padre y señor mío. Desastrosos.

Los científicos estadounidenses Herberth Saffir y Robert Simpson desarrollaron una escala, la forma más aceptada, para "categorizar" los huracanes que sirve para estimar la cantidad de daños que pueden producir y que está en función de la velocidad de los vientos que forman el huracán. Esta escala en forma resumida es la siguiente:

Escala Saffir-Simpson para medir la intensidad de los huracanes

Categoría

Vientos sostenidos

(Km/h)

Daños

Marejada

(m)

1

119-153

Mínimos

1.21-1.52

2

154-177

Moderados: Todas

las casas móviles, embarcaciones pequeñas; Inundaciones

1.53-2.44

3

178-209

Extensos: Edificios pequeños, carreteras a bajo nivel

2.45-3.66

4

210-249

Extremos: Techos destruidos, árboles derribados, caminos arrasados, casas de playa inundadas

3.67-5.49

5

Más de 249

Desastrosos: La mayoría de los edificios destruidos

Mayor que

5.49 metros

La parte más peligrosa de un huracán es la marejada. Esta columna de agua marina puede llegar a alturas superiores a los 6 metros. Por otra parte, las fuertes lluvias que acompañan al huracán causan severas inundaciones.

Algunos huracanes recordados por su “intensidad” son: Gilbert (sep-1988), 299 km/h. El huracán de los Cayos (sep-1935). Mitch (oct-1998), 287 km/h. Hugo (sep - 1989), 260 km/h. Andrew (ago-992), 250 km/h. Y obviamente, el Katrina y el Wilma.


¿Cómo se originan los huracanes?

Para ser consecuentes con mis afirmaciones iníciales, no voy a dar una descripción científica del origen del huracán. Baste saber que un ciclón tropical requiere la preexistencia de una perturbación atmosférica, océanos tropicales cálidos (temperatura de la superficie del agua superior a 27ºC), humedad y vientos relativamente suaves en altura. Lo de los océanos cálidos justifica la ausencia de ciclones en otras regiones del planeta, como en el norte y en el sur. Justifica también, aunque la evidencia empírica no, la relación cambio climático – huracanes.


¿Cuándo podemos hablar de desastre?

Cualquier definición es subjetiva. Organizaciones como el CRED (Centre for Research on the Epidemiology of Disasters) http://www.cred.be/cred1/index.htm, o el CE-DAT (Database on the Human Impact of Complex Emergencies) http://www.cred.be/cedat/index.htm consideran un desastre cuando se cumple con alguno de estos criterios:

· 10 o más personas muertas reportadas.

· 100 o más personas afectadas

· Declaración de estado de emergencia

· Solicitud de ayuda internacional

Cuando afirmo que es subjetivo es porque no se cómo podría llamar a estos eventos:

  • Ciclón de Bangladesh de 1970. 300,000 personas muertas
  • Huracán Fifí en Honduras de 1974. Entre 8,000 y 10,000 muertos
  • Huracán Mitch en Honduras de 1998. Más de 10,000 muertos

El Katrina, según la información del EM-DAT (International Disaster Database), produjo 1,322 muertes (ver tabla adjunta), sin embargo los mayores desastres (no establecidos en los anteriores criterios) producto del Katrina son los económicos y sociales. Se estima que el Katrina y el Rita dejaron pérdidas por U$131 billones.

¿Cómo podríamos llamar los resultados del terremoto Paquistán? Los 73,338 no son una cifra simplemente mayor que 10 ¿un mega desastre? Si miramos hacia Colombia y en el contexto de estos criterios, se justifica el calificativo que alguna vez le di en un rincón anterior… “Colombia país de desastres”


¿Qué diferencia un huracán de un tornado?

Antes de conocer sus diferencias veamos que tienen en común, ambos se caracterizan por los fuertes vientos y por el tipo de daños que ocasionan. Algunos tornados son “hijos” de un huracán. Los tornados generados por el huracán Andrew generaron grandes destrozos materiales. Cuando el huracán toca tierra se convierte en uno o más tornados. Es decir, las tormentas tropicales en tierra son tornados, he ahí una primera diferencia. Pero no todos los tornados son fruto de tormentas tropicales, se presentan tornados en Argentina (lejos del trópico) y con mucha frecuencia en los Estados Unidos. En un solo año se pueden contar más de 800 tornados. Esta es otra diferencia, se necesitaría una lista muy grande para darles nombre. El huracán es mucho más grande y tiene un período de duración más amplio, el tornado es más pequeño pero más poderoso, sus vientos pueden superar los 500 Km/h.




martes, 10 de julio de 2007

Apuntes sobre el principio de precaución

Apuntes sobre el principio de precaución

Por Juan Guillermo Rivera Berrío

Biodiversity and biological resources face serious threats

Dickson, 2005

Hace 12,000 años poblaban la tierra cerca de cinco millones de seres humanos, hoy en día cada dos semanas nace esa misma cantidad de personas. Actualmente un octavo de las especies de aves, un cuarto de los mamíferos y un tercio de los anfibios están en vía de extinción, cerca del 60% de los servicios del ecosistema que soporta la vida en la tierra se están degradando o se usan “insosteniblemente” (Barney Dickson in Biodiversity and the Precautionary Principle, 2005).

Intentar conservar la biodiversidad y gestionar los recursos ambientales es tratar con incertidumbres y un alto nivel de ignorancia. El conocimiento biológico y ecológico es limitado: no se sabe, por ejemplo, cuántas especies existen actualmente y cuántas han desaparecido en los últimos 100 años.

El principio de precaución presenta diversas formulaciones en diversos contextos, sin embargo cada una de ellas refleja como premisa que la certeza con respecto a un daño ambiental no debe ser un requisito único para tomar acciones que eviten el daño. Es decir, el principio de precaución contradice la tesis según la cual: hasta tanto no haya suficientes evidencias sobre actividades “dañosas” no son necesarias las acciones que buscan evitar el daño ambiental. Los defensores de los transgénicos son un claro ejemplo de ello… no existen evidencias de daño por la implementación y uso de alimentos genéticamente modificados


Las cifras con las que inicio este texto justifican por si solas el principio de precaución. Si a estas cifras le agregamos las suministradas por el Panel Intergubernamental del Cambio Climático (IPCC, siglas en inglés), no sólo lo justifica, también lo valida.


¿Qué es entonces el principio de precaución?


La versión más popularizada es el principio 15 de la Declaración de Río sobre el Medio Ambiente y el Desarrollo (1992):


Con el fin de proteger el medio ambiente, los Estados deberán aplicar ampliamente el criterio de precaución conforme a sus capacidades. Cuando haya peligro de daño grave o irreversible, la falta de certeza científica absoluta no deberá utilizarse como razón para postergar la adopción de medidas eficaces en función de los costos para impedir la degradación del medio ambiente.


Del dicho al hecho hay mucho trecho, sino que lo digan los científicos del IPCC. Cuando se desea aplicar el principio, no existe la claridad suficiente para tomar medidas de precaución. Es entonces cuando los argumentos de los defensores de las actividades “dañosas” (otra vez los transgénicos, por ejemplo) estarán por encima de los defensores del Medio Ambiente, los cuales en últimas son mirados como bichos raros, beligerantes, piedras en el camino del desarrollo, y muchos epítetos mas. El mismo principio de precaución es convertido por sus detractores en “el principio paralizador”, y en parte tienen razón. Regular sobre ciertos riesgos e incertidumbres trae consigo el aumento de otros. El economista Robert Hahn y el jurista Cass Sunstein, en un artículo publicado en ‘The Wall Street Journal’ el 1 de noviembre de 2004, decían: “si los reguladores tratan de eliminar todos los riesgos, se pueden llevar por delante gran parte, o incluso la totalidad, del PIB del país'. El principio de precaución enunciado inicialmente por la Declaración de Río no proporciona una guía práctica para regular y las formulaciones posteriores han encontrado sólidas críticas que hacen del principio de precaución un tema de debate contemporáneo aún sin superar. Pero el debate no se centra en el principio per se (ya vimos que es justificado y validado), sino en la práctica del principio, en sus regulaciones… regular sobre la incertidumbre o sobre la ignorancia es tarea altamente compleja.


A pesar de la controversia, el principio de precaución se ha esparcido rápidamente e incluido en las regulaciones ambientales de muchos países y comunidades de países como la europea. Ahora es incorporado en una amplia variedad de campos en las leyes internacionales: cambio climático, biodiversidad, comercio de animales salvajes, bioseguridad, industria pesquera, alimentos, transporte de residuos radiactivos, entre otros.


¿El TLC formula acciones de precaución?


Pero del dicho al hecho… A manera de ejemplo, el gobierno colombiano expide la Ley 740 de 2002 por medio de la cual se aprueba el “Protocolo de Cartagena (2000)” sobre Seguridad de la Biotecnología, acuerdo que rige la transferencia, manejo y uso de organismos vivos modificados por medio de la biotecnología moderna (transgénicos). En el artículo 8º de dicha Ley se expresa: “El hecho de que no se tenga certeza científica por falta de información y conocimientos pertinentes suficientes sobre la magnitud de los posibles efectos adversos de un organismo vivo modificado en la conservación y utilización sostenible de la diversidad biológica en la Parte de importación, teniendo también en cuenta los riesgos para la salud humana, no impedirá a esa Parte, a fin de evitar o reducir al mínimo esos posibles efectos adversos, adoptar una decisión, según proceda, en relación con la importación de ese organismo vivo modificado destinado para uso directo como alimento humano o animal o para procesamiento”… Principio de Precaución que no es claro en el recién aprobado TLC por el mismo congreso colombiano. En el numeral 18.10 sobre diversidad biológica de este tratado reza: “Las Partes también reconocen la importancia de la participación y consulta pública, como se establece en su legislación doméstica, en asuntos relacionados con la conservación y uso sostenible de la diversidad biológica. Las Partes podrán poner a disposición del público información acerca de programas y actividades, incluyendo programas de cooperación, que desarrollen en relación con la conservación y uso sostenible de la diversidad biológica”. Palabras como “reconocen y “podrán” nada dicen sobre la importación de los transgénicos al país.


La unión europea formula una legislación en la cual la invocación al principio de precaución presupone que se han identificado los efectos potencialmente peligrosos derivados de un fenómeno, un producto o un proceso, y que la evaluación científica no permite determinar el riesgo con la certeza suficiente. La aplicación de una acción basado en el principio de precaución, debe empezar con una evaluación científica sobre el riesgo, lo más completa posible y, si fuera viable, identificar en el grado de incertidumbre científica. Esta legislación es una invitación a defensores y detractores del principio de precaución a estudiar con más seriedad el problema complejo del riesgo. Para el caso del ejemplo de los transgénicos, la legislación es estricta sobre el etiquetado de los productos alimenticios. El real Decreto 1334 de 1999 español regula el etiquetado, presentación y publicidad de los productos alimenticios con elementos informativos al consumidor como: Si el producto ha sido tratado con radiación ionizante, deberá mencionarse "irradiado" o "tratado por radiación ionizante", grado alcohólico indicando si éste es superior en volumen al 1.2% y los alimentos con soya o maíz obtenidos con técnicas de modificación genética (únicos autorizados en la Unión Europea), incluirán en su etiquetado la leyenda "Producido a partir de ... modificado genéticamente".

He ahí uno de los elementos claves del principio de precaución, la comunicación a nos los ignorantes de los cada vez mas crecientes riesgos del mundo contemporáneo. Ojalá algún día podamos etiquetar todos los riesgos.

Prevención versus Precaución

Cuando afirmo que el principio de precaución es justificable y que su mayor obstáculo se centra en la falta de una clara metodología de aplicación, no niego con ello que exista confusión en el concepto de precaución. Existe confusión y ésta nace de la borrosa distinción entre riesgo e incertidumbre en la literatura contemporánea[1]. Por ejemplo Ulrich Beck habla de una sociedad del riesgo y como referentes de riesgos propone incertidumbres, esta afirmación se hace más evidente en el siguiente pasaje:
“En la ignorancia de los riesgos no perceptibles, crecen y prosperan los riesgos y las amenazas, ignorancia que se agudiza con las condiciones de extrema pobreza, por el reparto desigual de la riqueza y de los riesgos, menos riqueza y más riesgos. Estos riesgos que se hacen globales en la medida que no conocen fronteras, son universalizados por el aire, el viento, el agua y la cadena alimenticia, sin embargo la pobreza impide su percepción” (Beck, 1986, p. 50–51).

Los llamados riesgos invisibles no son riesgos, son incertidumbres. Todo riesgo real es de hecho un fenómeno percibido, por ello es socialmente construido. Sin embargo reconozco que existen posturas contrarias que ameritan una discusión más amplia (quizá en otro Rincón), por ejemplo Rosa (1998) defiende el riesgo como incertidumbre: Risk is a situation or event where something of human value (including human themselves) has been put at stake and where the outcome is uncertain (Rosa, 1998, p. 28). Lo cierto es que esta dicotomía entre riesgo e incertidumbre enriquece más el debate en torno al concepto mismo del riesgo.

Invocar el principio de precaución es tomar decisiones bajo incertidumbre, tomar medidas de prevención es tomar decisiones bajo riesgo. El riesgo, concepto complejo, está asociado a otros factores como la amenaza o peligro y a la vulnerabilidad. En las decisiones bajo riesgo se sabe que peligros pueden ocurrir y que efectos pueden presentarse, las decisiones en este ámbito se fundamentan en las probabilidades de ocurrencia tanto de amenazas como de efectos o impactos. La toma de decisiones bajo riesgo no se basa en la certeza sino en la probabilidad. Por el contrario, en las decisiones bajo incertidumbre no se conoce qué amenaza existe o qué efecto se pueda presentar o ambas… he ahí los mal llamados riesgos invisibles de Beck.

Brian Wynne (1992) desarrolló un enfoque alternativo para conceptualizar la incertidumbre en torno a un sistema (ecológico, empresarial, cultural, económico, etc.), el cual puede ser un buen referente para conceptualizar la precaución. Wynne propone siete categorías de incertidumbre, entre las cuales el riesgo es el menos “incierto”:

  • Categoría 1. Riesgo: el comportamiento del sistema es conocido y los efectos se pueden cuantificar probabilistamente. Se justifica tomar medidas de prevención.
  • Categoría 2. Incertidumbre: Los parámetros importantes del sistema son conocidos pero no la distribución de probabilidades (no se conocen las probabilidades), “sabemos que no sabemos”. Se justifica invocar el principio de precaución.
  • Categoría 3. Ignorancia: Desconocimiento acerca del sistema y de las probabilidades de ocurrencia de algo, “no sabemos que no sabemos”. El efecto de los gases clorofluorocarbonos en la capa de ozono es un ejemplo de ello. No hay justificación para tomar o no tomar alguna decisión.
  • Categoría 4. Indeterminación: Las condiciones del sistema y las cadenas causales son abiertas (todo puede ocurrir), los resultados dependen de cómo se comporten los actores del sistema en un proceso no determinado. Toda decisión traerá resultados indeterminados.
  • Categoría 5. Complejidad: Sistemas emergentes abiertos de procesos múltiples, no lineales e irreductibles. El cambio climático es uno de ellos, demanda estudios más profundos para la toma de decisiones.
  • Categoría 6. Inconsistencia: Divergencia en las observaciones e interpretaciones del sistema. Se requiere acuerdo o consenso para la toma de decisiones.
  • Categoría 7. Ambigüedad: Interpretaciones confusas del sistema y, por lo tanto, de los elementos clave de los procesos. No se pueden tomar decisiones.


Según estas categorías, sólo bajo riesgo o incertidumbre es justificable la toma de decisiones, salvo que en la categoría de “incertidumbre” lo más prudente es el principio de precaución. Lo cierto es que en condiciones de riesgo así halla un nivel de incertidumbre fruto de las probabilidades, hay conocimiento suficiente para la prevención. Se pueden tomar decisiones en condiciones de riesgo conducente a acciones de prevención, por ejemplo acciones sobre la amenaza (cuando es posible) y sobre cada uno de los elementos que generan vulnerabilidad. ¿Cuáles son las acciones bajo incertidumbre? Es la pregunta a responder en el contexto del principio de precaución, respuesta nada fácil.


Son inciertos lo resultados del efecto invernadero, son inciertos los efectos económicos y ecológicos del calentamiento global, son inciertos los efectos culturales de los procesos de globalización, son inciertos los efectos colaterales de la ingeniería genética. La sociedad posmoderna crece y se desarrolla entre riesgos e incertidumbres; los riesgos se pueden evaluar y gestionar, las incertidumbres sólo pueden conducir a profundizar en los fenómenos que la generan, he allí la importancia del principio de precaución.

“The recognition of real natural systems as complex and dynamic entails moving to a science based on unpredictability, incomplete control, and plural legitimate perspectives”.

[Funtowicz S. & Ravetz J. en Kasperson J.X & Kasperson R.E, 2001]


La incertidumbre refleja falta de información o desconocimiento sobre los efectos o consecuencias futuras producto de nuestras acciones o de nuestras decisiones. En contraste, el riesgo nos dice que “puede” suceder, lo que no nos dice es cuando y en qué medida sucederá.


Bibliografía


Ahmed, A. M., & Skogh, G. (2006). Choices at various levels of uncertainty: An experimental test of the restated diversification theorem. Journal of Risk and Uncertainty , 33, 183-196.


Beck, U. (1998). La Sociedad del Riesgo: Hacia una Nueva Modernidad. Barcelona: Paidós


Elster, J. (1990). El cambio tecnológico: investigaciones sobre la racionalidad y la transformación social. Barcelona: Gedisa.


Funtowicz S. O. & Ravetz J. (2001). Global risk, uncertainty and ignorance, en Kasperson J. X. & Kasperson R. E. (eds.), Global Environmental Risk, The Unite Nations University Press


Linkov, I., & Burmistrov, D. (2005). Sources of uncertainty in model predictions: lessons learned from the IAEA Forest and Fruit Working Group model intercomparisons. Journal of environmental radioactivity , 84, 297-314.


López Cerezo, J. A., & Luján, J. L. (2000). Ciencia y política del riesgo. Madrid: Alianza Editorial.


Rosa, E. A.: 1998, ‘Metatheoretical Foundations for Post-Normal Risk’, Journal of Risk Research 1: 15-44


Wynne, B.: 1992, ‘Uncertainty and environmental learning: Reconceiving science and policy in the preventive paradigm’, Global Environmental Change 2: 11 -27



[1] En Elster (1990) se presenta una descripción de la incertidumbre. Cuando hay incertidumbre, según Elster, el agente o conjunto de agentes no puede asignar probabilidades numéricas a la ocurrencia de un suceso, tampoco puede especificar el conjunto completo de posibles estados del mundo, y ni siguiera es capaz de dar cuenta de las probabilidades que éstos tienen de ser en el futuro. Tomar decisiones bajo incertidumbre, es tomar decisiones desde la ignorancia. Existe una vasta literatura acerca de las decisiones bajo riesgo, ambigüedad e incertidumbre, en la cual se hace presente la discusión frente a la distinción entre riesgo e incertidumbre, ver entre otros Ahmed & Skogh (2006) y modelos de simulación de escenarios bajo incertidumbre en Linkov & Burmistov (2005).

jueves, 29 de marzo de 2007

An inconvenient truth: ¿Verdad o engaño?

An inconvenient truth: ¿Verdad o engaño?


Por Juan Guillermo Rivera Berrío


En este Rincón se exponen las teorías sobre el Cambio Climático, tanto de los informes oficiales como no oficiales. El lector podrá sacar sus propias conclusiones, una de ellas es que tenemos que acercarnos más al conocimiento actual frente a este fenómeno que afecta a la población actual y generaciones venideras.


En noviembre del año pasado se lanzó el documental Una verdad inconveniente, del ex candidato a la presidencia de los Estados Unidos, Al Gore. La película de 96 minutos ha generado una polémica frente a las causas reales del Cambio Climático.


“Soy Al Gore... solía ser el próximo presidente de Estados Unidos”, esta frase y otros comentarios en el desarrollo del documental da la sensación de un tinte político, de una posible campaña de desprestigio al actual presidente y, porque no, de un lanzamiento a las próximas elecciones. El gran espectáculo multimedia muestra con lujo de detalles, la dramática rapidez con que los glaciares y los polos se han derretido en los últimos años y, la velocidad del calentamiento global con sus consecuentes efectos colaterales, entre ellos la devastación dejada por el paso del huracán Katrina en Nueva Orleáns.


Imagen tomada de la película

La tesis central que defiende Al Gore es la siguiente: Cuando la energía del Sol llega a la Tierra, buena parte rebota y vuelve al espacio. El problema ahora es que gases como el dióxido de carbono (CO2) y otros treinta más de "invernadero" (como el metano) ayudan a crear una capa en la que queda atrapado parte del calor del sol. La consecuencia directa es el calentamiento del planeta. La concentración de CO2 en la atmósfera, debido en buena parte al consumo de combustibles fósiles, ha aumentado exponencialmente, de 280 ppm (partes por millón) antes de la revolución industrial a cerca de 380 ppm.

Las afirmaciones de Al Gore coinciden extraordinariamente con el informe presentado en París, tres meses después del estreno del documental, por el Panel Intergubernamental del Cambio Climático (IPCC, sigla en inglés), informe en el cual participaron más de 2.500 científicos. El Ministerio de Medio Ambiente de España publicó en Internet una traducción no oficial del informe del IPCC. Algunas de las conclusiones se transcriben a continuación

Los cambios en la cantidad de gases de efecto invernadero y aerosoles en la atmósfera, los cambios en la radiación solar y en las propiedades de la superficie terrestre alteran el balance energético del sistema climático.

El dióxido de carbono es el gas de efecto invernadero antropogénico más importante. La concentración atmosférica global ha aumentado de 280 ppm (valor preindustrial) a 379 ppm en 2005, la concentración atmosférica de dióxido de carbono en 2005 excede, con mucho, el rango natural de los últimos 650.000 años (180 a 300 ppm) según muestran los testigos de hielo.

La fuente primaria del incremento en la concentración de dióxido de carbono en la atmósfera desde la era preindustrial es el uso de combustibles fósiles, junto con los usos del suelo que suponen una contribución significativa pero más pequeña.

El conocimiento de la influencia antropogénica en el calentamiento o enfriamiento del clima ha mejorado desde el Tercer Informe de Evaluación (TIE), lo que lleva a afirmar con un nivel muy alto de confianza que el efecto neto medio de las actividades humanas desde 1750 ha resultado en un calentamiento

El calentamiento del sistema climático es inequívoco, tal y como evidencian ahora las observaciones de los incrementos en las temperaturas medias del aire y los océanos, el derretimiento generalizado de hielo y nieve y el incremento medio global del nivel del mar.

Once de los últimos doce años (1995-2006) están en el ranking de los doce años más calurosos en los registros de temperaturas de superficie instrumentalizados (desde 1850).

Datos nuevos muestran que las pérdidas en las placas de hielo de Groenlandia y la Antártida han contribuido muy probablemente al aumento del nivel del mar desde 1993 a 2003

Las observaciones muestran la evidencia de un incremento en la actividad de ciclones intensos en el Atlántico norte desde aproximadamente 1970, correlacionado con el calentamiento observado de la temperatura de la superficie del mar (TSM) en los trópicos.

La información paleoclimática apoya la interpretación de que el calor de la última mitad del siglo pasado es inusual al menos en los últimos 1.300 años.

La mayor parte del incremento observado desde la mitad del siglo XX en las temperaturas medias se debe, muy probablemente, a los aumentos observados en los gases de efecto invernadero antropogénicos.

La continuidad de las emisiones de los gases de efecto invernadero en los índices actuales, o un aumento de estos índices, causaría un mayor calentamiento e induciría muchos cambios en el sistema climático global durante el siglo XXI, que muy probablemente serán mayores que aquellos observados durante el siglo XX.

Es muy probable que los episodios de calor extremo, olas de calor y precipitaciones fuertes tiendan a ser cada vez más frecuentes.

Los procesos climáticos, las retroacciones, y sus escalas de tiempo implican que el calentamiento antropogénico y el aumento del nivel del mar continuarían por siglos incluso si las concentraciones de gases de efecto invernadero se estabilizasen.

Las emisiones antropogénicas de dióxido de carbono continuarán contribuyendo al calentamiento y al aumento del nivel del mar durante más de un milenio, debido a las escalas de tiempo requeridas para eliminar este gas de la atmósfera.

Luego de leer el informe y de observar el documental, pareciera que el IPCC lo dirigiese Al Gore, o que éste tuvo acceso libre a las conclusiones antes de su divulgación al público.

¿Cuál es entonces el debate?

El rechazo al protocolo de Kyoto contra el calentamiento global por parte de Estados Unidos, en cabeza de su presidente (el adversario de Al Gore), los resultados obtenidos por los científicos y, la innegable evidencia del cambio climático, es el escenario ideal para la “revancha” del candidato perdedor. Se afirma entonces que los intereses del documental son de tipo político.

Pero es sólo el debate frente a la intencionalidad del documental. Por otra parte, existen científicos que no están de acuerdo con las conclusiones del IPCC, critican el informe por sustentarse en resultados “altamente probables”, estos científicos constantemente llamados “escépticos” en el documental, son contratados, según Al Gore, por las empresas petroleras o por el estado (Bush o empresas petroleras, que es lo mismo) para convertir en teoría lo que los hechos evidencian. Sin embargo, a pesar de las afirmaciones frente a esta maquinaria, supuestamente montada por las empresas petroleras, existen otras teorías que vale la pena conocer, al menos como una luz en el túnel apocalíptico presentado por Al Gore.

El calentamiento global podría estar ocasionado por los rayos cósmicos

Esta tesis es defendida por científicos del Centro Nacional Espacial de Dinamarca y es conocida como la cosmoclimatología. Se afirma que nuestras emisiones de dióxido de carbono a la atmósfera tienen un efecto mínimo en la transformación del clima terrestre en comparación con otro factor, mucho más radical pero natural: los rayos cósmicos procedentes de la explosión de estrellas y que llegan a la atmósfera de la Tierra con mayor o menor intensidad dependiendo del campo magnético del Sol. Mediciones de dos décadas vía satélite han demostrado que existe un vínculo directo entre la intensidad de dicha incidencia de rayos cósmicos y el clima terrestre. Otras investigaciones recientes refuerzan el descubrimiento danés, que ha suscitado cierta polémica en la comunidad científica. Unos de los científicos de gran trayectoria es Henrik Svensmark, el cual publicó ‘Cosmoclimatology: a new theory emerges’, en la revista Astronomy & Geophysics, el mes pasado.

Apoyando esta tesis, Space Science Reviews acaba de publicar otro artículo en el que catorce investigadores señalan a lo largo de 140 páginas la influencia de la astronomía, el Sol y los efectos cósmicos sobre la Tierra y el clima de nuestro planeta.


Finalmente, la European Organization for Nuclear Research, con sede en Ginebra, anunció el pasado octubre que el proyecto conocido como CLOUD (Cosmics Leaving OUtdoor Droplets) ha comenzado a reunir datos para determinar la influencia que podrían tener los rayos cósmicos sobre la formación de las nubes y el clima de la Tierra.

El efecto Iris

Richard Lindzen, del Instituto de Tecnología de Massachussets (MIT), duda que el cambio climático sea un problema, sostiene la tesis que él denomina del "efecto iris". Igual que el iris del ojo se cierra cuando se enfrenta a una luz brillante, en un mundo más cálido se produciría más vapor de agua que a su vez formaría más nubes, que son las que se encargan de bloquear la luz solar. Contrario al argumento de Al Gore, que dice que las nubes lo único que harían sería atrapar el calor.

Marte también se calienta y los marcianos no tienen autos

Otra tesis (defendida por las petroleras) afirma que el calentamiento que tenemos es natural, como ejemplo citan que en los años 40 hasta los 70 las temperaturas bajaron en el mundo, pero el C02 siguió subiendo. Esto muestra que el aumento del C02 –que es mínimo y beneficioso- no tiene mucho que ver con lo que está pasando. Con fundamento en los datos recogidos por las misiones de la NASA a Marte en 2005, en las que se descubrió que el dióxido de carbono en forma de “capas de hielo” cerca del polo sur de Marte se había reducido después de tres veranos consecutivos, una controvertida teoría considera que este calentamiento, producido de forma simultánea en la Tierra y en Marte, sugiere que los recientes cambios climáticos en nuestro planeta podrían no estar producidos por la acción del hombre. La causa del calentamiento global es desconocida

La causa del calentamiento global es desconocida

Otro grupo de científicos afirman que son apresuradas las afirmaciones de Al Gore y las del IPCC. Claude Allegre, geofísico francés, ex ministro de educación, profesor de las universidades de Yale, Carbridge, Cornell y de la Sorbona, expresa

"The increase in the CO2 content of the atmosphere is an observed fact and mankind is most certainly responsible. In the long term, this increase will without doubt become harmful, but its exact role in the climate is less clear. Various parameters appear more important than CO2. Consider the water cycle and formation of various types of clouds, and the complex effects of industrial or agricultural dust. Or fluctuations of the intensity of the solar radiation on annual and century scale, which seem better, correlated with heating effects than the variations of CO2 content".

En una entrevista reciente para el diario La Nación de Argentina, sostiene

“Es propaganda para Al Gore, que quiere ser presidente de los Estados Unidos, pero dice cosas que son completamente locas. Por ejemplo, que el nivel del mar va a ascender seis metros... En este momento, el mar asciende dos milímetros y medio por año. Quiere decir que aumenta 25 centímetros por siglo, no seis metros”.

El profesor David Deming de la Universidad de Oklahoma (autor de más de treinta artículos de investigación y un texto de hidrogeología), sostiene que es evidente el calentamiento global pero que su causa sigue siendo incierta: “In my opinion, it would be foolish to establish national energy policy on the basis of misinformation and irrational hysteria". (Testimonio al Comité ambiental del Senado Americano en diciembre de 2006). Es tildado de defender los intereses de las petroleras.

The great global warming swindle

The Ice is melting... The Sea is rising... Hurricanes are blowing... And It's
All
Your Fault... Scared? Don't beIt's Not True. Con estas frases, el pasado ocho de marzo, el canal 4 de la televisión inglesa, inicia el documental titulado El engaño del calentamiento global. Sin toda la parafernalia de Al Gore y con la participación de los llamados científicos escépticos, se presenta una versión que contrasta con la laureada Una verdad inconveniente.

Algunos de los argumentos expuestos son los siguientes:

La tierra tiene una larga historia de cambios climáticos. El calentamiento es un proceso natural.

La temperatura disminuyó inesperadamente en el “boom” económico de la posguerra, cuando las emisiones de CO2 crecieron dramáticamente.

Los datos satelitales no soportan el modelo de calentamiento global por gases invernadero.

La producción de CO2 antropogénica es minúscula comparada con la producida por la naturaleza (erupciones volcánicas, dióxido de carbono producido por los animales, bacterias, vegetación en descomposición).

Nueva evidencia muestra que la variación de la radiación solar está relacionada con el cambio climático.

Finalmente, presentan como argumento adicional, el fenómeno de los rayos cósmicos.

Éste es el bosquejo rápido del debate actual. Unos dicen que hay intereses políticos y económicos en el IPCC y en los ambientalistas que lo defienden; por su parte, el otro bando se defiende aduciendo que los científicos que soportan la tesis, son de primer orden, con artículos “peer reviewed”.

Lo verdaderamente valioso de este debate es su énfasis en el hecho de que todos somos actores en la problemática, por ello su divulgación en los medios masivos de comunicación. Lo que no podemos ignorar, independiente de las causas, es que algo está sucediendo en nuestro planeta. No necesitamos de una teoría para sentir el frío intenso del pasado invierno europeo o el calor asfixiante en nuestro Valle de Aburrá.

Sea o no el causante del calentamiento global, las emisiones de CO2 a nuestra atmósfera deben ser controladas, así sea para respirar un aire más puro mientras nos achicharramos.