Elementos de una Gobernanza del Riesgo
Segunda Edición
INTERACTIVO
Juan Guillermo Rivera Berrío
Institución Universitaria Pascual Bravo
Fondo Editorial Pascual Bravo
Medellín
Título de la obra:
Elementos de uan Gobernanza del Riesgo
Autores:
Juan Guillermo Rivera Berrío
2ª edición – 2019
Diseño del libro: Juan Guillermo Rivera Berrío
Código JavaScript para el libro: Joel Espinosa Longi, IMATE, UNAM.
Recursos interactivos: DescartesJS
Fuentes: Lato y UbuntuMono
Fondo Editorial Pascual Bravo
Calle 73 73A-226
PBX: (574) 4480520
Apartado 6564
Medellín, Colombia
www.pascualbravo.edu.co
ISBN: 978-958-56476-5-7
Este libro digital interactivo se ha diseñado utilizando el editor de DescartesJS, de tal forma que se pueda leer en ordenadores y dispositivos móviles sin necesidad de instalar ningún programa o plugin.
El contenido del libro se basa en el curso de "Elementos de una Gobernanza del Riesgo", asignatura de la Maestría CTS+i del Instituto Tecnológico Metropolitano. El libro ha sido desarrollado para cumplir con el alcance y la competecnia de esta asignatura.
Los estudios sobre el riesgo se han centrado, en su mayoría, en tres preocupaciones fundamentales: i) ¿cómo gestionar el riesgo?, ii) ¿cómo se percibe el riesgo?, y iii) ¿cómo comunicar el riesgo? La primera preocupación es propia de administradores (privados y públicos), técnicos y hacedores de políticas públicas. Los diferentes modelos de gestión (incluidos los de gobernanza) son procesos que tienen actividades en común como la identificación (causas y efectos) y la evaluación.
La diferencia se establece en la formulación de acciones y estrategias, en tanto que son dependientes del tipo de riesgo que se pretende gestionar. Otro grupo de investigadores ha dedicado su atención al segundo interrogante que, independiente del tipo de riesgo, genera diferentes puntos de vista y modelos que tratan de explicar por qué unos riesgos se perciben menos que otros y, en otros casos, por qué la percepción del experto es diferente a la del público lego. La literatura, incluida la de tipo filosófico, relacionada a este segundo interrogante, se ha centrado en el análisis y discusión del paradigma psicométrico (Slovic, et al., 1981), de la teoría cultural (Douglas & Wildavsky, 1982) y de la Sociedad del Riesgo (Beck, 1986).
Un elemento común, entre los estudios técnicos y sociales, es la comunicación del riesgo; mientras que para los modelos de gestión se constituye en una estrategia, para los estudios sociales es un factor que incide en los niveles de percepción o, si se prefiere, la percepción es un indicador de la efectividad de la comunicación (Armas & Avram, 2007, p.148). Este elemento común, a su vez, es garante de la constitución de modelos de gobernanza. En un nuevo modelo de gobierno en asuntos de evaluación, control y gestión de riesgos se hace imperativo, para conciliar intereses y preferencias de las diferentes agencias, una comunicación efectiva y situacional.
Un programa de posgrado en estudios de CTS debe procurar el análisis de las interrelaciones entre fenómenos tan complejos como la comunicación, la representación y la percepción, haciendo énfasis en aquellos aspectos que pueden contribuir a la construcción de representaciones y comunicaciones efectivas del riesgo. Fenómenos como la percepción, la representación y la comunicación interactúan permanentemente para construir de manera colectiva o individual un concepto acerca de un fenómeno del mundo, el riesgo.
Los demás capítulos presentan discusiones en torno a riesgos globales que demandan una gobernanza, en tanto que se han escapado al control de los gobiernos y requieren de la participación de los llamado stakeholders. Riesgos de origen nuclear, transgénicos, nanoproductos, Cambio climático, Internet, entre otros, hacen parte de la discusión
Los nuevos desafíos que se presentan con la implementación de las nuevas tecnologías ha generado un nuevo lenguaje como respuesta lógica a los cambios inducidos en nuestro mundo (Hajer & Wagenaar, 2003, p.4). Un término de moda es la gobernanza, que parece ser el sustituto de la noción de gobierno, en tanto que las capacidades de control y gestión de una nueva sociedad en red está erosionada en parte por la desconfianza creciente hacia las políticas públicas y a las decisiones a veces erradas en torno a la implementación de las nuevas tecnologías, o bien porque se han superado los límites estatales donde se es posible intervenir. Las incertidumbres científicas y el surgimiento de efectos no deseados han aumentado el clima de tensión entre las diferentes agencias (ciencia, gobierno, empresas y sociedad civil) afectadas por las decisiones tomadas en asuntos de ciencia y tecnología. Un nuevo modelo de gobierno en asuntos de evaluación, control y gestión de riesgos se hace imperativo para conciliar intereses y preferencias de estas agenciasTradicionalmente en los estados democráticos la participación del pueblo, en la toma de decisiones, se realiza a través de sus representantes; es decir, se trata de una “democracia representativa”. La participación de los ciudadanos se limita a elegir a sus representantes. El nuevo modelo que se impone es aquel que cuenta con mecanismos ciudadanos para participar en el análisis, deliberación y formulación de políticas públicas, así como en la toma de decisiones democráticas para gestionar y controlar el riesgo..
La conciliación agruparía los intereses y objetivos científicos, políticos, económicos y el de la sociedad civil en general, en la búsqueda de un objetivo común: el control y la gestión democrática de los riesgos.
Este nuevo modelo presupone la existencia de algunas condiciones como la voluntad política al cambio, una ciudadanía más informada en el tema de riesgos (Short & Rosa, 2004) y alguna metodología que permita la interacción de grupos heterógeneos.
Los riesgos como constructos mentalesEl concepto de riesgo como construcción mental, según Renn, es una combinación entre lo que se observa y experimenta, permitiendo crear diferentes escenarios de acuerdo a dicha experiencia:
They are not real phenomena but originate in the human mind. Actors, however, creatively arrange and reassemble signals that they get from the ‘real world’ providing structure and guidance to an ongoing process of reality enactment. So risks represent what people observe in reality and what they experience. The link between risk as a mental concept and reality is forged through the experience of actual harm (the consequence of risk) in the sense that human lives are lost, health impacts can be observed, and the environment is damaged or buildings collapse. The invention of risk as a mental construct is contingent on the belief that human action can prevent harm in advance. Humans have the ability to design different futures, i.e. construct scenarios that serve as tools for the human mind to anticipate consequences in advance and change, within constraints of nature and culture, the course of actions accordingly (Renn, 2005, p.23). o sociales presentan niveles de complejidad que hacen difícil su gestión. Es cada vez más evidente la ausencia de la certeza en las evaluaciones (objetivas) de los expertos (cambio climático, vacas locas, Three Mile Island, son algunos ejemplos); es decir, cada vez hay más incertidumbre y desconcierto con los impactos no esperados o no deseados. El nuevo modelo obliga a todas las agencias a sacrificar, en parte, sus intereses y preferencias a través de mecanismos de conciliación que permitan hallar soluciones efectivas a problemas comunes . El advenimiento de nuevos riesgos de carácter global obliga a comprender el fenómeno del riesgo en todos sus contextos: el científico o experto debe acercarse al contexto social, cultural y económico en el que se crea y desarrolla el riesgo y las otras agencias (no expertas) requieren de una mayor información sobre el riesgo para poder participar y emitir juicios dentro de un marco conceptual común.
El riesgo evaluado por los científicos o expertos se suele denominar “riesgo objetivo”.
Bajo este concepto, el riesgo es una función de probabilidad que vincula las causas con los efectos positivos o negativos del fenómeno llamado riesgo, relacionado más estrechamente con sucesos mensurables en los cuales las probabilidades juegan un papel importante para el análisis y toma de decisiones.
El análisis de riesgos por los expertos sigue normalmente dos fases: evaluación del riesgo (risk assessment) y gestión del riesgo (risk management); en la fase de evaluación se caracterizan los riesgos , se estiman o valoran y finalmente se evalúanLa estimación del riesgo está referida a la “posibilidad” de ocurrencia de efectos adversos en un sistema, en el cual se identifica el riesgo. Esta estimación, en modelos de identificación y evaluación de riesgos como el AS/NZS (Council of Standards Australia, 1999) de Australia y Nueva Zelanda, se calcula como una “probabilidad” que expresa los niveles de severidad de los efectos adversos, en gradaciones de baja a alta. Igualmente, se estiman (valoran) los controles existentes para determinar, finalmente, el nivel de exposición al riesgo. Por otra parte, en la evaluación del riesgo se establecen prioridades (análisis costo beneficio), frente a las cuales se toman de decisiones de aceptabilidad, es decir: “riesgo aceptable” o “riesgo inaceptable”. Por mor a la claridad, bajo el esquema caracterización → estimación (análisis) → evaluación → gestión, discutiremos este apartado.. La discusión actual en torno a la estimación y la valoración de los riesgos es su validación entre los mismos expertos a través de modelos que permiten un mayor consenso científico ; pero, en cuanto a la evaluación, la no participación de las otras agencias ha generado intensos debates en tanto que en esta etapa de análisis es en la que se toman las decisiones.
Es en la evaluación de los riesgos donde se toma la decisión de aceptarlo o rechazarlo. Aceptar el riesgo es aceptar un nuevo desarrollo tecnológico, es aceptar la implementación de una política con los impactos o consecuencias que ello conlleva, es aceptar el daño mínimo justificado en el bienestar general, es la subjetividad del riesgo objetivo: “Puesto que las decisiones tecnológicas, así como la identificación, estimación, valoración y gestión del riesgo no son asépticas ni están libres de intereses, las conclusiones de una evaluación muy difícilmente serán unánimemente aceptadas” (Olivé, 2004, p.305). La blindada neutralidad científica se erosiona, mientras que las llamadas evaluaciones objetivas del riesgo son ahora cuestionadas por los grupos de no expertos, por su incompatibilidad con las creencias del público.
Los científicos sociales, por su parte, ven en estas evaluaciones la posibilidad de suposiciones idóneas e inciertas, pues existen razones para creer en el juicio subjetivo de los expertos, igual que en el de los no expertos, no se escapan las normas, los valores sociales o culturales, ni a las creencias e intereses de todo tipo, como señala Sjöberg:
Experts make risk judgments on the basis of factors and thought structures that are similar to those of the public, but their level of perceived risk will be drastically lower than that of the public […] there is a dramatic gap between experts’ and managers’ risk perceptions and those of the public and many politicians, this is clearly a conflict that needs to be resolved (Sjöberg, 2004, p.48).
No se puede negar que el estudio del riesgo realizado por los expertos se fundamenta en las más sofisticadas herramientas de la estadística y las matemáticas y en el análisis científico de las diferentes variables asociadas al riesgo en estudio.
Las evaluaciones, en principio, son sometidas a discusión hasta lograr un consenso dentro de una comunidad de científicos o expertos:
The conventional approach to science advising is to search for consensus so far as this is at all possible. Scientific expert committees have a strong tendency to opt for compromises whenever possible. Even if the initial differences of opinion are substantial, discussions are continued until consensus has been reached. It is extremely unusual for minority opinions to be published (Hansson, 2001, p.11).
Pero estas evaluaciones no pueden seguir relegadas a la subjetividad de los expertos. Tanto en las evaluaciones, como en las decisiones bajo riesgo, en el contexto de un modelo de gobernanza del riesgo, todos los grupos de interés (stakeholder), así como los afectados o posibles afectados por las decisiones, deben tener la oportunidad de debatir o deliberar. Esta intervención no es extensiva a todo tipo de riesgos.
No se trata de coadministrar en asuntos de riesgos administrativos o financieros propios de una empresa o una corporación, aquí los riesgos son locales y su gestión es corporativa. Tampoco se trata de intervenir en los sistemas de administración de riesgos cuya especificidad ha evidenciado que las decisiones demandan un conocimiento científico igualmente específico (virus informáticos, transbordadores espaciales, etcétera). La participación en la toma de decisiones referidas a riesgos, en especial su evaluación (aceptabilidad o no aceptabilidad), así como en las acciones de mitigación o prevención, es inherente a todos los afectados por el riesgo (verbigracia, el cambio climático). Igualmente, riesgos con tendencia a la incertidumbre están en el ámbito de un modelo de gobernanza del riesgo (los asociados a los transgénicos, a las nanotecnologías, o los que generan una intervención militar en otro país, entre otros).
El contexto ecológico, cultural, económico y social, también demanda una participación en decisiones que pueden afectar a una comunidad en particular o a la sociedad en general (riesgos asociados a la implementación de las células madre o la clonación, para citar algunos ejemplos); demanda que se justifica en la afectación surtida por la decisión y a la subjetividad científica antes discutida. No obstante, no se debe confundir decisiones bajo riesgo, con decisiones bajo incertidumbre. Esta confusión está presente en muchas de las críticas a los expertos, especialmente en los llamados riesgos de la posmodernidad, o los riesgos globales de Beck, en su Sociedad del Riesgo.Algunas de las críticas más relevantes a las evaluaciones de los expertos, en realidad no versan sobre el riesgo. Son evaluaciones de la incertidumbre. Es importante destacar que críticas como las de Shrader-Frechette sobre las equivocaciones evidenciadas en las estimaciones de los expertos, no eran estimaciones equivocadas sobre el riesgo, sino sobre la incertidumbre (Shrader-Frechette, 1995, pp.117-122; Shrader-Frechette, 1991, pp.53-55; Short & Rosa, 2004, págs. 135-149). Algunos estudios sobre la evaluación del riesgo, especialmente en la salud, incluyen la incertidumbre como parámetro para tener en cuenta, elaborando modelos estocásticos e incluso de lógica difusa, ver por ejemplo (Kentel & Aral, 2004).
Actuar con precaución es actuar con cautela para evitar posibles inconvenientes, dificultades o daños; es decir, cuando no hay suficientes razones para creer que un curso de acción está libre de riesgos. Cuando las evaluaciones científicas se topan con la incertidumbre, el concurso de las agencias no expertas para la toma de decisiones se hace más complejo, dado que una de las características de la deliberación es el conocimiento sobre lo que se discute. Decisiones bajo incertidumbre son arriesgadas, incluso para los mismos expertos; aquí la gobernanza es riesgo.
Un modelo racional es el denominado principio de precaución al que se acude cuando no se conocen los posibles impactos que genera la toma de decisiones de carácter técnico o científico; es decir, cuando los datos científicos o tecnológicos no permiten una evaluación del riesgo. Gracias a este principio es posible, por ejemplo, regular la distribución y uso de tecnologías cuyos efectos en la salud o el medio ambiente son inciertos. Renn (2005, p.46), en el contexto de la gobernanza del riesgo, expresa que “…the management of risks characterized by multiple and high uncertainties should be guided by the precautionary approach”. Una mirada ética, ontológica, democrática y lógica en situaciones bajo incertidumbre (Shrader-Frechette, 1995) hace más compleja la participación públicaAcerca de la incertidumbre, ya habíamos advertido la descripción de Elster (1990), que permite comprender el porqué se hace más compleja la toma de decisiones democráticas, en tanto que, bajo incertidumbre, el agente o conjunto de agentes no pueden asignar probabilidades numéricas a la ocurrencia de un suceso, ni especificar los posibles estados del mundo. Tomar decisiones bajo incertidumbre, es tomar decisiones desde la ignorancia. Existe una vasta literatura acerca de las decisiones bajo riesgo, ambigüedad e incertidumbre, en la cual se hace presente la discusión frente a la distinción entre riesgo e incertidumbre; ver entre otros a Ahmed & Skogh (2006) y los modelos de simulación de escenarios bajo incertidumbre en Linkov & Burmistov (2005)..
A los errores fruto de la toma de decisiones bajo incertidumbre se suman una serie de interrogantes que cuestionan la otrora aceptada neutralidad científica, como fiel reflejo de la desconfianza hacia la empresa científica:
¿Hasta dónde los científicos están dispuestos o se les ha permitido comunicar o divulgar los resultados de sus investigaciones? ¿Es posible que resultados adversos a los intereses económicos de quienes financian la investigación se pongan en discusión pública? ¿Los intereses políticos y económicos están por encima de la ética científica y, por consiguiente, del bien común? Si estos supuestos se dieran por superados, ¿estarían los científicos dispuestos a confiar en la “racionalidad del público” para una acertada toma de decisiones?
La desconfianza de los expertos en la racionalidad del público se acentúa cuando el uso del principio de precaución (sin argumentos sólidos) detiene el desarrollo de las innovaciones tecnológicas (Renn, 2005, p.52). Los algoritmos o modelos racionales que utilizan los no expertos en la evaluación del riesgo no son aceptados ni validados por los expertos . La presencia de prejuicios y supersticiones, intereses y preferencias, el déficit cognitivo, los valores religiosos y culturales, y las emociones, se entremezclan afectando seriamente, según el punto de vista de los expertos, la racionalidad en la evaluación y posterior toma de decisiones. Sin embargo, estos factores, en mayor o menor grado, también afectan a los científicos, pero parecen ignorarloEl caso de las células madre es un ejemplo de la incidencia que puedan tener las creencias religiosas en el momento de tomar una decisión de tipo científico. La creencia o no del alma presente en un embrión, no sólo afecta al público lego o a sus representantes religiosos. ¿Un embrión es un ser humano? es una pregunta que para un científico religioso carece de sentido: el ser humano debe ser respetado y tratado como persona desde el mismo momento de la concepción. En contraste, para otros científicos, la experimentación con células madre no presenta ningún tipo de problema moral, no poseen ningún tipo de neurona, no tiene cerebro y por tanto no son poseedoras de conciencia, espíritu, alma o algo parecido.. En los científicos las creencias religiosas, prejuicios, valores culturales y emociones afectan en algo su evaluación final sobre un riesgo específico . Obviamente, la objetividad científica en una decisión racional tiene un fundamento de más peso en la información que se tiene sobre el tema tratado o analizado por los expertos o científicos, en tanto que,
an action is rational if it satisfies three optimality conditions […] First, the action has to be the best means of realizing the agent's desires, given his beliefs about ends-means relationships and other factual matters.
Secondly, these beliefs themselves have to be optimal, given the information available to the agent. The process of belief formation, that is, must not be distorted by 'cold' mistakes in information processing or 'hot' mistakes caused by motivational biases […]
Thirdly the amount of information, or more accurately the amount of resources spent on acquiring information, must itself be optimal, given the agent's prior beliefs about the costs and benefits of information-acquisition and the importance of the decision to him (Elster, 1996, pp.1392-1393).
Es decir, la información es el factor clave en la toma de decisiones. Esta información debe ser óptima, de fuentes confiables, que en el contexto de una gobernanza del riesgo se suministre desde la misma comunidad científica. No obstante, la desconfianza en la racionalidad del lego, en concordancia con la segunda condición de Elster, crece cuando la información óptima se mezcla con informaciones previas suministradas por los medios de comunicación. Esta influencia de los medios en la percepción del riesgo es, a menudo, negativa:
there is a widespread belief amongst sections of the risk community and some experts in government agencies, departments and industry that the media are important sources of risk perceptions […] the media are nearly always perceived as negative influences in this regard, allegedly prone to dramatization, distortion, sensationalism, misrepresentation, attention seeking and error – in general ‘blowing risks out of proportion’ and being anti-science and technology (Petts, et al., 2001, pp.2-3).
En ese sentido, los debates públicos (entre no expertos) siguen procedimientos que son lejanos a los procedimientos científicos, aflorando la doxa sin los suficientes argumentos de base científica. Estos procedimientos de análisis se fundamentan en información de diversas fuentes: Internet, prensa y, a veces, desde la ciencia misma . En estos debates, entonces, es común hablar con propiedad de temas para los cuales no hay una sólida formación o, al menos, una mínima culturización, generando, a su vez, mayor desconfianza en los expertos al no encontrar un par para el debate.
Despreciar riesgos por estar debajo de los umbrales de aceptabilidad del riesgo, es una práctica que ha sido delegada a los expertos. Estas decisiones donde los afectados e interesados no han participado son responsabilidad de los expertos que tiene, como efectos colaterales, resultados no contemplados por la ausencia o la débil presencia de valores morales y éticos en las evaluaciones realizadas, que afectan en última instancia a todos los involucrados en el complejo fenómeno del riesgoLos umbrales mínimos se conocen también como el método “De Mínimis” para la toma de decisiones bajo riesgo, generalmente fijado en un nivel que causaría menos de un incremento 10-6 en la probabilidad promedio anual de una fatalidad para una persona. Léase, para mayor ampliación a Shrader-Frechette (1991, p.71) y a Olivé (2004)., generando también desconfianza hacia este tipo de decisiones. Generalmente los umbrales definidos se basan en pérdidas humanas (decesos), dejando a un lado otros efectos como personas lesionadas de por vida, física o mentalmente, así como la pérdida de patrimonios o del entorno social y cultural.
La desconfianza del público se fortalece mientras que a las evaluaciones no democráticas del riesgo, por parte de los expertos, se suma la influencia de intereses políticos o económicos. El caso más conocido de este tipo de influencias se evidencia en las estimaciones de riesgo nuclear presentadas en el informe de Norman Rasmussen (ver apartado 1.1.4.7). Los resultados obtenidos por Rasmussen contradicen los hechos ocurridos en Three Mile Island (cinco años después) y Chernóbil (12 años más tarde). El creciente temor del público hacia la energía nuclear y su consecuente rechazo a la distribución y uso de este tipo de tecnología parecía que podría disiparse con un informe como el de Rasmussen; pero el temor renace desde los accidentes presentados, ¿por qué se equivocó el experto? Otro ejemplo es la influencia política en la evaluación del riesgo como el asociado a la presencia de armas de destrucción masiva en Irak; las evaluaciones posteriores a los miles de muertos demostraron lo contrario.
En todo este contexto, la desconfianza crece en los dos sentidos, del experto al no experto y viceversa, situación que no facilita los debates, los hace estériles, en tanto que las decisiones estarán lejanas de un consenso democrático.
Toda experiencia individual, incluida la de los expertos, es subjetiva. Según el relativismo cultural, el riesgo depende del agente perceptor y nada puede ser medido más allá de esa percepción; es decir, rechazan cualquier idea de riesgo objetivo. Los realistas, por su parte, afirman que el riesgo existe independiente de si es percibido o no. Al margen de este debate, los hallazgos en los estudios de percepción del riesgo evidencian la tendencia del lego a subestimar las probabilidades. Para el lego es más relevante la prominencia del desastre que la baja probabilidad en un riesgo, contrario a la débil imagen de los efectos de un riesgo de alta probabilidad de ocurrencia, como la muerte por fumar tabaco (Slovic 1987, 2000). En general, el experto presta más atención a las probabilidades y el lego a las consecuencias (Sjöberg, 1999). He ahí la irracionalidad del riesgo subjetivo proclamado por los expertos. Lo cierto es que el lego percibe muchos riesgos sin necesidad de recurrir al análisis matemático o probabilista. Es un riesgo cruzar las vías de alto tráfico, el nadar en un río turbulento, el contacto con personas infectadas con un virus, el transitar por una calle desconocida a altas horas de la noche y en una ciudad con marcados índices de violencia, el navegar en Internet sin una protección contra virus… Pero, la percepción de estos riesgos parece no ser suficientemente efectiva; igual son muchos los muertos y heridos en accidentes automovilísticos, siempre existirán los ahogados, los infectados y los atacados en una calle a altas horas de la noche:
The subjective assessment of probability resembles the subjective assessments of physical quantities such as distance or size. These judgments are all based on data of limited validity, which are processed according to heuristic rules (Kahneman, 2002, p.465).
Estas reglas heurísticas basadas en datos de validez limitada, como enuncia Kahneman, son las que han permitido la supervivencia del lego en la sociedad del riesgo.
El bajo nivel de conocimiento que tiene el lego sobre ciertos estados del mundo, lo obliga a recurrir a estas reglas. Sus decisiones son bajo incertidumbre no bajo riesgo, siguen patrones no formales en los que no incluyen las llamadas probabilidades objetivas. Describen posibles estados del mundo e incluyen lo que Kahneman ha llamado “probabilidades subjetivas” Según Kahneman & Tversky, los juicios intuitivos no son más simples que los modelos racionales. Los juicios intuitivos bajo incertidumbre se basan en la accesibilidad, representatividad y en el anclaje heurístico que constituyen las probabilidades subjetivas o el estimativo (no calculado) de la probabilidad de un evento. Para mayor información sobre los prejuicios en la toma de decisiones bajo incertidumbre, ver (Gilovich, et al., 2002).. Sin embargo, tanto el experto como el lego hacen uso de estas probabilidades subjetivas, al evaluar eventos inciertos como el resultado de unas elecciones, el de un partido de fútbol o la propagación de un virus como el de la gripe porcina en México en 2009. La no participación de la sociedad civil en la evaluación y gestión del riesgo ha generado una especie de modelo protestatario, que acompaña el fin del viejo contrato social. Desde los años 60 del siglo pasado, el viejo contrato social para la ciencia empieza a caducar (Luján & López Cerezo, 2004, p.83), el modelo lineal de innovación y la confianza plena en las decisiones de la empresa científica es cuestionado. Los debates en torno a los impactos fruto de las decisiones unilaterlaes propician el surgimiento de entidades oficiales y no oficiales como un modelo incipiente de regulación del riesgo.
Este modelo fundamentado en la opinión pública y apoyado por los movimientos de protesta hacia las decisiones en ciencia y tecnología hace más notoria la dicotomía riesgo objetivo – riesgo subjetivo.
Sean reglas heurísticas o simples atajos cognitivos, la brecha entre expertos y legos parece estar relegada a la cantidad de información que uno y otro maneja. Las decisiones del lego y su método de estimación de los riesgos comunes presentes en su vida cotidiana no se pueden solapar a riesgos más complejos, puesto que carecen de la información pública suficiente o cuyos mecanismos de divulgación han sido débiles. La información que se debe comunicar al público, relacionada con el riesgo objetivo en términos cuantitativos, es un proceso considerado crítico por los expertos.
Las bases estadísticas chocan con los factores subjetivos del legoFactores como el miedo a los posibles efectos catastróficos, el control individual sobre el riesgo, el tiempo y el espacio de materialización del riesgo han sido ampliamente investigados por los psicólogos en el contexto del paradigma psicométrico (Slovic, et al., 1981; Renn & Rohrmann, 2000).. La toma de decisiones sobre la aceptabilidad de riesgos y la consecuente formulación de estrategias que permitan su gestión, en el contexto de un modelo de gobernanza, demanda la participación de todas las agencias, demanda una participación pública para que tanto las decisiones y responsabilidades sean democráticas. En riesgos globales o democráticos, en términos de Beck, las decisiones, las políticas, las culpas y las consecuencias son democráticas. Pero, ¿cómo lograr una efectiva participación pública en asuntos de riesgo?
Al principio podríamos adherirnos a una participación de tipo consultiva a través de cuestionarios, referendos o encuestas de opinión; sin embargo, el papel de los afectados o interesados seguiría siendo pasivo, y el cuestionamiento de los expertos a la subjetividad de estos mecanismos sería más activo.
Rowe & Frewer describen posibles vías y niveles que permiten introducirnos en nuestra propuesta de un modelo de gobernanza del riesgo:
A general definition of public participation with which few would argue is the practice of involving members of the public in the agenda-setting, decision-making, and policy-forming activities of organizations/ institutions responsible for policy development […] This definition of participation is, however, arguably too broad, leaving room for variable interpretation, because the public may be involved (in policy formation, etc.) in a number of different ways or at a number of levels—as has been noted by others […] in some cases, the public may “participate” by being the passive recipients of information from the regulators or governing bodies concerned; in other cases, public input may be sought, as in the solicitation of public opinion through questionnaires; and in still other cases, there may be active participation of public representatives in the decision-making process itself, such as through lay representation on an advisory committee (Rowe & Frewer, 2005, p.253).
Según este modelo, la participación del público puede hacerse a través de diferentes mecanismos como consultas populares, audiencias públicas, foros organizados, cuestionarios, referendos, entre otros mecanismos que son válidos sólo si el público es culturizado sobre el riesgo objetivo, de lo contrario tendrá que recurrir a las reglas heurísticas. Pero esta culturización debe ser en contexto; es decir, no debe ser únicamente desde la mirada “objetiva” del experto:
Conflict resolution and risk communication programs are likely to be rejected by the general public as long as the teaching and communicating processes are not conducted in parallel. While public perception and common sense cannot replace science and policy, they can certainly provide impetus for the decision-making process. At the same time, if decision-makers take into account the factors and needs of public perception, then public willingness to accept rational models for decision-making are likely to increase” (Renn, 2004, pp.412-413).
No se trata de volver experto al lego; lo que se busca es recuperar la confianza del público en los métodos objetivos de evaluación del riesgo y en la empresa científica. Igualmente, los expertos requieren de una formación sobre los factores sociales, económicos, culturales y políticos que inciden en la percepción del riesgo, para formular estrategias de comunicación del riesgo efectivas y situacionales . El modelo de gobernanza que proponemos va más allá de un modelo de democracia participativa pasiva o de un modelo de democracia deliberativa sin acción democrática. La toma de decisiones sobre riesgos “globales” o riesgos comunes que afectan a una comunidad en particular no puede ser ajena a los intereses del público en general o a las evaluaciones objetivas de los expertos; tanto expertos como no expertos tienen algo en común, viven en riesgo: por tanto, la gestión (acción) sobre estos riesgos debe ser democrática y la responsabilidad compartida. En los siguientes apartados profundizaremos en algunos modelos de gobernanza del riesgo, en especial el modelo analítico-deliberativo y nuestra propuesta de un modelo de gobernanza que trasciende a la gestión del riesgo, es decir, no se estanca en la toma de decisiones.
El término gobernanza es reciente y tiende a confundirse con alguna nueva estrategia para el control del estado o con el término gobernabilidad (Hirst, 2000, p.13)No es clara la distinción entre gobernabilidad, gobernanza y gobierno (Adinolfi, 2007, pág. 165). El término gobernabilidad, algunas veces, se asocia al término inglés government, igual traducción presenta el término governance. Parece ser que la distinción se encuentra en el origen del concepto. El concepto de gobernanza se origina en la economía, por ejemplo, para el Banco Mundial existe una relación en el crecimiento económico (ingresos per cápita) y la gobernanza. Los indicadores de gobernanza para este organismo tienen en cuenta: el control de la corrupción, la rendición de cuentas, ausencia de violencia, efectividad gubernamental, calidad regulatoria y el estado de derecho. Algunas de las publicaciones del Banco Mundial relativos a la gobernanza se pueden consultar en: www.worldbank.org/wbi/governance/ entre las que se destacan: Governance Matters V: Governance Indicators for 1996–2005 (2006), A decade of measuring the quality of governance (2006) y Governance Indicators: Where Are We, Where Should We Be Going? (2008). En este último se reitera: “Most scholars, policymakers, aid donors, and aid recipients recognize that good governance is a fundamental ingredient of sustained economic development”. La gobernanza en este contexto económico se confunde en gran parte con la “gestión del sector público” (Prats Catalá, 2004, p.80) o como un nuevo modelo de gobierno del sector público en el cual se destaca la introducción de prácticas comerciales y nuevos estilos de gestión. Al respecto Hirst (2000, p.18) expresa: “a new model of public services distinct from that of public administration under hierarchical control and directly answerable to elected officials”. Finalmente, de la literatura en español encontramos traducciones del término governance como gobernabilidad; por ejemplo, el informe sobre indicadores de gobernanza del Banco Mundial, “Aggregate and Individual Governance Indicators, 1996-2007”, aparece en la página en español como “indicadores de gobernabilidad”; por otra parte, la expresión “risks governance” se traduce como “gobernar los riesgos” en De Marchi & Funtowicz (2004). Dada la confusión, profundizaremos un poco en el término “gobernanza” de cara a precisar el contexto en el cual proponemos un modelo de gobernanza del riesgo.. En la formulación de políticas públicas en general, y de gestión del riesgo en particular, existen varios modelos que describen la relación entre las agencias involucradas (Khademian & Feldman, 2007; Hirst, 2000; Rhodes, 1997).
Cada uno de estos modelos podríamos inscribirlos en un concepto de gobernabilidad o de gobernanza según el rol que desempeña cada una de las agencias en el análisis, evaluación y gestión de riesgos y, especialmente, según el tipo de riesgo.Hannot Rodríguez (2007, p.198) precisa que un modelo de gobernanza debe prestar más atención al predicado, más allá del aspecto sustantivo del concepto. En ello coincidimos, en tanto que una gobernanza del riesgo no puede ser general sino específica: una gobernanza de la Internet, una gobernanza de los transgénicos o una gobernanza del cambio climático no pueden suscribirse al mismo colectivo que analiza, evalúa y toma de decisiones; éste se elige por afinidad al riesgo en discusión, sea por el conocimiento experto, por las partes interesadas, o por el grupo afectado
Sin entrar a discutir la distinción gobernabilidad – gobernanza, en principio, podríamos establecer cuatro tipos de modelos que describen la forma como participan las agencias en la toma de decisiones en asuntos de riesgo. Un primer modelo está centrado en el poder del estado (una sola agencia decide), típico en países con gobiernos autoritarios, el cual no es de interés para nuestros propósitos.
Un segundo modelo, el más común, es aquel que tiene en cuenta a los expertos como asesores para la toma de decisiones y en el que el papel de las otras agencias está inscrito en una democracia pasiva o también llamada “representativa”. Este modelo, así haya o no una cultura de democracia participativa y deliberativa es muy utilizado en presencia de riesgos inminentes. La gripe porcina, en el año 2009, obligó a la toma de decisiones desde dos agencias: el gobierno y la comunidad científica. Las demás agencias se someten, casi sin protestar, a las decisiones tomadas: cierre de escuelas, restaurantes y lugares de esparcimiento, uso de mascarillas, hábitos de higiene, uso de antivirales (revive el tamiflu, se rescata de la crisis financiera a las compañías farmacéuticas) y otras medidas que obedecemos como si la confianza en estas dos agencias nunca se hubiese perdido o menoscabado. ¿Cuál es la explicación a este fenómeno?
El miedo supera los otros factores en la percepción del riesgo. Confiamos en las decisiones científicas y gubernamentales, nos alimentamos de la información en los desacreditados medios de comunicación; tanto la opinión como el informe científico son fuentes consultadas en la búsqueda de la respuesta a la pregunta ¿qué debemos hacer? Se evidencia una fuerte relación percepción del riesgo – miedo a la amenaza.
Un tercer modelo, ideal en los estados democráticos stricto sensu, es el que tiene en cuenta a todos los involucradosLa democracia ideal (utópica en nuestro tiempo) es la democracia clásica (griega), caracterizada como una forma de gobierno en la que la participación de todos los miembros de la comunidad se hace en condiciones de igualdad para la toma de decisiones. En esta democracia existe confianza y las decisiones si no se obtienen por unanimidad, son una salida aceptable para la mayoría (Elster, 1986, p.112). La democracia participativa busca recuperar esos orígenes; sin embargo, sin unos mecanismos adecuados de participación, al final los concurrentes son representantes en tanto las decisiones sean de grupos minoritarios.: tanto los afectados como los diferentes grupos de interés (stakeholders).La National Research Council (2007, p.3) define el término stakeholders como todas las partes interesadas y afectadas. En virtud de este apartado, haremos distinción entre grupos interesados (stakeholders) y grupos afectados (o posibles afectados), en tanto que los últimos pueden estar o no interesados en la evaluación y la gestión de riesgos. Este último es denominado por Khademian & Feldman como un modelo de participación pública que
has its roots in the planning discipline and efforts to include people directly impacted by planning practices, as well as in efforts to democratize the development and implementation of public policies. In this model, the primary role of the public manager is engaging the public impacted by public policy by creating opportunities for participation as well as providing information and facilitating public deliberation and decision making. Public participation in this model is privileged as a means to enhance the quality of the policy process and the eventual policy impact as well as a means to enhance the participatory capacities of members of the public (Khademian & Feldman, 2007, p.308).
En el contexto de este modelo de participación pública enmarcamos nuestro concepto de gobernanza del riesgo. No obstante, un cuarto modelo podría ampliar esta participación a la acción. Es decir, no es suficiente con la participación en la formulación de las políticas que permitan la gestión de los riesgos, esta participación se debe extender a la gestión de los mismos. Descartamos los dos primeros modelos para nuestro análisis, así éstos sean posibles en el contexto económico, en presencia de riesgo inminente, o como una característica propia del nuevo orden mundial.
Por ejemplo, para el Banco Mundial que entiende la gobernanza como “… the manner in which power is exercised in the management of a country’s economic and social resources for development”, no importa si el modelo es autoritario o de poca participación pública.Un indicador en esta gobernanza económica que permite, aparentemente, la participación pública es el de “rendición de cuentas”; sin embargo, en Estados democráticos y corruptos, dueños además de las fuentes de información o de los datos resultados de la gestión, la rendición de cuentas no responde a la realidad. Los datos son alterados o maquillados para que el gobierno de turno no pierda su credibilidad. En Colombia se presentaron las renuncias de dos directores del Departamento Administrativo Nacional de Estadística (DANE), al no permitírseles revelar cifras indicativas que iban en contradicción con las afirmaciones del gobierno, en especial las referidas al desempleo y a la inflación.
Además de los modelos de gobernanza en el contexto económico, existen otras versiones de gobernanza enfocadas a la forma como participan las diferentes agencias.
La gobernanza mundial centrada en el campo de las instituciones internacionales en las que se tratan problemas que no pueden ser controlados localmente; el cambio climático, la regulación del comercio internacional y la actual crisis económica (2009) son ejemplos de ello.
Otra, sobre la cual urgen regulaciones a nivel internacional, es la gobernanza de Internet que procura regular su uso sin control, que ha traído como consecuencia el surgimiento de los nuevos riesgos de la red (virus, troyanos, spyware, correos spam, pishing, pornografía infantil, ciber terrorismo, etcétera).La gobernanza de Internet, a su vez, presenta dos versiones: la gobernanza fruto de la necesidad de regulación tecnológica (dominios especialmente) y la gobernanza social de la Internet como necesidad de dar respuesta a riesgos asociados a la xenofobia, sectas satánicas, racismos, terrorismo, pornografía entre otros, que proliferan en la red. El grupo de trabajo de Gobernanza de la Internet WGIG (Working Group on Internet Governance) formulan el siguiente concepto de gobernanza de Internet: “Internet governance is the development and application by Governments, the private sector and civil society, in their respective roles, of shared principles, norms, rules, decision-making procedures, and programmes that shape the evolution and use of the Internet”.
En esta definición, todos los actores involucrados juegan un papel importante, desde cualquiera de las esferas de participación: estado, sector privado o sociedad civil. La misma Internet se constituye en un escenario que facilita la participación. A través de los blogs, los foros o las redes sociales, la participación pública nunca antes había encontrado un mejor aliado para participar. En este tercer entorno (Echeverría, 2007, p.69) se crean redes sociales alrededor de una problemática común en las que la sociedad civil puede entrar a discutir sobre aquellos riesgos que no tienen mayor atención por las otras agencias. Un caso concreto, que puede servir para apoyar nuestra afirmación anterior, es el retiro del mercado de más de 4 millones de baterías por parte de la empresa Dell Computer en el año 2006. Las denuncias en cientos de blogs referidas a las explosiones que se presentaban en los equipos de cómputo propiciaron este resultado.
La proliferación de “noticias” en otros medios hizo que se presentara una reacción mundial frente a las baterías; algunas aerolíneas, por ejemplo, prohibieron el uso de portátiles Dell en sus aviones. El sector privado (Dell, Apple, Sony) tuvieron que aceptar sus errores tecnológicos y soportar el costo económico que esto implicaba.
La gobernanza corporativa es otro modelo que busca regular y proteger los intereses de los inversionistas y los accionistas (shareholders) de las empresas, compañías y corporaciones en general. Contrario al concepto de gobernanza, al cual nos acogemos, el estado y la sociedad civil no juegan un papel importante en este modelo, excepto por su injerencia a través de acciones como las del caso anterior, desde las cuales las corporaciones se ven obligadas a regular para no perder su poder competitivo en el mercado.
La “buena gobernanza” es una versión utilizada en la comunidad europea que se acoge a cinco principios: apertura, participación, responsabilidad, eficacia y coherencia. Cada uno de estos principios son esenciales para una gobernanza más democrática, participativa y deliberativa. No obstante, la participación pública precisa de una capacidad de las agencias para deliberar.
En ese sentido, las agencias no expertas requieren una comunicación efectiva de los expertos para obtener capacidad de debate; los expertos, por su parte, deben acercarse a los diferentes contextos afectados por las decisiones para conocer impactos no evaluados. Una buena gobernanza se concibe como aquella donde hay una amplia participación en la toma de decisiones. Una gobernanza que trascienda al estado, incorporando al sector privado y a la sociedad civil, crea una ambiente político, social y económico favorable para la gestión del riesgo.
Las soluciones a los problemas derivados de los riesgos serán en consenso y sus resultados, serán de responsabilidad compartida.
Los debates sobre la subjetividad u objetividad en la evaluación del riesgo serán fecundos si existe un discurso participativo y deliberativo, en el que tanto los modelos matemáticos como las creencias y valores sean ampliamente discutidas (Renn, 2005, p.52). En ese sentido nos acogemos a dos modelos de gobernanza del riesgo que posibilitan una mejor gestión del riesgo; el primero es un modelo analítico-deliberativo que se ubica en el contexto de la “buena gobernanza” y el segundo es un modelo analítico-deliberativo de acción compartida, que trasciende la participación más allá de la decisión; es decir, hacia la acción.
Inviting the public to be part of the decision making process in risk analysis and management has been a major objective in European and American risk policy arenas (Renn, 1999, p.3049; Renn, 2006, p.34)
El paradigma de la democracia deliberativa se fortalece como mecanismo de legitimación de las decisiones tomadas para gestionar los riesgos. La complejidad de los nuevos riesgos hace más difícil su control y gestión desde modelos de democracia fundamentados en el poder . Se abre paso, entonces, un nuevo modelo fundamentado en la razón, el modelo analítico - deliberativo.
No se trata de participar en la elección de representantes a través de las mayorías, se busca participar y deliberar en torno a la toma de decisiones. El surgimiento de nuevos riesgos y la desconfianza en la empresa científica y en los tomadores de decisiones generada por causa de los impactos no esperados, plantea la necesidad de una participación pluralista en torno a su análisis y control democrático.
La sombra de la incertidumbre presente en estos nuevos riesgos demanda una caracterización discursiva y una toma de decisiones a través de una comunicación deliberativa y racional en procura de llegar a acuerdos que le den legitimidad a dichas decisiones (Arias M., 2003, p.168).Los conflictos que emergen con las nuevas tecnologías son cada vez mayores en tanto que la incertidumbre en torno a los impactos crecen. Un ejemplo de ello se observa con las nanociencias y las nanotecnologías, que se caracterizan por una lucha de percepciones entre las promesas y las amenazas (Macnaghten, et al., 2005). Desde sus promesas, es innegable el excelente futuro que se prevé para la optimización de ordenadores, el surgimiento de nuevos productos farmacéuticos, la medicina, nuevos materiales y las telecomunicaciones. Por contraste, las preocupaciones éticas, sociales, y ambientales crecen en torno a la toxicidad potencial de las nanopartículas, demandando la necesidad de una regulación más estricta (Macnaghten, et al., 2005, p.272). El control democrático de los riesgos exige una mayor participación y acción sobre las decisiones que permite, a su vez, comprender el rol ciudadano y sus responsabilidades, construyendo y gestionando socialmente el riesgo.
Por contraste al modelo de una democracia pasiva, la caracterización del riesgo se realiza desde dos procesos estrechamente vinculados: análisis y deliberación. El análisis del riesgo demanda, como hemos visto, métodos rigurosos desarrollados por expertos; sin embargo, en el nuevo modelo de gobernanza del riesgo, este análisis es retroalimentado con el concurso deliberativo de todas las agencias (ciencia, gobierno, sector privado, sociedad civil) que podrían utilizar teorías y métodos propios de las ciencias naturales, de las ciencias sociales, la ingeniería, las matemáticas, la jurisprudencia, entre otros (Stern & Fineberg, 1996, pp.30, 97). En la deliberación se discute y reflexiona sobre los resultados del análisis y sus implicaciones o afectaciones a los intereses de las diferentes agencias convocadas (Rodríguez, 2007, p.196).
El rol de los expertos en el proceso deliberativo es brindar el conocimiento objetivo y neutral necesario sobre los resultados obtenidos, que igualmente pretenden ser objetivos y neutrales.
Sin embargo, el modelo presenta problemas que no son fáciles de resolver: un problema surge desde el concepto del riesgo, en tanto que algunos actores del proceso lo perciben sólo desde sus posibles consecuencias o impactos . Otro problema se asocia a la polarización de algunas de las agencias en torno a uno o varios intereses o preferencias que irían en contra de los objetivos de caracterizar el riesgo (Stern & Fineberg, 1996) y reducirlo eficiente y eficazmente (Renn, 1999, p.3049).
La falta de información suficiente que permita una toma de decisiones desde el conocimiento del riesgo se constituye en otra agenda de problemas que ameritan un análisis más profundo (nanoriesgos, por ejemplo).A esta agenda de problemas se vincula la tardanza para lograr un consenso, como se evidenció en el caso del cambio climático: “la comunidad científica, excepto en casos muy inusuales, tardaría mucho tiempo en llegar a un consenso acerca de lo que muestran las pruebas, si se insiste en alcanzar un consenso” (Cranor, 2004, p.109). Un consenso que se desprenda de la seguridad científica a partir de pruebas concluyentes es difícil de lograr, en tanto que los nuevos riesgos de origen tecnológico o científico cada vez presentan un mayor número de incertidumbres. Por otra parte,
when argument relations are noncomparable, dialogue cannot ensure consistent recommendations and simultaneously prepare for political decision making in a (noncreative and) democratic manner, that is, by uncensored priority setting, respecting argumentative unanimity, and observing argumentative nondominance (Sager, 2002, p.373).
No es de extrañar, entonces, que las decisiones sobre la implementación y difusión de nuevas tecnologías o la comercialización de productos técnico científicos, se haga, en muchos casos, sin el concurso de los posibles afectados y, peor aún, sin pruebas concluyentes de sus posibles efectos : “En Estados Unidos hay cerca de 100.000 sustancias o sus derivados registradas para uso comercial, pero la mayoría no han sido bien evaluadas en cuanto a sus efectos para la salud (U.S. Congress, OTA, 1995)” (Cranor, 2004). Véase (Stern & Fineberg, 1996, p.120) sobre el análisis de la incertidumbre y sus limitaciones.
El balance costo beneficio produce, a su vez, tensiones que pueden llevar a decisiones económicamente equivocadas . En ese sentido, es necesario un mecanismo que permita obtener un público más informado e imparcial para su interrelación con los expertos y el logro de una toma de decisiones imparcial. Los “representantes” de los diferentes grupos de interés deben ser, entonces, competentes, lo que se traduce en el diseño de otros mecanismos para la selección objetiva de estos representantes. No obstante una buena elección no siempre puede garantizar la eliminación de estos u otros problemas:
The best designed analytic-deliberative processes cannot eliminate all the problems and controversy associated with contentious risk decisions. They cannot guarantee acceptance of an agency’s risk decision or even a risk characterization. Controversies often reflect basic differences in values or interests: the more that is at stake and more that values and interests conflict, the less likely it is a decision will be widely accepted (Stern & Fineberg, 1996, p.83).
Este colectivo de deliberación, como bien lo define Rodríguez (2007, p.237), es otro riesgo en el proceso de toma de decisiones si no es competente para articular y evaluar el amplio abanico de problemas inherentes al riesgo. Como señala Renn,
competence, in this sense, relates to the use of the best available knowledge and listening and communications skills, as well as the ability to articulate, evaluate, and refute arguments about an issue. When the purpose of public participation is to produce a collective decision, competent understandings about terms, concepts, definitions, and language use; the objectified world of outer nature (nature and society); the social cultural world of norms and values; and the subjective worlds of individuals are all essential. This is accomplished through the use of established procedures (Renn, 1999, p.3049).
Este modelo de gobernanza del riesgo sería una primera fase en la gestión democrática de los riesgos que, en principio, suavizaría las tensiones existentes. No obstante, además de superar los problemas planteados, se hace necesario trascender el modelo a la acción democrática; es decir, la ejecución también democrática de las decisiones tomadas. Proponemos, entonces, un modelo que haga efectivas las decisiones tomadas. Este modelo debe permitir el control y gestión de los riesgos a partir de las decisiones y en un proceso interactivo desde los resultados de las decisiones, analizar y deliberar nuevamente en torno al riesgo.
El modelo anterior, como hemos afirmado, es más efectivo si trasciende la toma de decisiones democráticas a la acción. En asuntos de gobierno democrático nos hemos preocupado por las formas de gobierno y, en nuestro caso, por los modelos de gobernanza pero desde un solo lado de la ecuación, los gobernantes o tomadores de decisiones. Un modelo de gobernanza debe contemplar el otro extremo de la ecuación, los gobernados; en tanto que gobernantes y gobernados se mezclan en uno sólo para determinar los cursos de acción sobre los temas que afectan al colectivo.
Por ello, como señala Rodríguez,
lo realmente importante para una gestión del riesgo no es el carácter de la representación del riesgo, esto es, la adecuación con respecto a un riesgo externo, sino más bien la “readecuación” del colectivo mismo o las relaciones socionaturales donde es el riesgo constituido (Rodríguez, 2007, p.226).
Desde la mirada tradicional, los diferentes análisis y evaluaciones del riesgo (democráticos o no), arrojan innumerables informes, regulaciones y, en general, buenas intenciones.En países como Colombia, por ejemplo, las regulaciones sobre la construcción sismo resistente prohíben expresamente las edificaciones en mampostería no estructural. Sin embargo, la mayoría de las viviendas en los sectores de más bajos recursos no cumplen con la normatividad. ¿Por qué no se cumple?, ¿dónde está el control y gestión del riesgo sísmico? En la formulación de los planes de ordenamiento territorial y en la regularización de los sectores urbanos existe participación amplia de los afectados e interesados; no obstante, las normas se siguen incumpliendo. Las decisiones se convierten en buenas intenciones.
En el modelo de gobernanza del riesgo que proponemos, además de las bondades del modelo de Renn, contempla la acción; propende por la implementación de las acciones, las verifica y corrige que, en consecuencia, implica una readecuación social, cultural y económica del colectivo. Es un modelo en el cual las decisiones se convierten en política a seguir y éstas en acción:
The realm of politics is first and foremost a realm of human action. While there is a sense in which every human thought, every event, every utterance (called ‘speech acts’ by certain philosophers) can be regarded as an action, our definition intends a somewhat narrower and more common usage. Action here suggests building or closing a hospital, starting or concluding a war, taxing or exempting a corporation, initiating or deferring a welfare plan… in other words, doing (or not doing), making (or not making) something in the physical world that limits human behavior, changes the environment, or affects the world is some material way. Where there is no action (or no noaction of consequence), there is no politics (Barber, 2004, p.122).
Como lo enuncia Barber, donde no hay acción no hay política . En ese sentido, nuestro modelo de gobernanza institucionaliza las decisiones, bien sea local o globalmente, y propicia mecanismos de participación en la acción. Una gobernanza del cambio climático, por ejemplo, debe trascender los extensos informes o las espectaculares representaciones del riesgo; si bien éstas aportan al conocimiento del riesgo, las decisiones se quedan en buenas intenciones, así se plasmen en protocolos internacionales. Estas decisiones serán efectivas si todos los involucrados e interesados en los efectos del cambio climático desempeñaran su rol desde unos compromisos institucionalizados (regulación).
La agencia política deberá comprometerse a establecer las medidas regulatorias que se requieran o se desprendan de las decisiones tomadas, la agencia científica profundizará en el análisis de los riesgos caracterizados, la agencia económica propiciará los recursos financieros necesarios para la implementación de las políticas, la sociedad civil acatará la normatividad que emerge en este proceso de gobernanza y, en todos los ámbitos, la gestión y control del riesgo será de responsabilidad compartida; es decir, en el caso de riesgos como el cambio climático es de todos nosotros.Barber propone un modelo que denomina “democracia fuerte” donde los conflictos se resuelven de acuerdo al modelo de una democracia participativa a través de un proceso que permita la creación de una comunidad política capaz de transformar individuos dependientes y privados en ciudadanos libres e intereses parciales en bienes públicos (Barber, 1984, p. 132). La acción, como virtud de la “democracia fuerte”, es el fin último que inicia con la deliberación: “Activity is its chief virtue, and involvement , commitment, obligation, and service –common deliberation, common decision, and common work- are its hallmarks” (Barber, 1984, p.133).
Dada la complejidad del problema, las soluciones igualmente serán complejas, afectando los aspectos de tipo económico y político, además del cambio cultural y social.
Sin embargo, la implementación de este modelo fortifica la democracia, en tanto que la participación no se limita a la formulación de políticas sino que trasciende hacia un compromiso de hacerlas cumplir y cumplirlas. Pero, ¿cómo hacer efectivo el modelo? Por una parte, es necesario legitimar la toma de decisiones y, por otra parte, garantizar la ejecución de las decisiones. En la legitimación de las decisiones no se puede esperar a que todos los interesados y afectados participen y deliberen; esto se logra con una amplia participación, mas no con toda la participación. Para ello, existen mecanismos que permiten la presencia de todas las diferentes organizaciones, tanto civiles como de las demás agencias. Lo más complejo del modelo es lograr la participación activa y responsable en la acción, complejidad que se puede minimizar si se utilizan los mecanismos que hacen posible tal participación en presencia de riesgos inminentes.
Un buen ejemplo de acción democrática se presentó en el año 2009, con el advenimiento del virus AH1N1, divulgado como gripe porcina. El anuncio de la Organización Mundial de la Salud de una pandemia inminenteLa Organización Mundial de la Salud (OMS) establece seis fases previas a la declaración de una pandemia. Las dos últimas fases se caracterizan por: la propagación del virus de persona a persona al menos en dos países de una región de la OMS (fase cinco) -un indicio de la inminencia de una pandemia- y la aparición de brotes comunitarios en al menos un tercer país de una región distinta (fase seis). Por su parte, la Real Academia Española define pandemia como “enfermedad epidémica que se extiende a muchos países o que ataca a casi todos los individuos de una localidad o región”., sumado a los cientos de infectados y de algunos casos fatales, dispara el factor miedo confirmándolo como el principal aliado de la comunicación y percepción del riesgo.
Si bien el análisis y la deliberación no fue democrática (no tenía por qué serlo), la acción si lo fue.Ciertas decisiones no pueden ser democráticas, en tanto que la complejidad de los temas tratados y la inminencia de efectos adversos demandan oportunidad y celeridad en la decisión. Un proceso inmerso en el modelo analítico-deliberativo requiere de procedimientos para la selección del grupo, culturización sobre el tema, análisis, deliberación y, finalmente, toma de decisiones. El virus AH1N1 no nos permite la ejecución de este proceso, las decisiones entran en el ámbito de la emergencia:
Sometimes, governmental decision making must be completed rapidly, and the inclusion of necessarily slow citizen deliberation practices would make such decisions difficult to reach. When facing a compelling public policy problem, such as an impending environmental hazard or an international security crisis, rapid responses would obviate putting together a citizen panel or consensus conference (Hamlett, 2003, p.130).
Obviamente los errores, fracasos o éxitos serán de responsabilidad de los tomadores de decisiones, en tanto decisión, y de los que acataron tales decisiones, en tanto acción.
Al igual del casi consenso para el ataque y exterminio de los talibanes en Afganistán, las decisiones de las agencias científicas y gubernamentales se aceptan y se acatan, millones de mexicanos sacrifican su bienestar para minimizar el riesgo. En la conmoción generada por el advenimiento del virus, la desconfianza pierde poder, la fé en las instituciones se constituye en un paliativo para el miedo, el vituperado Tamiflu y la estigmatizada industria farmacéutica son ahora los salvadores. El modelo mexicano se extiende, al igual que el virus, a otros países en todo el orbe.
¿Cuáles son, entonces, esos mecanismos que hacen viable el modelo? Para dar respuesta a este interrogante es importante precisar en qué contexto es aplicable el modelo. Si bien es un modelo de gobernanza del riesgo, no todos los riesgos son susceptibles de gobernanza o, en un sentido práctico, no ameritan un proceso de gobernanza: los riesgos inminentes son un ejemplo de ello. Los eventos donde la incertidumbre es un factor predominante no son objeto de acción democrática (véase el apartado 1.1.4 sobre la distinción riesgo – incertidumbre).
Otros riesgos cuyas medidas de control son ampliamente aceptadas, tampoco requieren del modelo (ataque de virus a ordenadores, accidentes laborales, la mayoría de riesgos sanitarios, etc.). En otras palabras, aquellos riesgos, sin carácter de inminencia, donde existe conocimiento sobre posibles causas y posibles efectos, pero cuyos posibles controles (decisiones) puedan afectar a un sistema social, cultural, ecológico, económico o político, demandan gobernanza.
En los modelos de democracia participativa, en la “democracia fuerte” de Barber, o en el modelo de Renn, no encontramos mecanismos integrados para la participación, la deliberación, la evaluación, la toma de decisiones y la acción sobre el riesgo. Sin embargo, cada elemento constitutivo de la gestión del riesgo, en un contexto de gobernanza, presenta aisladamente sus propias estrategias y mecanismos. La deliberación es prolífica en mecanismos como las conferencias de consenso del modelo danés, que convoca a expertos y legos durante un período de tiempo, obteniendo como resultado un informe final por parte de los no expertos ; en los jurados de ciudadanos, que toma una muestra aleatoria de ciudadanos para la exposición de escenarios posibles generados por los expertos, permitiendo a través de la deliberación, la creación de nuevos escenarios (Hamlett, 2003, p.119) . Por otra parte, para la toma de decisiones es frecuente recurrir a mecanismos tales como el referéndum, la consulta popular, foros o paneles de ciudadanos y, comúnmente en Europa, los comités . No obstante, para la acción democrática no se encuentran mecanismos que permitan gestionar efectivamente el riesgo y, en consecuencia, el modelo de gobernanza se estanca en la etapa de toma de decisiones.
Sólo en momentos de crisis (riesgo inminente o durante el desastre) surgen mecanismos que, a veces, pueden ser efectivos o, en otros casos, agravan la situación de riesgo.
El riesgo entendido como la probabilidad de que un evento no deseado pueda o no ocurrir, es el significado técnico estándar del término en la teoría de la decisión. “Por decisión en condiciones de riesgo se entiende decisión con probabilidades definidas” (Hansson, 2005, p.70; López Cerezo & Luján, 2000, p.50), es el riesgo hecho probabilidad (Slovic & Weber, 2002, p.4), en el cual hay un mayor consenso entre los expertos. La estimación probabilista del riesgo de la ingeniería nuclear que puede arrojar como “resultado” un accidente nuclear, la estimación cuantitativa del riesgo carcinógeno de un producto químico o la probabilidad de que exista una serpiente cascabel en un cajón de nuestro escritorio, se basan en modelos teóricos, modelos que en muchos casos están cargados de presunciones subjetivas de quien o quienes lo formulan.
El mejor ejemplo de la subjetividad de este riesgo probabilista, también denominado riesgo objetivo, se encuentra en las estimaciones de riesgo nuclear presentadas en el conocido informe de Norman Rasmussen (López Cerezo & Luján, 2000, pp.43-46), ingeniero nuclear, quien por encargo de la Comisión de Energía Atómica de los Estados Unidos realizó en 1974 un estudio sobre la probabilidad de un accidente nuclear grave. Sin entrar en detalles de su modelo, Rasmussen estimaba que una fusión del núcleo en una central nuclear sólo se daría una vez en un millón de años de operación del reactor y que un accidente grave sólo es esperable una vez cada 10,000 millones de años. No hubo necesidad de esperar tantos años, en 1979 las cadenas de noticias de todo el mundo anunciaban: “Fue declarado el estado de alerta esta mañana en una central nuclear norteamericana en Pensilvania.
La rotura de una bomba de alimentación de agua…” (Verón, 1983, p.18). Se trataba del accidente de la central nuclear de Three Mile Island (TMI). La verdad es que no se trató de una rotura de una bomba como se anunció en un principio (distorsión del riesgo), sino de una serie de errores humanos que desencadenó una apertura (no rotura) de válvulas de seguridad para inyectar agua fría al reactor, las cuales fueron cerradas (otro error humano) generando altas temperaturas en el corazón del reactor y la expulsión a la atmósfera de gases radiactivos. Este último hecho constituye el accidente, el riesgo real. Los efectos del accidente de TMI aún no se han divulgado. El modelo de Rasmussen quizá no contempló el factor humano como fuente de riesgo. Otra predicción probabilista del riesgo nuclear arrojaba, para las personas vecinas a un reactor, una probabilidad anual de morir por un accidente en un reactor de una entre 300 millones. Es decir riesgo “cero” en el contexto del llamado “riesgo aceptable”; sin embargo, Chernóbil falsa el modelo.
Ejemplos como éstos abundan en la sociedad de la incertidumbre. A pesar de los modelos, la incertidumbre juega un papel importante. A pesar de los algoritmos que permiten las sofisticadas simulaciones, la subjetividad presente en el ingreso de los datos genera fisuras de conocimiento que llevan a resultados como el del accidente de TMI. A pesar de los grandes avances tecnológicos, las creencias son las que en últimas definen el modelo probabilista a utilizar. No obstante las consecuencias no deseadas, los modelos probabilistas ganan terreno en la configuración del riesgo. El consenso intersubjetivo que acepta dichos modelos permite un encuentro entre los expertos, crea el llamado riesgo objetivo.
El rigor y la objetividad científica tiene un valor especial en las cortes de los Estados Unidos, que especifican las reglas para decidir qué constituye evidencia científica y si ésta es confiable y por lo tanto admisible para tenerse en cuenta (Wing, 2003, pág. 1813).
La admisibilidad de la evidencia científica, en estas cortes americanas, se ha basado en criterios como la existencia de una hipótesis comprobable (testable), una metodología sujeta a la revisión de pares, resultados aceptables dentro del porcentaje de error estimado, un adecuado soporte y aceptación de la metodología por parte de una comunidad científica y calificaciones profesionales del experto adecuadas. En este contexto entenderemos la llamada objetividad científica. No obstante, no podemos ignorar que, a pesar del cumplimiento de estos mínimos, la metodología presenta exceso de objetividad. Entendido este exceso como la confianza plena en el modelo científico, excluyendo otros factores (el humano, por ejemplo) que pueden incidir en los resultados.
Los accidentes de Three Mile Island (TMI) en 1979 y de Chernóbil en 1986, que analizaremos en este apartado, son ejemplos del exceso de objetividad en los modelos de plantas nucleares.Wing (2003, p.1816) propone una “objetividad fuerte” en la que el científico o el experto considere otros factores como las fuerzas sociales que configuran el conocimiento creado o construido por estos expertos: “Strong objectivity demands that scientists critically evaluate how the knowledge they create is shaped at every point by historical social forces”. En el contexto de Wing, lo que llamamos exceso de objetividad podría expresarse como una “objetividad débil”. El exceso lo proponemos en el sentido de una polarización hacia el conocimiento experto. Por su parte, Sarewitz (2004, p.389) considera que hay exceso de objetividad cuando la empresa científica extrae de los hechos diversas interpretaciones que permitan apoyar una posición preexistente (la justificación de las plantas nucleares, por ejemplo). Los grados de percepción del riesgo de accidentes en estas instalaciones parecen confirmarse a través del comportamiento de la población en dos casos; Chernóbil por sus efectos adversos, ampliamente conocidos, y TMI por la falta de una historia de desastres similares.Posterior al desastre de Chernóbil se realizaron encuestas sobre este tipo de riesgos. A pesar del desastre, aún se desconocía la verdadera magnitud del mismo. Por ejemplo, en noviembre de 1986 se aplicó una encuesta a 52 médicos (entre pediatras y obstetras) en Massachusetts, evidenciando en algunas de las respuestas el desconocimiento de los impactos de una accidente nuclear: “Physicians’ responses reveal a great deal of uncertainty about the dangers of low level radiation to their patient population. In their answers to question 17, which is concerned with a safe threshold level of radiation, slightly more than half of the respondents are either undecided or disagree with the belief that there is a safe level of radiation” (Winder, et al., 1988, p.133); incluso, algunos encuestados estuvieron de acuerdo en que existía una exageración de los efectos radioactivos. Tres años después se aplica una encuesta referida a los basureros radioactivos cuyos resultados contrastan con la encuesta anterior, en tanto que la mayoría de los encuestados los califican de peligrosos, tóxicos y mortales (Slovic, et al., 1991). Para el caso del basurero en Yucca Mountain:
Nevadans were asked whether or not they would vote in favor of a repository at Yucca Mountain; 69.4% said they vote against it, compared to 14.4% who would vote for it. About 68% of the Nevadans surveyed said they agreed strongly with the statement, ‘The State of Nevada should do all it can to stop the repository’; another 12.5% agreed somewhat with this statement; only 16.0% disagreed (Ibid, p.254).
Los riesgos asociados a la energía nuclear se encuentran rodeados de múltiples intereses económicos, políticos y sociales.
Tres casos han generado fuertes polémicas en torno a la conveniencia o no de la construcción de nuevas plantas nucleares . Cada uno de ellos ha evidenciado la desconfianza en el exceso de objetividad de técnicos y científicos cuyas predicciones han resultado erradas o, en otros casos como en Chernóbil, ha sido maquillada.
En el accidente de TMI se presentan los factores que el modelo objetivo no contempló. Una descripción resumida del acontecimiento presentada por Mariotte (2004, p.3) permite comprender la incidencia de estos factores:Véase Verón (1983) para una información más amplia del accidente y la forma como se divulga en los diferentes medios de comunicación; se destaca en especial el interés por los detalles técnicos y la poca importancia a los posibles impactos en la población. Para una versión oficial consúltese el documento "Fact Sheet on the Three Mile Island Accident” de la United States Nuclear Regulatory Commission (U.S. NRC) en http://www.nrc.gov.
Entre las 3 y las 4 de la madrugada del 28 de marzo de 1979, se realizaban tareas de mantenimiento en el sistema de refrigeración secundario del edificio de la turbina del reactor 2 de Three Mile Island (TMI-2). La empresa Metropolitan Edison (MetEd), subsidiaria de General Public Utilities (GPU), compañía propietaria de TMI, operaba los dos reactores de la central nuclear. Aproximadamente a las 4 de la madrugada, se cerró una válvula del condensador haciendo que el circuito de refrigeración secundario se detenga. Las dos bombas de agua de alimentación principales se detuvieron por falta de agua, la turbina también se detuvo y, por ende, los generadores de vapor siguieron emitiendo calor sin ser refrigerados. Al no funcionar los generadores de vapor, la presión y temperatura del circuito de refrigeración primario comenzó a ascender. Debido a que la creciente presión podía provocar la ruptura de tubos, se abrió automáticamente una válvula, para liberar vapor/agua. A continuación, el reactor se cerró automáticamente cuando se liberaron sus barras de control. Hasta aquí, todo funcionaba como estaba previsto en cierres de emergencia.
Los problemas se agravaron cuando la presión del circuito primario comenzó a descender. En ese momento, la válvula de alivio debería haberse cerrado para evitar que el circuito de refrigeración libere demasiada agua, no obstante, la válvula siguió abierta, pese a que un indicador en la sala de control demostraba erróneamente que estaba cerrada. Este problema fue provocado por una falla de diseño: el indicador solamente mostraba el suministro eléctrico hacia la válvula, pero no si la válvula estaba cerrada o no. La válvula abierta hizo que más y más agua escapara del reactor. Cuando se encendieron las bombas refrigerantes de emergencia del circuito secundario ocurrió otro problema.
Dos válvulas de los tubos de agua de alimentación estaban bloqueadas y, por consiguiente, no se podía abastecer de agua a los generadores de vapor, los cuales quedaron secos. Luego de ocho minutos, las válvulas fueron abiertas manualmente.
Mientras la válvula de alivio seguía perdiendo refrigerante, los instrumentos con los que contaban los operarios del reactor daban información confusa. Ninguno de los instrumentos mostraba el nivel de agua real en el reactor. Los operarios lo calcularon basándose en el nivel del presurizador, que seguía siendo alto e hizo que desconocieran el nivel de agua decreciente en el núcleo del reactor. A raíz del calor residual en el combustible de uranio y la falta de suficiente refrigerante, el revestimiento del combustible comenzó a reventarse y el combustible empezó a fundirse. En menos de ocho horas el núcleo ya estaba (parcial o completamente) seco y el combustible fundido caído en el fondo de la vasija del reactor. Más tarde se descubrió que se había fusionado aproximadamente la mitad del núcleo.
El 28 y 30 de marzo, la planta liberó gases radioactivos. El público desconocía cuál era la situación en la planta. El 30 de marzo, el gobernador de Pennsylvania decidió evacuar a todas las mujeres embarazadas y niños dentro de un radio de 5 millas (8 kilómetros) desde el reactor. Otras 200.000 personas abandonaron el lugar voluntariamente debido a que no confiaban en la información que ofrecía MetEd.
Del texto se infieren tres tipos de errores: i) deficiencias en el diseño, ii) fallas de algunos elementos de la planta y, el menos contemplado en los modelos objetivos, iii) el error humano. Este accidente evidencia una contradicción a las estimaciones de riesgo nuclear presentadas en el conocido informe de Norman Rasmussen (ver apartado 1.1.4.7), cuya predicción de un accidente grave era esperable una vez cada 10.000 millones de años. Esta predicción es falsada por TMI y, posteriormente y en forma contundente, por el accidente de Chernóbil:
A la entrada del museo de Chernóbil, que guarda en Kíev la memoria minuciosa del horror, hay una escalera de cuyo techo cuelgan placas blancas con los nombres de las ciudades y aldeas evacuadas: Usiv, Kopachi, Goirodchán, Kriba Gora, Buriakivka, Prípiat... A la salida, puede contemplarse el reverso de esas placas, ahora de color negro y con una raya roja que las cruza diagonalmente. El museo está repleto de símbolos, desde citas del Apocalipsis a ramas de ajenjo (eso significa Chernóbil en ucraniano), pero sobre todo recoge las imágenes de la tragedia:
fotos de más de 4.000 liquidadores muertos, un vídeo con el minuto más largo de la vida de tres soldados que limpiaron el techo del reactor pocas horas después de la explosión, imágenes de una aldea enterrada por completo porque era veneno puro (Kopachi), o trajes de los bomberos que apenas les protegieron de la muerte invisible (Diario El País, 1996).
Los verdaderos costos de este último accidente aún se encuentran en contradicción. Por ejemplo, la organización ambientalista Greenpeace dice que el verdadero costo en vidas humanas de Chernóbil se acerca a los 100 mil muertos, mientras que la Organización Mundial de la Salud (OMS) estima el número de muertes adicionales en 9,000 personas. Por otra parte, en un informe de la UNESCO se habla de 32 el número de víctimas de la catástrofe señaladas por algunos especialistas de las Naciones Unidas, por contraste a 15 mil que sugieren algunos científicos ucranios. El Secretario General de las Naciones Unidas en el año 2000, Kofi Annan, había declarado que la catástrofe distaba mucho de haber sido superada.
Sigue teniendo efectos devastadores no sólo en la salud de la población, sino en todos los ámbitos de la vida social. Lo que mayoría del público ignora es que el accidente de Chernóbil despidió una nube radiactiva durante diez días, cuyos niveles de radiactividad era cien veces superiores a la que emitieron juntas las bombas atómicas arrojadas a las ciudades de Hiroshima y Nagasaki en Japón.
En septiembre de 2005, la Agencia Internacional de Energía Atómica y la Organización Mundial de la Salud publicaron otro informe que también reducen estas cifras de muertes, concentrándolas en Bielorrusia, Rusia y Ucrania; hablan de 59 muertes, 4 mil más previstas y 99% de los cánceres de tiroides en los niños aliviados. Este informe generó una fuerte reacción de los científicos ucranianos, rusos y bielorrusos, discrepando las cifras:
El informe sólo reúne cifras falsas, afirmó Volodimir Usatenko, consejero de la comisión del Parlamento de Ucrania encargada de la seguridad nuclear. En el otro informe de Chernobyl, un ensayo de la Comisión Europea, se muestra la verdadera dimensión de la catástrofe. La ex Yugoslavia, Finlandia, Suecia, Bulgaria, Noruega, Rumania, Alemania, Austria y Polonia recibieron cada uno más de 10 becquerelios (bq) de cesio-137. Unos 3 mil 900 kilómetros cuadrados de Europa quedaron contaminados -en una cantidad superior a 4 mil bq/m2. Además, 2.3 por ciento del territorio europeo recibió dosis de radiactividad más elevada. Austria fue el país más expuesto, según el otro informe; Finlandia y Suecia recibieron 5 por ciento de la radiactividad. Los países que tuvieron los peores daños fueron Alemania (44 por ciento de sus tierras contaminadas) y Reino Unido (con 34 por ciento).
El costo económico se estima en 358 mil millones de dólares, resultado del tratamiento médico, vigilancia de la descontaminación y reubicación de habitantes. Sea cual fue la cifra real, el modelo de Rasmussen generó desconfianza en los modelos objetivos de los expertos.
Lo que en un principio era suficientemente seguro se convirtió en una crisis de la energía nuclear después de la catástrofe de Chernóbil:
Al comenzar el año 2000, había en el mundo 436 reactores nucleares comerciales en operación, con una potencia instalada de 352 Gigavatios (1 GW=1.000 MW), que en 1999 produjeron 2.394,6 TWh. La energía nuclear, presentada hace 25 años como la alternativa al petróleo y al carbón, hoy sólo representa el 6% del consumo mundial de energía primaria. Hoy sólo se están construyendo 38 centrales, con una potencia de 31,7 GW, el menor número desde hace 25 años, respondiendo a pedidos de años anteriores. La cifra de pedidos es insuficiente para mantener una industria nuclear, que sólo se mantiene gracias al despilfarro de recursos públicos.Tomado de “Chernóbil. El cierre, su historia y consecuencias”, publicado en http://waste.ideal.es/chernobil.htm. Uno de los efectos del fenómeno Chernóbil es el miedo a la construcción de nuevas plantas. Según los datos en Estados Unidos, no ha habido encargos de nuevos reactores desde octubre de 1973 que no hayan sido cancelados. En los últimos 35 años las compañías eléctricas han cancelado 120 reactores, con una potencia de 132 GW. Las 104 centrales nucleares existentes en 2000, con una potencia (97,1 GW) inferior a la cancelada, producen algo menos del 20% de la electricidad. Se han cerrado 30 centrales nucleares, y no hay ninguna en construcción.
Los investigadores identifican estos problemas dentro de un marco preexistente de valores e intereses que, para el caso de la energía nuclear, tiene fuerte injerencia los intereses políticos. No es conveniente, por ejemplo, mostrar al público los fracasos en los programas políticos de energía nuclear o a otros países las debilidades en la potencial nuclear. Frente a esta injerencia política, Sarewitz expresa que,
scientific knowledge is not independent of political context but is co-produced by scientists and the society within which they are embedded, that different stakeholders in environmental problems possess different bodies of contextually validated knowledge, and that the boundaries between science and policy or politics are constantly being renegotiated as part of the political process (Sarewitz, 2004, p.386).
Estos intereses explican la complejidad de la ciencia en el proceso de toma de decisiones, en tanto que debe sumar a su análisis científico otros cuadros de realidad que dependen de los contextos sociales, institucionales, económicos y políticos enmarcados en un sistema de valores e intereses (Sarewitz, 2004, pp.389-390).
A pesar de la objetividad de los científicos, no se puede ignorar la subjetividad presente en la toma de decisiones a la hora de publicar sus resultados. ¿Cómo ignorar los intereses de quienes patrocinan las investigaciones?, ¿cómo desconocer los principios y valores de los científicos? A estos dos interrogantes deben enfrentarse los hombres y mujeres de ciencia cuando deciden publicar sus resultados. Interrogantes que, a su vez, empañan o distorsionan la lente con que se mira la realidad. Las cifras citadas anteriormente son una prueba irrefutable de estas afirmaciones, son una prueba de los diferentes intereses que subyacen en una u otra publicación. No obstante la desconfianza del público lego, aún persiste la idea de que los científicos pueden apalancar programas políticos o, incluso, elecciones políticas. Por ejemplo, en las elecciones presidenciales del año 2000 en Estados Unidos, se movilizaron grupos electorales en torno a problemas como los tratados en este apartado y con una estrecha vinculación de científicos que apoyaban uno u otro programa político:
Environmental and industry groups mobilized their constituencies on behalf of the scientists who best represented their interests. Scientists themselves traded accusations about the political motives and economic interests of those whose science they were attacking. If nothing else, the high stakes of the debate ensured that it would attract much more attention than a disagreement that was merely scientific (Sarewitz, 2004, p.391).
Un caso interesante asociado a los riesgos de accidentes nucleares es el ya mencionado problema de los residuos nucleares en Yucca Mountain (Nevada).Yucca Mountain es una cadena montañosa situada en Nevada cerca de 140 km de Las Vegas. La montaña es conocida por el proyecto de almacenamiento de residuos radioactivos en capas geológicas profundas, un proyecto del Departamento de Energía de los Estados Unidos para el combustible nuclear usado y otros residuos radioactivos de alta actividad, que ha sido objeto de numerosas polémicas. Para comprender el problema, hacemos una breve descripción de los elementos científicos en discusión:
Una cualidad que determina el funcionamiento de cualquier sitio de residuos nucleares es su sistema hidrológico, medida en la capacidad de filtrar los residuos radioactivos, los cuales decaen en períodos de 10 mil años. En otras palabras, una contaminación alta genera contaminación para ésta y muchas generaciones. Las estimaciones de los científicos para Yucca Mountain del flujo de filtración radioactiva fue entre 4 y 10 mm por año; una investigación posterior redujo esta estimación entre 0.1 y 1 mm por año (Sarewitz, 2004, p.393). Este último rango estimado permitió concluir que el sitio era suficientemente seguro, ajustándose, además, a la objetividad científica y a los intereses políticos y económicos que giraban en torno a la energía nuclear. Estudios posteriores descalificaron estos estimativos; la predicción había fallado y, quizá, a costos muy altos:
However, the Yucca Mountain site was the focus of intense political controversy, and the scientific results that issued from the Department of Energy (DoE), which had responsibility for the site, were under constant fire. DoE was also subject to the oversight of two external bodies that reviewed the science and made recommendations for further research. In this politically contentious environment, DoE was pushed to drill a tunnel that would enable direct sampling of rocks at the actual level of the proposed repository. Subsequent analysis of water in those rocks indicated the presence of radioactive isotopes generated from atmospheric nuclear weapons tests in the early years of the Cold War.
That water containing these isotopes had made it from the surface to the repository site in less than 50 years was evidence that percolation flux was perhaps ten times faster than indicated in modeling studies over the previous decade (Sarewitz, 2004, p.394).
La respuesta ética al problema del modelo seleccionado en las primeras estimaciones se encuentra en la forma de pensar de los científicos; para ellos, así haya un modelo mejor, éste no será lo suficientemente bueno, especialmente si podría conducir a consecuencias indeseables en las políticas públicas (Shrader-Frechette, 1997, p.151). Lo cierto es que los modelos no son exactos y pueden generar fallas en las estimaciones.
Surgen, entonces, otros interrogantes: ¿por qué tan alta la desviación en el modelo?, ¿la injerencia política tuvo algo que ver?, ¿pueden más estos intereses que la ética científica? Si las respuestas se enmarcan en la incertidumbre científica presente en los modelos, cobra entonces más fuerza el principio de precaución como el modelo para seguir en decisiones cuyo impacto es incierto. Igualmente, tomar decisiones como las de Yucca Mountain evidencia un bajo nivel de percepción de los riesgos implícitos en una falla de la predicción o una creencia en grado sumo en el modelo empleado, es decir, un exceso de objetividad o una objetividad débil en términos de Wing.
Este exceso de objetividad es cómplice de lo ocurrido en 2011, donde se combinan los desastres sísmicos con los nucleares.
Al estar asociado el riesgo al concepto de probabilidad, mostraré un concepto de riesgo más cercano a los denominados grados de creencia, no como probabilidades, sino como “posibilidades”.Dubois (2006, pág. 48) establece cuatro ideas a las que pude conducir la palabra posibilidad: viabilidad o factibilidad, como en el caso de la viabilidad de proyectos para la solución de problemas; plausibilidad, aceptabilidad o credibilidad, referido al grado de confianza de que un evento suceda; consistencia con la información disponible, como la proposición que no contradice dicha información; una última idea es de tipo ético y referida a las proposiciones que son posibles dentro de la legalidad o la eticidad. Si bien Dubois defiende la interpretación epistémica de consistencia con la información, mi propuesta está enfocada a la posibilidad como credibilidad, en el contexto de los grados de creencia.
Si diéramos una lectura desde diferentes áreas del conocimiento a algunos textos que abordan el concepto de incertidumbre podríamos evidenciar que, al igual que en el riesgo, abundan las acepciones que confunden o no permiten establecer un concepto común. Hay propuestas que hablan de incertidumbres por grados (corriente fuerte), hay otras que ven la incertidumbre y el riesgo como el reflejo especular de la ignorancia o el desconocimiento (corriente débil).Sólo para efectos de este texto he clasificado las diferentes propuestas que gradan la incertidumbre como “corriente fuerte” a aquellas que presentan argumentos para su defensa, ver por ejemplo Wynne (1992), López Cerezo y Luján (2000), Ravetz (1997), Funtowicz y Ravetz (2001). En contraposición, el riesgo como similitud a la incertidumbre es una propuesta que no ofrece argumentos suficientes para creer en ella. La propuesta débil no hace distinción entre riesgo e incertidumbre, sin embargo, no justifica esta falta de distinción, ver por ejemplo en forma explícita a Rosa (1998) o a Beck (1998 (1986)) implícitamente al referirse a los riesgos invisibles o desconocidos.
En los textos de la estadística o de la economía, la incertidumbre es modelada y las ecuaciones resultantes se constituyen, en algunos casos, en herramientas de predicción, no de un futuro escenario, sino de un posible futuro escenario.
Desde las ciencias sociales, sin embargo, la confusión reina. La incertidumbre y el riesgo parecen ser una misma cosa, mezclándose y confundiéndose en una compleja red de conceptos. El riesgo es representado o interpretado a través de cualidades que le dan el carácter de concepto no consensuado. “Riesgo cuantificable”, “riesgo objetivo”, “riesgo subjetivo”, “riesgo real”, “riesgo global”, “riesgo invisible” y “riesgo inductivo”, son sólo algunas de las expresiones utilizadas entre una y otra acepción del riesgo.La expresión “riesgo inductivo” es utilizada por Hempel (1965) en su análisis del concepto de probabilidad. Para Hempel el riesgo inductivo está referido a la posibilidad de que una hipótesis falsa sea aceptada como verdad, o que una hipótesis verdadera sea rechazada como falsa. En Hempel (1979 (1966)) no se hace referencia explícita al riesgo inductivo, la aceptación o rechazo de las hipótesis probabilísticas son presentadas más como un error que como un riesgo. Un ejemplo interesante que describe este tipo de riesgo es el siguiente: “Así, si la hipótesis se refiere a la probable efectividad y seguridad de una nueva vacuna, entonces la decisión…” (Hempel, 1979 (1966), pág. 101). Este tipo de decisiones se toman bajo riesgo, si la vacuna es efectiva y se rechaza o si no es efectiva y se emplea con serias consecuencias como resultado, es un riesgo. El calificativo de riesgo inductivo obedece a la experiencia previa para la toma de decisiones. Una frecuencia alta de resultados positivos al aplicar la vacuna en una amplia muestra permite, por inducción, creer que será efectiva en el total de la población. Por su parte, Douglas (2000) define este riesgo como aquel cuyas consecuencias o valores son “no epistémicas”. Cada una de ellas surge como resultado del contexto en el cual se estudia el riesgo. Si el riesgo es fruto del análisis de las probabilidades por parte de los expertos, nace el “riesgo objetivo” como contraposición al “riesgo subjetivo”. En el contexto del riesgo objetivo, ante la presencia de la incertidumbre, se suele hablar de probabilidades objetivas y probabilidades subjetivas. Riesgo, incertidumbre y probabilidad son conceptos que han sido centro de debates en varias áreas del conocimiento. Sin embargo, es la incertidumbre la que ha generado mayor confusión en estos conceptos. La incertidumbre es fuente inagotable de más y más incertidumbres, de confusiones, de falta de consenso. Es la antítesis del conocimiento. ¿En qué lugar debemos ubicar el riesgo? Mi respuesta, la cual defenderé en este apartado, es la de un riesgo en las regiones del conocimiento.
Un concepto de riesgo diferenciado claramente del concepto de incertidumbre.
Es posible que esta propuesta de distinción entre riesgo e incertidumbre sea severamente criticada, con justificadas razones.
Justificadas desde el contexto en el que se entiende la incertidumbre o el riesgo (corrientes fuerte o débil). Es posible, también, que en el fondo discutamos sobre lo que estamos de acuerdo. Mi propósito al tratar de establecer esta distinción nace de mi convicción en que la falta de consenso sobre el riesgo tiene sus raíces en otros conceptos (la incertidumbre es uno de ellos) que le son inherentes y que, para lograr un consenso (tarea nada fácil) es importante dejar claro qué entendemos por uno u otro concepto.
Nuestra propuesta de la distinción entre riesgo e incertidumbre nace desde la falta de consenso sobre el riesgo. Este desacuerdo tiene sus raíces en otros conceptos (la incertidumbre es uno de ellos), que le son inherentes y que, para lograr un consenso (tarea nada fácil), es importante dejar claro qué entendemos por uno u otro concepto. Situación que a la vez permitirá elaborar nuestra propia red de conceptos a partir de la cual defenderemos la necesaria distinción riesgo-incertidumbre. Situación que a su vez me permitirá elaborar mi propia red de conceptos, a partir de la cual defenderé la necesaria distinción riesgo-incertidumbre.Podrían criticarme por iniciar una discusión más de tipo semántico, cosa que es cierta, pero acaso ¿las representaciones del riesgo deben eludir la semántica para el logro de sus propósitos? o quizá, ¿no debiéramos criticar severamente a quién escribe “anti- sísmico” en lugar de “sismo resistente”? Por mi parte, me opongo a ello y, pondré todo mi esfuerzo por demostrar que en estas aparentes nimiedades se encuentra un trasfondo que no ha permitido un lenguaje común en torno al riesgo.
La mayor confusión se presenta en la literatura del riesgo, que usa indistintamente las nociones de riesgo e incertidumbre.Aceptamos que se trata de una discusión más de tipo semántico, cosa que es cierta, pero acaso ¿las representaciones del riesgo deben eludir la semántica para el logro de sus propósitos? o quizá, ¿no debiéramos criticar severamente a quién escribe “anti- sísmico” en lugar de “sismo resistente”?. El uso apropiado de los términos propende, por otra parte, a representaciones y percepciones del riesgo más efectivas. Esta literatura la hemos denominado la “corriente débil”, en tanto que no precisan qué entienden por uno u otro concepto.
El riesgo es incertidumbre.El riesgo como incertidumbre es defendido, entre otros, por Rosa, Matsuda y Kleinhesselink (Renn & Rohrmann, 2000, p.188). Rosa (1998, pág. 28) afirma: Risk is a situation or event where something of human value (including human themselves) has been put at stake and where the outcome is uncertain; por otra parte, Giddens denomina el riesgo como una “incertidumbre fabricada” (Beck, et al., 1994, p.220). La incertidumbre es riesgo. Esta reflexividad entre los dos conceptos coadyuva a afianzar la “no distinción” de riesgo – incertidumbre. Beck es quizá el que más confusión ha generado al afirmar que en la ignorancia de los riesgos no perceptibles, crecen y prosperan los riesgos. Estos riesgos, dice Beck, se hacen globales en la medida que no conocen fronteras, son universalizados por el aire, el viento, el agua y la cadena alimenticia (Beck, 1986, pp.50-51), ¿Qué quiere decir Beck con ignorancia de los riesgos? Riesgos ignorados son riesgos inexistentes, el riesgo es conocido para ser riesgo; ¿cómo podría existir el riesgo de ser invadidos por seres que no conozco de un plantea que no conozco? Beck, entonces, se refiere a incertidumbres epistémicas, distorsionando el concepto de riesgo, tal como lo critican Campbell y Currie:
For more than 10 years, Ulrich Beck has dominated discussion of risk issues in the social sciences. We argue that Beck’s criticisms of the theory and practice of risk analysis are groundless. His understanding of what risk is badly flawed. His attempt to identify risk and risk perception fails.
He misunderstands and distorts the use of probability in risk analysis. His comments about the insurance industry show that he does not understand some of the basics of that industry (Campbell y Currie, 2006, p.149).
De ser así, la sociedad del riesgo de Beck es una sociedad de la incertidumbre. Una sociedad con un grado de conocimiento bajo o nulo en lo que respecta a los nuevos riesgos (cambio climático dos décadas atrás, por ejemplo). Nuestro propósito no es desacreditar la obra de Beck con la cual coincidimos en sus aspectos esenciales. Estamos de acuerdo, por ejemplo, en la existencia de riesgos globales y democráticos que escapan al control y gestión de las agencias gubernamentales y científicas, demandando una gobernanza igualmente global:
Surge una situación completamente distinta cuando los peligros de la sociedad industrial comienzan a dominar los debates y conflictos públicos, políticos y privados. Aquí, las instituciones de la sociedad industrial se convierten en los productores y legitimadores de amenazas que no pueden controlar (Beck, et al., 1994, p.18).
No obstante estos acuerdos, el concepto de sociedad del riesgo plantea la existencia de amenazas que, además de escaparse a la percepción, no pueden ser determinadas científicamente (Beck, et al., 1994, pp.19-20). Es decir, incertidumbres. Lo complejo del concepto de los nuevos riesgos planteados por Beck es la mezcla de riesgo, más conocimiento, más desconocimiento y reflexividad (Beck, 2002, p.177). En esta “incertidumbre fabricada”, como la denomina Giddens, la reflexividad o “consecuencias no deseadas” de la modernización industrial se sustituye por el “desconocimiento” que, según Beck (Ibid, pp.192-193) es aquel que “puede conocerse o no, puede ser concreto o teórico, reticencia a conocer o incapacidad de conocer, etc.”. Beck, entonces, presenta un concepto de riesgo que se confunde entre el conocimiento y la incertidumbre:
Por tanto, el concepto contemporáneo de riesgo asociado a la sociedad del riesgo y a la incertidumbre manufacturada se refiere a una peculiar síntesis de conocimiento y desconocimiento (Ibid, p.222).
Creemos, como Beck, que el desarrollo e implementación de nuevas tecnologías trae consigo nuevos riesgos. En el contexto de “posibles riesgos” está presente la incertidumbre o desconocimiento de lo que pueda suceder. Es ésa, entonces, la incertidumbre fabricada por la ciencia y tecnología, que por sus características no se puede evaluar ni gestionar, hasta tanto no se tenga conocimiento de sus causas y efectos. Es decir, no son riesgos.
Para esta corriente el riesgo es incertidumbre, pero en grado. Esta propuesta, en principio, pareciera ser una posible fuente de distinción. La incertidumbre es el complemento (en términos de la lógica) del grado de conocimiento sobre un evento natural o artificial. Es decir, es lo que ignoramos para que nuestro conocimiento sea completo. En esta primera descripción de la corriente fuerte de la incertidumbre se presentan los primeros interrogantes: ¿existe conocimiento total o acabado?, ¿cuál es ese complemento a nuestro grado de conocimiento? Si como respuesta a la segunda pregunta obtuviéramos: “aquello que ignoramos”, entonces los interrogantes no cesarían: ¿cómo medir la ignorancia?, ¿cómo saber cuál es el grado de incertidumbre?, ¿cuál es el referente para medir el grado de incertidumbre? Estas preguntas, desde la descripción inicial de esta corriente, son lógicamente formuladas y al parecer sin respuesta positiva. No podemos predecir en la ignorancia y menos tomar decisiones en lo incierto, en lo desconocido.
La incertidumbre es duda. En la incertidumbre no existen suficientes razones para creer o para tomar decisiones.
Es un riesgo apresurarme a las anteriores afirmaciones sin profundizar en lo que se entiende por grados de incertidumbre. Iniciemos con el supuesto de la validez de la propuesta, lo cual implicaría la existencia de una incertidumbre de mayor grado que se encontraría en la frontera borrosa entre el conocimiento y la ignorancia. Esta incertidumbre en “sumo grado” es frecuente encontrarla en la literatura sobre el riesgo. La cuasi-ignorancia o incertidumbre en sumo grado sobre los fenómenos estudiados es confundida con el riesgo mismo.Esta afirmación es fácil de corroborar en textos referidos a los llamados “riesgos globales”. En su momento el cambio climático presentaba más incertidumbres cercanas a la ignorancia (en el contexto de la propuesta) que conocimientos acerca de sus causas o efectos, sin embargo era frecuente tratarlo como un riesgo más.
¿Cómo hacer posible una efectiva divulgación del riesgo, si lo que divulgamos es nuestra ignorancia acerca de los fenómenos estudiados? ¿Era posible comprender el fenómeno del cambio climático, si existía más ignorancia que conocimiento acerca de sus causas y de sus efectos?Hoy en día todavía existen dudas, pero el grado de conocimiento sobre los efectos del cambio climático es mayor. Existen estudios respaldados por una amplia comunidad de científicos de primer nivel que le dan carácter de riesgo a lo que antes era incertidumbre.
En un grado menor de incertidumbre, se presume mayor conocimiento. En el contexto del riesgo los efectos se hacen evidentes, hay un tránsito de la incertidumbre al riesgo. Este tránsito se refleja en un cambio en las acciones a seguir, se cambia de la precaución a la prevención.
En este estado de conocimiento (o de la incertidumbre) es posible divulgar ese grado de conocimiento, se hacen posibles y racionales las políticas públicas acerca del cuidado de nuestro medio ambiente. El riesgo es creado, representado y divulgado y la percepción del riesgo crece también en grado.
En la corriente fuerte, el riesgo, la incertidumbre y la ignorancia son grados de incertidumbre. Si quitáramos los apelativos, son incertidumbres. He ahí la confusión.
Renn (2005) propone una posible distinción entre incertidumbres que nos permite acercarnos a un primer debate y a aclarar la confusión generada en torno al concepto. Al respecto expresa,
Risk analysts consequently distinguish between aleatory and epistemic uncertainty: epistemic uncertainty can be reduced by more scientific research while aleatory uncertainty will remain fuzzy regardless of how much research is invested in the subject. Remaining uncertainties pose major problems in the later stages of risk characterization and evaluation as well as risk management since they are difficult to integrate in formal risk-benefit analyses or in setting standards (Renn, 2005, págs. 28-30).
Existen entonces dos clases de incertidumbre, una epistémica y otra de tipo estadístico. La primera de ellas podríamos asociarla a la corriente débil, pero reconociendo que con más investigación es posible reducirla tal como lo expresa el “principio de precaución”.La versión más popularizada es el principio 15 de la Declaración de Río sobre el Medio Ambiente y el Desarrollo (1992):”Con el fin de proteger el medio ambiente, los Estados deberán aplicar ampliamente el criterio de precaución conforme a sus capacidades. Cuando haya peligro de daño grave o irreversible, la falta de certeza científica absoluta, no deberá utilizarse como razón para postergar la adopción de medidas eficaces en función de los costos para impedir la degradación del medio ambiente”. Falta de certeza absoluta es simple y llanamente: falta de conocimiento.
En ese sentido este tipo de incertidumbre no puede ser igual al riesgo, es un concepto referido a la ignorancia o falta de conocimiento.
La incertidumbre estadística es un problema distinto, es el problema duro a resolver.
Es la incertidumbre buscada o explicada desde los diferentes modelos estadísticos que permiten predecir posibles escenarios.La incertidumbre estadística, a su vez, presenta serias discusiones en torno a los observables y no observables. El debate Einstein – Bohr es un ejemplo de estas divergencias entre las incertidumbres de la estadística de la mecánica clásica (determinista, causal y predictiva en el lenguaje común, esto es, cuando se conoce exactamente el estado del sistema o se puede precisar exactamente el valor numérico de cada una de las magnitudes físicas como energía, momento cinético, posición, etc.) y las nuevas incertidumbres aleatorias de la mecánica cuántica (indeterminista y al azar). En dichos escenarios hay conocimiento de lo que podría suceder, pero no hay conocimiento de lo que con certeza sucederá. La incertidumbre se refiere es al desconocimiento del futuro, no al desconocimiento de lo que ya es conocido. Es un concepto de incertidumbre más complejo que se vincula a otros igualmente complejos y debatidos como la probabilidad, la verdad, la certeza y la validez de un enunciado o proposición. En este tipo de incertidumbre es posible encontrar una luz en el túnel de la confusión.
Furthermore, many potential impacts may be caused by a unique combination of events (surprises) which is impossible to predict. Thus uncertainty prevails in spite of the concerted effort to assess and manage risks (Zwick & Renn, 2002, p.1).
La imposibilidad de predecir es una característica propia de otros fenómenos diferentes al riesgo (efectos de los transgénicos o de los nanoproductos en el medio ambiente, por ejemplo). A estos fenómenos se responde con precaución. La posibilidad de predecir es una característica propia del riesgo. Obsérvese que no afirmamos una predicción exacta. En situaciones de riesgo se predicen los “posibles” futuros del mundo, dadas unas condiciones conocidas. Es posible que la predicción falle por la presencia de “incertidumbres”, pero en últimas es predicción. Hay conocimiento de las causas y efectos que permiten estimar un futuro escenario, en el cual es posible recurrir a las probabilidades como base para la predicción. Al fallar la predicción surge el grado de incertidumbre que propone la corriente fuerte.
Si tratáramos de representar la corriente fuerte y si aceptáramos las probabilidades como grados de creencia o de conocimiento, sería algo parecido a lo de la figura 1.Stirling (1999, p.122) presenta un modelo similar en el que relaciona dos variables: conocimiento sobre las posibilidades (likelihoods) y conocimiento sobre los resultados (outcomes). El riesgo se ubica donde hay mayor conocimiento en ambas variables. Extrañamente, en 2009, cambia la variable asociada a las posibilidades por “knowledge about probabilities” (Stirling, 2009). La propuesta de Stirling se centra en cuatro estados de conocimiento lógicamente posibles que se presentan en la toma de decisiones: riesgo, incertidumbre, ambigüedad e ignorancia. Su diferencia mas notoria con nuestro modelo es la consideración del estado de conocimiento “incertidumbre” como aquel donde el conocimiento sobre las probabilidades es bajo. En este esquema, el riesgo es un grado de incertidumbre, pero con probabilidades y efectos (costo-beneficio) conocidos.
Podemos arriesgarnos a apostar un dinero a que el resultado del lanzamiento de una moneda es “cara”, sabemos de su probabilidad (objetiva o subjetiva) y del costo - beneficio (perder o ganar el dinero) ; es decir, es posible predecir.
En el otro extremo de la gráfica está la incertidumbre per se o, si se prefiere, en grado sumo; en este caso es bajo o casi nulo el conocimiento de las probabilidades y de los resultados.
Figura 1. El riesgo como grados de incertidumbre.
En otros grados de incertidumbre existe conocimiento (así sea bajo) de alguno de estos dos factores. Sabemos que la probabilidad de una visita extraterrestre es baja o prácticamente nula (por experiencias no acaecidas), pero es incierto el costo-beneficio de esta visita. Desconocemos la probabilidad de impacto de un gran objeto sobre la tierra, pero sabemos de sus consecuencias.
Un primer acercamiento a la distinción riesgo – incertidumbre se elucida en la corriente fuerte. López-Cerezo y Luján (2000) establecen una tipología para la incertidumbre: riesgo, incertidumbre, ignorancia e indeterminación. En la primera categoría, la incertidumbre denominada riesgo requiere del conocimiento de la probabilidad de uno u otro resultado; mientras que para la segunda categoría, la incertidumbre per se, no se conoce una posible distribución de probabilidades. La incertidumbre es, entonces, para estos dos autores, la carencia de probabilidades. A pesar de la taxonomía, hay distinción. Los autores dejan entrever un conocimiento, así no sea muy concreto, al proponer posibles efectos bajo incertidumbre. Es decir, así se denomine incertidumbre en grado, hay conocimiento. Nuestra propuesta es la de un concepto de riesgo en el conocimiento, que nos permite predecir posibles efectos y tomar decisiones racionales en torno a dicho conocimiento. Vamos a defender esta hipótesis en la cual el riesgo se construye desde el conocimiento, en contraposición a la incertidumbre que se recrea en las categorías de la ignorancia, donde no es posible predecir. En la ignorancia no existe nada que podamos clasificar, definir o ponernos de acuerdo. Mientras no haya distinción, no habrá acuerdo. Si bien López-Cerezo y Luján retoman esta tipología de Wynne (1992), dejan a un lado tres categorías que Wynne incluye: complejidad, desacuerdo y ambigüedad. Categorías que más que justificar la gradación propuesta, justifican una distinción riesgo – incertidumbre. La complejidad entendida como un grado de incertidumbre es frecuente cuando la primera se reduce a través de modelos inadecuados o incompletos de cadenas causa-efecto. Al respecto Renn plantea:
Uncertainty is different from complexity but often results from an incomplete or inadequate reduction of complexity in modeling cause-effect chains. Whether the world is inherently uncertain is a philosophical question that we will not pursue here (Renn, 2005, p.30).
En el desacuerdo no hay un concepto de incertidumbre sobre el que podamos discutir, es el problema que estamos afrontando; es decir, queda subordinado al resto de este apartado. En la ambigüedad se pierde el sentido de ambos conceptos, es aquí donde se hace borrosa la distinción. Modelar la incertidumbre con los paradigmas de la “Utilidad Esperada”Véase Eichberger (2004) sobre la distinción riesgo y ambigüedad., con estudios sofisticados desde la estadística estocástica o desde la novedosa lógica borrosa o difusa, sólo ha aumentado la confusión entre incertidumbre y riesgoLos debates en torno a las probabilidades se abordarán en las siguientes secciones de este apartado. La separación es intencional, en tanto que nos apoyaremos en la discusión actual para fundamentar nuestra hipótesis de una distinción necesaria entre riesgo e incertidumbre, de cara a un consenso conceptual.. Si aceptáramos como válida la premisa de que el riesgo se evalúa desde las probabilidades, podemos asegurar que no hablamos de una lógica bivalente. Al igual que la lógica difusa, el estudio de las probabilidades no se circunscribe a dos valores de verdad. Una probabilidad de un 80% de contraer un virus, no dice que es “verdadera” la infestación por este virus. Una probabilidad de un 80% de contraer un virus dice que “es casi cierta” dicha contaminación. ¿En qué se diferencia de la lógica difusa?, ¿de dónde surge la confusión? Si asumiéramos la palabra “posibilidad” en lugar de “probabilidad”, es decir la probabilidad en términos de “grados de creencia”, no tendríamos diferencia con los conjuntos difusos, los cuales son una distribución de posibilidades en términos de los llamados “grados de pertenencia”Léase Zadeh (1965) para el concepto original de grados de pertenencia (grades of membership). Matos (2007) presenta una propuesta multi-criterio de análisis de la incertidumbre, que incluye modelos de distribución probabilística y de distribución “posibilística” o difusa. Véase también Dubois (2006)..
Sin necesidad de profundizar en los extensos tratados sobre lógica difusa y de los aún más extensos tratados de lógica no bivalente, anteriores a la primera, se antoja fácil identificar los principios que orientaron la propuesta de esta “novedosa” lógica. Cohen y Hansel (1956) hacen alusión al lenguaje de la incertidumbre en palabras o frases como: “períodos de bajo rendimiento”, eventualmente, ordinariamente, “alto desempleo”, “algunas enfermeras”, “muy bajo”, etcétera. Poco después, Zadeh (1965) afirma que clases como “las mujeres bellas” o “los hombres altos” no pueden tratarse dentro de la teoría clásica de conjuntos, sino como clases en grados de pertenencia (más bella, menos bella, más alto,…) . La “distribución de posibilidades” de cada uno de esos elementos “difusos” es la colección de los posibles valores de dichos elementos (Zadeh, 1981). Esta lógica borrosa o difusa es una respuesta a la vaguedad o, para ser más precisos, a la imprecisión. Es la incertidumbre de la medida, lo que implica conocimiento de lo impreciso.
Probabilidad o posibilidad es quizá otra fuente de confusión. Zadeh mezcla estos dos conceptos en afirmaciones como:
In the conventional approaches to decision analysis, uncertain information is treated probabilistically, with probabilities assumed to be known in numerical form. In an alternative approach […], a more realistic assumption is made, namely, that probabilities are known imprecisely as fuzzy rather than crisp numbers. Such probabilities -which will be referred to as fuzzy probabilities- are exemplified by the perceptions of likelihood which are commonly labeled as very likely, unlikely, not very likely, etc. (Zadeh, 1984, p.363).
Se confunde probabilidad con posibilidad.
La propuesta de gradación de la incertidumbre presentada por Funtowicz y Ravetz (2001), en la Ciencia Posnormal, destaca la incertidumbre en grado sumo.
En sus argumentos, Funtowicz y Ravetz apelan al problema que hoy en día enfrentan científicos de todas las disciplinas: el problema de las incertidumbres globales, especialmente las de tipo ambiental enunciadas por Beck . En este tipo de incertidumbre se devela la debilidad de la empresa científica, su incapacidad de predicción y, por consiguiente, su distinción con el riesgo. A pesar de la propuesta de gradación, al igual que Beck, reducen las incertidumbres en grado sumo a riesgos globales. Esta reducción, que no compartimos, permite que la confusión entre riesgo e incertidumbre siga latente. Al igual que López-Cerezo y Luján, la incertidumbre no entra en el ámbito de la ignorancia, sino en las cercanías de la ignorancia; al respecto expresan: “Thus, these experts discover in their own practice an extreme form of uncertainty, on that borders on ignorance […] uncertainty cannot be treated by standard mathematical or computational techniques” (Funtowicz & Ravetz, 2001, pp.188-189).
Con lo cual estamos de acuerdo, en tanto que la incertidumbre no se puede medir a través de modelos matemáticos comunes. Degradar la incertidumbre, en términos del conocimiento, es cambiar el sentido mismo de la incertidumbre. Una gradación de la incertidumbre resulta ser inconveniente para el propósito de alcanzar un acuerdo conceptual en torno al riesgo. La incertidumbre es duda, el riesgo es posibilidad. Responder “no sé” a la pregunta ¿es posible que haya pérdidas humanas? es una respuesta desde la incertidumbre, una respuesta positiva se da desde del conocimiento y cualquier decisión es bajo riesgo. Renn (2005, p.30) acepta una falta de consenso en cómo se puede lograr esta gradación. Sin embargo, propone cinco categorías de incertidumbre, dos de las cuales coinciden con las propuestas por Wynne: Indeterminación e IgnoranciaEntre estas categorías de Renn se destaca (a pesar de esquivar una discusión filosófica) el riesgo inductivo enunciado por Carnap. Riesgo que describe como error en la modelación. Para ello cita como ejemplo la modelación para seres humanos partiendo de aplicaciones en animales. Este riesgo inductivo lo clasifica, además, como una “incertidumbre epistémica”..
Es claro que la ignorancia es la categoría en la cual estará el consenso.
“All our philosophy is a correction of the common usage of words” (von Mises, 1981, p.1)Esta frase es tomada de uno de los aforismos del científico alemán Georg Christoph Lichtenberg. A pesar de ser una expresión del siglo XVIII, von Mises la utiliza como introducción a su extensa defensa del concepto de probabilidad frecuentista y, agrega: “muchas de las discusiones y de los errores que ocurren en el curso del avance científico podrían ser evitados si esta observación fuera recordada siempre” (von Mises, 1981, p.1)..
La frase con la que von Mises inicia su defensa del concepto de probabilidad como palabra clave, que permite la relación entre la estadística y la verdad científica, se constituye, en nuestro concepto, en una expresión que refuerza la importancia de las palabras y su significado en el lenguaje científico. Riesgo, incertidumbre, probabilidad y creencia, amplían la compleja red de conceptos en los cuales tendremos que profundizar para comprender la falta de consenso en uno u otro concepto. Cada uno de ellos se utiliza con connotaciones distintas en un contexto específico o en un paradigma determinado, y sin embargo son utilizados en un lenguaje común para representar, informar o comunicar las características de un fenómeno cualquiera. “Es probable que mañana llueva”, es una frase que para un grupo de personas tenga significados distintos. Para un experto climático, dentro de su paradigma, existen suficientes razones para creer que el comportamiento del clima en el día de mañana sea lluvioso. Para un matemático no dice nada, en tanto no se conozca el modelo probabilístico utilizado y las fuentes claves que permitan un estimador más robusto. Para un filósofo escéptico, la palabra probabilidad no existe o se trata de una simple especulación. Para un hombre común existen suficientes razones, dadas por la experiencia, para dudar de esta afirmación .
El problema de múltiples significados de una sola palabra trae como consecuencia la incomprensión o distorsión del mensaje que se pretende hacer llegar. Esta situación se torna más compleja cuando dentro de la comunidad científica no hay acuerdo en la definición de la palabra. Peor aún, en el contexto de los países de habla hispana, solemos incorporar del idioma inglés palabras como: Chance, likelihood, probability, odds, gamble, feasibility, likeliness y prospect con significados similares y, a veces, sinónimosRivadulla (1991, p.261) describe esta tendencia de asignarle diferentes palabras al concepto de probabilidad: “[…] también Leibniz, quien en ‘De incerti aestimatione’, 1678, concibe la probabilidad como ‘gradus possibilitatis’ utiliza con frecuencia la expresión ’estimación’ de probabilidad; y John Arbuthnot, quien en 1692 publica la traducción del libro de Huygens, con el título de ‘Of the laws of chance’, traduce como ‘equal probabilities’ la expresión ‘posibilidades iguales’”.. Agravando aún más la situación, se tiende a confundir con el mismo concepto de incertidumbre: “La verdad probable o contingente abarca todos aquellos juicios que dependen de sucesos cuyas características no podemos investigar y cuya predicción se hace con un alto grado de duda” (Devey, 1854, p.166) .
Pero el panorama no es tan obscuro. Si Devey asociaba la probabilidad a la incertidumbre, contemporáneos como De Morgan (1847, pp.170-173) y Boole (1854, p.244) la asociaban a grados de creencia . Postura que es defendida por Keynes (1921, p.20) como grados de creencia racional y por los llamados bayesianos: Ramsey, Savage y de Finetti.
Philosophical efforts to clarify this concept are as old as its history, and the basics ideas of the two main groups of theories which seek to determine its meaning go back to the beginnings of this history. For a first orientation, these may be contrasted as the “aprioristic” an “empiricist” views of probability (Hempel, 1965, p.89).
Asumiendo como válidas las categorías de Wynne, y entendiendo que la mayor confusión se da en la incertidumbre aleatoria, el referente obligado para establecer la distinción riesgo - incertidumbre es, entonces, el concepto de probabilidad.
Es allí donde encontramos un primer acuerdo con algunas autoridades. Knight (1921) fue uno de los primeros investigadores del riesgo en proponer una distinción entre riesgo e incertidumbreFrank H. Knight fue uno de los fundadores de la escuela de economía de Chicago. Según Knight, el riesgo está referido a una situación donde la probabilidad de un resultado está determinado. Por contraste, en la incertidumbre se presentan eventos cuyas probabilidades son desconocidas... Para ello habla de dos tipos de incertidumbre, una mensurable y otra inmensurable. La primera la asocia al término “objetivo” y al concepto de riesgo. Por otra parte, las probabilidades subjetivas y la incertidumbre inmensurable es lo que entiende Knight por incertidumbre propiamente. Esta postura, no gradada, sobre la incertidumbre es respaldada, en parte, por Elster (1990). Plantea Elster que en la incertidumbre el agente o conjunto de agentes no puede asignar probabilidades numéricas a la ocurrencia de un suceso, tampoco puede especificar el conjunto completo de posibles estados del mundo, y ni siquiera son capaces de dar cuenta de las probabilidades de estos estados en el futuro. Tomar decisiones bajo incertidumbre, reiteramos, es tomar decisiones desde la ignorancia. En este caso hay dos puntos de encuentro de nuestra hipótesis con las posturas de Knight y Elster. El primero referido a la necesidad de una distinción y el segundo en un concepto de riesgo construido desde el conocimiento de las probabilidades . Estamos más de acuerdo con Elster en una incertidumbre como reflejo de la ignorancia. Si bien Knight defiende la distinción riesgo – incertidumbre, su concepto de incertidumbre inmensurable es subordinado a las probabilidades subjetivas en las cuales, sin embargo, hay conocimiento subjetivo .
El concepto de probabilidad asociado al concepto de riesgo presenta problemas de consenso entre los diversos tipos de probabilidad. Nuevamente se justifica la profundización en las raíces del desacuerdo. Así como actualmente enfrentamos el problema de una multiplicidad de conceptos de riesgo y de incertidumbre, el concepto de la probabilidad no escapa a las múltiples concepciones. Carnap, en este sentido, planteaba que,
la mayoría de los libros sobre la probabilidad no establecen una distinción entre diversos tipos de probabilidad, una de las cuales sea llamada la “probabilidad lógica” […] Es lamentable que se haya usado la misma palabra, “probabilidad”, en dos sentidos tan diferentes. Por no realizar esta distinción surgen enormes confusiones en libros sobre filosofía de la ciencia y en declaraciones de los mismos científicos (Carnap, 1966, p.39).
Obsérvese que en la expresión de Carnap y en el contexto de las categorías de Wynne, podríamos parodiar: … por no realizar la distinción riesgo – incertidumbre surgen enormes confusiones… Establecer esta distinción coadyuva a un acercamiento al concepto de riesgo. Carnap planteaba la existencia de dos tipos de probabilidad, una estadística y otra lógica. Es decir, por inferencia estadística o por inferencia inductiva (no demostrativa)Asumiremos como inferencia inductiva aquella que implica una conclusión con un grado más o menos alto de probabilidad, mientras que las conclusiones por inferencia deductiva son conclusiones con certeza (Hempel, 1966, p.27).. Los tipos de probabilidades a las que hace alusión Carnap, a su vez, permiten profundizar en la complejidad de la incertidumbre. La probabilidad lógica de Carnap surge como un método para definir lo que denominó “grado de confirmación” para cualquier hipótesis, expresada con relación a una información dada (Hempel, 1966, p.75). Pese a esta clasificación de Carnap, es frecuente encontrar otras taxonomías sobre la probabilidad.
Al debate entre keynesianos y frecuentistas se suman otros debates igual de importantes por su contenido epistémico: bayesianismo versus frecuentismo, probabilistas (objetivistas) versus subjetivistas, y más particular, creencia versus preferencia. Sea cual fuere el concepto de probabilidad, tanto en su construcción como en el modelo adoptado, la creencia juega un papel importante . La probabilidad per se es subjetiva.Se excluyen las probabilidades objetivas de Popper o las que denominó “posibilidades con peso” o propensiones (Popper, 1990). Las propensiones, que defiende Popper, son realidades físicas, no son inherentes al sujeto, están más allá de nuestras creencias. La propensión tampoco es inherente al objeto, según Popper es inherente a la situación, donde el objeto es parte de la misma..
Ramsey, al igual que Carnap, abogaba por una distinción entre las probabilidades lógicas y estadísticas. Según Ramsey, una y otra escuela discuten en torno a conceptos distintos, en tanto que:
the general difference of opinion between statisticians who for the most part adopt the frequency theory of probability and logicians who mostly reject it renders it likely that the two schools are really discussing different things, and that the word 'probability' is used by logicians in one sense and by statisticians in another. The conclusions we shall come to as to the meaning of probability in logic must not, therefore, be taken as prejudging its meaning in physics (Ramsey, 1931, p.157).
¿Por qué surgen estos debates? La respuesta refuerza aún más la importancia de una distinción riesgo – incertidumbre. Los debates tienen su trasfondo en la formulación de teorías que tratan de dar respuesta a los fenómenos del mundo. La validez de las teorías se fundamenta en la validez de las leyes que la constituyen que, a su vez, en palabras de Carnap, tienen grados de confirmación que se traducen en grados de creenciaNos referimos a las leyes empíricas tal como las concibe Carnap (1966, pp.24-25), exceptuando las leyes de la lógica y de la matemática pura, excepción que se justifica en el carácter de certeza de estas leyes. Las leyes empíricas o probabilísticas (Hempel, 1966, p.93) son comunes en la formulación de teorías y principios de las ciencias naturales..
Para no alargar la discusión, partiremos de una simple afirmación: “la probabilidad es un grado de creencia”. Grado de creencia como contraposición al “grado de incertidumbre”. Medir probabilidades, entonces, es medir creencias:
The subject of our inquiry is the logic of partial belief, and I do not think we can carry it far unless we have at least an approximate notion of what partial belief is, and how, if at all, it can be measured. It will not be very enlightening to be told that in such circumstances it would be rational to believe a proposition to the extent of 2/3, unless we know what sort of a belief in it that means. We must therefore try to develop a purely psychological method of measuring belief. It is not enough to measure probability; in order to apportion correctly our belief to the probability we must also be able to measure our belief (Ramsey, 1931, p.166).
La probabilidad como grado de creencia se devela tanto en las llamadas probabilidades objetivas y, como es obvio, en las subjetivas. La forma más simple de probabilidad objetiva, y más temprana en la historia de las probabilidades, es el caso que se da en un espacio muestral finito con resultados equiprobables. Desde el concepto clásico de la probabilidad, aún vigente, es común representarla con expresiones tales como: P(A) = Rf / Rp, donde Rf son los resultados favorables del evento A y Rp los resultados posibles (Carnap, 1966, p.40). Por ejemplo, la probabilidad de que al lanzar una moneda el resultado sea cara es P(A) = 1/2 o del 50%. Esta afirmación está cargada de creencia. Creencia en la equiprobabilidad, creencia en las características homogéneas de la moneda y, especialmente, en la inferencia estadística generadora, a su vez, de innumerables debatesUn primer cuestionamiento a esta probabilidad simple la plantea Bernoulli a través de la paradoja de San Petersburgo enunciada en 1738. He ahí una probabilidad objetiva cargada de subjetividad..
La inferencia estadística, así como la inferencia inductiva, es fruto de la creencia; no de la incertidumbre. En lo incierto no hay creencia, no es posible creer en lo que se ignora . Las leyes bajo certeza son universales, las leyes empíricas nacen de la creencia como grado. El grado de creencia de obtener cara en el lanzamiento de una moneda es del 50%, el riesgo es del 50%. El grado de creencia de resultar afectado por una epidemia gripal es alto, la creencia construye el riesgo. Reducir la incertidumbre o la ignorancia es convertirla en “razones para creer”, es llevarla al nivel del riesgo. No hay incertidumbre de morir en una explosión atómica, hay riesgo y, por contraste, es demasiado alto, tan alto que se convierte en certeza. Existe un alto grado de creencia que hemos denominado certeza. Desde la incertidumbre gradada o no, no es posible formular una ley, mucho menos una teoría que dé cuenta de lo que no conocemos. Apostarle a la incertidumbre como riesgo, es confundir el concepto mismo de riesgo. Apostarle a la incertidumbre como grado, igualmente confunde. Ravetz con respecto a la incertidumbre manifiesta:
Formerly, theorists distinguished between “risk”, which could be quantified, and “uncertainty”, which could not. Now we have various kinds and degrees of uncertainty, and ignorance as well. And even ignorance reveals a host of varieties within itself. In particular, we have “policy-critical ignorance”, as when there are no parameters, no theories, hardly any guesses, to supply a necessary foundation for policy decisions (Ravetz, 1997, p.6),
igualmente confunde.
Las teorías se introducen, normalmente, cuando estudios anteriormente realizados de una clase de fenómenos han revelado un sistema de regularidades, que se pueden expresar en forma de leyes.
Las teorías intentan, por tanto, explicar estas regularidades y, generalmente, proporcionar una comprensión más profunda y exacta de los fenómenos en cuestión. En tal sentido, el concepto de riesgo se puede sustituir por una “teoría del riesgo”.
El riesgo entendido como la probabilidad de que un evento no deseado pueda o no ocurrir, es el significado técnico estándar del término en la teoría de la decisión. “Por decisión en condiciones de riesgo se entiende decisión con probabilidades definidas” (Hansson, 2005, p.70; López Cerezo & Luján, 2000, p.50), es el riesgo hecho probabilidad (Slovic & Weber, 2002, p.4), en el cual hay un mayor consenso entre los expertos. La estimación probabilista del riesgo de la ingeniería nuclear que puede arrojar como “resultado” un accidente nuclear, la estimación cuantitativa del riesgo carcinógeno de un producto químico o la probabilidad de que exista una serpiente cascabel en un cajón de nuestro escritorio, se basan en modelos teóricos, modelos que en muchos casos están cargados de presunciones subjetivas de quien o quienes lo formulan.
El mejor ejemplo de la subjetividad de este riesgo probabilista, también denominado riesgo objetivo, se encuentra en las estimaciones de riesgo nuclear presentadas en el conocido informe de Norman Rasmussen (López Cerezo & Luján, 2000, pp.43-46), ingeniero nuclear, quien por encargo de la Comisión de Energía Atómica de los Estados Unidos realizó en 1974 un estudio sobre la probabilidad de un accidente nuclear grave. Sin entrar en detalles de su modelo, Rasmussen estimaba que una fusión del núcleo en una central nuclear sólo se daría una vez en un millón de años de operación del reactor y que un accidente grave sólo es esperable una vez cada 10,000 millones de años.
No hubo necesidad de esperar tantos años, en 1979 las cadenas de noticias de todo el mundo anunciaban: “Fue declarado el estado de alerta esta mañana en una central nuclear norteamericana en Pensilvania. La rotura de una bomba de alimentación de agua…” (Verón, 1983, p.18). Se trataba del accidente de la central nuclear de Three Mile Island (TMI). La verdad es que no se trató de una rotura de una bomba como se anunció en un principio (distorsión del riesgo), sino de una serie de errores humanos que desencadenó una apertura (no rotura) de válvulas de seguridad para inyectar agua fría al reactor, las cuales fueron cerradas (otro error humano) generando altas temperaturas en el corazón del reactor y la expulsión a la atmósfera de gases radiactivos. Este último hecho constituye el accidente, el riesgo real. Los efectos del accidente de TMI aún no se han divulgado. El modelo de Rasmussen quizá no contempló el factor humano como fuente de riesgo. Otra predicción probabilista del riesgo nuclear arrojaba, para las personas vecinas a un reactor, una probabilidad anual de morir por un accidente en un reactor de una entre 300 millones. Es decir riesgo “cero” en el contexto del llamado “riesgo aceptable”; sin embargo, Chernóbil falsa el modelo.
Ejemplos como éstos abundan en la sociedad de la incertidumbre. A pesar de los modelos, la incertidumbre juega un papel importante. A pesar de los algoritmos que permiten las sofisticadas simulaciones, la subjetividad presente en el ingreso de los datos genera fisuras de conocimiento que llevan a resultados como el del accidente de TMI.
A pesar de los grandes avances tecnológicos, las creencias son las que en últimas definen el modelo probabilista a utilizar. No obstante las consecuencias no deseadas, los modelos probabilistas ganan terreno en la configuración del riesgo. El consenso intersubjetivo que acepta dichos modelos permite un encuentro entre los expertos, crea el llamado riesgo objetivo.
Thus, both doubt and belief have positive effects upon us, though very different ones. Belief does not make us act at once, but puts us into such a condition that we shall behave in some certain way, when the occasion arises. Doubt has not the least effect of this sort, but stimulates us to action until it is destroyed (Peirce, 1877).
Mucho se ha escrito sobre las creencias. Por contraste a los conceptos de riesgo, de incertidumbre y de probabilidad, el concepto de “creencia” es más nítido, menos borroso, a pesar de su gradación. La acción de creer es el fin de la duda, es la eliminación de la incertidumbre. Con la creencia cesa la lucha que causan nuestras dudas o incertidumbres (Ibid). Creer en las teorías, creer en los postulados de una corriente de pensamiento, creer en los dogmas de una religión, creer en nuestras opiniones, es crear nuestra red de conceptos y, en consecuencia, nuestro conocimiento subjetivo. Hay certeza en nuestras creencias, todas ellas son verdaderas para nosotros… así sean falsas. Es verdad que Dios existe; tenemos certeza de que si el terremoto es de grado 8.0, nuestra casa sufrirá graves consecuencias; creemos que Bush es un excelente gobernante; no creemos en incertidumbres gradadas o dudas pequeñas o grandes, todas ellas son “no conocimiento”, y como tal, no las podemos medir… ésa es nuestra creencia.
Pero este conocimiento es por grado. Se hace de mayor o de menor grado, en tanto interactuemos para compartir nuestras creencias. Esta gradación va de muy ignorantes a muy sabios, de legos a expertos. La interacción con grupos sociales, culturales o científicos reafirman o cambian nuestras creencias.
Es en esta interacción en la que creamos el conocimiento objetivoRetomamos parte de la frase de Popper (1994, p.87): “Los productos de la mente humana son reales: no sólo los que son físicos […] Considero real la teoría en sí, la cosa abstracta en sí, porque podemos interactuar con ella –podemos idear una teoría-, y porque la teoría puede interactuar con nosotros”. Reiteramos nuestra propuesta de una teoría del riesgo por contraste a una noción de riesgo.. La creencia dominante es la creencia intersubjetiva. Pero esta dominación se vuelve insoportable para algunas de nuestras creencias. Surgen de nuevo las dudas, se presentan otras luchas internas por lograr la creencia.
El objeto de estas luchas no es la incertidumbre, es algo que pertenece a nuestra red de conceptos o a nuestra esfera de conocimientos: “And it is clear that nothing out of the sphere of our knowledge can be our object, for nothing which does not affect the mind can be the motive for mental effort” (Peirce, 1877).
La reflexión anterior la hacemos para ubicar el concepto de creencia como concepto de conocimiento. Verdadero o falso, pero en últimas nuestro conocimiento. Creer en la existencia de incertidumbres es creer que existe la ignorancia, esto es verdadero, es tautológico. Pero creer que podemos medir el “no conocimiento” es una contradicción. ¿Cuánto no sé de lo que no sé? es una pregunta sin sentido. Lo que realmente medimos es nuestra creencia con respecto a la creencia dominante. Medimos nuestro conocimiento con referencia al conocimiento paradigmático, al conocimiento social, cultural, político o científicamente aceptado como creencia válida. Podemos medir nuestro grado de conocimiento (grado de creencia) en la teoría mecánica cuántica, en la geografía de Europa, sobre el cambio climático o, en una teoría del riesgo. No podemos medir nuestro “no conocimiento” sobre los impactos del cambio climático.
Cuando Heisenberg enuncia su “principio de incertidumbre”, lo hace no como “principio de no conocimiento”, sino en términos de “imposibilidad de determinar” dos variables físicas inherentes a una partícula simultáneamenteEste principio se constituye en uno de los baluartes de la teoría cuántica. Heisenberg demuestra que a nivel cuántico no es posible conocer de forma exacta el momento lineal y la posición de una partícula:
At the instant of time when the position is determined, that is, at the instant when the photon is scattered by the electron, the electron undergoes a discontinuous change in momentum. This change is the greater the smaller the wavelength of the light employed, i.e., the more exact the determination of the position. At the instant at which the position of the electron is known, its momentum therefore can be known only up to magnitudes which correspond to that discontinuous change; thus, the more precisely the position is determined, the less precisely the momentum is known, and conversely (copiado de http://plato.stanford.edu/entries/qt-uncertainty/)..
Pero, hay toda una esfera de conocimientos en torno a la partícula, conocimiento sobre la velocidad y la posición. Podemos medirlas, pero no simultáneamente . ¿Existen dudas sobre la existencia de la partícula, de su posición y su velocidad? Lo que existe es una imposibilidad en su medición, y es por ello que se prefiere enunciar el principio como “principio de indeterminación”. La indeterminación está referida al proceso de medición, y por ende al proceso de predicción. Ni en la incertidumbre, ni en la indeterminación podemos predecir. Desde el conocimiento o desde nuestras creencias podemos predecir, obteniendo como resultados nuevas creencias. En ese contexto se crea el riesgo. El riesgo es la creencia en la posibilidad de que algo suceda . La creencia en que algo sucederá, no es riesgo, es certeza. En la frase “yo creo que si una bala me da en la cabeza, la bala me hiere”, hay certeza. En la frase “yo creo que si el terremoto acaece con una magnitud de 8.0, mi casa posiblemente colapse”, hay un grado de creencia, se crea el riesgo. En contraposición a esta última creencia existe otra de menor grado, que la casa no colapse.
¿Cómo medir la creencia? La respuesta a esta pregunta parece encontrarse en la probabilidad bayesiana. Sin embargo, como lo hemos afirmado antes, las probabilidades objetivas no escapan a la subjetividad propia de los diferentes modelos aplicados. No es extraño que en torno a un modelo “objetivo” esté presente el debate como consecuencia de los grados de creencia de uno u otro actor.
En este contexto, es importante revisar lo que se entiende por probabilidad bayesiana, a pesar de las objeciones planteadas por los frecuentistas:
There is a continuing debate in the philosophy of probability between subjectivist and objectivist views of uncertainty. Objectivists identify probabilities with limit frequencies and consider subjective belief as scientifically irrelevant. Conversely subjectivists consider that probability is tailored to the measurement of belief, and that subjective knowledge should be used in statistical inference. Both schools anyway agree on the fact that the only reasonable mathematical tool for uncertainty modeling is the probability measure (Dubois, 2006, p.47).
Una de las principales discusiones de los Bayesianos es que la incertidumbre se debe representar por la probabilidad (Dubois, et al., 1996). Afirmaciones como la anterior son frecuentes en muchos de los textos que hacen alusión a las probabilidades bayesianas. Pero, ¿el objetivo de los bayesianos es medir la incertidumbre? Para los tempraneros exponentes como Ramsey, De Finetti y Savage, la probabilidad de un suceso mide el grado de creencia en la ocurrencia de dicho suceso, percibido por un sujetoTaroni, et al. (2006) definen el grado de creencia como el grado personal de creencia en que una proposición que describe un hecho, sea verdad. Estos autores prefieren hablar de grados de creencia débiles o fuertes. Posición con la que estamos de acuerdo. A una teoría subjetiva no podemos cargarla con más subjetividad, pretendiendo establecer un sistema de medición que difícilmente pueda diferenciar una creencia de grado 1/16 con otra de grado 1/8..
Ramsey (1931) reconoce, en principio, que la medición de la creencia no es fácil, y que ésta puede ser medida hasta cierto punto. Plantea que algunas son más medibles que otras y que depende de la medida.
Tal sistema es satisfactorio si logra asignar a cualquier creencia una magnitud o grado, lo que significa introducir cierta cantidad de hipótesis o de ficción, tal como ocurre en otros sistemas: “Even in physics we cannot maintain that things that are equal to the same thing are equal to one another unless we take 'equal' not as meaning 'sensibly equal' but a fictitious or hypothetical relation” (Ramsey, 1931, p.168).
El término probable bayesiano significa, entonces, el grado de creencia en un hecho como cierto . Si no se sabe si ocurrió el hechoVenn (1876, pp.104-107) no estuvo de acuerdo con una ciencia de la probabilidad vinculada a las leyes de la creencia. Aceptaba la analogía entre creencia o no creencia en un suceso con las probabilidades 1 o 0 de que suceda. No estuvo dispuesto a admitir la analogía de las probabilidades con creencias parciales, no aceptaba las posturas contrarias como la de De Morgan (1847, pp.170-191), que afirmaba que: “By degree of probability we really mean, or ought to mean, degree of belief”. Compartimos con De Morgan la afirmación de los grados de probabilidad como grados de creencia., sólo un grado de creencia menor que la certeza se puede asignar a la ocurrencia del hecho, tal como lo describe Peirce:
The numbers one and zero are appropriated, in this calculus, to marking these extremes of knowledge; while fractions having values intermediate between them indicate, as we may vaguely say, the degrees in which the evidence leans toward one or the other (Peirce,1923, p.64).
Por otra parte, uno de los conceptos en los que se fundamentan los bayesianos es el referido a la probabilidad condicionada, que “instead of speaking of this as the probability of the inference, there is not the slightest objection to calling it the probability that, if A happens, B happens. But to speak of the probability of the event B, without naming the condition, really has no meaning at allk” (Ibid, p.69).
Esta relación causa - efecto suele representarse por expresiones como: p(B/A). Bayes generaliza la expresión representando la cadena causal para un evento B de la siguiente manera:
Si A1, A2, ..., An son un conjunto de eventos que forman una partición del conjunto de posibilidades de un fenómeno cualquiera tal que 0 < p(A ) < = 0, ∀ i = 1, 2, ..., n , entonces para un evento B cualquiera en el espacio muestral de posibilidades de ocurrencia se verifica:
y esto para cualquier i = 1, ...., n.
Esta generalización o “teorema de Bayes” muestra una dependencia del evento B con las causas Ai, cuyas probabilidades son conocidas . Es decir, el grado de creencia de que el evento B suceda (así nunca haya sucedido) es igual al grado de creencia de que A y B sucederán. Quizá aquí nace la tendencia a afirmar que las probabilidades bayesianas miden la incertidumbre. Un ejemplo es la creencia en que “si el cielo está azul entonces no lloverá”. Es decir, en ausencia de datos para estimar si es probable que llueva, los eventos relacionados y conocidos (como el cielo azul) nos permite inferir la probabilidad (subjetiva o bayesiana) de lluvia. En este ejemplo, la probabilidad bayesiana no mide la incertidumbre, mide el grado de conocimiento que tenemos sobre un evento, la lluvia. Este grado de conocimiento será mayor si incluimos otros eventos relacionados: temperatura, presiones, etcétera. Nuestra afirmación es que la incertidumbre está referida al desconocimiento de un evento y a la imposibilidad de relacionar este evento desconocido con otros eventos. En el ejemplo anterior sabemos de la posibilidad de lluvia. Nuestras creencias nos permiten estimar, bien o mal, la posibilidad (probabilidad subjetiva o bayesiana) de que llueva o no.
Si la probabilidad bayesiana mide incertidumbres, entonces quisiéramos saber cómo podemos calcular la probabilidad de daño en la salud humana por el uso de transgénicos. Hasta el momento este evento es incierto. El riesgo, sin necesidad de recurrir a modelos matemáticos o probabilistas, se construye desde la creencia.
Es un riesgo cruzar una vía de alto tráfico, el nadar en un río turbulento, el contacto con personas infectadas por un virus, el transitar una calle desconocida a altas horas de la noche. Este riesgo subjetivo sin modelos probabilísticos es el que Kahneman (2002, p.465) denomina riesgo intuitivo: “The subjective assessment of probability resembles the subjective assessments of physical quantities such as distance or size. These judgments are all based on data of limited validity, which are processed according to heuristic rules”.
Estas reglas heurísticas basadas en grados de conocimiento bajos, como enuncia Kahneman, son las que han permitido la supervivencia del lego en la sociedad del riesgo. El bajo nivel de conocimiento que tiene el lego sobre ciertos estados del mundo, lo obliga a recurrir a estas reglas. Sus decisiones siguen patrones no formales, no incluyen probabilidades objetivas ni subjetivas. Desde sus creencias describen “posibles” estados del mundo, incluyen lo que para Kahneman son las “probabilidades subjetivas” . Tanto el experto como el lego hacen uso de estas probabilidades subjetivas al evaluar eventos con bajos grados de conocimiento como el resultado de unas elecciones o el de un partido de fútbol.
Sean reglas heurísticas o simples atajos cognitivos, la brecha entre expertos y legos parece estar relegada al grado de conocimiento que uno u otro tiene. Las decisiones del lego y su método de estimación de los riesgos comunes presentes en su vida cotidiana no se pueden solapar a riesgos más complejos, que carecen de la información pública suficiente, o cuyos mecanismos de comunicación o divulgación han sido débiles o poco efectivos.
El riesgo es la creencia anticipada de lo que podría ocurrir en caso de que se llegara a producir la amenaza. El desastre es “la materialización del riesgo”. Es decir, lo que era una posibilidad o un grado de creencia, efectivamente sucede. La incertidumbre es ignorancia y, por tanto, no es posible anticipar lo que sucederá, no es posible calcular probabilidad alguna.
Un análisis detallado de los argumentos anteriormente expuestos nos permite llegar a las siguientes conclusiones parciales:
El significado de términos como incertidumbre, riesgo y probabilidad no es el mismo entre una disciplina y otra. Este significado varía, incluso, en una misma disciplina. Esta polisemia ha llevado a confundir riesgo con incertidumbre. Es posible llegar a un consenso en el concepto del riesgo, sólo si se llega al consenso en conceptos como incertidumbre y probabilidad. Es decir, es perentorio utilizar palabras diferentes para conceptos diferentes: posibilidad (likelihood) en lugar de probabilidad subjetiva y, riesgo en lugar de incertidumbre.
La imagen anterior, da cuenta de la sinonimia que tiene la palabra likelihood con probabilidad, en el idioma inglés, la palabra que no presentaría confusiones sería possibility.
En este texto discutimos en torno a tres problemas contemporáneos que involucran riesgos, intereses y valores. Cada uno de estos problemas tiene alcances globales, por ello su elección. El primero es el riesgo asociado a la energía nuclear (capítulo 1) a través de tres casos que evidencian el conflicto entre la objetividad científica, los valores de los científicos y los intereses económicos y/o políticos (Shrader-Frechette, 1994; Sarewitz, 2004). El segundo es el riesgo asociado al cambio climático (capítulo 7), referenciado en las discusiones del Panel Intergubernamental de Cambio Climático (IPCC, sigla en inglés). El último riesgo es el referido al desarrollo e implementación de los alimentos genéticamente modificados (este capítulo), centrando la discusión en las afectaciones que puedan tener en la biodiversidad y en la salud humana. Este último riesgo es de particular importancia por los grados disímiles de percepción en tres culturas opuestas: la europea, la norteamericana y la sudamericana.
Los agentes implicados en la promoción de la biotecnología: políticos, científicos públicos y privados, empresas y organizaciones sociales han mostrado su preocupación ante el debate social suscitado por la biotecnología (Muñoz, 2004, p.33).
La biotecnología ha estado en el centro del debate social en los últimos años. Expresiones como el "monstruo de Frankestein” o de "jugar a Dios" se hicieron populares en la literatura CTS. Las severas críticas de los protectores de animales eran y son frecuentes.
En nuestros días el debate se ha centrado en tres aspectos importantes: la posible clonación humana, el uso de embriones en los tratamientos con células madre y los riesgos de introducir cultivos modificados en el medio ambiente. Los dos primeros aspectos están fuertemente influenciados por valores religiosos y morales; es decir, la percepción de los posibles riesgos se distorsiona por falta de conocimiento o por la incertidumbre frente a la existencia o no del alma humana en la concepción y por nuestra supuesta suplantación de Dios en la posible clonación. En mi concepto, no se perciben ni riesgos ni beneficios. El tercer aspecto, a pesar de los temores que ha generado la incertidumbre sobre los posibles efectos, ha logrado implementarse a nivel mundialEn 2001, Moreno expresaba: “Actualmente, numerosos productos de venta al público en los supermercados incluyen en su composición algún ingrediente manipulado genéticamente” (Moreno, 2001, p.196).. Existe una industria cada vez más prolífica de alimentos genéticamente modificados. No obstante, el debate sigue latente:
En los últimos tiempos, el debate se centra en los posibles efectos de los alimentos modificados genéticamente sobre la salud y el entorno (influencia sobre los ecosistemas y la biodiversidad). Este debate ha alcanzado tal intensidad que la oposición social a los alimentos procedentes de cultivos modificados genéticamente u obtenidos por medio de organismos unicelulares modificados, está reclamando la completa separación (segregación) en los mercados entre los productos alimenticios modificados y los que no tienen este origen (Muñoz, 2002, p.4).
La percepción sobre los posibles riesgos en torno a los alimentos genéticamente modificados presenta diversos grados en diferentes contextos. Existe una percepción gradada entre los científicos, la hay también en diversos ámbitos geográficos y, la más gradada, en el público lego.
Quizá el caso que más polémica ha generado en la comunidad científica fue la publicación de un artículo en la revista Nature por el científico mexicano Ignacio Chapela y su estudiante David Quist. En este artículo se documenta los efectos del maíz transgénico en México y la combinación de genes por medio del insecticida transgénico Bt en el maíz nativo. La crítica más fuerte la describe Sarewitz así:
The original article, which went through Nature’s standard peer review process, was attacked vociferously by numerous scientists, including former Berkeley colleagues of Quist and Chapela. Both the methods and the conclusions of the original paper were strongly criticized. One scientist called the paper ‘a testimony to technical incompetence,’ another termed it ‘so outlandish as to be pathetic,’ and a third dismissed it as ‘trash and indefensible’ (Sarewitz, 2004, p.391).
El caso adquiere más relevancia en tanto que los críticos de Quist y de Chapela estaban apadrinados por la industria de la biotecnología, por contraste a Quist y Chapela, aliados de los detractores de la biotecnología (Sarewitz, 2004). En los críticos la percepción está influenciada por los intereses económicos, mientras en los segundos la percepción, de ser ciertos sus hallazgos, está más cercana a la realidad: “In disciplinary terms, these competing views map onto two distinctive intellectual schools in life science—ecology and molecular genetics” (Ibid, p.391). Algo a lo que no podemos ser ajenos es el riesgo que representaba el artículo, no sólo para los intereses económicos, sino también para el futuro de la investigación y de los investigadores del tema patrocinados por las grandes corporaciones. De eso se dio cuenta Chapela al enunciar: "It's very hard for us to publish in this field. People are scared" (Smith, 2003, p.229).
Un acercamiento a los intereses económicos y al impacto de los transgénocos en México, se presenta en el siguiente vídeo
La introducción de semillas transgénicas en México ha afectado gravemente a las cosechas del grano. México es la cuna del maíz, el centro de origen de este cereal y una suculenta pieza para las grandes multinacionales agroquímicas como Monsanto. En el país, que produce mas de 17.000 toneladas anuales de maíz, no esta permitida la siembra de transgénicos a nivel comercial, solo algunos cultivos experimentales fueron permitidos pero eso, combinado con la importación de semillas transgénicas, ha causado un gran daño al campo mexicano.
La polémica en torno a los alimentos genéticamente modificados presenta puntos de vista diferentes en tres ámbitos geográficos y, consecuentemente, diferentes grados de percepción.
Por un lado en Europa existe una mayor prevención en el uso y consumo de estos alimentos, evidenciado en los etiquetados de los alimentos y las campañas de rechazo (ver imagen) Excepto por España:
En 1998, España aprobó el cultivo comercial del primer maíz transgénico, de Ciba Geigy (hoy de Syngenta) y desde entonces es el único estado miembro de la Unión Europea que permite el cultivo de transgénicos (u organismos modificados genéticamente, OMG) a gran escala. Los diferentes gobiernos españoles han ido aprobando numerosas variedades de un único maíz transgénico, el MON 810, existiendo actualmente más de 50 variedades de este tipo de maíz , que ha sido creado y patentado por la multinacional Monsanto (Carrasco, 2008, p.3).. Por otra parte, en Estados Unidos se evidencia una mayor confianza del público a las instituciones y sus desarrollos técnico-científicos. En otro extremo, se encuentran los países menos desarrollados, en los cuales la implementación y uso de estos alimentos pasa desapercibida; es decir, no genera polémica.
Figura 2. En esta imagen se refleja el rechazo a los transgénicos.
Los grados de percepción se encuentran estrechamente vinculados con la divulgación que se realiza y del contenido de la misma. Mientras que en Estados Unidos las noticias se enfocan a los beneficios de los alimentos genéticamente modificados, en Europa los temas se centran en la dualidad riesgos/beneficios (Muñoz, 2002, p.35).
Por contraste, en países menos desarrollados la divulgación brilla por su ausencia. En Colombia, por ejemplo, en las discusiones que se dieron en torno al Tratado de Libre Comercio (TLC) con los Estados Unidos no se hizo alusión a los alimentos genéticamente modificados.
Es dramático que, en un país democrático, las víctimas de la contaminación sean quienes paguen las consecuencias de una situación provocada por una empresa multinacional cuyo único objetivo es eliminar cualquier tipo de alternativa no transgénica a la producción de alimentos (Carrasco, 2008, p.25).
Esta observación de un consumidor español refleja el nivel de percepción frente a los riesgos derivados de la producción y consumo de alimentos genéticamente modificados. Sin embargo, no es un común denominador en toda la población. El déficit cognitivo y la pasividad de los medios de comunicación permiten que se desarrollen e implementen tecnologías cuyos efectos aún son inciertos. Sólo cuando la tormenta nos hace sentir sus impactos nuestra percepción se hace presente. Por ejemplo, el efecto en la mariposa Monarca en México o en las personas alérgicas a las nuecesLa Universidad de Cornell encontró y confirmó que el trigo manipulado con Bt envenenó en pruebas de laboratorio a la mariposa Monarca en su estado larvario. Existe además un potencial peligro de crear insectos resistentes a agroquímicos que pudieran destruir el entorno natural y, por ende, también afectar la biodiversidad de la fauna silvestre y la cadena trófica (Oswald, 2001); véase también (Smith, 2003, p.206). Por otra parte, la soja que contiene el gen de una nuez de Brasil para aumentar su valor proteico ha ocasionado serios problemas a las personas alérgicas a este producto. Véase Smith (2003, pp.159-181) sobre las alergias producidas por la leche de soja, en particular, y el incremento acelerado de otras alergias ocasionadas por el consumo de alimentos genéticamente modificados, en general.. Sin embargo, y consecuente con mi postura frente a la incertidumbre, no es posible percibir lo desconocido.
Aún se desconocen, si los hay, los efectos a corto y mediano plazo en la salud humana y animal, provocados por los transgénicos. No obstante, existen algunos casos aislados que prenden una luz de alerta frente a la distribución y uso de los transgénicos. Oswald (2001) cita los siguientes:
En 1998, la manipulación genética del L-triptófano -un complemento dietético común- causó la muerte a 37 norteamericanos y la invalidez a otros 5000, esto, antes de ser prohibido por la Food and Drug Administration. Showa Denko, una compañía farmacéutica japonesa, admitió haber usado OGM que se contaminaron durante el proceso recombinante del DNA. Tuvieron que pagar una indemnización de más de 2 mil millones de dólares a las víctimas del llamado Síndrome Eosinophilia Myalgia (SEM), que había causado severos trastornos sanguíneos.
Arpad Pusztai encontró en papas genéticamente manipuladas un promotor viral CaMv (Cauliflower Mosaic Virus) una toxina que daña el sistema inmunológico de los mamíferos. En ratas de laboratorio se comprobaron infecciones estomacales severas, que no se dieron con papas no manipuladas. Siguió trabajando con otros OGM y al lado de otros científicos advirtió que la manipulación genética aumenta los niveles naturales de toxinas y alergénicos en plantas, además de producir nuevos.
Otros efectos se presentan en lo socioeconómico y culturalVer en Carrasco (2008) una compilación de problemas de tipo socioeconómico y cultural. En esta compilación se evidencian las repercusiones socioeconómicas y humanas de la presencia de maíz transgénico en el territorio español y de la contaminación genética, así como la alarmante reducción de la superficie de maíz ecológico y las consecuencias directas y reales que tiene sobre la población.. En los países menos desarrollados la implementación de los transgénicos hace depender a los campesinos del material genético importado con el riesgo de una posible contaminación genética en otros productos autóctonos: También incrementaría la pobreza, debido a que los suelos destruidos requieren más aplicaciones químicas.
Lejos de ser semillas ahorradoras de agroquímicos atentan en el mediano plazo contra la economía campesina y el entorno. (Oswald, 2001). La percepción del riesgo, en este caso, se da sólo cuando los efectos se dejan sentir. Antes todo era tierra de miel y leche como lo expresa Korthals:
Paradise and hell are often used in arguing about new technologies, and in particular vis-à-vis new food technologies. The Land of Cockaigne, of milk and honey on the one hand, and Frankenstein on the other, are metaphors that fit into the usual way optimistic or pessimistic perspectives on technology are elaborated in relation to technological developments in food processing. These polarities are not very helpful in understanding the possibilities and risks of biotechnologies, and therefore in trying to influence their future shape. I propose here to take matter-of-factly the issue of biotechnology into account and not to connect all problems of the whole world with these technologies in a negative or positive way (Korthals, 2005, pp. 23-24).
En la supuesta tierra de Cockaigne no hay paso a la percepción del riesgo. El riesgo no existe y, en consecuencia, tampoco la percepción. Después de los efectos viene la percepción del engaño, del infierno que trae consigo el hambre y la pobreza y, peor aún, la imposibilidad del retorno a los cultivos tradicionales, porque las semillas ya tienen dueño.
¿Qué papel juegan los medios en el déficit cognitivo? En mi concepto, son los principales culpables de este déficit. Sin embargo, su silencio o la información que pobremente entregan al público es patrocinada por las empresas de biotecnología, tal como lo denuncia Smith (2003, p.183): “Many of the world's media, particularly in the United States, have been the target of an intensive pro-biotech campaign by the industry. Hence, there has been a chronic underreporting of GM concerns-especially the health risks”, y que se refleja en el siguiente caso.
En 1998, Marc Lappé y Britt Bailey anticiparon el lanzamiento de su libro Against the grain, biotechnology and the corporate takeover of your food, en el cual denunciaban los peligros de la tecnología genética en la agricultura y el apoderamiento de las grandes corporaciones del abastecimiento de alimentos. Tres días antes de ser impreso, el editor recibió una carta amenazante de la compañía Monsanto. La carta hacía referencia a un artículo corto publicado por Lappé y Bailey cinco meses antes. Los abogados de Monsanto afirmaban que el artículo “was defamatory and potentially libelous against Roundup herbicide, Monsanto's major product". El editor, temeroso de un litigio costoso, detuvo la impresión y el libro fue cancelado (Smith, 2003, p.202). A pesar de este obstáculo, el Journal of Medicinal Food aceptó publicar los resultados de esta investigación en 1999. Por su parte, la American Soybean Association, organización financiada por Monsanto salió a su defensa, creando un sitio de Internet en el cual atacaba los hallazgos de dicha investigación soportándose en un estudio realizado por Monsanto y publicado en el Journal of Agricultural and Food Chemistry meses después de la publicación de Medicinal Food. La polémica continúa, en tanto que Lappé and Bailey publicaron un nuevo libro: Engineering the Farm.
En este y otros casos, como el de Chapela, la polémica se establece entre la comunidad científica y las corporaciones afectadas. Sin embargo, el público lego tiene poco acceso a este tipo de debates, bien sea por la poca divulgación o por su poca comprensión del tema. Su percepción de los riesgos asociados a los alimentos genéticamente modificados seguirá siendo baja, por no decir nula. Este público, involuntariamente, seguirá conviviendo con el riesgo al consumir los productos de esta tecnología. Otros, sus representantes, ya aceptaron el riesgo por él. Ante este desconocimiento, hace falta, entonces, un sistema regulatorio con criterios éticos vinculados a la preocupación por una seguridad alimentaria, tal como Thompson lo propone:
Critics of food and agricultural biotechnology may link the need for ethics with a concern for food safety. This is, on the one hand, quite understandable, since if one already believes that eating so-called GMOs—the acronym is short for “genetically modified organisms,” or the products of food and agricultural biotechnology—could be dangerous, one is also very likely to believe that it is unethical to put people in a position where they might eat them, especially without their knowledge (Thompson, 2007, p.26).
Frente a esto se seguirán interponiendo los intereses económicos. Igualmente, estos criterios éticos deben circunscribirse al ámbito de la comunicación. Así nos quejemos de falta de información, es posible también que estemos sometidos al riesgo de la desinformación o a la distorsión de la misma, con impactos negativos como la estigmatización y el pánico. Durante la transmisión del súper clásico Boca – River (8 de octubre de 2006), uno de los comentaristas deportivos hacía promoción a una campaña de desarme en Argentina con la siguiente frase “Un arma en tu casa es un problema en tu casa”. El 9 de octubre el mundo despertó con la nefasta noticia: Korea del Norte realizó su primera prueba nuclear exitosa (no entiendo lo de exitosa). Según los expertos (no norcoreanos), se estima un tamaño de la bomba detonada, entre 550 ton y 15 kilotones (la de Hiroshima fue de 12.5 kilotones aproximadamente). Vino a mi memoria la frase argentina “Un arma en tu casa (nuestra casa, nuestro planeta), es un problema en tu casa”.
Hace treinta años, el sociólogo alemán Ulrich Beck inició la discusión sobre los “riesgos globales” con la publicación de su libro La sociedad del riesgo: hacia una nueva modernidad. En el texto destacó la aparición de riesgos invisiblesEn realidad, Beck habla de “peligros invisibles”. Según algunos críticos de Beck, existe confusión entre lo que Beck entiende por peligro y lo que entiende por riesgo, riesgos no naturales, riesgos incontrolables, que tienen su origen en la creación, distribución y uso de las nuevas tecnologías.
Esta nueva arma (bomba) en mi casa, de verdad que es un problema, un gran problema. Como dice Beck, se nos volvió incontrolable y no se trata de un problema de un país en particular, es un problema de todos, es un riesgo global.
En 2002 Beck destacó tres ejes de conflicto en el “mundo de la sociedad del riesgo”: conflictos ecológicos, crisis global financiera y la amenaza terrorista.
El déficit cognitivo y la pasividad de los medios de comunicación permiten que se desarrollen e implementen tecnologías cuyos efectos aún son inciertos. Sólo cuando la tormenta nos hace sentir sus impactos nuestra percepción se hace presente. Comprendo que, al igual que en las nanotecnologías, son muchos los beneficios que se obtienen con el desarrollo de nuevas investigaciones en torno a los OMG; sin embargo, también he comprendido que es poca la investigación sobre los riesgos que la implementación de los OMG.
En 2011, cables filtrados por Wikileaks muestran al mundo el gran poder de las compañías productoras de organismos genéticamente modificados (OGM) que, si leemos bien, se confunde con el gran poder que ejerce EEUU en el mundo. El primer cable lo transcribo tal como lo denuncia Natural News en 2011:
Wikileaks sigue meciendo el mundo político al emitir a la luz conspiraciones, corrupción y encubrimientos. El último lote de cables diplomáticos, liberados por Wikileaks, revela lo que sólo puede calificarse de una conspiración liderada por Estados Unidos para obligar al uso de los OGM en los países europeos.
El cable revela las palabras de Craig Stapleton, embajador de EEUU en Francia, que estaba empujando a los intereses comerciales de la industria biotecnológica por intentar forzar los OGM en Francia. En sus propias palabras, expresa su frustración con la idea de que Francia podría aprobar leyes ambientales que dificultan la expansión de los OGM: "Europa se está moviendo hacia atrás no hacia adelante sobre esta cuestión, con Francia jugando un rol principal, junto con Austria, Italia e incluso la Comisión [Europea]... Pasando a represalias dejará claro que el camino actual tiene un costo real de intereses de la Unión Europea y podría ayudar a fortalecer la voz en favor de la biotecnología”.
La amenaza de Stapleton es presentada por The Guardian, así: “En respuesta a las medidas tomadas por Francia para prohibir una variedad de maíz GM de Monsanto a finales de 2007, el embajador, Craig Stapleton, amigo y socio de negocios del ex presidente de EE.UU., George Bush, pidió a Washington que penalicen la UE y los países que no apoyan el uso de los cultivos transgénicos”. Más adelante, se denuncia: “Documentos filtrados también por Wikileaks revelan que diplomáticos de EEUU en realidad trabajan para Monsanto”.
Si leemos bien, toda esta presión de los poderosos fue en 2007. En este año, el filósofo mexicano León Olivé, en una conferencia en el ITM de Medellín, nos advertía de los riesgos de los transgénicos que, al igual que en México, fue el resultado de la firma del TLC. Pero, nuestro filósofo, al igual que la mayoría de nosotros, ignorábamos que el gobierno de ese año había aprobado la siembra de dos tipos de maíz transgénico, con o sin TLC. Es nuestra inocencia o, si se prefiere, nuestro desconocimiento de lo que se teje en la telaraña del poder. Basta un ejemplo, ¿sabía usted que la familia Gates (¡Sí! La misma de Bill) es socia de Monsanto?
Los cultivos y alimentos transgénicos no están diseñados para beneficiar al agricultor ni al consumidor, sino a las grandes multinacionales que los comercializan. La introducción de los OMG exacerba los efectos de un modelo industrial de agricultura basado en los monocultivos (altamente impactantes para el medio ambiente).
Las multinacionales como Monsanto, Syngenta o Bayer, buscan incrementar sus beneficios en detrimento de los pequeños agricultores, de un modelo sostenible de producción agraria y de un reparto equitativo de los recursos naturales.
Las grandes corporaciones avanzan hacia el control total de la agricultura. Patentan semillas transgénicas, presionan a los gobiernos para que autoricen su cultivo…, y una vez que los agricultores han entrado en su negocio, ya son clientes cautivos.
Una sentencia del Tribunal de Justicia Europeo determinó que la presencia de polen del maíz transgénico MON810 era ilegal en la miel. Esto ha puesto a toda la producción española bajo sospecha, al ser en único país en el que se produce cultivo transgénico a gran escala. Y ha bloqueado durante meses los mercados de exportación de la miel, ya que la producción española se dirige especialmente a mercados centroeuropeos. Al no conocerse la localización de los cultivos transgénicos, los apicultores no pueden demostrar a los comercializadores que sus colmenas están lejos de campos transgénicos, ni pedir responsabilidades a nadie por sus pérdidas económicas.
Las grandes multinacionales que comercializan semillas transgénicas ejercen todo tipo de presiones sobre los gobiernos para introducir sus productos. En la actualidad están desplegando grandes esfuerzos para generalizar el uso de estas semillas en África.
No dudan en recurrir a métodos antidemocráticos, como por ejemplo forzar la caída del gobierno de Paraguay, en junio de 2012, para desbloquear la aprobación de semillas modificadas genéticamente. El gobierno de Estados Unidos y grandes fundaciones caritativas como la Bill and Melinda Gates Foundation también juegan un papel fundamental en la imposición de los OMG en todo el mundo (https://www.tierra.org)
En febrero de 2018, Amigos de la tierra, publica una noticia en la que se manifiesta que la mayoría de los españoles está en contra de la fusión de Bayer y Monsanto.
El 69% de la ciudadanía considera que es “importante” o “muy importante” que la Comisión Europea bloquee la fusión de estos dos gigantes del negocio de los agroquímicos y las semillas; cuatro veces más que el número de personas que consideran que la fusión no tiene importancia. Cerca de un millón de personas en la UE han firmado peticiones para que la Comisión Europea la bloquee, y más de 200 organizaciones de la sociedad civil han respaldado esta reivindicació . La oleada de fusiones entre las mayores empresas de agroquímicos y semillas está dando lugar a una concentración sin precedentes en el sector.
En 2017 la Comisión Europea apuntaló esta tendencia dando el visto bueno a la fusión de Dow y Dupont y ChemChina y Syngenta. Si se aprueba, Bayer-Monsanto será la mayor empresa de insumos agrícolas de todo el mundo.
Figura 3. Imagen tomada de Amigos de la tierra.
Hasta aquí, hemos presentado un panorama sombrío sobre lo que significa la implementación de los OGM que, por su expansión mundial, se constituye en un riesgo global; sin embargo, invitamos a visitar la página de Monsanto (en Colombia, por ejemplo), de tal forma que el lector confronte y tome partido frente a los debates que día a día ha generado esta multinacional.
En su presentación, Monsanto manifiesta:
Producir más. Conservar más. Mejorar vidas.
De eso se trata la agricultura sostenible y ésa es la esencia de Monsanto.
Monsanto no podría existir sin los agricultores.
Miles de millones de personas dependen de la labor de los agricultores y miles de millones más lo harán en el futuro. En las próximas décadas, los agricultores deberán producir la misma cantidad de alimentos que en los últimos 10.000 años juntos.
Nuestro propósito es trabajar hombro con hombro con los agricultores para poder lograr esta meta. Lo hacemos vendiendo semillas mejoradas y con biotecnología, así como productos para la protección de cultivos.
El reto: Satisfacer las necesidades de hoy y preservar el planeta para el futuro.
Como parte de nuestro compromiso con la agricultura sustentable, nos fijamos la meta de ayudar a los agricultores a mejorar su calidad de vida, incluyendo 5 millones de personas pertenecientes a familias de bajos recursos para el año 2020.
¿Será todo lo enunciado cierto?
Actividad interactiva 3
Encuentra algunas palabras relacionadas con lo discutido en este capítulo.
En los estudios sobre la comunicación del riesgo existen diferentes puntos de vista, perspectivas o enfoques: “…actuarial approach utilizing statistical predictions, a toxological and epidemiological approach, an engineering approach including probabilistic risk assessments, and cultural and social theories of risk” (Palenchar & Heath, 2007, p.122). Podríamos desglosar nuestro trabajo en el análisis separado de cada uno de estos enfoques; igualmente podríamos realizar un análisis separado de cada uno de los aspectos más relevantes de la comunicación como los problemas inherentes al comunicador (¿quién comunica?), al análisis del contenido de la comunicación (mensaje) que responde al “¿qué dice?”, a los canales o medios de comunicación (¿cómo comunica?), a los interesados o afectados (stakeholders), o a la efectividad de la comunicación (¿cómo impacta?). Sin embargo, nuestro interés está centrado en una comunicación interactiva y situacional del riesgo, en la que una separación de conceptos o de enfoques no es relevante, en tanto que cada enfoque presenta problemas comunes (confianza, credibilidad, incertidumbres) y cada concepto se vincula a los demás, tal como lo evidenciaremos en el resto de este capítulo. No obstante, profundizaremos en algunos de estos aspectos por razones de cambio paradigmático: una primera razón es el avance significativo de los nuevos medios de la información y comunicación (TIC), en especial los recursos de la Internet, que ha cambiado la forma como se comunica el riesgo: “The growing impact that the Internet has on our lives is increasingly difficult to ignore” (Wood & Smith, 2005, p.1).
Una segunda razón, que se vincula estrechamente a la primera, es la necesidad creciente de gestionar los viejos y nuevos riesgos con el concurso de todos los involucrados en el proceso.
Los llamados riesgos globales de Beck (2002), por ejemplo, demandan de cambios paradigmáticos en la comunicación del riesgo, demanda que encuentra en los nuevos medios de comunicación el cambio buscado, en tanto globales. Por otra parte, la toma de decisiones bajo los viejos modelos de gestión del riesgo ya no es una práctica eficiente en muchos de los riesgos emergentes (nanoriesgos, riesgos asociados al cambio climático, a la ingeniería genética, o al llamado terrorismo internacional, etcétera). Así las cosas, con los nuevos riesgos debe surgir un nuevo paradigma comunicativo que tenga en cuenta nuevos elementos constitutivos de la sociedad global, tales como una nueva responsabilidad global o, si se prefiere, democrática; una seguridad global, en tanto que los riesgos globales materializados obedecen a controles globales debilitados (crisis económica, por ejemplo); el surgimiento de nuevas generaciones que crean y comparten nuevos códigos culturales y sociales. Este nuevo paradigma comunicativo estará vinculado estrechamente a las costumbres de estas nuevas generaciones y, por tanto, a los nuevos canales donde estos emergentes stakeholders tienen su entorno natural que, a pesar de su virtualidad, serán la clave de la efectividad de la comunicación del riesgo.
Un análisis a la comunicación del riesgo, como campo emergente, nos podrá dar luces sobre las características del nuevo paradigma comunicativo. Con el surgimiento de los nuevos desarrollos tecnológicos y, con ellos, los nuevos riesgos, emergen igualmente los estudios sobre la comunicación del riesgo.
Estos estudios son relativamente nuevos, en tanto que el término “risk communication” empieza a utilizarse desde la década de los 80 (Palenchar, 2008, p.2; Leiss, 1991, p.294)De Marchi (2009) plantea que la “comunicación del riesgo” tiene origen a finales de los años 60. No obstante, en la década de los 80 se presenta lo que Leiss (1996) ha denominado fase uno de la comunicación del riesgo. Las decisiones sobre el riesgo eran tomadas por los gestores de riesgo o por los reguladores. El conocimiento técnico o científico era el factor determinante para la toma de decisiones y posterior comunicación o, stricto sensu, información al público sobre las estimaciones objetivas del riesgo. En esta fase, la desconfianza entre el público y los expertos estaba en su punto crítico: “This then led to a profound social distrust of organisational officials and scientific experts and the institutions that they represented which served to weaken the force of official contributions to public risk discourse” (Wardman, 2009)., e ingresa a los debates en los enfoques culturales y sociales a mediados de los años 90 (Palenchar & Heath, 2007, p.121) . Los cambios históricos de la tecnología, entonces, se reflejan en los cambios históricos de la comunicación del riesgo que, a nuestro modo de ver, obedecen a múltiples factores. Tres de esos factores son determinantes para el cambio de paradigmas en la comunicación del riesgo.
Un primer factor es la intervención activa del público lego en asuntos de riesgo. La participación del público en la evaluación y aceptación de las nuevas tecnologías es un factor que ha incidido en la continuidad de las investigaciones, desarrollos y distribución de dichas tecnologías: “Investors are sometimes dismayed to discover that they have invested in firms whose products and conduct are deemed socially unacceptable by enough of the public for their investments to lose value” (Fischhoff, et al., 2001, p.100). Este factor presupone un cambio paradigmático del viejo modelo vertical de la comunicación (top-down), en el que la confianza en las instituciones y en los buenos resultados (beneficios) minimizaba cualquier asomo de riesgo, a un nuevo modelo con participación activa de los stakeholders.
El paradigma de fines del siglo XX se constituye, para algunos autores, en la última etapa (Fischhoff, 1995)Fischhoff describe ocho etapas en la historia de la comunicación del riesgo, en la séptima los stakeholders son también responsables en el proceso de comunicación:
…brief history of risk communication, organized around the developmental stages… All we have to do is get the numbers right. All we have to do is tell them the numbers. All we have to do is explain what we mean by the numbers. All we have to do is show them that they’ve accepted similar risks. All we have to do is show them that it’s a good deal for them. All we have to do is treat them nice. All we have to do is make them partners. All of the above (Fischhoff, 1995, p.138).
Menos extensivos que Fischhoff, autores como Leiss (1996) y Krimsky (2007) conciben tres fases o etapas en la historia de la comunicación del riesgo, la última de ellas termina con la participación activa de los stakeholders: “… the present approach of communication that is based on shared, social relations” (Palenchar & Heath, 2007, p.122). o fase (Leiss, 1996; Krimsky, 2007) en la aún corta historia de la comunicación del riesgo.
No obstante, creemos que ha surgido un nuevo paradigma en el contexto de las, también emergentes, tecnologías de la información y la comunicación (TIC). Este nuevo paradigma es un modelo de comunicación interactiva en la sociedad red.
Un segundo factor es la responsabilidad que implica la toma de decisiones. La posibilidad de ocurrencia de grandes impactos en la sociedad, en la salud o en el ambiente (Bophal, Chernóbil, Exxon Valdez, cambio climático, nanoriesgos, entre otros) ha demostrado que la responsabilidad no puede ser relegada a unos pocos. En ese sentido, en el nuevo paradigma se busca que esta responsabilidad recaiga en todos los involucrados. Así las cosas, la toma de decisiones se hace más compleja. Los fenómenos emergentes de la sociedad del siglo XXI han configurado una nueva sociedad que, en los problemas comunes, exige soluciones comunes. Esa otrora sociedad del riesgo (Beck, 1986) ha dado tránsito a una nueva sociedad de generaciones globales (Beck, 2008), que han comprendido su responsabilidad global:
Deberíamos distinguir también entre el cambio climático y la generación del calenta¬miento global . Este segmento generacional global no es pasivo, sino activo y político. No es necesario afirmar que, para evitar que Londres, Nueva York o Tokio desaparezcan por el aumento del nivel del mar, debe inventarse la política global. No existe una manera británica de salvar Londres, o una manera estadounidense de salvar Nueva York o una manera japonesa de salvar Tokio. Solo un nuevo realismo cosmopolita, una conciencia de la necesidad de cooperación entre los estados podría convertirse en el recurso que permita hacer frente a los retos producidos por el cambio climático (Ibid, pp.20-21).
Se trata, entonces, de responsabilidad compartida que obliga a una gestión global y, a su vez, nuevos modelos de comunicación efectiva y situacional del riesgo. En estos nuevos modelos, el riesgo implica siempre el tema de la responsabilidad, y
… la necesidad de “globalización responsable” se convierte en tema público y político de alcance mundial […] El riesgo y la responsabilidad están intrínsecamente relacionados, como el riesgo y la confianza, o el riesgo y la seguridad… El concepto de “sociedad del riesgo global”, sin embargo, llama la atención sobre la controlabilidad limitada de los peligros que nos hemos creado… ¿cómo tomar decisiones en condiciones de incertidumbre fabricada? (Beck, 2002, p.9)
Un tercer factor determinante lo encontramos en las nuevas posibilidades que brindan las TIC. La llamada web 2.0 y los recursos que ésta brinda posibilitan una mayor interacción en la comunicación. Nuestra hipótesis es la existencia de una nueva fase en la comunicación del riesgo, no concebida por Fischhoff ni por Leiss , que en principio podríamos denominar la comunicación 2.0 o, si se prefiere, comunicación interactiva y situacional a través de la red.
Internet constituye actualmente la base tecnológica de la forma organizativa que caracteriza a la era de la información: la red (Castells, 2001, p.15). Si afirmamos que la comunicación del riesgo debe ser situacional para responder al contexto e interactiva para responder a la efectividad, ¿por qué seguimos utilizando los tradicionales medios pasivos de comunicación?, ¿qué oportunidades de comunicación interactiva brinda hoy la Internet?, ¿estamos constituyendo, como lo afirma Castells, una nueva era de comunicación, llamada la sociedad red? Para dar respuesta a estos interrogantes iniciaremos con un análisis de los medios de comunicación en tres momentos históricos y relativamente cercanos: los medios al terminar el siglo XX, los medios al inicio del siglo XXI y los medios actualmente constituidos.
Igualmente, revisaremos la transición sufrida por los canales de comunicación del riesgo, en especial con el crecimiento de los servicios prestados por la Internet, entre ellos los blogs y las redes sociales: “The channels of risk communication have grown in complexity along with the development and expansion of the Internet and the birth of personalized blogging” (Krimsky, 2007, p.157).
La multimedia, el CD-ROM, las autopistas de la información, el sonido digital, la fibra óptica y la televisión por cable eran las novedades en la décadas del 80 y del 90 del siglo pasado (Negroponte, 1995, p.2). Los medios masivos de comunicación eran aún la prensa escrita, la radio y la televisión. El medio más impactante era la televisión, que Giddens (1991) consideraba como uno de los acontecimientos más importantes en los medios de comunicación:
Si hoy todos somos conscientes de que vivimos en "un mundo", se debe en gran parte al alcance internacional de los medios de comunicación. Quien enciende la televisión y ve las "noticias internacionales" generalmente consigue justamente eso: la presentación de algunos de los acontecimientos que han tenido lugar ese día o poco antes en muchas partes diferentes del mundo. Los programas de televisión y las películas se venden a grandes mercados internacionales y los ven cientos de millones de personas. (Giddens, 1991, p.487)
En esta época la Internet era sólo una fuente de información aún sin aprovechar y sin evidenciar que la adictiva televisión sería desplazada del lugar que ocupaba como medio masivo de comunicación, en tanto “no interactiva”. La llamada “Aldea Global” de McLuhan y Powers (1993) aún desconocía los nuevos medios que legitimarían este calificativo. No obstante la incipiente web se empezaba a constituir en una red de medios de comunicación que, en forma vertiginosa, cambiaría las costumbres comunicativas del planeta:
Todos los medios de comunicación son una reconstrucción, un modelo de alguna capacidad biológica acelerada más allá de la capacidad humana de llevarla a cabo: la rueda es una extensión del pie, el libro es una extensión del ojo, la ropa, una extensión de la piel y el sistema de circuitos electrónicos es una extensión de nuestro sistema nervioso central. Cada medio es llevado al pináculo de la fuerza voraginosa, con el poder de hipnotizarnos. Cuando los medios actúan juntos pueden cambiar tanto nuestra conciencia como para crear nuevos universos de significado psíquico (McLuhan & Powers, 1993, p.94).
El comienzo del siglo XXI se caracteriza por la presencia de dos generaciones en el nuevo mundo de las tecnologías de la información y la comunicación (TIC). Por una parte, la antigua generación que evidencia su necesidad de migrar al nuevo universo o tercer entorno, en tanto que las posibilidades que brindan las TIC (por su interactividad) se constituyen en una seria amenaza para sobrevivir y competir . Por otra parte, surge una nueva generación, en principio llamada por Prensky (2001) de los nativos digitales, que en el resto de este capítulo denominaremos, al igual que Castells (2001), la generación red.
En esta generación redEl ser o nativo digital es multitarea, en tanto que realiza acciones simultáneas como subir un video a Youtube, escribir entradas en su blog, chatear con varios amigos y subir fotos a su red social (Facebook, Myspace, Hi5) y escuchar un podcast. Estas acciones inimaginables en el entorno del Giddens de 1991 o del Prensky de 2001 hacen parte de las actividades de un colectivo, en permanente crecimiento, de personas. El ciberespacio, que cambia de una versión a otra, remoldea sus habitantes cambiando sus hábitos y la forma como establecen sus relaciones. El ayer “ser digital” es hoy un nodo de la red, surge la generación net o la sociedad red entendida por Castells como
the social structure that results from the interaction between social organization, social change, and a technological paradigm constituted around digital information and communication technologies (Castells, 2004, p. xvii).
, el sujeto supervive en tanto sea activo e interactivo. Como miembro o nodo de la red, su importancia está dada por su nivel de interacción y su capacidad de absorber y procesar información:
A network is a set of interconnected nodes. A node is the point where the curve intersects itself. A network has no center, just nodes. Nodes may be of varying relevance for the network. Nodes increase their importance for the network by absorbing more relevant information, and processing it more efficiently (Castells, 2004, p.3).
Este ciudadano de la red o netizen encuentra en la Internet los recursos y el público con el cual desea interactuar y activar un proceso de comunicación . Estos recursos son de mayor accesibilidad y uso por los demás miembros de la red, cada vez son más grandes las diferencias entre una generación y otra. Esta generación tiene la posibilidad de acceder a servicios de la red desde cualquier sitio del mundo (alta conectividad), el incremento de ancho de banda permite la circulación de altos volúmenes de información y los contenidos de entretenimiento que convocan cada vez más usuarios.El cambio de la sociedad industrial a la sociedad del conocimiento es efímero para dar paso a la sociedad red, en la cual prima la información verdadera o engañosa, válida o distorsionada. Sociedad rica en riesgos reales e imaginarios, hacedora, a su vez, de nuevos riesgos. Por los nodos de la red circulan los virus informáticos acompañados del AH1N1; los crackers describen las mejores estrategias para vulnerar la seguridad en los sistemas; tanto nativos como inmigrantes digitales constituyen micro redes en torno a foros de discusión y, por qué no, en la construcción de nuevo conocimiento. En esta nueva revolución social y cultural se presentan los nuevos modelos de comunicación efectiva del riesgo.
En 2009, los miembros de la generación red se caracterizan por su desconocimiento o abandono de los viejos recursos como los casetes de audio, los CD de video y los periódicos impresos. En su lugar, usan la Internet para chatear con sus amigos, descargar música o películas y, en sus ratos libres, no se despegan de su iPod Nano; en sus teléfonos celulares con servicio web suben fotos al facebook y las comparten con el resto de sus amigos (Zanoni, 2008, p.15).
Es una generación cuyos hábitos no soportan una comunicación pasiva y lineal, tal como lo advertía tempranamente Prensky:
Digital Natives accustomed to the twitch-speed, multitasking, random-access, graphics-first, active, connected, fun, fantasy, quick-payoff world of their video games, MTV, and Internet are bored by most of today’s education, well meaning as it may be (Prensky, (2001, p.5).
Figura 4. Penetración de Internet en el mundo a 2017
Los nuevos medios, que se caracterizan por su alto componente de interactividad, superan a los viejos haciendo evidente la batalla entre generaciones y recursos dispares.
Figura 5. Países por número de usuarios de Internet a 2016No obstante este crecimiento de usuarios, la sociedad red tiene sus detractores justificados por los nuevos patrones de interacción social en las que se promueve, según los escépticos, el aislamiento social y familiar, se abandona la relación cara a cara para dar lugar a identidades simuladas en un entorno de realidad virtual (Castells, 2001, p.137). Sin embargo, existen estudios que contradicen las anteriores afirmaciones, las cuales están lejanas de la realidad, en tanto que no existe “la alienada existencia del solitario internauta” (Ibid, p.137). Por el contrario el internauta promedio utiliza su correo electrónico para fortalecer sus relaciones entre amigos y familiares:
"Si acaso, Internet parece tener un efecto positivo en la interacción social y tiende a aumentar el grado de exposición a otras fuentes de información. Di Maggio y otros informan sobre los resultados de diversas encuestas de participación pública que indican que los usuarios de Internet (una vez controladas otras variables) leen más literatura, asisten a más acontecimientos artísticos, van más al cine, asisten a más espectáculos deportivos y hacen más deporte que los no usuarios (Ibid, p.142)"..
Los tradicionales receptores pasivos, textuales, asincrónicos y secuenciales compiten con los emergentes seres o nativos digitalesEl ser digital es el que crea, distribuye y usa información digitalizada; es el paso, según el autor, de átomos a bits. Si bien aún no conocía el impacto de las redes sociales de la Internet, sí advertía de los cambios que se avecinarían: “A medida que nos interconectemos entre nosotros mismos, muchos de los valores del estado-nación cambiarán por los de comunidades electrónicas” (Ibid, p.15). Por otra parte, Prensky (2001) acuña el término “nativo digital” por contraste al “inmigrante digital”. No se trata del ser digital que adquiere nuevos hábitos, son seres digitales nacidos en esta era, que bien describe el autor como:
Our children today are being socialized in a way that is vastly different from their parents. The numbers are overwhelming: over 10,000 hours playing videogames, over 200,000 emails and instant messages sent and received; over 10,000 hours talking on digital cell phones; over 20,000 hours watching TV (a high percentage fast speed MTV), over 500,000 commercials seen—all before the kids leave college. And, maybe, at the very most, 5,000 hours of book reading. These are today’s “Digital Native” students (Prensky, 2001, p.1).
Tanto para Negroponte como para Prensky, el uso de la tecnología determina al sujeto. Nosotros caracterizamos este sujeto por sus relaciones en el nuevo entorno, que se enriquece con los mundos de James, la sociedad del riesgo de Beck y la era de la información. Los nuevos ciudadanos red (netizens) serán el público objetivo de la comunicación del riesgo.
64 Wood & Smith (2005, p.41) resaltan las siguientes características de la red: multimedia, interactividad, en tanto que “it should be fairly self-evident that the Internet allows for interaction among its communicators”, el sincronismo o comunicación en tiempo real, y la hipertextualidad por contraste al texto secuencial.. Estos nuevos seres se caracterizan por su interactividad, porque han reemplazado los textos por los contenidos hipertextuales, porque no soportan la comunicación asincrónica y, especialmente, por constituirse en seres multitarea64 .
Del otro extremo, la antigua generación ahora reconoce su imposibilidad de comunicarse o restablecer relaciones sin poseer, al menos, un móvil y una dirección de correo electrónico. Saben que los nuevos medios han permitido una comunicación más efectiva y situacional que elimina las barreras de exclusión para la manifestación de las ideas, sean éstas simples opiniones o resultados genuinos de investigación.
En la era de la información, Negroponte (1995) hace referencia a la persona o ser digital como el sujeto que depende de la informática o de la tecnología de procesamiento de datos. En este nuevo entorno versión 2.0 (o cualquier otra versión) las publicaciones son posibles sin el sometimiento a normas o aprobaciones de pares, el “todo vale” se hace realidad. La comunicación top-down de muchos a uno ha dado paso a la comunicación de muchos a muchos. El periodismo ciudadano, por ejemplo, pone a temblar a los medios tradicionales . Es el imperio de la red en la que la generación red es su creadorBeck (2008, p.20) denomina a esta generación simplemente con el calificativo de Internet: “Actualmente existe, por supuesto, una generación Internet, que comparte información e ideas a través de fronteras y que tiene un impacto global”. Autores como Wood & Smith prefieren hablar de comunidades virtuales: “Virtual Communities are social aggregations that emerge from the Net when enough people carry on those public discussions long enough, with sufficient human feeling, to form webs of personal relationship in cyberspace” (Wood & Smith, 2005, p.41). Obviamente existe una gran diferencia entre sociedad y comunidad, en tanto que esta última se conforma en torno a intereses comunes; la sociedad red, digital o virtual tienen un canal común, la red.. Términos como blogosphere, posts, chats, podcasts, flicker, twitter, nickname, streaming, bluetooth, netizens, networking, entre otros, hacen parte del lenguaje emergente en el nuevo entorno. En este nuevo lenguaje los tags (etiquetas) reemplazan las “palabras clave” y las direcciones url (direcciones electrónicas) las referencias. El antiguo ciudadano es consciente que perderá la batalla y que es inminente su migración al entorno de la nueva generación.
La ahora llamada web 2.0 presenta grandes posibilidades de potenciar el proceso de comunicación del riesgo. Ahora la estrategia de comunicación del riesgo podrá ser más efectiva al hacer uso de los múltiples servicios de carácter interactivo. Las redes sociales virtuales y los blogs son sólo un asomo de muchos de los recursos disponibles.
La interactividad de los blog se da a través de los comentarios que crean las comunidades virtuales, la comunicación permanente con herramientas instantáneas como Twitter o los podscast fortalecen la interacción de estas comunidades. Nacen, entonces, redes sociales de escritores, periodistas, ambientalistas, políticos y gestores del riesgo que publican, comparten e intercambian información. Las comunicaciones ahora son multicanal, multidireccional, multimediales, multitemporales y, especialmente, situacionales.
En todo este contexto, podemos afirmar que el nuevo modelo de comunicación interactiva y situacional del riesgo está en la red, en tanto situacional, interactiva, integradora, hipermedial, simuladora:
…el surgimiento de un nuevo modelo de comunicación, de una nueva cultura en definitiva, puede identificarse gracias al funcionamiento simultáneo de cuatro procesos: «Integración: la combinación de formas artísticas y tecnología para establecer una forma híbrida de expresión. Interactividad: la capacidad del usuario para manipular e influir directamente en su experiencia con los medios de comunicación y de comunicarse con los demás a través de estos mismos medios. Los "hipermedios": la interconexión de elementos mediáticos para crear un rastro de asociación personal. Inmersión: capacidad para entrar en la simulación de un entorno tridimensional. Narratividad: las estrategias estéticas y formales que se derivan de los conceptos anteriores y que dan como resultado formas y presentaciones de medios no lineales.» (Castells, 2001, p.228).
No obstante, se puede alegar la existencia de restricciones para el uso de los nuevos servicios de Internet en algunos países que no permiten una plena libertad en la red . Igualmente, se puede mostrar la obstaculización al acceso de los contenidos a través de filtros, bloqueos y otras formas de aplicación de la censura.
Incluso, se puede dar como ejemplo el caso de Cuba como el más crítico en restriccionesEn China, por ejemplo, las autoridades emplean muchos mecanismos para evitar la libre expresión en la red:
At the same time, the Chinese blogosphere is active and creative, and a growing number of netizens use ICTs to spread information and opinions. Thus far, the authorities have managed to prevent this from translating into open political opposition to Communist Party rule or a groundswell of public criticism of the government‘s key policies. The Communist Party‘s internet control strategy consists of four different techniques: technical filtering, prepublication censorship, postpublication censorship, and proactive manipulation (Karlekar & Cook, 2009, p.37).:
Cuando así lo quieren, los poderes existentes se aplican a controlar los medios de comunicación, sobre todo los tradicionales y centralizados, como la prensa, la radio y la televisión.
También intentan, por supuesto, hacerse con el control del contenido de la Red, pero en la práctica el proceso es notablemente difícil debido a la estructura descentralizada de Internet, que, por esta razón, ha pasado a ser un medio importante de ejercicio de la libertad de expresión individual en las sociedades totalitarias (Himanen, 2001, p.69).
En ese sentido, partiremos de la premisa de una blogosfera libre de obstáculos; es decir, que toda comunicación en la red es potencialmente susceptible de ser accedida desde cualquier parte del mundo.
Por ejemplo, el blog publicado en el servicio Wordpress y titulado como ClustrMaps on Blogger presenta visitas permanentes de todos los continentes del mundo, incluso China con 272 y la restringida Cuba con 16 visitas (ver la iamgen). Lo anterior no significa que cualquier mensaje será consultado en todo el mundo, lo que sí significa es que será potencialmente visible en todo el mundo. Obviamente, existen algunas condiciones para que el mensaje sea consultado globalmente, de las cuales resaltamos tres: el mensaje debe ser escrito preferiblemente en idioma inglés, asignar tags o etiquetas que sean comúnmente consultados (AH1N1, risk communication, etc.) e incluir imágenes o videos.
Figura 6. Mapa de visitas al blog de ClustrMaps
Cierta noche, cansado de navegar en Internet, me quedé observando una película de detectives. Generalmente no me gustan este tipo de películas pero el diálogo que se daba entre un detective y su hija, sentada frente a un computador, me llamó la atención: "hija, siempre he procurado tu seguridad. Siempre te he protegido del daño que te puedan causar. Esta casa cuenta con los más modernos sistemas de seguridad, está conectada a la central de policía más cercana. Por ello nunca hemos tenido un intruso en casa, pero… lo que nunca me imaginé es que el intruso entraría por esa pantalla."
Los riesgos de la Internet. El mundo virtual de la Internet o, si se prefiere, el salvaje mundo de la Internet está poblado de extrañas criaturas: hackers, bloggers, geeks, freaks, internautas, nerds, chaters, spammers, spywarers; mezcladas con los creaturas conocidas del mundo real: pedófilos, pederastas, voyeristas, ladrones, estafadores, falsificadores, piratas, acosadores, violadores y, muchos otros que se escapan de mi mente. |
Mi calificativo de mundo salvaje no obedece a las extrañas criaturas, muchas de ellas insertadas en una conciencia colectiva que promueve la libertad del conocimiento y la justicia social, sino a que es un mundo que se caracteriza por el poco control. En la Internet, las normas brillan por su ausencia.
He dado algunas charlas sobre los grandes beneficios que presta la Internet, del uso de los blogs, los foros, las wikis, el software libre y muchos otros recursos gratuitos que, bien utilizados, nos permite interactuar con el mundo. Sin embargo, toda oportunidad está acompañada del riesgo. Todo desarrollo tecnológico trae consigo el riesgo.
Para tranquilizar a los internautas, son muchos más los beneficios que los riesgos. Es decir, vale la pena correr el riesgo.
La interacción con estos pobladores de la red genera riesgos, aunque dicha interacción sea transparente para nosotros. El hecho de estar conectado implica la interacción con alguna o muchas de las criaturas de la red; por ejemplo, un cracker podría estar intentando vulnerar nuestro sistema de seguridad, si es que acaso lo tenemos. Un pederasta podría estar intentando tener contacto virtual con nuestros hijos (el intruso que sorprendió al detective); un spammer nos estará enviando información no deseada o, al menos no solicitada. Un spywarer estará colocando un troyano en nuestro equipo mientras visitamos incautamente su página.
Son muchos los riesgos a los que nos sometemos al convertirnos en internautas, con un poco de ayuda de la wikipedia y de algunas páginas web reseñaré los más comunes:
1. Riesgos de infección.
Cuando nos infectamos es porque nuestro sistema inmunológico ha sido vulnerado. Se tratan de bichos que pueden ser virus o bacterias. La selva virtual también los tiene en variadas presentaciones: virus, gusanos y troyanos; pero con una característica especial: "todos son globales"; es decir, no generan epidemias… generan pandemias.
Al igual que los virus del mundo real, hay aquellos que producen pequeñas molestias hasta los que generan grandes dolores de cabeza e, incluso, de bolsillo:
VirusLas mayores incidencias se dan en el sistema operativo Windows y Android debido, entre otras causas, a su gran popularidad, como sistemas operativos, entre los computadores personales y dispositivos móviles. Se estima que, en 2007, un 90% de ellos usaba Windows. Mientras que Android tiene una cuota de mercado de 80% en 2015. Esta popularidad basada en la facilidad de uso sin conocimiento previo alguno, motiva a los creadores de software malicioso a desarrollar nuevos virus; y así, al atacar sus puntos débiles, aumentar el impacto que generan (Wikipedia).: Programa que puede infectar otros programas, modificándolos para incluir una copia de sí mismo. Algunos tal vez recuerden mensajes como este: "Se está apagando el sistema. Guarde todo trabajo en curso y cierre la sesión. Se perderá cualquier cambio que no haya sido guardado. Tiempo restante para el apagado: 00:00:59…Windows debe reiniciar ahora porque el servicio… Llamada a procedimiento remoto (RPC) terminó de forma inesperada". |
Si lo recuerdan es porque fueron atacados por el virus Blaster, uno de los tanto virus creados para atacar las vulnerabilidades del sistema operativo Windows.
El Windows, el siempre odiado Windows, sea cual fuese la versión, es el sistema a atacar por los creadores de virus. El virus Melissa (1999), por ejemplo, generó pérdidas por más de 300 millones de dólares afectando más del 15% de los computadores del mundo que usaban Windows y Word.
En esa época le teníamos pavor a cualquier archivo .doc externo. Los usuarios de Windows deben estar parchando las fisuras que este sistema presenta. Por ello, muchos han optado por cambiar de sistema. Me decía un amigo: "Mi mejor antivirus es el Linux". Sin embargo, tampoco el Linux se escapa a los ataques. Lo mejor es un buen antivirus, un buen antispam, un buen anti spyware, un buen anti troyano y, en general, un buen navegante. Es decir, navegar con cuidado en la enmarañada selva de la Internet.
Gusanos y troyanosEn informática, se denomina caballo de Troya, o troyano, a un software malicioso que se presenta al usuario como un programa aparentemente legítimo e inofensivo, pero que, al ejecutarlo, le brinda a un atacante acceso remoto al equipo infectado.12 El término troyano proviene de la historia del caballo de Troya mencionado en la Odisea de Homero (Wikipedia).. Los gusanos o worms son programas que se copian a sí mismo, saturan los recursos de nuestros equipos haciéndolos más lentos, se diferencian de los virus porque no infectan archivos ni programas. Por otra parte, un troyano es un programa que a diferencia de los virus y gusanos no infectan archivos ni programas ni se copian a sí mismo. |
Al ejecutarlo abre puertas para permitir que el intruso controle nuestro equipo. Este intruso es llamado cracker o ladrón de información. Su principal objetivo es romper o crackear los sistemas de seguridad, no sólo de los equipos, sino también de los programas comerciales. Es decir, algunos cracker son también piratas de software. Una variante interesante de estos troyanos son los llamados spyware.
En 2017 se hizo famoso el troyano Dridex. Clientes de al menos tres entidades bancarias españolas fueron víctimas de este troyano. Este programa malicioso es uno de los ladrones virtuales más sofisticados conocidos hasta la fecha, orientado a robar cuentas corriente. "Se hace pasar por procesos legítimos de Windows", explica Fernando Díaz, de Hispasec. Además, en vez de instalarse en el disco duro, como la mayoría, se esconde en la memoria, donde los antivirus no pueden "verle". (https://www.elconfidencial.com/).
Spyware. Estos programas espías recopilan información sobre una persona u organización sin su conocimiento. La función más común es la de recopilar información sobre el usuario y distribuirlo a empresas publicitarias u otras organizaciones interesadas. Dado que el spyware usa normalmente la conexión a Internet para transmitir información, |
hace que el consumo del ancho de banda se incremento, presentando como consecuencia adicional la lentitud de nuestros equipos. Cuando alguien me dice que su Internet está lento, siempre le aconsejo ejecutar un buen antispyware. Spyware terminator es uno de ellos, además es gratuito.
2. Riesgos del correo. Las direcciones de e-mail crecen aceleradamente. Por ejemplo, en 1998 se registraron 253 millones, mientras que en 2006 ascendió a 1.600. Generalmente por correo nos llegan los virus, además del siempre molesto correo spam. Algunos usuarios de correo lo primero que hacen es borrar más de la mitad de sus correos de dudosa procedencia, entre ellos los spam.
Este correo no solicitado, genera pérdida de tiempo y, obviamente, de productividad.
Ahora, en 2018, sólo Google ofrece almacenamiento gratuito de correo electrónico a 425 millones de usuarios de Gmail. El verdadero poder detrás de Google es su red física mundial, sus miles de millas de fibra y los muchos miles de servidores que, en conjunto, se suman a la madre de todas las nubes.
Esta infraestructura multimillonaria le permite a Google indexar más de 20,000 millones de páginas web al día, procesar más de 3,000 millones de búsquedas diarias, realizar millones de subastas de anuncios en tiempo real, millones de videos de YouTube a usuarios todos los días, y para entregar resultados de búsqueda antes de que el usuario haya terminado de escribir la consulta. (http://internetstatstoday.com)
Phishing. "Estimado cliente de Bancolombia…". Seguro que algunos recuerdan un correo que iniciaba con esta frase. No faltó el incauto que cayó en las redes de estos hackers. Pero no sólo fue Bancolombia, el ataque se hace a las principales entidades bancarias del mundo. El phishing busca los incautos de la red para que suministren información personal, especialmente los datos de su cuenta bancaria o tarjeta de crédito. Se conocen casos renombrados como los de Bancolombia, Citibank, BVA y Santander, pidiendo que actualicen la información de sus cuentas por x o y motivo. La causa más curiosa, diría más graciosa, es porque se ha reportado actividad fraudulenta en la entidad. El phishing se hace través del correo electrónico, llevando al incauto a una página ficticia, con apariencia completa de ser la real.
Archivos adjuntos. Una amiga frecuentemente tiene problemas de virus, lentitud del equipo y, otros síntomas que reflejan el mal uso de sus correos. No he podido hacerle comprender que las hermosas presentaciones en PowerPoint (extensión ppt o pps), enviadas masivamente, traen consigo alguno que otro virus, gusano o troyano. Los archivos adjuntos en correo electrónico son los escondites ideales para los troyanos, es un medio de propagación rápido y en cual caen muchos, pero muchos, incautos; especialmente los amantes de las diapositivas de PowerPoint.
"Desafortunadamente ahora se debe tener precaución para poder abrir este tipo de correos debido a que una nueva vulnerabilidad de Power Point, expone el riesgo de que cualquiera pueda aprovecharse e instalar un troyano llamado MDropper-BH que hace que la computadora descargue malware convirtiendo la PC en un zombi" (tomado de http://mipropiadecadencia.blogspot.com/)
A propósito de los malware. Esta es una palabra que significa software malicioso (malicious software), en esa categoría están los programas antes mencionados. Es decir un troyano, un gusano, un virus y un spyware son malware.
3. Riesgos del chat.
Aquí volvemos a la introducción de este Rincón. Por el chat es que ingresó el intruso a la casa del detective. Los criminales en línea seducen a sus víctimas con lindas frases, conocen el lenguaje chat de los niños y jóvenes, usan con propiedad los emoticones, se hacen pasar por otro niño o joven, comparten la música de moda, en fin… gastan el tiempo necesario hasta que su víctima caiga en su red. Por este medio es posible convencer al niño o joven incauto a que conecte su cámara y exhiba su cuerpo; también se conocen casos en los cuales la víctima suministra información de sus padres (cuentas bancarias y tarjetas de crédito) y, el más lamentable, información sobre los hábitos, que permite al criminal, saber cuando su víctima se encuentra sólo.
Esto es sólo una muestra de lo que el intruso puede hacer. Los efectos sobre la moral, lo ético, lo religioso, etc. aún están por explorar. Bien se sabe la proliferación de sectas, grupos terroristas, xenófobos, racistas, anarquistas, en fin… cuanta contaminación permite el mundo sin control de la Internet.
4. Riesgos del descontrol. La ausencia de gobernabilidad
El tema de la gobernanza de Internet está de moda. El descontrol así lo demanda. Sin embargo, será tema de otro Rincón. Igualmente existen otros riesgos de la Internet que no he tratado como el caso de los juegos en línea, los programas gratuitos, la información inútil (basura de Internet), las suplantaciones, violaciones de la intimidad, piratería, y un muy largo etcétera. Mi propósito es llamar la atención sobre aquellos más comunes a los cuales estamos expuestos.
Quiero terminar con una nota publicada en el periódico El Tiempo de Bogotá, el 30 de marzo de 2008: "En dos años podría colapsar internet ante exceso de información asegura Nemertes Research" ¿el apocalipsis de la Internet?
Algunos apartes de la nota son los siguientes: "Llegará el momento en que será casi imposible ver un video, bajar una canción o 'chatear'”, “La investigación […] que solamente el tráfico actual de YouTube es igual al que soportaba toda la Red en el año 2000. En ese sitio web se pueden ver más de 80 millones de videos que la gente publica a razón de casi 200.000 diarios". La nota termina con los efectos de una parálisis de Internet: colapso de las transacciones bancarias virtuales, adiós a nuestros correos electrónicos, la mayoría de los servicios de telefonía no se podrían usar (adiós a los blackberry y otras nuevas tecnologías), el Ecomerce perdería millones.
Pero, en 2018, la Internet está más vigorosa que nunca.
Pese a que existen grandes preocupaciones frente al uso de los servicios que presta Internet, la Gobernanza de Internet se ha centrado más al control y regulación de los nombres de dominio (DNS) y la asignación de direcciones IP y, además, a la piratería digital. Por ello,
la gobernanza se convirtió en una de las cuestiones clave en el marco de la Cumbre Mundial sobre la Sociedad de la Información (World Summit on Information Society, WSIS) celebrada en 2003, amparada por Naciones Unidas y la Unión Internacional de Telecomunicaciones.
Dada la importancia de la cuestión y con el mandato expreso de Naciones Unidas para continuar trabajando sobre las reflexiones extraídas en la WSIS, se crea el Internet Governance Forum (IGF), un espacio abierto y descentralizado para el debate sobre políticas que favorezcan la sostenibilidad y solidez de Internet y que reúne a los gobiernos, el sector privado, los colectivos académicos y de investigación, y la sociedad civil (Pérez et al, 2008, p.5).
Pretender una gobernanza de Internet desde el contexto de su uso sería un absurdo, pues sería tratar de acallar las voces de miles de millones de usuarios, o regular sobre lo que debemos oir o decir, leer o escribir. La gobernanza de Internet que se enmarca en la necesidad de la regulación tecnológica (dominios especialmente) quizá sea posible, pero la gobernanza social de la Internet como necesidad de dar respuesta a riesgos asociados a la xenofobia, sectas satánicas, racismos, terrorismo, pornografía entre otros, que proliferan en la red, no es tarea fácil.
La fundación Karisma nos da una primera definición sobre lo que debemos entender por Gobernanza de Internet: "Asuntos relacionados con el desarrollo y la aplicación de principios, normas, reglas, procedimientos y programas que dan forma a la evolución y uso de Internet". Realmente es una definción de WGIG ( Working Group on Internet Governance).
Ya habíamos discutido sobre la posibilidad de restricciones para el uso de los servicios de Internet en algunos países como China. Sin embargo, los filtros y bloqueos no son fáciles de implementar, la única forma sería no prestar el servicio, es decir, eliminar Internet. Son muchos los ejemplos de cómo evitar los filtros o, si se prefiere, la censura en Internet.
Un primer ejemplo es la filóloga y bloguera cubana Yoani Sánchez que se ganó el Premio Ortega y Gasset 2008 (España) en la categoría de periodismo digital y el premio María Moors Cabot 2009 de la Universidad de Columbia (Estados Unidos), por su trabajo en el blog http://www.desdecuba.com/generaciony/, ahora en 2018: http://www.14ymedio.com/blogs/generacion_y.
Observemos con más detalle lo expuesto por Karisma:
Un elemento clave en la gobernanza es la información, pues se necesita que todos los stakeholders conozcan sobre el asunto que deben intervenir y tomar decisiones. Esta necesidad nos retorna a la red o, como hemos venido expresando, a la Internet como el medio más indicado para ejecutar las acciones de la Gobernanza, es decir, una Gobernanza en la Internet
Divulgar los riesgos de la Internet a través de la misma Internet es una decisión acertada; sin embargo, al igual que los actos legislativos, el resultado final puede ser una simple publicación. Es necesario conocer los hábitos de los potenciales afectados por el riesgo para diseñar efectivas estrategias de comunicación.
Comunicar los riesgos de la Internet a través de redes sociales como FacebookEl crecimiento de Facebook ha sido un fenómeno interesante por varios aspectos: el primero es su crecimiento, en tanto que de un millón de usuarios registrados en 2004, subió a 12 millones en 2006 y a más de 1000 millones en 2018. Por otra parte, desde el contexto del riesgo situacional, la posibilidad de conformar grupos numerosos en torno a un interés común, encuentra en esta red social un canal estratégico tanto para la comunicación como para la divulgación del riesgo en diferentes contextos: "The difference that makes advertising on social media networks like Facebook stand out is that the target audience—a specific community or channel—has a common interest" (Jones, 2009, p.11). o Instagram es una decisión más acertada, en tanto que la red es el mensaje. No obstante, no todos los stakeholders son usuarios de estas redes sociales, pero existe una alta probabilidad de consulta en otro recurso de la web, entre ellos un simple buscador como Google o Yahoo.
Si nuestro propósito es comunicar el riesgo a través de la web, es importante conocer las tendencias sobre las consultas realizadas. En https://trends.google.com/trends/explore hemos consultado algunas estadísticas que nos permiten concluir :
Figura 7. Nivel de consulta del término “terremotos”
En esta primera consulta, el nivel del 100% en el mes de septiembre en 2017, obedece al terremoto presentado en México, que nos permite concluir que en momentos de crísis es más fácil comunicar, es decir, si deseamos divulgar un riesgo es más fácil hacerlo en "la tormenta".
La conclusión anterior es obvia, pues los momentos de crísis se constituyen en una tendencia de búsqueda de información. Sin embargo, existen intereses en el público que perduran.
Figura 8. Nivel de consulta del término "Michael Jackson"
Por otra parte, realizamos un ejercicio utilizando un servicio de publicaciones de la web (http://www.scribd.com). Nuestro propósito era determinar el nivel de consultas de dos artículos cuyos títulos presentaban diferencias en “popularidad”. Inicialmente, el 20 de agosto de 2009, publicamos un artículo que titulamos "Nanoriesgos".
Posteriormente, el 14 de octubre del mismo año, publicamos otro artículo con el título "Terremotos". El 10 de noviembre, encontramos que el primer artículo había sido leído 127 veces, por contraste al segundo que registraba 142 lecturas (en menos de un mes).
¿Hay más interés en los terremotos que en los nanoriesgos?, por las cifras anteriores, podríamos decir que sí. Sin embargo, el primero es de mayor consulta en momentos de crísis, lo que no significa que perdure el interés en el tiempo. El 6 de marzo de 2018 visitamos estas dos páginas, encontrando que el artículo sobre terremotos se había consultado 2893 veces, mientras que el de nanoriesgos tuvo 9883 visitas ¿qué sucedió?
Hay dos situaciones que justifican este resultado. La primera es que en la última década creció el interés del público por las nano tecnologías y, obviamente, por los riesgos que las acompañan. La segunda es de caracter semántico, pues el término más usual o, dirían algunos, correcto, es "nano riesgos", sin embargo, nuestro artículo usa el término "nanoriesgos". En una consulta el 8 de marzo de 2018, encontramos 338 resultados sobre nanoriesgos y 333.000 sobre nano riesgos, en la primera búsqueda, nuestro artículo aparece en el tercer lugar (blog) y en el quinto en la versión publicada de Scribd.
Lo cierto es que hay más interés en los terremotos que en los nanoriesgos o, si se prefiere, nano riesgos. Un ejercicio adicional permite explicar esta afirmación: el mismo 8 de marzo, ingresamos el término "terremotos" en el buscador Google con 2.950.000 resultados (34.500.000 para "earthquakes"). Esto quiere decir que nuestra publicación es una entre tres millones de publicaciones acerca de terremotos, que se traduce en una muy remota posibilidad de una lectura a través de Google, en tanto que los primeros enlaces que muestra el buscador son aquellos de mayor consulta, que para el ejercicio son wikipedia, YouTube, noticieros digitales y organizaciones gubernamentales.
Figura 9. Consulta del término nanoriesgos
Volviendo a nuestro ejercicio de consulta realizada en Google, se encontraron 19.200 resultados para la expresión "nanorisks" y 3.100.000 para la expresión "nano risks". Entre estos resultados se destacan páginas web como http://www.nanorisk.org/ o http://www.lifenanorisk.eu/.
Esta última anuncia: "The development of nanomaterials is a particularly exciting area of science and industry. However a lack of information existed about the risk posed by the nanoparticles to human health and the environment.". Lo interesante del ejercicio es que se obtuvo información sobre el déficit investigativo sobre nano riesgos.
El creciente número de riesgos con efecto en una gran población o el surgimiento de riesgos globales como los asociados al cambio climático, además de la discusión, la participación y la deliberación, demandan previamente ser divulgados. A pesar de las tensiones con los expertos del riesgo y de las controversias suscitadas por la incertidumbre, las estrategias de prevención de riesgos (no de incertidumbres), cuyo impacto es masivo, deben ser comunicadas a los stakeholders; en otras palabras, deben ser divulgadas, de tal forma que la comunicación interactiva del riesgo sea efectiva y, en consecuencia, la gobernanza del riesgo.
¿Cómo, entonces, divulgar el riesgo? Esta pregunta se debe responder desde la respuesta a esta otra pregunta: ¿qué objetivos busca la divulgación del riesgo? Sin entrar en mayores detalles, existe un objetivo general: prevenir el riesgo. La existencia de riesgos de origen natural como los de tipo sanitario (virus, por ejemplo) o sísmicos demandan de estrategias efectivas de divulgación para su prevención. La comunicación entre expertos o entre funcionarios públicos es necesaria, en tanto que de ellos proviene la divulgación; la comunicación interactiva entre stakeholders es la estrategia para la gestión efectiva del riesgo. Es, entonces, la Red el medio ideal para una gobernanza del riesgo que, en últimas, se constituye en una gobernanza en Internet.
Para terminar este capítulo, realiza la actividad interactiva de la siguiente página, que recoge términos usados hasta esta parte del texto.
Clasifica las palabras según el tipo de riesgo.
Inicio este apartado con un artículo que publiqué en 2007
¡Mijo el batallón se está incendiando! Fue la primera frase que escuché el sábado 29 de diciembre de 2007 acerca del evento del cual nos ocuparemos en este Rincón. Mi esposa me repetía lo que acababa de escuchar a través de una llamada telefónica. ¿Será que la guerrilla se metió al batallón? Fue una pregunta lógica en el contexto de nuestro convulsionado país. ¡No creo que sean tan osados!, pensé dubitativamente.
Así iniciábamos un día extraordinario en nuestras vidas. Si bien ya habíamos vivido otros sucesos propios en la anterior violencia urbana de Medellín, este evento se presentaba como una oportunidad única para confrontar algunas posturas sobre la percepción del riesgo.
Volvía a mi mente una frase que he defendido en otros artículos de este Rincón: ¡El riesgo se vive en la tormenta! Y allí estábamos nosotros, en medio de la tormenta.
¡Papi mira la humareda que está saliendo del batallón! El grito de mi hija vino acompañado del sonido de algunas explosiones. ¡La cosa parece grave!, pensé con preocupación. Mi primera decisión fue dar la orden de no asomarse a las ventanas y de ubicarnos en el nivel más bajo de nuestra vivienda, luego encendí la radio y el televisor en búsqueda de nueva información. |
No era la guerrilla, se trataba de un accidente que dejó como resultado inicial la explosión de una granada en la armería de esta guarnición militar. He ahí la primera confrontación con los estudios sobre la percepción en general y sobre la percepción del riesgo en particular… la carga teórica.. La percepción pública del riesgo no sólo se fundamenta en los fenómenos naturales o tecnológicos que lo originan, se fundamenta además en las creencias (falsas o acertadas), en los valores y principios culturales, en la información distorsionada de las diferentes fuentes divulgadoras del riesgo, en la tradición histórica que constituye el universo de la experiencia del agente perceptor, en su carga teórica, en sus emociones, y en muy bajo grado en las estimaciones probabilistas de los expertos.
Esta percepción pública construye sus propios riesgos, los acepta o los elude, los prioriza, los gestiona, los representa y los divulga, se convierte a su vez en fuente de nuevos riesgos
Mi carga teórica me decía que estaban explotando granadas, municiones y morteros. No tenía información sobre la cantidad, pero por el gran número de explosiones parecía que el polvorín era enorme. Mi primera decisión era coherente con mi carga teórica, debíamos protegernos de las esquirlas. Pero… llegó más información. Los organismos de seguridad a través de los medios de comunicación instaban a la evacuación inmediata de los barrios vecinos a la tragedia.
¡Mijo su hermana me llamó llorando, dice que debemos evacuar! ¿Evacuar? ¿Por qué? Eran interrogantes que no encontraban respuesta en mi carga teórica. Están explotando granadas, morteros y municiones y mi vivienda se encuentra a unos 500 metros del lugar ¡están exagerando! Quizá sea un caso de amplificación del riesgo. Abrí la puerta de mi casa para observar la reacción de mis vecinos. Observé a uno con rostro de preocupación, al pasar a mi lado expresó: ¡hermano salga de aquí que si el incendio llega al sótano… vuela mierda al zarzo!. Luego se alejó con su familia como alma que lleva el diablo.
¡Mijo volvió a llamar su hermana, sigue angustiada y dice que ellos si van a evacuar! Terminando la frase mi esposa, se escuchó una explosión seguida de una fuerte vibración de la estructura de nuestra casa. En ese momento recordé la explosión de Cali, la cual arrasó con más de 40 manzanas.
El 7 de agosto de 1956 en Cali se registró el más pavoroso desastre de origen industrial.
Siete camiones militares cargados con 40 toneladas de dinamita gelatinosa explotan, arrasando con más de 40 manzanas en cinco barrios de la ciudad. El EMDAT registra 2,700 muertos, los caleños hablan de más de 10,000. “Durante tres días seguidos, recibí volquetadas de cadáveres”, es el testimonio de uno de los sepultureros de la ciudad. “volaban bolas de fuego, creí que el mundo se estaba acabando”, dice otro de los testigos del desastreVéase Colombia país de desastres en el Rincón del riesgo de diciembre de 2005 (www.rincondelriesgo.blogspot.com). El EMDAT es una base de datos de desastres internacionales de la Universidad de Lovaina en Bruselas, Bélgica, clasifica en los primeros lugares los desastres de Villatina (por deslizamiento de una de las laderas de Medellín), Armero (de origen volcánico) y el de Cali (accidente industrial poco o nada conocido por muchos colombianos)..
Al diablo con mi carga teórica, al diablo con el riesgo, en la incertidumbre reina la precaución. ¡Vámonos inmediatamente! Le dije a mi familia y sin más preparativos nos alejamos de la tormenta.
Fuera de la casa observaba con atención la reacción de otros vecinos, era mi oportunidad de estudiar el riesgo… en el riesgo mismo. Algunos, como nosotros, se alejaban del lugar; otros estaban tranquilos como si nada ocurriera y, lo que más me dejaba perplejo, era la curiosidad que invitaba a acercarse al lugar de los hechos. Eran muchos los curiosos asomados en balcones y azoteas o en las calles aledañas al batallón. Estos vecinos no percibían el riesgo, podía más la morbosa curiosidad.
Mientras nos alejábamos, en nuestro auto seguía escuchando las noticias. ¡Algunos habitantes cercanos al lugar del siniestro se niegan a evacuar por temor a que roben sus casas! Decía un funcionario de la defensa civil entrevistado por la emisora que tenía sintonizada ¡Por favor, no se apeguen a las cosas materiales! Se le decía a la población reacia a evacuar.
El sempiterno problema en las evacuaciones… el apego a lo material. Igual ocurrió en Nueva Orleans o ahora con los riesgos inminentes del volcán Galeras en Colombia y del volcán Tungurahua en Ecuador. Parece que sólo cuando las rocas volcánicas o las esquirlas estén sobre sus cabezas, percibirán el riesgo. Al otro lado de la ciudad la percepción del riesgo respondía a las teorías psicológicas, en especial la psicométrica de Paul Slovic y colaboradores. El riesgo lejano minimizaba la percepción. A pesar de observarse la humareda que se elevaba en la lejanía, no había mayor interés por el suceso. Nosotros, los evacuados, relatábamos el acontecimiento, pero los nuevos perceptores del riesgo seguían su vida cotidiana, como si nada estuviera sucediendo.
Por mi parte, me concentré en los medios de comunicación. La información era esporádica, parecía que tampoco había interés por parte de los medios. Los dos muertos que reportaban las autoridades castrenses quizá no eran suficientes para captar su atención. En una de las entrevistas, un soldado explicaba que si el fuego alcanzaba las bombas “V1” podía arrasar con algunas manzanas. Posteriormente, otro vecino me decía que había evacuado porque sabía de la existencia de “bombas papaya”No estoy seguro de su escritura. En mi búsqueda de una bomba con tal denominación sólo encontré referencia a unas bombas de la segunda guerra mundial.. Al día siguiente en los periódicos se hacía alusión a morteros de 120 milímetros, quizá a eso se refería el soldado entrevistado y mi vecino. Lo cierto es que nos dejamos llevar por las creencias y el pánico que genera la ignorancia… la incertidumbre. En ningún momento se dio orden de evacuación en nuestra unidad residencial, el temor de los organismos de socorro y del ejército se debía al daño posible por esquirlas y sólo ordenaron evacuar las viviendas más cercanas al batallón.
La espera fue larga, el evento había comenzado cerca de las 10:30 de la mañana.
A las 3 de de la tarde aún se observaba la humareda. Cuando observé los helicópteros cargando el agua para apagar el fuego, supe que el riesgo había pasado, la tormenta había cesado. Regresamos a nuestro hogar sin el menor impedimento, no había restricciones para al ingreso a nuestra Unidad… nunca las hubo. Un joven le comentaba a mi hija que se había perdido lo mejor. A las 2 de la tarde se sintió una gran explosión que hizo vibrar todas las casas del sector. Me hizo recordar algunas imágenes de niños en medio del desastre, sonrientes, jugueteando con las aguas de una inundación o en medio de los escombros dejados por una explosión. Niños ignorantes del riesgo. Niños cuya percepción de riesgos como el generado por las explosiones del batallón es nula… completamente nula. Por contraste, nosotros lo habíamos amplificado, habíamos construido un nuevo riesgo.
Pese a todas las teorías sobre la percepción, me llama la atención el análisis del filósofo escocés David Hume en torno a dos conceptos que experimentamos en la tormenta: creencia e incertidumbre.
En la influencia que puede presentar la creencia en la percepción, Hume trae como ejemplo: “un cobarde, cuyo miedo se despierta fácilmente, asiente con facilidad a toda noticia del peligro que le den, lo mismo que una persona de disposición triste y melancólica es muy crédula para todo lo que alimenta su pasión dominante” (Hume, 1738, p.67). Existe entonces, según Hume, una predisposición de ciertas personas a creer o formar creencias en torno a riesgos, así no se haya presentado una impresión externa del mismo.
Las emociones juegan un papel importante en la racionalidad o irracionalidad de nuestras decisiones. En un principio estuve desconcertado, luego estuve seguro de mi decisión desde mi carga teórica, posteriormente surgió la incertidumbre que reformó mi creencia: están explotando granadas, municiones, morteros y es posible que explote algo potencialmente destructivo. “El pánico, la impotencia, el dolor físico y otras emociones pueden retardar decisiones importantes” (Elster, 1996). Igualmente ocurrió en la percepción del riesgo con los habitantes que no evacuaron. La permanencia en la zona de riesgo, ante la inminencia del riesgo, podría considerarse una decisión irracional; sin embargo, no es fácil conocer las emociones que llevaron a tomar tal decisión. La incertidumbre asociada al riesgo pudo dar surgimiento a la esperanza de la no ocurrencia de un desastre, el pánico por la posible pérdida del único patrimonio de algunas familias quizá influyó en la decisión, el apego a lo material, la desconfianza en la información de los expertos o cualquiera otra causa son posibles escenarios de múltiples emociones que afectaron directamente la toma de decisiones frente al riesgo. Nuestra decisión de evacuar fue racional desde nuestra creencia. Otra decisión hubiera sido irracional.
Para terminar, quiero resaltar una frase que escuché ese día en la radio: “Todavía hay riesgo… riesgo significa que algo puede suceder, no que sucederá”. Era el mensaje de nuestro Alcalde.
Concluyo con esta frase porque es un concepto de riesgo con el cual estoy totalmente de acuerdo. Resalto lo de posibilidad como un concepto que justifica mi evacuación, pero que a su vez también justifica a aquellos que decidieron quedarse… pero con una gran diferencia: yo no perdí nada al equivocarme en mi decisión, ¿qué hubieran perdido mis vecinos, si los equivocados hubiesen sido ellos?
Este capítulo lo hemos denominado "Riesgos tecnológicos", mas por su existencia en ese mundo artificial que hemos creado, no obstante, el término académico más correcto es "riesgos de origen tecnológico", pues la taxonomía de riesgos tiende a separar los riesgos de origen natural de los de origen artificial.
Iniciemos con el siguiente vídeo, que nos permitirá reflexionar sobre algunos elementos naturales y artificiales que se mezclan en este tipo de riesgos.
Existe consenso en definir los riesgos tecnológicos, como aquellos que puedan originar incendios, derrames, explosiones o fugas. No obstante, es importante precisar qué los origina, pues es posible tener un incendio forestal por causas naturales y por tanto, no sería un riesgo tecnológico. En otros casos, accidente de Chernobil, por ejemplo, el origen se mezcla entre lo tecnológico y las decisiones humanas.
¿Cómo podríamos calificar los riesgos sísmicos? Algunos afirman que su origen es natural, pues el terremoto es natural, sin embargo, la vulnerabilidad (elemento constitutivo del riesgo) es de origen antropogénico, pues desarrolla tecnologías que hacen vulnerables las edificaciones a los eventos sísmicos, en conclusión, el origen se mezcla entre lo natural y lo tecnológico.
Los desarrollos tecnológicos y su implementación presentan grandes beneficios para el bienestar de la humanidad, sin embargo, todo desarrollo tecnológico trae consigo algún riesgo, unos de mayor impacto que otros. Por otra parte, algunas tercnologías presentan incertidumbres sobre sus consecuencias, que no permiten regular o, al menos, establecer algunas medidas de prevención sobre su implementación y uso.
A continuación, presentamos algunos riesgos de origen tecnológico, algunos de ellos definidos por la Agencia Federal para el Manejo de Emergencias de los Estados Unidos (FEMA):
El riesgo se materializa si un químico se usa de manera imprudente o se libera en cantidades nocivas al medio ambiente. Los fabricantes de productos químicos son una fuente de materiales peligrosos, pero hay muchas otras que incluyen gasolineras, hospitales y sitios de desecho de materiales peligrosos.
La madrugada del 3 de diciembre de 1984 una nube toxica invadió la capital del estado de Madhya Pradesh, en el centro del país. La fábrica de pesticidas de la empresa estadounidense Union Carbide sufrió un escape de gas mortal que se llevó la vida de prácticamente todo aquel que encontraba a su paso. Mucha gente estaba durmiendo a esa hora y no tuvo tiempo de escapar. Según las cifras oficiales del Gobierno, murieron 5.000 personas. Las asociaciones que dan apoyo a las víctimas suben esa cantidad a 25.000 y hablan de 500.000 afectados con distintas incapacidades (http://www.elmundo.es).
Los residuos nucleares se producen en cada etapa del ciclo de combustible nuclear, desde la extracción y enriquecimiento de uranio, hasta la operación del reactor y el reprocesamiento de combustible nuclear gastado. Mucho de este combustible nuclear seguirá siendo peligroso por cientos de miles de años, dejando un legado venenoso a las futuras generaciones (Greenpeace - Colombia).
Un caso interesante asociado a los riesgos de accidentes nucleares y al problema de los residuos nucleares es el de Yucca Mountain (Nevada)Yucca Mountain es una cadena montañosa situada en Nevada cerca de 140 km de Las Vegas. La montaña es conocida por el proyecto de almacenamiento de residuos radioactivos en capas geológicas profundas, un proyecto del Departamento de Energía de los Estados Unidos para el combustible nuclear usado y otros residuos radioactivos de alta actividad, que ha sido objeto de numerosas polémicas..
Para mayor comprensión, hacemos una descripción de los elementos científicos en discusión: una cualidad que determina el funcionamiento de cualquier sitio de residuos nucleares es su sistema hidrológico, medida en la capacidad de filtrar los residuos radioactivos, los cuales decaen en períodos de 10 mil años. En otras palabras, una contaminación alta genera contaminación para ésta y muchas generaciones. Las estimaciones de los científicos del flujo de filtración radioactiva fue entre 4 y 10 mm por año; una investigación posterior redujo esta estimación entre 0.1 y 1 mm por año (Sarewitz, 2004, p.393). Este último rango estimado permitió concluir que el sitio era suficientemente seguro, ajustándose, además, a la objetividad científica y a los intereses políticos y económicos que giraban en torno a la energía nuclear. Estudios posteriores descalificaron estos estimativos; la predicción había fallado y, quizá, a costos muy altos:
However, the Yucca Mountain site was the focus of intense political controversy, and the scientific results that issued from the Department of Energy (DoE), which had responsibility for the site, were under constant fire. DoE was also subject to the oversight of two external bodies that reviewed the science and made recommendations for further research. In this politically contentious environment, DoE was pushed to drill a tunnel that would enable direct sampling of rocks at the actual level of the proposed repository. Subsequent analysis of water in those rocks indicated the presence of radioactive isotopes generated from atmospheric nuclear weapons tests in the early years of the Cold War. (Sarewitz, 2004, p.394).
La respuesta ética al problema del modelo seleccionado en las primeras estimaciones se encuentra en la forma de pensar de los científicos; para ellos, así haya un modelo mejor, éste no será lo suficientemente bueno, especialmente si podría conducir a consecuencias indeseables en las políticas públicas (Shrader-Frechette, 1997, p.151).
Lo cierto es que los modelos no son exactos y pueden generar fallas en las estimaciones. Surgen, entonces, otros interrogantes: ¿por qué tan alta la desviación en el modelo?, ¿la injerencia política tuvo algo que ver?, ¿pueden más estos intereses que la ética científica? Si las respuestas se enmarcan en la incertidumbre científica presente en los modelos, cobra entonces más fuerza el principio de precaución como el modelo para seguir en decisiones cuyo impacto es incierto. Igualmente, tomar decisiones como las de Yucca Mountain evidencia un bajo nivel de percepción de los riesgos implícitos en una falla de la predicción o una creencia en grado sumo en el modelo empleado, es decir, un exceso de objetividad o una objetividad débil en términos de WingShrader-Frechette ha denunciado este tipo de decisiones que afectan a la población. Ver (Shrader-Frechette, 1994) sobre el depósito de residuos radiactivos en Yucca Mountain, (Shrader-Frechette, 2005) sobre la ética en los derechos de propiedad en ingeniería genética o (Shrader-frechette, 2002) sobre las condiciones de los trabajadores en industrias de alto nivel de contaminación. Una de sus afirmaciones es que, el riesgo lejano a su vez propicia, en las políticas públicas, cierta inequidad con las generaciones futuras, situación que se evidencia en la lejanía de los efectos por residuos radiactivos y las dosis reguladas a través de estas políticas.
Nos podríamos extender bastante en la discusión sobre este tipo de riesgo de origen tecnológico, pero es suficiente con la lectura del artículo presentado en la siguiente página, suficiente para comprender nuestra ignorancia sobre el impacto ambiental y para nuestra salud de la basura que generamos al desarrollar e implementar los productos tecnológicos.
Si usas un ordenador, este recurso lo puedes leer haciendo clic en el ícono del pdf o ampliando el interactivo. Si está usando un dispositivo móvil, ampliar el interactivo para leer el ar´ticulo.
Clasifica las imágenes según el tipo de riesgo.
Para una mejor lectura de las imágenes, amplía la escena interactiva.
Investiga la proyección del cambio climático para Medellín en 2050 y en 2070. Recuerda que puedes ampliar el mapa haciendo clic en la esquina superior derecha.
La introducción a este apartado, la hacemos con el artículo de León Olivé: "Los objetos biotecnológicos: concepciones filosóficas y consecuencias para su evaluación"Este artículo es publicado en la revista Acta Bioethica, bajo licencia Creative Commons Attribution 4.0..
El desarrollo científico y tecnológico en el siglo XX, particularmente en su segunda mitad, estuvo marcado por el surgimiento y el crecimiento de los sistemas que muchos autores llaman "tecnocientíficos". Algunos ejemplos paradigmáticos de sistemas tecnocientíficos los encontramos en la investigación nuclear, en la espacial, en la informática y en el desarrollo de las redes telemáticas. Pero quizá entre los ejemplos que hoy en día más acaparan la atención pública, y atraen a los mayores intereses económicos y militares, se encuentran la investigación genómica, la ingeniería genética y la biotecnología en general.
En este artículo discutiremos una caracterización de los objetos biotecnológicos como un tipo particular de objetos tecnológicos. Veremos que conviene distinguir entre sistemas biotecnológicos y artefactos biotecnológicos, y que muchos sistemas y artefactos biotecnológicos son además tecnocientíficos.
No se trata sólo de proponer una nomenclatura aparentemente novedosa (y farragosa) para referirse a fenómenos y objetos bien conocidos.
El problema es que en la segunda mitad del siglo XX surgieron disciplinas tecnocientíficas –entre ellas las biotecnológicas– que actualmente están teniendo un gran impacto social (en lo económico y en lo cultural), así como ambiental, y es previsible que sus efectos aumenten en el futuro. Para comprender ese impacto y, en su caso, para tomar decisiones que permitan intervenir en la sociedad y en el ambiente, por ejemplo para paliar efectos negativos, para prevenirlos, o para remediarlos se requiere entender primero la naturaleza de esos objetos. Y puesto que se trata de objetos novedosos en la historia de la humanidad, que tendrán consecuencias en la sociedad y en el ambiente hasta ahora no conocidas, necesitamos nuevos conceptos para percibirlos, observarlos, entenderlos y poder actuar sobre ellos.
Una de las preguntas que nos interesa discutir es: ¿cómo situarse frente y cómo juzgar a la biotecnología? ¿Cómo situarse frente a los objetos biotecnológicos y cómo evaluar su uso y sus consecuencias? El problema axiológico, el problema de la evaluación de los fines y valores implicados, no puede abordarse adecuadamente si no se comprende la naturaleza de los objetos y fenómenos que se pretende evaluar.
Comencemos por recordar que no hay una única manera legítima de concebir a la ciencia, ni a la tecnología, ni a la tecnociencia. Muchas veces se entiende a la tecnología como reducida a un conjunto de técnicas o, en todo caso, de técnicas y de artefactos. Pero así entendida no es posible dar cuenta de ella y de su importancia en el mundo contemporáneo, y menos hacer propuestas sensatas para su evaluación. Una buena aproximación a la tecnología la ha ofrecido Miguel Ángel Quintanilla, quien ha aclarado la distinción entre técnicas, artefactos y sistemas tecnológicos.
Las técnicas son sistemas de habilidades y reglas que sirven para resolver problemas. Las técnicas se inventan, se comunican, se aprenden y se aplican.
Por ejemplo, podemos hablar de un grabado hecho con la técnica de "punta seca", de técnicas para resolver sistemas de ecuaciones, de técnicas de propaganda para ganar el mercado para un cierto producto o de técnicas para clonar organismos vivos.
Los artefactos son objetos concretos que se usan al aplicar técnicas y que suelen ser el resultado de las transformaciones de otros objetos concretos. Los artefactos se producen, se fabrican, se usan y se intercambian. Vivimos rodeados de artefactos: televisores, teléfonos, computadoras, aviones, organismos genéticamente modificados. También un organismo clonado, como Dolly, es un artefacto, porque es el resultado de un sistema de acciones intencionales humanas que han aplicado técnicas y, con base en un complejo de saberes científicos y tecnológicos, han transformado objetos concretos para generar un nuevo objeto: el artefacto (la criatura Dolly).
Pero la tecnología es mucho más que el conjunto de artefactos. Ni las técnicas ni los artefactos existen al margen de las personas que las aplican o los usan con determinadas intenciones. Una piedra bruta no ha sido fabricada por nadie, no es un artefacto, pero puede ser usada como instrumento para pulir otra piedra, para romper una nuez o una cabeza. Cuando alguien la usa intencionalmente para transformar un objeto concreto y producir así un artefacto, entonces se ha creado un sistema tecnológico. Éste es el principal concepto para entender y evaluar a la tecnología y sus impactos en la sociedad y en la naturaleza.
Un sistema tecnológico consta de agentes intencionales que persiguen al menos un fin. Digamos un grupo de científicos y de empresarios que buscan producir una nueva vacuna para luego comercializarla. El sistema incluye también a los objetos que los agentes usan con propósitos determinados (una piedra que se utiliza para pulir otra piedra y fabricar un cuchillo, o instrumentos utilizados para modificar genes y producir así organismos con determinadas características fenotípicas). Asimismo el sistema contiene al menos un objeto concreto que es transformado (la piedra que es pulida, los genes que son modificados).
El resultado de la operación del sistema tecnológico, el objeto que ha sido transformado intencionalmente por alguien, es un artefacto (el cuchillo, o un organismo genéticamente modificado). Los resultados de un sistema tecnológico pueden ser aparatos (aviones de combate o pulmones artificiales), sucesos (la muerte de personas, la destrucción o el empobrecimiento de la biodiversidad de una región o del planeta entero), o pueden ser procesos dentro de un sistema (la paulatina recuperación del estado de salud de una persona enferma o de un ecosistema en crisis, la constante reducción de la inflación en un sistema económico), o modificaciones de un sistema (las alteraciones en un sistema ecológico por la construcción de una presa, el cambio climático).
Al plantearse fines, los agentes intencionales de un sistema tecnológico lo hacen contra un trasfondo de creencias, de conocimientos y de valores. Alguien puede querer pulir una piedra porque cree que le servirá para cortar frutos. La piedra pulida es algo que el agente intencional considera valiosa. Un grupo de personas puede querer producir un medicamento o un órgano obtenido mediante técnicas de clonación, porque creen que el primero servirá para curar enfermedades o, el segundo, para restablecer el funcionamiento normal del organismo de una persona.
En ambos casos se presupone que la salud de las personas es valiosa. Los sistemas tecnológicos, entonces, también involucran creencias y valores. Las creencias se derivan de la capacidad de las personas de representarse conceptualmente la realidad sobre la cual desean intervenir. Los agentes intencionales que forman parte de los sistemas tecnológicos abstraen de la realidad ciertos aspectos que les interesan, construyen modelos y teorías para explicárselos y para intervenir sobre ellos, para modificarlos o para manipularlos. Los valores son asignados por los seres humanos a estados de cosas en el mundo cuando los consideran como buenos o malos, o como deseables o indeseables.
Todo esto significa que los seres humanos son capaces de tomar decisiones y promover la realización de ciertos estados de cosas mediante el diseño y la aplicación de sistemas tecnológicos, en función de sus representaciones, creencias, conocimientos, intereses, valores, deseos y preferencias. Pero en la evaluación de un sistema tecnológico y de sus resultados pueden chocar sistemas de valores y de intereses, produciéndose juicios encontrados. Por ejemplo, los materiales de construcción que se obtienen mediante la explotación de un bosque, digamos la madera, pueden ser valiosos para un grupo humano. Pero si eso conduce a la deforestación de un valle, el proceso de tala puede ser juzgado indeseable por algunos grupos. La sustitución de cultivos tradicionales por otros con semillas modificadas genéticamente puede ser valiosa para ciertos sectores sociales, por ejemplo por razones económicas, pero indeseable para otros grupos, porque se afecta de manera negativa e irreversible la riqueza de la biodiversidad.
Hoy en día los sistemas tecnológicos pueden ser muy complejos. Pensemos tan sólo en una planta núcleoeléctrica, en sistemas de salud preventiva en donde se utilizan vacunas o en un sistema agrícola donde se cultivan organismos genéticamente modificados.
Estos sistemas, además de ser complejos de acciones, involucran conocimientos científicos entre muchos otros elementos (de física atómica en un caso y de biología en los otros). En estos sistemas está imbricada indisolublemente la ciencia y la tecnología, por eso suele llamárseles sistemas tecnocientíficos.
Por "sistemas tecnocientíficos" entenderemos, pues, sistemas tecnológicos que constan de un complejo de saberes, prácticas, sistemas de acciones e instituciones, en los que la ciencia y la tecnología son interdependientes. Para Javier Echeverría "la tecnociencia se caracteriza porque no hay avance científico sin avance tecnológico y, recíprocamente, (...) cuando el conocimiento científico depende estrictamente de los avances tecnológicos, de modo que no es posible observar, medir ni experimentar sin recurrir a grandes equipamientos, entonces estamos hablando de tecnociencia".
Los sistemas tecnocientíficos, como los científicos, buscan describir, explicar o predecir lo que sucede, pero no se limitan a ello, también tienen, como la tecnología, el propósito central de intervenir en partes del mundo natural y social y de transformarlas. Aunque las tecnociencias han tenido un crecimiento espectacular en las tres últimas décadas y han desplazado en importancia económica y social a las ciencias y a las tecnologías tradicionales, éstas no han sido eliminadas. Lejos de ello, más bien asistimos hoy a una convivencia de técnicas, sistemas científicos, sistemas tecnológicos y sistemas tecnocientíficos.
Los artefactos son productos de sistemas de acciones intencionales, pero no todo artefacto es producido intencionalmente, ni sólo los aparatos son artefactos. Hay consecuencias de los sistemas tecnológicos que no son intencionales y por lo general no son previstas y, sin embargo, son artificiales.
Los sucesos, los procesos o las modificaciones de los sistemas naturales o sociales son artificiales, tanto como los aparatos, cuando son efecto de la operación de un sistema tecnológico. La muerte de una persona puede ser natural, debida a una enfermedad que su cuerpo ya no puede superar, pero es (un suceso) artificial si resulta de la acción intencional de alguna persona (aunque la intención de quien actuó no haya sido producir la muerte de aquella persona, es decir, aun cuando esa muerte haya sido una consecuencia no buscada, ni deseada, ni prevista). La muerte de la Princesa Diana, como consecuencia de la persecución de los fotógrafos sensacionalistas, fue un suceso artificial, pero no fue buscado intencionalmente por nadie (o al menos eso suponemos). La destrucción de una ciudad por un terremoto es natural, pero es artificial si es causada por la explosión de una bomba nuclear.
Fernando Broncano menciona un bello ejemplo de un grupo de cazadores y recolectores que, cada día, después de la ardua jornada, regresan a su aldea. Su objetivo intencionalmente buscado es llegar a casa por el trayecto más sencillo. Con el tiempo, regresando por la misma ruta todos los días, el resultado es un sendero en el paisajeBroncano F. Mundos Artificiales. Filosofía del cambio tecnológico. México: Paidós; 2000..
Broncano sostiene que la intencionalidad con la que se produce un cierto resultado es una condición necesaria pero no suficiente para distinguir lo natural de lo artificial. Para él, la característica esencial de lo artificial se encuentra en lo que denomina "composicionalidad de segundo orden, o capacidad para fabricar instrumentos que produzcan instrumentos", y se trata de una "característica específicamente humana". "Muchos animales disponen de técnicas, es decir, de patrones estables de conducta que transforman el medio, y son también muchos los animales que fabrican artefactos". Pero él prefiere en definitiva la idea de la composicionalidad de segundo orden, que toma del antropólogo Steven Mithen: "hay un salto cualitativo en la evolución cuando se comienzan a construir instrumentos para fabricar instrumentos".
Desde nuestro punto de vista, que un objeto sea producido intencionalmente (deliberadamente) no es una condición necesaria para ser un artefacto. La intención de los cazadores nunca fue construir el sendero. Su objetivo intencionalmente buscado era regresar a casa. El sendero no es un objeto producido intencionalmente, sin embargo es un artefacto, no es un producto sólo natural, pues no hubiera existido de no ser por las acciones intencionales de un grupo de seres humanos, aunque su fin deliberadamente buscado era otro. La intencionalidad es necesaria como componente del sistema (tecnológico) de acciones bajo el cual se busca obtener un cierto fin. Pero además de los fines buscados deliberadamente (que a veces no se logran, o no todos), el sistema de acciones puede generar otras consecuencias que muchas veces ni siquiera son previstas y, en ocasiones, tampoco son deseadas.
Broncano ha señalado, acertadamente, que el problema no consiste en encontrar una línea de demarcación tajante entre lo natural y lo artificial, sino en distinguir dentro de los objetos naturales aquéllos que además son artificiales.
Así, por ejemplo, la capa de ozono es un objeto natural, y el fenómeno que llamamos su adelgazamiento, o el objeto llamado "agujero de ozono", no deja de ser un objeto de la naturaleza. Ciertamente es un fenómeno que no fue buscado intencionalmente por nadie. Pero es un producto de una compleja cadena de relaciones causales, entre cuyos elementos se encuentran sistemas de acciones intencionales de seres humanos, que produjeron y utilizaron los CFC's para otros fines específicos (refrigeración, latas de aerosol, etc.). El adelgazamiento de la capa de ozono es, pues, una consecuencia de un sistema de acciones humanas intencionales, y por eso es un resultado artificial, es un artefacto, aunque no haya sido buscado, ni previsto, ni deseado. A continuación veremos la importancia de esta nota para la evaluación de los sistemas biotecnológicos.
Una de las características de los sistemas biotecnológicos, especialmente de los tecnocientíficos, es la siguiente: en virtud de su propia naturaleza, producen en su entorno –social y ambiental– efectos a corto, mediano y largo plazo, muchos de los cuales son significativos para los seres humanos aunque no hayan sido buscados. Una buena parte de esos efectos son imposibles de predecir en el momento de la puesta en funcionamiento del sistema tecnocientífico, por ejemplo cuando se libera al ambiente un organismo genéticamente modificado; algunos de ellos serán valorados posteriormente como positivos y otros como negativos y, generalmente, la valoración variará de unos grupos sociales a otros.
Esto significa que los sistemas biotecnológicos generan situaciones de riesgo, es decir, situaciones en las que se pone en juego algo valioso para un grupo de seres humanos a partir de posibles consecuencias de la acción o de la operación de un cierto sistema (natural o artificial).
En tales situaciones puede darse alguno de estos tres casos: i) que se conozcan las probabilidades de la ocurrencia de cada uno de los resultados posibles; ii) que se desconozcan tales probabilidades, en cuyo caso la situación es de incertidumbre; o iii) que ni siquiera se sepa cuáles sucesos pueden ocurrir como consecuencia de la aplicación del sistema, entonces la situación es de ignorancia.
Las situaciones de riesgo tienen estas tres características:
Enfocando el riesgo de esta manera, es un corolario que su identificación, estimación, aceptabilidad y gestión –visto todo esto como un continuo y no como compartimentos estancos–, necesariamente dependen de valores. Aunque no todos los valores involucrados son de tipo ético, existe un problema ético de base en las formas de enfrentar los problemas del riesgo que generan los sistemas biotecnológicos.
Pues la información y el conocimiento pertinentes para la identificación, estimación y gestión del riesgo siempre dependen de un contexto, de la posición de quienes evalúan, de sus fines, intereses y valores; y "tomar una posición, y estar en una posición es, inevitablemente, una cuestión de ética".
Las percepciones del riesgo están íntimamente ligadas a la forma como los seres humanos, desde diferentes posiciones, comprenden los posibles fenómenos que constituyen peligros o amenazas. No hay una única comprensión correcta del riesgo en cada situación específica, como tampoco hay una única y correcta manera de estimarlo y gestionarlo. Esta es la idea que se ha ocultado mediante la tradicional asociación del "lenguaje del riesgo" con el mundo de la economía, del comercio, de la medicina profesional, de los deportes peligrosos y de los seguros. Este punto de vista sostiene engañosamente que "la percepción del riego implica una relación particular con un futuro desconocido cuya posibilidad, de llegar a realizarse, podría sin embargo calcularse mediante extrapolaciones de ocurrencias pasadas". Desde esa concepción, la evaluación del riesgo se reduce a una mera cuestión matemática que debe quedar en manos sólo de expertos.
Esta interpretación del riesgo cumple una función ideológica al ocultar que las situaciones de riesgo, por su propia estructura, admiten una pluralidad de puntos de vista distintos –que pueden ser todos correctos– al percibir, identificar, evaluar y gestionar el riesgo. Esto es así, entre otras razones, porque hay sistemas de valores que son constitutivos de esas situaciones, y porque la comprensión y evaluación de una situación de riesgo necesariamente se basa en valores, y los sistemas de valores varían en función de quienes hacen la evaluación.
Cuando se trata de evaluar los riesgos de la aplicación de sistemas biotecnológicos, por ejemplo, de la liberación de un organismo genéticamente modificado al ambiente, no hay un acceso privilegiado a la verdad, a la objetividad o a la certeza del conocimiento y, por eso, en estas tareas deben participar al mismo nivel los científicos naturales, los científicos sociales, los tecnólogos, los humanistas, los trabajadores de la comunicación, los empresarios, los políticos, los ciudadanos y todas las personas cuyas vidas pueden ser afectadas.
Esto no significa desconocer que diferentes sectores de la sociedad, y diferentes miembros dentro de esos distintos sectores, tienen un acceso diferenciado a la información pertinente, al saber especializado, y a ciertos recursos necesarios para conocer y evaluar las consecuencias de la biotecnología. Pero sí quiere decir que, cuando se trata de evaluar resultados y decidir acciones en torno a un sistema biotecnológico que afecta a la sociedad o al ambiente, la visión y las conclusiones de cada sector serán necesariamente incompletas, y ninguno tiene un privilegio que justifique su participación a costa de excluir a otros sectores que pueden aportar otros puntos de vista valiosos y pertinentes.
¿Cómo situarse frente y cómo evaluar a los sistemas biotecnológicos y a los artefactos que producen, así como a las consecuencias que generan, cuando se afectan intereses colectivos de diversos sectores de la sociedad? ¿Cómo contender con estos problemas en las sociedades contemporáneas que aspiran a vivir bajo una organización democrática?
Las sociedades modernas se basan en un modelo de ciudadano que proviene de uno de los supuestos mejor atrincherados del pensamiento moderno, a saber, que las personas son racionales y autónomas. Por otra parte, las modernas sociedades democráticas se caracterizan por la convivencia de muy diversos grupos y sectores sociales, con diferentes visiones del mundo y diversos sistemas de valores. La identificación, evaluación y propuestas de gestión del riesgo dependen de esos sistemas de valores y, puesto que ninguno de ellos está por encima de los demás, entonces no hay una única manera correcta de identificar los riesgos, ni una única estimación acertada, ni una valoración que sea la única justa.
Por lo tanto, tampoco es posible una visión sobre la gestión del riesgo que sea la única correcta y éticamente aceptable; puede haber diferentes puntos de vista tan legítimos unos como otros. No se trata de una visión relativista que sostenga que cualquier punto de vista es tan bueno como cualquier otro. Se trata más bien de una concepción pluralista que sostiene que no existe un punto de vista que sea el único correcto.
Esta situación de pluralidad, que se da tanto para los problemas del conocimiento en general como para cuestiones éticas (en particular, para los problemas de la identificación, evaluación y gestión del riesgo), exige que, para encontrar soluciones justas, la toma de decisiones debe ser resultado de un amplio proceso dialógico. En tal proceso, las diversas partes interesadas deben intercambiar información, proponer y rebatir con razones los métodos que se deben seguir. Deben ventilar y discutir abiertamente los intereses, fines y valores de todos los sectores sociales involucrados y afectados. Finalmente, deben debatir las formas propuestas para evaluar y gestionar los riesgos en cuestión, así como para intentar prevenir, atenuar o compensar los daños, buscando siempre alcanzar acuerdos aceptables para las diversas partes.
Para lograr lo anterior, se requiere un conjunto de "normas éticamente justificables" que animen y regulen la participación pública en el proceso de identificación, evaluación y gestión del riesgo generado por los sistemas biotecnológicos. En el contexto plural de las sociedades modernas, la estabilidad de los acuerdos exige que tales normas sean consideradas como legítimas por los diversos grupos sociales. Esto se logrará sólo cuando los miembros de cada uno de los grupos significativos acepten esas normas por razones que ellos consideren válidas, aunque tales razones no sean las mismas para todos los sectores sociales ni para todos los ciudadanos, pues dependerán de sus particulares visiones del mundo, de sus diversos sistemas de valores y de sus principios morales y religiosos.
Por ejemplo, ésta es la situación típica que se plantea en los Estados democráticos laicos con respecto a la legislación sobre el aborto. Puesto que un Estado laico no debe comprometerse con ningún punto de vista moral particular en torno a la admisibilidad o condena moral del aborto, debe llegar a un acuerdo con sus ciudadanos acerca de las normas que regularán las decisiones y acciones del Estado al respecto. Tales normas deberían permitir que los ciudadanos actúen de acuerdo con sus particulares valores y principios morales y no deberían, por ejemplo, obligar al Estado a imponer un castigo a las mujeres, o a las parejas, que decidan un aborto, pues la condena del aborto depende de valores y principios morales específicos que varían de un grupo social a otro, y en relación con los cuales el Estado laico no debe pronunciarse. Esas normas que regulen la actuación del Estado deberían ser aceptables para todos los ciudadanos "incluyendo aquellos que condenan moralmente el aborto" con base en una actitud tolerante con otros puntos de vista morales, actitud necesaria para lograr una convivencia armoniosa entre diversos grupos sociales, religiosos o étnicos, en el marco del Estado laico.
Podemos resumir de la siguiente manera las razones para justificar la participación pública en el diseño, evaluación y gestión de políticas en materia de biotecnología, así como en la identificación, estimación y gestión del riesgo generado por los sistemas biotecnológicos:
i) Si se niega la participación pública, y las decisiones en estas cuestiones se dejan sólo en manos de los expertos, entonces se genera una "tecnocracia" –es decir un sistema donde las decisiones que afectan a todos los ciudadanos y al ambiente son tomadas sólo por pequeños grupos de especialistas–, solución que resulta incompatible con los valores democráticos de equidad en la pluralidad de los puntos de vista, el derecho a la decisión libre de todos, y la igualdad de todos en la decisión del gobierno.
ii) El desarrollo de la biotecnología afecta en tal grado a la naturaleza y a la sociedad, que el diseño, la evaluación y la gestión de políticas y de riesgos en materia de biotecnología implican decisiones sobre restricciones de posibles cursos de investigación y de posibles aplicaciones porque podrían ser perniciosas. En la evaluación del impacto de los sistemas biotecnológicos están involucrados problemas de distribución de bienes y beneficios, atribución de responsabilidades y sanciones, así como de exigencia de compensaciones. Es decir, se trata de dirimir cuestiones incluso de justicia social, cuya resolución en una sociedad democrática resultaría ilegítima sin una amplia participación pública.
iii) Si bien todas las sociedades requieren de expertos para resolver muchos de sus problemas, entre ellos la generación de medios para satisfacer las necesidades básicas de los ciudadanos –es decir, las necesidades indispensables para la realización de cualquier plan de vida–, y eso justifica la asignación de recursos sociales a esos grupos de expertos, en las sociedades democráticas es éticamente justificable exigir:
Primero, que los dineros públicos se asignen con el convencimiento y aprobación del público y, segundo, que los sistemas de ciencia y tecnología respondan a genuinas demandas de los ciudadanos que los mantienen, es decir, es un deber que esos sistemas tengan resultados que satisfagan genuinas necesidades sociales. Pero la identificación de las genuinas demandas sociales, incluyendo la determinación de las necesidades básicas de los ciudadanos, sólo puede ser legítima si surge de una amplia participación ciudadana, y no de la manipulación de grupos de interés y de poder.
Mencionemos, finalmente, sólo un par de ejemplos de mecanismos de participación ciudadana que es posible desarrollar. 1) Coloquios de consenso. Reuniones públicas que permiten a grupos de ciudadanos participar en la evaluación de sistemas tecnológicos específicos. Se trata de un diálogo entre ciudadanos y expertos, abierto al público y a los medios de comunicación.
Por ejemplo en Dinamarca, a partir de este tipo de reuniones, se han tomado decisiones para prohibir ciertas tecnologías de preservación de alimentos o para prohibir a las empresas que exijan un perfil de salud de ADN a sus empleados y a quienes soliciten empleo. 2) Talleres de discusión de escenarios. Reuniones locales para propiciar el diálogo entre cuatro grupos de agentes: a) responsables de la elaboración de políticas; b) representantes de empresarios; c) expertos; d) grupos de ciudadanos. En Dinamarca se ha utilizado para discutir temas como "ecología urbana" o "la biblioteca del futuro".
Pero los seres humanos, en los diferentes papeles sociales que desempeñan (científicos, tecnólogos, políticos, gobernantes, legisladores, administradores públicos, funcionarios de organizaciones internacionales, empresarios y los ciudadanos de la calle), pueden tomar medidas y promover acciones que podrían influir en el desarrollo de los sistemas biotecnológicos y, sobre todo, encauzar sus beneficios y su impacto en la sociedad y en el planeta.
Por otra parte, puesto que los recursos que permiten el desarrollo de la biotecnología, sean públicos o privados, provienen del trabajo de los ciudadanos, los sistemas biotecnológicos deberían abocarse a la resolución de problemas planteados por los diversos sectores sociales, y no responder únicamente a los intereses de los sectores empresariales o militares.
Presentamos, a continuación, dos artículos que permiten establecer un debate en torno a la aceptación o no de los desarrollos tecnocientíficos sobre las células madres.
Estos son algunos aspectos tomados del resumen de cada artículo
El primer artículo, cuyos autores son Gabriela Bortz, Federico Vasen y Achim Rosemann, explora la forma en que se han configurado en Argentina los procesos de desarrollo de terapias con células madre. Se analiza la tensión entre la construcción de capacidades, expectativas de ingreso económico, esperanzas por sus potenciales aplicaciones terapéuticas y los riesgos que esta tecnología trae aparejados.
El segundo artículo de Manuel de Santiago Corchado, desarrolla una aproximación a la ética de las células madre desde una perspectiva de inspiración cristiana. Se establecen algunas diferencias filosóficas entre los conceptos de «ética» y «moral». Se expone la perspectiva post-kantiana vigente en el plano académico, que diferencia y distingue los conceptos de ética y moral. Se aborda un planteamiento ético orientado al discurso de la ética civil, al debate social. Finalmente, se contemplan y analizan diferentes opciones sobre la investigación con células madre humanas, considerando diversos modelos de obtención de células pluri-potentes en los cuales el diseño se propone respetar la vida de los embriones humanos.
El doctor Felipe Prósper, Director del Área de Terapia Celular de la Clínica Universidad de Navarra, explica cuáles son las aplicaciones actuales de las células madre, cómo funcionan y sus aplicaciones en terapias celulares.
"El futuro es bueno, pero pasa por demostrar con objetivos como la supervivencia de los pacientes, que las terapias con células madre son eficaces en las enfermedades cardiovasculares" (Prósper)
¿Qué son las células madre? ¿Qué hay de cierto y qué no en las terapias con células madre? Las respuestas están en el espacio "No te dejes engañar". Información, avances y logros, acuerdos bilaterales de investigación, capacitación y desarrollo tecnológico son parte de este recorrido que nos propone el Dr. Gustavo Sevlever, miembro de la Comisión Asesora en Terapias Celulares y Medicina Regenerativa.
Mitos y verdades de las células madre.
Un modelo de gobernanza del cambio climático debe institucionalizar las decisiones, bien sea local o globalmente, y propiciar mecanismos de participación en la acción. ERste modelo debe trascender los extensos informes o las espectaculares representaciones del riesgo; si bien éstas aportan al conocimiento del riesgo, las decisiones se quedan en buenas intenciones, así se plasmen en protocolos internacionales. Estas decisiones serán efectivas si todos los involucrados e interesados en los efectos del cambio climático desempeñaran su rol desde unos compromisos institucionalizados (regulación). La agencia política deberá comprometerse a establecer las medidas regulatorias que se requieran o se desprendan de las decisiones tomadas, la agencia científica profundizará en el análisis de los riesgos caracterizados, la agencia económica propiciará los recursos financieros necesarios para la implementación de las políticas, la sociedad civil acatará la normatividad que emerge en este proceso de gobernanza y, en todos los ámbitos, la gestión y control del riesgo será de responsabilidad compartida; es decir, en el caso de riesgos como el cambio climático es de todos nosotros.
Dada la complejidad del problema, las soluciones igualmente serán complejas, afectando los aspectos de tipo económico y político, además del cambio cultural y social. Sin embargo, la implementación de este modelo fortifica la democracia, en tanto que la participación no se limita a la formulación de políticas sino que trasciende hacia un compromiso de hacerlas cumplir y cumplirlas. Pero, ¿cómo hacer efectivo el modelo? Por una parte, es necesario legitimar la toma de decisiones y, por otra parte, garantizar la ejecución de las decisiones.
En la legitimación de las decisiones no se puede esperar a que todos los interesados y afectados participen y deliberen; esto se logra con una amplia participación, mas no con toda la participación. Para ello, existen mecanismos que permiten la presencia de todas las diferentes organizaciones, tanto civiles como de las demás agencias. Lo más complejo del modelo es lograr la participación activa y responsable en la acción, complejidad que se puede minimizar si se utilizan los mecanismos que hacen posible tal participación en presencia de riesgos inminentes
En este apartado se exponen las teorías sobre el Cambio Climático, tanto de los informes oficiales como de los no oficiales. El lector podrá sacar sus propias conclusiones, una de ellas es que tenemos que acercarnos más al conocimiento actual frente a este fenómeno que afecta a la población actual y a las generaciones venideras.
En noviembre de 2006 se lanzó el documental Una verdad incómoda, del ex candidato a la presidencia de los Estados Unidos, Al Gore. La película de 96 minutos generó una polémica frente a las causas reales del Cambio Climático.
“Soy Al Gore... solía ser el próximo presidente de Estados Unidos”, esta frase y otros comentarios en el desarrollo del documental, da la sensación de un tinte político, de una posible campaña de desprestigio del entonces presidente y, por qué no, de un lanzamiento a las próximas elecciones. El gran espectáculo multimedia muestra con lujo de detalles, la dramática rapidez con que los glaciares y los polos se han derretido en los últimos años y, la velocidad del calentamiento global con sus consecuentes efectos colaterales, entre ellos la devastación dejada por el paso del huracán Katrina en Nueva Orleáns.
La tesis central que defiende Al Gore es la siguiente: Cuando la energía del Sol llega a la Tierra, buena parte rebota y vuelve al espacio. El problema ahora es que gases como el dióxido de carbono (CO2) y otros treinta más de "invernadero" (como el metano) ayudan a crear una capa en la que queda atrapado parte del calor del sol.
Figura 10. Imagen tomada del documental
La consecuencia directa es el calentamiento del planeta. La concentración de CO2 en la atmósfera, debido en buena parte al consumo de combustibles fósiles, ha aumentado exponencialmente, de 280 ppm (partes por millón), antes de la revolución industrial, a cerca de 380 ppm.
Las afirmaciones de Al Gore coinciden extraordinariamente con el informe presentado en París, tres meses después del estreno del documental, por el Panel Intergubernamental del Cambio Climático (IPCC, sigla en inglés), informe en el cual participaron más de 2.500 científicos.
El Ministerio de Medio Ambiente de España publicó en Internet una traducción no oficial del informe del IPCC. Algunas de las conclusiones se transcriben a continuación
Los cambios en la cantidad de gases de efecto invernadero y aerosoles en la atmósfera, los cambios en la radiación solar y en las propiedades de la superficie terrestre alteran el balance energético del sistema climático.
El dióxido de carbono es el gas de efecto invernadero antropogénico más importante. La concentración atmosférica global ha aumentado de 280 ppm a 379 ppm en 2005, la concentración atmosférica de dióxido de carbono en 2005 excede, con mucho, el rango natural de los últimos 650.000 años según muestran los testigos de hielo.
La fuente primaria del incremento en la concentración de dióxido de carbono en la atmósfera desde la era preindustrial es el uso de combustibles fósiles, junto con los usos del suelo que suponen una contribución significativa pero más pequeña.
El conocimiento de la influencia antropogénica en el calentamiento o enfriamiento del clima ha mejorado desde el Tercer Informe de Evaluación(TIE), lo que lleva a afirmar con un nivel muy alto de confianza que el efecto neto medio de las actividades humanas desde 1750 ha resultado en un calentamiento.
El calentamiento del sistema climático es inequívoco, tal y como evidencian ahora las observaciones de los incrementos en las temperaturas medias del aire y los océanos, el derretimiento generalizado de hielo y nieve y el incremento medio global del nivel del mar.
Once de los últimos doce años (1995-2006) están en el ranking de los doce años más calurosos en los registros de temperaturas de superficie instrumentalizados (desde 1850).
Datos nuevos muestran que las pérdidas en las placas de hielo de Groenlandia y la Antártida han contribuido muy probablemente al aumento del nivel del mar desde 1993 a 2003.
Las observaciones muestran la evidencia de un incremento en la actividad de ciclones intensos en el Atlántico norte desde aproximadamente 1970, correlacionado con el calentamiento observado de la temperatura de la superficie del mar (TSM) en los trópicos.
La información paleoclimática apoya la interpretación de que el calor de la última mitad del siglo pasado es inusual al menos en los últimos 1.300 años.
La mayor parte del incremento observado desde la mitad del siglo XX en las temperaturas medias se debe, muy probablemente, a los aumentos observados en los gases de efecto invernadero antropogénicos.
La continuidad de las emisiones de los gases de efecto invernadero en los índices actuales, o un aumento de estos índices, causaría un mayor calentamiento e induciría muchos cambios en el sistema climático global durante el siglo XXI, que muy probablemente serán mayores que aquellos observados durante el siglo XX.
Es muy probable que los episodios de calor extremo, olas de calor y precipitaciones fuertes tiendan a ser cada vez más frecuentes.
Los procesos climáticos y sus escalas de tiempo implican que el calentamiento antropogénico y el aumento del nivel del mar continuarían por siglos incluso si las concentraciones de gases de efecto invernadero se estabilizasen. Las emisiones antropogénicas de dióxido de carbono continuarán contribuyendo al calentamiento y al aumento del nivel del mar durante más de un milenio, debido a las escalas de tiempo requeridas para eliminar este gas de la atmósfera.
Luego de leer el informe y de observar el documental, pareciera que el IPCC lo dirigiese Al Gore, o que éste tuvo acceso libre a las conclusiones antes de su divulgación al público.
¿Cuál era entonces el debate?
El rechazo al protocolo de Kyoto contra el calentamiento global por parte de Estados Unidos, en cabeza de su presidente (el adversario de Al Gore), los resultados obtenidos por los científicos y, la innegable evidencia del cambio climático, eran el escenario ideal para la “revancha” del candidato perdedor. Se afirma entonces que los intereses del documental eran de tipo político.
Pero era sólo el debate frente a la intencionalidad del documental. Por otra parte, existían científicos que no estaban de acuerdo con las conclusiones del IPCC, criticaban el informe por sustentarse en resultados “altamente probables”, estos científicos constantemente llamados “escépticos” en el documental, eran contratados, según Al Gore, por las empresas petroleras o por el estado (Bush o empresas petroleras, que es lo mismo) para convertir en teoría lo que los hechos evidenciaban.
Sin embargo, a pesar de las afirmaciones frente a esta maquinaria, supuestamente montada por las empresas petroleras, existían otras teorías que vale la pena conocer, al menos como una luz en el túnel apocalíptico presentado por Al GoreEs importante aclarar que en los últimos informes del IPCC, la certeza ha reemplazado la probabilidad, por ejemplo, en el Informe 2013, se hacen afirmaciones como: "La influencia humana en el sistema climático es clara. Es evidente a tenor de las crecientes concentraciones de gases de efecto invernadero en la atmósfera, el forzamiento radiativo positivo y el calentamiento observado, y gracias a la comprensión del sistema climático", "Las emisiones continuas de gases de efecto invernadero causarán un mayor calentamiento y nuevos cambios en todos los componentes del sistema climático".
Esta tesis es defendida por científicos del Centro Nacional Espacial de Dinamarca y es conocida como la cosmoclimatología. Se afirma que nuestras emisiones de dióxido de carbono a la atmósfera tienen un efecto mínimo en la transformación del clima terrestre en comparación con otro factor, mucho más radical pero natural: los rayos cósmicos procedentes de la explosión de estrellas y que llegan a la atmósfera de la Tierra con mayor o menor intensidad dependiendo del campo magnético del Sol.
Mediciones de dos décadas vía satélite han demostrado que existe un vínculo directo entre la intensidad de dicha incidencia de rayos cósmicos y el clima terrestre. Otras investigaciones refuerzan el descubrimiento danés, que ha suscitado cierta polémica en la comunidad científica. Unos de los científicos de gran trayectoria es Henrik Svensmark, el cual publicó ‘Cosmoclimatology: a new theory emerges’, en la revista Astronomy & Geophysics.
Apoyando esta tesis, Space Science Reviews publica otro artículo en el que catorce investigadores señalan a lo largo de 140 páginas la influencia de la astronomía, el Sol y los efectos cósmicos sobre la Tierra y el clima de nuestro planeta.
Finalmente, la European Organization for Nuclear Research, con sede en Ginebra, anunció que el proyecto conocido como CLOUD (Cosmics Leaving OUtdoor Droplets) reune datos para determinar la influencia que podrían tener los rayos cósmicos sobre la formación de las nubes y el clima de la Tierra.
Richard Lindzen, del Instituto de Tecnología de Massachussets (MIT), duda que el cambio climático sea un problema, sostiene la tesis que él denomina del "efecto iris". Igual que el iris del ojo se cierra cuando se enfrenta a una luz brillante, en un mundo más cálido se produciría más vapor de agua que a su vez formaría más nubes, que son las que se encargan de bloquear la luz solar. Contrario al argumento de Al Gore, que dice que las nubes lo único que harían sería atrapar el calor.
Otra tesis (defendida por las petroleras) afirma que el calentamiento que tenemos es natural, como ejemplo citan que en los años 40 hasta los 70 las temperaturas bajaron en el mundo, pero el C02 siguió subiendo. Esto muestra que el aumento del C02 –que es mínimo y beneficioso- no tiene mucho que ver con lo que está pasando.
Con fundamento en los datos recogidos por las misiones de la NASA a Marte en 2005, en las que se descubrió que el dióxido de carbono en forma de “capas de hielo” cerca del polo sur de Marte se había reducido después de tres veranos consecutivos, una controvertida teoría considera que este calentamiento, producido de forma simultánea en la Tierra y en Marte, sugiere que los recientes cambios climáticos en nuestro planeta podrían no estar producidos por la acción del hombre.
Otro grupo de científicos afirman que son apresuradas las afirmaciones de Al Gore y las del IPCC. Claude Allegre, geofísico francés, ex ministro de educación, profesor de las universidades de Yale, Carbridge, Cornell y de la Sorbona, expresa
"The increase in the CO2 content of the atmosphere is an observed fact and mankind is most certainly responsible. In the long term, this increase will without doubt become harmful, but its exact role in the climate is less clear. Various parameters appear more important than CO2. Consider the water cycle and formation of various types of clouds, and the complex effects of industrial or agricultural dust. Or fluctuations of the intensity of the solar radiation on annual and century scale, which seem better, correlated with heating effects than the variations of CO2 content".
En una entrevista para el diario La Nación de Argentina, sostenía
“Es propaganda para Al Gore, que quiere ser presidente de los Estados Unidos, pero dice cosas que son completamente locas. Por ejemplo, que el nivel del mar va a ascender seis metros... En este momento, el mar asciende dos milímetros y medio por año. Quiere decir que aumenta 25 centímetros por siglo, no seis metros”.
El profesor David Deming de la Universidad de Oklahoma (autor de más de treinta artículos de investigación y un texto de hidrogeología), sostiene que es evidente el calentamiento global pero que su causa sigue siendo incierta: “In my opinion, it would be foolish to establish national energy policy on the basis of misinformation and irrational hysteria". (Testimonio al Comité ambiental del Senado Americano en diciembre de 2006). Es tildado de defender los intereses de las petroleras. En el siguiente vídeo, podremos observar y analizar una parte del documental de Al Gore, referido al deshielo de los polos.
The Ice is melting... The Sea is rising... Hurricanes are blowing... And It's All Your Fault... Scared? Don't be… It's Not True. Con estas frases, el canal 4 de la televisión inglesa, inicia el documental titulado El engaño del calentamiento global. Sin toda la parafernalia de Al Gore y con la participación de los llamados científicos escépticos, se presenta una versión que contrasta con la laureada Una verdad inconveniente.
Algunos de los argumentos expuestos son los siguientes:
Finalmente, presentan como argumento adicional, el fenómeno de los rayos cósmicos.
Éste es el bosquejo rápido del debate en 2006. Unos decían que hay intereses políticos y económicos en el IPCC y en los ambientalistas que lo defienden; por su parte, el otro bando se defendía aduciendo que los científicos que soportan la tesis, son de primer orden, con artículos “peer reviewed”.
Lo verdaderamente valioso de este debate es su énfasis en el hecho de que todos somos actores en la problemática, por ello su divulgación en los medios masivos de comunicación. Lo que no podemos ignorar, independiente de las causas, es que algo está sucediendo en nuestro planeta. No necesitamos de una teoría para sentir el frío intenso de un invierno europeo o el calor asfixiante en nuestro Valle de Aburrá.
Sea o no el causante del calentamiento global, las emisiones de CO2 a nuestra atmósfera deben ser controladas, así sea para respirar un aire más puro mientras nos achicharramosEste apartado fue publicado en el blog del Rincón del Riesgo..
En nuestro modelo de Gobernanza, hemos afirmado que un elemento clave es la comunicación, pero no basta con una divulgación como la del siguiente vídeo:
Es necesario, también, acercarnos a la certeza científica, es decir, a la verdad, sea ésta incómoda o no, de lo contrario, es el principio de precaución al que debemos recurrir. En conclusión, la reducción de los niveles de CO2 es un imperativo.
No podemos ignorar que existe el cambio climático, es una verdad que vivimos día a día. La discusión entre científicos oficiales y no oficiales es sobre el origen de este cambio climático. En 2013, el Panel Intergubernamental para el Cambio Climático, presenta las siguientes afirmaciones principales para responsables de políticas públicas:
Cambios observados en el sistema climático
Comprensión del sistema climático y sus cambios recientes
Futuro cambio climático a nivel mundial y regional
Estas afirmaciones presentan "cero duda razonable", por contraste a los primeros informes del IPCC. No obstante, el escepticismo continúa. A continuación, presentamos algunos artículos sobre este esceptisismo.
Adoptar y resistir las identidades climáticas en la prensa australiana: escépticos, científicos y políticos
Adoptar y resistir las identidades climáticas en la prensa australiana: escépticos, científicos y políticos
Conciencia pública del científico. Consenso sobre el clima
Finalmente, se podría concluir que los negacionistas o excépticos del cambio climático se agrupan en tres categorías. La primera de ellas corresponde a los escépticos que creen que el comportamiento del clima no se puede conocer; en la segunda estarían los que creen en el problema, pero no por acciones del ser humano y; la tercera, los que creen que las consecuencias del cambio climático no implican, necesariamente el fin del mundo. Veamos un vídeo al respecto:
Finalmente, en este capítulo, presentamos cuatro escenas interactivas del recurso "¿Por qué se dice que la Tierra se está sobrecalentando?". Este recurso hace parte de la serie @prende.mx, publicada en la Red Educativa Digital Descartes.
El calentamiento global es un fenómeno que afecta nuestro planeta y la vida en él. Se asocia comúnmente al efecto invernadero. Sin embargo, ¿hay realmente relación entre el comportamiento de un invernadero y la razón por la cual la temperatura promedio de la Tierra está aumentando?
Te sugerimos ampliar las escenas, para una mejor interacción con las actividades planteadas.
La atmósfera de la Tierra, antes y después de la Revolución Industrial, es muy distinta. Como sabes, está compuesta de diversos gases, pero la proporción ha variado mucho. Y este cambio ha traído como consecuencia una gran diferencia en cómo la Tierra guarda calor. Aquí podrás conocer cuáles son los gases invernadero y cuáles no.
La radiación infrarroja, responsable de la transmisión de calor, tiene diferentes efectos dependiendo si incide en gases de efecto invernadero (gases invernadero) o en otros gases (gases no invernadero). Aquí podrás ver el efecto tanto en los primeros como en los segundos. Así pues, podrás notar qué es lo que sucede con los gases invernadero y por qué son responsables del calentamiento.
Preguntas de falso y verdadero.
En esta sección encontrarás preguntas sobre el calentamiento global. Tendrás dos minutos para calificar 10 enunciados como ciertos o falsos. La lectura de la retroalimentación detiene el paso del tiempo hasta que aparece el botón “Continuar”.
Puzle sobre la Resiliencia
Existe mucha información en la web acerca de temas que se han constituido en rumores de común inclusión en conversaciones del público en general.
Hablar del H1N1, del 11 de septiembre, de los antigripales o de la muerte de Michael Jackson es algo común que no representa problemas para el debate o la discusión entre expertos o entre legos. No obstante, existen otros debates sobre el riesgo ajenos a la comprensión del público, en tanto que no han sido suficientemente difundidos o cuyos niveles de incertidumbre no permiten afirmar con certeza los posibles impactos en la salud o en el medio ambiente. Es por ello que el surgimiento de nuevos productos tecnológicos viene acompañado con algún nivel de desconfianza sobre sus posibles efectos adversos.
Se ha convertido en un postulado que toda nueva tecnología trae inmerso algún riesgo. La manipulación de la materia a escala nanométrica o las llamadas nanotecnologías no escapan a este postulado. No pretendemos profundizar en aspectos que no han sido lo suficientemente traducidos al lenguaje común de la gente. Nuestro propósito es advertir sobre la necesidad de una mayor comunicación científica de los beneficios y riesgos que se presentan en las tecnologías emergentes y, especialmente, profundizar en el desconocimiento (Siegrist, Stampfli, Kastenholz, & Keller, 2008, p.284) como posible factor que genere temor, desconfianza y, en consecuencia, estigmatización. Hablar de nanoriesgos no implica estigmatizar a priori las nanotecnologías, tampoco es un llamado a no usarlas o distribuirlas. Hablar de riesgos de la Internet, por ejemplo, no es una invitación a dejar de usarla. Hablar de riesgos es un llamado a la prevención y, en caso de incertidumbres, a la precaución. Precisar lo anterior es importante para evitar confusiones en torno a las críticas que haremos en este apartado.
Como dijimos al principio, no pretendemos realizar una descripción exhaustiva de lo que son las nanotecnologías. Según la Royal Society el término nanotecnología abarca tantas disciplinas que propone utilizar el término en plural; es decir, nanotecnologías, entendida ésta como “el diseño, caracterización, producción y uso de estructuras, dispositivos y sistemas controlados a escala nanométrica” (la escala nanométrica es del orden de una millonésima de milímetro). Por otra parte, el estudio de las propiedades de los fenómenos que ocurren a esta escala se denomina nanociencia. A escalas nanométricas los materiales pueden comportarse en forma muy diferente que cuando están en una escala mayor. Por ejemplo, los nanomateriales pueden ser más fuertes o más ligeros, conducir el calor o la electricidad de una forma distinta, pueden cambiar de color, etcétera. (The Royal Society, 2004, p.5). He ahí la motivación de nanocientíficos y nanotecnólogos.
Figura 11. Imagen tomada de https://torresgabo596blog.wordpress.com
Los beneficios que presentan actualmente las nanotecnologías (Hoyt & Mason, 2008; Bouwmeester, et al., 2009; Borm & Berube, 2008; Foladori & Invernizzi, 2008), y los que se esperan en un futuro cercano, opacan cualquier idea de riesgo que tengamos de ellas: protectores solares, cosméticos, textiles (con función de autolimpieza impermeables, antibacteriales, repelentes, etc.), nuevos materiales (cerámicas, nanoplásticos), pinturas (de tipo anti-graffiti, menor peso, mayor duración, antiabrasivas, ecológicas, cambio de color con la temperatura, etc.), electrónica (chips, baterías, sensores), nuevos medicamentos, nanomedicina (tratamiento no invasivo de cáncer), militares (detección de armas químicas o biológicas) y energía (celdas de combustible de hidrógeno)Véase Bouwmeester et al (2009, p.52) que, además de los beneficios, llaman la atención sobre el poco interés en sus efectos: “Although potential beneficial effects of nanotechnologies (NT) are generally well described, the potential (eco)toxicological effects and impacts of NPs have so far received little attention”..
La posibilidad de curar el cáncer o de sustituir los combustibles de origen fósil basta para minimizar cualquier asomo de riesgoKahan et al (2009) realizaron un estudio sobre tres supuestos básicos: a) Los beneficios de las nanotecnologías son probablemente grandes, b) los riesgos de las nanotecnologías son probablemente altos y, b) en general, los beneficios de las nanotecnologías pesan más que sus riesgos. De 1600 personas evaluadas, el 85% manifestó saber poco o nada acerca de las nanotecnologías, situación que obligó a inducirlos con información ficticia referida a riesgos. Los resultados obtenidos muestran una fuerte relación de las respuestas con las situaciones asociadas al riesgo.. No obstante, esto no implica que no exista desconfianza:
… that most Americans and Europeans are unfamiliar with nanotechnology, that most people anticipate benefits to outweigh any risks, that the most negative aspects of nanotechnologies are perceived to be ‘loss of privacy’ and self-replicating organisms, that there is high demand for regulation and public information, and that on both sides of the Atlantic there is suspicion of the motives of industry and little trust in government (Kearnes, et al., 2006, p.42).
Por otra parte, el parlamento europeo (Comisión de Industria, Investigación y Energía, 2006) destaca algunos aspectos como:
No obstante, advierte que los conocimientos sobre los posibles efectos nocivos para la salud y el medio ambiente causados por las nuevas nanopartículas sintéticas todavía son limitados.
Y, por consiguiente, y de conformidad con el principio de precaución, los efectos de las nanopartículas poco solubles y difícilmente biodegradables deben examinarse previamente a su producción y comercialización (Comisión de Industria, Investigación y Energía, 2006, p.20).
Esta baja inversión genera a su vez un déficit cognitivo que no permite formular estrategias de prevención o una efectiva gobernanza del riesgo. Renn & Roco (2006) proponen una taxonomía de las nanotecnologías dividida en cuatro generaciones de productos: nanoestructuras pasivas, nanoestructuras activas, nanosistemas (prevista para el período 2010 – 2015) y nanosistemas moleculares (para el período 2015 – 2020). La primera la identifican en un marco de gobernanza diferente a las otras tres; no obstante, resaltan el bajo conocimiento para una efectiva gobernanza:
The main deficit of risk governance for the risk generation of passive nanostructures (nanoparticles, coatings, nanostructured materials) is the relatively low level of knowledge of the new properties and functions on toxicity and bioaccumulation, limited understanding of the nanomaterials exposure rates, and the gaps in the regulatory systems at the national and global levels (Renn & Roco, 2006, p.156).
Por otra parte, un segundo marco de gobernanza del riesgo que cobija las últimas tres generaciones se caracteriza por la incertidumbre:
The main risk governance deficits for the second to fourth generations of nanoproducts (including active nanodevices, nano-bio applications and nanosystems) is the uncertain and/or unknown implications of the evolution of nanotechnology and its potential human effects (e.g. health, changes at birth, brain understanding and cognitive issues and human evolution) and the lack of a framework through which organizations and policies can address such uncertainties (Renn & Roco, 2006, p.157).
Renn & Roco confirman el escaso conocimiento científico que permita predecir los efectos de las nanopartículas y nanomateriales en la salud humana y en el medio ambiente. Los estudios de nanotoxicidad y nanobiocompatibilidad no van a la misma velocidad del desarrollo de las nanotecnologías.
De cara a una gobernanza efectiva del riesgo, al igual que Bijker et al. (2007), no estamos de acuerdo con la clasificación propuesta por Renn & RocoBijker et al (2007) ven una clasificación estética en la propuesta de Renn & Roco (2006) pero poco funcional: “In our view, the identification of frames adds Little to this elegant classification system and in fact unnecessarily complicates” (Bijker, y otros, 2007, p.1218).. Consideramos que en su lugar se debe hablar de grados o niveles de riesgos sin depender de una escala temporalBijker et al (2007) proponen riesgos clasificados como simples, complejos, inciertos y ambiguos.. Por ejemplo, los riesgos asociados a la toxicidad presentan algún nivel de incertidumbre. En este caso una gobernanza efectiva del riesgo debe procurar “… transfer the risk problem presented by the toxicity of persistent nanomaterials from the ‘uncertain’ category to the ‘simple’ category” (Bijker, et al., 2007, p.1218).
Si bien se genera desconfianza con el surgimiento de nuevos productos tecnológicos, ésta no es tan evidente en el caso de las nanotecnologías, en tanto que el uso de los productos nanotecnológicos se ha extendido sin ningún tipo de prevención. Al no existir una comunicación efectiva de los posibles impactos, la prevención es nulaEl uso masivo de productos tecnológicos como el Iphone o los teléfonos móviles evidencian cierta confianza en los productos que, consideramos, obedece a la falta de información o de investigaciones acerca de sus impactos en la salud. En octubre de 2009, por ejemplo, un grupo de investigación del Instituto de Medicina Ambiental en Estocolmo concluye: “Las personas que han usado teléfonos celulares por lo menos por diez años pueden haber incrementado el riesgo de desarrollar un raro tumor cerebral” https://www.cancer.gov/. Habría que esperar la reacción del público frente a la publicación de estos resultados.. El silencio sobre los nanoriesgos genera la confianza que la industria necesita:
El uso comercial de la nanotecnología y de los nanomateriales en la industria de alimentos está envuelto en un manto de silencio. La renuencia de los fabricantes de alimentos a hablar sobre su empleo de nanotecnología y nanomateriales es agravada por la ausencia de leyes de etiquetado que exijan que los fabricantes identifiquen a los nanoalimentos (Foladori & Invernizzi, 2008, p.34).
¿Es el desconocimiento un factor de la estigmatización?, podríamos concluir que la respuesta es relativa. Un contundente “sí” en el caso de una información sesgada o distorsionada (rumores), que genera una desconfianza infundada y como efecto la estigmatización. Por contraste, ante la ausencia de información o conocimiento de posibles impactos como en las nanotecnologías (de nuevo las incertidumbres), el estigma brilla por su ausencia; es decir, aquí el desconocimiento no propicia la estigmatización.
Finalmente, con respecto a este apartado, en la búsqueda de una comunicación efectiva del riesgo nos hemos encontrado con intereses que, por un lado, propenden por propagar falsa información y, por otro lado, acallar los posibles impactos de las tecnologías.
En los informes del Foro Económico Mundial, presentados en 2008, 2009 y 2013, sobre los riesgos globales, la nanotecnología aparece como uno de los principales riesgos (véase el reporte de 2009 y el de 2013). Al respecto, el foro enuncia:
La creciente exposición humana a la nanotecnología aumentará la severidad si llegara a producirse un evento, pero esto tiene que sopesarse con las múltiples oportunidades creadas por la nanotecnología […] Estudios revelan un deterioro en la salud debido a la exposición a nanopartículas de uso extendido (pintura, cosméticos, atención de la salud). Impactos primarios en la salud pública e impactos secundarios en la inversión en una variedad de nanotecnologías.
En 2008 el foro califica los nanoriesgos con una probabilidad de ocurrencia cercana al 5% y una severidad cuantificada alrededor de los 50 mil millones de dólares y estimada entre 5.000 y 6.000 muertes.
En 2009, los nanoriesgos presentan un leve incremento en la probabilidad de ocurrencia (ver en la gráfica el riesgo 35), en tanto que su desarrollo viene creciendo: “As the study and use of nanotechnology and materials progresses, uncertainty remains about the potential risks involved”. Lo preocupante de la incertidumbre presente es que las inversiones en nanotecnologías son del orden de los miles de millones de dólares, mientras que la investigación sobre los riesgos inherentes a las mismas tiene un presupuesto ínfimo.
En el reporte de 2013, el foro afirma que la naturaleza de los riesgos globales cambia constantemente,
Hace treinta años, los clorofluorocarbonos (CFC) se consideraban un riesgo planetario, mientras que la amenaza de un ciberataque masivo era tratada por muchos como ciencia ficción. En el mismo período, la proliferación de armas nucleares ocupó la mente de científicos y políticos, mientras que la proliferación de desechos orbitales no lo hizo. Vemos una historia similar con el asbtesto y los nanotubos de carbono en la actualidad, y la lista continúa.
Pese a la incertidumbre, en 2018, en el informe de riesgos globales del foro, las nanotecnologías dejan de ser una preocupación.
A pesar de las incertidumbres enunciadas y el poco interés por invertir en estudios sobre los riesgos de las nanotecnologías, se han identificado algunos posibles efectos que enunciaremos a continuación.
Nanotóxicos. Una de las ventajas que más llama la atención de los nanomateriales es que algunos se diseñan para cambiar sus características bajo ciertas circunstancias. Los materiales pueden cambiar respondiendo a un estímulo externo como la temperatura o a cambios en el pH. Este cambio puede ser irreversible o temporal, complicando aún más la evaluación del riesgo. La inmersión en el nuevo nanomundo cambia los paradigmas del riesgo. Shrader-Frechette, en alusión a los nanotóxicos, advierte sobre este cambio paradigmático:
La gente dice que el veneno está en la dosis. Hoy, sin embargo, el veneno también está en la dimensión.
En el nivel nanométrico las propiedades de los materiales son muy diferentes. Una primera razón es que a una escala por debajo de la atómica, los efectos cuánticos pueden comenzar a dominar. Un segunda razón es que los nanomateriales tienen un área superficial relativa más grande.
El contacto superficial (cosméticos) o la ingestión son posibles formas de intoxicación. No obstante, en el futuro, los usos medicinales pueden dar lugar a las partículas que sean inyectadas en el cuerpo. Por otra parte, las nanopartículas son capaces de colarse en el cerebro, los pulmones y otros órganos, desconociéndose sus consecuencias. The Economist reportó que el 27 de marzo de 2006 un producto de limpieza elaborado con nanotecnología fue lanzado al mercado alemán. Tres días después fue retirado debido a que 80 personas reportaron problemas respiratorios y seis fueron hospitalizadas por fluidos en los pulmones (Véase http://www.economist.com/science/).
Existen estudios científicos que demuestran que algunos de los nano-materiales usados en alimentos y medicinas persentan riesgos para la salud humana. Las nano-partículas de plata, de dióxido de titanio (TiO2), zinc y óxido de zinc, usados como suplementos nutricionales, empaques de alimentos y materiales en contacto con alimentos, han sido encontrados altamente tóxicos para las célulasUn estudio realizado por científicos del centro Jonsson Comprehensive Cancer de la UCLA (EEUU), demuestra que las nanopartículas de TiO2 causan daño genético sistémico en ratones, induciendo roturas en las cepas del ADN y causando daño cromosómico e inflamación e incremento del riesgo de cáncer en los animales. Las nanopartículas se acumulan en diversos órganos porque el cuerpo no cuenta con un medio efectivo para eliminarlas ni menos que impida su paso debido a su minúsculo tamaño. Por esta razón pueden ir hasta cualquier parte del cuerpo, incluso atravesar células y membranas fácilmente, interfiriendo con los mecanismos del mismo núcleo donde se encuentra el ADN. https://detenganlavacuna.wordpress.com/category/nanotecnologia/)..
Riesgos ambientales. Los estudios sobre posibles impactos en el ambiente aún son incipientes. No obstante, existen dudas razonables que invitan a la precaución. Algunas inquietudes se presentan en los llamados nanotubos de carbono.
Un estudio en el Instituto Tecnológico de Massachusetts (MIT) encontró que en el proceso de fabricación de nanotubos de carbón, en los laboratorios del MIT, se produjeron varios compuestos y sustancias de impacto ambiental que pueden causar dolencias respiratorias. Por otra parte, en la revista número 19 de Nanotechnology de 2008: “Different manufacturing processes produce a diversity of chemical signatures, making it harder to trace nanotubes’ impacts in the environment”. Sin embargo, la incertidumbre sigue reinando con respecto a los posibles impactos ambientales: “Las nanopartículas pueden actuar de forma muy diferente a trozos grandes del mismo material. Existe la evidencia de que algunas de estas partículas son más tóxicas que el mismo elemento químico en un tamaño mayor y en muchos casos no sabemos qué pasa. No sabemos cuál es su impacto en los humanos y en el medio ambiente” (comentario de Ann Dowling investigadora de la Universidad de Cambridge, http://www.madrimasd.org/informacionidi/noticias/noticia.asp?id=17614).
La ignorancia. ¿Sabe usted qué nanoproductos hay en el mercado? Una de las medidas precautorias que se han tomado en Europa es el etiquetado de productos, que advierta la presencia de nanopartículas, ¿Sabía usted que hay más de 700 nanoproductos sin etiquetas en el mercado?
Los nanomateriales tienen una capacidad de acceso muchísimo mayor a nuestros organismos que las partículas más grandes.
Los materiales que miden menos de 300nm pueden ser absorbidos por células individuales, mientras que los nanomateriales que miden menos de 70nm pueden ser absorbidos incluso por el núcleo de nuestras células, donde pueden causar un daño mayor (Foladori & Invernizzi, 2008, p. 29).
Presentamos algunos nanoproductos (etiquetados o no) presentes en el mercado, advirtiendo que no estamos afirmando la presencia de riesgos de alto impacto en dichos productos:
Esta es sólo una pequeña muestra de los más de 500 nanoproductos que estamos consumiendo.
A través de dos vídeos, presentamos qué piensan los científicos de las nanotecnologías, lo cual se hace con la explicación de lo qué es la nanociencia y la nanotecnología a partir de la líneas de investigación realizadas en los diferentes institutos de la UNAM. Por otra parte, el vídeo "la historia de los cosméticos, muestran una postura de alerta sobre el uso y consumo de nanoproductos.
Desde que Annie Leonard creo el primer documental de "La Historia de las cosas" han surgido mas para destapar todo lo que nos perjudica como seres humanos.
Uno de ellos es el documental "La historia de los cosmeticos", que se ha creado como campaña para regular este mercado de una forma mas estricta pues no se estan tomando las medidas adecuadas.
Nanotecnología animada.
Puzle nanotecnológico.
Una de nuestras conclusiones, es la de un riesgo que se percibe en un nivel de máximo grado desde la experiencia. Pero, ¿de qué otra forma podemos percibir el riesgo?, ¿es posible obtener niveles altos de percepción a través de mensajes emitidos por terceros?, ¿estos mensajes sobre el riesgo se constituyen en elementos de comunicación o divulgación? Por otra parte, ¿cómo comunicar el riesgo en medio de las tensiones generadas por el aumento de la desconfianza hacia las instituciones científicas, comerciales y gubernamentales?La confianza juega un papel importante en la efectividad de la comunicación del riesgo porque: “if a person trust the risk manager, communication is relatively easy” (Moen & Rundmo, 2004, p.29); véase también (Haynes, et al., 2008; Luján & Todt, 2007). La efectividad, entonces, no se logra con tener un público bien informado, sino en la calidad de las relaciones sociales (Palenchar & Heath, 2007, p.127)., ¿cuál es el mejor medio de comunicación?, ¿es efectiva la comunicación actual del riesgo? En este capítulo profundizaremos en los modelos de comunicación del riesgo que nos permitan dar respuesta a los interrogantes planteados o, si es necesario, proponer estrategias para hacer más efectiva esta comunicación. No obstante, nuestro problema central se enmarcará en el público objetivo de la comunicación del riesgo y su contexto, en tanto que en situaciones heterogéneas el impacto o efectividad de la comunicación, su interacción y re-representaciones son igualmente heterogéneos . Por otra parte, hemos aceptado la existencia de riesgos globales como los asociados al cambio climático o a la amenaza terrorista, aceptación que nos lleva a plantearnos otros interrogantes.
A pesar de la globalidad, ¿la comunicación del riesgo debe ser global?, acaso ¿lo que para unos es terrorismo, lo es para los otros? ¿La comunicación del riesgo como estrategia necesaria en la gestión del riesgo, permite mitigar o afrontar los resultados no deseados inherentes al riesgo?
Podríamos afirmar que el mensaje en la comunicación del riesgo puede ser comprendido de diferentes formas por los receptores del mismo, según su contexto cultural, económico, social o político. La denominada Ley Patriota cuyo encabezamiento reza “Uniting and strengthening America by providing appropriate tools required to intercept and obstruct terrorism” es un ejemplo de ello . Podríamos también afirmar que el mensaje se globaliza (Krimsky, 2007, p.160) mas no su intencionalidad y, en consecuencia, sus efectos. En ese sentido, el problema es determinar si es posible que exista un modelo de comunicación del riesgo que contemple la complejidad del público objetivo o, en una comunicación interactiva y situacional, la complejidad de los diversos actores en el proceso de comunicación. Nuestra hipótesis inicial es que la comunicación actual del riesgo presenta deficiencias en tanto que no es interactiva ni situacional y, en consecuencia, no es efectiva como estrategia de gestión.
En los estudios sobre la comunicación del riesgo hay diferentes puntos de vista o enfoques: “…actuarial approach utilizing statistical predictions, a toxological and epidemiological approach, an engineering approach including probabilistic risk assessments, and cultural and social theories of risk” (Palenchar & Heath, 2007, p.122).
Podríamos desglosar el análisis separando cada uno de estos enfoques; igualmente podríamos realizar un análisis separado de cada uno de los aspectos más relevantes de la comunicación como los problemas inherentes al comunicador (¿quién comunica?), al análisis del contenido de la comunicación (mensaje) que responde al “¿qué dice?”, a los canales o medios de comunicación (¿cómo comunica?), a los interesados o afectados (stakeholders)Retomamos de nuevo el término stakeholders para este capítulo, adoptando la definición dada por Covello (2007, p.4), “… include the public at large as well as all interested, affected, or influential parties”, en tanto que en la comunicación del riesgo intervienen no solo los grupos de interés sino todo el público afectado o potencialmente afectado., o a la efectividad de la comunicación (¿cómo impacta?).
Sin embargo, nuestro interés está centrado en una comunicación interactiva y situacional del riesgo, en la que una separación de conceptos o de enfoques no es relevante, en tanto que cada enfoque presenta problemas comunes (confianza, credibilidad, incertidumbres) y cada concepto se vincula a los demás, tal como lo evidenciaremos en el resto de este capítulo. No obstante, profundizaremos en algunos de estos aspectos por razones de cambio paradigmático: una primera razón es el avance significativo de los nuevos medios de la información y comunicación (TIC), en especial los recursos de la Internet, que ha cambiado la forma como se comunica el riesgo: “The growing impact that the Internet has on our lives is increasingly difficult to ignore” (Wood & Smith, 2005, p.1). Una segunda razón, que se vincula estrechamente a la primera, es la necesidad creciente de gestionar los viejos y nuevos riesgos con el concurso de todos los involucrados en el proceso.
Los llamados riesgos globales de Beck (2002), por ejemplo, demandan de cambios paradigmáticos en la comunicación del riesgo, demanda que encuentra en los nuevos medios de comunicación el cambio buscado, en tanto globales.
Por otra parte, la toma de decisiones bajo los viejos modelos de gestión del riesgo ya no es una práctica eficiente en muchos de los riesgos emergentes (nanoriesgos, riesgos asociados al cambio climático, a la ingeniería genética, o al llamado terrorismo internacional, etcétera). Así las cosas, con los nuevos riesgos debe surgir un nuevo paradigma comunicativo que tenga en cuenta nuevos elementos constitutivos de la sociedad global, tales como una nueva responsabilidad global o, si se prefiere, democrática; una seguridad global, en tanto que los riesgos globales materializados obedecen a controles globales debilitados (crisis económica, por ejemplo); el surgimiento de nuevas generaciones que crean y comparten nuevos códigos culturales y sociales. Este nuevo paradigma comunicativo estará vinculado estrechamente a las costumbres de estas nuevas generaciones y, por tanto, a los nuevos canales donde estos emergentes stakeholders tienen su entorno natural que, a pesar de su virtualidad, serán la clave de la efectividad de la comunicación del riesgo.
Un análisis a la comunicación del riesgo, como campo emergente, nos podrá dar luces sobre las características del nuevo paradigma comunicativo.
Con el surgimiento de los nuevos desarrollos tecnológicos y, con ellos, los nuevos riesgos, emergen igualmente los estudios sobre la comunicación del riesgo. Estos estudios son relativamente nuevos, en tanto que el término “risk communication” empieza a utilizarse desde la década de los 80 (Palenchar, 2008, p.2; Leiss, 1991, p.294)De Marchi (2009) plantea que la “comunicación del riesgo” tiene origen a finales de los años 60. No obstante, en la década de los 80 se presenta lo que Leiss (1996) ha denominado fase uno de la comunicación del riesgo. Las decisiones sobre el riesgo eran tomadas por los gestores de riesgo o por los reguladores. El conocimiento técnico o científico era el factor determinante para la toma de decisiones y posterior comunicación o, stricto sensu, información al público sobre las estimaciones objetivas del riesgo. En esta fase, la desconfianza entre el público y los expertos estaba en su punto crítico: “This then led to a profound social distrust of organisational officials and scientific experts and the institutions that they represented which served to weaken the force of official contributions to public risk discourse” (Wardman, 2009)., e ingresa a los debates en los enfoques culturales y sociales a mediados de los años 90 (Palenchar & Heath, 2007, p.121).
Los cambios históricos de la tecnología se reflejan en los cambios de la comunicación del riesgo que, a nuestro modo de ver, obedecen a múltiples factores. Tres de esos factores son determinantes para el cambio de paradigmas en la comunicación del riesgo.
Un primer factor es la intervención activa del público lego en asuntos de riesgo. La participación del público en la evaluación y aceptación de las nuevas tecnologías es un factor que ha incidido en la continuidad de las investigaciones, desarrollos y distribución de dichas tecnologías: “Investors are sometimes dismayed to discover that they have invested in firms whose products and conduct are deemed socially unacceptable by enough of the public for their investments to lose value” (Fischhoff, et al., 2001, p.100). Este factor presupone un cambio paradigmático del viejo modelo vertical de la comunicación (top-down), en el que la confianza en las instituciones y en los buenos resultados (beneficios) minimizaba cualquier asomo de riesgo, a un nuevo modelo con participación activa de los stakeholders.
El paradigma de fines del siglo XX se constituye, para algunos autores, en la última etapa (Fischhoff, 1995)Fischhoff describe ocho etapas en la historia de la comunicación del riesgo, en la séptima los stakeholders son también responsables en el proceso de comunicación:
…brief history of risk communication, organized around the developmental stages… All we have to do is get the numbers right. All we have to do is tell them the numbers. All we have to do is explain what we mean by the numbers. All we have to do is show them that they’ve accepted similar risks. All we have to do is show them that it’s a good deal for them. All we have to do is treat them nice. All we have to do is make them partners. All of the above (Fischhoff, 1995, p.138).
Menos extensivos que Fischhoff, autores como Leiss (1996) y Krimsky (2007) conciben tres fases o etapas en la historia de la comunicación del riesgo, la última de ellas termina con la participación activa de los stakeholders: “… the present approach of communication that is based on shared, social relations” (Palenchar & Heath, 2007, p.122). o fase (Leiss, 1996; Krimsky, 2007) en la aún corta historia de la comunicación del riesgo.
No obstante, creemos que ha surgido un nuevo paradigma en el contexto de las, también emergentes, tecnologías de la información y la comunicación (TIC). Este nuevo paradigma es un modelo de comunicación interactiva en la sociedad red.
Un segundo factor es la responsabilidad que implica la toma de decisiones. La posibilidad de ocurrencia de grandes impactos en la sociedad, en la salud o en el ambiente (Bophal, Chernóbil, cambio climático, nanoriesgos, entre otros) ha demostrado que la responsabilidad no puede ser relegada a unos pocos. En ese sentido, en el nuevo paradigma se busca que esta responsabilidad recaiga en todos los involucrados. Así las cosas, la toma de decisiones se hace más compleja. Los fenómenos emergentes de la sociedad del siglo XXI han configurado una nueva sociedad que exige soluciones comunes. Esa otrora sociedad del riesgo (Beck, 1986) ha dado tránsito a una nueva sociedad de generaciones globales (Beck, 2008), que han comprendido su responsabilidad global:
Deberíamos distinguir también entre el cambio climático y la generación del calentamiento global . Este segmento generacional global no es pasivo, sino activo y político.
No es necesario afirmar que, para evitar que Londres, Nueva York o Tokio desaparezcan por el aumento del nivel del mar, debe inventarse la política global. No existe una manera británica de salvar Londres, o una manera estadounidense de salvar Nueva York o una manera japonesa de salvar Tokio. Solo un nuevo realismo cosmopolita, una conciencia de la necesidad de cooperación entre los estados podría convertirse en el recurso que permita hacer frente a los retos producidos por el cambio climático (Ibid, pp.20-21).
Se trata, entonces, de responsabilidad compartida que obliga a una gestión global y, a su vez, nuevos modelos de comunicación efectiva y situacional del riesgo.
En estos nuevos modelos, el riesgo implica siempre el tema de la responsabilidad, y
… la necesidad de “globalización responsable” se convierte en tema público y político de alcance mundial […] El riesgo y la responsabilidad están intrínsecamente relacionados, como el riesgo y la confianza, o el riesgo y la seguridad… El concepto de “sociedad del riesgo global”, sin embargo, llama la atención sobre la controlabilidad limitada de los peligros que nos hemos creado… ¿cómo tomar decisiones en condiciones de incertidumbre fabricada? (Beck, 2002, p.9)
Un tercer factor lo encontramos en las nuevas posibilidades que brindan las TIC, los recursos que ésta brinda posibilitan una mayor interacción en la comunicación. Nuestra hipótesis es la de una nueva fase en la comunicación del riesgo, no concebida por Fischhoff ni por LeissEl reconocimiento de una nueva fase o etapa en la comunicación del riesgo no es ajeno en la literatura; Krimsky, por ejemplo, advertía acerca de la Internet como cuarta etapa en la comunicación del riesgo:
Some anticipated that the Internet might have led to a fourth stage of risk communication, beyond post-modernism, where ordinary citizens can acquire, process, and evaluate scientifically grounded information leading them to a less-divisive and more rational consensus position on the risk (Krimsky, 2007, p.163).. No obstante, nuestra propuesta va más allá de la Internet como fuente de información, en tanto que la Internet tiene una capacidad de interacción que permite un flujo de información multidireccional.
Pero comunicar el riesgo situacionalmente no es tarea sencilla, en tanto que el comunicador debe, a veces, convertirse en una especie de traductor del lenguaje científico y tecnológico.
Por otra parte, no es un secreto que el mayor comunicador se encuentra en los medios masivos de comunicación, lo que nos lleva de nuevo a algunos interrogantes de este capítulo: ¿es efectiva la comunicación del riesgo a través de los medios?, ¿considera la comunicación del riesgo el contexto de los stakeholders? Tres respuestas iniciales nos servirán para continuar la discusión en este capítulo. Una de tipo general: “No es efectiva la comunicación del riesgo a través de los medios tradicionales” y dos de tipo específico: “Algunos medios no convencionales podrían ser efectivos en la comunicación del riesgo” y “la red es el medio más efectivo de comunicación”. Esta últimas respuestas no pretenden constituirse en la panacea para resolver el interrogante; son sólo un primer acercamiento a las posibles opciones que tenemos para hacer más efectiva y situacional la comunicación del riesgo y, para ello, haremos un recorrido a la efectividad de los medios convencionales de comunicación.
Si bien el paradigma del déficit cognitivo es criticado por su linealidad y porque se puede manipular la informaciónEn otras palabras, los comunicadores comunican lo que se les es permitido o lo que se considera que el público debe saber (Wiser & Balicer, 2007, p.103), es posible encontrar otras estrategias que permitan el éxito en la comunicación. Por ejemplo, existe más confianza entre los pares (en conocimiento) o personas reconocidas por la comunidad, lo cual nos podría llevar a concluir que una estrategia de comunicación es llegar a un grupo más reducido y que éstos repliquen a un mayor número de personas. No se trata de un panel consultivo o deliberativo, se trata de buscar replicadores de los aspectos constitutivos del riesgo. No obstante, en medios masivos esta comunicación se puede convertir también en riesgo, en tanto que la amplificación, la distorsión y la desinformación emergen en la comunicación masiva.
Millones de personas asistieron al estreno de películas como “Batman the Dark Knight” en 2008 o a “Superman Returns” en 2006. ¿Por qué, entonces, no aprovechar este medio masivo de comunicación para comunicar riesgos como el asociado al cambio climático?El uso del cine como medio de comunicación ha servido más para “difundir” una imagen distorsionada del científico. En películas tipo ciencia ficción, el científico es representado como un ser malvado (mad scientist) o con grados de locura que lo ha llevado a que sus creaciones afecten negativamente a la humanidad (síndrome de Frankestein). Así como fue posible distorsionar la imagen del científico, la ciencia ficción puede ser útil para divulgar los aspectos positivos de la ciencia en general y los riesgos en particular: “… that a contextual model that stresses the links between different outlets, rather tan sharply delineating ‘science’, ‘news’, and ‘science fiction’, will be useful’ (Lewenstein, 1995, pp.355-356). Sin embargo, no todo lo que vemos se limita a las imágenes de una pantalla de cine, televisión o de un ordenador; no todo riesgo requiere de los medios para su comunicación.
Los riesgos comunes de la vida diaria se comunican a través de la interacción con otros agentes perceptores del riesgo o a partir de la experiencia. Aquí la pantalla es tridimensional, las imágenes son reales, a pesar de las representaciones que hagamos de ellas. Riesgos como la posibilidad de quemarse con el fuego no demandan de ingentes esfuerzos de comunicación para que la gente lo comprenda, pero los riesgos de incendio sí requieren de estos ingentes esfuerzos. En el primero, la experiencia o la interacción han hecho del riesgo una percepción en grado sumo; mientras que en el segundo, el desconocimiento sobre los materiales inflamables, o los métodos de control y de apagado y, en gran medida, la falta de experiencia, obligan a una efectiva comunicación del riesgo. Por ejemplo, ¿qué puede hacer una persona con un mensaje como: “en caso de incendio, no apagar con agua”? Mensaje corriente en algunos productos como pegamentos, pinturas, inmunizantes y otros productos industriales. Algunos de ellos agregan: “usar extintores de dióxido de carbono o polvo químico”. Para la mayoría del público lego la primera advertencia con o sin la recomendación tiene el mismo efecto: no se sabe cómo apagar este fuego. Este ejemplo sencillo del mundo de los riesgos, evidencia la poca efectividad de los mensajes asociados a un riesgo específico. No obstante, se podría pensar que el usuario de estos productos debe ser conocedor del lenguaje utilizado, lo que lleva a otro interrogante: ¿en la comunicación del riesgo se tiene en cuenta el contexto social, cultural y económico del receptor del mensaje?, o ¿la generalización incrementa la brecha cognitiva entre el emisor y el receptor?
A pesar de la gran influencia que puedan tener las pantallas, se requiere de una continua comunicación, en tanto que nuestra memoria es efímera o sólo dejamos en ella aquello que nos impacta o deja huella.
Esta continua comunicación la practican los medios en momentos de adversidad, aprovechando el interés general para producir y distribuir información. El tsunami del sur de Asia en 2004 produjo cientos de artículos periodísticos, miles de imágenes y un gran número de páginas de internet dedicadas al desastre.
En 2012, se produce la película "Lo imposible", dirigida por J. A. Bayona, basada en una historia real y de la trágica experiencia de la doctora María Belón en el tsunami índico de 2004:
En la cultura popular, las películas de desastres florecen en Hollywood, estos son algunos ejemplos: San Francisco (1936), Airport (1970), Earthquake (1974), Towering Inferno (1974), Meteor (1979), Outbreak (1995), Twister (1996), Titanic (1997), Volcano (1997), Armageddon (1998), Flight 93 (2006), and World Trade Center (2006) (Gad-el-Hak, 2008, p.33).
No se puede negar el impacto que estas películas dejan en el público lego, la mayoría fundamentada en el conocimiento científico. Sin embargo, los efectos en la conciencia son pasajeros. Esta última afirmación la sustentamos en la encuesta sobre riesgo sísmico que se discutió en el capítulo anterior, en la cual se evidencia un desconocimiento en la toma de decisiones en caso de un terremoto, a pesar de las imágenes impactantes de películas como Earthquake:
From the perspective of many scientists, the conclusion is that the public is too poorly informed to make reasonable judgments, and that public opposition is interfering with the conduct of research […] Scientists often respond to this problem with calls for public education or better communication (Thompson, 2007, p.282).
Las pantallas no sólo se reducen a las tradicionales pantallas de televisión o del cine, se incluyen también las pantallas de los ordenadores, a través de las cuales la Internet ha obtenido una considerable ventaja sobre las anteriores. El número creciente de usuarios de Internet hace de este medio una oportunidad sin antecedentes para la divulgación del riesgo. Recurrir a la Web para consultar información sobre un determinado tema es la costumbre general. Si a lo anterior le combinamos las facilidades que brinda la llamada web 2.0 para crear y administrar páginas personales, nos encontramos, entonces, con el medio ideal del siglo XXI para globalizar el conocimiento que se tenga de un riesgo específico . Pero la Internet se ha constituido en un riesgo más para la comunicación, en tanto que es posible encontrar publicaciones de cualquier tipo, desde las de carácter científico hasta las de tinte pseudo-científico o de simple especulación. Lo anterior ha permitido acrecentar las tensiones entre la ciencia y el público manifestadas a través de dos problemas: las percepciones diferentes del público y de los científicos, y la responsabilidad moral en la comunicación o divulgación.
Este último problema es evidente desde las interpretaciones de la ciencia que el público hace de las imágenes, creando mitos, riesgos distorsionados, amplificados o atenuados e, incluso, la estigmatización de un nuevo desarrollo científico o tecnológico, de una empresa o un gobierno.
La anterior usanza de lecturas en papel tiende a desaparecer, puesto que existe una tendencia a leer por medios electrónicos. Como lo hemos dicho, la comunicación se da por vía formal o por vía informal. En la primera, los sistemas educativos son los encargados de la “alfabetización científica”, alfabetización que usa, en forma creciente, las bases de datos electrónicas, las cuales empiezan a imponerse sobre los volúmenes físicos. Sin embargo, la lectura está supeditada a los currículos de los diferentes sistemas educativos. En Colombia, por ejemplo, el riesgo brilla por su ausencia. El público, vinculado o no a un sistema educativo, lee temas de riesgo por la vía informal. Esto nos lleva, de nuevo, a la web 2.0 que no depende de currículos o censuras. En la web 2.0 todo se publica y todo se lee. Pero, ¿cómo es posible que se lea tanta información publicada?
Un ejercicio interesante, que dé respuesta a este último interrogante, es indagar quiénes leen los blogs y cómo llegan a ellos. Presentamos un caso que evidencia la lectura de cualquier tema publicado. Los millones de usuarios de la red normalmente ingresan a través de buscadores electrónicos, con el interés de consultar un tema específico: música, videos, juegos, pornografía y, ocasionalmente, un tema de carácter técnico científico. En este último caso, su interés es “leer” sobre el tema consultado y analizar los conceptos, ideas o argumentos que se presentan en diferentes formatos electrónicos.
Como parte de este trabajo de investigación, desde 2005 publicamos un blog (bitácora) en el siguiente enlace www.rincondelriesgo.blogspot.com. Nuestro propósito iba mas allá de comunicar o divulgar riesgos; queríamos rastrear el comportamiento de los usuarios del blog: ¿cómo llegaban a él?, ¿qué temas se consultaban más?, ¿qué observaciones realizaban?, ¿de dónde se consultaba?, etc. En este blog hemos subido (publicado) una serie de artículos sobre diversos temas en torno al riesgo: cambio climático, gobernanza, principio de precaución, percepción, riesgos en Internet, accidentes automovilísticos, entre otros. Por otra parte, se procuró darle una presentación llamativa que invitara a su lectura (uso de avatares, imágenes, color y textos en flash).
Figura 12. Visitas reportadas por Statcounter
En los dos primeros años, las visitas al blog no llegaban a mil, luego comprendimos que había que usar sindicaciones en el blogLas sindicaciones tipo RSS permiten que las páginas web sean catalogadas por los diferentes buscadores de la red, es decir, posibilitan el ingreso a los canales de distribución de información..
Una vez incorporados los canales de distribución, las lecturas del blog se incrementaron a 8500 en 2008 con un promedio de 36 visitas diarias en la última semana de octubre (ver figura 12).
Las posibilidades de indagar los motivos que llevan a los usuarios de la red a consultar este blog, nos permitió llegar a algunas conclusiones interesantes, dos de ellas son las siguientes:
El riesgo novedad. En las épocas donde hay mayor difusión de un riesgo se evidencia una búsqueda más activa sobre ese riesgo. Un ejemplo es el caso de la fenilpropanolamina (ver figura 13).
Figura 13. Ruta de acceso al blog “Rincón del riesgo”En la imagen se aprecia cómo es posible llegar a los artículos, según los términos usados en la búsqueda: Un usuario digitó en Google “fenilpropanolamina dimetapp gotas riesgo”. En otro caso, el usuario usó el buscador Yahoo con estos términos “gobernanza participación democrática”..
El riesgo tradicional. Este riesgo es aquel que se ha constituido en parte de nuestra rutina diaria, riesgos con los cuales convivimos. Los accidentes automovilísticos es el término que tiene mayor frecuencia en las estadísticas del blog.
El contador de visitas como adminículo adicional permitió realizar este tipo de seguimiento. Por ejemplo, en los dos últimos días del mes de octubre de 2008 se registraron visitas con términos de búsqueda referidos al uso de la fenilpropanolamina, los huracanes, los riesgos de la Internet y los accidentes automovilísticos. El último tema ha sido reiterativo en las consultas realizadas en el blog. Esta es sólo una muestra de lo que le interesa al público consultar y leer. Es cierto que, en las visitas a los blog, algunos usuarios sólo pasan por éste sin que sean cautivados por la información, pero igualmente hay otros que se detienen el tiempo necesario para leer un artículo. La pregunta a responder es: ¿por qué se leen estos artículos si no provienen de una autoridad reconocida en el tema? Quizá el fácil acceso lleve al lector a profundizar en lo escrito en el blog . Lo alarmante es creer que lo que se publica en la red sea cierto, tal como lo afirma un joven en un foro: “Si aparece en internet es cierto” (ver apartado 9.9). En este caso se corre el riesgo de difundir, como cierta, una información por fuera de contexto y sin los argumentos que la sustenten.
Retomando una de las preguntas de la introducción a este capítulo: ¿Los mensajes sobre el riesgo se constituyen en elementos de comunicación o divulgación? Los grandes movimientos sociales, en especial los de carácter ambiental, demandan una mayor participación en la discusión y toma de decisiones en asuntos que puedan generar riesgos que afecten los sistemas ecológicos, sociales, económicos y culturales.
Esta participación es el argumento de autores como Wynne (1991), Kearnes et al (2006) para propender por una comunicación del riesgo que nos aleje del modelo no interactivo de la divulgación. En palabras de Wynne:
while maintaining a critical perspective on the meaning and representation of science as part and parcel of the proper public understanding of science research agenda, it is also worth emphasizing the dangers of overgeneralization about "the public" and its levels of understanding/ignorance. Once we move outside a simple "cognitive deficit” model of the public understanding of science, we become increasingly aware of the range and variety of possible interactions between people's existing understandings of particular situations and those that emanate from science (Wynne, 1991, p.113).
Postura con la que estamos de acuerdo, en tanto exista un mínimo conocimiento sobre el tema en el que interactuamos. ¿Podemos interactuar en torno a los efectos de los nanoproductos? Al no existir un mínimo conocimiento al respecto, la comunicación es pobre e improductiva y, en la mayoría de los casos, subjetiva.
Antes de los años 90, las actitudes públicas respecto a la nuevas tecnologías fueron caracterizadas como opiniones subjetivas, emocionales y erróneas del riesgo, en tanto que “the overriding discourse was that public concern about these technologies stemmed from either an incorrect understanding of the technology or a complete lack of knowledge altogether” (Kearnes, et al., 2006, p.298). A partir de los 90, los investigadores sociales y movimientos ecológicos como Greenpeace han reclamado una mayor participación en temas tan polémicos como los alimentos genéticamente modificados, desarrollando toda una tensión social que ha obligado a los hacedores de políticas a tenerlos en cuenta.
Surge, entonces, el nuevo paradigma de comunicación del riesgo en reemplazo del desacreditado modelo del déficit cognitivo . Sin embargo, el problema de comunicación entre expertos y legos, en asuntos de riesgo, va más allá de la comprensión pública de la terminología científica. No se trata de encontrar un público enterado de los riesgos en los mismos términos técnicos; el desafío es educarlo y comunicar los riesgos en términos racionales (Leach, et al., 2005, p.11).
Para ello es necesario abrir espacios de deliberación y participación que permitan la construcción de un lenguaje común entre los dos actores. En ese sentido, un objetivo de la comunicación del riesgo es la comprensión pública del mismo. No obstante este nuevo paradigma, no se puede garantizar un blindaje contra la ignorancia, puesto que ésta se hace presente tanto porque se desconozca sobre el riesgo o porque lo que se conoce es distorsionado: “There was a clear view that there was an anti-science agenda that was coming through… The biggest frustration was the dishonesty and the distortion [on the part of NGOs and the media] which it’s very difficult to handle. It’s extraordinarily difficult to handle” (Kearnes, et al., 2006, p.298).
La comunicación del riesgo, como un proceso interactivo de intercambio de información y opiniones entre individuos, grupos e instituciones (Lin & Petersen, 2007, p.3), no es efectiva si existe ignorancia sobre el riesgo o desinformación sobre éste. El proceso de intercambio debe garantizar la existencia de actores con un mínimo de conocimiento del tema a discutir. En el contexto de lo que se entiende por comunicación interactiva del riesgo, es decir, comunicación como discusión y deliberación, se hace necesario conocer primero sobre lo que se ha de discutir. En ese sentido, es importante analizar cómo se obtiene este conocimiento, que es nuestra motivación a indagar qué se entiende por divulgación y cuál es su relación con la comunicación.
Para ello, retornamos a los canales de comunicación que son, en últimas, los que evidencian los propósitos que hay detrás de un mensaje y permiten caracterizar el tipo de comunicación, llámese esta comunicación interactiva y situacional, divulgación, alfabetización o simplemente difusión. En principio, para evitar más confusiones de las existentes, hablaremos en general de comunicación.
Son varios los canales de comunicación mediante los cuales se comunica la ciencia y la tecnología al público en general: los medios masivos de comunicación, la educación formal e informal y las revistas de divulgación. Estos canales se convierten en intermediarios entre la comunidad científica y el público (Blanco, 2004, p.70),
que permiten mantener informado al público y, en otros casos, educado en asuntos de riesgos. Nuestra propuesta de una comunicación efectiva del riesgo a través de los recursos de la web debe ser confrontada con los otros canales para determinar si en asuntos de riesgos existen mejores modelos de comunicaciónSi bien abogamos por la web como canal efectivo, en tanto que permite la interacción con una amplia población, no ignoramos que se puede constituir en una fuente de confusión e incertidumbre:
Critiques of information dissemination in response to the events of 11 September 2001 highlight new increasingly important role of the Internet as an information channel and the need for strategically coordinating what is often conflicting information. For example, one analysis recognized the importance of the Internet in providing up-to-the-minute information, but also it’s potential for increasing confusion and uncertainty through rapid, often-uncontrolled proliferation of information and spread of rumor (Wiser & Balicer, 2005, p.107).
En ese sentido, se hace necesario gestionar los riesgos de la Internet, que incluye una comunicación sobre el uso y abuso de este canal: “The Internet industry in cooperation with the government should develop transparent protocols for organizing key information during emergency situations” (Ibid, p.108)..
Hay diferencias sustanciales entre los modelos educativos (educación formal e informal) y los modelos no convencionales como la webAlgunas diferencias sustanciales las enuncian Wiser & Balicer:
A key advantage the Internet has over traditional media is that the Internet provides multiple branches of information, all accessible almost simultaneously, which the user can easily maneuver between. During the anthrax threat, the Internet also allowed for innovative communication devices such as interactive tutorials on anthrax self-care (Wiser & Balicer, 2005, p.107).
para hacer llegar la ciencia a los estudiantes es necesario llevar a cabo una reelaboración del “conocimiento científico oficial” (es decir, aquel producido por los científicos y recogido en los medios reconocidos como tales: publicaciones, revistas, informes de investigación, congresos, etc.) para convertirlo en “conocimiento escolar” adecuado para alumnos de diferentes edades y desarrollo intelectual (Blanco, 2004, p.72).
No obstante esta reelaboración enunciada por Blanco, el sistema educativo, por su complejidad, demanda diferentes niveles de profundidad en asuntos de ciencia y tecnología. Los conceptos de Física en los grados de primaria son de menor profundidad que aquellos que se imparten a nivel secundario o universitario. En cuanto a los estudios del riesgo, los currículos son pobres en contenido. En países como Colombia, sólo a nivel universitario se empiezan a diseñar y a desarrollar cátedras de Ciencia, Tecnología y Sociedad (CTS) que incluyen los impactos tecnocientíficos en nuestro entorno. Pero, ¿cuáles son los niveles de profundización en cátedras como CTS? y, por otra parte, ¿cuáles deben ser los riesgos que se incluyan en este tipo de cátedras?: “Es difícil decidir cuáles deben ser los conocimientos, competencias, habilidades que caractericen a las personas científicamente alfabetizadas” (Ibid, p.74).
En otro extremo están los medios masivos de comunicación, que no se rigen por currículos y, como en la web, comunican o divulgan cuanto tema existe en diferentes niveles de profundidad. Sin embargo, no todos leen lo que se publica, por contraste a los contenidos de los sistemas educativos que son de obligatoria lectura por parte de los integrantes del sistema. Ambos modelos están a disposición del público: ¿cuál es el mejor?, ¿cuál es el más efectivo? Aceptamos que los modelos educativos tienen su mayor ventaja en el carácter impositivo de los objetos de conocimiento que se deben estudiar; sin embargo, no es fácil cubrir el amplio universo del conocimiento científico y tecnológico, lo que finalmente obliga, además de la reelaboración, a una reducción sustancial del conocimiento.
Figura 14. Cuadro comparativo sobre artículos publicados acerca de las nano-ciencias y los nano-riesgosLos datos fueron obtenidos de una consulta a la base de datos SCI (Science Citation Index) con las siguientes cadenas de búsqueda:
“All Nano” corresponds to all published papers returned by the Science Citation Index search string “TS=(quantum dot OR nanostruc* OR nanopartic* OR nanotub* OR fulleren* OR nanomaterial* OR nanofib* OR nanotech* OR nanocryst* OR nanocomposit* OR nanohorn* OR nanowir* OR nanobel* OR nanopor* OR dendrimer* OR nanolith* OR nanoimp* OR nanoimp* OR dippen)” with document type = article. “Nano Characterization” and “Nano and Risk” are the subsets of papers returned by the original search string plus the refinements “characteriz*” or “risk.” The final plot represents papers coauthored by scientists from FDA and EPA (Linkov, et al., 2009, pág. 205)..
Por ejemplo, ¿qué contenidos curriculares hablan de nanoriesgos? o sobre “the controversial chemical perfluorooctanoic acid” (Krimsky, 2007, p.157). No podemos afirmar con certeza que algún currículo trate estos temas; sin embargo podemos evidenciar que en la web existe mucha información al respecto.
Krimsky realizó un ejercicio de consulta sobre el ácido perfluorooctano utilizado en la producción en utensilios de cocina y considerado en algunos estudios como posible agente cancerígeno : “Based on two chronic studies, PFOA was judged to be a possible human carcinogen” (Tardiff, y otros, 2009, p.2557). La consulta sobre la sustancia fue realizada a través de tres fuentes: periódicos, la base de datos “Expanded Academic Index” y Google. En esta última fuente, Krimski se encontró con 307,000 entradas, logradas de este modo:
After inserting ‘‘PFOA’’ in Google’s search engine, I found that the first page had seven entries from distinct sources (one entry was inaccessible). In order of appearance the sources were: (1) Environmental Protection Agency (EPA); (2) Society of Plastics; (3) Environmental Working Group; (4) DuPont; (5) Wikipedia; (6) Unknown source: www.pfoa.com and (7) Fox News WTTG-DC (Krimsky, 2007, p.161) .
La información encontrada es contradictoria. Tanto la EPA como la empresa DuPont recomiendan continuar con el uso de los productos que contienen el ácido en discusión: “However, on a sidebar, another risk message states that the EPA administrator on January 25, 2006 has invited PFOA manufacturers to commit to reducing PFOA emissions…” (Ibid, p.161). Por otra parte, desde la Environmental Working Group (EWG) se recomienda: “From the EWG we get an unambiguous risk message that PFOA is dangerous to consumers and should be removed from the market immediately” (Ibid, p.162).
Finalmente, Krimski concluye:
The Internet has created a revolution in the communication of and accessibility to information. It has been no less important in communicating risks as it has in advertising or in making public health information available to a mass audience. In contrast to the Internet, risk issues are treated as ephemeral events in news reports. Stories have a very short half-life and if they are revisited, it is usually in unpredictable time periods because of a new discovery, a protest, or a public health catastrophe. Accessibility to old newspaper articles costs money unless one has access to a database of newspaper archives. The Expanded Academic Index also charges fees and home access is rare(Krimski, 2007, p.163).
Los riesgos, entonces, encuentran en los modelos alternativos la más efectiva fuente de información . Sin embargo, no se trata sólo de difundir información en forma unidireccional.
Tanto en la comunicación como en la divulgación, deben existir estrategias que permitan evidenciar la comprensión del mensaje de riesgo emitido, de tal forma que los objetivos inherentes a la prevención del riesgo se logren. Entre uno y otro concepto (comunicación y divulgación) hay una diferencia relacionada con los actores que emiten el mensaje y los receptores del mismo.
Entendemos la divulgación como una tarea de traducción entre un público especializado y el no especializadoEste público no especializado es una gran mayoría que para efectos de una comunicación interactiva y efectiva, demanda estar informado. Rechazamos la idea de un público incompetente para el debate, tratamiento propio del llamado modelo de déficit cognitivo (Locke, 1999, p.75), en tanto que el problema, a nuestro juicio, no es de incompetencia sino de falta de información. No obstante, compartimos con este modelo la necesidad de una divulgación del conocimiento, previo al debate. Entendida esta divulgación como el flujo de información a los stakeholders como prerrequisito a la llamada comunicación interactiva. En ese sentido, es necesaria la existencia de divulgadores cuya característica esencial es traducir el conocimiento científico o tecnológico al lenguaje común; por ejemplo, en lugar del riesgo inmerso en los productos que contienen “ácido perfluorooctano”, se traduce en “productos como el teflón”. Reconocemos, igualmente, que es una postura que se puede interpretar como la aceptación del modelo de déficit cognitivo, severamente criticada actualmente; por ejemplo, la crítica de Myers (2003, p.265) al modelo se centra en que “the ‘dominant view’ of the popularization of science that takes it as a one-way process of simplification, one in which scientific articles are the originals of knowledge that is then debased by translation for a public that is ignorant of such matters, a blank slate”. No compartimos la idea de un público ignorante, sino de deficitario en información socialmente legible y comprensible. Compartir la idea de un público ignorante en una época de explosión informacional es una contradicción. No obstante esta explosión, es necesario filtrarla y codificarla en un lenguaje común., pero no siempre el público especializado es el científico, dado que las dimensiones sociales, culturales y económicas son del ámbito, por lo general, del público no científico. Es decir, la divulgación del riesgo, en tanto que es un concepto multidimensional, es bidireccional. Es la divulgación, entonces, un proceso que permite formar o adiestrar al público en asuntos de riesgo, y al experto en el contexto del riesgo . Creemos en la existencia de un déficit que está presente en ambos actores o públicos que intervienen en la comunicación o divulgación del riesgo; pero no se trata del déficit cognitivo en el que existe ignorancia absoluta o incompetencia para entablar la discusión, es un déficit de datos o de información que permita el análisis y formulación de los argumentos necesarios en cualquier escenario de discusión.
Obviamente el nivel de discusión no puede esperarse que sea de tipo científico, como tampoco se espera que las fuentes que soporten la discusión no tengan origen en autoridad competente:
Following the dominant view, a set of texts could be identified to stand for popular science (articles in Scientific American, or best-sellers on cosmology, reports in newspapers, or transcripts of television documentaries), and these texts could be compared to another set of research articles in scientific journals (such as Nature or Cell) that could be taken as the originals, perhaps even matched up as the sources of those popular texts (Myers, 2003, p.266).
La discusión se hará en torno a intereses comunes, el riesgo es uno de ellos. Así las cosas, nuestra propuesta es establecer los límites entre tres términos comunes en la discusión hasta aquí realizada: comunicación del riesgo, divulgación del riesgo y comunicación interactiva y situacional del riesgo. Podríamos, en principio, generalizar la comunicación del riesgo como cualquier proceso del tipo:
Emisor → canal → receptor
No obstante, a nuestro modo de ver, existe una diferencia sustancial que se determina por los actores del proceso. El esquema anterior es el modelo simple tipo top-down común en los procesos de tipo divulgativo o de difusión del riesgo. Por otra parte, la comunicación del riesgo entre actores del mismo nivel de conocimiento (científico a científico, experto a experto, lego a lego, etc.) se acerca al modelo interactivo de comunicación, en tanto que el receptor tiene la posibilidad, desde el conocimiento, de interactuar con el emisor:
Emisor → canal → receptor → canal → emisor
Finalmente, en lo que entendemos como “comunicación interactiva del riesgo” no es aceptable la expresión “posibilidad de interacción”; en este tipo de comunicación la interacción es una necesidad. En tanto que el emisor y el receptor se confunden en uno sólo, es el stakeholder vinculado a la red de interacción.
Figura 14. Modelo de comunicación en red
Uno de los problemas de lo que entendemos por divulgación es que ésta debe considerar la poca o nula información relevante y pertinente en el receptor, lo cual significa mayores esfuerzos en la tarea de “hacer comprender” el riesgo divulgado, entre ellos la reelaboración o traducción (Blanco, 2004, p.72).
En la comunicación del riesgo, por lo general y tal como lo delimitamos, el emisor y el receptor están situados en una comunidad de expertos, lo cual hace más fácil la comunicación, ya que se trata de actores que usan el mismo lenguaje y su número es más reducido. Por contraste, la divulgación demanda de mayores esfuerzos en traducir el lenguaje científico al lenguaje profano y viceversa, que se agrava con el mayor número de receptores o en situaciones específicas (divulgación del riesgo por gripe AH1N1, o la tarea de evacuación de la ciudad de Nueva Orleans ante la amenaza del huracán Katrina, los esfuerzos de divulgación del riesgo en ambos casos fueron considerables e infructuosos).
Por contraste a lo que entendemos por comunicación y por divulgación, la comunicación interactiva y situacional del riesgo se constituye en una estrategia para una gestión efectiva del riesgo o de una gobernanza efectiva del riesgo (Renn & Roco, 2006), por cuanto considera a todos los stakeholders en el proceso interactivo y en situaciones dadas. Esto es posible bajo unos mínimos de conocimiento del riesgo que permita la comunicación y de unos canales que garanticen la interacción. En riesgos locales, el uso de paneles de ciudadanos, foros u otras estrategias suelen ser efectivos, en tanto riesgos locales. Igualmente, gana importancia el concurso de los medios locales, siempre que éstos tengan la suficiente credibilidad:
In emergencies, the communications media have a crucial role to play in covering incidents and we have to know how to correctly exploit them. Credibility and reliability must be maintained as much as is possible within the inevitable constraints of secrecy, field security, and so on (Amikam, 2007, p.131).
Sin embargo, en riesgos globales como los que emergen de las nuevas tecnologías (nanoriesgos, basura electrónica, teflón, etcétera), el canal es prioridad en la estrategia y la web parece convertirse en la mejor propuesta.
No obstante las ventajas de la comunicación interactiva o comunicación de muchos a muchos, tanto locales como globales, es importante profundizar en las diferentes formas como se comunica el riesgo a partir del siguiente interrogante: ¿Cómo se comunican los miembros de una comunidad científica, los científicos y los medios, los científicos y el público, los científicos y el gobierno, el gobierno y el público, los medios y el público?, interrogante que surge de nuestro propósito de encontrar el mejor modelo de comunicación situacional del riesgo.
Inicialmente se nos presenta un panorama en el que el público lego comprende los conceptos científicos en torno al riesgo, como lo expone Blanco (2004), a través de un traductor, el cual no necesariamente es otro científico. Un periodista sin los suficientes conocimientos en el tema que le transmite un científico realiza una traducción deficiente. Por otra parte, el gobierno también comunica sobre riesgos a través de los funcionarios que emiten “comunicados públicos”, los cuales son concordantes con las políticas de gobierno; es decir, su carácter científico no puede ir más allá de los intereses políticos del gobierno de turno (vacas locas en Europa, por ejemplo). Entre científicos y expertos la comunicación parece fluir normalmente con las tensiones, polémicas, réplicas y, en general, disenso propio de una comunidad académica.
En la comunicación no científica (en la cual hay presencia de no científicos) las tensiones son mayores, en tanto que en el discurso se enfrenta el conocimiento (válido o distorsionado) con la opiniónLas tensiones, fruto de la opinion sin base científica, se incrementan porque “providing information on harmful effects and negative consequences” (Berube, 2008, p. 100). Esta información, a veces distorsionada, propicia una amplificación social del riesgo creando “secondary effects such as stigmatization of technologies, economic losses or regulatory impacts” (Ibid, p. 103). Ya hemos discutido sobre el poder de los medios como amplificadores del riesgo (Kasperson et al, 1988); no obstante, los medios emergentes, que propicia la Internet, aumentan aún más la distorsión (Berube, p. 104). Una de las tensiones actuales más relevantes surge desde los productos nanotecnológicos: “Whether the topic is embryos, evolution, genetics, neuroimaging, pharmaceutical discovery, synthetic biology, or xenotransplantation, the research is subject to public, political, legal, regulatory, clinical, and/or scientific controversy” (Scott, 2008, p.225), afectando seriamente la confianza y credibilidad en este tipo de tecnologías: “Despite the optimistic assessments recently offered, experience suggests that nanotechnology could follow the mainstream economic trends that increase inequality” (Foladori, 2009, p.492)..
A través de la literatura científica los científicos informan sobre sus hallazgos o acerca del trabajo que están desarrollando; lo hacen utilizando los términos científicos o, si se prefiere, la jerga científica. Veamos algunos ejemplos tomados de la revista Science de octubre de 2006 (páginas 13 y 64 tomadas al azar):
The chemistry of boron is generally characterized by electron deficiency. Neutral boron compounds tend to be strong Lewis acids, and in borate anions, the B center is typically electropositive, which is reflected in the utility of borohydride salts as hydride (H-) donors.
Caraveo et al […] signaling paradigm on its head. They report that TFII-I, a ubiquitously expressed transcription factor, regulates the activity of TRPC3, a cell surface Ca2+ channel
Los artículos e informes científicos tienen como público objetivo otros científicos que comprenden su lenguaje. Es decir, comunican a sus pares y no al público lego. Sus publicaciones científicas son para científicos. Si leemos una revista médica nos encontraremos, si no somos médicos, con párrafos incomprensibles para nosotros. Sin embargo, no toda la literatura científica está relegada para los científicos. En los sistemas educativos de cada país, existen unos mínimos de literatura científica a ser “enseñada” a los alumnos. Este proceso no es de comunicación de la ciencia, es un proceso de alfabetización científica. El alumno, en tanto que no es científico, “aprenderá” y “aprehenderá” conceptos científicos y su nivel de discusión estará sólo a ese nivel de conocimientos apropiados.
Obviamente existirán las excepciones; es posible que un alumno esté en capacidad de discutir acerca de la lógica difusa o la mecánica cuántica, pero no es la regla general.
El riesgo, por su parte, también presenta restricciones. En primer lugar, por la complejidad de los términos científicos asociados al riesgo y, en segundo lugar, por los intereses políticos o económicos que puedan ser afectados en la divulgación del riesgo . En este último caso, juega un papel importante el concepto de “riesgo aceptable”, tratado en el capítulo anterior. Es aceptable que mueran unos pocos en lugar de millones, es aceptable la decisión de sacrificar esos pocos -tratamiento de aguas con agentes cancerígenos, por ejemplo-.
En el contexto del modelo anglosajón, la expresión “comunicación pública de la ciencia” se entiende como “comprensión pública de la ciencia” (public understanding of science). Pero, ¿cómo se comunica al público temas científicos en general y riesgos en particular? Al parecer, si aceptáramos el modelo bidireccional, se hace a través de foros, encuentros y, cualquier otro mecanismo que permita la comunicación deliberativa y participativa. Sin embargo, ¿cuántos participan de estos tipos de encuentros?, podemos afirmar, sin temor a equivocarnos, que es una gran minoría.
El público, como lo dijimos al principio, es “informado” a través de dos vías: la formativa que se da en los distintos niveles de los sistemas educativos y la comunicación pública científica a través de los medios de comunicación. En estos últimos juega un papel importante la televisión y la Internet. Cualquiera sea la vía, el público tiende a filtrar la información en su propio contexto; es decir, un riesgo global es convertido en un riesgo situacional. Por ejemplo, un ciudadano español “situará” en su contexto la información sobre vacas locas o la referida a movimientos sísmicos.
Por su parte, algunos medios masivos de comunicación (tanto local como global), en especial los noticiosos, tienen presiones de origen comercial para cautivar al público de cara a aumentar sus ratings o de tipo político, que filtran toda información que afecte los intereses políticos del gobiernoVéase Chomsky (1999, p. 36-37) sobre el modelo oligopólico de los medios que “is the natural system for capitalist democracy. It has, accordingly, reached its highest form in the most advanced of these societies, particularly the United States, where media concentration is high […] including the progressive elimination of unions and other popular organizations that interfere with private power”..
En el primer caso, se busca impactar con mensajes de mayor aceptación por el público, tales como escenas catastróficas (11 de septiembre), escándalos en celebridades (Mike Tyson), crímenes horrendos (masacres), etcétera, los cuales despiertan un interés morboso en la mayoría del público. El comunicador se enfrenta al riesgo del sensacionalismo, nutriéndose de noticias provenientes de hechos extraordinarios. En el caso político, algunos riesgos entran a poblar el mundo de los riesgos desconocidos o riesgos invisibles de BeckVeáse James (1989, p. 9) sobre las presiones de carácter político en algunos países del mundo; dos ejemplos de esta situación son:
Nigeria’s State Security Service arrested two printers for reprinting an Interpol poster calling for the extradition of Liberia’s former strongman Charles Taylor from Nigeria to face a war crimes court in Sierra Leone.
Ethiopia’s Supreme Court sentenced newspaper editor Tamrat Serbesa to one month in jail for contempt charge after he refused to identify a source
Veáse, también, Chomsky (1989) sobre la democracia y los medios.. Prima el statu quo sobre el riesgo.
El progreso científico ha posibilitado la identificación de riesgos que afectan en el corto, mediano o largo plazo a la sociedad. Sin embargo, el conocimiento de algunos riesgos, así como las posibles medidas de prevención, se ha relegado a pequeños grupos de la sociedad (científica o no), sin considerar que la mayoría de los daños se presentan en la población de más bajos recursos, desconocedores éstos de los riesgos a los cuales la naturaleza o la acción humana los somete.
Ejemplos como la catástrofe del sur de Asia generada por un tsunami o la ocurrida en Nueva Orleans por efectos del huracán Katrina son una fiel imagen de la ignorancia de la gran mayoría de la población de los efectos que un fenómeno natural causa sobre la vida y bienes de las personas. Las imágenes y videos publicados a través de diversos medios, en especial la Internet, nos dan una mejor ilustración de la deficiencia en la comunicación sobre los riesgos y sus implicaciones. Catástrofes como las anteriores reflejan el pobre papel desempeñado por los científicos, tecnólogos, políticos y demás agentes que de una u otra forma pudieron ejecutar acciones o plantear estrategias para mitigar los efectos colaterales causados por estos fenómenos: “la ocurrencia del suceso, además, o bien resulta de una decisión humana de actuar de cierta manera, o bien su ocurrencia tiene ciertas consecuencias debidas a que alguna personas omitieron ciertas acciones” (Olivé, 2000, p.8). Le compete a los expertos la tarea de dar a conocer sus hallazgos en asuntos de riesgos, obligación en la que hay consenso, en tanto sea el público el mayor afectado: “public health and media professionals generally agree that the public should be informed, and that risk communication must be tailored to fit specific scenarios, subpopulations and communication media” (Wiser & Balicer, 2005, p.104). En ese sentido se han presentado tres fuentes que hacen más compleja la tarea de comunicación del riesgo: expertos oficiales, expertos no oficiales y pseudocientíficos.
Paralelo al desarrollo científico y tecnológico crece la pseudociencia (astrología, cartomancia, quiromancia, espiritismo, ufología). Éstas, lamentablemente, gozan de más popularidad. Como señala Calvo,
se aprovechan del prestigio de las oficiales o académicas, disponen de medios eficaces de persuasión, explotan el vocabulario especializado y encuentran un excelente campo de cultivo en la ignorancia, el esnobismo y, en una época secularizada, en el deseo de creer en algo maravilloso e incomprensible […]
Así, la numerología se parangona con las matemáticas; la astrología se resiste a perder su antigua identificación con la astronomía; la radiestesia trata de triunfar donde fracasan sistemas racionales; el faquirismo y el hipnotismo teatral, la hechicería, el espiritismo, la adivinación del futuro o del pasado y otras prácticas semejantes pretenden adjudicarse bases fisiológicas o psicológicas (Calvo, 2002, p.18).
El riesgo de un meteorito como preludio al apocalipsis, por ejemplo, está presente en las creencias de ciertas comunidades religiosas, entre ellos los gnósticos. Por otra parte, al problema que genera la divulgación pseudocientífica se suman las fuertes discusiones entre expertos oficiales y no oficiales. Existen dudas de la intervención de otros agentes como los de tipo político o de intereses comerciales para la publicación y divulgación de resultados oficiales, lo cual se traduce en una desconfianza en los expertos oficiales (los casos de las vacas locas y del cambio climático son ejemplos). Todas estas dudas surgen con la implementación del nuevo modelo de comunicación interactiva y situacional del riesgo, desde la cual se evidencian las divergencias entre los actores de la comunicación:
El surgimiento de la llamada web 2.0, con la inclusión de espacios de expresión que permiten la producción y publicación colectiva, descentralizada y simple, modificó también el espacio de los medios tradicionales (mediasfera), y éste a su vez ha influenciado en la mejora del tratamiento y edición de los contenidos en el espacio blogger (blogosfera), creándose una zona gris de límites desdibujados, donde estos espacios se entrecruzan en un ecosistema complejo (Irigaray, et al., 2009, p.23)
Comunicar o divulgar la ciencia y la tecnología en general o el riesgo en particular en cualquier medio, incluida la blogosfera, es una actividad que requiere de un traductor. Esta es una primera cualidad, bastante compleja, del comunicador.
Pero los requerimientos son más amplios y profundos. Este comunicador debe ser conocedor del público receptor de sus mensajes, debe ser un comunicador ameno para cautivar este grupo y tratar de expresar lo técnico en el lenguaje del público, tarea bastante difícil:
Una persona que está hablando del código genético le comenta al público que el hombre tiene tantos genes, que están estructurados de esta manera, pero un divulgador conecta ese material genético con problemas éticos o policíacos, y así le da un carácter universal, lo liga con disciplinas aparentemente distintas […] Cuando leo la explicación que da un periodista de algún estudio publicado en una revista científica, a veces me doy cuenta de que no lo entendió (Calvo, 2002, p.18).
Los medios de divulgación que más público convocan son el cine, la televisión y la internet Véase http://www.exitoexportador.com/stats.htm sobre usuarios de Internet en el mundo. . Es indudable el atractivo de los medios audiovisuales, lo que los constituye en la estrategia más segura para reunir y cautivar al público. La película Armagedón es el mejor ejemplo si quisiéramos divulgar el riesgo apocalíptico antes enunciado. El actor principal de los anteriores medios está en la red de redes, Internet. En un buscador como Google encontramos 78.000 páginas en español que hablan de meteoritos y Apocalipsis, 410.000 en inglés sobre el mismo tema y 70.600, también en inglés, incluyendo la palabra “gnostic”. También es cierto que el ciberespacio da cabida a cualquier publicación. Las palabras anteriores filtradas con páginas “.edu” sólo arrojaron 12 resultados en español y 531 en inglés. Es decir, consultar en la red es también un riesgo.
Mucha información publicada en Internet no es de fuentes confiables; algunas de ellas sólo constituyen conjeturas, opiniones o, en algunos casos, teorías sin un sustento científico (seudociencia) -igualmente podremos consultar la teoría del evolucionismo como la del creacionismo-.
Un tipo de publicación en estos y otros medios, que convoca a todo tipo de público, es la ciencia ficción ¿La ciencia ficción para la comunicación del riesgo? Sí, y muy efectiva. Decía Rodolfo Llinás (2001, pp.255-256) que un niño de tanto oírle a sus padres, maestros y otros adultos que la “araña pica”, terminará entendiendo este evento nunca experimentado . Pudimos comprobarlo con un niño de cuatro años. Había una pequeña araña sobre la pared, el niño acercó su mano al pequeño insecto. Cuando le preguntamos por qué lo hacía, respondió: “quiero convertirme en el hombre araña”. Había entendido que la araña pica. La ciencia ficción había acabado con el riesgo que se le había enseñado.
Los estudiosos de la ciencia ficción hablan de dos tipos: la ciencia ficción blanda no fundamentada en hechos científicos (hombre araña, por ejemplo) y la ciencia ficción dura con fuertes nexos en el mundo de la ciencia. En este último tipo de ciencia ficción sus máximos exponentes son, por lo general, hombres o mujeres de ciencia como Isaac Asimov o Carl Sagan. Ambos tipos de ciencia ficción son eficientes para divulgar el riesgo. Hace algunos años se les solicitó a los editores de la revista Batman que prepararan y distribuyeran una edición en la cual este héroe difundiera los peligros de las minas personales. Dicha edición estaba destinada a uno de los países de la antigua Unión Soviética ; la revista fue publicada y en ella Batman trató de salvar una niña en riesgo de morir por una de estas minas, pero la niña muere. Es claro el mensaje en esta edición de Batman. Sea cual fuere el medio, se presentan riesgos en la propia comunicación. Al respecto Pidgeon et al plantean que
[…] varios agentes sociales generan, reciben, interpretan, y comunican señales de riesgo. Kasperson et al. (1988) presentan una discusión en torno a que tales señales son sometidas a transformaciones cada vez que pasan por el filtro de varias estaciones individuales o colectivas de amplificación. Estas transformaciones pueden incrementar o reducir el volumen de información acerca del evento riesgoso, aumentar la importancia de ciertos aspectos del mensaje, o reinterpretarlo (distorsión): Por esa razón, inducen a una interpretación y respuesta particular de otros participantes en el sistema social (Pidgeon, et al., 2003, p.15).
Estas estaciones amplificadoras incluyen personas, grupos e instituciones: políticos, Greenpeace, agencias gubernamentales, asociaciones científicas y en especial los medios. Estos últimos se han encargado de dramatizar, distorsionar, amplificar o atenuar los riesgos . El afán de sensacionalismo y de aumentar los rating propicia que el objetivo de comunicar el riesgo no se logre . Por otra parte, el tecnicismo sin explicación previa, sólo tiene efectos en los conocedores de los atributos del riesgo.
Veamos un ejemplo sencillo de la última afirmación. Cuando se “comunica” acerca de un evento sísmico es común encontrar mensajes como: “Un nuevo sismo grado 7.8 sacudió a la isla indonesia de Sumatra este jueves, sólo doce horas después de que la afectara un terremoto de 8,4 grados en la escala Richter” ¿El público lego entenderá la diferencia entre un sismo de grado 7.8 a uno de 8,4? ¿Acaso el comunicador del evento sabe que esta diferencia está relacionada con la energía liberada por el terremoto y que para el ejemplo es el equivalente a la energía de una explosión de 30 millones de toneladas de TNT? No es sólo el valor de la magnitud de un sismo el que marca la diferencia. La profundidad, distancia del epicentro y las características del suelo sobre el que se desplazan las ondas del sismo son otros elementos que desconoce el público lego en el comportamiento de este evento riesgoso.
Ante el desconocimiento, no se entiende por qué un sismo de magnitud 6.5 grados en 1995 (Calima, Colombia) tuvo como resultado cuatro muertos, mientras que uno de 6.2 grados (eje cafetero) causó más de mil muertes. Esta carencia cognitiva permite que el lego genere sus propias interpretaciones, tal como ocurre con riesgos novedosos como los vinculados a los transgénicos:
En el imaginario social, el término transgénico se asocia con acepciones más solemnes del proceso de transferencia, como puede ser el caso de "ir más allá de las fronteras" o, incluso la más apocalíptica, de "transgresión de las leyes de la naturaleza". Esta visión ha dado lugar al recurso a la imagen de Frankestein para identificar los productos de la ingeniería genética -"alimentos Frankestein", en versión castellana del término inglés "Franken-food"- o la referencia confesional que acusa a los científicos de "jugar a Dios” (Muñoz, 2002, p.6).
Hemos afirmado que una estrategia efectiva de comunicación de riesgos globales es a través de la red, en tanto que las relaciones que se establecen son de tipo global, es decir, entre agentes de distintas partes del mundo.
El caso que se presenta a continuación evidencia el poder de la red para masificar un mensaje, así el mensaje sea falso y, consecuentemente, la validación de los anteriores supuestos. Desde diciembre de 2004, un mensaje difundido por correo electrónico ha generado confusión y falsas alarmas sobre los medicamentos que contienen el principio activo denominado fenilpropanolamina, utilizada principalmente en productos antigripales. En noviembre de 2007 publicamos un artículo que denunciaba el uso de medicamentos con este componente en Colombia .
En 2008 se reactivaron los correos y páginas en la red con el mismo mensaje publicado en 2004, el cual ha suscitado toda una avalancha de comentarios, protestas, foros de discusión y noticias aparentemente frescas. El uso de la red para masificar mensajes falsos o verdaderos cada vez cobra más importancia, en tanto que siempre habrá alguien que lo lea y lo difunda. A continuación se transcriben apartes del artículo publicado en 2007, que complementamos con información más reciente acerca de la distribución y uso de medicamentos cuyos componentes han sido evaluados con resultados negativos para la salud. Por otra parte, presentamos evidencia de cómo un usuario de la red puede distorsionar el mensaje, especialmente cuando sólo lee una parte del mismo, perdiendo por completo el contexto del mensaje. El artículo inicia con la afirmación, sustentada en Luhmann, de una comunicación que se constituye en riesgo:
Frente a la imposibilidad de decidir de manera perfectamente racional (óptima) y frente a la imposibilidad de prever lo que habrá sido una decisión, toda comunicación se convierte en un riesgo: el de no haber atendido algo que más adelante resulta ser importante o el de haber decidido de una manera que más adelante resulta ser errónea o, de algún modo, reprochable. Pero la no comunicación tampoco nos protege de este riesgo, puesto que puede ser convertida, como omisión, en una decisión (Luhmann, 1998, p.242).
En el artículo empleamos el término divulgación en lugar de comunicación, distinción que ya hemos discutido en los apartados anteriores. La comunicación, en concordancia con Luhmann, se convierte en riesgo, en tanto que la ampliación, atenuación, distorsión, estigmatización, alarmismo y pánico se entremezclan en el caso que estamos analizando. El correo de origen argentino de 2004 que motiva el artículo era el siguiente:
¡HÁGALO CIRCULAR! ¡URGENTE - RIESGO DE MUERTE!
El Ministerio de Salud a través de la Agencia Nacional de Vigilancia Sanitaria suspendió por medio de la Resolución 96 la fabricación, distribución, manipulación, comercialización y almacenamiento de medicamentos con el principio activo denominado FENILPROPALAMINA. La medida fue tomada después de que la "Food and Drug Administration" (FDA), de Estados Unidos, constató que la substancia provocó efectos adversos FATALES en usuarios americanos (hemorragia cerebral). En Brasil la suspensión es preventiva, una vez que no existen casos relatados. La FENILPROPALAMINA está presente en 21 medicamentos…
Luego aparece el listado de los 21 medicamentos, entre los cuales existen algunos antigripales de venta pública en tiendas y supermercados colombianos. ¿Por qué esta divulgación se hace en Argentina y no en Colombia? ¿Qué ocurre con la gran masa de la población que no tiene acceso a este medio de comunicación?
Si analizamos el contenido del correo se observa no sólo su atemporalidad, sino también la imprecisión del lugar de procedencia. Sólo con un detallado análisis se puede advertir que, en el caso colombiano, no existe la Agencia Sanitaria aludida, como tampoco una gran cantidad de los antigripales relacionados. No obstante, la mayoría de los receptores del mensaje no se detienen en este tipo de análisis, como podremos confirmar en el resto de la discusión de este caso.
El hoax, como lo hemos advertido, genera desconfianza. El siguiente paso, entonces, fue consultar la FDA citada en el correo:
Scientists at Yale University School of Medicine recently issued a report entitled "Phenylpropanolamine & Risk of Hemorrhagic Stroke: Final Report of the Hemorrhagic Stroke Project". This study reports that taking PPA increases the risk of hemorrhagic stroke (bleeding into the brain or into tissue surrounding the brain) in women. Men may also be at risk. Although the risk of hemorrhagic stroke is very low, FDA recommends that consumers not use any products that contain PPA (Federal Register, Volume 66, Number 157, 2001,
http://www.fda.gov/OHRMS/DOCKETS/98fr/081401d.htm).
La información suministrada por la FDA deja más interrogantes que respuestas: ¿qué tan bajo es el riesgo de hemorragia cerebral? , ¿por qué el gobierno argentino acepta la recomendación y el colombiano no?, ¿es una buena decisión abandonar los antigripales conociendo la cifra de muertes por causa de la gripe? En concreto:
La Organización Mundial de la Salud calcula que cada año mueren entre medio millón y un millón de personas por la gripe. Es una cifra difícil de dar, porque esta infección subyace en otras defunciones, como las causadas por las neumonías. En EEUU, los Centros de Control de Enfermedades (en Atlanta) atribuyen unas 40.000 muertes al año de media a la gripe común. En España, el Instituto Nacional de Estadística registró como directamente atribuibles a la gripe 74 defunciones, pero se calcula que esta infección influye en unos 3.000 fallecimientos al año, porque empeora otras enfermedades (Benito, 2009).
Así las cosas, el siguiente paso fue consultar la fuente primaria. Los investigadores de la Universidad de Yale publicaron un artículo en 2000, en el cual concluyen que
…the results of the Hemorrhagic Stroke Project (HSP) suggest that phenylpropanolamine (PPA) increases the risk for hemorrhagic stroke.
For both individuals considering use of PPA and for policy makers, the HSP provides important data for a contemporary assessment of risks associated with the use of PPA (Kernan, y otros, 2000, pp.1831-1832).
No obstante la conclusión, llama la atención dos aspectos del artículo. El primero es que la investigación no aclara cómo la fenilpropalamina actúa sobre cerebro, el procedimiento realizado es de asociación de la enfermedad con el consumo de drogas que contienen PPA . El segundo aspecto es que los resultados confirman otros hallazgos de años anteriores: “Since 1979, over 30 published case reports have described the occurrence of intracranial hemorrhage after PPA ingestion” (Kernan, et al., 2000, p.1826). Consultamos algunas de estas pioneras investigaciones:
It seems reasonable to conclude that ingestion of this drug caused cerebral arteritis, microaneurysm formation, and intracerebral hemorrhage (Fallis & Fisher, 1985, p.407).
In addition, the potential for inducing acute hypertension and intracranial hemorrhage, when PPA is used in recommended doses and in the absence of other risk factors, cannot be ignored (Kase, et al., 1987, p.404).
…repetitive elevated administration per weight of PPA/caffeine lead to cerebral hemorrhage in hypertensive rats. One can conjecture that hypertensive humans are also "at risk" when taking PPA/caffeine (Mueller, et al., 1984, p.122).
In addition to PPA, other sympathomimetic agents have been incriminated in intracerebral hemorrhages, prominently amphetamines, but also ephedrine, and pseudophedrine (Kikta, et al., 1985, p.511).
Most cases were related to PPA use; however, stroke can also occur with the use of other sympathomimetics, particularly pseudoephedrine (Cantu, et al., 2003, p.1672).
Surge un interrogante desde la comunicación del riesgo: ¿por qué después de tantos años, organismos como la FDA o el Ministerio de Salud argentino toman decisiones de tipo precautorio? Desde este interrogante y desde la información obtenida podríamos inferir que no hay suficiente interés ni recursos para adelantar investigaciones en torno a los efectos colaterales de los medicamentos . Por otra parte, las conclusiones de Kikta et al (1985) y Cantu et al (2003) que vinculan la efedrina y la pseudoefedrina a las hemorragias cerebrales se confirman en 2007 con efectos reconocidos por las mismas farmacéuticas:
En octubre de 2007, una noticia a nivel mundial es generada desde el laboratorio norteamericano Wyeth. En Colombia se divulgó así,
El laboratorio norteamericano Wyeth acaba de retirar del mercado el medicamento para el resfriado Dimetapp gotas pediátricas como una medida preventiva. En Colombia se comercializan entre 20 mil y 30 mil frascos de Dimetapp gotas pediátricas que son para el consumo de niños de 0 a 2 años de edad. "Hemos adoptado esta medida preventiva y responsable de suspender la venta de Dimetapp gotas pediátricas en Colombia", sostuvo el director médico del laboratorio Wyeth en la región andina, Andrés Zapata […] sostiene que el Dimetapp gotas pediátricas no es perjudicial para la salud de los niños y que desde hace 20 años se comercializa en Colombia. Lo que ocurre según el vocero del laboratorio, es que el uso indebido puede generar efectos secundarios en los recién nacidos como somnolencia (http://caracol.com.co/radio/, 10 de octubre de 2007)
Según la información, los generadores del riesgo son los irresponsables padres que no saben usar este medicamento de venta libre o sin prescripción médica. El Dimetapp es una de las 21 drogas reportadas por el correo argentino. Hasta antes de la anterior noticia el problema era la fenilpropalamina, ahora los informes presentan como causa del retiro del Dimetapp la pseudoefedrina.
No obstante los resultados de investigación,
el laboratorio advierte ahora no usar más medicamentos para la tos y el resfriado en niños menores de 2 años. ¿Qué podemos hacer con esta información? ¿Estigmatizar al laboratorio? ¿Generar pánico en la población? O, simplemente, acudir a uno de los principios del mundo de las incertidumbres, la precaución.
En una exploración en la red sobre el surgimiento de este hoax comprobamos otro de los supuestos: ii) el poder de la red para propagar información falsa. Comprendimos que la mejor estación amplificadora del riesgo es la red . Los riesgos amplificados pueden generar la estigmatización, en este caso, de una droga o una compañía farmacéutica .
Nuestro último supuesto del rumor, como estrategia efectiva de comunicación del riesgo, se evidencia con la diversidad de públicos que interactúan con el mensaje. No obstante, aclaramos que es efectiva en tanto que en ella interactúa todo tipo de público, así el mensaje sea falso. Nuestra propuesta es utilizar el mismo método de propagación para comunicar riesgos que demandan, en su gestión, de un público informado (virus AH1N1 y huracán Katrina, por ejemplo).
En los siguiente vídeos se destaca el retiro de los medicamentos, en México y Colombia, con el principio activo "pseudoefedrina". Lo absurdo es que mientras en México se hace en 2008, en Colombia es en 2009 con el argumento de evitar la producción de la droga éxtasis.
A continuación, presentamos dos artículos. El primero es una descripción de algunos reportes del hoax originado por la publicación del mensaje, de origen argentino, de los antigripales con el principio activo "fenilpropalamina". El segundo, es un artículo del 2000, publicado por Kernan et al, que da cuenta de la asociación de la fenilpropalamina con los derrames cerebrales.
Existen muchos debates sobre el compromiso de las multinacionales farmacéuticas en curar enfermedades. Según algunos autores (ver vídeo interactivo de la siguiente página), el interés es sostener la enfermedad, no curarla. A continuación, presentamos la introducción del artículo de Carlos Machado: "La mafia farmacéutica. Peor el remedio que la enfermedad".
El mercado farmacéutico mueve unos 200.000 millones de dólares al año. Una cantidad superior a las ganancias que brindan la venta de armas o las telecomunicaciones. Por cada dólar invertido en la fabricación de un medicamento se obtienen mil en el mercado.
Las multinacionales farmacéuticas saben que se mueven en un terreno de juego seguro: si alguien necesita una medicina, no va a escatimar dinero para comprarla. Este mercado, además, es uno de los más monopolizados del planeta, ya que sólo 25 corporaciones copan el 50 por ciento del total de ventas. De ellas, las seis principales compañías del sector -Bayer, Novartis, Merck, Pfizer, Roche y Glaxo- suman anualmente miles de millones de dólares de ganancias. Hay que destacar, además, que todos los grandes grupos farmacéuticos son también potencias de las industrias química, biotecnológica o agroquímica.
Merck, es uno de los gigantes farmacéuticos que se vio obligado a retirar del mercado a una de sus estrellas, el anti inflamatorio Vioxx (rofexocib), cuya venta le reportaba 2.500 millones de dólares al año, debido a los riesgos cardiovasculares que producía.
El artículo completo se puede leer en https://www.ecoportal.net o descargar desde docs/mafia_farmaceutica.pdf
A continuación, realiza la última actividad interactiva de este texto. Se trata de un vídeo interactivo, el cual contiene algunas actividades sobre la mafia farmacéutica.
La mafia farmacéutica.
Adinolfi, G., 2007. Internet governance y sociedad de la información: problemas de socio-política. Entelequia, (3), pp. 159-183.
Ahmed, A.M. & Skogh, G., 2006. Choices at various levels of uncertainty: an experimental test of the restated diversification theorem. Journal of Risk and Uncertainty, 33, pp. 183-196.
Amikam, Y., 2007. Risk communication and public behavior in emergencies. En: M.S. Green et al, eds. 2007. Risk assessment and risk communication strategies in bioterrorism preparedness. Dordrecht: Springer, pp. 131-133.
Arias M., 2003. Democracia y sociedad del riesgo: deliberación, complejidad e incertidumbre. Revista de Estudios Políticos (Nueva Época), 122, pp. 233-268.
Armas, I. & Avram, E., 2007. Patterns and trends in the perception of seismic risk. Case study: Bucharest Municipality/Romania. Nat Hazards, 44, pp. 147–161.
Barber, B., 1984. Strong democracy: participatory politics for a new age. Berkeley: University of California Press, 2004.
Beck, U., 1986. La sociedad del riesgo: hacia una nueva modernidadA. Traducido por J. Navarro, D. Jiménez & B. M. Rosa. Barcelona: Paidós, 1998.
Beck, U., 1999. La sociedad del riesgo global. Traducido por J. Alborés. Madrid: Siglo XXI, 2002.
Beck, U., 2008. Generaciones globales en la sociedad del riesgo mundial. Revista CIDOB d’Afers Internacionals, (82-83), pp. 19-34.
Beck, U., Giddens, A. & Lash, S., 1994. Modernización reflexiva. Política, tradición y estética en el orden social moderno. Traducido por J. Alborés. Madrid: Alianza Universidad, 1997.
Benito, E., 2009. ¿Cuántos muertos produce la gripe común? Diario El País, 3 may.
Berube, D.M., 2008. Intuitive Toxicology: The Public Perception of Nanoscience. En: Allhoff, F., Lin, P., eds. 2008. Nanotechnology & Society: Current and Emerging Ethical Issues. Springer, pp. 91-108.
Bijker, W.E. et al, 2007. A response to ‘Nanotechnology and the need for risk governance’, O. Renn & M.C. Roco, 2006. J. Nanoparticle Research 8(2): pp. 153–191. Journal Nanopart Res, 9, pp. 1217-1220.
Blanco, A., 2004. Relaciones entre la educación científica y la divulgación de la ciencia. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 1 (2), pp. 70-86.
Boole, G., 1854. An investigation on laws of the thought. London: Walton and Maberly.
Borm, P.J. & Berube, D., 2008. A tale of opportunities, uncertainties, and risks. Nanotoday, 3 (1-2), pp. 56-59.
Bouwmeester, H. et al, 2009. Review of health safety aspects of nanotechnologies in food production. Regulatory Toxicology and Pharmacology, (53), pp. 52-62.
Calvo, M., 2002. La divulgación científica y los desafíos del nuevo siglo. Comunicar, 19, pp. 15-18.
Campbell, S. & Currie, G., 2006. Against Beck: in defence of risk analysis. Philosophy of the Social Sciences, 36 (2), pp. 149-172.
Cantu, C. et al, 2003. Stroke associated with sympathomimetics contained in over-the-counter cough and cold drugs. Stroke, (34), pp. 1667-1673.
Carnap, R., 1966. Fundamentación lógica de la física. Traducido por N. Miguens. Buenos Aires: Sudamericana, 1969.
Carrasco, J.F., 2008. La coexistencia sigue siendo imposible: testimonios de la contaminación. Madrid: Greenpeace España.
Castells, M., 2001. La Galaxia Internet. Traducido por R. Quintana. Barcelona: Plaza & Janés editores, S. A.
Castells, M. ed., 2004. The network society: a cross-cultural perspective. Northampton: Edward Elgar Publishing Limited.
Chomsky, N., 1989. Necessary Illusions: Thought Control in Democratic Societies. London: Pluto Press.
Cohen, J. & Hansel, M., 1956. Risk and gambling: the study if subjective probability. London: Longmans, Green and Co Ltd.
Comisión de Industria, Investigación y Energía, 2006. Informe sobre nanociencias y nanotecnologías: un plan de acción para Europa 2005-2009. Parlamento Europeo.
Council of Standards Australia, 1999. AS/NZS 4360:1999, The Australian/New Zealand Standard for risk management. Sydney.
Covello, V., 2007. Effective Risk and Crisis Communication during Water Security Emergencies. Center for Risk Communication. New York: U.S. Environmental Protection Agency (EPA).
Cranor, C.F., 2004. Conocimiento experto y políticas públicas en las sociedades tecnológicas: en busca del apoyo científico apropiado para la protección de la salud pública. En: J. L. Luján & J. Echeverría, eds. 2004. Gobernar los riesgos: ciencia y valores en la sociedad del riesgo. Madrid: Biblioteca Nueva, pp. 99-141.
De Marchi, B. & Funtowicz, S., 2004. La gobernabilidad del riesgo en la Unión Europea. En: J.L. Luján & J. Echeverría, eds. 2004. Gobernar los riesgos: ciencia y valores en la sociedad del riesgo. Madrid: Biblioteca Nueva, pp. 153-165.
De Marchi, B., 2009. La comunicación del riesgo: las lecciones del pasado y los desafíos del presente. En: C. Moreno, ed. 2009. Comunicar los riesgos. Ciencia y tecnología en la sociedad de la información. Madrid: Biblioteca Nueva, pp. 19-36.
De Morgan, A., 1847. Formal logic: or, the calculus of inference, necessary and probable. London: Taylor and Walton.
Devey, J., 1854. Logic or the science of inference. London: Henry G. Bohn, York Street, Covent Garden.
Douglas, H., 2000. Inductive risk and values in science. Philosophy of Science, 67 (4), pp. 559-579.
Douglas, M., & Wildavsky, A., 1982. Risk and culture: an essay on the selection of technological and environmental dangers. Berkeley: University of California Press.
Dubois, D., 2006. Possibility theory and statistical reasoning. Computational Statistics & Data Analysis, 51, pp. 47-69.
Dubois, D., Prade, H. & Smets, P., 1996. Representing partial ignorance. Trans. on Systems, Man, and Cybernetics, 26, pp. 361-378.
Echeverría, J., 2007. Gobernanza de la sociedad europea de la información. CTS, 3 (8), pp. 67-80.
Eichberger, J., Kelsey, D. & Schipper, B., 2004. Ambiguity and social interaction. Disponible en: http://ssrn.com/abstract=464242 [Consultado el 10 de noviembre de 2008].
Elster, J., 1983. El cambio tecnológico: investigaciones sobre la racionalidad y la transformación social. Traducido por M. Mizragi. Barcelona: Gedisa, 1990.
Elster, J., 1986. The market and the forum. En: J. Elster & A. Hylland, eds. 1986. Foundations of social choice theory. Cambridge: Cambridge University Press, pp. 103-132.
Elster, J., 1996. Rationality and emotions. The Economic Journal, 106 (438), pp. 1386-1397.
Fallis, R.J. & Fisher, M., 1985. Cerebral vasculitis and hemorrhage associated with phenylpropanolamine. Neurology, (35), pp. 405-407.
Fischhoff, B., 1995. Risk perception and communication unplugged: twenty years of process. Risk Analysis, 15 (2), pp. 137-145.
Fischhoff, B., Nadaï, A. & Fischhoff, I., 2001. Investing in frankenfirms: predicting socially unacceptable risks. The Journal of Psychology and Financial Markets, 2 (2), pp. 100-111.
Foladori, G. & Invernizzi, N., 2008. Nanotecnologías en la alimentación y agricultura. Montevideo: Universidad de la República.
Funtowicz, S.O. & Ravetz, J.R., 2001. Global risk, uncertainty and ignorance. En: J.X. Kasperson & R. E. Kasperson, eds. 2001. Global environmental risk. The Unite Nations University Press, pp. 173-194.
Gad-el-Hak, M. ed., 2008. Large-scale disasters: prediction, control and mitigation. Cambridge: Cambridge University Press.
Giddens, A., 1991. Sociología. Traducido por T. Albero et al. Madrid: Alianza Editorial, 2000.
Gilovich, T., Griffin, D. & Kahneman, D. ed., 2002. Heuristics and biases: the psychology of intuitive judgment. Cambridge: Cambridge University Press.
Hajer, M. & Wagenaar, H., 2003. Deliberative policy analysis: understanding governance in the network society. Cambridge: Cambridge University Press.
Hajer, M. & Wagenaar, H., 2003. Deliberative policy analysis: understanding governance in the network society. Cambridge: Cambridge University Press.
Hamlett, P., 2003. Technology theory and deliberative democracy. Science, Technology, & Human Values, 28 (1), pp. 112-140.
Haynes, K., Barclay, J. & Pidgeon, N., 2008,. The issue of trust and its influence on risk communication during a volcanic crisis. Bull Volcanol, (70), pp. 605-621.
Hempel, C.G., 1965. Aspects of scientific explanation and other Essays in the Philosophy of Science. New York: Free Press.
Hempel, C.G., 1966. Filosofía de la ciencia natural. Madrid: Alianza Editorial, 1979.
Himanen, P., 2001. La ética del hacker y el espíritu de la era de la información. Barcelona: Destino.
Hirst, P., 2000. Democracy and governance. En: J. Pierre, ed. 2000. Debating governance: authority, seering and democracy. Oxford: Unviversity Press, pp. 13-35
Hoyt, V.W. & Mason, E., 2008. Nanotechnology emerging health issues. Journal of Chemical Health & Safety, 15 (2), pp. 10-15.
Hume, D., 1738. A treatise of human nature. Disponible en: http://www.philosophia.cl/biblioteca/Hume/ A%20treatise%20of%20Human%20Nature.PDF [Consultado el 23 de marzo de 2008].
Irigaray, F., Ceballos, D. & Manna, M. eds., 2009. Nuevos medios, nuevos modos, nuevos lenguajes. Rosario: Universidad Nacional de Rosario.
Kahan, D.M. et al, 2009. Cultural cognition and nanotechnology risk perceptions: an experimental investigation of message framing. APEN BRIEF, (5), pp. 7-22.
Kahneman, D., 2002. Maps of bounded rationality: a perspective on intuitive judgment and choise. Disponible en: http://nobelprize.org/nobel_prizes/economics/laureates/2002/kahnemann-lecture.pdf [Consultado el 30 de noviembre de 2005].
Karlekar, K.D. & Cook, S.G., 2009. Freedom on the net: a global assessment of internet and digital media. Disponible en: http://www.freedomhouse.org/uploads/specialreports/NetFreedom2009/ FreedomOnTheNet_FullReport.pdf [Consultado el 30 de agosto de 2009].
Kase, C.S. et al, 1987. Intracerebral hemorrhage and phenylpropanolamine use. Neurology, (37), pp. 399-404.
Kasperson, R. et al, 1988. The social amplification of risk: a conceptual framework. Risk Analysis, 8 (2), pp. 177-187.
Kearnes, M. et al, 2006. From bio to nano: learning lessons from the uk agricultural biotechnology controversy. Science as Culture, 15 (4), pp. 291-307.
Kentel, E. & Aral, M.M., 2004. Stochastic environmental research and risk assessment (SERRA), The Quarterly Journal of Economics, 18 (5), pp. 324-338.
Kernan, W. et al, 2000. Phenylpropanolamine and the risk of hemorrhagic stroke. The New England Journal of Medicine, 343 (25), pp. 1826-1832.
Keynes, J.M., 1921. A treatise on probability. London: Macmillan.
Khademian, A.M. & Feldman, M.S., 2007. The role of the public manager in inclusion: creating communities of participation. Governance, 20 (2), pp. 305-324.
Kikta, D.G., Devereaux, M.W. & Chandar, K., 1985. Intracranial hemorrhages due to phenylpropanolamine. Stroke, 16 (3), pp. 510-512.
Knight, F.H., 1921. Risk, uncertainty, and profit. Boston: Hart, Shaffner & Marx.
Korthals, M., 2005. Neither golden nugget nor Frankenstein: the need to re-embed food biotechnologies in sociocultural contexts. En: F. Thiele & R.E. Ashcroft, eds. 2005. Bioethics in a small world. Berlín: Springer, pp. 23-31.
Krimsky, S., 2007. Risk communication in the internet age: the rise of disorganized skepticism. Environmental Hazards, (7), pp. 157-164.
Leach, M., Scoones, I. & Wynne, B., 2005. Science and citizens: globalization and the challenge of engagement. London: Zed Books.
Leiss, W., 1991. On the vitality of our discipline - new applications of communications theory: the 1990 Southam lecture. Canadian journal of communication, 16 (2), pp. 291-305.
Leiss, W., 1996. Three phases in the evolution of risk communication practice. Science, (545), pp. 85-94.
Lewenstein, B.V., 1995. Science and the media. En: S. Jasanoff, G. E. Markle, J. C. Petersen & T. Pinch, eds. 1995. Handbook of science and technology studies. London: SAGE publications ltd., pp. 343-360.
Linkov, I. & Burmistrov, D., 2005. Sources of uncertainty in model predictions: lessons learned from the IAEA forest and fruit working group model intercomparisons. Journal of environmental radioactivity, 84, pp. 297-314.
Linkov, I. et al, 2009. Nano risk governance: current developments and future perspectives. Nanotechnology Law & Business (203), pp. 203-220.
Llinás, R., 2001. El cerebro y el mito del yo: el papel de las neuronas en el pensamiento y el comportamiento humanos. Traducido por E. Guzmán. Bogotá: Editorial Norma, 2002.
López Cerezo, J.A. & Luján, J.L., 2000. Ciencia y política del riesgo. Madrid: Alianza Editorial.
Luhmann, N., 1991. Sociología del riesgo. México: Triana Editores, 1998.
Luján, J.L. & López Cerezo, J.A., 2004. De la promoción a la regulación: el conocimiento científico en la política pública de Ciencia y Tecnología. En: J.L. Luján & J. Echeverría, eds. 2004. Gobernar los riesgos: ciencia y valores en la sociedad del riesgo. Madrid: Biblioteca Nueva, pp. 75-98.
Macnaghten, P., Kearnes, M.B. & Wynne, B., 2005. Nanotechnology, governance, and public deliberation: what role for the social sciences? Science Communication, 27 (2), pp. 268-291.
Mariotte, M., 2004. What did we learn from Three Mile Island? Nuclear Monitor, (605-606), pp. 1-4.
Matos, M.A., 2007. Decision under risk as a multicriteria problem. European Journal of Operational Research, 181, pp. 1516–1529.
McLuhan, M. & Powers, B.R., 1989. La aldea global. Traducido por C. Ferrari. Barcelona: Gedisa, 1993.
Moen, B.E. & Rundmo, T., 2004. Explaining demand for risk mitigation. Trondheim: Rotunde Publikasjoner, 86, pp. 1-44.
Moreno, C., 2001. La Biotecnología en la prensa diaria (1988-1998): Análisis y tendencias. Tesis doctoral. Madrid: Universidad Complutense de Madrid.
Mueller, S.M., Muller, J. & Asdell, S.M., 1984. Cerebral hemorrhage associated with phenylpropanolamine in combination with caffeine. Stroke, 15 (1), pp. 119-123.
Muñoz, E., 2002. Los medios de comunicación y los alimentos modificados genéticamente: conflicto entre conocimiento e información. En: Seminario sobre "Nuevos Alimentos", Soria.
Muñoz, E., 2004. Europa y Estados Unidos: actitudes diferentes ante los OMG. Quark, (33), pp. 31-38.
Myers, G., 2003. Discourse studies of scientific popularization: questioning the boundaries. Discourse Studies 2003, 5 (2), pp. 265-279.
National Research Council, 2007. Analysis of Global Change Assessments: Lessons Learned. Washington, D. C.: National Academies Press.
Negroponte, N., 1995. El mundo digital. Traducido por M. Abdala. Barcelona: Ediciones B, S.A.
Olivé, L., 2000. El bien, el mal y la razón. México: Paidós.
Olivé, L., 2004. Riesgo, ética y participación pública. En: J.L. Luján & J. Echeverría, eds. 2004. Gobernar los riesgos: ciencia y valores en la sociedad del riesgo. Madrid: Biblioteca Nueva, pp. 289-309.
Oswald Spring, Ú., 2001. Transgénicos: efectos en la Salud, el ambiente y la sociedad. una reflexión bioética. Disponible en: http://www.revista.unam.mx/vol.1/num3/art2/ [Consultado el 2 de agosto de 2008].
Palenchar, M.J. & Heath, R.L., 2007. Strategic risk communication: adding value to society. Public Relations Review, (33), pp. 120-129.
Palenchar, M.J., 2008. Risk communication and community right to know: a public relations obligation to inform. Public Relations Journal, 2 (1), pp. 1-26.
Peirce, C.S., 1877. The fixation of belief. Disponible en: http://www.cspeirce.com/menu/library/bycsp/ fixation/fx-frame.htm [Consultado el 3 de agosto de 2007].
Peirce, C.S., 1923. The Doctrine of Chances. En: M. Cohen, ed. 1998. Chance, love and logic: philosophical essays. New York: Horcourth, Brace & Company, INC.
Pérez, J. et al, 2007. La Gobernanza de Internet. Disponible en: http://aui.es/IMG/pdf_LaGobernanzadeInternet.pdf [Consultado el 3 de noviembre de 2008].
Petts, J., Horlick-Jones, T. & Murdock, G., 2001. Social amplification of risk: the media and the public. http://www.hse.gov.uk/research/crr_pdf/2001/CRR01329.pdf [Consultado el 4 de agosto de 2007].
Pidgeon, N., Kasperson, R. & Slovic, P., 2003. The social amplification of risk. Cambridge: The MIT Press.
Popper, K., 1990. Un mundo de propensiones. Traducido por J. M. Esteban. Madrid: Tecnos, 1996.
Popper, K., 1994. El cuerpo y la mente. Traducido por O. Domínguez. Barcelona: Paidós, 1997.
Prats Catalá, J., 2004. Por una gobernabilidad democrática para la expansión de la libertad. En: M.E. Bernales & V. Flores, eds. 2004. La ilusión del buen gobierno. Montevideo: UNESCO – MOST, pp. 71-121.
Prensky, M., 2001. Digital natives, digital immigrants. On the Horizon, 9 (5), pp. 1-6.
Ramsey, F.P., 1931. Foundations of Mathematics and other Logical Essays. London: Routledge, 2000.
Ravetz, J., 1997. The science of 'what-if'. Futures, 29, pp. 533-539.
Renn, O., 1999. A model for an analytic deliberative process in risk management. Environmental Science & Technology, 33 (18), pp. 3049-3055.
Renn, O., 2004. Perception of risks. Toxicology Letters, 149, pp. 405-413.
Renn, O., 2005. White paper on risk governance : Towards an integrative approach. En: International Risk Governance Council, Genoa.
Renn, O. & Roco, M.C., 2006. Nanotechnology and the need for risk governance. J. Nanoparticle Research, 8 (2), pp. 152-199.
Renn, O. & Rohrmann, B., 2000. Cross-cultural risk perception: a survey of empirical studies. Dordrecht: Kluwer Academic Publishers.
Rhodes, R., 1997. Understanding governance: policy networks, governance, reflexivity, and accountability. Buckingham: Open University Press.
Rivadulla, A., 1991. Probabilidad e inferencia científica. Barcelona: Anthropos.
Rodríguez, H., 2007a. Dinámicas de constitución del riesgo: una propuesta composicional para gobernar los riesgos. Tesis doctoral. Donostia: Universidad del País Vasco.
Rosa, E.A., 1998. Metatheoretical foundations for post-normal risk. Journal of Risk Research, 1, pp. 15-44.
Rowe, G. & Frewer, L., 2005. A typology of public engagement mechanisms. Science, Technology, & Human Values, 30 (2), pp. 251-290.
Sager, T., 2002. Deliberative planning and decision making: an impossibility result. Journal of Planning Education and Research, 21, pp. 367-378.
Sarewitz, D., 2004. How science makes environmental controversies worse. Environmental Science & Policy, 7, pp. 385-403.
Short, J.F. & Rosa, E.A., 2004. Some principles for siting controversy decisions: lessons from the US experience with high level nuclear waste. Journal of Risk Research, 7 (2), pp. 135-152.
Shrader-Frechette, K., 1991. Risk and rationality: philosophical foundations for populist reforms. Berkeley: University of California Press.
Shrader-Frechette, K., 1994. High-level waste, low-level logic. Bulletin of the Atomic Scientists, pp. 40-45.
Shrader-Frechette, K., 1995. Evaluating the expertise of experts. Risk, 6 (115), pp. 115-126.
Shrader-Frechette, K., 1997. Hydrogeology and framing questions having policy consequences. Philosophy and Science, 64, pp. 149-160.
Shrader-frechette, K., 2002. Risky business: nuclear workers, ethics, and the market-efficiency argument. Ethics & the environment, 7 (1), pp. 1-22.
Shrader-Frechette, K., 2005. Property rights and genetic engineering: developing nations at risk. Science and Engineering Ethics, 11, pp. 137-149.
Siegrist, M., Stampfli, N., Kastenholz, H. & Keller, C., 2008. Perceived risks and perceived benefits of different nanotechnology foods and nanotechnology food packaging. Appetite, (51), pp. 283-290.
Sjöberg, L., 1999. Risk perception by the public and by experts: a dilemma in risk management. Human Ecology Review, 6 (2), pp. 1-9.
Sjöberg, L., 2004. Principles of risk perception applied to gene technology. Science & Society, 5, pp. 47-51.
Slovic, P., 1987. Perception of risk. Science, 236, pp. 280-285.
Slovic, P., 2000. The perception of risk: risk, society, and policy series. London: Earthscan.
Slovic, P. & Weber, E., 2002. Perception of risk posed by extreme events. Risk Management strategies in an Uncertain World, pp. 1-21.
Slovic, P. et al, 1981. Acceptable risk. Cambridge: The MIT Press.
Slovic, P., Flynn, J. H. & Layman, M., 1991. Perceived risk, trust, and the politics of nuclear waste. Science, New Series, 254, pp. 1603-1607.
Smith, J.M., 2003. Seeds of deception: exposing industry and government lies about the safety of the genetically engineered foods you’re eating. Fairfield: Yes! books.
Stern, P.C. & Fineberg, H.V., 1996. Understanding risk: informing decisions in a democratic society. Washington, D. C.: National Research Council, Committee on Risk Characterization, National Academy Press.
Stirling, A., 1999. Risk at a Turning Point? Journal of Environmental Medicine, 1, pp. 119-126.
Stirling, A., 2009. Ciencia, precaución y evaluación de riesgos: hacia un debate más constructivo. En: C. Moreno, ed. 2009. Comunicar los riesgos. Ciencia y tecnología en la sociedad de la información. Madrid: Biblioteca Nueva, pp. 327-346.
Tardiff, R.G. et al, 2009. Derivation of a drinking water equivalent level (DWEL) related to the maximum contaminant level goal for perfluorooctanoic acid (PFOA), a persistent water soluble compound. Food and Chemical Toxicology, (47), pp. 2557–2589.
Taroni, F., Garbolino, P., Aitke, C. & Biederman, A., 2006. Bayesian networks and probabilistic inference in forensic science. West Sussex: Willey.
The Royal Society, 2004. Nanoscience and nanotechnologies: opportunities and uncertainties. Disponible en: http://www.nanotec.org.uk/report/.pdf [Consultado el 3 de marzo de 2009].
Thompson, P.B., 2007. Food biotechnology in ethical perspective. Dordrecht: Springer.
Venn, J., 1876. The logic of chance. London: Macmillan and Co.
Verón, E., 1983. La Construcción del acontecimiento. Buenos Aires: Gedisa.
von Mises, R., 1981. Probability, statistics and truth. New York: Courier Dover Publications.
Winder, A.E., Stanitis, M.A. & Stoddard, A.M., 1988. After Chernobyl: how U.S. physicians respond to radioactive fallout. Public Health Reports, 103 (2), pp. 128-135.
Wing, S., 2003. Objectivity and ethics in environmental health science. Ethics and Environmental Health, 111 (14), pp. 1809-1818.
Wiser, I. & Balicer, R.D., 2005. Introduction to bioterrorism risk communication. En: M.S. Green et al, eds. 2005. Risk Assessment and Risk Communication: Strategies in Bioterrorism Preparedness. Dordrecht: Springer, pp. 103-116.
Wood, A.F. & Smith, M.J., 2005. Online communication: linking technology, identity, and culture. New Jersey: Lawrence Erlbaum Associates Publishers.
Wynne, B., 1991. Knowledges in context. Science, Technology, & Human Values, 16 (1), pp. 111-121.
Wynne, B., 1992. Uncertainty and environmental learning. Global Environmental Change, 2 (2), pp. 111-127.
Zadeh, L.A., 1965. Fuzzy sets. Information and Control, 8, pp. 338-353.
Zadeh, L.A., 1981. Possibility Theory and Soft Data Analysis. Disponible en: http://www-bisc.cs.berkeley.edu/zadeh/papers/Possibilitytheory-1981part%201.pdf [Consultado el 4 de marzo de 2007].
Zadeh, L.A., 1984. Fuzzy probabilities. Information Processing & Management, 20 (3), pp. 363-372.
Zanoni, L., 2008. El imperio digital. Buenos Aires: Ediciones B.
Zwick, M.M. & Renn, O. eds., 2002. Perception and Evaluation of Risks. Stuttgart: Center of Technology Assessment.