Loading…

Flash Player 9 (or above) is needed to view presentations.
We have detected that you do not have it on your computer. To install it, go here.

Like this document? Why not share!

1 controversias etico tecnologicas (2)

on

  • 854 views

Lectura CTS unidades 3a y 4a

Lectura CTS unidades 3a y 4a

Statistics

Views

Total Views
854
Views on SlideShare
815
Embed Views
39

Actions

Likes
0
Downloads
5
Comments
0

2 Embeds 39

http://martapalaciocts1.blogspot.com 37
http://www.martapalaciocts1.blogspot.com 2

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

1 controversias etico  tecnologicas (2) 1 controversias etico tecnologicas (2) Document Transcript

  • Diálogos de Bioética 12/junio/2007www.dialogos.unam.mx Controversias tecnocientíficas y valoración social del riesgo Jorge E. Linares Salgado En los últimos años la relación entre la sociedad y la tecnociencia1 se ha modificado debido a la creciente complejidad de los riesgos tecnológicos y a la dificultad de evaluarlos adecuadamente. Los riesgos que genera la tecnociencia contemporánea no resultan sólo de “errores humanos” o de fallos en los diseños, sino de lacreciente complejidad de efectos encadenados entre las acciones sociales y los fenómenosnaturales. Dichos riesgos han sobrepasado nuestra capacidad de previsión porque, como loseñaló Charles Perrow,2 la normalización del accidente es una característica de los sistemastecnológicos de alta complejidad.Controversias tecnocientíficas La tecnociencia contemporánea se desarrolla en medio de controversias entre losdiversos agentes sociales que participan en su conformación. Hemos visto intensos debatessobre nuevos y complejos riesgos derivados de las innovaciones tecnológicas. En algunos casosse ha logrado cierto consenso sobre lo que habría que evitar por el momento, medianterestricciones y moratorias, por ejemplo, sobre la clonación reproductiva. Pero el debatecontinúa en el caso de la producción de OGM o transgénicos, o bien sobre el uso deembriones para investigación con células madre. No menos controversial ha sido el debate1 Véase Echeverría, Javier, La revolución tecnocientífica, Madrid, FCE, 2003.2 Perrow, Charles, Normal accidents. Living with High-Risk Technologies, Princeton, N.J., 1984. 1 de 9
  • sobre la energía nuclear como sustituta de los hidrocarburos, sobre las acciones para enfrentarel cambio climático o la evaluación, todavía incipiente, de los riesgos ambientales y biológicosderivados de la nanotecnología. Estas controversias sociales se han generado a partir de discrepancias en lasvaloraciones sobre los riesgos tecnocientíficos. En años anteriores se subestimaban los riesgos,y sólo la evidencia de daños a la salud o al medio ambiente era un motivo justificado pararetirar o modificar una tecnología. Por el contrario, se perfila en nuestros días un nuevocontrato entre la sociedad y la tecnociencia que busca reducir los riesgos, mediante ladeliberación y el control público, así como distribuir de modo justo los beneficios de lasinteracciones entre la tecnociencia y la naturaleza. La Declaración de Budapest de 1999, frutode la reunión del International Council for Science, que promovió la UNESCO, expresa ya losobjetivos de ese nuevo “contrato social” para la ciencia y la tecnología en el siglo XXI. Esa nueva relación entre la sociedad y la tecnociencia requiere un marco ético deprincipios con el fin de establecer criterios generales para enfrentar, en lo posible, una serie deproblemas que están implicados en cualquier procedimiento de resolución de controversias,los cuales se vinculan, en mi opinión, directamente con el problema de la percepción yevaluación social del riesgo. De una adecuada manera de enfrentar las controversiasdependerá la viabilidad de alcanzar acuerdos y consensos mínimos (pero que no eliminanalgunos disensos insuperables) entre los diversos agentes que participan en el desarrollo de latecnociencia. Sin embargo, me parece necesario reconocer que no todas las controversiastecnocientíficas tienen solución, ya que las distintas valoraciones sociales del riesgo pueden serirreductibles entre sí. Por eso, las controversias pueden permanecer abiertas, aunque se hayanintroducido ya las innovaciones en cuestión. Pero esto es deseable sólo a condición de que sealcance un consenso básico que permita monitorear y regular las innovaciones que son objetode la controversia, para reactivar el debate en cuanto surjan nuevas evidencias científicas sobreel problema. Un requisito esencial para la resolución de las controversias tecnocientíficas reside enuna racionalidad democrática y plural, que permita la equidad entre una diversidad deintereses y valoraciones sociales, y que proteja el derecho a disentir y a seguir evaluando losefectos de las tecnologías. Tal tipo de racionalidad es compatible con un modelo decontroversia abierta y, en algunos casos, permanente, que favorezca y estimule el debateargumentado desde diversas perspectivas sociales y culturales.
  • Ahora bien, las controversias sobre el desarrollo tecnológico implican nuevosproblemas de gestión política de orden nacional e internacional. La participación social en laevaluación de los riesgos del mundo tecnológico no puede darse como un proceso derepentina “iluminación” colectiva, es más bien fruto de un largo proceso de cambio culturalpara construir una tradición de deliberación pública. Además, es necesario tener en cuenta queen las controversias intervienen tanto la “subjetividad del riesgo objetivo”3 como la“objetividad del riesgo subjetivo”4, pues a medida en que la sociedad posea mayor información(no siempre adecuada o bien comprendida) que recibe principalmente de los medios masivosde comunicación, se generará una discrepancia entre los riesgos objetivos (calculables hastacierto punto) y la construcción intersubjetiva de los mismos. La naturaleza de los riesgos depende, pues, de nuestros conocimientos y de nuestrosvalores, de juicios epistémicos y éticos.5 Pero, como sostiene Hans Jonas: “sólo sabemos quéestá en juego cuando sabemos que está en juego”.6 Valorar un riesgo implica, por tanto, co-construirlo con quienes creen en su posibilidad. Corresponde a la sociedad entera, y no sólo alos científicos y expertos, emprender un proceso heurístico para desocultar los riesgostecnológicos de mayor envergadura. En dicho proceso heurístico puede actuarse conextremada precaución y, eventualmente, caer en “falsos positivos” por un error de evaluaciónsocial del riesgo. Pero quizá nuestra percepción del riesgo ha cambiado en los últimos años, yse ha vuelto más aguda, por la sencilla razón de que los riesgos objetivos han aumentado en sucomplejidad. Lo que refuerza la percepción social del riesgo y, por ende, la intensidad de lascontroversias, son los errores y negligencias que se han cometido en catástrofes anteriores(Chernobyl sigue siendo el prototipo), pero también contribuye la inevitabilidad del accidentetecnológico en una sociedad que ha incrementado enormemente su capacidad de intervenciónen la naturaleza entera y, por tanto, se ha vuelto consciente de la mayor imprevisibilidad de losefectos de sus acciones tecnológicas.3 Cfr. López Cerezo, J. /Luján López, J., Ciencia y política del riesgo, Alianza, Madrid, 2000, cap. 5.4 La objetividad del riesgo se plasma en estadística y cálculo de probabilidades, mientras que la intersubjetividaddel riesgo se basa en la experiencia de vivir el desastre, la percepción del daño ya vivido en carne propia.5 López Cerezo, J., op. cit., p. 86.6 Jonas, Hans, El principio de responsabilidad, Herder, Barcelona, 1995.
  • Ahora bien, la percepción colectiva de un riesgo razonablemente aceptable por todospara poder resolver las controversias, dependerá no sólo del avance de la investigacióncientífica para aportar explicaciones e información relevantes, sino también de la gestiónpolítica de los riesgos, del nivel de difusión y comprensión social de la información, de losprocedimientos de legitimación de las innovaciones tecnológicas, así como de la capacidad dereflexión ética de las comunidades involucradas. Por eso, las controversias tecnocientíficas constituyen un gran desafío mundial queimplica democratizar la producción y difusión del conocimiento científico, así como adecuarlos procedimientos y las instituciones políticas para lograr una participación ciudadana activaen los procesos de innovación y desarrollo tecnocientífico. La idea de que el progresotecnológico sólo puede ser guiado por una élite tecnocrática ha mostrado ya sus consecuenciasmás funestas. En torno a algunas controversias se han logrado acuerdos pragmáticos (por ejemplo, elProtocolo de Kyoto para la disminución de los gases que causan el efecto invernadero) que noimplican compromisos políticos definitivos, y a veces ni siquiera compromisos epistémicos,debido a la imposibilidad de llegar a una valoración unánime sobre los riesgos. Si bien losacuerdos de tipo pragmático son necesarios y, en ocasiones, parecen la única vía para avanzaren la solución de los problemas mundiales, su provisionalidad puede favorecer el predominiode los intereses de los grupos económicos y políticos más influyentes en el mundo. De hecho,esto ha sucedido ya, desde mi punto de vista, en el debate sobre bioseguridad en lo querespecta a la regulación y etiquetado de productos que contienen transgénicos. Conviene además tener en cuenta tres situaciones ambiguas o incluso paradójicas en laresolución de las controversias. 1. Ambivalencia de escenarios futuros de riesgos mayores. En los debatestecnocientíficos la prevención de riesgos puede caer en la paradoja de la profecía catastrofista.Si hacemos caso a esas profecías y establecemos medidas precautorias a tiempo, el dañoprobablemente no sucederá y la profecía caerá en el descrédito haciéndonos inmunes a nuevasadvertencias. Si no hacemos caso, el cumplimiento de la profecía sólo comprueba que laposibilidad existía y que no fuimos capaces de darle crédito. Como decía Jonas: “en el fracasode la profecía reside el éxito de la precaución”. Las profecías catastrofistas sobre riesgostecnológicos mayores movilizan a sectores sociales muy activos, pero polarizaninevitablemente el debate con elementos ideológicos y, a veces, irracionales. Una sociedadsólo puede actuar con efectividad contra los riesgos tecnológicos si siente efectivamente un
  • profundo temor de que ocurran escenarios catastróficos. Pero en la medida en que unasociedad se movilice para reducir los riesgos mayores, la profecía catastrofista se desactiva yproduce un efecto de “anestesia” a la comunidad, la cual puede ya no percibir otro tipo deriesgos menos evidentes, quizá ocultos. De este modo, tanto la minimización tradicional delriesgo como las profecías catastrofistas hacen más vulnerable a cualquier comunidad ante losriesgos mayores del desarrollo tecnocientífico. 2. Incremento del riesgo en la medida en que actuamos para evitarlo. Además de lodicho en el párrafo anterior, cada política precautoria, cada nueva norma o regla de seguridadincrementa la complejidad de los sistemas tecnocientíficos y agrega insospechados factorescausales de nuevos riesgos. Cada intervención que decidamos se involucra con nuevos riesgos;pero no actuar a tiempo parece comportar el mayor de ellos. 3. Beneficios inmediatos y evidentes, riesgos perdurables y ocultos. Los riesgos delmundo tecnocientífico se extienden a largo plazo y no son evidentes. Se requiere conocimientocientífico e instrumentación técnica para calcular su probabilidad. El conocimiento del riesgose ha vuelto muy especializado. En cambio, los beneficios inmediatos de las innovacionestecnológicas son ostensibles e inmediatas, y aparentemente pueden llegar a todos.Principios éticos para la resolución democrática de las controversias Para evitar el predominio de las valoraciones centradas sólo en los intereses mercantilesy militares, o en las visiones de beneficios a corto plazo en las decisiones sobre latecnociencia, requerimos crear procedimientos de participación ciudadana, que no sóloincluyan a los expertos científicos, sino a todos individuos afectados que puedan participar enel debate. Considero que un marco ético mínimo para ello estaría compuesto por cuatroprincipios prima facie,7 a condición de que se establezca un criterio de mínima satisfacción delos contenidos de todos ellos.8a) Principio de responsabilidad. Si queremos experimentar con nuevas entidades artificiales(como los OGM, partículas nanotecnológicas, clones o embriones para investigación)78 Estos principios están basados en los que se han formulado como base de la bioética. En tanto principios, sólorepresentan el marco general para orientar las discusiones en el intento de resolver las controversiastecnocientíficas.
  • tendremos que asumir responsabilidades mayores, y regulaciones globales más estrictas quelas que usualmente existen con otros artefactos que no poseen tan alto grado de organicidad ode complejidad. Se trata de una responsabilidad por la complejidad artificial que hemoscreado. Los nuevos artefactos, derivados de la biotecnología o la nanotecnología, por ejemplo,no pueden ser análogos a entidades “naturales”, pues su constitución material ha sidointervenida y han sido producidos con la intención de conferirles un fin técnico; por ello, serequiere un proceso de análisis y discusión de su estatus específico. La tecnociencia sedistingue por su capacidad para instrumentalizar materia orgánica o para reconfigurar materiainorgánica, introduciendo nuevas formas de complejidad que no tienen precedentes en lanaturaleza. En ello hay riesgos que debemos analizar. La tecnociencia ha logrado que unorganismo pueda ser instrumentalizado desde su concepción: podemos utilizar embriones ydesecharlos como si fueran jeringas de plástico, podríamos producir clones humanos oanimales con la intención expresa de que sirvieran exclusivamente como una reservapersonalizada de órganos. Sobre la base del reconocimiento de la nueva complejidad artefactual puedenacordarse y negociarse regulaciones y controles globales, pero no prohibiciones absolutas,como de hecho se han intentado en el Protocolo de Cartagena sobre bioseguridad. La responsabilidad implica impulsar el desarrollo de investigaciones científicasindependientes de los intereses mercantiles y de los poderes políticos y militares. El objetivo deesta investigación básica consiste en prevenir y anticipar los efectos negativos de laintervención tecnológica, así como publicar y difundir lo que se sabe sobre los riesgos y daños,para que la sociedad tome decisiones autónomas, mediante procedimientos democráticos queinvolucren a los directamente afectados. Por otra parte, la responsabilidad también consiste en hacerse cargo, en este caso, deldaño ya provocado a la naturaleza o a la salud humana, para remediarlo en lo posible y evitarnuevos problemas. El carácter complejo de los nuevos artefactos que se introducen en el mundo implicaque, por responsabilidad socialmente compartida, debe ponerse límites a algunos interesessociales (en principio legítimos) en dichas biotecnologías, si existen riesgos de consideración.La primera regla derivada de la co-responsabilidad nos indicaría que los proyectostecnocientíficos deben ser sometidos al escrutinio público, y al debate entre diferentes agentessociales para que se garantice la seguridad y un nivel de riesgo aceptable, en función deintereses legitimados y consensuados (la salud, la bioseguridad, la protección ambiental, etc.).
  • b) Principio de precaución. Dado el margen de incertidumbre con que actúa la tecnociencia,se ha postulado el principio de precaución como un conjunto de medidas que tienden amodificar, suspender o retirar un producto tecnocientífico cuando éste implique la posibilidadde un peligro o efecto perjudicial para el medio ambiente o para la salud humana, aunque noexistan pruebas científicas contundentes, y si el posible daño es incalculable u ostensiblementemayor al beneficio proyectado. El principio de precaución se basa en riesgos inciertos pero noinsignificantes. Se debería aplicar cuando ni siquiera puede prevenirse un daño conocido, eimplica una inversión de la carga de la prueba para la introducción de una innovacióntecnocientífica. El principio de precaución no rechaza todo riesgo y todo tipo de daño que sea efectode una acción tecnológica, ante todo, porque muchos de los efectos son imprevisibles; sinoque indica que el daño o mal esperado no debe ser incalculable u ostensiblemente mayor albeneficio proyectado en el tiempo. Los daños y riesgos deben mantenerse en un nivelsocialmente aceptable, siempre y cuando no impliquen una distribución injusta entre losmiembros de la comunidad. Es decir, también se debe considerar como riesgo la mayordesigualdad y la disminución de la autonomía individual o colectiva. La carga de la prueba se invierte: las innovaciones de alta complejidad tecnológicadeben analizarse para averiguar si conllevan riesgos mayores. Si no existen evidencias deriesgos mayores (ni físicos, biológico-genéticos, sociales o políticos), entonces lo que procedesería establecer regulaciones prudenciales, revisables y reversibles en el transcurso de lainvestigación y del debate ético-político, que limiten y regulen los intereses individuales ygrupales para evitar la posibilidad de algún escenario de riesgo que implicara efectos contra loscuales no podríamos actuar.c) Principio de autonomía y consentimiento informado. Las acciones tecnológicas debenproteger, favorecer y potenciar la autonomía individual y grupal para que cada sujeto decida,con la información suficiente y de modo responsable, qué tipo de riesgos es aceptable para símismo y para su comunidad. En este sentido, es esencial el derecho de los ciudadanos adeliberar sobre las innovaciones tecnocientíficas y a elegir los riesgos que están dispuestos aaceptar con conocimiento de causa, desde sus propios parámetros culturales. Los individuos ylas comunidades tienen derecho a rechazar cualquier innovación tecnológica, siempre que noafecten a terceros. Asimismo, se debe asegurar la independencia para investigar, debatir y publicar todo loreferente a las controversias tecnocientíficas. Aquí la intervención de los medios de
  • comunicación y de las instituciones de educación es crucial para potenciar el juicio informadoy la decisión autónoma de todas las personas involucradas.d) Principio de justicia distributiva de los beneficios tecnológicos, pero también de los riesgos.Los intereses individuales con respecto al desarrollo y aprovechamiento de los recursostecnológicos tienen que ser regulados por la distribución equitativa de oportunidades y debienes básicos de interés público. Además, el principio de justicia debe proteger lascondiciones para que los ciudadanos puedan ejercer su derecho de autonomía, individual ycolectivamente. En el mundo tecnológico son los más pobres, los menos informados, los másmarginados del desarrollo, quienes resultan los últimos beneficiarios de los bienes tecnológicosy los receptores privilegiados de sus males. Por ello, el principio de justicia prescriberedistribuir los beneficios y los riesgos para consolidar la cooperación mundial en laproducción y transferencia del conocimiento y de las tecnologías. Es posible y necesarioformular acuerdos de justicia global para enfrentar los riesgos derivados del desarrollotecnológico mediante legislaciones ambientales, sanitarias, industriales, farmacológicas, etc.Conclusión Así pues, los cuatros principios buscan introducir en la racionalidad tecnológica valoresético-políticos para reorientar y someter a un examen público aquellas tecnociencias queposean riesgos de gran magnitud sobre la naturaleza y la vida humana.9 Intentan contrapesar elpredominio de valores mercantiles, militares y de poder político que han impregnado a latecnociencia. Mediante las controversias es posible que se transparenten los fines y losintereses de todos los agentes que impulsan el desarrollo tecnocientífico, para que lleguen a unequilibrio razonable. Pero esto sólo es posible si se difunde ampliamente la información y seestimula el debate público para que la sociedad pueda deliberar y evaluar las consecuencias,beneficios y riesgos de cada innovación tecnológica.9En particular, las controversias serán decisivas en la tecnomedicina, la ingeniería genética y la biotecnología,así como en diversas modalidades de tecnociencias de gran “impacto social” (ciencias cognitivas yneurociencias, farmacología, realidad virtual, tecnologías de la información, tecnologías educativas,nanotecnología, etc.).
  • Para tales fines, es factible poner en práctica en el ámbito político diversosmecanismos de participación democrática y de contrapoder ciudadano que interactúe con lasinstituciones convencionales (los parlamentos, los sistemas judiciales y las agenciasgubernamentales). En suma, requerimos democratizar la tecnociencia para que ésta, a su vez,democratice a la sociedad, porque una tecnociencia en constante debate público constituye,de hecho, una reinvención de la democracia actual mediante un nuevo contrato social que secentre en consensos ciudadanos adoptados tras un proceso deliberativo y argumentado.