01 que es la epistemologia

191 views
164 views

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
191
On SlideShare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
2
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

01 que es la epistemologia

  1. 1. Revisado por LPH: 19.12.2008 ¿Qué es la Epistemología? Puede afirmarse que la Epistemología como disciplina filosófica cultivada conun significativo nivel de autonomía data de la tercera década del siglo XX. Después delos años veinte, la filosofía de la ciencia de corte tradicional sufre una modificaciónsustantiva con la adopción de la Lógica Matemática como un nuevo instrumento deanálisis del lenguaje científico. De esta manera la discusión filosófica, que siempre seformuló en el lenguaje natural, cambió de medio expresivo y se transformó en undiscurso que usaba intensamente lenguajes formalizados. Así puede diferenciarse, demodo observacional, los textos del Tractatus Logico Philosophicus de Wittgenstein, dela Lógica de la Investigación Científica de Popper o de la Introducción a la FilosofíaMatemática de Russell de libros tradicionales y famosos como la Crítica de la RazónPura de Kant, que están escritos sin recurrir a lenguaje formalizado alguno. Elintroductor de esta nueva tendencia formalista y rigorista en la filosofía de la ciencia fueGottlob Frege, con sus escritos esclarecedores sobre los fundamentos de la Matemáticay, en particular, sobre el concepto de número natural. Y entre los más entusiastasdifusores y defensores de este nuevo estilo de pensar y hacer filosofía se encontraron losmiembros del llamado Círculo de Viena o escuela neopositivista, que liderados porMoritz Schlick, en sus inicios, asumieron el proyecto logicista diseñado por Frege, elmismo que trató de ser desarrollado independientemente por Russell y Whitehead en sufamosa obra titulada Principia Mathematica.La filosofía cultivada por los neopositivistas y por sus adversarios, como Karl Popper,fue reconocida progresivamente como epistemológica a través de sus versiones enInglés, pues la palabra ‘Epistemología’ parece haber sido usada muy poco en alemán,idioma en el que el término dominante sigue siendo ‘Erkenntnistheorie’ o, en sudefecto, ‘Wissenschaftstheorie’, que corresponden a lo que en español conocemos comoteoría del conocimiento y teoría de la ciencia, respectivamente. Ciertamente, la segundadenominación está mucho más cerca del tipo de filosofía que fueron perfilando losneopositivistas, pues ellos no estuvieron centralmente interesados en el estudio de lafacultad de conocer, como si lo estuvo Kant, sino en el análisis del producto más 1
  2. 2. elaborado de tal supuesta facultad, esto es, del conocimiento científico, el mismo que seplasma, objetivamente, en conjuntos de proposiciones o enunciados. Cuando éstos estánadecuadamente sistematizados, bajo un orden lógico, constituyen una teoría quepresenta la estructura de un sistema hipotético-deductivo, que es el nombre con el queactualmente se conoce a la formulación axiomática del conocimiento, tarea que fuecumplida históricamente, por vez primera, en el campo específico de la geometría, porEuclides (siglo III A. C.) en su obra genial conocida como Elementos. De esta manera, la Epistemología como disciplina filosófica rigurosa ha surgidoproponiendo el modelo hipotético deductivo como instrumento conceptual adecuadopara dar cuenta de la naturaleza del conocimiento científico y para establecer un criteriode cientificidad, denominado por Popper, de demarcación, que permita decidir cuándoun conjunto de afirmaciones tiene un nivel adecuado de organización científica y cuándono. Los términos de la discusión así planteada obligan a recurrir a lenguajes lógicos, amodalidades de axiomatización, a ejemplos que generalmente los proporciona laMatemática y la Física, y a la discusión de las llamadas propiedades metateóricas deconsistencia, compleción, decidibilidad, deducibilidad, satisfabilidad, etc. Asimismo, elacceso a este nuevo contexto demanda de una formación especializada y de unentrenamiento para adquirir capacidad operativa que facilite el manejo de sistemassimbólicos de inferencia y cálculo.Sin embargo, el establecimiento de un nuevo estilo de pensar sólo es posible si desplazaal vigente o dominante. En este caso, parafraseando a Thomas Kuhn, diremos que elparadigma hipotético-deductivo desplazó al paradigma comprensivo, que gozaba derespetabilidad en los años 20 y que había consagrado la división entre ciencias delespíritu y ciencias de la naturaleza, clasificación que fue cuestionada por losneopositivistas que aspiraban a una ciencia unificada, nomológica, explicativa ypredictiva. El paradigma comprensivo había sido instaurado por Dilthey para lainvestigación histórica y para el ámbito de las ciencias humanas, cobrando particularrelevancia en el campo de la psicología. Dilthey sostenía que las ciencias naturales secaracterizaban por explicar y predecir y las ciencias del espíritu por comprender, lo cualfue inaceptable para los neopositivistas. Estos sostuvieron que un conocimiento quecareciera de capacidad explicativa no era digno de llamarse científico. De otra parte, laescuela de Dilthey calificó a las ciencias del espíritu de ideográficas para así eximirlas 2
  3. 3. de la obligatoriedad de expresar sus conocimientos en forma de leyes o enunciados quepretendan validez universal. Este segundo aspecto también fue objetado por losneopositivistas que resolvieron el problema, suscitado por las excepciones queconllevan las generalizaciones en el sector de las ciencias humanas, recurriendo a laestadística y al cálculo de las probabilidades, que se convirtió en el medio expresivomás utilizado por las ciencias factuales o empíricas. La filosofía de Popper, una de las fuentes de lo que hoy conocemos comoEpistemología, siempre enfatizó sus discrepancias con las tesis neopositivistas, sinembargo compartió con ellas los temas de discusión, el uso de instrumentos lógico-matemáticos, la concepción lógica de la estructura de las leyes científicas y el rechazo almodelo comprensivo y al método basado en el “verstehen” (comprender). Posiblementeel tema de mayor discrepancia entre Popper y los dos más destacados neopositivistas,Carnap y Reichenbach, fue el referente a la inducción. Según Popper no existe pruebainductiva de la verdad de proposición factual alguna, en términos lógicos estrictos.Consecuentemente, todo lo que puede hacer el investigador, con rigor, es refutar sushipótesis o, al menos, intentar hacerlo. De esta manera sólo es posible probarlógicamente la falsedad de una hipótesis y ello es compatible con el progreso científicoporque el investigador puede aprender de sus errores. Empero, para Carnap yReichenbach si existía la posibilidad de construir la ciencia inductivamente aunque nonecesariamente utilizando hipótesis verdaderas. Ellos propusieron como alternativa eluso de hipótesis a las que se les pueda asignar un valor de probabilidad, dentro de unsistema de cálculo, que fue de tipo lógico para Carnap y de tipo estadístico frecuencialpara Reichenbach. Las variaciones, antes anotadas, no son ciertamente obstáculos para sostener queel modelo hipotético-deductivo es un aporte tanto de los neopositivistas como dealgunos de sus rivales, tal es el caso de Popper. Y afirmamos que es un genuino aportedebido a que ha viabilizado la reconstrucción lógica del conocimiento en términos quenos aproximan a decidir con rigor su verdad o falsedad y ha facilitado, notablemente, lacomunicación al interior de la comunidad filosófica y de la comunidad científica y,también, entre ambas. Particularmente han sido los científicos naturales, como Einstein,Monod o Heisenberg quienes han mostrado especial interés por la nueva filosofíaepistemológica e inclusive han participado directamente en su discusión. En el ámbito 3
  4. 4. de las ciencias humanas han sido los conductistas, los funcionalistas y los representantesde la revalorada psicología interconductual quienes han visto con mayor simpatía elmodelo hipotético-deductivo. Lo mismo se puede decir de quienes usan el modelosistémico. En el campo de la Matemática moderna la afinidad por el modelo hipotético-deductivo ha sido notable desde los tiempos de Peano y su axiomatización de laaritmética. La obra Principia Mathematica de Whitehead y Russell así como lassucesivas axiomatizaciones de la teoría de conjuntos de Zermelo, Fraenkel y vonNeumann son ejemplos ya no de afinidad sino de trabajo instaurador de la versióncontemporánea del modelo hipotético-deductivo. Puede afirmarse, sin riesgo de error,que ésta es la perspectiva que gobierna el ámbito total de los trabajos actuales en Lógicamatemática, con independencia de la rama o tendencia que se cultive. El proyectofrancés de sistematización y reconstrucción de la Matemática, realizado por el grupoBourbaki, es otro importante ejemplo que ilustra la orientación antes descrita. De otra parte, el modelo hipotético-deductivo ha influido notablemente en elquehacer metodológico que se ha intensificado durante los últimos veinticinco años.Conocidos manuales de investigación en ciencias sociales y de la conducta, comoInvestigación del comportamiento de Fred Kerlinger, incorporan como esquema lospasos conducentes a la obtención de una teoría de forma hipotético-deductiva. Otrostrabajos sobre los fundamentos del método científico, como el libro La InvestigaciónCientífica de Mario Bunge, orientados más hacia los aspectos teóricos que a losoperativos, también responden a esta tendencia. Dentro de ellos se recoge resultados dela discusión iniciada por los neopositivistas sobre la naturaleza de los conceptoscientíficos, los niveles del lenguaje científico y las propiedades que debe satisfacer unabuena teoría. En este sector la influencia de Popper se hace patente en el hecho de que,prácticamente, la expresión “verificación de hipótesis” ha desaparecido del vocabulariometodológico para dejar su lugar a la noción de contrastación de hipótesis, término conel cual se ha traducido a Popper al español. Asimismo, el llamado enfoque sistémico esinteligible como la aplicación de las transformaciones que se realizan dentro de unsistema lógico a procesos reales, entendidos como totalidades espacio-temporales, lasmismas que pueden ser organismos o máquinas. De este modo se produce la conversiónde un sistema de fórmulas, temporal y estático (el sistema lógico), en uno material ydinámico. 4
  5. 5. Las repercusiones antes descritas han destacado las posibilidades integradoras yunificadoras del modelo hipotético-deductivo, lo cual explica el afianzamiento de laEpistemología, como disciplina, a través del interés creciente que muestran lascomunidades científicas en sus aportes, que son en gran medida esclarecimientos. Enefecto, más inmediato resulta señalar los esclarecimientos que el trabajo epistemológicoha aportado a la ciencia que los nuevos hallazgos que ha propiciado. El ejemplo de lasparadojas de la teoría de conjuntos, resueltas por diferentes medios, como la teoría delos tipos de Russell; o las limitaciones del uso del concepto de verdad, puestas enevidencia por Tarski, son suficientes para ilustrar un aporte esclarecedor que haposibilitado poner fin a discusiones desorientadoras o reformularlas en términos quehagan posible soluciones precisas. En el nivel práctico, el esclarecimiento de lasinsolubles implicancias del término verificación ha posibilitado la propuesta deorientaciones metodológicas más productivas. Ello mismo ha conllevado el abandono deseguridades ingenuas y apriorísticas de cepa hegeliana y kantiana. El modelo hipotético-deductivo, ya sea en su versión inductivista representadaen su última fase por la teoría de la confirmación de Hempel, o en su versión noinductivista representada por la tesis de la falsibilidad de las hipótesis de Popper, escompatible con la conmensurabilidad de las teorías y con la aceptación de un progresocientífico o de un perfeccionamiento del conocimiento humano. Así una teoría T escomparativamente preferible a una W si T es capaz de explicar todos los hechos quepuede explicar W y además ciertos hechos que no son compatibles con W. Esto es, loshechos falseadores de W, no son hechos falsadores de T, pero, al mismo tiempo, elconjunto de posibles falsadores de T es diferente del conjunto vacío. Análogamente, unateoría T es lógicamente más general que una W si los axiomas de W son deducibles,como teoremas, desde los axiomas de T y no se cumple la situación inversa. De esto sededuce que el cambio científico se da cuando una teoría T es reemplazada por otra Wque posee mayor poder explicativo y mayor generalidad en relación con T. En caso deque T sea una teoría muy importante, este cambio constituye una revolución científica ypuede no ser suficientemente entendida, inmediatamente, por la comunidad deinvestigadores. Las críticas al modelo hipotético-deductivo y a sus correlatos teóricos segeneraron paralelamente al desarrollo de éste. Poincaré, por citar un caso notable, fue 5
  6. 6. duro crítico del proyecto logicista de Russell desarrollado en Principia Mathematica.Defendió, intuitivamente, la tesis de que el principio de inducción matemática no erareducible a proposiciones analíticas o puramente lógicas. Estuvo en lo correcto alformular esta conjetura pero no dispuso de medios adecuados para demostrarla. Hansido los desarrollos de la misma Lógica-matemática, a través de la teoría de modelos,los que algunos años después permitieron probar la existencia de estructurasmatemáticas no-inductivas, lo que ha conducido a demostrar de manera concluyente elcarácter no-analítico de dicho principio. Sin embargo, la crítica de Poincaré, tal vez, hayque entenderla como una objeción a una pretensión específica del modelo hipotético-deductivo y no al modelo mismo. Las objeciones radicales han venido de las canteras deThomas Kuhn quien en su libro, La estructura de las revoluciones científicas, hasostenido la inconmensurabilidad de las teorías científicas y sustituido el concepto deverdad de una teoría por el de vigencia de un paradigma de ciencia normal, entidadconceptual que, según Kuhn, posee un núcleo teórico pero que, además, tienecomponentes irracionales como, por ejemplo, una institucionalidad con sus jerarquías yautoridades. De esta suerte el cambio científico estaría más ligado al agotamientohistórico de un paradigma que a cuestiones relacionadas con la capacidad explicativa ola generalidad de las teorías. El concepto de verdad no sería determinante para decidir elcambio porque está sujeto, como los otros conceptos científicos, a loscondicionamientos del paradigma vigente. Consecuentemente, el cambio de paradigmatambién acarrea cambios en el concepto de verdad, el mismo que carecería de laobjetividad que presuponen los cultores del modelo hipotético-deductivo.Aparentemente, las consecuencias del punto de vista kuhniano coincidirían con la tesisde Tarski que circunscribe la definición de ‘verdad’ a un lenguaje L determinado yconcluye que no es posible establecer ningún criterio general de verdad. Empero, la tesisde Tarski presupone que existe, objetivamente, la necesidad de usar consistentemente elconcepto de verdad y que la contradicción es una deficiencia que inhabilita una teoría T.Ciertamente, la presencia de una contradicción no se anula quitándole vigencia sinoreestructurando el lenguaje de tal manera que sus reglas no la hagan posible. No es esteel lugar para abordar con detalle las objeciones de Kuhn sino sólo para anotar sus tesiscomo adversas a la solidez del modelo hipotético-deductivo, al cual el filósofo alemánStegmüller ha denominado “statement point of view” (punto de vista del enunciado),para oponerlo a posiciones historicistas, como las del mismo Kuhn, o genéticas como 6
  7. 7. las de Piaget. En lo que se refiere a este último, sus reservas no están dirigidas,propiamente, al modelo hipotético-deductivo en cuanto tal sino a sus insuficiencias y ala necesidad de complementarlo con los aportes de la investigación psicológicaexperimental para dar cuenta satisfactoriamente del conocimiento científico en suintegridad. Piaget considera al punto de vista del enunciado, hasta cierto punto,esclarecedor de la naturaleza lógica de la ciencia. Sin embargo, sostiene que unaaproximación más completa se logra si no sólo se analiza la lógica del resultado delproceso sino, también, la del proceso mismo que conduce a la producción de dichoresultado. En otras palabras, no sería suficiente analizar las teorías, pues paracomprenderlas en su integridad sería necesario examinar el proceso cognitivo que lasproduce, esto es, el modelo hipotético-deductivo debería ser complementado con unestudio psicogenético del conocimiento que ponga en evidencia las bases conductuales,mentales y ambientales que lo convierten en verdadero y que explican su organizaciónlógica. Una crítica, más radical, proviene de algunos representantes del pensamientodialéctico que consideran que el modelo hipotético-deductivo, se sustenta en una lógicaque se cumple en determinado segmento histórico del proceso de producción deconocimientos pero no en períodos de duración considerable, en los cuales se producenirremediablemente contradicciones que no anulan la fecundidad del proceso sino, alcontrario, garantizan saltos cualitativos que perfeccionan el conocimiento humano.Asimismo, las contradicciones no serían puramente formales sino ontológicas porocurrir en la realidad y reflejarse en el conocimiento. Consecuentemente, el modelohipotético-deductivo expresaría su unilateralidad al considerar a la contradicción comosinónimo de absurdo y de imposibilidad de racionalidad. De lo anterior se deduciría quela lógica que supla las deficiencias antes anotadas sería una que exprese el movimientototal de la realidad, vale decir, la llamada lógica dialéctica. Asimismo, desde esteángulo, el modelo hipotético-deductivo sólo podría tener alguna utilidad si se lo inscribedentro del marco del pensamiento dialéctico y se lo depura de todo aquello que seoponga a las leyes generales de la dialéctica. La objeción anterior asume la hipótesis de que la Lógica-matemática sólodispone del concepto que hoy se conoce como de consistencia simple, el mismo quecoincide con la concepción aristotélica de consistencia. Aunque no es lo usual, elmodelo hipotético-deductivo puede utilizarse sin modificaciones substanciales tolerando 7
  8. 8. un cierto nivel de contradicción posible, próximo a la contradicción dialéctica, para locual es suficiente recurrir al concepto de consistencia absoluta, que tiene mayorgeneralidad que el de consistencia simple y que puede utilizarse en sistemas lógicos sinoperador de negación explícito como los construidos usando el lenguaje de Nicod. Paraello es suficiente definir dentro de un lenguaje L, un sistema S, cuyo conjunto defórmulas es mayor que el conjunto de sus teoremas. Asimismo, se debe suprimir, dentrode este segundo conjunto, el clásico teorema que afirma que una contradicción implica acualquier fórmula. Este expediente sería suficiente para resolver la objeción de origendialéctico dirigida contra la lógica que usa el modelo hipotético-deductivo. Sinembargo, existe una inexactitud adicional que consiste en dar el mismo estatuto a lascontradicciones formales y a las ontológicas. Desde una perspectiva lógica estricta lasúnicas contradicciones relevantes son las que se producen en el lenguaje, vale decir, lasformales. Y ello debido a que con independencia de la concepción de la realidad queposeamos, resulta de necesidad inexcusable describirla de manera consistente o no-contradictoria, pues si dentro de la teoría T admitimos como igualmente verdaderas auna proposición A y a otra no-A, entonces el interlocutor estaría imposibilitado dedecidir cuál es el mensaje y no sabría a qué atenerse. Además, mediante la aplicación dereglas lógicas conocidas en la lógica estándar, la contradicción producida por A y no-Agenera otras tantas como deseemos, y así tendríamos B1, y no-B1, B2, y no-B2, y así,sucesivamente, de tal manera que una teoría contradictoria tiene como limitación elimposibilitar la comunicación científica fiable, pues igualmente puede afirmar laexistencia de ciertos hechos como negarla. Por lo tanto, la pretensión fundamental delmodelo hipotético-deductivo no es afirmar que la naturaleza o la realidad carecen decontradicciones sino que el discurso que las describe debe ser coherente o consistentepara posibilitar una comunicación científica fiable. Por lo tanto, en este nivel, lascontradicciones relevantes son las formales y son las únicas identificables con la nociónde absurdo. Por añadidura, el recurso a un sistema S, absolutamente consistente, no sehace con el propósito de introducir la presencia de contradicciones explícitas, sino conel de contar con un sistema de reglas lógicas que asegure que en caso de presentarseinesperadamente una contradicción de cierto tipo, la teoría en cuestión no quedaráautomáticamente inhabilitada, en tanto que una teoría T, absolutamente consistente, sediferencia de una teoría W, simplemente consistente, en que la primera no multiplicanecesariamente las contradicciones como sí lo hace la segunda. 8
  9. 9. Sin embargo, no es nuestra intención defender el modelo hipotético-deductivo aultranza sino solamente poner a prueba su temple frente a la crítica. Ello no esincompatible con reconocer dificultades reales como la suscitada por la historia, comodisciplina científica, que difícilmente puede ajustarse a la forma axiomática sin sufrirdesnaturalización cognoscitiva. Esto podría devolvernos a la distinción entre ciencias dela naturaleza y ciencias del espíritu, aunque no en los mismos términos que en la épocade W. Dilthey. Ello debido a que hay sectores de la Psicología, la Lingüística y laEconomía, entre otros, que pueden ser aproximados, en sus formulaciones finales, almodelo hipotético deductivo, el mismo que es más una manera de organizar elconocimiento que de producirlo. De otra parte, la decisión de eliminar a la historia deluniverso de la ciencia, por definición, no parece adecuada por la dosis de arbitrariedadque entraña. La dificultad, tal vez, radica parcialmente en que la historia tomada congeneralidad comporta el estudio de la evolución de la totalidad de lo humano. Distintaes la situación si definimos la tarea en términos más específicos como, por ejemplo, lahistoria del derecho, o la historia de la organización de la producción, o la historia de laciencia. Sin embargo, cuando se trata de la Historia del Perú, de la de América, o de laHistoria Universal, la situación es más compleja porque necesitamos un conjunto muygrande de criterios de relevancia para seleccionar lo que estimamos más significativodentro de un ámbito multívoco y de fronteras muy difusas. En dichos contextos lapreocupación por buscar leyes cede espacio a la preocupación específica por reconstruirhechos sociales, sus motivaciones e intencionalidades. Y si es verdad que lareconstrucción presupone la vigencia de leyes, éstas no tienen que ser históricas sinopueden pertenecer a los diversos dominios de las ciencias particulares como la Física, laQuímica, la Biología, la Lingüística, la Filología, etc. En este nivel, la interpretacióncomo método hermenéutico podría rigorizarse como una decodificación de signoslingüísticos e icónicos regulada por leyes generales. Las dificultades continúan cuandose pretende reconstruir una totalidad tan compleja como la Historia Universal o laHistoria de América. En este caso la tentación a recurrir a entidades metafísicas como el“Volksgeist” de Hegel es fuerte y puede llegarse a los extremos del nazismo o de todoslos etnocentrismos, cuyo denominador común es el poseer un núcleo irracional basadoen sentimientos y no en argumentos. La noción de totalidad, que es muy manejablecuando se la aplica a un organismo o a un sistema de trasmisión y procesamiento de 9
  10. 10. información, se convierte en una noción metafísica cuando se le aplica a grandes grupossociales bajo el rótulo de “sujeto colectivo” al que se atribuye intencionalidadesautónomas en relación con los sujetos concretos. El principio que afirma que el todo esmayor que la suma de las partes y posee propiedades que éstas no tienen por separado,puede sujetarse a control observacional en pequeñas dimensiones, pero tiende a asumircaracteres metafísicos cuando se hace extrapolaciones a grandes dimensiones,especialmente en el plano de las ciencias humanas. Es por ello que el holismo históricoes muy atractivo pero casi, inevitablemente, metafísico por atribuir propiedadesconstatables en totalidades pequeñas a macrototalidades, cuyos límites escapan adefiniciones rigurosas y cuyo comportamiento carece de indicadores observables. Losteóricos de los métodos comprensivos y de la empatía (Einfühlung) no parecen haberaportado, en su favor, nada más preciso que la recomendación de comprender, cadaelemento, dentro del sentido de la totalidad y comprender, la totalidad, en su soporteconstituido por sus elementos. Dadas las dificultades antes anotadas, la posibilidad más inmediata de rigorizarlos estudios históricos es desarrollarlos regionalmente a través de la arqueología,etnografía, historia económica, filología, paleontología, etc. Este proceder no conduciráa la instauración de sistemas hipotético-deductivos pero si a reconstrucciones cuyamayor o menor exactitud puede ser constatada con los hechos. Por ahora, elplanteamiento de la historia como ciencia global general suscita tantas dificultadescomo las que, presumiblemente, surgirían si se pretendiese una ciencia natural global.La diferencia la ha aportado el hecho de que ningún científico natural ha postulado lanecesidad de una ciencia natural global sino regional, como la física, la química, lamicrobiología, etc. Y esta decisión es un factor, no desdeñable, que ha posibilitadomejores niveles de precisión y rigorización a las diversas ramas de las ciencias naturalesen relación con las ciencias sociales. El otro factor que explicaría la debilidadgeneralizada de las ciencias sociales es que en este caso tanto el sujeto cognoscentecomo el objeto de estudio coinciden en el hombre, lo que facilita que los interesessociales en pugna, expresados a través de ideología, perturben la objetividad delconocimiento y, en muchos casos, lo desnaturalicen. Con consciencia de sus limitaciones, puede sostenerse que el uso flexible delmodelo hipotético-deductivo puede cumplir adicionalmente, con ventaja sobre otrasopciones, la función pragmática de viabilizar la comunicación entre investigadores, en 10
  11. 11. circunstancias en que la superespecialización nos mantiene ante el riesgo de dejardecisiones fundamentales a los que Ortega y Gasset llamó “sabios ignorantes”. Estepuede ser, por ahora, el medio de no perder la percepción de la totalidad sin debilitarexageradamente por ello el rigor lógico y observacional, evitando así caer en lainstauración de objetos metafísicos, que nos remitan a entidades que no son objetos denuestro conocimiento sino sub-productos creados por disfunciones de nuestra actividadcognoscitiva.En los años 60 del siglo XX se hizo notorio en la Filosofía Epistemológica unredimensionamiento de sus proyectos originales. Así, por ejemplo, el proyecto de laEnciclopedia para la ciencia unificada que fue formulado por el Círculo de Viena en sumanifiesto titulado Concepción Científica del Mundo fue dejado de lado en un contextoen el que la matemática probabilística sustituyó al lenguaje de las certidumbresnewtonianas y la antropología cultural, la lingüística y otras ciencias socialesadquirieron carta de ciudadanía pese a su distancia del método experimental Se localificó como el componente nuclear del conjunto de tesis filosóficas publicadas por losempiristas lógicos entre los años 20 y 30, las mismas que fueron denominadas por suscríticos la “Concepción recibida” de los neopositivistas “fisicalistas” que se propusieronla reconstrucción racional del conocimiento, con el objetivo de lograr su reorganizaciónlógica, inspirados en el método axiomático utilizado por Aristóteles, Euclides, Newton,Spinoza, Peano y Einstein, entre otros. De esta manera intentaron dotar al conocimientode fundamentos indiscutibles y convincentes como los que buscaron infructuosamenteDescartes a través de la duda metódica y Kant a través de los juicios sintéticos a priori.Paralelamente, la concepción lógica del lenguaje y del mundo sostenida en el TratactusLogico Philosoficus de Wittgenstein tendió a ser percibida como desactualizada con lacarga adicional de que su propio autor la sometió a duras criticas y propuso la tesis delos language games que minimizó los temas sintáctico-semánticos y enfatizó lospragmáticos y prescriptivos. De este modo el lenguaje natural, cotidiano u ordinariodesplazó al lenguaje científico de las preocupaciones de numerosos filósofos ingleses y,posteriormente, de las de un sector importante de los filósofos norteamericanos yalemanes. De manera análoga, los proyectos encaminados a construir una lógica de lainvestigación científica pasaron a un segundo plano, tanto los inscritos en la perspectiva 11
  12. 12. inductivista, representados por Reichenbach y Carnap, como los desarrollados dentro dela perspectiva no inductivista liderada por Popper.La preocupación por el análisis del cambio científico, la sustitución y elección deteorías, la denominada subdeterminación de teorías por los hechos, así como ladistinción entre ciencia y seudociencia dejaron un espacio mínimo a los esfuerzos deHempel, entre otros, por establecer una teoría y una metodología de la confirmación ode la corroboración de las hipótesis científicas. La difusión progresiva de los resultadosde la mecánica cuántica a través de la divulgación del principio de indeterminación deHeisenberg y de las tesis de la Escuela de Copenhague contribuyeron significativamenteal debilitamiento del uso del concepto de verdad en la ciencia pese a que el aporte deTarski había creado condiciones de claridad teórica y lógica para usarlo rigurosamenteen la Lógica y en la Matemática. Sin embargo, las seguridades proporcionadas por laconcepción semántica de Tarski quedaban al margen de la discusión ante el hechoconcluyente de que eran aplicables directamente a los lenguajes formales de la Lógica yde la Matemática, restricción que dificultaba seriamente aplicar la denominadaconvención T de Tarski a otras ciencias cuyas proposiciones se expresan en lenguajesocial y reclaman tener en unos casos contenido factual y en otros contenidofenoménico, ligados en lo principal a la capacidad de predecir exitosamenteobservaciones y no necesariamente de describir fidedignamente la denominada realidad.El pragmatismo de Quine a través de su conocido artículo Dos Dogmas del Empirismoreclamó haber refutado de manera definitiva la distinción kantiana entre juiciossintéticos y juicios analíticos que este autor atribuyó, sin mayores provisos, a los neo-positivistas. Pese a su notable autoridad como especialista en lógica, no concedióimportancia al hecho de que el concepto de afirmación analítica en Kant eraestrictamente semántico mientras que en primer Wittgenstein y en los neopositivistasfue estrictamente sintáctico y estructural, razón por la que se lo identificó con elconcepto extensional de tautología. De esta manera se entiende que en la concepciónkantiana el juicio analítico esté constituido por un predicado que se limita a serexplicativo del contenido semántico del sujeto mientras que para los neopositivistascareció de sentido hablar del poder explicativo de una tautología porque, simplemente,era semánticamente vacía o puramente estructural. 12
  13. 13. Tanto los discípulos de Quine como sus simpatizantes interpretaron apresuradamenteque los argumentos de Dos dogmas del empirismo habían asestado una estocadadefinitiva a la distinción entre ciencias formales y ciencias factuales introducida por la“Concepción recibida” y concedieron, sin reparar en la inconsistencia de laargumentación de su maestro, que los denominados problemas ―derivados de las tesisde Quine de la inescrutabilidad de la referencia, indeterminación de la traducción ysubdeterminación de las teorías por la evidencia empírica― constituían obstáculosgenuinos para hablar con fundamento de verdades científicas, surgiendo de esta maneralas llamadas posiciones deflacionistas que se propusieron sustituir la definiciónaristotélica del concepto de verdad, rescatada por Tarski, por la aceptación consensualde las teorías en base al éxito predictivo y a la utilidad. De esta suerte, lo que se soslayahasta la fecha es que si las tesis quineanas antes mencionadas fueran válidas, todaargumentación fundada en reemplazos por sinonimia, como la conocida ‘soltero’ = ‘nocasado,’ carecería totalmente de fuerza probatoria, inclusive para cuestionar latradicional analiticidad de cepa kantiana.Lo antes expuesto explica la reactualización del pragmatismo de Charles S. Peirce y ladifusión del denominado pensamiento posmoderno en Francia, Alemania y EstadosUnidos de Norte América con el refuerzo de la epistemología histórica de ThomasKuhn. Este pensador acuñó el concepto de paradigma de ciencia normal para describir yexplicar el comportamiento social de las comunidades científicas y el caráctereminentemente cultural de las teorías científicas, de las metodologías y de los conceptosque se utilizan para evaluarlas. En este contexto surge, con las repercusiones delexistencialismo heideggeriano y del neomarxismo de Francfort, una concepciónpostmoderna de la ciencia que la concibe como un intento frustrado de objetividad yseguridad de la denominada razón instrumental cartesiana y la trata como un relato quesólo se distingue de la Caperucita Roja, del Popol Vuh o del Mito de Prometeo en quees una construcción simbólica más exitosa y eficiente para las necesidades de lasociedad tecnocientífica sostenedora del “mito del progreso”. La debilidad principal deestas tendencias, de cierto éxito literario, radica en que no distinguen entre fundamentoy consenso; entre ciencia teórica y tecnología; entre comunidades de investigadores yredes teóricas; entre verdad, validez y eficiencia; entre lógica de las teorías y los 13
  14. 14. intereses sociales de los investigadores, etc. Con la sombrilla de un holismocontextualista que parece buscar más el impacto que la exactitud e invocando unasupuesta nueva epistemología se confunde objetos lingüísticos con objetos reales;propiedades de las teorías, de las metodologías y de los lenguajes científicos conpropiedades de los hechos y de los procesos naturales y sociales.El escenario antes descrito muestra un distanciamiento muy severo entre un sectorimportante de la actividad filosófica que elabora discursos sobre la ciencia y lo que lascomunidades científicas realmente hacen. Este divorcio no existió en los orígenes de laepistemología si consideramos que la mayor parte de los miembros del Círculo de Vienaeran físicos, matemáticos o científicos sociales de prestigio. Uno de ellos, Kurt Gödel hasido probablemente el matemático más famoso del siglo XX. Y el animador de estegrupo, Moritz Schlick, realizó tanto investigaciones físicas sobre la teoría de larelatividad de Albert Einstein como sobre la filosofía clásica. Inclusive, uno de los másduros críticos del neopositivismo, Karl Popper, fortaleció su acercamiento a lacomunidad científica a través de sus vínculos con Albert Einstein, Eccles, von Hayek,todos ellos merecedores del premio Nobel en Física, Medicina y Economía,respectivamente. Los programas de investigación que alentó este acercamiento, comolos referentes a la unificación de teorías, es el caso inicial de Principia Mathematica deRussell y Whitehead, continúan siendo retos para la investigación científica. Un ejemplovigente lo constituye el proyecto de unificación de la mecánica cuántica y la teoríageneral de la relatividad a través de lo que Einstein propuso como teoría de campounificado. Los problemas de inducción continúan abiertos en el ámbito de las cienciasfácticas. Y las propuestas de Reichenbach y Carnap han contribuido a abrir nuevoshorizontes que han conducido al crecimiento y diversificación de la lógica matemática.También han posibilitado concreciones tecnológicas en los campos de la inteligenciaartificial, sistemas expertos y robótica.Evidentemente, lo anteriormente descrito no sería posible si no existieran gruposimportantes de académicos que hacen epistemología académica en estrecha relación conlas comunidades científicas y con un nivel de formación que posibilita comunicaciónválida con ellas. En estos sectores se encuentran los epistemólogos de la corrienteestructuralista, de la tendencia que cultiva la filosofía de la mente y la inteligencia 14
  15. 15. artificial, la epistemología evolucionista, la epistemología genética, la epistemología dela física, de la matemática y de la lógica, incluyendo sus temas ontológicos. Sobre loúltimo, la lógica matemática desarrollada en Brasil (da Costa y Krause) ha continuadodemostrando la fecundidad de los sistemas no-clásicos, como herramientas de análisis,construyendo teorías sobre cuasi conjuntos y teorías aplicables a dominios conelementos indiscernibles como los de la física de Schroedinger. Esto significa que elpanorama de la filosofía de la ciencia rigurosa a comienzos del siglo XXI es bastantemás segmentado y diversificado que el de la primera mitad del siglo XX, razón por laque puede ser de utilidad un esquema gráfico que ayude a orientarse en el nuevoescenario configurado por las tendencias vigentes. Por ello, como último componente deeste artículo añadimos un diagrama que usado con flexibilidad puede ser de utilidadpara identificar las grandes orientaciones que eran distinguibles a principios del sigloXX y hacer un seguimiento del proceso que ha conducido a las tendencias visibles acomienzos del siglo XXI. Una limitación aparente de la clasificación que proponemospodría ser sugerida por el hecho de que un mismo autor aparece en más de un recuadro.La explicación razonable para ello está dada por el hecho constituido por la evolucióndel pensamiento filosófico de los más distinguidos miembros de la comunidadacadémica internacional. 15
  16. 16. Panorama de la Epistemología Contemporánea 16

×