Docstoc

nociones de epistemologia

Document Sample
nociones de epistemologia Powered By Docstoc
					Escuela Provincial “Dr. Luis Federico Leloir” Departamento de Ciencias Sociales Nivel Polimodal – Modalidad Humanidades y Ciencias Sociales Proyecto de Investigación e Intervención Socio-Comunitaria

J. Habermass

Nociones de Epistemología
(Edición Preliminar)

2004/07
Armando Zabert - Compilador

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Indice Tematico
1- INTRODUCCION A LA EPISTEMOLOGÍA. Armando Zabert.........................................................4 1. El concepto de epistemología........................................................................................................4 Esquema 1.........................................................................................................................................4 2. Dimensiones de la epistemología..................................................................................................5 3. Orientaciones epistemológicas......................................................................................................6 2 - LA RELACION ENTRE LA EPISTEMOLOGIA Y LA METODOLOGÍA. SU HISTORIA. Armando Zabert.....................................................................................................................................................8 Algunas opiniones sobre las relaciones entre epistemología y metodología....................................8 Un repaso histórico............................................................................................................................9 a.- La propuesta aristotélica...........................................................................................................9 b.- El furor por el método.............................................................................................................10 c.- El afianzamiento de la reflexión metodológica.......................................................................12 d.- La epistemología en el siglo XX.............................................................................................12 Algunas conclusiones......................................................................................................................13 3 - THOMAS SAMUEL KUHN. Jose Sánchez-Cerezo de la Fuente................................................14 Textos pertenecientes a "La estructura de las revoluciones científicas":........................................17 4 - LA CIENCIA. ALGUNAS DEFINICIONES E IDEAS BASICAS. Armando Zabert......................19 LA NOCIÓN DE PARADIGMA......................................................................................................20 LA COMUNIDAD CIENTÍFICA......................................................................................................20 LA CIENCIA NORMAL...................................................................................................................21 LAS ANOMALÍAS..........................................................................................................................22 LAS TEORIAS CIENTÍFICAS Y SUS TIPOS..................................................................................22 Componentes básicos en el proceso de construcción de teorías...................................................23 Corrientes Epistemológicas Actuales..............................................................................................23 Los paradigmas según Kuhn.......................................................................................................23 Programa de Investigación Científica de Lakatos.......................................................................24 Campos y líneas de Investigación en la Epistemología de Bunge..................................................26 5 - EL OBSTACULO EPISTEMOLÓGICO Y SU LUGAR EN LA INVESTIGACIÓN. Armando Zabert...................................................................................................................................................27 1. Concepto......................................................................................................................................27 2. El obstáculo epistemológico y el Conocimiento científico...........................................................28 3. Clasificación. ...............................................................................................................................28 6 - EL METODO HIPOTETICO-DEDUCTIVO DE LA CIENCIA. Armando Zabert...........................31 1. Los pasos del método hipotético-deductivo................................................................................31 Esquema 1: El método hipotético-deductivo...............................................................................32 2. Un ejemplo de la historia de la ciencia........................................................................................33 3. Fundamentos lógicos del método hipotético-deductivo...............................................................34 Esquema 2: Fundamentos lógicos del método hipotético-deductivo..........................................34 4. Implicancias en Ciencias Sociales del razonamiento hipotético-deductivo.................................35 Esquema 3: El problema de las cuatro tarjetas...........................................................................36 7 - LA ABDUCCION O RETRODUCCION. LA LOGICA DEL DESCUBRIMIENTO. Armando Zabert ..............................................................................................................................................................37 1. Un acercamiento al concepto de abducción................................................................................37 Ordenamiento de las premisas.- .................................................................................................37 La estructura formal del razonamiento........................................................................................38 El marco teórico.- ........................................................................................................................38 la hipótesis.- ................................................................................................................................38 Otros ejemplos de abducción......................................................................................................39 El aporte de Peirce.......................................................................................................................39

2

ARMANDO ZABERT (COMPILADOR)

2. Abducción, inducción y deducción...............................................................................................39 3. Abducción y reducción.................................................................................................................40 La reducción de Lukasiewicz.......................................................................................................40 La reducción débil tipo B de Bunge.............................................................................................41 4. Conclusión...................................................................................................................................41 8 - REFLEXIONES EPISTEMOLOGICAS SOBRE LA INVESTIGACION CUALITATIVA EN CIENCIAS SOCIALES. Adrián Scribano...........................................................................................43 Introducción.....................................................................................................................................43 I. Estrategias Alternativas para la Investigación Cualitativa............................................................43 II. Nuevas Experiencias de Gabinete y Formas de Razonamiento en la Investigación Cualitativa 46 II.1. Pluralidad de Voces y la Utilización de Hipertextos..............................................................46 II.2. Hacia una Lógica del Razonamiento Hipotético en Investigación Cualitativa......................48 III. A Modo de Conclusión: Problemas Epistemológicos Emergentes de la Investigación Cualitativa Asistida por Computadora...............................................................................................................50 9 - LA IMPORTANCIA DE LA TEORIA CRITICA EN LAS CIENCIAS SOCIALES. Silvana Laso...53 1 – Introducción: planteo del problema epistemológico: la importancia de la teoría crítica............53 2 – La escuela Frankfurt: su historia y sus teorías..........................................................................54 3 – Habermas dentro de la Escuela Frankfurt.................................................................................55 4 – La teoría crítica de Habermas...................................................................................................58 5 - Discusión del carácter crítico de las ciencias como problema epistemológico..........................64 6 – Conclusión.................................................................................................................................67 Bibliografía.......................................................................................................................................67 10 - INTRODUCCION AL PENSAMIENTO COMPLEJO. Edgar Morin............................................68 Introducción.....................................................................................................................................68 La necesidad del pensamiento complejo........................................................................................70 El paradigma de complejidad .........................................................................................................71 El paradigma de simplicidad............................................................................................................72 La complejidad y la acción...............................................................................................................74 La máquina no trivial....................................................................................................................75 Prepararse para lo inesperado....................................................................................................76 11 - LAS CIENCIAS SOCIALES Y EL PRINCIPIO DE INCERTIDUMBRE. Pablo Casau................77 1. Un poco de historia......................................................................................................................77 2. El principio de incertidumbre.......................................................................................................78 3. Dos interpretaciones del principio de incertidumbre....................................................................80 4. Críticas a la interpretación probabilista........................................................................................81 Determinismo e indeterminismo en Ciencias Sociales................................................................82 La influencia del observador en la Investigación Social..............................................................82

3

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

1- INTRODUCCION A LA EPISTEMOLOGÍA. Armando Zabert
La epistemología es la disciplina que se ocupa del estudio del conocimiento científico. No se preocupa solamente de decir qué es la ciencia, sino también de explicarla y hasta de imponerle o prescribirle criterios de cientificidad. La epistemología actual incluye muy variadas orientaciones. 1. El concepto de epistemología El término “epistemología” tuvo y tiene diferentes significados. Nos limitaremos en este articulo a explicar uno de ellos, hoy el más difundido y, por ello, muy importante. Desde este punto de vista, podemos definir escuetamente a la epistemología como  DEFINICIÓN 1: La disciplina que estudia la Ciencia, entendida ésta en su doble aspecto de Actividad (la investigación, la docencia, la aplicación práctica) y de Producto de esa Actividad (el conocimiento científico). Los primeros estudios epistemológicos figuran en la obra de Aristóteles, y se extienden hasta nuestros días con múltiples variantes e innovaciones. Debemos entonces distinguir bien tres niveles: la realidad, la ciencia y la epistemología. El esquema 1 nos muestra que la realidad es estudiada por el científico, y la actividad del científico es estudiada a su vez por el epistemólogo. Un científico entonces estudia realidades: por ejemplo el psicólogo social estudia el comportamiento de las personas en el contexto de las diferentes Sociedades, el físico estudia un trozo de materia o un rayo de luz, etc. Un epistemólogo, en cambio, estudia qué hacen los científicos para estudiar la realidad y qué diferencian a estos de los no científicos, cómo y porqué construye sus teorías sobre el mundo, qué métodos utilizan, cómo intentan probar sus hipótesis, qué características especiales tiene el lenguaje científico, etc. Un Investigador Físico por ejemplo, puede proponerse comprender el comportamiento de un determinado trozo de materia frente la acción del calor, dando explicaciones o proponiendo interpretaciones. Cuando termina la investigación, el Físico expone frente a sus pares en Congresos, es decir otros Físicos supuestamente con mayor experiencia que él, para examinar si está procediendo bien o mal con su estudio, es decir se trata de un control epistemológico, puesto que el Físico “examinador” ya no estudia el comportamiento de la materia frente al calor, sino cómo el Investigador Físico hace para comprenderla y cómo diseña su estrategia de experimentación y de conclusiones. El epistemólogo ya no estudia la realidad, sino cómo ciertas personas llamadas “científicos” van constituyendo el conocimiento de esa realidad. El epistemólogo estudia cosas como las herramientas del científico, sus métodos, su lógica, mientras que el científico se limita simplemente a utilizarlas. Esquema 1 REALIDAD Paciente Materia CIENCIA Psicólogo Físico EPISTEMOLOGIA Epistemólogo Epistemólogo

Así como hay una carrera y una profesión institucionalizadas de física, de biología, de astronomía o de sicología donde uno puede ser Licenciado, Doctor, etc., no ocurre lo mismo respecto de la epistemología.

4

ARMANDO ZABERT (COMPILADOR)

En general no hay una carrera donde uno se reciba de Licenciado en Epistemología, y sólo está institucionalizada a nivel de asignatura, no de carrera. Muchas de estas últimas incluyen, en efecto, materias como “Epistemología”, “Metodología de la Ciencia”, etc. Si hoy decimos que alguien es epistemólogo, en realidad es un epistemólogo aficionado, y no en un sentido peyorativo. Muchos epistemólogos son o fueron filósofos o científicos: Gastón Bachelard comenzó siendo químico, Thomas Kuhn o Mario Bunge comenzaron siendo físicos, y otros no abandonaron su actividad central de científicos pero tuvieron inquietudes epistemológicas. De manera que la epistemología es ante todo un rol, una actitud. Un científico actúa como epistemólogo en la medida que auto examina, critica, analiza su propia ciencia, sus propios métodos preguntándose por ejemplo si está procediendo bien o mal, “científicamente” hablando. 2. Dimensiones de la epistemología Toda investigación epistemológica incluye, en mayor o menor medida, tres ingredientes fundamentales: testimonial, explicativo y normativo. El primero muestra qué es la ciencia, el segundo intenta una explicación de porqué la ciencia es como es, y el tercero apunta a cómo “debe” ser la ciencia. 2-1.- Epistemología testimonial o Descriptiva Una dimensión de los estudios epistemológicos es la descriptiva, en el sentido que busca describir lo más objetivamente posible qué es la ciencia, qué métodos utiliza, cómo los utiliza. Todo epistemólogo procura dar ejemplos de cómo investiga tal o cual científico en tal o cual época, a partir de allí podrá dar una explicación de estos procedimientos o hacer una crítica de los mismos, pero estas ya serán las dimensiones explicativas y normativas. Por ejemplo, la epistemología descriptiva busca testimoniar cómo y con qué criterios se han clasificado las ciencias. Sabemos que hay muchas ciencias que estudian los mismos objetos: la sicología, la física, la biología, etc. todas estudian al hombre, sólo que lo hacen desde diferentes puntos de vista. Para decirlo en un vocabulario más técnico: muchas ciencias comparten la misma “región óntica”, es decir se ocupan del mismo ente, pero difieren en sus “regiones ontológicas”, esto es, en la forma de encarar su estudio. La epistemología descriptiva testimonia estas diferentes maneras de estudiar la realidad. 2-2) Epistemología explicativa.Desde este punto de vista, podríamos definir la epistemología como la disciplina que se ocupa del '”tercer porqué”. Uno de los puntos de partida de la investigación científica es la detección de una relación entre un objeto y un atributo. El científico observa, por ejemplo, que Juan (objeto) tiene delirios de persecución (atributo), o que una piedra (objeto) cae al ser soltada (atributo). A partir de aquí se plantea un “primer porqué”, que busca indagar porqué José tiene esos delirios o porqué la piedra se cae. La respuesta a este primer porqué se llama hipótesis o teoría. Por supuesto que en este momento estas explicaciones son puras conjetura, y como tal deben ser verificadas o fundamentadas de alguna forma. Entonces el científico dice que su teoría es sostenible o está bien confirmada “porque'”los experimentos o las observaciones así lo muestran. Este es un “segundo porqué”, que ya no busca explicar el hecho sino fundamentar, justificar o legitimar la teoría sobre el hecho.

5

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Así termina la labor del científico, pero empieza el trabajo de la epistemología explicativa, que buscará fundamentar porqué el científico hizo ese tipo de fundamentación (porque hizo lo que hizo), es decir, busca responder un “tercer porqué”, que ya tiene rango epistemológico. Desde esta perspectiva, la epistemología estudia todo aquel conocimiento que intenta ser validado o justificado sobre la base de ciertos procedimientos llamados científicos, como así también estudiar estos mismo procedimientos un poco '”desde afuera” de la ciencia.  Analice el lector el siguiente ejemplo e indique en el párrafo, cada uno de los PORQUE: un cuerpo cae si hay una fuerza de atracción gravitacional; La teoría de la fuerza gravitacional es cierta y así lo han demostrado muchos experimentos; los científicos han intentado verificar la teoría gravitacional de diversas maneras según la época histórica como modo de verificación impuesto por la cosmovisión de la época, los científicos entienden las teorías como modelos aproximados de la realidad y entonces las comprobaciones deben ser empíricas, etc. Una variante de la dimensión explicativa es la epistemología hermenéutica, que centra su análisis en la idea de “interpretación” en sentido amplio. La epistemología hermenéutica no solo dice que el texto de un científico es susceptible de interpretación de acuerdo a la cosmovisión de la época (por ejemplo los textos de Laplace deben, interpretarse en función del mecanicismo imperante en su siglo XVIIVIII), sino también, y por extensión, que la obra de un determinado investigador no es más que la interpretación de que él hacen los demás pensadores, y que son tales interpretaciones, en definitiva, las que quedarán registradas como conocimiento científico en la historia de la ciencia. Esta afirmación es más cierta cuanto más ambigua es la obra del investigador, lo que hace aumentar la probabilidad de formulación de muchas interpretaciones diferentes. En suma: también se puede explicar la ciencia diciendo que es el producto de una interpretación que de ella hacen los científicos, interpretación que a su vez podrá depende de tales o cuales condicionamientos culturales, sociales. 2-3.- Epistemología normativa Esta dimensión prescriptiva o valorativa de la ciencia busca examinar en qué medida se ajusta la ciencia tal como la conocemos a algún “modelo ideal” de ciencia, y cómo es posible acercar la ciencia a dicho modelo. La preocupación del epistemólogo normativista es la de saber cómo “debe ser” la ciencia, cómo es posible modificar sus métodos para que pueda seguir progresando y perfeccionándose. Un ejemplo de epistemólogo con una fuerte tendencia normativista es Karl Popper, quien no deja de insistir en que el científico “no debe” centrar su método en la inducción, sino que el científico “debe” intentar refutar sus teorías en vez de salvarlas de la falsación, etc. Otro ejemplo es la epistemología husserliana. Por tanto siempre es posible encontrar una epistemología normativa que ejerza una especie de “vigilancia epistemológica”, como dirían las orientaciones francesas tipo Bachelard, que aliente permanentemente a los científicos acerca de la necesidad de no sucumbir a los prejuicios, intentando superarlos en forma permanente. Finalmente, todas las orientaciones epistemológicas tienen, en mayor o menor medida, alguna proporción de estas tres dimensiones. Examinemos ahora esas diferentes orientaciones.

6

ARMANDO ZABERT (COMPILADOR)

3. Orientaciones epistemológicas Tanto las dimensiones como las orientaciones epistemológicas son distintas formas de encarar el estudio de la ciencia; la diferencia está en que las dimensiones están presentes en todo estudio epistemológico, mientras que las segundas son exclusivas de cierto tipo de estudios, llamados precisamente orientaciones. Podemos clasificar estas orientaciones según dos criterios. 3-1.- Primer criterio de orientación Las epistemologías pueden ser internalistas o externalistas, según que estudien la ciencia desde su estructura interna, desde su lógica intrínseca, desde sus métodos y técnicas específicas, o según que estudien la ciencia desde afuera, es decir, desde el conjunto de factores que, ya como causas o como consecuencias, estén vinculados al quehacer científico, como pueden ser los factores psicológicos, sociales, culturales, etc. La epistemología internalista estudia la ciencia en sí, y la epistemología externalista intenta estudiar la ciencia desde su contexto. Se trata de distintos puntos de interés, y cada una de estas orientaciones no presupone necesariamente criticar o eliminar al otro, pero sí no ocuparse de él, simplemente. 3-2.- Segundo criterio de orientación Las epistemologías puede dividir en historicistas y no historicistas, según encaren un estudio diacrónico o sincrónico de la ciencia, respectivamente. La epistemología no historicista estudia la ciencia tal como se nos presenta actualmente, sin importarle demasiado sus raíces históricas. El positivismo lógico surgido hacia la década de 1930 es un ejemplo de este tipo de orientación en la cual, por lo demás, domina la dimensión normativista. Los enfoques historicistas intentan explicar la ciencia a partir de su historia. Entre quienes se ocuparon sistemáticamente de esta cuestión están Bachelard, Kuhn, Lakatos y Piaget. Bachelard concibe la ciencia como una progresiva superación de obstáculos epistemológicos, de manera que tal o cual teoría de determinada época se explica como superación de obstáculos anteriores, y al mismo tiempo como prejuicio que deberá ser superado por la siguiente etapa histórica. Kuhn, por su parte, explica la ciencia a partir de ciertos ciclos históricos donde se alternan momentos de crisis y momentos de ciencia normal, y donde periódicamente van apareciendo nuevos paradigmas que reemplazan total o parcialmente a los anteriores. Lakatos encara una tarea similar pero centrándose en la idea de “programa de investigación”, hasta cierto punto similar a la de “paradigma” de Kuhn. Piaget, se decidió a estudiar la ciencia desde una “epistemología genética”, pero no a partir de su origen histórico sino fundamentalmente desde su génesis psicológica, vale decir, cómo el científico (y el no científico) van construyendo su conocimiento de la realidad desde la infancia en adelante. Se trata, según palabras del mismo Piaget, de una epistemología científica, es decir construida sobre la base de métodos y técnicas propias de la ciencia como la observación, el experimento, etc., y en este caso de la sicología genética.

7

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

2 - LA RELACION ENTRE LA EPISTEMOLOGIA Y LA METODOLOGÍA. SU
HISTORIA. Armando Zabert Epistemología y metodología son dos áreas del conocimiento que suelen anunciarse y enunciarse conjuntamente, pero que también, sin embargo, se las presenta separadas como si fueran dominios diferentes. La presente nota aporta elementos de juicio, algunos de ellos históricos, para reflexionar sobre esta cuestión de las relaciones entre la epistemología y la metodología, en la que no existe un consenso universal. Algunas opiniones sobre las relaciones entre epistemología y metodología Es muy común encontrar en los diversos planes de estudio universitarios, ambas disciplinas, y con los libros de texto sucede algo similar, que pueden ser clasificados en tres tipos de textos: a) aquellos textos que hablan exclusivamente de cuestiones “metodológicas”, y que, por lo demás, suelen estar centrados en la metodología de determinadas disciplinas (sicología, educación, economía, etc.) b) aquellos textos que se centran en el tema “epistemología” (2) c) Aquellos otros textos que, tal vez motivados por un afán totalizador, intentan incluir -cuando no sintetizar- ambas disciplinas. Dentro de esta última posibilidad podemos mencionar ciertos textos de Samaja, Klimovsky y Bunge, y sólo por citar autores argentinos. Examinemos brevemente solo a modo de información, estos puntos de vista. 1) Bunge (Mario) comienza presentando su voluminoso tratado "La investigación científica" (1), nada menos que con la expresión "este tratado de metodología y filosofía de la ciencia", donde “filosofía de la ciencia” es otra de las designaciones habituales que, según diversos autores, recibe la epistemología. Más allá de esta referencia, Bunge no analiza en este texto las relaciones entre la metodología y la filosofía de la ciencia (epistemología). Para ello, debemos recurrir a su libro "Epistemología" (2), donde muestra a la Metodología como una rama de la Epistemología (2: pag. 24). 2) Klimovsky (Gregorio) asigna a su libro "Las desventuras del conocimiento científico" el subtítulo general "Una introducción a la epistemología" (6). Sin embargo, internamente está dividido en dos grandes partes, centradas respectivamente en la metodología y en la epistemología: "El método científico" y "Problemas epistemológicos". El Autor nos indica que la metodología y la epistemología abordan distintos ámbitos de problemas y así, mientras el metodólogo busca estrategias para incrementar el conocimiento, por ejemplo recurriendo a la estadística, el epistemólogo podría plantearse el interrogante acerca del pretendido valor atribuido a los datos y muestras. En esta perspectiva y siempre según Klimovsky, la metodología puede ser posterior a la epistemología porque debe contar con criterios para evaluar su método, pero también la metodología puede ser anterior, como cuando alguien inventa un método y luego aparece el epistemólogo, que puede verse en la necesidad de justificarlo en el marco de su propia disciplina. Además, "a diferencia de lo que sucede con el epistemólogo, el metodólogo no pone en tela de juicio el conocimiento ya obtenido y aceptado por la comunidad científica" (6: pag 28), con lo cual, en suma, dos diferencias justificarían, sobre la base de estas afirmaciones de Klimovsky, la separación entre metodología y epistemología: por un lado una disciplina es eminentemente práctica y la otra es mas bien teórica, y por el otro lado, una es no crítica, conservadora, y la otra es crítica, cuestionadora. En rigor, el texto de Klimovsky es un texto de epistemología, ya que su parte “metodológica”,

8

ARMANDO ZABERT (COMPILADOR)

titulada "El método científico" hace de éste un tratamiento donde no escasean consideraciones teóricas y críticas. 3) Samaja (Juan), por su parte, tituló elocuentemente su texto como "Epistemología y Metodología" (5), y su primer párrafo es "este libro es el fruto de una prolongada actividad docente sobre lógica, metodología y epistemología...". Más adelante, agrega que intenta presentar "una perspectiva integral del proceso de investigación, mediante un enfoque que busca articular las cuestiones epistemológicas y de sociología e historia de la ciencia, con las específicamente metodológicas" (5: pag. 1516). El autor citado llega a proponer, incluso, dos tipos de lectores, el lector epistemólogo y el lector metodólogo (5: pag. 17), estableciendo indicaciones para que unos y otros puedan aprovechar mejor el libro. Samaja presenta una relación entre epistemología y metodología en algunos puntos similar a la de Klimovsky. Cuestiona la idea de “vigilancia epistemológica” (de la metodología), pues a) tiene una connotación prescriptiva según la cual una disciplina, la epistemología, podría supervisar el método, y b) con igual derecho también podría hablarse de una vigilancia metodológica de la epistemología. Esta recorrida por estas opiniones, sin ser exhaustiva, alcanza para identificar dos posturas diferentes: por un lado están quienes, como Mario Bunge, considera que la metodología es simplemente otra rama más de la epistemología (1: pag. 50) (2: pag. 24). Por el otro lado, están los filosofos que piensan que se trata de dos disciplinas relativamente independientes como son los casos de Gregorio Klimovsky (6: pag. 28-29) y Juan Samaja. Un repaso histórico ¿Cómo se explica esta divergencia de opiniones? Para ello debemos hacer un recorrido por la historia de la epistemología por cuanto, en gran medida, la historia de las ideas sobre la ciencia es la historia de las ideas sobre el método científico. Por tal motivo podemos distinguir cuatro etapas en la historia de la epistemología: a) la epistemología aristotélica (siglo III AC); b) la revolución metodológica que dio origen a la ciencia moderna (siglo XVI- XVII); c) el afianzamiento de las reflexiones sobre el método (siglo XIX); y d) la diversificación de los intereses epistemológicos (siglo XX). En cada uno de estos tramos, las relaciones entre epistemología y metodología asumieron diferentes aspectos. a.- La propuesta aristotélica Los primeros estudios epistemológicos sistemáticos fueron desarrollados por Aristóteles en los "Segundos Analíticos", una de las cinco partes del "Organon" (a su vez una recopilación medieval de los escritos de Aristóteles sobre lógica y epistemología). Una de las preocupaciones aristotélicas era definir el conocimiento científico, y señaló que aquello que identifica a una ciencia es un objeto y un método. El objeto distinguía una ciencia de otra, mientras que el método, aunque común a todas las ciencias, era lo que distinguía al saber científico de otros saberes diferentes. Así por ejemplo, Aristóteles habría estado de acuerdo con afirmar que la biología tiene como objeto de estudio a los seres vivos, la física otro objeto distinto, y así sucesivamente. Se trata de un supuesto ontológico de la doctrina aristotélica, que Klimovsky sintetiza diciendo que "para cada ciencia o disciplina en particular hay un género o tipo de entidades que constituye el objeto o el propósito de estudio de la misma" (6:107). Según la metafísica aristotélica las entidades están ordenadas en una jerarquía decreciente (por ejemplo ser, ser vivo, animal, caballo, etc.), con el tiempo el estudio del ser en general quedó como el objeto de estudio de la “filosofía primera” (y más concretamente de la metafísica), mientras que los géneros derivados del ser (como ser

9

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

vivo), fueron objeto de estudio de las “filosofías segundas'” es decir, de las diferentes ciencias. Respecto al método, Aristóteles propuso para la ciencia su método inductivo-deductivo (9: pag.15) o demostrativo (6: pag.106) y que luego, por obra de los pensadores medievales, adoptó la denominación de “método resolutivo-compositivo” (9: pag. 41). Según este método, el científico debía "inducir principios explicativos a partir de los fenómenos que se han de explicar, y después deducir enunciados acerca de los fenómenos a partir de premisas que incluyan esos principios" (9:16). Aristóteles explicó su método científico fundamentalmente en el Organon, aunque también pueden encontrarse discusiones de ciertos aspectos del método en su "Física" y en su "Metafísica" (9:15). ¿Cómo concebir, en esta primera etapa de la historia de la epistemología las relaciones entre ésta y la metodología? Simplemente, no se había hecho una diferencia entre ambas disciplinas: la metodología era simplemente un capítulo más dentro de la epistemología, dedicada específicamente al estudio del método científico. b.- El furor por el método La propuesta aristotélica se mantuvo vigente durante toda la Edad Media, hasta los albores de la Modernidad, donde se produce la revolución metodológica que dio origen a la ciencia moderna, en los siglos XVI-XVII. Las críticas estuvieron dirigidas no tanto al método consagrado por Aristóteles, como a ciertas formas incorrectas de emplear dicho método, como lo testimonian los planteos de Galileo (9: pag. 64) y Francis Bacon (9: pag. 72 y 73). En una muy apretada síntesis mencionaremos solo a algunos de los protagonistas de esta revolución: 1) En el siglo XIII, los medievalistas R. Grosseteste y su discípulo Roger Bacon proponen el método experimental, mediante el cual era posible verificar las conclusiones alcanzadas por el método resolutivo compositivo de inspiración aristotélica (9: pag. 65). La experimentación es, en efecto, una característica definitoria de la ciencia moderna. 2) Galileo Galilei merece ser mencionado aquí, no tanto por sus innovaciones metodológicas -fue un defensor del esquema inductivo-deductivo de Aristóteles, y además tuvo una actitud ambigua respecto de la importancia del método experimental (9), como por su idea de delimitar la ciencia de la religión a partir de un método propio identificado, precisamente, con aquel método aristótélico. Galileo propuso así un nuevo campo del saber delimitable y separado de la religión. Pero al mismo tiempo, y sin proponérselo explícitamente, contribuyó a aclarar el panorama acerca de las diferencias entre el saber cotidiano (verdades de hecho), el saber filosófico (verdades de razón), el saber religioso (verdades de fe) y el saber propiamente científico, fundado en verdades de hecho (la “experiencia de los sentidos”) y en verdades de razón (las “demostraciones necesarias”) reivindicando, con esto último, el método inductivo-deductivo de Aristóteles para las ciencias. Así, la ciencia moderna maduró y se diferenció de la filosofía y del dogma religioso bajo la guía de un método. Señala Bunge: "el concepto general de método no se consolida y populariza hasta comienzos del siglo XVII, al nacer la ciencia moderna. Los primeros pensadores modernos de gran estatura e influencia que propugnan la adaptación de métodos generales para lograr avances en el conocimiento son [Francis] Bacon y Descartes" (2: pag. 29). En efecto, por la misma época, otros pensadores emprenderán uno u otro camino: Francis Bacon (1561-1626) intentará fundar el conocimiento inductivamente (9: pag.72), y Descartes (1596-1650) hará otro tanto sobre la base de la deducción (9: pag. 80).

10

ARMANDO ZABERT (COMPILADOR)

3) Francis Bacon aceptó también el método científico de Aristóteles, pero hizo fuertes críticas tanto para la etapa inductiva como para la deductiva. Respecto de la primera, cuestionó el procedimiento azaroso para recoger datos, las generalizaciones apresuradas y la excesiva confianza en la inducción por enumeración simple, y respecto de la etapa deductiva cuestionó la demostración silogística sin una definición adecuada de los términos, así como la excesiva importancia otorgada a la deducción, la que sólo tiene valor científico "si sus premisas tienen un soporte inductivo adecuado" (9: pag. 73). A partir de F. Bacon se continuaron por lo menos dos líneas de pensamiento: por un lado los filósofos empiristas ingleses, desde Locke a Stuart Mill, y por el otro el gran teórico de la didáctica, Comenio (1592-1670). Cada nuevo pensador, impulsado por un afán perfeccionista, retomaba las ideas de los anteriores y ahondaba las investigaciones en torno al método. Prueba de este furor son los nombres sucesivos de tres textos ya clásicos sobre metodología: para superar el "Organum" aristotélico, Bacon propuso su "Novum Organum", apareciendo dos siglos después el "Novum Organum Renovatum" de William Whewell. Inspirado en Bacon, Comenio propugnó y desarrolló por su lado, un método universal para la adquisición y la enseñanza de todos los conocimientos: "la unidad de todos los conocimientos y la universalidad del método inductivo empírico son fuertemente subrayados por Comenio" (3: pag. 537), quien no vacilaba en afirmar que su método didáctico podía enseñar "de todo a todos". La "Didáctica Magna" de Comenio representó, así, el primer esfuerzo sistemático por construir una didáctica. Comenio no intentó hacer un método de investigación científica, como lo hizo Bacon, sino de enseñanza. La propuesta de Bacon era un método para inventar y probar hipótesis (contextos de descubrimiento y justificación de la ciencia), mientras que la de Comenio era un método para enseñar (contexto de difusión). 4) Al hablar de Rene Descartes, Losee nos indica que él "coincidía con Francis Bacon en que el mayor logro de la ciencia es una pirámide de proposiciones, con los principios más generales en el vértice. Pero mientras que Bacon buscaba descubrir las leyes generales mediante un progresivo ascenso inductivo a partir de relaciones menos generales, Descartes pretendía comenzar por el vértice y llegar lo más abajo posible mediante un procedimiento deductivo" (9: pag. 80). La línea cartesiana, con algunas variantes, sigue en nuestros días ejerciendo su influencia en dos importantes epistemólogos de nuestro siglo, como Husserl y Popper. El primero, por ejemplo, reconoce su deuda con el filósofo francés en "Meditaciones cartesianas", mientras que el segundo desarrolló su teoría falsacionista sobre la base de una crítica de la inducción y de su defensa del procedimiento deductivo: el “modus tollens” es, en efecto, la base lógica deductiva para refutar hipótesis, a su vez considerado por Popper como el procedimiento por excelencia de la verificación científica. Esta recorrida por estos pensadores del incipiente modernismo nos muestra, que el furor metodológico hizo que la ciencia quedara identificada a partir de un método y no ya de un objeto de estudio (el que, como dijimos, ya venía recortado desde la tradición griega). Del Renacimiento en adelante, la biología siguió siendo como siempre el estudio de los seres vivientes, y la sicología el estudio del alma, pero lo que en realidad había cambiado era el método: inspirado por la nueva propuesta metodológica de los modernistas, el biólogo primero y el psicólogo después comenzaron poco a poco a verificar sus hipótesis mediante el auxilio de la inducción, del método hipotéticodeductivo y el procedimiento experimental, convertidos ya por entonces en partes indisolubles del método científico por excelencia. En efecto, lo cuestionado no fue tanto, el objeto de estudio de las ciencias, sino su método, el que a partir de allí se convirtió en el centro de la reflexión de los epistemólogos. Esta “rama'”de la epistemología que estudiaba el método comenzó a reducirse, con lo que metodología pasó a ser prácticamente un sinónimo de epistemología.

11

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Aún en la actualidad sigue resonando esta idea: Klimovsky llega a sostener, por ejemplo, que "la ciencia es esencialmente una metodología cognoscitiva y una peculiar manera de pensar acerca de la realidad", y que "nuestro texto [que es una introducción a la epistemología] asigna una particular importancia al análisis del método científico" (6: pag. 15). c.- El afianzamiento de la reflexión metodológica Continuando con nuestra discusión sobre las relaciones entre epistemología y metodología, dos acontecimientos nos interesa rescatar del siglo XIX: la consagración del nuevo método científico, y las reflexiones en torno a las nuevas ciencias sociales. Ambos contribuyeron, aunque de diferente manera, a consolidar aún más la rama metodológica de la epistemología. Veamos algunas consideraciones al respecto: 1) El “nuevo” método exaltado por los modernistas siguió siendo aplicado por los físicos, los químicos, los biólogos y los incipientes psicólogos, lo que produjo un efecto importante: terminó redefiniendo, a su vez, el objeto de estudio de cada ciencia. Por ejemplo el método experimental de Wundt sustituyó el alma, una noción especulativa, por la de conciencia y sensación, conceptos verificables comprensibles al método científico. Incidentalmente, agreguemos que Augusto Comte (1786-1857), en lugar de pensar en la posibilidad de “cientifizar” a sicología desde el método, directamente la eliminó del campo del saber científico porque su objeto de estudio era el alma, una especulación metafísica. Este primer acontecimiento apuntaló aún más a la metodología como estudio epistemológico privilegiado, toda vez que el método había adquirido el poder de transformar los mismos objetos de estudio de la ciencia, convirtiéndolos en constructos verificables. 2) Comenzaban también en el siglo XIX a diferenciarse un nuevo tipo de ciencias: las ciencias del hombre, o ciencias del espíritu, o ciencias culturales, donde el objeto de estudio, las producciones humanas, aparecía como radicalmente diferente al objeto de estudio de las ciencias tradicionales, que eran las producciones de la naturaleza. Frente a esta situación había por lo menos tres alternativas: como el nuevo objeto de estudio no se adecuaba al método científico consagrado i. las “ciencias” del hombre debían ser relegadas a la filosofía, es decir, asignarles el mismo destino que Comte le dio a la sicología ii. había que crear un método nuevo especial para las ciencias sociales iii. había que incoporar el método científico consagrado a estas nuevas ciencias, porque sus nuevos objetos de estudio eran en realidad perfectamente abordables con el método tradicional. La primera de estas alternativas no prosperó, mientras que las dos últimas siguen aún vigentes, y hasta siguen polemizando entre sí. La segunda alternativa implicó que el objeto de estudio empezara a recortar el método (y no a la inversa, como cuando en este mismo siglo XIX el método recortó el objeto de estudio de la sicología). Un ejemplo típico fueron los intentos de Dilthey por dotar a las ciencias humanas (sociales) de un procedimiento que pasara menos por la clásica explicación causal de las ciencias naturales, y más por la comprensión y la metodología hermenéutica como un intento de aproximación al nuevo objeto de estudio. La tercera alternativa sigue hoy también vigente. Klimovsky, por ejemplo, sostiene que "el método científico no se rompió cuando se lo estiró para que abarcara los problemas sociales. Tampoco se rompe si se lo aplica a otras disciplinas, en particular las humanísticas" (2: pag. 42). En suma, esta nueva problemática introducida por la aparición de las ciencias sociales no hizo más que acentuar la importancia de los estudios metodológicos dentro de la epistemología, toda vez que era un método el que tenía nada menos que el poder de separar diferentes tipos de ciencias, o el de poder unificarlas.

12

ARMANDO ZABERT (COMPILADOR)

d.- La epistemología en el siglo XX Las nuevas ciencias sociales, en este siglo, contribuyeron a afectar nuevamente las relaciones entre epistemología y metodología en dos direcciones diferentes: por un lado diversificaron los intereses epistemológicos, y por el otro contribuyeron a estimular el estudio de las técnicas de investigación en el nuevo ámbito de lo social. Analicemos algunas cuestiones respecto a estas dos direcciones: 1) El crecimiento de las ciencias sociales nacidas en el siglo pasado promovió, entre otras razones, la idea de que existía una determinación social de las producciones humanas, idea que no tardó en trasladarse a aquella producción cultural llamada ciencia. Se inició así una diversificación de los intereses epistemológicos al tomarse conciencia de que la ciencia no era ni única ni fundamentalmente un método: era también un producto histórico y social (Kuhn), el resultado de una génesis psicológica (Piaget), un producto psicoanalizable (Bachelard) un conocimiento anárquico y sin métodos (Feyerabend), todo lo cual hizo que la rama metodológica de la epistemología perdiera su condición privilegiada en el contexto de los intereses del epistemólogo, quedando confinada principalmente al estudio del fundamento lógico del método científico. 2) El desarrollo de las ciencias sociales (sicología, sociología, ciencias de la educación, economía, etc.), fue una de las razones por las cuales se implantó la apertura de un nuevo campo para el estudio de las técnicas de investigación social. Esto tiene que ver con la tercera alternativa a la que nos referimos anteriormente, porque de lo que trataba era de poder incluir las ciencias sociales dentro del esquema metodológico clásico, haciendo alguna que otra adaptación a la peculiaridad del objeto de estudio de dichas ciencias. Esta tarea ya estaba cumplida desde hacía rato en las ciencias naturales, y por ello es que hoy en día, desde hace algunas décadas, proliferaron los libros y manuales sobre “investigación social”, en contraste con la poca cantidad de textos de “investigación natural”. Fue así que la original rama metodológica de la epistemología continuó reduciéndose (aunque no a expensas de otros ámbitos posibles de estudio epistemológico, como sucedió en los albores de la modernidad) y terminó separándose del corpus de la epistemología. En suma: el estudio del método, o si se quiere la rama metodológica de la epistemología, siguió dos caminos diferentes: una parte quedó confinada dentro de los límites de la epistemología convirtiéndose en un estudio del fundamento lógico del método científico (Hempel, Popper, Carnap, y muchos otros), mientras que la otra parte, menos crítica y menos teórica empezó a quedar por fuera de la epistemología convirtiéndose en lo que hoy se designa como “metodología”, y que no cuestiono la lógica del método sino cuestiones más prácticas relativas a su instrumentación técnica y su manipulación estadística (McCall, 1923, Fisher, 1925, Campbell, Stanley, Selltiz y muchos otros) (10: pag. 10). Por ejemplo, un problema típico del primer caso consistió en comparar las ventajas y las desventajas de un procedimiento inductivo y un procedimiento hipotético-deductivo, mientras que un ejemplo de problema en el segundo caso fue y es mucho más concreto y práctico, como por ejemplo analizar qué tipo de diseño experimental podría resultar más eficaz cuando se trata de investigar qué factores ambientales influyen sobre el aprendizaje de los escolares. Algunas conclusiones Tal como encontramos la situación hoy en día, por lo tanto, podemos trazar las siguientes semejanzas y diferencias entre epistemología y metodología.

13

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Respecto de las semejanzas, lo que hace que muchos autores pongan del mismo lado a la epistemología y la metodología es el hecho de que ambas comparten un mismo objeto de estudio. Tanto la epistemología como la metodología estudian por igual “esa cosa llamada ciencia”, utilizando el titulo de la famosa obra de Chalmers (8), por cuanto la ciencia es saber fundado (episteme), y por cuanto procede de acuerdo a un método. Respecto de las diferencias, anotemos dos: a) la epistemología es más crítica, más cuestionadora, y no por nada algunos autores como Bourdieu y Passeron (5:14) hablan de una “vigilancia epistemológica” ejercida incluso sobre la misma “metodología”, por cuanto proponen que el ejercicio de una reflexión epistemológica implica subordinar el uso de las técnicas de investigación a las condiciones y los límites de su validez. La metodología, en cambio, es mas bien dogmática, pues se limita a describir y analizar ciertos procedimientos ya consagrados (por ejemplo los diferentes tipos de diseño experimental, o los diferentes tipos de tratamiento estadísticos de los resultados) y eventualmente a diseñar nuevos procedimientos para adaptarlos a cada nuevo caso. Otra diferencia es que la epistemología es un saber más teórico y la metodología un saber más práctico. Con la expresión “más teórico” quiero indicar que intenta llegar a los fundamentos mismos de la ciencia, a sus bases lógicas y a sus determinaciones sociales, psíquicas, etc. Una pregunta me surge, ¿debe hoy todavía seguir manteniéndose separadas la epistemología y la metodología? Seguramente el tiempo lo dirá. Mientras tanto, los libros de texto y las asignaturas de la universidad y como así también de las escuelas secundarias siguen manteniéndolas, en general, separadas. El peligro de ello, reside en que se aíslen cada vez más la una de la otra, impidiendo una mutua realimentación enriquecedora de sus respectivos resultados. Bibliografía Consultada (1) Bunge M., "La investigación científica". Su estrategia y su filosofía, Barcelona, Ariel, 1969. (2) Bunge M., "Epistemología", Barcelona, Ariel, 1980. (3) Ferrater Mora J., "Diccionario de Filosofía", Madrid, Alianza, 1979, Tomo 1. (4) Programa de "Metodología de la Investigación Psicológica", Cátedra de la Prof. María Lores Arnaiz, Facultad de Psicología (UBA), 1997. (5) Samaja Juan, "Epistemología y Metodología", Eudeba, Buenos Aires, 1995. (6) Klimovsky G., "Las desventuras del conocimiento científico" (Una introducción a la epistemología), A-Z Editora, Buenos Aires, 1994. (7) Galilei G., "Carta a la Señora Cristina de Lorena, Gran Duquesa de Toscana" (1615), texto incluído en Babini José, "Galileo", Buenos Aires, Centro Editor de América Latina, 1967. (8) Chalmers Alan, "¿Qué es esa cosa llamada ciencia?", Siglo XXI editores, Buenos Aires, 1991. (9) Losee John, "Introducción histórica a la filosofía de la ciencia", Alianza, Madrid, 1979, 2° edición. (10) Campbell Donald y Stanley Julian, "Diseños experimentales y cuasi experimentales en la investigación social", Buenos Aires, Amorrortu, 1995. (11) Por ejemplo, en el "Manual de técnica de la investigación educacional", de Van Dalen y Meyer, se propone un ejemplo de la física galileana para mostrar cómo se analiza un problema científico.

14

ARMANDO ZABERT (COMPILADOR)

3 - THOMAS SAMUEL KUHN. Jose Sánchez-Cerezo de la Fuente
http://www.webdianoia.com/ (1922-1996) Thomas Samuel Kuhn nació en Cincinnati, Ohio, el 18 de julio de 1922. Estudió Físicas en la Universidad de Harvard, por la que se doctoró en dicha especialidad en 1949. A partir de entonces su interés se orientó hacia el estudio de la Historia de la Ciencia, al que se dedicó por completo. Permaneció en Harvard como profesor ayudante de Historia de la Ciencia hasta 1956, en que aceptó una oferta de la Universidad de Berkeley, donde ocupará la Cátedra de Historia de la Ciencia a partir de 1961. En 1964 pasará a desempeñar ese mismo puesto en la Universidad de Princenton hasta 1979, año en que se instalará en Boston, ocupando la Cátedra de Filosofía e Historia de la Ciencia del Massachusetts Institute of Technology. Falleció el 17 de junio de 1996 en su casa de Cambridge, Massachusetts. El filósofo Thomas Kuhn se ocupó principalmente de cuestiones acerca de filosofía de la ciencia: • ¿Cómo se lleva a cabo la actividad científica? • ¿Existe un mismo patrón en dicha actividad que se pueda aplicar a lo largo de las distintas épocas históricas? • ¿A qué se debe el aparente éxito en la obtención de conocimientos de la ciencia? • Dicho conocimiento, por otra parte, ¿es acumulativo a lo largo de la historia? Este tipo de cuestiones, así como las respuestas que Kuhn ofrecerá, nos muestran el enfoque histórico con el que se analiza la ciencia. Efectivamente, Kuhn se dedicó en un primer momento al estudio de la historia de la ciencia y fue a partir de ella de donde surgieron diversas cuestiones que muestran un contraste entre dos concepciones de la ciencia. Por un lado, la ciencia entendida como una actividad completamente racional y controlada (como nos la presenta el Círculo de Viena, por ejemplo), y por otro lado, la ciencia entendida como una actividad concreta que se ha venido dando a lo largo de los siglos y que en cada época histórica presenta peculiaridades y características propias. Estos dos planteamientos pueden ser denominados "formalista" e "historicista", respectivamente. Las respuestas que Kuhn da a las cuestiones iniciales, que se plasman en la obra "La estructura de las revoluciones científicas", de 1962, supusieron un gran cambio en el debate filosófico del momento, pues el modelo formalista que imperaba fue desafiado por el enfoque historicista de Kuhn, según el cual, la ciencia se desarrolla siguiendo determinadas fases: 1. 2. 3. 4. 5. Establecimiento de un paradigma Ciencia Normal Crisis Revolución Científica Establecimiento de un nuevo paradigma

En esta concepción la noción de "paradigma" resulta fundamental. Kuhn define paradigma de la siguiente manera: "Considero a los paradigmas como realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica".

15

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Los paradigmas son, por tanto, un marco o perspectiva bajo la cual se analizan los problemas y se trata de resolverlos. Por ejemplo, el movimiento aparentemente irregular de los planetas en el cielo es un problema concreto. Podemos verlo a la luz del paradigma que ofrece la teoría geocéntrica de Aristóteles, según el cual el movimiento de los planetas es absolutamente circular. En éste caso, por lo tanto, la labor del científico será mostrar que la irregularidad de los planetas no es tal y aclarar a qué se debe dicha apariencia. Pero podríamos verlo también partiendo del paradigma de la teoría heliocéntrica. En este último caso podríamos llegar a aceptar la no-circularidad del movimiento real de los planetas, pero sea cual sea la explicación ofrecida, debe aplicarse por igual al resto de los cuerpos celestes. Los paradigmas son, por lo tanto, macro teorías que se aceptan de forma general por toda la comunidad científica y a partir de las cuales se realiza la investigación. El objetivo de la misma es aclarar los posibles fallos del paradigma (como por ejemplo datos empíricos que no coincidan exactamente con la teoría) o extraer todas sus consecuencias. A este proceso de investigación basado en un paradigma se le denomina "ciencia normal". En palabras de Kuhn: "ciencia normal" significa investigación basada firmemente en una o más realizaciones científicas pasadas, realizaciones que alguna comunidad científica particular reconoce, durante cierto tiempo, como fundamento para su práctica posterior" Esta fase del desarrollo de la ciencia ocupa la mayor parte del tiempo de los científicos, porque aunque los nombres que nos han llegado hasta nosotros han sido los de científicos revolucionarios que han roto con las concepciones de su tiempo (como Galileo o Einstein), la mayor parte de científicos realizan trabajos rutinarios de comprobación para mostrar o poner a prueba la solidez del paradigma en el que se basan. En ocasiones, no obstante, un paradigma no es capaz de resolver todos los problemas, y estos persisten a lo largo de los años o de los siglos, tal vez acumulándose junto con otros. En ese caso el paradigma en conjunto comienza a ponerse en cuestión y los científicos comienzan a considerar si supone el marco más adecuado o la forma más correcta de abordar los problemas o si debe ser abandonado. La crisis supone la proliferación de nuevos paradigmas, en un principio tentativos y provisionales, con vistas a resolver la o las cuestiones más problemáticas. Estos nuevos paradigmas compiten entre sí y cada uno trata de imponerse como el enfoque mas adecuado. Finalmente se produce una revolución científica cuando uno de los nuevos paradigmas sustituye al paradigma tradicional (como sucedió con la visión del mundo copernicana, que derrocó a la concepción aristotélica o con la teoría de la relatividad de Albert Einstein, que sustituyó a la visión newtoniana de la realidad como la forma más apropiada forma aproximarse al mundo): "Las revoluciones científicas se consideran aquí como aquellos episodios de desarrollo no acumulativo en que un antiguo paradigma es reemplazado, completamente o en parte, por otro nuevo e incompatible." Tras la revolución el ciclo comienza de nuevo y el paradigma que ha sido instaurado da pie a un nuevo proceso de ciencia formal. Como se puede ver, el enfoque historicista da más importancia a factores subjetivos en el proceso de investigación científica que anteriormente habían sido pasados por alto. Kuhn muestra que la ciencia no es solamente un contraste y neutral entre las teorías y

16

ARMANDO ZABERT (COMPILADOR)

la realidad, sino que hay diálogo, debate, y también tensiones y luchas entre los defensores de los distintos paradigmas. Los científicos no son seres absolutamente racionales. Cuando los experimentos parecen mostrar que una teoría determinada es falsa, algunos científicos continúan usándola. Si hay una posible aplicación práctica de la teoría o existen intereses de algún tipo, esto influye en la actividad científica, así como la existencia de colectividades o grupos sociales a favor o en contra de una teoría concreta, o la existencia de problemas éticos. Todos ellos son casos en los que la actividad científica se ve influenciada por el "mundo exterior". En definitiva, allí donde los formalistas afirmaban que lo importante de la ciencia son las teorías y la comparación objetiva entre las teorías existentes, los historicistas conceden más importancia al sujeto que lleva a cabo la investigación así como a la sociedad en la que está inmerso. Otro argumento adicional en contra de la concepción de la ciencia como un proceso perfectamente racional en el que sólo tienen importancia la fuerza de los argumentos es el hecho de que desde un paradigma resulta difícil (algunos afirman que imposible) entender el punto de vista alternativo, ya que siempre se parte de un paradigma determinado. No existe forma de alejarse de todos los paradigmas y compararlos de forma objetiva, sino que siempre estamos inmersos en uno de ellos y conforme al mismo interpretamos el mundo que nos rodea. El debate que se establece, por lo tanto, entre defensores de distintos paradigmas puede resultar a menudo estéril, hasta el punto, llega a decir Kuhn, de que un paradigma triunfa no porque consiga convencer a sus oponentes, sino porque los representantes del paradigma más antiguo van falleciendo. Considerados estos factores, ¿cómo hemos de entender el progreso en la ciencia? La respuesta de Kuh es que el progreso, estrictamente hablando, sólo se produce en las fases de ciencia normal, pero no se puede hablar de un progreso continuado desde la época de los griegos hasta la actualidad, porque las revoluciones científicas no son sino rupturas de esa continuidad. Cada revolución marca, en cierto sentido, un nuevo comienzo. Esta perspectiva dará pie posteriormente a un relativismo radical según el cual no habría forma de saber cuál, entre dos teorías, es verdadera puesto que la verdad depende del paradigma desde el que se analizan los problemas (Feyerabend es un filósofo relativista que ejemplifica esta postura). El propio Kuhn, sin embargo, se desmarcará de una interpretación de su propia teoría en ese sentido. Textos pertenecientes a "La estructura de las revoluciones científicas":  "La observación y la experiencia pueden y deben limitar drásticamente la gama de las creencias científicas admisibles o, de lo contrario, no habría ciencia. Pero, por sí solas, no pueden determinar un cuerpo particular de tales creencias. Un elemento aparentemente arbitrario, compuesto de incidentes personales e históricos, es siempre uno de los ingredientes de formación de las creencias sostenidas por una comunidad científica dada en un momento determinado."  "El estudio de los paradigmas es lo que prepara principalmente al estudiante para entrar a formar parte como miembro de la comunidad científica particular con la que trabajará más tarde."  "A falta de un paradigma o de algún candidato a paradigma, todos los hechos que pudieran ser pertinentes para el desarrollo de una ciencia dada tienen probabilidades de parecer igualmente importantes. Como resultado de ello, la primera reunión de hechos es una actividad mucho más fortuita que la que resulta familiar, después del desarrollo científico subsiguiente."  "No puede interpretarse ninguna historia natural sin, al menos, cierto caudal implícito de creencias metodológicas y teóricas entrelazadas, que permite la

17

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

 

 





selección, la evaluación y la crítica. Si este caudal de creencias no se encuentra ya implícito en la colección de hechos -en cuyo caso tendremos a mano algo más que hechos simples- deberá ser proporcionado del exterior, quizá por una metafísica corriente, por otra ciencia o por incidentes personales o históricos. Por consiguiente, no es extraño que, en las primeras etapas del desarrollo de cualquier ciencia, diferentes hombres, ante la misma gama de fenómenos -pero, habitualmente, no los mismos fenómenos particulares- los describan y los interpreten de modos diferentes. Lo que es sorprendente, y quizá también único en este grado en los campos que llamamos ciencia, es que esas divergencias iniciales puedan llegar a desaparecer en gran parte alguna vez." "Para ser aceptada como paradigma, una teoría debe parecer mejor que sus competidoras; pero no necesita explicar y, en efecto, nunca lo hace, todos los hechos que se puedan confrontar con ella." "El surgimiento de un paradigma afecta a la estructura del grupo que practica en ese campo. En el desarrollo de una ciencia natural, cuando un individuo o un grupo produce, por primera vez, una síntesis capaz de atraer a la mayoría de los profesionales de la generación siguiente, las escuelas más antiguas desaparecen gradualmente. Su desaparición se debe, en parte, a la conversión de sus miembros al nuevo paradigma. Pero hay siempre hombres que se aferran a alguna de las viejas opiniones y, simplemente, se les excluye de la profesión que, a partir de entonces, pasa por alto sus trabajos. El nuevo paradigma implica una definición nueva y más rígida del campo." "Cuando un científico individual puede dar por sentado un paradigma, no necesita ya, en sus trabajos principales, tratar de reconstruir completamente su campo, desde sus principios, y justificar el uso de cada concepto presentado." "El éxito de un paradigma es al principio, en gran parte, una promesa de éxito discernible en ejemplos seleccionados y todavía incompletos. La ciencia normal consiste en la realización de esa promesa, una realización lograda mediante la ampliación del conocimiento de aquellos hechos que el paradigma muestra como particularmente reveladores, aumentando la extensión del aclopamiento entre esos hechos y las predicciones del paradigma y por medio de la articulación ulterior del paradigma mismo." "Ninguna parte del objetivo de la ciencia normal está encaminada a provocar nuevos tipos de fenómenos; en realidad, a los fenómenos que no encajarían dentro de los límites mencionados frecuentemente ni siquiera se los ve. Tampoco tienden normalmente los científicos a descubrir nuevas teorías y a menudo se muestran intolerantes con las formuladas por otros. Es posible que sean defectos. Por supuesto, las zonas investigadas por la ciencia normal son minúsculas; la empresa que está siendo discutida ha restringido drásticamente la visión. Pero esas restricciones, nacidas de la confianza en un paradigma, resultan esenciales para el desarrollo de una ciencia. Al enfocar la atención sobre un cuadro pequeño de problemas relativamente esotéricos, el paradigma obliga a los científicos a investigar alguna parte de la naturaleza de una manera tan detallada y profunda que sería inimaginable en otras condiciones." "Creo que hay sólo tres focos normales para la investigación científica fáctica y no son siempre ni permanentemente, distintos. Primeramente encontramos la clase de hechos que el paradigma ha mostrado que son particularmente reveladores de la naturaleza de las cosas.(...) Los esfuerzos por aumentar la exactitud y el alcance con que se conocen hechos como ésos, ocupan una fracción importante de la literatura de la ciencia de observación y experimentación. Desde Tycho Brahe hasta E. O. Lawrence, algunos científicos han adquirido grandes reputaciones, no por la novedad de sus descubrimientos, sino por la precisión, la seguridad y el alcance de los métodos que desarrollaron para la redeterminación de algún tipo de hecho previamente conocido. Una segunda clase habitual, aunque menor, de determinaciones fácticas se dirige hacia los hechos que pueden compararse directamente con predicciones de la teoría del paradigma. (...). Una tercera clase de experimentos y observaciones agota la tarea de reunión de hechos de la ciencia normal. Consiste en el trabajo empírico emprendido para articular la teoría del paradigma, resolviendo algunas de sus ambigüedades y permitiendo resolver problemas hacia los que anteriormente sólo se había llamado la atención. (...) Estas tres clases de problemas: la determinación del hecho significativo, el

18

ARMANDO ZABERT (COMPILADOR)













acoplamiento de los hechos con la teoría y la articulación de la teoría, agotan, creo yo, la literatura de la ciencia normal, tanto empírica como teórica." ”El surgimiento de nuevas teorías es precedido generalmente por un periodo de inseguridad profesional profunda. Como podría esperarse, esta inseguridad e generada por el fracaso persistente de los enigmas de la ciencia normal para dar los resultados apetecidos. El fracaso de las reglas existentes es el que sirve de preludio a la búsqueda de otras nuevas." "Supongamos entonces que las crisis son una condición previa y necesaria para el nacimiento de nuevas teorías y preguntémonos después cómo responden los científicos a su existencia. Aun cuando pueden comenzar a perder su fe y, a continuación a tomar en consideración otras alternativas, no renuncian al paradigma que los ha conducido a la crisis." "La transición de un paradigma en crisis a otro nuevo del que pueda surgir una nueva tradición de ciencia normal, está lejos de ser un proceso de acumulación, al que se llegue por medio de una articulación o una ampliación del antiguo paradigma. Es más bien una reconstrucción del campo, a partir de nuevos fundamentos, reconstrucción que cambia alguna de las generalizaciones teóricas más elementales del campo, así como también muchos de los métodos y aplicaciones del paradigma. Cuando la transición es completa, la profesión habrá modificado su visión del campo, sus métodos y sus metas." "Casi siempre, los hombres que realizan esos inventos fundamentales de un nuevo paradigma han sido muy jóvenes o muy noveles en el campo cuyo paradigma cambian. Se trata de hombres que, al no estar comprometidos con las reglas tradicionales de la ciencia normal debido a que tienen poca práctica anterior, tienen muchas probabilidades de ver que esas reglas no define ya un juego que pueda continuar adelante y de concebir otro conjunto que pueda reemplazarlas. La transición consiguiente a un nuevo paradigma es la revolución científica." "No hay ninguna norma más elevada que la aceptación de la comunidad pertinente. Para descubrir cómo se llevan a cabo las revoluciones científicas, tendremos, por consiguiente, que examinar no sólo el efecto de la naturaleza y la lógica, sino también las técnicas de argumentación persuasiva, efectivas dentro de los grupos muy especiales que constituyen la comunidad de científicos. Para descubrir por qué la cuestión de la elección de paradigma no puede resolverse nunca de manera inequívoca sólo mediante la lógica y la experimentación, debemos examinar brevemente la naturaleza de las diferencias que separan a los partidarios de un paradigma tradicional de sus sucesores revolucionarios." "La tradición científica normal que surge de una revolución científica es no sólo incompatible sino también a menudo incomparable con la que existía con anterioridad."

19

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

4 - LA CIENCIA. ALGUNAS DEFINICIONES E IDEAS BASICAS. Armando Zabert
La Ciencia no es un proceso de acumulación de descubrimientos e inventos científicos que se realiza de una forma lineal desde un pasado borroso hasta nuestros días. Esta idea ha sido inculcada a los profesionales y estudiantes de la disciplina como consecuencia de la mala interpretación y enseñanza de los hechos científicos plasmados en los libros de texto. Así se nos hacen partícipes de la errónea concepción de que las realizaciones científicas actuales son la herencia de una serie de conceptos y hallazgos, unidos y transformados mediante una cuidadosa depuración de la que se han ido desechando, a lo largo del tiempo, todas aquellas cosas que hoy se definen como inservibles e ingenuas. Esta imagen de la Ciencia, como un gran recipiente, ha desfigurado lo que es verdaderamente el transcurrir de la Ciencia. Desarrollaremos previamente algunos conceptos importantes, que nos serán de gran utilidad con posterioridad. Entre estos conceptos consideraremos la noción de: • • • • • Paradigma Comunidad Científica Ciencia Normal Enigmas Anomalías

A continuación, una síntesis de que son las Teorías Científicas y sus tipos, los componentes básicos para la construcción de las teorías, para finalizar con una bravísima descripción de tres corrientes epistemológicas actuales: Kuhn, Lakatos y Bunge. Dejando para un capitulo especial las ideas de Habermas. LA NOCIÓN DE PARADIGMA Concepto: El paradigma es un modelo o ejemplo a seguir, por una comunidad científica, de los problemas que tiene que resolver y del modo como se van a dar las soluciones. Un paradigma comporta una especial manera de entender el mundo, explicarlo y manipularlo. Estos modelos son "realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica" Este paradigma ofrece al que lo sigue: • • • • una base de afirmaciones teóricas y conceptuales un cierto acuerdo entre los problemas urgentes a resolver unas técnicas de experimentación concretas unos supuestos metafísicos que encuadran y dirigen la investigación y sobre los que no hay ninguna duda aunque sean incomprobables

Es precisamente esa adhesión a un paradigma común lo que permite distinguir lo que es una Comunidad Científica LA COMUNIDAD CIENTÍFICA Concepto: Una Comunidad Científica es aquel grupo de personas que conjuntamente una profesión científica y que están ligados por elementos para llevar a cabo la resolución de metas y objetivos de su investigación; realizan su proyecto basados en un paradigma compartido que es plenamente. practican comunes es decir, aceptado

20

ARMANDO ZABERT (COMPILADOR)

Los miembros de una Comunidad Científica participan de una misma educación, basada en libros de texto y conferencias de una tradición científica determinada. Eso permitirá que haya una gran comunicación en el grupo y una adecuación de juicios que, sin embargo, no excluirá las discrepancias. Además el grupo científico se puede dedicar a los aspectos más sutiles de la investigación porque no tiene que justificar los principios teóricos ni los conceptos utilizados en su campo. Cuando una Comunidad Científica se basa en un Paradigma para llevar a cabo sus investigaciones se dice que éstos hacen Ciencia Normal. LA CIENCIA NORMAL Concepto: Es la ciencia que hacen los científicos habitualmente cuando indagan acerca de la naturaleza y resuelven los problemas que más urgentemente se les presentan, apoyados en un paradigma que no es puesto en duda. Esto es muy útil porque, cuando un paradigma generalmente aceptado es capaz de asegurar a los científicos que los problemas investigados son importantes, los hombres de ciencia desarrollan complicados y costosos aparatos para agotar el campo de investigación o extender ésta al menos tanto como sea posible, dependiendo ello, naturalmente, en primer lugar, de que la validez del paradigma siga siendo aceptada e incluso se confirme cada vez más y, en segundo lugar, en razón de circunstancias extrañas a él: precisión de los instrumentos, posibilidades de inversión económica, perspectivas que ofrece el paradigma, consiguiente entusiasmos de los investigadores etc. Por lo tanto, la Ciencia Normal perfila el campo de la investigación por medio de la articulación de las teorías y del paradigma mismo; es decir, la Ciencia Normal facilita la unión entre los hechos y las predicciones de la teoría, forzando a la naturaleza para que se ajusten a los límites preestablecidos por el paradigma. Así cuando el científico hace Ciencia Normal, debe ser capaz de explicar los hechos reveladores de la naturaleza de las cosas utilizando la observación y la experimentación y comparando los hechos con las predicciones de la teoría de su paradigma. Su labor ha de ser matematízable y ajustada a la naturaleza, debiéndose resolver, para ello, toda clase de ambigüedades y problemas que se presenten durante su investigación. No obstante, la investigación nunca se presenta de esta manera ya que siempre surgen problemas extraordinarios que no concuerdan con estos presupuestos. A estos resultados y problemas no previstos por el científico, Kuhn los denominó Enigmas. LOS ENIGMAS Concepto: Los enigmas pueden hacer fracasar una investigación, fracaso en el que se va a ver involucrado el científico y nunca la Naturaleza. Un enigma puede tener una solución, varias o ninguna, y el profesional debe poner a prueba sus conocimientos y su ingenio para resolverlo. El Paradigma debe capacitar a una comunidad científica para la resolución de enigmas mediante un compromiso teórico, conceptual, instrumental y metodológico. Estos compromisos generan una serie de reglas para ordenar el mundo y resolver problemas y enigmas, pero estas reglas serán siempre posteriores al paradigma y suministradas por él. Las Ciencia se rige siempre por paradigmas y las Comunidades Científicas no tienen porque necesitar de un completo conjunto de reglas ya que desde el punto de vista teórico no se necesitan, aunque, en la práctica sí se utilicen. Precisamente cuando más se necesita un conjunto de reglas es cuando la Ciencia entra en un período de crisis. En esos momentos la confianza en el paradigma se deteriora y se espesa el número de reglas para vencer un poco la inseguridad creciente. 21

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Aunque los paradigmas no son productores de novedades fácticas o teóricas, sin embargo surgen teorías completamente nuevas que hacen desaparecer el modelo anterior. ¿Por qué sucede esto?. El Paradigma, aunque no es propenso al cambio, e incluso opone una gran resistencia a él, sin embargo lo hace cuando descubre que la naturaleza de alguna manera "ha violado las expectativas inducidas por el Paradigma que rige la Ciencia Normal". Esta trasgresión de los límites del Paradigma por parte de la Naturaleza, es lo que Kuhn llamó Anomalía. LAS ANOMALÍAS La Ciencia Normal, ante una anomalía, se encuentra con que no puede resolver el problema nuevo sin que le tiemblen un poco los cimientos de su paradigma, ya que necesitaría revisarlo y esto sería preparar el camino hacia la novedad que, si es importante, podría exigir un cambio en el modelo. Si la anomalía es lo suficientemente esencial como para poner en entredicho algunos de los elementos más esenciales del Paradigma anterior, entonces se podrá producir lo que Kuhn denominó como Revolución Científica, es decir, el surgimiento de un nuevo Paradigma. LAS TEORIAS CIENTÍFICAS Y SUS TIPOS Es normal que se utilice él termino TEORIA con distintos sentidos y grados de generalidad. Por ello siguiendo al filosofo Nagel diferenciaremos cuatro acepciones para el termino teoría: 1. Un primer sentido, teoría es un sistema de enunciados, frecuentemente universales y relativos a distintos aspectos de fenómenos complejos, capaces de explicar algunas regularidades empíricamente establecidas a partir de sucesos observados, y en muchos casos, de predecir con distintos grados de precisión cierta clase de ocurrencias individuales. Ejemplos de ello seria, la Mecánica de Newton, etc. 2. Un segundo sentido, teoría se refiere a una “ley o generalización que puede afirmar alguna relación de dependencia entre variables” que puede adoptar una forma estrictamente universal o tener un alcance estadístico. Por ejemplo la Ley de los Gases de Boyle. 3. Un tercer sentido, teoría no hace referencia a un conjunto de enunciados sistemáticamente integrados ni a una única generalización estrictamente formada, sino a las identificaciones de una “clase de factores o variables que por distintas razones se suponen constituyen los determinantes principales de los fenómenos que se investigan en una disciplina determinada”. Ejemplo la Teoría Económica de Keynes. 4. Un cuarto sentido, a una teoría se refiere a cualquier análisis mas o menos sistemático de un conjunto de conceptos relacionados. Ejemplo, la teoría del conocimiento en Filosofía. Otra visión interesante de tener en cuenta, es la distinción que hace Burkhardt entre las teorías fenomenológicas y las teorías fundamentales. Las teorías fenomenológicas son las que surgen directamente de los datos, constituyendo un modelo descriptivo de una porción particular de los fenómenos. Se caracterizan por el rango limitado de objetos a los que se le aplican, pero detalladas y especificas en sus descripciones, resultando de utilidad en el diseño de experimentos y en la compresión de los fenómenos que ocurren por su proximidad a la realidad. Las teorías fundamentales, son estructuras conceptuales de variables y relaciones entre ellas que comprende los aspectos esenciales de un conjunto de fenómenos. Tienen carácter descriptivo y predictivos y es completa dentro de un dominio bien delimitado. 22

ARMANDO ZABERT (COMPILADOR)

Son modelos analíticos que tratan de explicar un rango amplio de fenómenos en términos de pocos conceptos. Son ejemplos de casos típicos la mecánica de Newton, etc. Una de las cuestiones con respecto a las Teorias que en Ciencias Sociales es aun tema de discusión, es si las teorías sociales (por ejemplo conductismo, constructivismo, desarrollo, etc.) realmente proporcionan estructuras completas para explicar los fenómenos, o si debido a que no son completas en un dominio, deben ser usadas teniendo en cuenta que sin mecanismos de control, son descripciones peligrosamente simples de sistemas complejos. Componentes básicos en el proceso de construcción de teorías A continuación transcribimos el proceso de construcción del conocimiento científico según Romberg1:

Fenómenos del Mundo

Formulación del Problema

M odelo

Predicción

Decisión

Datos

Según este modelo, el autor plantea que la raíz de la teorización esta en los fenómenos del mundo que interesa estudiar y sus interdependencias y relaciones con el sistema social. El paso siguiente, es la formulación del problema en la que su eje es la identificación de variables claves, usando un vocabulario y un conjunto de enunciados causales sobre el fenómeno. Para este paso, es conveniente organizar dichos enunciados en términos de modelos causales. Y a continuación se afirma una predicción, donde se define predicción como un enunciado sobre los datos que se espera observar bajo las hipótesis de que el modelo sea verdadero. Estos datos pueden provenir de diseños experimentales en que se garantice el control de las variables o observaciones, y serán comparados con los resultados o hipótesis previas. Debemos aclarar que este esquema de Romberg es un enfoque clásico o confirmatorio, más didáctico que actual, asociado con métodos cuantitativos. La naturaleza de las ciencias sociales, y la complejidad de los problemas que aborda hace necesarios, una vez formulado, y previa a la construcción de un modelo, una toma de datos, que se analizan desde todas las perspectivas posibles en un enfoque exploratorio, buscando teorías que las expliquen. Este es un enfoque más propio de la investigación cualitativa. Corrientes Epistemológicas Actuales El análisis del objeto y los métodos de cualquier área del conocimiento científico, es un tema propio de la Epistemología. Por consiguiente, la Epistemología estudia, recordando conceptos, la constitución de los conocimientos científicos que se consideran validos, abordando problemas de demarcación de la ciencia y el estudio del desarrollo del conocimiento científico. En este breve subtitulo, abordare aspectos relativos a las concepciones epistemológicas de Kuhn, Lakatos y Bunge.

1

Romberg, T (1988) Necessary ingredients for a Theory of Mathematics Education. En Steiner, H.G. y Vermandel, A (Eds.) Fondations and Methodology of de discipline Mathematics Education . Procceding 2nd TME – Conference.Bielefeld. Dept of didactics and Criticism Antwerp Univ.

23

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Los paradigmas según Kuhn La teoría epistemológica defendida por Kuhn2 asigna un rasgo importante al carácter revolucionario del progreso científico, en el que una revolución supone el abandono de una estructura teórica y su reemplazo por otra, incompatible con la anterior. Veamos el siguiente esquema del progreso de la ciencia: Preciencia

Ciencia Normal

Nueva Ciencia Normal

Crisis

Revolución

La noción de Paradigma es una de las aportaciones mas importantes de Kuhn a la Teoría de la Ciencia. Recordando: un paradigma es una concepción predominante, es el conjunto o red de hipótesis teóricas generales, leyes y técnicas de aplicación, compartidas por los miembros de una comunidad científica. La formación de una ciencia, se estructura cuando una comunidad científica se adhiere a un solo paradigma, pero va precedida por una fase de actividad relativamente sin organización, que se denomina presciencia, en la que su característica es que falta un acuerdo en aspectos fundamentales entre los distintos miembros de la comunidad científica. Para Kuhn en la pre-ciencia, habrá tantas teorías como investigadores haya, cada teórico sé vera obligado a comenzar de nuevo y a justificar su propio enfoque. Posteriormente, sigue la ciencia normal (ya definida en este trabajo) y los inicios de las crisis, enigmas y anomalías que llevan a una revolución y nuevamente a la pre-ciencia. Programa de Investigación Científica de Lakatos En la visión de Lakatos3, este filosofo de las ciencias, considera que lo que debe ser valorado como científico no es la teoría, sino una sucesión de teorías enlazadas con un criterio de continuidad en programas de investigación Según Lakatos, estos programas de investigación, contendrán reglas metodológicas acerca de las vías de investigación que deben ser evitadas, a los que él filosofo denomina heurísticas negativas y los caminos que deben seguirse a los que llama heurísticas positivas. Estas heurísticas, proporcionan una definición implícita del marco conceptual del programa correspondiente, el cual incluirá: • • • Un núcleo firme o “centro firme” del programa Un cinturón protector de hipótesis auxiliares o “cinturón de Lakatos” La heurística o conjunto de procedimientos aplicables a la solución de los problemas.

2 3

Kuhn, T.S. (1975) La estructura de las revoluciones científicas. México. F.C.E
Lakatos, I y Musgrave, A. 1975. La critica y el desarrollo del conocimiento. Barcelona. Grijalbo.

24

ARMANDO ZABERT (COMPILADOR)

Veamos en el siguiente grafico esta descripción de Lakatos:

Núcleo Firme

Cinturón Protector de hipótesis Auxiliares

Realidad Social



¿Cómo se hará la diferenciación entre programas de investigación que compitan entre sí?

Según Lakatos, la diferenciación entre programas de investigación competitivos se hará teniendo en cuenta su potencial para descubrir nuevos fenómenos y el poder explicativo que proporcionen. La aparición de un nuevo programa de investigación supone un cambio progresivo de problemática, mientras que la degeneración de un programa viene dado por la aparición de hechos contradictorios. En palabras de Lakatos, los programas de investigación pueden estar basados en hipótesis “inconmensurables”, pero estas tendrán distintos “frutos” en cuanto a sus resultados científicos, y en consecuencia, se pueden comparar sobre la base de un progreso relativo.


¿Cuándo una teoría supone progresos?

Para Lakatos una teoría supone progreso cuando cumple tres requisitos: 1. la nueva teoría hace predicciones que no hacia la predecesora 2. algunas de las nuevas predicciones se han podido corroborar 3. La nueva teoría puede explicar hechos que no se podían explicar con la teoría que la precedía. En términos más sencillo, el “núcleo firme de una teoría” es muy difícil de contrastar, pero podemos decir y determinar si un programa cumple los tres criterios de progreso, lo que permite evaluar la validez y racionalidad del cambio científico.


¿Cómo interpreta Lakatos el estado de la ciencia madura e inmadura?

Para Lakatos, el estado de ciencia madura implica la existencia de un programa de investigación y el de ciencia inmadura una secuencia de ensayos y errores. Según este filosofo, el estado de ciencia normal (según la definición que hemos desarrollado de Kuhn) estaría caracterizado por la existencia de un programa de investigación que ha logrado monopolizar la explicación de los fenómenos.

25

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología


¿Cómo interpreta Lakatos la Historia de la Ciencia?

Para Lakatos, la historia de la Ciencia debe ser la de los programas de investigación o paradigmas que compiten entre sí, y no debe convertirse en una sucesión de periodos de ciencia normal, cuando más pronto se inicie la competencia entre programas de investigación, mejor para el progreso científico. Es preferible el pluralismo y no el monismo (teoría única y absoluta prescindente de toda otra variante) teórico, como así también que algunos investigadores se aferren a un programa de investigación hasta que este alcance su punto de saturación. Campos y líneas de Investigación en la Epistemología de Bunge Según Mario Bunge4, la Ciencia es:” un cuerpo creciente de conocimientos que caracteriza como racional, exacto, verificable y por consiguiente, falible”. Para este filosofo, el conjunto de ideas establecidas provisionalmente forman el conocimiento científico. Las investigaciones científicas se pueden realizar tanto individualmente, pero sobre todo en el seno de las Comunidades Científicas, las que las validan o rechazan. Según Bunge, un campo de conocimiento puede caracterizarse como sector de la actividad humana, dirigido a obtener, difundir o utilizar conocimientos de alguna clase. Analicemos este concepto, sean: • • • • • • • • • • T: comunidad de científicos que estudian T S: sociedad D: dominio del discurso (objeto de estudio) G: concepción general o filosofía relacionada F: conjunto de herramientas lógicas o matemáticas utilizables E: conjunto de supuestos que toma de otros campos P: problemática que aborda A: conocimientos específicos acumulados O: objetivos y metas M: métodos de investigación utilizados

Analíticamente T = S, D, G, F, E, P, A, O, M  Bunge además distingue entre lo que él denomina campo de creencias (religión, ideología política, etc.) y los campos de investigación. • • En los campos de creencias, los cambios en las ideas solo se producen como consecuencia de presuntas revelaciones, de controversias o presiones sociales. En los campos de investigación, los cambios son incesantes como consecuencia de la propia investigación, o por el flujo permanente de los distintos proyectos de investigación.



¿Cómo distingue Bunge marco materia y marco conceptual?

En T, las tres primeras componentes, es decir Comunidad de Científicos, Sociedad que los apoya (y en la que se desarrolla la investigación) y dominio del discurso (u objeto de estudio), constituyen lo que Bunge denomina el marco material de un campo de investigación, mientras que los restantes elementos, constituyen el marco conceptual.


¿Cómo analiza Bunge un campo de investigación?

Según Bunge, todo campo de investigación puede analizarse como un conjunto de líneas de investigación en proceso de diseño o de realización, en las cuales estará presente cada componente de T.
4

Bunge, M. (1985) Pseudociencia e ideología. Madrid. Alianza.

26

ARMANDO ZABERT (COMPILADOR)

5 - EL OBSTACULO EPISTEMOLÓGICO Y SU LUGAR EN LA INVESTIGACIÓN.
Armando Zabert Se trata de un término introducido por Gastón Bachelard para designar toda aquella creencia, habitualmente inconsciente, que frena u obstaculiza el desarrollo del conocimiento científico. El progreso de la ciencia estaría posibilitado por la concienzación y superación de tales creencias. 1. Concepto. Bachelard (1884-1962) desarrolla la idea de obstáculo epistemológico especialmente en su libro "La formación del espíritu científico", donde expone y ejemplifica diversos tipos de obstáculos. Existen, indudablemente, muchos factores que pueden frenar el desarrollo del conocimiento científico. Podemos encontrar factores objetivos, como por ejemplo la nodisponibilidad de instrumentos de observación y medición sofisticados, la complejidad de la realidad, las limitaciones de los sentidos, etc., pero un obstáculo epistemológico no es objetivo en el sentido apuntado, sino subjetivo, porque se trata de una creencia, generalmente inconsciente, que tiene el científico y que le impide avanzar en su conocimiento. Podríamos decir: el obstáculo epistemológico es interno, no externo. Son confusiones, prejuicios que se dan en el acto mismo de conocer, generando una inercia que tiende a perpetuar lo ya conocido, y cerrando las puertas al nuevo conocimiento. Consiguientemente, la solución no pasaría por comprar un instrumento de medición más sofisticado, sino por analizar el conocimiento científico, poniendo al descubierto las creencias inconscientes y poder así comenzar a superarlas. El epistemólogo francés inicia la tarea de analizar psicoanalíticamente los textos científicos, especialmente los de la Edad Medieval y Moderna, y centrándose sobre todo en temas de física, química y biología (Bachelard fue, originalmente, químico). Más allá de sí son o no científicos, todas las personas tienen creencias que les impiden pensar, sentir y hacer cosas. Por ejemplo, la creencia "no valgo mucho", limitará o frenará el desarrollo de las potencialidades en una persona común. Pero tampoco es este tipo de creencias en las que piensa Bachelard al hablar de obstáculos epistemológicos: estos son creencias que se producen e los científicos, y afectan particularmente su manera de comprender o explicar la realidad. Los obstáculos epistemológicos tienen, no obstante, su aspecto positivo: su concientización y superación es lo que permite, en última instancia, que la ciencia pueda progresar hacia nuevos horizontes e ideas, las que a su vez serán nuevos obstáculos epistemológicos que deberán ser superados, y así sucesivamente. Así, el progreso científico no tiene un término final absoluto, ya que detrás de cada obstáculo surge otro, y así indefinidamente. El progreso consiste más que nada en sucesivas aproximaciones a la verdad (aproximalismo) sin ser esta nunca alcanzada; consiste, para Bachelard, en un triunfo del espíritu científico sobre las resistencias representadas por los obstáculos epistemolpogicos. Desde esta perspectiva, no hay verdad, sino error rectificado. Esta idea según la cual la Historia de la Ciencia es una historia de superación de errores está también presente en otros pensadores. El escritor de ciencia-ficción del siglo XIX, Julio Verne decía que "la ciencia se compone de errores, los que a su vez son los pasos hacia la verdad".

27

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

De idéntica forma, Popper habla del progreso científico en términos de conjeturas y refutaciones, vale decir, lo concibe como una secuencia, aparentemente ilimitada, de hipótesis y refutaciones de las mismas por ser equivocadas. No obstante, los planteos de estos pensadores son diferentes a los de Bachelard, en cuanto que ellos no conciben los errores como productos de las creencias inconscientes del científico, sino más bien como obstáculos más técnicos y objetivos. Bachelard estudia con cierto detenimiento los diversos obstáculos epistemológicos tal como se fueron presentando en la historia de la ciencia. La marcha científica de ésta última hacia la objetividad no es inicialmente objetiva: sólo tras una ruptura epistemológica se hace posible ir pasando de un conocimiento meramente sensible a un conocimiento más científico. 2. El obstáculo epistemológico y el Conocimiento científico Los obstáculos epistemológicos como creencias, son adhesiones afectivas, y el científico procura canalizar esa afectividad en una dirección constructiva, es decir, productora de un conocimiento más objetivo. El origen de los obstáculos epistemológicos se asienta no sólo en todo lo que le fuera transmitido al científico por sus maestros, portadores del mismo error, sino también en sus primeras experiencias en la investigación. 3. Clasificación. De la lectura del texto de Bachelard se sugiere dos criterios importantes para clasificar los obstáculos epistemológicos. a) Primer criterio: En primer lugar, están los obstáculos que aparecen durante la investigación básica, y los que aparecen durante la transmisión del conocimiento a través de la enseñanza, obstáculos estos últimos que son designados con el nombre de “obstáculos pedagógicos”. Los obstáculos que se producen durante la investigación básica, aparecen cuando el científico está creando nuevas hipótesis o las está sometiendo a prueba. Ciertas creencias pueden hacer que el científico plantee hipótesis irrelevantes, que se resista a abandonar ciertas hipótesis por existir una adhesión afectiva a ellas, o que utilice métodos de prueba difícilmente calificables como propiamente científicos. Los obstáculos pedagógicos aparecen en el acto de enseñar, y como tales van transmitiéndose de generación en generación contribuyendo a un freno o a una detención del conocimiento científico: un hecho originalmente mal interpretado es comunicado tal cual a los alumnos, y estos a su vez a sus alumnos y así sucesivamente. El profesor, de hecho, no sólo enseña contenidos, sino también una manera de pensar el mundo, y por ambos caminos se filtran, casi siempre inadvertidamente tanto para el educador como para el educando, los obstáculos epistemológicos. b) Segundo Criterio: Esta segunda clasificación los divide en fundamentales y especiales. Los obstáculos epistemológicos fundamentales son, en la denominación de Bachelard, la experiencia básica y el conocimiento general, y deben ser entendidos como dos errores extremos en los cuales puede incurrir el científico. La experiencia básica consiste en aferrarse a lo singular de los fenómenos, sin captar lo esencial y sin ejercer una crítica sobre los datos de los sentidos. La experiencia básica describe desordenadamente lo que ve, salta de un tema a otro resaltando lo que más le atrae, lo que le es más llamativo, curioso. La experiencia básica busca la variedad, pero no la variación metódica, donde el científico va analizando variable por variable en forma experimental, con el fin de probar la sensibilidad de aquellas que se suponen relevantes. En el otro extremo, podemos encontrar al conocimiento general. Tan nefasto para el progreso del espíritu científico, es la atracción por lo particular (experiencia básica) como la atracción por lo general, su par opuesto. Este segundo obstáculo consiste en generalizar demasiado y de modo facilista, lo que lleva a una detención de la experiencia, a un desinterés por el soporte empírico que debe tener toda ciencia, del mismo modo que la experiencia básica promovía el desinterés por los principios generales, en favor de la diversidad de lo singular.

28

ARMANDO ZABERT (COMPILADOR)

Señala Bachelard que la excesiva generalización inmoviliza el pensamiento: las variables que describen lo general dejan en la sombra las variables matemáticas esenciales y, por lo demás, las generalizaciones apresuradas muchas veces se equivocan. Bachelard señala que, en efecto, todo obstáculo epistemológico tiene su par opuesto, hacia el cual se tiende a ir con el fin de superar el primer error. Los obstáculos epistemológicos especiales son: el obstáculo verbal, el conocimiento unitario, el conocimiento pragmático, el sustancialismo, el realismo, el animismo, el conocimiento cualitativo y el conocimiento cuantitativo. Veamos algunas consideraciones de estos tipos de obstáculos: 1) Obstáculo verbal.- Consiste en una sobre valorización de las comparaciones o metáforas empleadas para explicar los hechos, donde estos quedan explicados por estas comparaciones y no por las leyes científicas. En su intento por describir y explicar el aire, el científico Reamur recurría a la metáfora de la esponja: "el aire, por su estructura, es semejante a los cuerpos esponjosos". En realidad, un acercamiento científico al aire implica hablar de su composición química, de la presión que ejerce sobre la tierra, de su densidad, de sus propiedades para dejar pasar o no ciertas radiaciones, de su capacidad para desplazarse según su temperatura, etc. De considerar que el aire es como una esponja a pensar que tiene porosidades o que resulta útil para enjabonarse hay un solo paso, y es aquí donde aparece el obstáculo verbal: tomar al pie de la letra imágenes metafóricas simples y familiares y proponerlas como explicaciones plausibles. 2) Conocimiento unitario.- Tendencia del conocimiento pre-científico a considerar que todo está regido por un único principio general de la naturaleza, o bien que todas las cuestiones deben encuadrarse desde una única Weltanschauung (es decir cosmovisión, manera de ver las cosas, forma de pensar el mundo). Por ejemplo, en el siglo 18 la idea de una naturaleza homogénea y armónica negó todas las peculiaridades propias de los fenómenos subordinándolas a un principio general, y pasando por alto también las contradicciones observadas. Explicar la diversidad fenoménica desde una única óptica es fácil, pero científicamente inconveniente. Pensar que hay una "unidad armónica" en el mundo conduce al planteo de una supradeterminación, vale decir, a pensar que todo está determinado, too es inevitable, todo está en última instancia controlado desde aquella unidad y aquella armonía. 3) Conocimiento pragmático.- Obstáculo que hace desarrollar indebidamente una hipótesis de tal forma que pueda ser simplemente útil, proceso que Bachelard designa como inducción utilitaria. Desde esta perspectiva, todo lo que no es útil es irracional, es anticientífico. Un ejemplo de hipótesis utilitaria aparece en el científico Berthollet: "Si se suprimiera la transpiración durante los primeros años de vida del hombre, los conductos se agrandarían y los humores (enfermedades) podrían luego salir en forma más abundante". Quien formuló o aceptó esta hipótesis no le importó mayormente que fuera o no verdadera; se interesó porque era útil, ya que suministraba un adecuado curso de acción para evitar el agrandamiento de los conductos, fomentando la transpiración durante los primeros años de vida. 4) Sustancialismo.- Creencia según la cual la noción de sustancia es suficiente para explicar los fenómenos observados, noción a la que se apela en virtud de su familiaridad, su sencillez y su contundencia. Sustancializar un fenómeno es considerarlo simplemente una sustancia, y como tal ésta de por sí sola explica dicho fenómeno. En sus intentos por explicar el fenómeno de la electricidad, los físicos de siglos atrás decían que era como una especie de engrudo, que era "glutinosa" y "untuosa", ya que habían observado que el polvo se "pegaba" a una superficie electrizada. Desde ya, la electricidad no queda explicada diciendo que es un engrudo. En realidad, el conocimiento científico no se agota en el conocimiento de sustancias, porque la realidad está hecha de relaciones. 5) Realismo.- Aquí Bachelard alude a un realismo ingenuo, según el cual la realidad es tal cual como se nos presenta a los sentidos, y estos no nos engañan. Por lo tanto, carece de sentido buscar algo que esté "más allá" de lo fenoménico, porque todo lo real está inmediatamente dado. Apariencia y

29

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

esencia son, para el realismo ingenuo una y la misma cosa, cuando en rigor desde una mentalidad científica debe reconocerse que el conocimiento implica trascender lo fenoménico y emprender la búsqueda de relaciones esenciales. 6) Animismo.- Tendencia del espíritu pre-científico a explicar los fenómenos biológicos, y aún los físico-químicos, a partir de la existencia de un impulso vital, o un fluido vital, que de por sí solo capaz de explicar fenómenos como la reproducción, el metabolismo, el crecimiento, etc. La palabra "vida" aparece como una expresión que puede explicarlo todo. Hacia 1664, por ejemplo, se intentaba explicar ciertos cambios en los metales diciendo que estaban "enfermos", y que su vitalidad había disminuido. El ejemplo puede parecernos grotesco, pero muestra al desnudo el obstáculo epistemológico animista. 7) Conocimiento cualitativo.- Obstáculo epistemológico por el cual consideramos solamente los aspectos cualitativos de los fenómenos, sin intentar indagar en las relaciones cuantitativas entre las variables correspondientes. Su par opuesto es el conocimiento cuantitativo. Por ejemplo, categorizar las personas como "es inteligente" o "no es inteligente", en lugar de intentar establecer una medición numérica, que siempre es mucho más precisa. 8) Conocimiento cuantitativo.- En el otro extremo, este obstáculo implicará cuantificarlo todo en una forma obsesiva, o bien cuantificarlo mal. Por ejemplo, no se puede medir un proceso como por ejemplo los fenómenos mentales, a riesgo de extraer conclusiones equivocadas. Se puede advertir que muchos de los obstáculos epistemológicos descriptos se superponen y hasta parecen referirse a lo mismo, como por ejemplo la experiencia básica con el realismo, o el sustancialismo con el animismo. La razón es que todos ellos están relacionados en los mismos procesos de conocimiento, y si Bachelard los separa es a los efectos del simple análisis. Por ejemplo, considerar que la conducta se explica por el alma implica incurrir simultáneamente en un animismo, porque el alma encierra el impulso vital, en un sustancialismo, porque se explica todo a partir de la idea de sustancia (en este caso una sustancia inmaterial), en un conocimiento unitario porque se invoca el alma como único principio explicativo, etc. Bibliografía Consultada: • Bachelard G., "La formación del espíritu científico". Contribuciones a un psicoanálisis del conocimiento objetivo, Buenos Aires, Siglo XXI editores, 1972, segunda edición.

30

ARMANDO ZABERT (COMPILADOR)

6 - EL METODO HIPOTETICO-DEDUCTIVO DE LA CIENCIA. Armando Zabert
El método hipotético-deductivo, un clásico de la literatura epistemológica, permite poner a prueba hipótesis en la ciencia, y consiste básicamente en deducir de las mismas consecuencias lógicas contrastables con los hechos. Como resultado, las hipótesis podrán ser corroboradas, refutadas o salvadas de la refutación. Examinaremos también nota el razonamiento hipotético- deductivo desde ciertos puntos de vista de las ciencias sociales. 1. Los pasos del método hipotético-deductivo Concepto: El método hipotético-deductivo consiste básicamente en proponer una hipótesis (por eso se llama “hipotético”), luego deducir de ella consecuencias directamente verificables en la realidad (por eso se llama “deductivo”), y finalmente confrontar esas consecuencias con los hechos para ver si la hipótesis es o no sostenible. Para comprender este proceso vamos a guiarnos con un ejemplo muy sencillo, utilizando el esquema 1 Supongamos que queremos poner a prueba la hipótesis (H) de que todos los cisnes son blancos. Para demostrar esta afirmación con absoluta seguridad, deberíamos observar todos los cisnes del mundo, del pasado, del presente y del futuro, cosa obviamente imposible (recordemos que una hipótesis pretende siempre ser una afirmación general que se refiere a '”todos” los objetos). Sin embargo, lo que sí podemos hacer es observar algún o algunos cisnes, y, por lo tanto, lo que podemos probar directamente y con seguridad es una consecuencia lógica de la hipótesis, a saber "el cisne del zoológico es blanco". Por lo tanto, de la hipótesis inicial deducimos esta implicación contrastadora (I), la que pondremos a prueba confrontándola con la realidad. En rigor, el pasaje de la hipótesis a la implicación contrastadora no suele ser tan sencillo como aquí lo sugerimos. Muchas veces la hipótesis de partida es una hipótesis teórica cuyos términos requieren ser traducidos a un lenguaje observacional, con lo que obtenemos una hipótesis empírica intermedia, llamada hipótesis derivada. Es a partir de esta que luego se deducirán implicaciones contrastadoras. Por ejemplo, a partir de la hipótesis teórica "todos los metales se dilatan con el calor", se traduce el término teórico "metal" como término empírico "hierro" obteniéndose la hipótesis derivada "El hierro se dilatará con el calor". Desde aquí, finalmente, deducimos la implicación "este trozo de hierro se dilatará con el calor". La confrontación de la implicación contrastadora con los hechos se llama “contrastación”, pues de lo que se trata es de establecer una comparación, un “contraste” (una comparación) entre lo que yo supongo que debe ocurrir (el cisne es blanco) y lo que la realidad me muestra en el zoológico (el cisne puede o no ser blanco). Tengamos presente, antes de seguir, que la implicación contrastadora "el cisne del zoológico es blanco" no es originalmente un resultado de la observación, sino una consecuencia lógica de mi hipótesis, lo cual nos permite entender porqué debemos contrastarla con los hechos. Recién cuando yo realice tal confrontación y haya resultado exitosa, podré decir que "el cisne del zoológico es blanco" es un resultado de la observación, con lo cual dejará de ser una implicación contrastadora (consecuencia lógica de la hipótesis), para pasar a ser un enunciado protocolar (o resultado de una observación). Retomando, cuando decidimos contrastar la implicación contrastadora con los hechos, pueden suceder dos cosas: que la implicación y los hechos coincidan (efectivamente el

31

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

cisne del zoológico es blanco), o que no coincidan (el cisne del zoológico es negro). En el primer caso decimos que la implicación contrastadora es verdadera, y en el segundo caso que resultó falsa. Tal vez no estemos aún conformes con los resultados, porque quizás un solo cisne blanco no prueba con el rigor que pretendemos que todos los cisnes lo sean. En este caso buscaremos más cisnes haciendo las correspondientes contrastaciones, hasta llegar, por decir cualquier cifra, a veinte cisnes blancos, momento en el cual nos quedamos conformes. A veces, sin embargo, el apoyo empírico que sustenta una hipótesis no depende tanto de la cantidad de cisnes, sino de la variedad: quizás tres cisnes blancos de distintas sub-especies o razas me prueba mejor la hipótesis que veinte cisnes blancos de la misma sub-especie. En definitiva, cuando hemos constatado la verdad de las implicaciones contrastadoras, decimos que hemos “corroborado” la hipótesis, y pasamos a denominarla “ley”. La hipótesis y la ley son en realidad la misma afirmación, sólo que con la segunda denominación se busca mostrar que se trata de una afirmación corroborada y, por lo tanto, digna de pasar a integrar el cuerpo estable de conocimientos llamado ciencia (con lo cual puede publicarse, difundirse y aplicarse).  ¿Qué sucede si la implicación contrastadora resulta falsa? Tenemos dos caminos alternativos: la refutación y la salvación.

Hipótesis (H)

Implicación contrastadora (I)

Contrastación

Refutación Ley
Coinciden No coinciden

Salvación

Hecho

Esquema 1: El método hipotético-deductivo

32

ARMANDO ZABERT (COMPILADOR)

El primer camino consiste en declarar falsa la hipótesis "todos los cisnes son blancos" (refutación), tras haber comprobado la existencia de un cisne negro. En este caso, recomenzamos todo el proceso volviendo a formular una nueva hipótesis, como por ejemplo "todos los cisnes son negros". El segundo camino consiste en intentar salvar de la refutación a una hipótesis que corre el riesgo de ser falsada. La historia de la ciencia nos revela que el recurso más habitual es la formulación de una hipótesis ad hoc. En este caso, la hipótesis ad hoc podría ser: "este cuervo es en realidad blanco, sólo que está pintado de negro". Si constatamos la verdad de esta hipótesis ad hoc, habremos corroborado nuestra hipótesis original, aunque también es posible que la hipótesis ad hoc no quede corroborada, en cuyo caso refutamos la hipótesis original. Otras veces, la hipótesis ad hoc no necesita ser corroborada, sino que se la introduce como supuesto teórico para poder salvar de la refutación a la hipótesis original. La denominación “ad hoc” significa “para este caso únicamente”, y alude a que es aplicable solamente al caso anómalo que hemos observado (este cisne pintado de negro). La expresión suele aparece también en algunos contratos comerciales, donde una cláusula “ad hoc” es aquella que se aplica solamente a ese contrato en particular. El empleo de hipótesis ad hoc, dijimos, es más una regla que una excepción. Recién empiezan a perder eficacia para sostener una teoría cuando se acumulan demasiado: cuando una teoría está sostenida por demasiadas hipótesis ad hoc (demasiadas anomalías, en el lenguaje de Kuhn), aumenta el riesgo de ser refutada, contribuyendo a producir finalmente lo que Kuhn llamaba una revolución científica (1). Según lo visto hasta aquí, tres pueden ser, en definitiva, los destinos de una hipótesis cuando es sometida a prueba mediante el método H-D: o bien es corroborada, o bien es refutada, o bien es salvada de la refutación (o corroborada vía hipótesis ad hoc). Klimovsky ha denominado “versión simple” del método H-D a la versión según la cual este método se propone sin más corroborar la hipótesis si los hechos la confirman, o refutarla en caso contrario. Sin embargo, el mismo autor señala que esta versión "ha merecido objeciones, basadas en el argumento de que no refleja la complejidad de la estrategia cientifica real" (2), razón por la cual es preciso formular una “versión compleja” del método, donde mas bien se trata de salvar a la hipótesis cuando corre el riesgo de la refutación. Según el mismo autor (Klimovsky), la versión simple implica sostener una estrategia revolucionaria, en la medida en que la hipótesis es sin más refutada, mientras que la versión compleja está más vinculada con una estrategia conservadora, en la medida en que según ella, "una teoría no se abandona en sí mísma porque presenta refutaciones, ya que la responsabilidad podría recaer sobre hipótesis ajenas a ella o sobre las observaciones; y también que una teoría descartada en cierto momento puede volver a ser aceptada por la comunidad científica si se ponen en tela de juicio los datos que han servido para refutarla o las hipótesis auxiliares que han intervenido en la refutación" (3). 2. Un ejemplo de la historia de la ciencia Hempel cuenta las investigaciones de un médico húngaro, Ignaz Semmelweis, quien trató de averiguar por qué las parturientas de la División Primera del Hospital de Viena se enfermaban más que las otras de fiebre puerperal. Sus primeras hipótesis tuvo que refutarlas, hasta que finalmente pudo corroborar la definitiva. Desde la perspectiva del método H-D, veamos brevemente cómo se llevó a cabo la refutación, cómo se hizo la corroboración, y cómo se hubiese salvado de la refutación alguna de las hipótesis en peligro de ser descartada.

33

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

a) Refutación.- Una de las primeras hipótesis que planteó Semmelweis fue que "la fiebre puerperal es producida por influencias atmosféricas" (H). De ello se deduce la implicación contrastadora "la fiebre puerperal debe atacar por igual en todas las divisiones del hospital" (I). Sin embargo, se comprobó que la enfermedad era significativamente mayor en la División Primera, o sea, I era falsa. Conclusión: a partir de la falsedad de I se deduce la falsedad de la hipótesis, con lo cual queda refutada, vale decir, las influencias atmosféricas no tienen relación con el incremento de la fiebre puerperal en una de las divisiones. A partir de aquí, Semmelweis formuló otras cuatro hipótesis, que también terminaron refutadas. b) Corroboración.- La última hipótesis fue que "la fiebre puerperal es producida por los microorganismos presentes en las manos infectadas de los parteros" (H). De ello se deduce la implicación contrastadora "la fiebre puerperal disminuirá significativamente si se desinfectan las manos con una solución clorurada de cal" (I). Se hizo la prueba, y efectivamente el porcentaje de casos de fiebre puerperal disminuyó en forma significativa, con lo cual se terminó corroborando o aceptando la hipótesis. c) Salvación.- Supongamos ahora que la prueba anterior se llevó a cabo, pero no había cambios en el porcentaje de casos de fiebre puerperal (implicación contrastadora falsa), y Semmelewis hubiese estado particularmente interesado en seguir sosteniendo su hipótesis, es decir, en salvarla de la refutación. En este caso, hubiese planteado una hipótesis ad hoc, vinculada por ejemplo con la ineficacia antiséptica de la solución clorurada de cal (8). 3. Fundamentos lógicos del método hipotético-deductivo A continuación explicaremos en forma muy intuitiva los fundamentos lógicos de los razonamientos que conducen a la aceptación o rechazo una hipótesis según el método H-D. El esquema 2 nos muestra las cuatro posibilidades lógicas que pueden darse en cuanto a los valores de verdad (V o F) de una hipótesis (H) y su correspondiente implicación contrastadora (I). Estas cuatro posibilidades están representadas por las cuatro hileras respectivas. Hilera 1 Hilera 2 Hilera 3 Hilera 4 Hipotesis Implicación Contrastadora Validez V V Verdadero V F Falso F V Verdadero F F Verdadero

Esquema 2: Fundamentos lógicos del método hipotético-deductivo Notemos que el único caso donde con seguridad el razonamiento de inferir una I a partir de H es inválido (falso), es la segunda hilera, es decir, cuando de una hipótesis H verdadera concluímos una implicación contrastadora I falsa. Es obvio que a partir de "todos los cisnes son blancos", no puedo deducir válidamente "un cisne es negro". Un razonamiento podemos compararlo a una “máquina” de fabricar verdades: si por un lado metemos una verdad, por la conclusión deberá aparecer otra verdad, no una falsedad (compárese la primera y la segunda hilera del esquema 2). Esta “máquina de inferir”, sin embargo, se altera, cuando por un lado metemos una falsedad, en cuyo caso en la conclusión podrá aparece tanto una verdad como una falsedad (tercera y cuarta hilera del esquema 2).  ¿cómo se aplica este esquema prescripto por la lógica al método H-D? Por empezar, ya dijimos que lo único que podemos comprobar fehacientemente en cuanto a si es V o F no es la hipótesis sino la implicación contrastadora, por cuanto no podíamos saber si “todos” los cisnes son blancos o no, pero sí si uno o unos pocos lo son.

34

ARMANDO ZABERT (COMPILADOR)

A partir de allí, la implicación contrastadora puede ser V o F (5). Si es F (segunda y cuarta hilera del esquema 2), sólo podemos concluír la falsedad de la hipótesis (cuarta hilera), ya que la segunda hilera implica un razonamiento inválido. En cambio, si la implicación contrastadora es V (primera y tercera hilera del esquema 2), entonces podemos concluír indistintamente tanto que la hipótesis es verdadera como que es falsa, ya que ambas posibilidades no implican necesariamente un razonamiento inválido. En síntesis hasta aquí: de la falsedad de la implicación contrastadora concluímos la falsedad de la hipótesis (refutación), mientras que de la verdad de la implicación contrastadora podemos concluír tanto la verdad como la falsedad de la hipótesis, con lo cual decidimos declararla probable (corroboración), y tanto más probable cuanto mayor cantidad y variedad de implicaciones contrastadoras verdaderas hayamos reunido. En el ejemplo: de la observación de un cisne negro concluímos la falsedad de la hipótesis 'todos los cines son blancos', mientras que de la observación de un cisne blanco podemos concluír tanto la verdad de 'todos los cisnes son blancos' como también su falsedad (porque queda la posibilidad de que nuevos cisnes no sean blancos). Esto mismo podemos decirlo de otra manera: basta un solo caso que no esté de acuerdo con la hipótesis para declararla falsa (basta un solo cisne negro para refutar que todos los cisnes son blancos), pero no bastan miles de casos que estén de acuerdo con la hipótesis para declararla verdadera, con lo cual los únicos destinos posibles para una hipótesis no son la falsedad y la verdad, sino la falsedad y la probabilidad. Esto es el resultado natural de la asimetría indicada entre refutación y corroboración (6). 4. Implicancias en Ciencias Sociales del razonamiento hipotético-deductivo Examinaremos aquí algunas consideraciones que se han hecho sobre el razonamiento hipotético-deductivo en el terreno de las ciencias sociales (psicología cognitiva) y que permiten aproximarnos al ¿cómo y el por qué las personas -y entre ellas también los científicos- razonan como lo hacen?. Esto nos dará alguna idea muy elemental sobre el razonamiento H-D se aplica en las Ciencias Sociales Se examinara primeramente los razonamientos que conducen a corroborar o a refutar hipótesis, y luego los que conducen a salvarlas. 1) Corroboración y refutación de hipótesis.- Investigaciones realizadas en psicología cognitiva (Wason, 1966), han revelado que la gente tiende a razonar mal, en el sentido de que tiene una tendencia a confirmar o corroborar sus hipótesis, evitando considerar contraejemplos que la refuten. Wason (7) propuso a varias personas su conocido “problema de las cuatro tarjetas”. Las soluciones ofrecidas, casi siempre incorrectas, mostraron esta tendencia a buscar ejemplos confirmatorios en vez de buscar, además, los contraejemplos. El problema fue incluso mal resuelto por personas de muy alto nivel intelectual. El problema consiste en lo siguiente: dadas cuatro tarjetas como en el esquema 3, que tienen invariablemente una letra de un lado y un número del otro, ¿qué tarjetas se deberían dar vuelta de manera necesaria y suficiente como para determinar con certeza la verdad o la falsedad del siguiente enunciado: "en toda tarjeta que haya una E de un lado, habrá un 4 en la otra"? Este enunciado puede simplificarse diciendo "Si E, entonces 4". Si lo desea, el lector (alumnos) puede resolverlo y comparar su respuesta con el resultado correcto que aparece en el próximo párrafo, antes de seguir leyendo. La respuesta correcta son las tarjetas E y 7. En la experiencia de Wason, la gran mayoría de las personas incluyó la tarjeta E (sola o con alguna otra equivocada), pensando que al darla vuelta podía decidir si el enunciado era V o F: sería verdadero si encontraba un 4, y sería falso si encontraba otro número distinto. Otras personas consideraron que con ello bastaría (de hecho, implica un razonamiento correcto, aunque insuficiente), pero no es así. Si además se hubiesen propuesto dar vuelta la tarjeta 7, y hubieran encontrado una E, podrían haber determinado en este caso la falsedad del enunciado propuesto (la tarjeta E-7 representa el contraejemplo). Sin embargo,

35

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

casi nadie eligió la tarjeta 7, es decir, casi nadie eligió el camino de partir de un consecuente falso (el 7) para ver si estaba o no implicado en un antecedente verdadero (la E). Algunas personas incluyeron en su respuesta la tarjeta 4. Sin embargo, no hay ninguna necesidad de dar vuelta esta tarjeta para decidir sobre el valor de verdad del enunciado propuesto. Por ejemplo, si detrás de la tarjeta no hay una E, ello no prueba la falsedad de "Si E entonces 4".El sesgo hacia la confirmación que encontramos en las personas en general, existe también en la ciencia, donde la tendencia o sesgo predominante es la corroboración (elegir la tarjeta E), mas no la refutación a través de la búsqueda del contraejemplo (elegir la tarjeta 7). 2) Salvación de hipótesis.- Según Wason, la tendencia a corroborar o confirmar expresa un razonamiento incorrecto, mientras que la consideración de todas las posibilidades (ejemplos y contraejemplos), expresa un buen razonamiento. Esquema 3: El problema de las cuatro tarjetas. E 4 A modo de reflexión: Cuando un científico intenta salvar una hipótesis de la refutación, agrega la premisa de la hipótesis ad hoc de manera tal de que la conclusión presuntamente refutatoria se derive válidamente de la hipótesis. Así, concluír "este cisne es negro" puede deducirse válidamente de las premisas "todos los cisnes son blancos" y "este cisne es blanco pero está pintado de negro". El científico trata así de salvar su hipótesis introduciendo un 'arreglito' en su razonamiento de manera que no aparezca como inválido. Aunque los resultados de las investigaciones de Henle no han probado fehacientemente que las personas siempre razonen bien, una cosa es cierta: el hombre tiende siempre a la coherencia, a la validez -más allá de si lo logra o no- como lo prueba el hecho de que, frente a un hecho que amenaza refutar la hipótesis, se ve en la necesidad de introducir premisas adicionales (hipótesis ad hoc) para no verse forzado a aceptar un razonamiento inválido. (1) Kuhn T., "La estructura de las revoluciones científicas", FCE, Madrid, 1975, pág. 149. (2) Klimovsky G., "Las desventuras del conocimiento científico", A-Z editores, Buenos Aires, 1994, pág. 211. (3) Klimovsky G., Op. Cit., pág. 239. (4) Cazau P., "Fundamentos lógicos de la justificación empírica", Revista Observador Psi N° 32, Enero/Abril 1999, Buenos Aires, pág. 71. (5) Darwin decía que toda observación debía ser a favor o en contra de alguna opinión para ser de alguna utilidad (citado por Wisdom John, "Foundations of inference in natural science", Mathuen, London, 1952). (6) Para que hubiese una simetría entre ambos procesos, de la verdad de la I se concluiría la verdad de H, de la misma forma en que de la falsedad de I se concluye la falsedad de H. (7) González G., "Temas de Psicología Cognitiva (II) Pensamiento", Tekné, Buenos Aires, 1987. refutacionismo. (8) Hempel K., "Filosofía de la ciencia natural", Alianza Editorial, Madrid, 1977, 3° edición, pág. 44. D 7

36

ARMANDO ZABERT (COMPILADOR)

7 - LA ABDUCCION O RETRODUCCION. LA LOGICA DEL DESCUBRIMIENTO.
Armando Zabert Abducción es un término creado por Charles Peirce para designar todo aquel proceso inferencial que conduce a la invención, descubrimiento o creación de una hipótesis, propuesta que se inscribe entonces como un intento por construír una "lógica del descubrimiento" científico. En la presente nota incluímos también una comparación con la inducción y la deducción. La investigación científica implica la utilización de diversos tipos de razonamientos. Desde Aristóteles en adelante, las inferencias básicas del científico siempre fueron la deducción y la inducción (1), aunque, con el correr del tiempo y ya entrando el siglo XX, aparecieron otras propuestas como la abducción, planteada y desarrollada por el filósofo y lógico norteamericano Charles S. Peirce (1839-1914). En el presente artículo me propongo explicar de un modo muy elemental la propuesta de Peirce y compararla con otros tipos de inferencia, a los fines de sopesar su función en el contexto general de la investigación científica. Considero un lector no especializado en lógica, por lo que evitare en todo lo posible el empleo de vocabulario técnico. 1. Un acercamiento al concepto de abducción Concepto: También llamada "retroducción" o "inferencia hipotética", la abducción ocupa un lugar importante en la filosofía de Peirce (2). Básicamente, se trata de un tipo especial de razonamiento que nos permite descubrir o inventar nuevas hipótesis para explicar un hecho (3). Un ejemplo claro y sencillo nos lo proporcionan Garnham y Oakill (4). Se trata del ejemplo de abducción del esquema 1, donde, en primer lugar, nos enfrentamos a un hecho que no podemos explicar: el secador no funciona (primera premisa). Este hecho requiere una explicación, para lo cual recurrimos a nuestro marco teórico, que nos dice que si el fusible está fundido, entonces el secador no funciona (segunda premisa). La conclusión correspondiente es "el fusible está fundido", es decir, es la explicación o hipótesis que formulamos para explicar el hecho. El ejemplo de abducción del esquema 2 es utilizado frecuentemente por el mismo Peirce, quien entonces llama "resultado" al hecho a explicar, "regla" al marco teórico utilizado, y "caso" a la hipótesis que se formula para explicar el hecho en función del marco teórico. No utilizaremos aquí esta terminología de Peirce, por parecernos ambigua y confusa. Vamos a comentar ahora algunos elementos importantes del razonamiento abductivo, tales como: el ordenamiento de las premisas, la estructura formal, el marco teórico y la hipótesis. Ordenamiento de las premisas.Si observamos detenidamente los ejemplos de abducción de los esquemas 1 y 2, notaremos que las premisas aparecen en diferente orden: en el esquema 1 primero se presenta el hecho a explicar y luego el marco teórico, mientras que en el esquema 2 primero se presenta el marco teórico (regla) y luego el hecho a explicar (resultado). La pregunta que puede surgir aquí es ¿cuál es el ordenamiento correcto?, y hacia ello vamos. Debemos distinguir entre el ordenamiento lógico y el ordenamiento psicológico de las premisas. Desde el punto de vista estrictamente lógico, el ordenamiento de las premisas carece de importancia, dada la propiedad conmutativa de la conjunción lógica. En efecto, según la lógica proposicional, en todo razonamiento las premisas están relacionadas entre sí por

37

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

conjunción, de manera que es lo mismo decir "Si el fusible está fundido entonces el secador no funciona'” y ”el secador no funciona", que decir "el secador no funciona” y “si el fusible está fundido entonces el secador no funciona". Las conclusiones que pueden obtenerse en uno u otro caso son iguales y están igualmente justificadas desde el punto de vista lógico. Al igual que el ordenamiento lógico, entonces, nos parece que cualquiera de ambos ordenamientos en sentido psicológico es correcto, por cuanto ambos presuponen que la problematización de los hechos está activada o guiada por una teoría previa. La estructura formal del razonamiento. La forma de la inferencia abductiva puede presentarse de diferentes maneras. Utilizando la terminología aristotélica del "Organon", el razonamiento del ejemplo 2 se presenta como un silogismo categórico, y el mismo razonamiento en el ejemplo 1 está presentado como un silogismo hipotético mixto y, más específicamente, como un silogismo más modernamente designado como falacia de la afirmación del antecedente (5), es decir, como un silogismo de la forma: q (hecho a explicar) Si p entonces q (marco teórico) Por lo tanto p (hipótesis) Esta estructura pone de relieve más claramente el carácter probable de la conclusión, tal como lo destacara el mismo Peirce cuando dice que "la abducción sugiere meramente que algo “puede” ser" (6). El marco teórico.Según Garnham y Oakill, "la principal propuesta de una abducción es generar una explicación contra un trasfondo de la teoría previamente establecida" (7). De idéntica manera, Johnson-Laird ubica la abducción como la generación de una explicación para un acontecimiento a partir de una teoría de cómo funciona el mundo (4). En suma, la hipótesis se obtiene "mediante el descubrimiento (o acto de reconocimiento) de que un cierto patrón o pauta (observable en los hechos) es análogo a un patrón general (inteligible como pauta ideal)" (8). De lo dicho se desprende que, si queremos explicar el mismo fenómeno desde marcos teóricos diferentes, formularemos hipótesis distintas. La inclusión del marco teórico como premisa del razonamiento abductivo nos está diciendo, en suma, que resulta imposible formular una hipótesis si no es dentro de algún marco teórico o sistema de creencias, sea conciente o inconciente, explícito o implícito. Si la premisa del marco teórico no existiera, sería imposible inferir una hipótesis únicamente a partir del hecho. la hipótesis.La hipótesis inferida por abducción no es cualquier hipótesis, sino una hipótesis que surje a partir de determinado marco teórico, a saber, aquel que fuera incluído como premisa. Esta hipótesis presenta dos características: a) En primer lugar, la hipótesis representa un saber novedoso, por lo menos desde el punto de vista psicológico. Tal vez no lo sea desde el punto de vista lógico, en la medida en que la hipótesis está incluída en el marco teórico, del cual es una derivación inferencial.

38

ARMANDO ZABERT (COMPILADOR)

b) En segundo lugar, y en relación con lo anterior, la hipótesis que se obtiene por abducción es una de las muchas posibles que admite el marco teórico utilizado. Sin embargo, como indica M. Fann (9), no siempre resulta claro en Peirce si la abducción concierne al descubrimiento de una hipótesis o bien a la selección razonada de una hipótesis entre varias (10). Samaja opta, por ejemplo, por la segunda interpretación cuando se refiere a la abducción como una inferencia que reduce los "espacios de búsqueda" de las hipótesis posibles (8). Otros ejemplos de abducción Samaja (8) nos presenta un ejemplo de inferencia abductiva en los siguientes términos: a) Marco teórico: “La distribución de las posibilidades de reproducción de los individuos y la acumulación gradual de variaciones en las sucesivas generaciones (como ocurre en la Selección Doméstica) produce como resultado la adaptación de los vivientes a sus medios respectivos (Ley de Selección y Acumulación). Hecho a explicar: Los rasgos que se observan en las especies naturales presentan rasgos que parecen “controladas” por un patrón de adaptación al medio. b) Hipótesis: Los rasgos de las especies naturales son un caso de distribución selectiva de la capacidad de reproducción por acumulación sucesiva de variaciones. El aporte de Peirce. En suma, y como destaca Ferrater Mora (2), se pueden mencionar dos puntos importantes en la filosofía de Peirce en lo concerniente a la abducción: a) los procesos mentales involucrados en los contextos de descubrimiento y justificación son inferenciales. En el primero de ellos, psicológicamente puede haber habido algo llamado “intuición” o mera “conjetura”, pero ellas son susceptibles de ser formalizadas lógicamente, es decir, de ser caracterizadas como razonamientos o inferencias; b) de lo anterior, se desprende que las inferencias pueden ser analíticas (la inferencia deductiva) y sintéticas. Esta última no es solamente inductiva, pues incluye también la abducción, lo cual nos introduce de lleno en la polémica cuestión de las relaciones de la abducción con la deducción y la inducción. 2. Abducción, inducción y deducción Peirce dice que "la deducción prueba que algo debe ser; la inducción que algo es realmente operativo; y la abducción sugiere meramente que algo puede ser (6)”, para otros autores, o bien la abducción es irreductible a la inducción, o bien es otro tipo más de inferencia inductiva, discusión derivada en gran parte de una falta de acuerdo respecto de lo que ha de entenderse por inducción. Johnson-Laird, por ejemplo, incluye la abducción como un tipo particular de inducción, que él llama inducción específica (12). La diversidad de opiniones sobre este tema deriva de una diferente concepción sobre la inducción y la deducción. En principio, hay tres criterios para diferenciar ambos tipos de inferencia: la novedad de la conclusión (en la inducción la conclusión es novedosa y en la deducción es tautológica), la necesariedad de la conclusión (en la inducción la conclusión es probable y en la deducción es necesaria), y la generalidad de la conclusión (en la inducción la conclusión es más general que las premisas y en la deducción no). En los esquemas 1 y 2 hemos incluído razonamientos deductivos e inductivos para que lector pueda compararlos rápidamente con el razonamiento abductivo.

39

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Esquema 1 Si el fusible está fundido, entonces el secador no funciona DEDUCCION El fusible está fundido (Por lo tanto) el secador no funciona El secador no funciona El fusible está fundido INDUCCION (Por lo tanto) Si el fusible está fundido, entonces el secador no funciona El secador no funciona ABDUCCION [Hecho a explicar] Si el fusible está fundido, entonces el secador no funciona [Marco teórico] (Por lo tanto) El fusible está fundido [Hipótesis]

Esquema 2 Todos los porotos de este saco son blancos [Regla] Estos porotos son de este saco [Caso] (Por lo tanto) Estos porotos son blancos [Resultado] Estos porotos son de este saco [Caso] Estos porotos son blancos [Resultado] (Por lo tanto) Todos los porotos de este saco son blancos [Regla] Todos los porotos de este saco son blancos [Regla] Estos porotos son blancos [Resultado] (Por lo tanto) Estos porotos son de este saco [Caso]

Con respecto al segundo criterio, deberíamos considerar a la abducción como una inducción, por cuanto -como el mismo Peirce recalca- su conclusión es probable (13). Y con respecto al tercer criterio, deberíamos considerar a la abducción como un caso de deducción, por cuanto las premisas (marco teórico) es más general que la conclusión (hipótesis). La conclusiones posibles que podríamos sacar (esquema 3) son, entonces: a) que la abducción es desde cierto punto de vista inductiva b) que desde otro punto de vista es deductiva c) que estrictamente hablando no es ni inductiva ni deductiva por tener características de ambos tipos de inferencia, al cual le asignamos, entonces, el término de abducción. Esquema 3 De lo general a lo particular De lo particular a lo general Conclusión necesaria Deducción Inducción completa o matemática Conclusión probable Abducción Inducción incompleta o propiamente dicha

La preocupación más frecuente ha sido la de distinguir la abducción de la inducción, y no tanto de la deducción. Veamos esta cuestión en el marco de un análisis de las relaciones entre abducción y reducción. 3. Abducción y reducción Bunge (14) y Bochenski (15) desarrollan un idea por lo menos similar a la de abducción, pero invocando la nomenclatura del lógico polaco J. Lukasiewicz (1878-1956), quien empleó el término "reducción". Bunge considera que la reducción es un caso especial de inducción o inferencia plausible (16), mientras que Lukasiewicz (17), al revés, piensa que la inducción no es más que un caso de reducción. La reducción de Lukasiewicz. Desde el punto de vista cronológico es teóricamente posible que Lukasiewicz haya conocido la obra de Peirce, y más si consideramos que importante labor desplegada por el pensador polaco como historiador de la lógica. Aparentemente no existe, sin embargo, referencia alguna a Peirce en su obra, aunque sí se ocupó de analizar con detenimiento cierto tipo de inferencia a las que llamó "reducción", y que resulta asimilable a la idea de abducción de Peirce. El esquema de la reducción es el siguiente: 40

ARMANDO ZABERT (COMPILADOR)

Si p entonces q q Por lo tanto p Bochenski (15) distingue a su vez una reducción progresiva y una reducción regresiva. En la reducción progresiva se parte de la conclusión 'p' y se llega a la premisa 'q', procedimiento que el autor llama verificación (así, verifico que se da q si se da p); en cambio, en la reducción regresiva se parte de la premisa 'q' y se llega a la conclusión 'p', procedimiento que Bochenki llama explicación (así, explico 'q' en función de 'p'). Consiguientemente, es posible asimilar este último procedimiento, la reducción regresiva, a la abducción. La reducción débil tipo B de Bunge Debido a su ambigüedad, Mario Bunge prefiere no utilizar el término inducción, empleando en su lugar la expresión inferencia plausible (16). Dentro de este tipo de inferencia incluye la reducción débil, una de cuyas variantes es designada por este autor con la letra B, y es la que más puede asimilarse a la inferencia abductiva de Peirce. El esquema propuesto por Bunge es el siguiente (18): "Si p entonces q" es verosímil q (Por lo tanto) es posible que "p" sea verdadera Bunge (18) destaca que este tipo de inferencia no es deductiva por cuanto la conclusión no es necesaria sino posible, con lo cual entraría en el territorio de lo que Bunge llama una "lógica sugestiva", en tanto se ocupa del estudio de inferencias que sólo ofrecen sugerencias, conjeturas. Ya hemos dicho que tal es la idea que tiene Peirce acerca de la abducción. 4. Conclusión En diversos tratados de corte enciclopédico que incluyen tópicos sobre procedimientos inferenciales (vgr. Bunge, 1969; Bochenski, 1969; Copi, 1974; Prior, 1976; Ruda, 1977), no aparecen referencias explícitas al concepto de abducción tal como fuera planteado por Peirce. Probablemente, cabría buscar la razón de esta ausencia en cierta tendencia de pensamiento muy arraigada en la epistemología según la cual esta disciplina ha de ocuparse de los aspectos lógicos y "racionales" de la ciencia, y no de cuestiones de intuición, que competen más a la psicología. Hanson (19) describe así esta situación, sin adscribir a ella: "Es así que a los filósofos hipotético-deductivos les parece que cualquier análisis, como el de Peirce, que pasa bajo el nombre de retroducción [abducción] debe ser irrelevante para el análisis conceptual. La retroducción debe ocuparse, aparentemente, de simples cuestiones de hecho, de diversos aspectos psicológicos, de consideraciones sociológicas e históricas que tienen mucho que ver con el proceso, la psicodinámica de la resolución de problemas pero poco, si algo, con la comprehensión de la estructura conceptual" . Por tanto la Abduccion o Retroduccion se limita a formalizar superficialmente el razonamiento implicado en el proceso de invención o descubrimiento de hipótesis. La tarea pendiente que competería a la psicología del conocimiento, es, en todo caso, la de identificar y formalizar el proceso inferencial (si es que existe) que conduce a la conclusión "si p entonces q", incluída como premisa del razonamiento abductivo. Sólo así se habrá podido profundizar verdaderamente en una lógica del descubrimiento.

41

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Bibliografía Consultada (1) Losee J., "Introducción histórica a la filosofía de la ciencia", Alianza Universidad, Madrid, 1979, 2° edición (Capítulo 1: La filosofía de la ciencia de Aristóteles). (2) Ferrater Mora J., "Diccionario de Filosofía", Alianza, Madrid, 1979, página 12-13. (3) Según se sostenga una tesis filosófica realista o idealista. Desde el realismo, se 'descubren' hipótesis, y desde el idealismo, se 'inventan'. (4) Garnham A. y Oakill J., "Manual de psicología del pensamiento", Paidós, Barcelona, 1996, página 140. (5) Ver Cazau P., "Fundamentos lógicos de la justificación empírica", Revista Observador N° 32, Enero / Abril 1999, Buenos Aires, pág. 74. (6) Citado por Hanson N.R., "Patrones de descubrimiento: observación y explicación", Alianza, Madrid, 1977, página 184. (7) Garnham A. y Oakill J., Op. Cit., página 141. (8) Samaja J., "Epistemología y metodología", Eudeba, Buenos Aires, 1995, 3° edición, página 85. (9) Fann M., "Peirce's Theory of Abduction", 1970 (citado en Ferrater Mora J., Op. Cit., página 13). (10) Peirce es un autor ambiguo y contradictorio. Por ejemplo, como destaca Ferrater Mora, tampoco resulta siempre claro si la abducción es una conjetura, las razones que llevan a la conjetura, o las razones que, una vez formulada la conjetura, explican por qué se ha elegido esa y no otra. (11) Cazau P., "Heurística: el arte de inventar", Revista El Observador Psi N° 20, Noviembre / Diciembre 1996, Buenos Aires, página 462. (12) Los otros dos tipos de inducción son la descriptiva y la explicativa (ver Garnham y Oakill, Op. Cit., página 140). (13) De hecho, si aplicamos el método funcional-veritativo de la tabla de verdad al razonamiento abductivo en su forma de silogismo hipotético mixto, obtenemos una contingencia. (14) Bunge M., "La investigación científica: su estrategia y su filosofía", Ariel, Barcelona,1969, página 862. (15) Bochenski I., "Los métodos actuales del pensamiento", Rialp, Madrid, 1969, 6° edición, página 189. (16) Bunge M., Op. Cit., páginas 860-861. (17) Bochenski I., Op. Cit., página 142. (18) Bunge M., p. Cit., página 863. (19) Hanson N. R., p. Cit, página 51.

42

ARMANDO ZABERT (COMPILADOR)

8 - REFLEXIONES EPISTEMOLOGICAS SOBRE LA INVESTIGACION
CUALITATIVA EN CIENCIAS SOCIALES. Adrián Scribano5 Abstract: It is usually supposed qualitative research is an alternative to quantitative / positive social science and is much easier to apply. This essay says there are no arguments for that beliefs. From this point, it describes what computer analyzes can say qualitative research in the social sciences. Key words: qualitative research, quantitative research, social science methodology. Introducción En las Ciencias Sociales existe una estrategia metodológica que ha cobrado un especial auge en los últimos años denominada generalmente como investigación cualitativa. Particularmente en Argentina, más allá de que el material estrictamente metodológico publicado es escaso, existe una especie de consenso académico implícito, al menos en sociología y politología, sobre dicha estrategia, que puede ser explicitado del siguiente modo: a) que lo cualitativo es la "alternativa" a una ciencia social positivista y cuantitativa b) que dadas las condiciones de trabajo y formación reinantes, dicha alternativa es más fácil de enseñar y de aplicar. Si bien estas dos características deberían ser revisadas con algún detenimiento, desde mi punto de vista ambas parten de y arriban a conclusiones erróneas. De manera sintética mi argumento tendría la siguiente forma: “no tenemos ninguna seguridad que un abordaje cualitativo no sea positivista, no hay ninguna razón epistémica que permita oponer aporéticamente cuantitativo a cualitativo, y finalmente los conocimientos teóricos-metodológicos necesarios para hacer investigación cualitativa no son ni tan fáciles de transmitir ni muchos menos de ejecutar fácilmente”. En base a este diagnóstico, este trabajo pretende destacar algunos tópicos de la discusión metodológica respecto a la investigación cualitativa, con especial referencia al lugar de la informática en la misma, que permitan observar los problemas epistémicos que de ello emergen. Mi objetivo es mostrar, al menos parcialmente, que la estrategia en cuestión implica una pluralidad de técnicas y teorías, que, por su peso específico, trascienden los rasgos propuestos en el diagnóstico realizado y evidencian que su "progreso" implica discusiones que van más allá de la mera referencia alegórica al subjetivismo. Para lograr este objetivo seguiré el siguiente camino argumentativo: en primer lugar mostraré sintéticamente la situación actual de las diversas estrategias cualitativas desde donde se presenta una suerte de periodización de la relación cualitativo y cuantitativo. En segunda instancia, señalaré el lugar que hoy ocupa la informática en la investigación cualitativa a través de la presentación de dos artículos que pueden resumir algunas de las discusiones en torno a esto y, finalmente, esquematizaré las discusiones epistémicas que afloran de este contexto, señalando algunos temas para debatir que van más allá de una simplificada visión sobre lo cualitativo. I. Estrategias Alternativas para la Investigación Cualitativa Una de las confusiones más comunes entre los investigadores recién iniciados respecto a la investigación cualitativa, es la asimilación de las técnicas cualitativas con las estrategias metodológicas.
5

Adrián Scribano - Doctor (c) en Filosofía (Universidad de Buenos Aires). Licenciado en Sociología Política (ILADES) y Licenciado en Ciencia Política (U. Católica de Córdoba). Becario en Università degli Studi di Milano. Profesor de la Universidad Nacional de Villa María (Córdoba, Argentina). FUENTE: Cinta de Moebio No. 8. Sept. 2000. Fac. de Ciencias Sociales. Univ. de Chile. http://rehue.csociales.uchile.cl/publicaciones/moebio/08/frames06.htm

43

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Esta confusión acarrea muchos problemas de diseño para la investigación, de igual dimensión que los que ocasiona realizar una encuesta creyendo que en la aplicación del instrumento se agota el estudio cuantitativo de la sociedad. Sumado a esto, existe un prejuicio teórico muy arraigado sobre las diferencias entre estrategias cuantitativas y cualitativas tomadas como paradigmas rivales e inconmensurables. Por lo tanto, he creído conveniente sintetizar muy brevemente cuál es la situación actual de estas dos temáticas para que la presentación que se hará sobre el lugar de la informática, pueda ser ubicada a un nivel satisfactorio de discusión. Si bien una de las características de los enfoques cualitativos de la investigación en ciencias sociales es la íntima relación existente entre diseño, técnicas, análisis y construcción teórica, que en la práctica invalida una separación tajante de las etapas de la misma, es lícito y además conveniente intentar mostrar cómo se puede reagrupar dichas prácticas según alguna orientación dominante que las asemeje y diferencie. La siguiente es una síntesis y reelaboración de una lista construida por Renata Tesch, donde la autora ha esquematizado lo que ella denomina "tipos de investigación", proveyendo de una definición de lo que entiende son los propósitos de los mismos, con la particularidad de que estas últimas son tomadas directamente de la literatura más usual en cada temática, lo que la hace aún más interesante. De esta manera se pueden visualizar 12 enfoques diversos para llevar adelante una investigación cualitativa, que están agrupados de acuerdo a diversos criterios, entre los cuales predominan el metodológico y el teórico. Dichos enfoques son: 1. Análisis de Contenido (Clásico). "Realizar inferencias válidas y replicables desde los datos hacia sus contextos" (Krippendorf 1990:21). "Descripción objetiva, sistemática y cuantitativa del contenido manifiesto de la comunicación" (Berelson 1952:489). "Realizar inferencias mediante una identificación sistemática y objetiva de las características especificadas dentro del texto"(Stone et al.1966:5). 2. Análisis de Contenido (Etnográfico). "Análisis reflexivos de los documentos" (Altheide 1987:65). "Usar el documento y comprender el sentido de la comunicación, tanto como verificar las interrelaciones teoréticas" (Altheide 1987:68). 3. Análisis del Discurso. "Análisis de lo naturalmente ocurrido conectado por discursos hablados o escritos" (Stubbs 1983:1) proveyendo "una introducción dentro de las formas y mecanismos de la comunicación humana y de la interacción verbal" (van Dijk 1985:4). 4. Estudios de Documentos, Historias de Vida e Historia Oral. Un enfoque "no estructurado y no cuantitativo" usando documentos personales (Bailey 1978:273) que generalmente terminan en tipologías, o "a través del cual se examina y analiza la experiencia subjetiva de los individuos y de sus construcciones del mundo social" (Jones 1983:147). 5. Etnografía (clásica, holística, reflexiva). "Describir y analizar toda o parte de cultura o comunidad por la descripción de las creencias y prácticas del grupo estudiado y mostrar cómo las diversas partes contribuyen a la cultura como un todo consistente unificado" (Jacob 1987:10). 6. Etnografía (estructural). "Clasificar e iluminar la organización y distribución social de las significaciones subjetivas como campos de la realidad originarios y diversos" (Gumbrium 1988:26), estando "en relación con ... catalogar sus formas e interrelaciones en el tiempo y en el espacio" (Gumbrium 1988:26) donde se "piensa la cultura como un mapa cognitivo" (Spradley 1979:7) y donde "a la vez, la cultura tácita y explícita son reveladas a través del habla" (Spradley 1979:7). 7. Etnografía de la Comunicación (microetnografía). Consiste en focalizar "los patrones de interacción social entre miembros de un grupo cultural o entre miembros de grupos culturales diferentes" en orden a "especificar el proceso de interacción y entender como estos ‘micros’ procesos están relacionados con unos

44

ARMANDO ZABERT (COMPILADOR)

más amplios ‘macros’ problemas de cultura y organización social" (Jacob 1987:18). 8. Etnometodología. Que es definida de las siguientes maneras: "estudiar cómo los miembros de la sociedad, en el curso de la realización de la interacción social, producen el sentido de expresiones ‘indexicales’. Indexicales son términos cuyo sentido no es universal, pero es dependiente del contexto" (Bailey 1978:249) o "cómo los miembros de una situación ensamblan razonablemente comprensiones de las cosas y eventos que les conciernen a ellos y, por lo tanto, realizan estas como objetos de la vida cotidiana" (Gubrium 1988:27) o finalmente "cómo la gente en sociedad organiza sus actividades de un modo tal que ellos producen un sentido mutuo, cómo la gente hace cosas de maneras tales que los otros pueden reconocerlos por como ellas son" (Sharrock y Anderson 1986:56). 9. Etnociencia (antropología cognitiva). Que desde una perspectiva se define como: "comprender las categorías culturales de los participantes e identificar los principios organizativos que fundamentan esas categorías ... a través del estudio de los sistemas semánticos" (Jacob 1987:22); o también como "definir sistemáticamente el significado de las palabras, o etiquetas -en síntesis los nombres de las cosas en el contexto de su uso" (Werner y Schoepfle 1987:38) en orden a "construir los campos lexicos-semánticos de conexión de las proposiciones" (Werner y Schoepfle 1987:38). 10. Análisis de la Estructura de Eventos. Que puede ser conceptualizada como: "examinar y presentar series de eventos como estructuras lógicas, es decir, como elementos y sus conexiones (incluyendo los supuestos que gobiernan estas conexiones) que pueden servir como modelos explicativos para interpretar secuencias de eventos actuales o folklóricos" (Heis and Lewis 1980). 11. "Grounded theory construction". De particular interés para este trabajo, puede ser sintetizada diciendo que consiste en "descubrir la teoría desde los datos a través de un método general de análisis comparativos" (Glaser y Strauss 1967:1). 12. Interaccionismo Simbólico. Cuya conceptualización es: "ver cómo los procesos de designación e interpretación [los participantes definen e interpretan recíprocamente sus actos] es la sustancia, devalúa, re-direcciona, y transforma los modos en los cuales los participantes organizan juntos sus líneas de acción" (Blumer 1969:53); o también "comprender cómo los individuos son capaces de tomar otra perspectiva y aprender significados y símbolos en instancias concretas de participación" (Jacob 1987:29). La pluralidad es innegable. En cada uno de estos enfoques las unidades de registros y de análisis cambian o son entendidas de otro modo, el lugar de la natural textualidad de lo cualitativo es diferente, las técnicas pueden o no ser las mismas, pero por lo general unas se adecuan más que otras y los puntos de partida teóricos son los que se transforman radicalmente. Esta enumeración nos autoriza sólo a constatar dos elementos útiles para nuestro objetivo aquí: por un lado saber que existen diferentes técnicas y diversas formas de hacer investigación cualitativa y por otro que sólo a través de sus conceptualizaciones se puede observar que la relación cuantitativo/cualitativo no es aporética como suele pensarse. Para ilustrar este último punto, parece conveniente resumir lo que Ray Pawson a denominado "fases de la relación cuantitativo/cualitativo": • La primera fase, se caracteriza por permanecer dentro del puritanismo metodológico, donde la actividad de investigación podía relacionarse dicotómicamente con uno u otro enfoque. Se relaciona con la así llamada "guerra de los paradigmas" metodológicos y las discusiones son "métodocentradas". La segunda fase, hace referencia al surgimiento de un pluralismo pragmático como reacción a la metodolatría, teniendo a las estrategias de "triangulación". Es una fase centrada en la elaboración y resolución de problemas donde se acepta que existen diversas vías metodológicas para lograr este objetivo. La tercera fase, que aún hoy se desarrolla, consiste en la superación de la relación cualitativo/cuantitativo desde un punto de vista dicotómico diluyendo un tratamiento aporético de la misma. Centrada en lo relacional, apunta a que la

•

•

45

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

discusión se desplace hacia la mejor articulación entre estrategias que puedan dar cuenta de la conexión entre mecanismos, contextos y agentes. Finalmente, este apartado nos respalda para introducir, sin malos entendidos, algunas discusiones sobre el lugar de la informática en la investigación cualitativa. Fundamentalmente por que ante la pluralidad de enfoques y las nuevas relaciones entre lo cuantitativo y lo cualitativo dichas discusiones no pueden entenderse como un intento de cuantificar lo cualitativo, ni tampoco como la idea de disolver la intrínseca pluralidad de la investigación cualitativa. El procesamiento y análisis de datos asistido por computadora tiene un lugar especial en este campo disciplinar y muchos son los avances que se han realizado en su aplicación. Justamente sobre algunos de los problemas epistemológicos que esto trae aparejado es sobre lo que se intenta reflexionar en el próximo apartado. II. Nuevas Experiencias de Gabinete y Formas de Razonamiento en la Investigación Cualitativa En el contexto reseñado hasta aquí y junto al desarrollo de las estrategias cualitativas desde finales de la década de los ‘70 y principio de los ‘80 se consolidó la utilización de la informática en la investigación cualitativa. En principio como una vía más eficiente para codificar y recuperar la inmensa cantidad de registros acumulados por las diversas técnicas de observación, la asistencia de la computadora se pensó simplemente como algo meramente instrumental. Este puesto para la asistencia de la computadora se fue modificando hasta llegar al nivel del análisis de esos datos otrora irrecuperables, dada la complejidad de su inserción sistemática. En este sentido, dando un paso más la informática asistió al investigador en la delicada tarea de interpretar ayudando en la construcción inductiva de "micro-teorías" sobre la base de datos que se le había proporcionado. Esta estrategia de análisis básicamente tomada del enfoque de Glasser y Strauss (al menos de su primer libro) se popularizó, como así también se amplió la oferta de paquetes estadísticos que podían asistirla. Los noventa son los años de consolidación de esta relación afianzada por la popularización de lo multi-mediático en el mercado de las computadoras personales. En el marco de dicha consolidación se han llevado adelante algunos debates sobre la posibilidad de que esta "instalación" de la informática en el campo de los estudios cualitativos sea el comienzo de una nueva visión paradigmática que pretenda agotar la pluralidad y narratividad propia del abordaje cualitativo en alguna especie de sobrecuantificación de los registros y en la creación de la ilusión de formalización del momento de análisis de las investigaciones. Un dato curioso de dicho debate, por lo menos desde los autores a que se hace referencia aquí, es que ninguno pretende descalificar el rol de la asistencia de la computadora en los trabajos de tratamiento, procesamiento y análisis cualitativo. Un análisis de la discusión aludida puede ser realizado siguiendo el siguiente camino. II.1. Pluralidad de Voces y la Utilización de Hipertextos En principio se puede partir de la presentación de Coffey, Holbrook y Atkinson llamada "Qualitative Data Analysis: Technologies and Representations" cuya estructura argumentativa es la siguiente: “La investigación cualitativa se caracteriza por la pluralidad de interpretaciones que generan una multiplicidad de relatos asociados a la existencia de una pluralización de mundos”. Las dos vías que identifican como predominantes son: aquellas que separadamente aceptan por un lado la consolidación de lo narrativo-literario aceptando el "desafío" post-

46

ARMANDO ZABERT (COMPILADOR)

moderno de la diferencia y la multiculturalidad, y por otro, aquella que construye un texto desde un enfoque que denominan "realismo narrativo" caracterizado por la construcción de un relato en tercera persona desde donde afluye el llamado problema de la "crisis de representatividad" que se basa en la eliminación de la intrínseca pluralidad de voces en la constitución del mundo social. Los autores señalan, por un lado, la generalización de las técnicas de codificación y recuperación de datos "cualitativos" asistido por computadora, como el centro de la conformación de una nueva ortodoxia ligada directamente al "realismo narrativo"; y por otro lado, la estructuración de una heterodoxia conectada a la retórica y los desafíos post-modernos. En este contexto, postulan como una posible vía alternativa que permita una síntesis de estas dos tendencias para el análisis y la representación de la investigación etnográfica, a los desarrollos generados alrededor del uso de hipertextos e hipermedios. Citando a Nielsen afirman: "podemos decir que el hipertexto fue concebido en 1945, nació en los ‘60, nutrido lentamente en los ‘70, y finalmente incorporado al mundo real en los ‘80 especialmente con un rápido crecimiento en 1985, culminando con el establecimiento de un campo definitivo durante 1989" (Coffey et al. 8.2). En esta larga historia de la consolidación del uso del hipertexto se visualiza a la presentación del texto de un modo no secuencial, como un principio que juega el rol de hilo conductor en la búsqueda de un tratamiento más eficiente de los textos (Coffey et al. 8.3). Si bien el escritor o lector asistido por un procesador de texto podía desplazarse de diversas maneras por un documento, dicho desplazamiento era siempre secuencial y este modo de leer y re-escribir no se condecía con las operaciones que en la vida real se realizaban. En este sentido es que Coffey y sus colegas sostienen que "el texto mismo está fijado en forma lineal. De tal modo, trabajar con archivos de textos en la computadora, implica del mismo modo una estructura lineal" (Coffey et al. 8.3). El uso de hipertexto involucra la posibilidad de diferentes vías de lectura determinadas por el lector, dado que el autor provee de distintas alternativas para explorar el texto en cuestión. Si bien los autores aceptan que ésta no es un idea nueva, señalan una mayor versatilidad que las referencias cruzadas, por ejemplo. La clave está en la mayor capacidad de interactividad desde donde aparece una más amplia gama de posibilidades de relación entre texto y lector. "Los lectores pueden, en un sentido, devenir autores de sus propias lecturas; ellos no son simple recipientes pasivos de una forma textual determinada" (Coffey et al. 8.4). Básicamente, la utilización del hipertexto consiste en la utilización de botones para establecer links entre referencias cruzadas que apunten a una misma temática o tópicos relacionados, pudiendo también desplazarse a fuentes de información distinta como los son bases de datos cuantitativas u otras formas de almacenamiento de datos. "Tales links constituyen ‘nodos’ y el analista puede crear una red densa de esos links los cuales pueden ser luego ‘navegados’ en distintas exploraciones de datos" (Coffey et al. 8.6). Por otro lado, se usan botones de "expansión" que permiten agregar comentarios, incorporar otro tipos de textos como registros de campo, notas y comentarios. Se abre así también la posibilidad para el lector de introducirse en el texto. Las limitaciones de estas posibilidades son justamente las capacidades cognitivas humanas de encontrarse frente a la creación de un "hiperespacio de lectura y escritura", donde las vías de recorrido y expansión de la textualidad son prácticamente indefinidas. Para Coffey y sus colegas es en este marco en que nace una de las particularidades más llamativas de la introducción de estos medios informáticos para la lectura y escritura etnográfica, que es justamente la probabilidad que esa diferencia colapse, en tanto procesos separados de leer y escribir. El hipertexto conserva el sentido de

47

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

complejidad, intertextualidad y no linealidad que una narración sobre el mundo social tiene en sí misma. Si la utilización del hipertexto abre estas posibilidades, su combinación con las tecnologías multimedia las potencializa aún más. Con la articulación entre imagen, sonido y otros tipos de textos para nuestros autores, se puede pensar "la reconstrucción de los mundos sociales a través de múltiples representaciones" (Coffey et al. 8.11). Citando el trabajo de Kersenboom, ellos muestran que la aparición de monografías en CD ofrecen la posibilidad de presentar los registros de palabras, música, escritos y conversaciones en "sus condiciones existenciales" (Coffey et al. 8.11), lo cual permite a su vez manejar los contextos interpretativos, también explorar lecturas alternativas y modos complementarios de representación de los registros originales. Para Coffey y sus colegas, hipermedios e hipertexto posibilitan un manejo instantáneo y simultáneo de formas distintas de representar las múltiples voces de la realidad del mundo social. Estos autores ofrecen como ejemplo su estudio sobre las consecuencias de la genética en nuestros días, donde aplicaron el etno-drama como medio de reconstruir la toma de decisiones de los genetistas, junto a las formas de decisiones de las personas respecto a la reproducción, grabaciones de conferencias científicas, datos contextuales y entrevistas de familias enteras, usando las posibilidades del hipertexto e hipermedia, conjuntamente con investigaciones sociológicas más tradicionales. La propuesta de este equipo es justamente la de articular el realismo narrativo y las posibilidades de representar múltiples y simultáneas voces, sugiriendo que de este modo se hace innecesario optar por un enfoque postmoderno o caer en la "nueva ortodoxia" de la investigación cualitativa asistida por computadora. II.2. Hacia una Lógica del Razonamiento Hipotético en Investigación Cualitativa En un artículo que intenta responder la caracterización de la "nueva ortodoxia" en la investigación cualitativa asistida por computadora, realizada, entre otros, por Coffey y sus colegas en el artículo al que se ha hecho alusión, Udo Kelle señala que dicha caracterización proviene de interpretar mal algunos puntos metodológicos de la investigación cualitativa. Kelle, para estructurar su argumentación, se desplaza a la discusión de las estrategias metodológicas y a sus bases epistémicas. Es en este marco que propone una interrelación entre uso de la informática y la aplicación de la inducción cualitativa y la inferencia abductiva como modo de coordinar una vía alternativa para la investigación cualitativa. Kelle plantea el problema desde la base misma de lo que se ha dado en llamar la "construcción de teoría" en la investigación cualitativa asistida por computadora. Genéricamente hablando, la discusión sobre dicha base tiene dos facetas: su sustento teórico-metodológico representado por la "Grounded Theory" y su procedimiento elemental conocido como "codificar y recuperar". Como lo reconoce el mismo Kelle, dada la estructura de su artículo, ambas facetas si bien no agotan el lugar de la informática en la investigación cualitativa, son el punto de partida de una adecuada discusión de la supuesta instauración de una nueva ortodoxia en investigación cualitativa. Sin hacer justicia a la complejidad de la grounded theory se puede decir que representa desde 1958 y 1967 una estrategia inductiva de construcción de teoría que ha sufrido diferentes reformas. En lo sustancial consiste en la idea que se puede obtener una red de conceptos que emergen de los registros cualitativos a través de un procedimiento de codificación y "etiquetamiento" de las principales dimensiones de dichos registros. Este procedimiento se basa en "descubrir" desde los registros grupos analíticos de datos, conformados por la construcción de lo que Glaser y Strauss llamaron códigos, categorías y memos. La idea central es que de esta manera se evitaba dar una forma teórica a los registros, ofreciendo la posibilidad de que justamente el tratamiento

48

ARMANDO ZABERT (COMPILADOR)

analítico de los datos dieran forma a una teoría particular emergida desde los datos mismos. Por otro lado, codificar y recuperar es un procedimiento para clasificar datos que parte de la identificación, sistematización y comparación de segmentos de textos que contienen los registros. Muy esquemáticamente hablando, una vez establecidas las diferencias y semejanzas se procede a construir índices de segmentos de textos sobre tópicos identificados con palabras claves. Por otro lado se construyen referencias cruzadas que permitan relacionar los segmentos de textos entre sí y con otras fuentes de información. Estos procedimientos tan antiguos como los de la exégesis textual se ven acelerados y mejorados por los medios informáticos para su recuperación y tratamiento. Si bien esta sucinta presentación puede ser muy esquemática, nos ayuda a comprender por qué Kelle se preocupa en mostrar que no todo proceso de codificación y recuperación está basado en la grounded theory, por qué codificar puede ser un proceso más creativo de lo que se piensa y cómo pueden ser pensadas alternativas metodológicas para conservar la creatividad en el marco del desarrollo de los paquetes informáticos, sin caer en un inductivismo ingenuo pero tampoco en una posición excesivamente relativista. Como es obvio, dada la síntesis realizada entre la grounded theory y el proceso de codificar y recuperar, hay aires de familia innegables; más allá de la terminología que usen los diversos programas, las coincidencias entre los códigos de Glaser y Strauss y los índices de los programas son muy grandes. Por esto, Kelle muestra cómo existen diferentes paquetes de tratamiento informático de textos que se basan en la fenomenología, en los tipos ideales de Weber o directamente en las ideas falsacionistas de Popper, y cita también una revisión realizada de los programas usados que indica que el 70% de ellos no tienen como base a la grounded theory. Una vez realizada esta tarea de esclarecimiento, Kelle se concentra en tres temas: las formas de codificar y recuperar que implican la llamada tercera generación de programas, las confusiones que provienen de tratar de aplicar una estructura hipotético deductiva en base a la grounded theory y la propuesta de la abducción como una forma adecuada para evitar el dualismo. Para mostrar que codificar y recuperar no se basan necesariamente ni en una idea inductiva ni en las confusiones con la grounded theory, señala los avances producidos a través de los hiperlinks que no sólo están a disposición en los programas especializados sino también en las versiones más actuales de Windows. Esto transforma básicamente el proceso de interrelación entre los textos y otros tipos de materiales, pero especialmente se abandona la idea de que un segmento de texto debe ser "comprendido" subsumiéndolo en una categoría creada desde esos mismos registros. Esto ocasiona varios resultados colaterales entre los cuales se pueden mencionar los siguientes: se aumenta la capacidad de recuperación selectiva, pueden ser cruzadas referencias en un "mismo espacio textual" cuya distancia en los registros es considerable, los segmentos de textos pueden ser conectados sin códigos previos y los códigos pueden ser subdivididos en varias categorías nuevas. Codificar y recuperar, vista de esta manera, es una tecnología abierta que brinda un gran número de posibilidades para la interpretación. Esta idea de codificar Kelle la analiza desde dos dimensiones: desde la definición del proceso de codificación y desde la noción de testear hipótesis a través de este procedimiento, cuestiones ambas que nos llevan a su segundo tema.

49

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Por un lado, Kelle señala las diferencias entre la codificación cuantitativa y la cualitativa y la importancia de preservarse de la ingenua idea de poder partir a codificar sin teoría previa alguna; pero por otro lado subraya la confusión existente por el uso ambiguo de la expresión "testear hipótesis". En el primer caso, es claro que la codificación cuantitativa funciona bajo una lógica deductiva en base a hipótesis previamente establecidas, mientras que la cualitativa se basa en un proceso de lectura de los registros una vez efectuados, actúan como marcas que permiten que una cierta cantidad de información sea agrupada y manejada constituyéndose en representantes de algunas perspectivas desde donde mirar los datos por parte del investigador. En relación a esto es que Kelle plantea el problema sobre el testeo de hipótesis. Para él, los códigos de la investigación cualitativa "no son muy utilizables para testear proposiciones empíricas respecto a la exacta relación entre dos variables definidas" (Kelle 1997 3.9), como así tampoco permiten representar claramente eventos empíricos determinados. Para Kelle en la investigación cualitativa "la aplicación del paradigma de la codificación o de ‘códigos teoréticos’ sobre datos empíricos se basa en una lógica del descubrimiento que no es ni inductiva ni deductiva" (Kelle 1997 4.3), por lo que dicha aplicación representa el uso de una especial lógica del razonamiento, donde "las premisas son un set de fenómenos empíricos y la conclusión es una hipótesis, la cual puede dar cuenta de esos fenómenos" (Kelle 1997 4.3). Según él, se puede denominar a esta operación razonamiento hipotético basado en las dos formas de inferencia lógica que Peirce llamara inducción cualitativa y abducción. Estos es así, porque en una inducción cualitativa un fenómeno empírico específico es descripto o explicado subsumiéndolo bajo una categoría o regla existente y porque la abducción permite encontrar conceptos o reglas no conocidas en base a un evento sorpresivo o anómalo. Al parecer, la clave para Kelle consiste en que "la inferencia abductiva combina de una manera creativa nuevos e interesantes hechos empíricos con conocimiento teorético previo" (Kelle 1997 4.3). Estas formas de inferencia se condicen de alguna forma con el trabajo de la investigación cualitativa, en tanto se necesita revisar permanentemente preconcepciones y prejuicios teoréticos y además posibilita entender de qué manera se usan en investigación cualitativa los marcos de referencia heurísticos, que permiten al investigador concentrarse en ciertos fenómenos de su campo de estudio. Para Kelle con la utilización de la inducción cualitativa y la abducción se puede dar cuenta del trabajo creativo de la investigación cualitativa como así también del uso del conocimiento disponible para el área de estudio. III. A Modo de Conclusión: Problemas Epistemológicos Emergentes de la Investigación Cualitativa Asistida por Computadora Aparecen de esta manera dos grupos de problemas o desafíos epistemológicos basados en las sugerencias sobre el rol de la utilización de hipertextos y multimedios, y en la propuesta de aplicar el razonamiento hipotético a la investigación cualitativa. Dos temas centrales parecen emerger de estos desarrollos: en primer lugar podríamos estar en frente de una nueva noción de experiencia de gabinete en ciencias sociales, y en segundo lugar se podrían explorar alternativas a las estrategias deductivas e inductivas aplicadas a la investigación cualitativa. Sin pensar que se asemeja a un concepto de simulación y sin tomarla como solución definitiva, en algún sentido, la utilización del hipertexto y la tecnología multimedia crea una nueva situación de gabinete que al menos necesita ser analizada en los siguientes niveles: la redefinición de la noción de lo que se podría llamar "experiencia de laboratorio de la interpretación", el lugar del conocimiento conceptual en relación al sensitivo, como por ejemplo el visual, la posibilidad de interacción indefinida entre observador y los sujetos sociales analizados.

50

ARMANDO ZABERT (COMPILADOR)

Esto nos indica una forma de comprensión de lo social que puede ser reconstruida a través de la computadora en situación de interactividad o aislamiento, el escritorio del analista no es sólo una computadora y miles de salidas de computadora, es en algún sentido un mundo social a escala. La conexión entre hipertexto e hipermedia posibilitaría, dada la potencialidad para relacionar hipótesis previas, descubrimientos y "realidad virtual", la recreación multimediática de la pluralidad de voces. Esto es importante porque permitiría redefinir la noción de generalización empírica extendiendo posiblemente su utilidad y alcance. También de este modo se presenta la interesante oportunidad para la re-utilización de los estudios de caso como estrategia de comprensión de la realidad social. Además, la asistencia de estas tecnologías a la investigación cualitativa permitiría hacer manejable la complejidad propia de la conformación textual de los registros, pudiéndose de esta manera disponer de un texto que, si bien presenta mayor variabilidad, dada la interactividad y la simultaneidad, posibilita explorar con mayor fuerza la búsqueda de una estructura básica para los análisis. Esto trae aparejado que además de las tradicionales tareas de registrar, escribir, leer e interpretar, se agregue la de editar como mecanismo de reconstrucción del mundo social en la computadora. La confluencia de información cualitativa e información cuantitativa de diversos orígenes, permite "fijar" con mayor detenimiento las condiciones contextuales de la interpretación. Por otro lado, si se hace pie en los desarrollos anteriores, no sería para nada difícil pensar en la propuesta de Kelle, dado que se tendría la oportunidad de estructurar una forma de razonamiento que permita partir de y crear hipótesis para la argumentación sobre el nivel de adecuación de la realidad recreada en la computadora. Para finalizar, sólo resta afirmar que en el campo de la investigación cualitativa, como al menos se pretende haber insinuado, existen problemas epistémicos que trascienden las argumentaciones a las que tradicionalmente se las asocia. Lo que llama a salir de un tratamiento aporético de la relación cualitativo-cuantitativo y sumergirse en la posibilidades de nuevas racionalidades y narraciones sin perder de vista la construcción científica de conocimiento sobre el mundo social. Referencias Bibliográficas Ball, W. 1994 "Using Virgil to Analyze Public Policy Arguments: A System Based on Toulmin´s Informal Logic." En Social Science Computer Review, 12:I, Spring. pp. 26-37. Coffey, A., Holbrook, B. y Atkinson, P. 1996. "Qualitative Data Analysis: Technologies and Representations" en Sociological Research Online, Vol.1 Nº1. Coffey, A. y Atkinson, P. 1996. Making Sense of Qualitative Data. Complementary Research Strategies. Sage Publications. London. Cook, T. D. y Reichardt, CH. 1986. Métodos Cualitativos y Cuantitativos en Investigación Evaluativa. Introducción, Cap. I y II. Morata. Madrid. Gallino, L. 28/3/96 "La Costruzione della Conoscenza Scientifica in Netropolis: Aspetti Sociali e culturali della ricerca scientifica in rete". Torino Internet. pp. 1 a 5 Goetz, J.P. y LeCompte, M.D. 1988. Etnografía y Diseño Cualitativo en Investigación Educativa. Cap. II, V, VI, VII. Morata. Madrid. Forni, F.; Gallart, M.; Vasilachis de Gialdino, I. 1993. Métodos Cualitativos II. La práctica de la Investigación. CEAL. Nº 57 Bs. As. Holstein, J. y Gubrium, J. 1995. The Active Interview. Sage. California. Kelle, U. 1994. Ethnographic Research and Logic of Discovery. Recent Developments in Analytic Philosophy of Science and their Impact on the Debate on the Epistemological Foundations of Qualitative Research. Paper presented at the XIII World Congress of Sociology. Bielefeld. RC 33. Sess. 14. Kelle, U. 1997. "Theory Building in Qualitative Research and Computer Programs for the Management of Textual Date." En Sociological Research Online, vol.2, Nº2. Marshall Magan, J. 1994. "Research Report: Using a Database Management System to Support Qualitative Research" en Social Science Computer Review, 12:I, Spring. pp. 114-121.

51

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Marshall, C. y Rossman, G. 1995. Designing Qualitative Research. 2º Edition. Sage. California. Rodriguez-Alamo, E. 1995. "The conflict Between Conceptual and Visual Thought and the Future of Science" en Social Science Computer Review 13:2 Summer. pp.: 207-221 Vasilachis de Gialdino, Irene. 1993. Métodos Cualitativos I. Los problemas teóricosepistemológicos. CEAL.Nº 32 Bs. As.

52

ARMANDO ZABERT (COMPILADOR)

9 - LA IMPORTANCIA DE LA TEORIA CRITICA EN LAS CIENCIAS SOCIALES.
Silvana Laso6 ÍNDICE 1 – Introducción: planteo del problema epistemológico: la importancia de la teoría crítica 2 – La escuela Frankfurt: su historia y sus teorías 3 – Habermas dentro de la Escuela Frankfurt 4 – La teoría crítica de Habermas 5 - Discusión del carácter crítico de las ciencias como problema epistemológico 6 – Conclusión 1 – Introducción: planteo del problema epistemológico: la importancia de la teoría crítica En mi opinión, uno de los aspectos más importantes con los que la Escuela de Frankfurt contribuyó al pensamiento filosófico y a las ciencias sociales del siglo XX fue el énfasis colocado en el carácter crítico de la teoría. Recuperando la perspectiva de la teoría marxiana que se proponía contribuir a la construcción de una sociedad más justa, en 1930 la escuela de Frankfurt quiso también abrir los ojos a los hombres mediante la crítica, para con la praxis hacerlos transformar sus vidas, aniquilando las relaciones sociales y económicas inhumanas en un mundo que, con el moderno capitalismo altamente industrializado, y con el ascenso de los movimientos autoritarios y fascistas, parecía estar muy por debajo de lo que prometían los ideales filosóficos. Es, entonces, el rechazo a la actitud cientista ingenua del positivismo como comprometida con el orden existente, uno de los aportes epistemológicos más valiosos que realizará la escuela de Frankfurt. Así como Marx había criticado la economía política de Ricardo7 que pretendía en sus análisis negar la distinción entre seres humanos, bestias y cosas, y no emitir juicios de valor sobre los resultados sociales de la economía, así la escuela de Frankfurt rechaza los análisis asépticos que el positivismo pretende introducir en las ciencias sociales. Horkheimer expresaba el carácter ideológico que se escondía detrás de esta supuesta neutralidad con estas palabras: “el propósito de la ciencia de no hacer ninguna distinción esencial entre la conjuración de poderes brutales contra toda aspiración humana a la felicidad y a la libertad, y, por otro lado, la lucha en contra de esos poderes – toda esa Filosofía que reduce ambas partes al concepto abstracto de lo dado – les es muy bien bienvenida a los poderes más antihumanos”8. Es mi intención en el presente trabajo analizar este problema epistemológico planteado por la teoría critica respecto a cuál debe ser la actitud de la ciencia ante la realidad, y en especial, ante la realidad social.

6

Catedra Epistemología de las Ciencias Sociales. tesina 5 año “orientación gráfica”. año 2000. universidad nacional de córdoba. facultad de derecho y ciencias sociales - escuela de ciencias de la información – www.eci.unc.edu.ar/epistemologia 7 Ricardo, David (1772-1823), economista británico, su obra más importante, Principios de Economía Política y Tributación (1817) establecía varias teorías basadas en sus estudios sobre la distribución de la riqueza a largo plazo. Ricardo pensaba que el crecimiento de la población provocaría una escasez de tierras productivas; su teoría de la renta está basada en la productividad de la tierra. Defendió la teoría clásica del comercio internacional, subrayando la importancia de la especialización internacional y la libre competencia. Su teoría del valor trabajo, que influyó en el pensamiento de Karl Marx, afirma que los salarios dependen del precio de los alimentos, que a su vez dependen de los costes de producción, los cuales dependen de la cantidad de trabajo necesario para producir los alimentos; en otras palabras, el trabajo es el principal determinante del valor.
8

Citado en E. M. Ureña, La Teoría Crítica de la sociedad de Habermas, Tecnos, Madrid, 1998, Cap. I, Pág. 24.

53

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

¿Debe la ciencia esforzarse por alcanzar una neutralidad valorativa como la planteada por la denominada por Von Wright “Escuela Galileana”? o ¿Debe la ciencia producir una crítica y una praxis liberadoras que encaminen al hombre y a la sociedad al alcance de relaciones sociales y económicas más humanas? En primer lugar, presentaré en este trabajo las líneas generales que caracterizaron la producción teórica de la primera generación de la escuela de Frankfurt, para poder, a partir de ella fundamentar una exposición más completa de la teoría crítica de Habermas. En segundo lugar realizaré a partir de estos aportes una discusión general y de carácter personal sobre la importancia de que las ciencias asuman un carácter crítico, considerando que esta cuestión es uno de los problemas epistemológicos más acuciantes en un mundo que se encuentra en riesgo de autodestruirse por el resultado de “desarrollos” tecnológicos que de medios han pasado a transformarse en fines en sí mismos. Intentaré asimismo aplicar, en forma general, esta discusión al ámbito de las ciencias de la comunicación. 2 – La escuela Frankfurt: su historia y sus teorías La Escuela de Frankfurt fue una muy importante concentración de destacados intelectuales alemanes que compartieron una aproximación teórica de carácter crítico y un pensamiento social progresista, entre ellos se destacaron: Theodor Adorno, Max Horkheimer, Herbert Marcuse, Erich Fromm, Walter Benjamín.9 Todos ellos se integrarían en el Instituto de Investigación social fundado en Frankfurt en 1924 mediante una generosa donación de Félix Weil. Weil era un investigador aficionado pero además un millonario, que fundó el instituto para que se dedicara al estudio científico del marxismo tratando con ello de buscar un equilibrio entre su posición de clase y su simpatía por la izquierda. El nuevo instituto mantuvo una asociación libre con la Universidad de Frankfurt y abrió para los académicos alemanes de izquierda una puerta para el estudio del marxismo político y económico a nivel universitario. El instituto solo empezó a transformarse en escuela cuando Horkheimer fue nombrado director en 1930. Horkheimer era un filósofo por formación, centrado en la tradición alemana y hegeliana, y se había acercado solo dubitativamente hacia el marxismo. Diversas características comunes integraban a los heterogéneos miembros del instituto: • • • • • Interés teórico práctico por el marxismo. Oposición al concepto de razón ilustrada y a la idea de progreso que surge en el siglo XVIII. Rechazo del neopositivismo. Concepción de la filosofía como teoría crítica de la sociedad. Rechazo de la pura especulación filosófica, dedicándose al conocimiento de lo que ellos llaman el mundo de la vida.

La nueva orientación marcada por Horkheimer no tuvo mucho tiempo para desarrollarse, pues en 1933 con el ascenso del nazismo al poder la Escuela de Frankfurt fue absolutamente prohibida y perseguida tanto por su filiación marxista como por el carácter judío de muchos de sus miembros. Se inició así una importante etapa de exilio que, tras pasar por algunos países europeos llevaría a los miembros de la escuela a Nueva York, en donde encontrarían una base más permanente para su trabajo en conexión con la Columnia University. Los frankfurtianos permanecerían allí desde julio de 1934 hasta principios de 1943, y conservarían una importante independencia dado a que sus necesidades económicas todavía eran cubiertas con su donación original.
9

En esta sección seguimos el artículo sobre la Escuela de Frankfurt de la Enciclopedia Británica, edición electrónica.

54

ARMANDO ZABERT (COMPILADOR)

El exilio fue muy importante porque expuso a los pensadores alemanes a la nueva realidad de una sociedad de consumo y de industrialización muy avanzada, como lo era los Estados Unidos en los años ’30. A pesar de la depresión los EE UU eran el país capitalista más avanzado. Todo ello profundizó la perspectiva crítica sobre la racionalidad y el progreso técnico. Al mismo tiempo la escuela giró hacia una perspectiva cada vez más filosófica que hizo de Horkheimer, Adorno y Marcuse las figuras centrales. Este giro hacia la filosofía fue acompañado de una diversificación en las bases teóricas de sus trabajos, en los que el marxismo fue complementado con los aportes de figuras como Nietzsche y Freud10. El acercamiento hacia estos pensadores era impulsado por una revalorización de los factores individuales como determinantes de la acción humana. Al mismo tiempo el acercamiento a estos pensadores estuvo ligado a un mayor pesimismo en el pensamiento de la escuela sobre el desarrollo de la sociedad. Adorno y Marcuse veían que aún los pensamientos progresistas que apuntaban a la liberación, contenían en su interior la semilla de su propia anulación. Así, la ilustración que había apuntado a liberar al hombre y establecer la soberanía de la razón había culminado en el dominio despiadado del hombre sobre la naturaleza y del hombre sobre el hombre. Tras la guerra mundial Horkheimer y Adorno volvieron a Frankfurt, mientras que el resto decidió permanecer en América. Los trabajos de los primeros acentuaron su tono pesimista y melancólico. Para la década del ’60 un nuevo movimiento estudiantil rechazaba el carácter exclusivamente teórico de la producción de la escuela, y resaltaba la evidente contradicción de una teoría crítica que carecía de aplicación práctica. Sería en ese contexto cuando Habermas (ingresado a la Escuela de Frankfurt en 1956) empezaría a destacarse como figura central. 3 – Habermas dentro de la Escuela Frankfurt La Crítica de las Teorías críticas anteriores. Como vimos, la escuela de Frankfurt se consideraba heredera y continuadora del trabajo de anteriores teóricos de vocación crítica. En ese sentido, se consideraba como continuación de la fructífera tradición de pensamiento filosófico histórico y socioevolutivo de los siglos XVIII y XIX. El primer referente de los filósofos francofurtenses era Hegel, de quien destacaban el potencial crítico de su fenomenología al vincular en sus reflexiones la relación entre las ideas y la realidad: para Hegel, si una situación sociohistórica no se correspondía con las ideas y potenciales vigentes, en la misma surgía una contradicción que llevaba a liberar la fuerza transformadora que esa situación tenía en potencia. Hegel había identificado este tipo de contradicción en la sociedad burguesa de su tiempo a la que correspondía, a la vez, ser la difusora de los ideales de libertad y justicia y ser la defensora y perpetradora de un sistema económico y social opresivo que garantizaba la reproducción de la desigualdad y las injusticias. Pero el potencial crítico de Hegel había llegado solo hasta ese punto, puesto que hasta el mismo filósofo alemán retrocedió espantado al comprender el potencial revolucionario que podría tener la difusión de su teoría entre las masas. Es ante esta retirada que se formula la revisión crítica que los miembros de la escuela de Frankfurt, y sobre todo Habermas, realizan de la fenomenología hegeliana. 11 La retirada de Hegel se había centrado en su rechazo al cambio revolucionario y violento llevado a cabo directa e intencionalmente por los hombres, sin mediación histórica; planteaba en cambio la necesidad de un proceso lento y paulatino que llevara al logro de un derecho abstracto perfecto que surgiría de los distintos derechos y de los conflictos entre los estados. El resultado del proceso quedaba garantizado por la intervención del espíritu universal.
10

Esto es visible por ejemplo en la obra de Erich Fromm, sfr. El Miedo a la Libertad, Planeta, Barcelona, 1993, Pág. 30. La edición original es del año 1941. 11 E. M. Ureña, La Teoría Crítica de la sociedad de Habermas, Tecnos, Madrid, 1998, Cap. II, Pág. 30 – 35.

55

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Así, Hegel afirmaba que: “esta fe universal, la creencia de que la historia universal es un producto de la razón eterna y de que la razón ha determinado las grandes revoluciones de la historia, es el punto de partida necesario de la filosofía en general y de la filosofía de la historia universal”12. Habermas rechaza a la fenomenología hegeliana puesto que el abandono de su énfasis crítico original ha implicado la introducción de contradicciones en su sistema filosófico, pues, al plantear Hegel la existencia de un proceso gradual de desarrollo del derecho, se ha introducido en la historia un proceso que contradice a la propia dialéctica defendida por el sistema hegeliano. Recordemos que la dialéctica implica los tres diferentes momentos de tesis, antítesis y síntesis superadora, siendo por lo tanto un proceso que implica cambios bruscos y no el cambio gradual pretendido por Hegel para el desarrollo del derecho. Habermas distingue así dos aspectos dentro de la fenomenología hegeliana, en primer lugar uno positivo ya que la fenomenología contiene una autorreflexión crítica sobre el proceso de autoconstitución del hombre en que las distintas etapas históricas (identificada cada una con un desarrollo determinado del autoconocimiento y con un orden social) surgen cada una como una negación de la anterior que sigue conteniendo sin embargo algo de ella en su interior. La fenomenología es aquí crítica porque libera al hombre del sometimiento dogmático a una organización social determinada poniéndolo en relación con el pasado con que ésta se relaciona y con el futuro que ésta permite. El aspecto negativo reside en que Hegel considera a esa autorreflexión crítica e histórica como un saber absoluto, solo accesible para el espíritu universal que tiene una comprensión total de la historia. La historia queda así fuera de las manos de los hombres y bajo el control del espíritu universal. La fenomenología se revela entonces carente de praxis y pierde todo su potencial revolucionario. El referente central de la teoría crítica de la escuela de Frankfurt era Karl Marx, en quien veían al pensador que había superado las limitaciones conservadoras del sistema hegeliano y había desenmascarado las contradicciones vigentes en el seno de la sociedad burguesa por causa de la explotación inhumana de los trabajadores dentro del sistema formalmente libre de la economía capitalista. Desde un primer momento es evidente en Marx el énfasis en conectar su teoría crítica con una praxis liberadora, él rechaza la idea del espíritu universal como un macrosujeto guiando la historia universal, para Marx los hombres son sujetos de su propia historia y la hacen y deshacen con sus acciones. En concreto, para Marx es el trabajo de los hombres por dominar a la naturaleza el que explica los diferentes estadios o etapas experimentados por las sociedades humanas en su desarrollo histórico; en esas etapas se desarrollan distintas formas de trabajo alienado, ocasionado por el insuficiente dominio sobre la naturaleza, es decir, por el insuficiente desarrollo de las fuerzas productivas, que trae aparejado la explotación del hombre por el hombre. Marx cree que cuando los explotados tomen conciencia de su situación objetiva inevitablemente originarán un cambio revolucionario; la función de la teoría es entonces desterrar las falsas conciencias que aprisionan a los hombres para generar la praxis emancipadora. Respecto de la sociedad de su tiempo Marx confiaba en que la experiencia de las contradicciones del capitalismo vivida en carne propia por el proletariado lo iría haciendo madurar hasta el punto de convertirse en el actor histórico productor del cambio revolucionario.
12

G. W. F., Hegel Lecciones sobre la filosofía de la historia universal, Alianza, Madrid, s.f., Pág. 55.

56

ARMANDO ZABERT (COMPILADOR)

Marx se equivocó en sus pronósticos sobre el rápido derrumbe del capitalismo para dar paso al socialismo, pero no es en esto en lo que se centra la crítica de Habermas a Marx, sino que lo hace en la problemática relación establecida en el pensamiento marxiano entre el desarrollo de las fuerzas productivas y la acción revolucionaria. Más específicamente, Habermas distingue dos planos en el sistema de Marx, en primer lugar, el plano de sus investigaciones materiales en el que Marx distingue entre fuerzas productivas (es decir el desarrollo de la mano de obra, de la tecnología, de la organización, etc.) y las relaciones sociales de producción (es decir, las posiciones ocupadas por los distintos grupos sociales en torno al control del trabajo y la producción). En segundo lugar, Habermas distingue un plano categorial o teórico en el cual esa distinción se borra al ser las relaciones de producción absorbidas por las fuerzas productivas. Como dijimos, para Marx el fin de la explotación del hombre por el hombre sobrevendría cuando se alcanzase un dominio suficiente sobre la naturaleza, es decir, cuando el desarrollo de las fuerzas productivas permitiera una distribución general de recursos. Pero, si el cambio revolucionario depende solo de las fuerzas productivas, entonces, la clase obrera queda reducida a una fuerza productiva más y el género humano que las desarrolla se transforma en un macro-sujeto colectivo de la historia parecido al espíritu universal de Hegel. El tercer referente clave de la teoría crítica de la escuela de Frankfurt es Sigmund Freud. Los filósofos francofurtenses vieron en el psicoanálisis un aporte teórico con el cual llenar el vacío individual dejado por énfasis excesivamente colectivo con que Marx explicaba la acción social. Para Habermas entonces la teoría freudiana es un complemento necesario para el materialismo histórico. Sin embargo, su recepción de esta teoría tampoco estuvo exenta de críticas, pues Habermas rechaza el énfasis cientificista puesto por Freud en la valoración de sus propios descubrimientos, por el contrario, interpreta el psicoanálisis como una filosofía del lenguaje, como una hermenéutica, ya que se esfuerza por interpretar los textos mutilados que el paciente revela en su terapia filtrado por la censura del super- yo. El psicoanalista trata de revelar las causas ocultas y reprimidas ligadas a un episodio de la vida pasada de un paciente; este intento de reconstruir lo reprimido es semejante al concepto de ideología de Marx; aquello que a la vez cubre y expresa la realidad. El potencial del psicoanálisis como teoría crítica, reside en el proceso de autorreflexión por éste inducido para que el paciente se libere a sí mismo: incluye así una teoría y una praxis relacionada. Pese a reconocer este potencial crítico Habermas rechaza la inclinación de Freud de conformar con sus teorías una ciencia natural basada en el concepto de energía, y se inclina más bien por considerar al psicoanálisis como un proceso de auto-iluminación. Habermas destaca, sin embrago, como especialmente importante la idea de Freud de que las instituciones de la sociedad se encargan de garantizar la represión de los instintos que le son molestos o que no puede asimilar. Esta noción freudiana del peso represivo de la institución sobre el individuo complementa la noción marxiana de la institución como la encargada de mantener la represión colectiva para preservar las relaciones sociales de producción. En conclusión, los miembros de la escuela de Frankfurt, y sobre todo Habermas, trataron de integrar los aportes de Hegel, Marx y Freud para conformar una teoría y una praxis humana de emancipación crítica frente a toda opresión, ya fuera esta de la naturaleza externa o de las instituciones políticas.

57

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

4 – La teoría crítica de Habermas La obra de Habermas es heredera y continuadora de la tradición crítica de la escuela de Frankfurt, su pensamiento sigue las líneas generales planteadas por los trabajos de Horkheimer, Adorno y Marcuse (aunque hay claramente una mayor influencia de los dos primeros). Sin embargo, los trabajos de Habermas superan en su amplitud y profundidad a los de sus predecesores, ya que integran en una rica amalgama elementos más diversos extraídos de la filosofía y las ciencias sociales.13 Específicamente, Habermas comparte con Horkheimer, Adorno y Marcuse el énfasis en la crítica al crecimiento desmesurado de la racionalidad instrumental en el mundo contemporáneo. El planteo de Horkheimer de un preocupante aplastamiento de la razón objetiva (la que debe orientar a los hombres respecto a que fines perseguir) por parte de la razón instrumental (que solo se ocupa técnicamente de ajustar la relación entre medios y fines), es un eje clave que orientará toda la producción teórica habermasiana. Habermas ve en el positivismo al principal exponente en el mundo académico de este predominio de la razón instrumental, tal como antes ya lo habían denunciado Horkheimer y Adorno; pero Habermas profundizará la crítica y ella será uno de los ejes en el desarrollo de su propio planteamiento. Para Habermas el positivismo es una teoría de la ciencia que ha sido elevada y encumbrada falsamente al lugar que debería ocupar una teoría del conocimiento. Según Boladeras, Habermas entiende por conocimiento al conjunto de saberes que acompañan y hacen posible la acción humana14, siendo claro que la concepción objetivista, instrumental y aséptica que de la ciencia tiene el positivismo es algo muy limitado al lado de esa noción habermasiana. Pero el error más grave de esta teoría de la ciencia positivista es su defensa del monismo metodológico con el cual pretende introducir sus criterios objetivistas y “desinteresados” en el ámbito de las ciencias sociales. El resultado de esta invasión metodológica es que las ciencias sociales quedan neutralizadas al partir de un marco operativo demasiado estrecho como para captar las complejidades de su objeto de estudio. Para Habermas el positivismo ha desplazado al sujeto cognoscente de toda intervención creativa en el proceso de conocimiento y a puesto en su lugar al método de investigación. En uno de sus trabajos tempranos15, Habermas ya presenta desarrollada su crítica de la aplicación de los modelos positivistas en las ciencias sociales, allí siguiendo los lineamientos marcados por Adorno; Habermas sostiene que una ciencia social empírico analítica solo puede proporcionarnos un control técnico de ciertas magnitudes sociales, pero la misma es insuficiente cuando nuestro interés cognoscitivo apunta más allá de la dominación sobre la naturaleza. Para Habermas es inaceptable pretender que las ciencias sociales traten a su objeto con la misma indiferencia con la que lo hacen las ciencias naturales; el mundo social es un mundo de significados y sentidos y la ciencia social positivista se anula a sí misma al pretender excluirlos de su análisis. Habermas retoma algunos elementos de la crítica de Hüsserl al positivismo, especialmente el problema de la separación entre ciencia y filosofía, pero rechaza a la fenomenología por moverse dentro de la teoría tradicional incapaz de una praxis emancipadora, mientras que el objetivo de Habermas al denunciar el positivismo es
13 14

M. Boladeras, Comunicación, ética y política. Habermas y sus escritos, Madrid, Tecnos, 1996, Pág. 18. Ibid., Pág. 27. 15 J., Habermas, “Apendice a una controversia (1963). Teoría analítica de la ciencia y la dialéctica”, en: La lógica de las ciencias sociales, Tecnos, Madrid, pp. 22 - 44.

58

ARMANDO ZABERT (COMPILADOR)

demostrar la función que la ciencia y la técnica cumplen como ideología en la sociedad contemporánea para de esa forma contribuir a emancipar a los hombres.16 Es de este rechazo del positivismo del que Habermas parte para desarrollar su propia teoría del conocimiento, la cual a su vez será al mismo tiempo, como veremos, una teoría de la sociedad. El concepto central de esa crítica, y de toda su obra teórica, es su concepto de intereses del conocimiento. Como heredero de la tradición de pensamiento histórico – filosófico y socioevolutiva de los siglos XVIII Y XIX, Habermas parte de un esquema de dos dimensiones para entender la sociedad humana en su desarrollo histórico: • • una dimensión técnica que comprende las relaciones de los hombres con la naturaleza centradas en el trabajo productivo y reproductivo una dimensión social que comprende las relaciones entre los hombres centradas en la cultura y las normas sociales.

Precisamente la crítica habermasiana apunta a denunciar en la sociedad contemporánea, la hegemonía desmedida de la dimensión técnica producto del desarrollo del capitalismo industrial y del positivismo. El esfuerzo de Habermas plantea una relación más equilibrada entre ambas dimensiones que libere a los hombres del tecnicismo alienante bajo el cual se encuentran aplastados. Habermas va a plantear esa crítica y va a establecer los parámetros de esa interrelación más equilibrada a partir de su concepto de intereses del conocimiento.17 Para él los intereses son las orientaciones básicas de la sociedad humana en torno al proceso de reproducción y autoconstitución del género humano, es decir, las orientaciones básicas que rigen dentro de la dimensión técnica y la dimensión social en el desarrollo histórico de la sociedad. Habermas ve que es precisamente mediante los desarrollos en torno a esas dos dimensiones que la sociedad humana se transforma a sí misma a través de la historia. En ese desarrollo histórico el conocimiento de los hombres sobre la naturaleza apuntó a lograr el dominio técnico sobre ella, que en las sociedades avanzadas dio origen a las ciencias naturales; Habermas llama a esa orientación básica interés técnico. El desarrollo de las relaciones entre los hombres y de su entendimiento mutuo llevó al desarrollo de las ciencias hermeneúticas partiendo de la orientación básica que Habermas llama interés práctico. Habermas destruye las pretensiones metodológicas del positivismo al demostrar que los objetos de conocimiento se constituyen a partir del interés que rija la investigación. El sujeto construye a su objeto de estudio a partir de los parámetros definidos por un interés técnico o un interés práctico, y no se limita a observarlo y aprenderlo “tal como es” según lo plantea el empirismo ingenuo de muchos positivistas. Pero Habermas amplía su argumentación en esta línea y señala que el interés del conocimiento no solo determinará la constitución del objeto de estudio, sino también la experiencia que se tenga de él, el lenguaje en que esa experiencia se exprese y el ámbito en que se aplicará la acción derivada de ese conocimiento.

16 17

Cfr. J., Habermas, “Conocimiento e interés”, en: Ciencia y técnica como ideología, Madrid, Tecnos, 1986, pp. 164 – 166. E. M. Ureña, La Teoría Crítica de la sociedad de Habermas, Tecnos, Madrid, 1998, Cap. VI, Pág. 95 – 99.

59

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Podemos sintetizar esto en el siguiente cuadro: Interés Técnico Objeto de conocimiento técnico (ligado a la manipulación instrumental de la naturaleza) Lenguaje fisicalista Acción instrumental (relación teleológica o estratégica de medios y fines) Interés Práctico Objeto de conocimiento práctico(ligado a la comunicación entre individuos) Lenguaje intencional Acción comunicativa

El resultado de este análisis es la comprobación de lo erróneo de la premisa positivista de que las ciencias son desinteresadas, por el contrario es el interés el que está en la raíz misma de su constitución. Con esto se rechaza al mismo tiempo la supuesta superioridad de las ciencias naturales sobre las sociales que se fundaba en el carácter supuestamente más “neutro y desinteresado” de las primeras frente a las últimas. El concepto de interés del conocimiento nos muestra la relación que existe entre Teoría del Conocimiento y Teoría de la Sociedad; ambas teorías se necesitan una a la otra para su conformación. La teoría del conocimiento es al mismo tiempo una teoría de la sociedad, porque los intereses que posee el conocimiento sólo pueden fundamentarse desde una teoría de la sociedad que conciba la historia como un proceso en donde el hombre se autoconstituye y genera esos conocimientos en ese mismo proceso. La teoría de la sociedad necesita de la teoría del conocimiento, porque el desarrollo histórico de la sociedad humana solo puede comprenderse a partir de los conocimientos generados por ella en las dimensiones técnicas y sociales, ya que son esas transformaciones las que han originados los cambios en las dimensiones mencionadas. Finalmente, Habermas culmina su ataque al positivismo tratando de hacer que éste reflexione sobre sí mismo. Lo que pretende demostrar es que las ciencias naturales en respuesta a un interés técnico, no pueden fundamentar la comunicación Inter-subjetiva que se da entre los científicos en sus discursos meta-teóricos. Esto permite afirmar la existencia de una metodología propia en las ciencias del espíritu irreductible a las ciencias de la naturaleza. El análisis de las relaciones intersubjetivas de esas ciencias solo puede fundamentarse desde un interés práctico por el entendimiento. Según Habermas, con la opresión causada por parte de una naturaleza externa no dominada y de una naturaleza propia deficientemente socializada, aparece una tercera “orientación básica”, que él denomina interés emancipativo y que no se corresponde con una tercera dimensión distinta a las de la interacción y la técnica, sino que se identifica con el proceso mismo de auto-constitución histórica de la sociedad humana. El interés emancipativo, es entonces un interés primario que impulsa al hombre a liberarse de las condiciones opresivas tanto de la naturaleza externa como de la naturaleza interna, y que es, por tanto, la base de los intereses técnicos y prácticos. Está ligado a un tercer tipo de ciencias, las críticas, y se ubica por debajo de las ciencias naturales y sociales, es decir que surge como una autoreflexión de éstas. Así, vemos como el interés práctico y el interés técnico derivan del interés emancipativo, en donde el conocimiento sólo encuentra su sentido cuando se le refiere al proceso emancipativo de autoconstitución del género humano. El interés emancipativo devela la interrelación entre la dimensión técnica y la dimensión práctica. Al mismo tiempo se restablece aquí la relación perdida y añorada entre las ciencias y la filosofía señalada por Hüsserl, pero sin que la filosofía exija ahora ser la reina sino simplemente ubicarse dentro de la ciencia.

60

ARMANDO ZABERT (COMPILADOR)

Las ciencias a su vez necesitan de la filosofía crítica para librarse del estancamiento del objetivismo que heredaron de la filosofía tradicional. Habermas aclara el punto de la interrelación entre las dos dimensiones con su afirmación de que los intereses en sí mismo son racionales, esto quiere decir que los interese no responden a necesidades empíricas concretas en la relación con la naturaleza, sino que esas necesidades y esa relación dependen de la interpretación que de ellas hagan los hombres. Como toda interpretación pertenece a la dimensión comunicativa, la dimensión técnica aunque sea independiente de la social está “empotrada” en esta última. De aquí la centralidad que Habermas otorga a la acción comunicativa.18 Hemos recorrido así el camino que lleva desde el primer eje central del pensamiento habermasiano la noción de los intereses del conocimiento, hasta el segundo eje central en el que Habermas ha centrado su producción de las últimas décadas, la teoría de la acción comunicativa. Esta es una continuación de los lineamientos que hemos planteado al desarrollar la noción de intereses del conocimiento, pues con su teoría de la acción comunicativa, Habermas continúa en su pensamiento crítico pero acercándose en una forma más concreta a la relación teoría – praxis siempre pretendida por la escuela de Frankfurt. Alrededor de la acción comunicativa, Habermas presenta sus aportes teóricos más originales, y logra profundizar y superar con nuevos elementos la crítica de la razón instrumental a la que se limitó la primera generación de la escuela de Frankfurt. En su desarrollo de este concepto Habermas fue muy influenciado por el éxito de la filosofía del lenguaje impulsado por la discusión planteada por Wittgenstein y los miembros de la corriente de la filosofía analítica. En sus “observaciones sobre el concepto de acción comunicativa (1982)”, Habermas distingue entre la aproximación de la teoría sociológica a la acción humana y la aproximación de la teoría filosófica a la misma, pues mientras que a la primera le interesan sobre todo “los mecanismos de coordinación de la acción que hacen posible una concatenación regular y estable de interacciones”; la segunda se interesa por los problemas básicos relativos a la libertad de la voluntad y a la casualidad. Precisamente, Habermas parte de una crítica de los planteamientos más desatacados de la sociología contemporánea en torno al concepto de acción para a partir de ello introducir los elementos generales de su concepción sobre los conceptos de acción comunicativa y mundo de la vida. Habermas, considera en primer lugar el concepto sociológico tradicional de acción teleológica, el cual también tiene desde Aristóteles una gran influencia en la filosofía de la acción. Este concepto supone a un sujeto racional con la capacidad de interpretar una situación y poder determinar los medios más adecuados para la satisfacción de sus objetivos. A sí mismo, se concibe al agente social como utilitarista, es decir, que trata siempre de maximizar obteniendo los mayores beneficios posibles al menor costo. Cuando la acción teleológica tiene en cuenta la interacción entre distintos agentes se transforma en el concepto más elaborado de acción estratégica. A diferencia de la teleológica, la acción estratégica implica un uso del lenguaje, pero en una forma orientada solo al éxito y no al entendimiento, el lenguaje es un medio más entre otros para la consecución de los objetivos deseados. Habermas, califica como acción regulada por normas, al concepto de acción de la sociología funcionalista que tiene a Parsons como a su representante más desatacado.
18

E. M. Ureña, La Teoría Crítica de la sociedad de Habermas, Tecnos, Madrid, 1998, Cap. VI, Pág. 100- 105

61

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

El actor no se concibe aquí aisladamente, sino como miembro de un grupo social. Para garantizar la satisfacción de sus necesidades básicas, el grupo genera normas y valores que orientan en ese sentido las acciones de los individuos. Los demás miembros del grupo tienen derecho a esperar que en cada caso, el actor respete en su acción la norma social correspondiente. Para Habermas, este concepto no estratégico, implica una orientación al entendimiento y no al éxito. Este concepto supone, una orden social entendido como un sistema de reglas reconocidas y de instituciones vigentes, pero todo ello hasta el punto de hacer desaparecer la creatividad individual del actor que aparece absorbido como un simple engranaje de la sociedad. Otro modelo de acción que Habermas analiza, es el de acción dramatúrgica, introducido por el sociólogo norteamericano Goffman, quién considera a cada agente como un actor interpretando un papel ante un público compuesto por todos los agentes con que interactúa. Los individuos se relacionan entre sí regulando la información que dejan pasar sobre su propia subjetividad a los demás, controlando la imagen que presenta a los otros. En este modelo, ocurre lo opuesto al anterior, pues es aquí la sociedad la que se disuelve en individuos. Finalmente, Habermas presenta su concepción de la acción comunicativa, partiendo de los aportes del interaccionismo simbólico y de la etnometodología. En el primero, la asunción de rol se entiende como mecanismo de un proceso de aprendizaje en que el muchacho construye el mundo social a la vez que desarrolla su propia identidad. Este concepto de asunción de rol permite entender la individuación como proceso de socialización y simultáneamente la socialización como individuación.19 Pero el interaccionismo simbólico no explica como el lenguaje puede cumplir esa función de socialización. De ello se ocupa la etnometodología (Garfinkel y Schütz), que entiende las acciones sociales como procesos cooperativos de interpretación, en el que los agentes sociales negocian significados comunes para poder coordinar sus planes de acción. La crítica de Habermas es que aquí, “las acciones se disuelven en actos de habla, y las interacciones sociales tácitamente se disuelven en conversaciones”20. El problema es, en síntesis que no se distingue aquí con suficiente cuidado entre mundo y mundo de la vida, es decir, se confunde aquello respecto de lo cual los agentes se entienden (el mundo), con aquello a partir de lo cual inician y discuten sus operaciones interpretativas (las tradiciones culturales, etc. fijadas en el mundo de la vida).

19 20

Observaciones sobre el concepto de acción comunicativa, Pág. 488. Ibid.

62

ARMANDO ZABERT (COMPILADOR)

Este argumento lleva a Habermas a plantear comparativamente las distintas relaciones con el mundo incluidas en cada uno de los conceptos de acción analizados, resumimos su conclusiones en el siguiente cuadro: CONCEPTO Acción Teleológica RELACIONES CON EL MUNDO Concibe un solo mundo objetivo, con el cual el actor puede establecer dos relaciones, conocer estados de cosas existentes y traer a la existencia estados de cosas deseados. Acción Estratégica Se complejiza un poco respecto de la teleológica porque ahora pueden presentarse, además de cosas y sucesos, otros agentes. Pero sigue siendo un concepto que cuenta con un solo mundo. Acción Regulada Concibe dos mundos, un mundo objetivo de las cosas y un por normas mundo social que consiste en órdenes institucionales que fijan las reglas, los roles y los valores. Acción Concibe tres mundos, además del mundo de las cosas y del Dramatúrgica mundo social, incluye un mundo subjetivo al que solo el actor tiene acceso. Acción Concibe cuatro mundos, al mundo objetivo, al social y al Comunicativa subjetivo, agrega el mundo del lenguaje a través del cual los actores llegan a un acuerdo en una acción orientada al entendimiento. Habermas reintegra en este punto algunos elementos de su concepción acerca de los intereses del conocimiento, lo hace con la distinción entre la acción orientada al éxito y la acción orientada al entendimiento. La orientación al éxito se corresponde claramente a la acción teleológica – estratégica que, como vimos, es motivada por la consecución de un fin y tiene por lo tanto un carácter instrumental que responde a un interés técnico. La acción orientada por normas, es guiada por el interés práctico, ya que, supone la pertinencia de los papeles sociales dentro de los cuales los agentes operan solucionando sus conflictos dentro del marco de las normas establecidas. Por último, la acción orientada al entendimiento, es guiada por el interés crítico – emancipativo que trata “de llegar a una resolución de problemas a través de la argumentación, del reconocimiento de las pretensiones de validez de los actos de habla de los interlocutores”21. Habermas agrupa estos elementos en dos dimensiones, la dimensión instrumental y la dimensión comunicativa. La primera comprende lo teleológico – estratégico y promueve un tipo de interacción social basado en intereses comunes y en un adecuado calculo de las posibilidades de éxito. La segunda promueve una interacción basada en procesos cooperativos de interpretación que posibilita que los individuos afectados por una situación común realicen una comprensión compartida de la misma generadora de concierto entre ellos. La primera dimensión de interacción requiere de pocos puntos en común entre los participantes, sentados en torno a los medios para lograr el objetivo deseado; la segunda dimensión requiere compartir significados y valoraciones para que el entendimiento sea posible, ello presupone un cierto grado de comunidad en el mundo de la vida. Habermas parte del concepto de acción comunicativa porque él cree que es centralmente constitutivo de la sociedad humana, por ello trata a partir de éste de reconstruir una filosofía de la racionalidad.

21

M., Boladeras, op. cit., Pág. 52

63

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Para Habermas la razón es una trama discursiva que articula las acciones de los individuos. Estos pueden comprenderse porque comparten un mismo mundo simbólico que garantiza el que se otorgue validez al proceso dialógico. Es el mundo de la vida el que garantiza que los individuos de una misma sociedad compartan esos elementos simbólicos que hacen posible la cooperación y el entendimiento.22 Pero el concepto de acción comunicativa es además eminentemente crítico pues las posibilidades ideales que el concepto plantea desenmascaran el carácter mutilado de la comunicación vigente en la sociedad contemporánea. Es aquí donde Habermas aplica a un nivel social general la concepción autoreflexiva del psicoanálisis, como el proceso crítico que permite tomar conciencia de la represión y mutilación que llevan adelante las instituciones de las sociedades industrializadas avanzadas, represión análoga a la experimentada por el paciente neurótico. 5 - Discusión del carácter crítico de las ciencias como problema epistemológico Los planteos críticos de la escuela de Frankfurt y de Habermas conservan plena vigencia en la actualidad pese a los embates del relativismo “posmoderno”. Si bien el positivismo ha retrocedido y no es sostenido como filosofía de la ciencia más que por unos pocos, al menos en las ciencias sociales; el carácter acentuadamente técnico, instrumental e inhumano de la sociedad contemporánea se ha profundizado desde los momentos en que los pensadores que he reseñado en las secciones anteriores produjeron sus obras. Hoy las revoluciones de la informática y de las comunicaciones, y los nuevos campos abiertos por el desarrollo de la biología del genoma humano, entre muchos otros, nos indican el ritmo cada vez más acelerado con que las tecnologías hacen accesibles, a algunos hombres, poderes y capacidades antes impensadas, sin que esos procesos sean controlados por ninguna guía reflexiva o por ninguna consideración crítica. El diagnóstico elaborado por la escuela de Frankfurt sigue describiendo acertadamente la situación en la sociedad contemporánea, en la que la dimensión social es intervenida y mediatizada en forma cada vez más profunda por tecnologías de todo tipo, que en el marco del capitalismo globalizado mundial apuntan antes a crear nuevas necesidades (y ganancias para el capital trasnacional) que a resolver parte de los problemas cada vez más acuciantes que la desigualdad, el deterioro de la ecología, las enfermedades, el hambre, y la brecha cada vez más grande entre los países del primer y tercer mundo, plantean a la humanidad en conjunto. Las finalidades que rigen la política y la planificación en las áreas consideradas cruciales siguen siendo finalidades instrumentales, que pretenden solucionar problemas acentuando el control técnico sobre determinadas variables, resultando en la mayoría de los casos soluciones ambiguas que con frecuencia generan nuevos problemas o agravan los ya existentes. El acentuado deterioro del entorno ambiental del hombre es una de las amenazas más graves que se ciernen sobre el horizonte humano a corto y mediano plazo. Desde la revolución industrial y la revolución tecnológica, la economía capitalista ha impuesto una valoración absolutamente instrumental de la naturaleza como un medio a manipular y controlar para satisfacer necesidades y, sobre todo, para generar grandes ganancias, sin ninguna consideración sobre los efectos globales de esta actitud voluntariamente restringida al corto plazo de la rentabilidad económica. Como lo señala Habermas, la manipulación de la naturaleza es una de las orientaciones básicas del proceso de auto-constitución del género humano a lo largo de la historia, pero en el siglo veinte esa dimensión ha tendido a anular cada vez en forma creciente la orientación práctica hacia la comunicación y la orientación emancipativa general hacia la liberación del hombre.
22

M., Boladeras, op. cit., Pág. 60 – 62.

64

ARMANDO ZABERT (COMPILADOR)

La creciente desigualdad social en el capitalismo globalizado, tanto entre ricos y pobres como entre las regiones “desarrolladas” y “subdesarrolladas” del mundo, es otro de los problemas que con gravedad creciente someten a la mayoría de la humanidad a una existencia de sometimiento, miseria y penuria. Este es el resultado de una economía tecnocrática, inhumana y deshumanizante que, centrada en los principios de la “neutralidad valorativa”, es fiel a los lineamientos de David Ricardo, pues sigue negando “la distinción entre hombres, bestias y cosas” en sus análisis. Encubre con su abstracto y formalizado vocabulario (supuestamente objetivo y desinteresado) realidades brutales de violencia y bestial explotación del hombre por el hombre. Los Estados mundiales se guían en sus políticas por los criterios técnicos que producen esas ciencias “neutrales” y son los primeros en demandar de ellas ese tipo de resultados, ansiosos por incrementar el control de las variables centrales de sus sociedades. Esto trae aparejado un gran crecimiento del perfil tecnocrático y burocrático de los gobiernos, lo que mina cada vez más las posibilidades de una democratización genuina que otorgue poder a la sociedad civil. El Estado es así la herramienta principal del control técnico de la dimensión social; la ausencia de toda reflexión crítica y emancipadora sobre los fines que debe perseguir el Estado determina que sea uno de los principales garantizadores de que los problemas ecológicos y de la desigualdad social se acentúen. Esto es especialmente cierto de los países desarrollados que imponen con diversas formas de coerción sus procedimientos a los Estados de los demás países. Habermas crítica al Estado de bienestar occidental precisamente en estos términos al señalar la contradicción entre sus objetivos sociales y sus medios instrumentales.23 En la sociedad mundial actual, las ciencias y las técnicas constituyen entonces la principal “ideología” generadora de falsa conciencia entre los hombres, que los mantiene por tanto sometidos a una relación alienada con su situación objetiva de opresión. Pese a que el positivismo ha dejado de ser la filosofía de la ciencia dominante en la que se fundamentan, ellas siguen conservando en gran medida su pretensión de objetividad y, más aún, el perfil exclusivamente instrumental en la aplicación y justificación de sus resultados. Constituyen cada vez más el centro indiscutido de la vida moderna que gira en torno a ellas alienado de toda otra relación, justificando todos sus resultados a priori y por definición. Ante este contexto, la obra crítica habermasiana tiene un peso epistemológico central, pues no se detiene en las consideraciones metodológicas preocupado por determinar la posibilidad y la legitimidad del conocimiento científico, como ha sido el caso con muchos de los pensadores de la escuela galileana, sino que a partir de esas consideraciones trasciende el marco limitado de lo exclusivamente metodológico, para pasar a considerar el problema epistemológico central de la situación de la ciencia en sus relaciones con las demás esferas de la actividad humana, para revelar sus efectos y resultados. Habermas no se detiene en la crítica del positivismo y en la fundamentación de la existencia de una metodología propia de las ciencias sociales, sino que este es el punto de partida para que su pensamiento crítico revele la situación problemática del desdibujamiento que la ciencia genera en las dimensiones humanas de la sociedad.

23

J. Habermas, “La crisis del Estado de bienestar y el agotamiento de las energías utópicas”, en: Ensayos políticos, Barcelona, Península, 1988, pp. 113 134.

65

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Habermas respeta el objetivo planteado por Horkheimer y Adorno de someter la razón instrumental a la razón objetiva, la que mediante la reflexión crítica debe fijar objetivos humanos a las ciencias y a la tecnología que ellas producen, pero su pensamiento, integrando corrientes más amplias de las ciencias sociales y de la filosofía, se distingue del de sus predecesores por su conexión más directa entre teoría y praxis, en la genial elaboración de su teoría de la acción comunicativa. Como lo señala en las tesis IV y V de conocimiento e interés, ésta función emancipativa corresponde a la ciencia social crítica. Operando del mismo modo que el psicoanálisis, ésta se vale de la autorreflexión como marco metodológico para liberar al sujeto “de la dependencia de poderes hipostasiados”. La autorreflexión responde a un interés cognoscitivo emancipatorio, presente en las ciencias sociales críticas y en la filosofía. Así, para Habermas, la filosofía debe liberarse del concepto tradicional de teoría que la ata a un objetivismo que obstaculiza e impide su carácter autorreflexivo, y “enmascara el nexo de su conocimiento con el interés por la emancipación. Habermas recibió en su concepción de la ciencia crítica una gran influencia del modelo del psicoanálisis freudiano, dejando de lado sus aspectos legaliformes, rescata insistentemente la idea de una autorreflexión emancipadora del paciente asistida por la praxis hermenéutica del psicoanalista. Habermas hace extensivo este modelo a la filosofía, para asumir un carácter crítico ésta debe apuntar a producir una autorreflexión que libere a los sujetos del carácter “universal y objetivo” de conocimientos ligados a intereses específicos. Este problema epistemológico es central en el campo de la comunicación social considerada como una de las ciencias que Habermas denomina hermenéuticas, cuando, como él mismo lo denuncia, los medios de comunicación cumplen el rol central en la generación de esa “comunicación mutilada y reprimida” que caracteriza a las sociedades actuales. Numerosas fuerzas impulsan a la comunicación social a asumir un rol técnico y “objetivo” como disciplina estrechamente conectada con instituciones públicas y privadas que reclaman la satisfacción de necesidades comunicativas concretas y con contenidos prefijados (y, por lo tanto, reprimidos) para cumplir con funciones instrumentales. En este contexto, creo que es plenamente pertinente el calificar a la función que cumplen los medios de comunicación masiva como eminentemente ideológica, como generadora de falsa conciencia y alineación frente a las condiciones opresoras y deshumanizantes de la sociedad contemporánea. Podemos suscribir entonces las opiniones del pensamiento crítico del siglo XIX, destacadas por Habermas, sobre la opinión pública. El pensamiento crítico debe necesariamente revelar, como lo indica Habermas, que los medios de comunicación se han transformado en instrumentos de entretenimientos y dominación de las masas, apoyando la expansión de las esferas de intervención del Estado en la sociedad civil. Los medios de comunicación se han transformado en medios de propaganda que en vez de expresar los intereses generales se convierten en instrumentos para la difusión privilegiada de intereses privados que se los han apropiado; como lo señala Habermas “la publicidad crítica es desplazada por la publicidad manipuladora”24. Todo ello hace necesario que la comunicación social se plantee el problema epistemológico de cuál debe ser su actitud valorativa; se trata del problema de optar entre la pretendida cientificidad de la neutralidad técnica y el carácter autoreflexivo y crítico que trata de convertirla en una disciplina ligada al interés práctico de generar una
24

Citado en M., Boladeras, op. cit., Pág. 39.

66

ARMANDO ZABERT (COMPILADOR)

comunicación libre y no mutilada, es decir, un entendimiento entre los hombres que apunte a su emancipación. 6 – Conclusión En este trabajo hemos considerado la contribución habermasiana al problema epistemológico de la actitud de la ciencia, problema escindido entre la pretensión de la “neutralidad valorativa” reclamada por el positivismo, y el reclamo de una ciencia crítica exigida por el pensamiento de la escuela de Frankfurt. En el mismo nos hemos identificado con esta última postura, y hemos intentado brevemente desarrollar algunas de sus implicaciones para las ciencias de la comunicación como integrantes de las ciencias sociales. Como vimos, ante el contexto instrumentalizante de la ciencia contemporánea, la obra crítica habermasiana tiene un peso epistemológico central, pues no se detiene en la crítica del positivismo, sino que éste es el punto de partida para que su pensamiento crítico revele la situación problemática que la ciencia y la técnica generan al invadir con su interés técnico las dimensiones humanas de la sociedad; problemática a la que hemos aludido reiteradamente en este trabajo. Es nuestra conclusión que la obra teórica habermasiana es central para que las ciencias sociales se libren de la tutela obstaculizante de la metodología empírico – analítica del positivismo, y asuman su carácter de ciencias hermenéuticas y dialécticas. Solo así podrán realizar la contribución central que el pensamiento crítico requiere de ellas de trasladar el peso del interés práctico y de la dimensión social a un equilibrio emancipatorio frente al interés técnico y la dimensión del trabajo. Bibliografía BOLADERAS, M., COMUNICACIÓN, ÉTICA Y POLÍTICA. HABERMAS Y SUS CRÍTICOS, MADRID, TECNOS, 1996 FROMM, E., EL MIEDO A LA LIBERTAD, BUENOS AIRES, PLANETA, 1993. HABERMAS, J., LA LÓGICA DE LAS CIENCIAS SOCIALES, MADRID, TECNOS, 1988. ________, “CONOCIMIENTO 1986. ________, LA TEORÍA CÁTEDRA, 1994.
E INTERÉS”, EN:

CIENCIA

Y TÉCNICA COMO IDEOLOGÍA ,

MADRID, TECNOS, MADRID,

DE LA ACCIÓN COMUNICATIVA: COMPLEMENTOS Y ESTUDIOS PREVIOS,

________, “LA CRISIS DEL ESTADO DE BIENESTAR Y ENSAYOS POLÍTICOS, BARCELONA, PENÍNSULA, 1988.

EL AGOTAMIENTO DE LAS ENERGÍAS UTÓPICAS”, EN:

HEGEL, G. W. F., LECCIONES SOBRE LA FILOSOFÍA DE LA HISTORIA UNIVERSAL, MADRID, ALIANZA, S.F. UREÑA, E., LA TEORÍA CRÍTICA DE LA SOCIEDAD DE HABERMAS, MADRID, TECNOS, 1998. VON WRIGHT, G., EXPLICACIÓN Y COMPRENSIÓN, MADRID, ALIANZA, 1987.

67

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

10 - INTRODUCCION AL PENSAMIENTO COMPLEJO. Edgar Morin
El presente texto es una compilación de ensayos y presentaciones del pensador frances Edgar Morin realizadas entre 1976 y 1988, los años durante los cuales su «método» comienza a cobrar como estructura articulada de conceptos. Es una introducción ideal a la obra de este hombre cuya desmesurada curiosidad intelectual y pasión ética evocan aquel apelativo de «genio numeroso» que Ernesto Sábato dedicara a Leonardo. El diálogo estimulador del pensamiento que Morin propone a todos los que, ya sea desde la cátedra o los ámbitos más diversos de la práctica social, desde las ciencias duras o blandas, desde el campo de la literatura o la religión, se interesen en desarrollar un metodo complejo de pensar la experiencia humana, recuperando el asombro ante el milagro doble del conocimiento y del misterio, que asoma detrás de toda filosofía, de toda ciencia, de toda religión, y que aúna a la empresa humana en su aventura abierta hacia el descubrimiento de nosotros mismos, nuestros límites y nuestras posibilidades. Vivimos un momento en el que cada vez más y, hasta cierto punto, gracias a estudiosos como Edgar Morin, entendemos que el estudio de cualquier aspecto de la experiencia humana ha de ser, por necesidad, multifacético. El pensamiento complejo es una aventura, pero también un desafío. Introducción Legítimamente, le pedimos al pensamiento que disipe las brumas y las oscuridades, que ponga orden y claridad en lo real, que revele las leyes que lo gobiernan. El término “complejidad” no puede más que expresar nuestra turbación, nuestra confusión, nuestra incapacidad para definir de manera simple, para nombrar de manera clara, para poner orden en nuestras ideas. Al mismo tiempo, el conocimiento científico fue concebido durante mucho tiempo, y aún lo es a menudo, como teniendo por misión la de disipar la aparente complejidad de los fenómenos, a fin de revelar el orden simple al que obedecen. Pero si los modos simplificadores del conocimiento mutilan, más de lo que expresan, aquellas realidades o fenómenos de lo que intentan dar cuenta, si se hace evidente que producen más ceguera que elucidación, surge entonces un problema: ¿cómo encarar a la complejidad de un modo no-simplificador? De todos modos este problema no puede imponerse de inmediato. Debe probar su legitimidad, porque la palabra “complejidad” no tiene tras de sí una herencia noble, ya sea filosófica, científica, o epistemológica. Por el contrario, sufre una pesada tara semántica, porque lleva en su seno confusión, incertidumbre, desorden. Su definición primera no puede aportar ninguna claridad: • “es complejo aquello que no puede resumirse en una palabra maestra, aquello que no puede retrotraerse a una ley, aquello que no puede reducirse a una idea simple”.

Dicho de otro modo, lo complejo no puede resumirse en el término complejidad, retrotraerse a una ley de complejidad, reducirse a la idea de complejidad. La complejidad no sería algo definible de manera simple para tomar el lugar de la simplicidad. La complejidad es una palabra problema y no una palabra solución. La necesidad del pensamiento complejo no sabrá ser justificada en un prólogo. Tal necesidad no puede más que imponerse progresivamente a lo largo de un camino en el cual aparecerán, ante todo, los límites, las insuficiencias y las carencias del pensamiento simplificante, es decir, las condiciones en las cuales no podemos eludir el desafío de lo complejo.

68

ARMANDO ZABERT (COMPILADOR)

Será necesario, entonces, preguntarse si hay complejidades diferentes y si se puede ligar a esas complejidades en un complejo de complejidades. Será necesario, finalmente, ver si hay un modo de pensar, o un método, capaz de estar a la altura del desafío de la complejidad. No se trata de retomar la ambición del pensamiento simple de controlar y dominar lo real. Se trata de ejercitarse en un pensamiento capaz de tratar, de dialogar, de negociar, con lo real. Habrá que disipar dos ilusiones que alejan a los espíritus del problema del pensamiento complejo. 1. La primera ilusion es crear que la complejidad conduce a la eliminación de la simplicidad. Por cierto que la complejidad aparece allí donde el pensamiento simplificador falla, pero integra en sí misma todo aquello que pone orden, claridad, distinción, precisión en el conocimiento. Mientras que el pensamiento simplificador desintregra la complejidad de lo real, el pensamiento complejo integra lo más posible los modos simplificadores de pensar, pero rechaza las consecuencias mutilantes, reduccionistas, unidimensionales y finalmente cegadoras de una simplificación que se toma por reflejo de aquello que hubiere de real en la realidad. 2. La segunda ilusión es la de confundir complejidad con completud. Ciertamente, la ambición del pensamiento complejo es rendir cuenta de las articulaciones entre dominios disciplinarios quebrados por el pensamiento disgregador (uno de los principales aspectos del pensamiento simplificador); éste aísla lo que separa, y oculta todo lo que religa, interactúa interfiere. En este sentido el pensamiento complejo aspira al conocimiento multidimensional. Pero sabe, desde el comienzo, que el conocimiento complejo es imposible: uno de los axiomas de la complejidad es la imposibilidad, incluso teórica, de una omniciencia. Hace suya la frase de Adorno «la totalidad es la no-verdad». Implica el reconocimiento de un principio de incompletud y de incertidumbre. Pero implica también, por principio, el reconocimiento de los lazos entre las entidades que nuestro pensamiento debe necesariamente distinguir, pero no aislar, entre sí. Pascal había planteado, correctamente, que todas las cosas son «causadas y causantes, ayudadas y ayudantes, mediatas e inmediatas, y que todas (subsisten) por un lazo natural a insensible que liga a las más alejadas y a las más diferentes». Así es que el pensamiento complejo está animado por una tensión permanente entre la aspiración a un saber no parcelado, no dividido, no reduccionista, y el reconocimiento de lo inacabado e incompleto de todo conocimiento. Esa tensión ha animado toda mi vida. Nunca pude, a lo largo de toda mi vida, resignarme al saber parcelarizado, nunca pude aislar un objeto del estudio de su contexto, de sus antecedentes, de su devenir. He aspirado siempre a un pensamiento multidimensional. Nunca he podido eliminar la contradicción interior. Siempre he sentido que las verdades profundas, antagonistas las unas de las otras, eran para mí complementarias, sin dejar de ser antagonistas. Nunca he querido reducir a la fuerza la incertidumbre y la ambigüedad. Desde mis primeros libros he afrontado a la complejidad, que se transformó en el denominador común de tantos trabajos diversos que a muchos le parecieron dispersos. Pero la palabra complejidad no venía a mi mente, hizo falta que lo hiciera, a fines de los años 1960, vehiculizada por la Teoría de la Información, la Cibernética, la Teoría de Sistemas, el concepto de auto-organización, para que emergiera bajo mi pluma o, mejor dicho, en mi máquina de escribir. Se liberó entonces de su sentido banal (complicación, confusión), para reunir en sí orden, desorden y organización y, en el seno de la organización, lo uno y lo diverso; esas nociones han trabajado las unas con las otras, de manera a la vez complementaria y antagonista; se han puesto en interacción y en constelación.

69

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

El concepto de complejidad se ha formado, agrandado, extendido sus ramificaciones, pasado de la periferia al centro de mi meta, devino un macro-concepto, lugar crucial de interrogantes, ligado en sí mismo, de allí en más, al nudo gordiano del problema de las relaciones entre lo empírico, lo lógico, y lo racional. Ese proceso coincide con la gestación de El Método, que comienza en 1970; la organización compleja, y hasta hiper-compleja, está claramente en el corazón organizador de mi libro El Paradigma Perdido (1973). El problema lógico de la complejidad es objeto de un artículo publicado en 1974 (Más alla de la complicación, la complejidad, incluido en la primera edición de Ciencia con Conciencia). El Método es y será, de hecho, el método de la complejidad. Este libro, constituido por una colección de textos diversos, es una introducción a la problemática de la complejidad. Si la complejidad no es la clave del mundo, sino un desafío a afrontar, el pensamiento complejo no es aquél que evita o suprime el desafío, sino aquél que ayuda a revelarlo e incluso, tal vez, a superarlo. La necesidad del pensamiento complejo ¿Qué es la complejidad? A primera vista la complejidad es un tejido (complexus: lo que está tejido en conjunto) de constituyentes heterogéneos inseparablemente asociados: presenta la paradoja de lo uno y lo múltiple. Al mirar con más atención, la complejidad es, efectivamente, el tejido de eventos, acciones, interacciones, retroacciones, determinaciones, azares, que constituyen nuestro mundo fenoménico. Así es que la complejidad se presenta con los rasgos inquietantes de lo enredado, de lo inextrincable, del desorden, la ambigüedad, la incertidumbre... De allí la necesidad, para el conocimiento, de poner orden en los fenómenos rechazando el desorden, de descartar lo incierto, es decir, de seleccionar los elementos de orden y de certidumbre, de quitar ambigüedad, clarificar, distinguir, jerarquizar... Pero tales operaciones, necesarias para la inteligibilidad, corren el riesgo de producir ceguera si eliminan los otros caracteres de lo complejo; y, efectivamente, como ya lo he indicado, nos han vuelto ciegos. Pero la complejidad ha vuelto a las ciencias por la misma vía por la que se había ido. El desarrollo mismo de la ciencia física, que se ocupaba de revelar el Orden impecable del mundo, su determinismo absoluto y perfecto, su obediencia a una Ley única y su constitución de una materia simple primigenia (el átomo), se ha abierto finalmente a la complejidad de lo real. Se ha descubierto en el universo físico un principio hemorrágico de degradación y de desorden (segundo principio de la Termodinámica); luego, en el supuesto lugar de la simplicidad física y lógica, se ha descubierto la extrema complejidad microfísica; la partícula no es un ladrillo primario, sino una frontera sobre la complejidad tal vez inconcebible; el cosmos no es una máquina perfecta, sino un proceso en vías de desintegración y, al mismo tiempo, de organización. Finalmente, se hizo evidente que la vida no es una sustancia, sino un fenómeno de auto-eco-organización extraordinariamente complejo que produce la autonomía. Desde entonces es evidente que los fenómenos antropo-sociales no podrían obedecer a principios de inteligibilidad menos complejos que aquellos requeridos para los fenómenos naturales. Nos hizo falta afrontar la complejidad antropo-social en vez de dislverla u ocultarla. La dificultad del pensamiento complejo es que debe afrontar lo entramado (el juego infinito de inter-retroacciones), la solidaridad de los fenómenos entre sí, la bruma, la incertidumbre, la contradicción.

70

ARMANDO ZABERT (COMPILADOR)

Pero nosotros podemos elaborar algunos de los utiles conceptuales, algunos de los principios, para esa aventura, y podemos entrever el aspecto del nuevo paradigma de complejidad que debiera emerger. Ya he señalado, en tres volúmenes de El Metodo, algunos de los útiles conceptuales que podemos utilizar. Así es que, habría que sustituir al paradigma de disyunción/reducciön/unidimensionalización por un paradigma de distinción/conjunción que permita distinguir sin desarticular, asociar sin identificar o reducir. Ese paradigma comportaría un principio dialógico y tanslógico, que integraría la lógica clásica teniendo en cuenta sus límites de facto (problemas de contradicciones) y de jure (límites del formalismo). Llevaría en sí el principio de la Unitas multiplex, que escapa a la unidad abstracta por lo alto (holismo) y por lo bajo (reduccionismo). Mi propósito aquí no es el de enumerar los «mandamientos» del pensamiento complejo que he tratado de desentrañar, sino el de sensibilizarse a las enormes carencias de nuestro pensamiento, y el de comprender que un pensamiento mutilante conduce, necesariamente, a acciones mutilantes. Mi propósito es tomar conciencia de la patología contemporanea del pensamiento. La antigua patología del pensamiento daba una vida independiente a los mitos y a los dioses que creaba. La patología moderna del espíritu está en la hiper-simplificación que ciega a la complejidad de lo real. La patología de la idea está en el idealismo, en donde la idea oculta a la realidad que tiene por misión traducir, y se toma como única realidad. La enfermedad de la teoría está en el doctrinarismo y en el dogmatismo, que cierran a la teoría sobre ella misma y la petrifican. La patología de la la razón es racionalización, que encierra a lo real en un sistema de ideas coherente, pero parcial y unilateral, y que no sabe que una parte de lo real es irracionalizable, ni que la racionalidad tiene por misión dialogar con lo irracionalizable. Aún somos ciegos al problema de la complejidad. Las disputas epistemológicas entre Popper, Kuhn, Lakatos, Feyerabend, etc., lo pasan por alto. Pero esa ceguera es parte de nuestra barbarie. Tenemos que comprender que estamos siempre en la era bárbara de las ideas. Estamos siempre en la prehistoria del espíritu humano. Sólo el pensamiento complejo nos permitiría civilizar nuestro conocimiento. Sin embargo, Bachelard, el filósofo de las ciencias, había descubierto que lo simple no existe: sólo existe lo simplificado. La ciencia construye su objeto extrayendolo de su ambiente complejo para ponerlo en situaciones experimentales no complejas. La ciencia no es el estudio del universo simple, es una simplificación heurística necesaria para extraer ciertas propiedades, ver ciertas leyes. George Lukacs, el filósofo marxista, decía en su vejez, criticando su propia visión dogmática: «Lo complejo debe ser concebido como elemento primario existente. De donde resulta que hace falta examinar lo complejo de entrada en tanto complejo y pasar luego de lo complejo a sus elementos y procesos elementales.» El paradigma de complejidad No hace falta creer que la cuestión de la complejidad se plantea solamente hoy en día, a partir de nuevos desarrollos científicos. Hace falta ver la complejidad allí donde ella parece estar, por lo general, ausente, como, por ejemplo, en la vida cotidiana. La complejidad en ese dominio ha sido percibida y descrita por la novela del siglo XIX y comienzos del XX. Mientras que en esa misma época, la ciencia trataba de eliminar todo lo que fuera individual y singular, para retener nada más que las leyes generales y las identidades simples y cerradas, mientras expulsaba incluso al tiempo de su visión del mundo, la novela, por el contrario (Balzac en Francia, Dickens en Inglaterra) nos mostraba seres singulares en sus contextos y en su tiempo.

71

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Mostraba que la vida cotidiana es, de hecho, una vida en la que cada uno juega varios roles sociales, de acuerdo a quien sea en soledad, en su trabajo, con amigos o con desconocidos. Vemos así que cada ser tiene una multiplicidad de identidades, una multiplicidad de personalidades en sí mismo, un mundo de fantasmas y de sueños que acompañan su vida. Por ejemplo, el tema del monólogo interior, tan importante en la obra de Faulkner, era parte de esa complejidad. Ese inner.speech, esa palabra permanente es revelada por la literatura y por la novela, del mismo modo que ésta nos reveló también que cada uno se conoce muy poco a sí mismo: en inglés, se llama a eso self-deception, el engaño de sí mismo. Sólo conocemos una apariencia del sí mismo; uno se engaña acerca de sí mismo. Incluso los escritores más sinceros, como Jean-Jacques Rousseau, Chateaubriand, olvidan siempre, en su esfuerzo por ser sinceros, algo importante acerca de sí mismos. La relación ambivalente con los otros, las verdaderas mutaciones de personalidad como la ocurrida en Dostoievski, el hecho de que somos llevados por la historia sin saber mucho cómo sucede, del mismo modo que Fabrice del Longo o el príncipe Andrés, el hecho de que el mismo ser se transforma a lo largo del tiempo como lo muestran admirablemente A la recherche du temps perdu y, sobre todo, el final de Temps retrouvé de Proust, todo ello indica que no es solamente la sociedad la que es compleja, sino también cada átomo del mundo humano. Al mismo tiempo, en el siglo XIX, la ciencia tiene un ideal exactamente opuesto. Ese ideal se afirma en la visión del mundo de Laplace, a comienzos del siglo XIX. Los científicos, de Descartes a Newton, tratan de concebir un universo que sea una máquina determinista perfecta. Pero Newton, como Descartes, tenian necesidad de Dios para explicar cómo ese mundo perfecto había sido producido. Laplace elimina a Dios. Cuando Napoleón le pregunta: «¿Pero señor Laplace, qué hace usted con Dios en su sistema?», Laplace responde: «Señor, yo no necesito esa hipótesis.» Para Laplace, el mundo es una máquina determinista verdaderamente perfecta, que se basta a sí misma. El supone que un demonio que poseyera una inteligencia y unos sentidos casi infinitos podría conocer todo acontecimiento del pasado y todo acontecimiento del futuro. De hecho, esa concepción, que creía poder arreglárselas sin Dios, había introducido en su munto los atributos de la divinidad: la perfección, el orden absoluto, la inmortalidad y la eternidad. Es ese mundo el que va a desordenarse y luego desintegrarse. El paradigma de simplicidad Para comprender el problema de la complejidad, hay que saber, antes que nada, que hay un paradigma de simplicidad. La palabra paradigma es empleada a menudo. En nuestra concepción, un paradigma está constituido por un cierto tipo de relación lógica extremadamente fuerte entre nociones maestras, nociones clave, principios clave. Esa relación y esos principios van a gobernar todos los discursos que obedecen, inconscientemente, a su gobierno. Así es que el paradigma de simplicidad es un paradigma que pone orden en el universo, y persigue al desorden. El orden se reduce a una ley, a un principio. La simplicidad ve a lo uno y ve a lo múltiple, pero no puede ver que lo Uno puede, al mismo tiempo, ser

72

ARMANDO ZABERT (COMPILADOR)

Múltiple. El principio de simplcidad o bien separa lo que está ligado (disyunción), o bien unifica lo que es diverso (reducción). Tomemos como ejemplo al hombre. El hombre es un ser evidentemente biológico. Es, al mismo tiempo, un ser evidentemente cultural, meta-biológico y que vive en universo de lenguaje, de ideas y de conciencia. Pero, a esas dos realidades, la realidad biológica y la realidad cultural, el paradigma de simplificación nos obliga ya sea a desunirlas, ya sea a reducir la más compleja a la menos compleja. Vamos entonces a estudiar al hombre biológico en el departamento de Biología, como un ser anatómico, fisiológico, etc., y vamos a estudiar al hombre cultural en los departamentos de ciencias humanas y sociales. Vamos a estudiar al cerebro como órgano biológico y vamos a estudiar al espíritu, the mind, como función o realidad psicológica. Olvidamos que uno no existe sin el otro; más aún, que uno es, al mismo tiempo, el otro, si bien son tratados con términos y conceptos diferentes. Con esa voluntad de simplificación, el conocimiento cientifíco se daba por misión la de desvelar la simplicidad escondida detrás de la aparente multiplicidad y el aparente desorden de los fenómenos. Tal vez sea que, privados de un Dios en que no podían creer más, los cientificos tenían una necesidad, inconscientemente, de verse reasegurados. Sabiéndose vivos en un universo materialista, mortal, sin salvación, tenían necesidad de saber que había algo perfecto y eterno: el universo mismo. Esa mitología extremadamente poderosa, obsesiva aunque oculta, ha animado al movimiento de la Física. Hay que reconocer que esa mitología ha sido fecunda porque la búsqueda de la gran ley del universo ha conducido a descubrimientos de leyes mayores tales como las de la gravitación, el electromagnetismo, las interacciones nucleares fuertes y luego, débiles. Hoy, todavía, los científicos y los físicos tratan de encontrar la conexión entre esas diferentes leyes, que representaría una verdadera ley única. La misma obsesión ha conducido a la búsqueda del ladrillo elemental con el cual estaba construido el universo. Hemos, ante todo, creído encontrar la unidad de base en la molécula. El desarrollo de instrumentos de observación ha revelado que la molécula misma estaba compuesta de átomos. Luego nos hemos dado cuenta que el átomo era, en sí mismo, un sistema muy complejo, compuesto de un núcleo y de electrones. Entonces, la partícula devino la unidad primaria. Luego nos hemos dado cuenta que las partículas eran, en sí mismas, fenómenos que podían ser divididos teóricamente en quarks. Y, en el momento en que creíamos haber alcanzado el ladrillo elemental con el cual nuestro universo estaba construido, ese ladrillo ha desaparecido en tanto ladrillo. Es una entidad difusa, compleja, que no llegamos a aislar. La obsesión de la complejidad condujo a la aventura científica a descubrimientos imposibles de concebir en términos de simplicidad. Lo que es más, en el siglo XX tuvo lugar este acontecimiento mayor: la irrupción del desorden en el universo físico. En efecto, el segundo principio de la Termodinamica, formulado por Carnot y por Clausius, es, primeramente, un principio de degradación de energía. El primer principio (de la Termodinámica), que es el principio de la conservación de la energía, se acompaña de un principio que dice que la energía se degrada bajo la forma de calor. Toda actividad, todo trabajo, produce calor; dicho de otro modo, toda utilización de la energía tiende a degradar dicha energía.

73

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Luego nos hemos dado cuenta, con Boltzman, que eso que llamamos calor, es en realidad, la agitación en desorden de moléculas y de átomos. Cualquiera puede verificar, al comenzar a calentar un recipiente con agua, que aparecen vibraciones y que se produce un arremolinamiento de moléculas. Algunas vuelan hacia la atmósfera hasta que todas se dispersan. Efectivamente, llegamos al desorden total. El desorden está, entonces, en el universo físico, ligado a todo trabajo, a toda transformación. La complejidad y la acción La acción es también una apuesta. Tenemos a veces la impresión de que la acción simplifica porque, ante una alternativa, decidimos, optamos. El ejemplo de acción que simplifica todo lo aporta la espada de Alejandro que corta el nudo gordiano que nadie había sabido desatar con sus manos. Ciertamente, la acción es una decisión, una elección, pero es también una apuesta. Pero en la noción de apuesta está la conciencia del riesgo y de la incertidumbre. Toda estrategia, en cualquier dominio que sea, tiene conciencia de la apuesta, y el pensamiento moderno ha comprendido que nuestras creencias más fundamentales con objeto de una apuesta. Eso es lo que nos habia dicho, en el siglo XVII, Blaise Pascal acerca de la fe religiosa. Nosotros también debemos ser conscientes de nuestras apuestas filosóficas o políticas. La acción es estrategia. La palabra estrategia no designa a un programa predeterminado que baste para aplicar ne variatur en el tiempo. La estrategia permite, a partir de una decisión inicial, imaginar un cierto número de escenarios para la acción, escenacios que podrán ser modificados según las informaciones que nos llegen en el curso de la acción y según los elementos aleatorios que sobrevendrán y perturbarán la acción. La estrategia lucha contra el azar y busca a la información. Un ejército envía exploradores, espías, para infornarse, es decir, para eliminar la incertidumbre al máximo, Más aún, la estrategia no se limita a luchar contra el azar, trata también de utilizarlo. Así fue que el genio de Napoleón en Austerlitz fue el de utilizar el azar metereológico, que ubicó una capa de brumas sobre los pantanos, considerados imposibles para el avance de los soldados. Él construyó su estrategia en función de esa bruma y tomar por sorpresa, por su flanco más desguarnecido, al ejército de los imperios. La estrategia saca ventaja del azar y, cuando se trata de estrategia con respecto a otro jugador, la buena estrategia utiliza los errores del adversario. En el fútbol, la estrategia consiste en utilizar las pelotas que el equipo adversario entrega involuntariamente. La construcción del juego se hace mediante la deconstrucción del juego del adversario y, finalmente, la mejor estrategia -si se beneficia con alguna suerte- gana. El azar no es solamente el factor negativo a reducir en el dominio de la estrategia. Es también la suerte a ser aprovechada. El problema de la acción debe también hacernos conscientes de las derivas y las bifurcaciones: situaciones iniciales muy vecinas pueden conducir a desvíos irremediables. Así fue que, cuando Martín Lutero (en Alemania) inició su movimiento, pensaba estar de acuerdo con la Iglesia, y que quería simplemente reformar los abusos cometidos por el papado en Alemania. Luego, a partir del momento en que debe ya sea renunciar, ya sea continuar, franquea un umbral y, de reformador, se vuelve contestatario. Una deriva implacable lo lleva - eso es lo que pasa en todo desvío- y lleva a la declaración de guerra, a las tesis de Wittemberg (1517). El dominio de la acción es muy aleatorio, muy incierto. Nos impone una conciencia muy aguda de los elementos aleatorios, las derivas, las bifurcaciones, y nos impone la reflexión sobre la complejidad misma.

74

ARMANDO ZABERT (COMPILADOR)

La acción escapa a nuestras intenciones itinerario o no, si hay que violar el código: hace falta hacer uso de Aquí interviene la noción de ecología de la acción. En el momento en que un individuo emprende una acción, cualesquiera que fuere, ésta comienza a escapar a sus intenciones. Esa acción entra en un universo de interacciones y es finalmente el ambiente el que toma posesión, en un sentido que puede volverse contrario a la intención inicial. A menudo, la acción se volverá como un boomerang sobre nuestras cabezas. Esto nos obliga a seguir la acción, a tratar de corregirla -si todavía hay tiempo- y tal vez a torpedearla, como hacen los responsables de la NASA que, si un misil se desvía de su trayectoria, le envían otro misil para hacerlo explotar. La acción supone complejidad, es decir, elementos aleatorios, azar, iniciativa, decisión, conciencia de las derivas y de las transformaciones. La palabra estrategia se opone a la palabra programa. Para las secuencias que se sitúan en un ambiente estable, conviene utilizar programas. El programa no obliga a estar vigilante. No obliga a innovar. Así es que cuando nosotros nos sentamos al volante de nuestro coche, una parte de nuestra conducta está programada. Si surge un embotellamiento inesperado, hace falta decidir si hay que cambiar el estrategias. Es por eso que tenemos que utilizar múltiples fragmentos de acción programada para poder concentrarnos sobre lo que es importante, la estrategia con los elementos aleatorios. No hay un dominio de la complejidad que incluya el pensamiento, la reflexión, por una parte, y el dominio de las cosas simples que incluiría la acción, por la otra. La acción es el reino de lo concreto y, tal vez, parcial de la complejidad. La acción puede, ciertamente, bastarse con la estrategia inmediata que depende de las intuiciones, de las dotes personales del estratega. Le sería también útil beneficiarse de un pensamiento de la complejidad. Pero el pensamiento de la complejidad es, desde el comienzo, un desafío. Una visión simplificada lineal resulta fácilmente mutilante. Por ejemplo, la política del petróleo crudo tenía en cuenta únicamente al factor precio sin considerar el agotamiento de los recursos, la tendencia a la independencia de los países poseedores de esos recursos, los inconvenientes políticos. Los políticos habían descartado a la Historia, la Geografía, la Sociología, la política, la religión, la mitología, de sus análisis. Esas disciplinas se tomaron venganza. La máquina no trivial Los seres humanos, la sociedad, la empresa, son máquinas no triviales: es trivial una máquina de la que, cuando conocemos todos sus inputs, conocemos todos sus outputs; podemos predecir su comportamiento desde el momento que sabemos todo lo que entra en la máquina. De cierto modo, nosotros somos también máquinas triviales, de las cuales se puede, con amplitud, predecir los comportamientos. En efecto, la vida social exige que nos comportemos como máquinas triviales. Es cierto que nosotros no actuamos como puros autómatas, buscamos medios no triviales desde el momento que constatamos que no podemos llegar a nuestras metas. Lo importante, es lo que sucede en momentos de crisis, en momentos de decisión, en los que la máquina se vuelve no trivial: actua de una manera que no podemos predecir. Todo lo que concierne al surgimiento de lo nuevo es no trivial y no puede ser predicho por anticipado. Así es que, cuando los estudiantes chinos están en la calle por millares, la China se vuelve una máquina no trivial... ¡En 1987-89, en la Unión Sovietica, Gorbachov se condujo como una máquina no trivial!

75

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Todo lo que sucedió en la historia, en especial en situaciones de crisis, son acontecimientos no triviales que no pueden ser predichos por anticipado. Juana de Arco, que oye voces y decide ir buscar al rey de Francia, tiene un comportamiento no trivial. Todo lo que va a suceder de importante en la política francesa o mundial surgirá de lo inesperado. Nuestras sociedades son máquinas no triviales en el sentido, también, de que conocen, sin cesar, crisis políticas, económicas y sociales. Toda crisis es un incremento de las incertidumbres. La predictibilidad disminuye. Los desórdenes se vuelven amenazadores. Los antagonismos inhiben a las complementariedades, los conflictos virtuales se actualizan. Las regulaciones fallan o se desarticulan. Es necesario abandonar los programas, hay que inventar estrategias para salir de la crisis. Es necesario, a menudo, abandonar las soluciones que solucionaban las viejas crisis y elaborar soluciones novedosas. Prepararse para lo inesperado La complejidad no es una receta para conocer lo inesperado. Pero nos vuelve prudentes, atentos, no nos deja dormirnos en la mecánica aparente y la trivialidad aparente de los determinismos. Ella nos muestra que no debemos encerrarnos en el contemporaneísmo, es decir, en la creencia de que lo que sucede ahora va a continuar indefinidamente. Debemos saber que todo lo importante que sucede en la historia mundial o en nuestra vida es totalmente inesperado, porque continuamos actuando como si nada inesperado debiera suceder nunca. Sacudir esa pereza del espíritu es una lección que nos da el pensamiento complejo. El pensamiento complejo no rechaza, de ninguna manera, a la claridad, el orden, el determinismo. Pero los sabe insuficientes, sabe que no podemos programar el descubrimiento, el conocimiento, ni la acción. La complejidad necesita una estrategia. Es cierto que, los segmentos programados en secuencias en las que no interviene lo aleatorio, son útiles o necesarios. En situaciones normales, la conducción automática es posible, pero la estrategia se impone siempre que sobreviene lo inesperado o lo incierto, es decir, desde que aparece un problema importante. El pensamiento simple resuelve los problemas simples sin problemas de pensamiento. El pensamiento complejo no resuelve, en sí mismo, los problemas, pero consituye una ayuda para la estrategia que puede resolverlos. Él nos dice: «Ayúdate, el pensamiento complejo te ayudará.» Lo que el pensamiento complejo puede hacer, es darle a cada uno una señal, una ayuda memoria, que le recuerde: «No olvides que la realidad es cambiante, no olvides que lo nuevo puede surgir y, de todos modos, va a surgir.» La complejidad se sitúa en un punto de partida para una acción más rica, menos mutilante. Yo creo profundamente que cuanto menos mutilante sea un pensamiento, menos mutilará a los humanos. Hay que recordar las ruinas que las visiones simplificantes han producido, no solamente en el mundo intelectual, sino también en la vida. Suficientes sufrimientos aquejaron a millones de seres como resultado de los efectos del pensamiento parcial y unidimensional.

76

ARMANDO ZABERT (COMPILADOR)

11 - LAS CIENCIAS SOCIALES Y EL PRINCIPIO DE INCERTIDUMBRE. Pablo
Casau. En este trabajo se expone el principio de incertidumbre de la física cuántica, se explican las dos interpretaciones clásicas del mismo, la crítica a la interpretación probabilista y, finalmente, se plantean algunas consideraciones que vinculan el principio de incertidumbre con las ciencias sociales en torno a las cuestiones del dilema determinismo – indeterminismo y de la influencia del observador. 1. Un poco de historia Podemos comenzar trazando un panorama muy esquemático de la historia de la física desde Newton hasta nuestros días, para poder ubicar luego, en este contexto, el Principio de Incertidumbre. Para ello, nos ayudaremos con el esquema 1. Esquema 1 – Contexto histórico del principio de incertidumbre

MECANICA NEWTONIANA – Siglo XVII Newton La naturaleza es en sí mísma determinada. Si a veces aparece indeterminada es por nuestra incapacidad para descubrir determinaciones complejas.

TEORIA DE LA RELATIVIDAD Siglo XX Einstein

MECANICA CUANTICA Siglo XX Planck – Einstein – Bohr – Schroedinger – De Broglie – Dirac - Heisenberg

PRINCIPIO DE INCERTIDUMBRE 1925 Heisenberg

INTERPRETACION SUBJETIVISTA Planck – Einstein – Schroedinger – De Broglie La naturaleza es en sí mísma determinada, a pesar de las apariencias. Por tanto, es posible hacer mediciones y predicciones muy precisas.

INTERPRETACION PROBABILISTA Bohr – Heisenberg La naturaleza es en sí mísma indeterminada, y por tanto sólo pueden hacerse mediciones y predicciones probabilísticas.

Bohr N 1885-1962 De Broglie L 1892-1986

Dirac P 1902-1984 Einstein A, 1879-1955

Heisenberg W 1901-1976 Newton I, 1642-1727

Planck M, 1858-1947 Schroedinger E 1887-1961

Iniciemos nuestro análisis con el siguiente ejemplo: un planeta se compone por ejemplo de piedras. Las piedras a su vez pueden descomponerse en pequeños cascotitos, y estos a su vez en partículas tan pequeñas que apenas si pueden ser vistas. Estas partículas a su vez pueden seguir subdividiéndose hasta llegar a ciertos elementos últimos llamados átomos. Se creyó que los átomos no podían seguir subdividiéndose más, hasta que a partir del siglo XIX se descubrieron partículas dentro de los átomos, es decir, partículas “subatómicas” tales como el electrón y el protón.

77

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

El hombre ingresó así en el ámbito de la microfísica, o estudio de esas partículas subatómicas. Estos descubrimientos fueron muy importantes porque, terminando ya el siglo XIX, algunos físicos comprendieron que lo microfísico ya no podía estudiarse con las leyes deterministas que venían rigiendo para lo macrofísico, y debía aceptarse, contra la tradición establecida, que había ciertas realidades (lo sub-atómico) que eran en sí mísmas realidades donde regía la indeterminación y la probabilidad. Por lo tanto a naturaleza misma era indeterminada. La mecánica newtoniana, representante del determinismo clásico, tuvo plena vigencia desde el siglo XVII hasta el siglo XIX, y aún hoy se la sigue empleando por razones más que nada prácticas. Es la mecánica que buscaba explicar el universo macrofísico, es decir el universo observable de los planetas que giran alrededor del sol, de las piedras que son arrojadas al aire y de las manzanas que caen sobre la cabeza de Newton. Sin embargo, en el siglo XIX empezaron a descubrirse las primeras partículas subatómicas ya mencionadas: la investigación física abría el campo de lo infinitamente pequeño. Del estudio de los planetas que giraban en torno al sol se pasó al estudio de los electrones que giraban en torno al núcleo del átomo. Del polígono de tiro donde las balas seguían una cierta trayectoria se pasó a los tubos de rayos catódicos y a los laboratorios de aceleración de partículas, donde quienes eran arrojados a enormes velocidades ya no eran las balas sino las partículas sub-atómicas. Nació así una nueva herramienta teórica para dar cuenta de estas nuevas e insospechadas realidades: la mecánica cuántica surgía como la nueva moda cientifica del siglo XX que convivió pacíficamente, si cabe la expresión, con la mecánica newtoniana hasta la irrupción del principio de incerdumbre que explícitamente comenzaba a plantear la indeterminación. La mecánica cuántica es entonces una teoría desarrollada especialmente para el estudio y la descripción del micromundo. Sus pioneros fueron Planck y Einstein, y hacia 1930 quedaba casi completada con los aportes de Heisenberg, Shroedinger y Bohr, entre otros. Resultó tan eficaz como lo había sido la mecánica newtoniana en el ámbito del macromundo, pero presentaba algunos aspectos molestos que disgustaron entre otros al mismo Einstein, que paradójicamente había contribuído a fundarla. Y en ello mucho tuvo que ver la enunciación del principio de incertidumbre. 2. El principio de incertidumbre Werner Heinseberg desarrolló un sistema de mecánica cuántica llamado mecánica de matrices y formuló también, hacia 1925, su conocido y polémico principio de incertidumbre. Este principio, también llamado principio de indeterminación o principio de las relaciones de incertidumbre, sostiene básicamente que no se puede determinar simultáneamente y con la misma precisión la velocidad y la posición de una partícula subatómica. O sea, cuanto más exactamente se determina su velocidad, tanto menos exactamente puede determinarse su posición, o sea en qué parte del universo se encuentra. Conociendo su velocidad con mucha precisión, sólo se puede establecer una cierta probabilidad de que un electrón esté en tal o cual lugar. Vemos entonces que el PI (Principio de Incertidumbre) hace referencia a incertidumbres, entendidas estas como probabilidades, pero este pasaje de un determinismo a un indeterminismo no significa renunciar a la razón, sino simplemente reemplazar leyes causalistas estrictas por leyes estadísticas.

78

ARMANDO ZABERT (COMPILADOR)

El principio también alude, además de a la relación velocidad-posición, a las relaciones energía-tiempo, momento angular-posición angular y momento de la inercia-velocidad angular, pero tomaremos como referencia la más conocida de estas propuestas: velocidad-posición. De la Torre (1) nos da un ejemplo muy ilustrativo del principio de Heisenberg, donde se reemplaza un electrón por una bicicleta. Supongamos (esquema 2) que queremos determinar con exactitud la posición y la velocidad de una bicicleta en un instante de tiempo. Para determinar su posición le tomamos una fotografía con un tiempo de exposición muy breve (como una milésima de segundo), con lo cual obtenemos una foto muy nítida que nos indica su posición (por ejemplo, se encuentra a 5 metros del punto de partida). Sin embargo, esa foto nada nos dice acerca de su velocidad. Para determinar su velocidad le tomamos otra fotografía con un tiempo de exposición más largo (un segundo). Obtendremos una foto más borrosa, con la posición mal definida, pero al menos nos permite determinar su velocidad dividiendo el corrimiento de la imagen por el tiempo de exposición. Esquema 2

Tiempo de exposición: Una milésima de segundo

Tiempo de exposición: Un segundo

5 metros

4 metros

5 metros

Posición: 5 metros Velocidad: Indeterminada

Posición: Indeterminada Velocidad: 1 metro por segundo

Nuestra primera conclusión es esta: • si contáramos solamente con un aparato fotográfico no podríamos medir simultáneamente y con la misma precisión la velocidad y la posición de la bicicleta, ya que con la primera foto sabríamos muy bien su posición pero no su velocidad, y con la segunda sabríamos muy bien su velocidad pero no su posición.

Podríamos solucionar este problema usando dos aparatos fotográficos: uno que mida bien la posición y otro bien la velocidad en el mismo instante de tiempo, con lo cual habríamos logrado nuestro objetivo. Ahora bien: esto puede hacerse perfectamente tratándose de una bicicleta, pero no podemos hacer lo mismo con un electrón. En el ámbito de lo microfísico o subatómico, la foto que tomamos al electrón para determinar su posición “modifica” su velocidad, y la foto que tomamos para medir su velocidad “modifica” su posición. El mismo hecho de fotografiarlo influye en los resultados, ya que los fotones utilizados para la fotografía interactúan con el mismo electrón.

79

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Conclusión final: • resulta imposible medir simultáneamente la posición y la velocidad del electrón, tal como lo afirma el principio de incertidumbre.

3. Dos interpretaciones del principio de incertidumbre Las diversas interpretaciones sobre este principio pueden agruparse en dos grandes tipos: la interpretación probabilista y la interpretación subjetivista, aunque algunos de los autores que mencionaremos estuvieron oscilando entre una y otra posición a lo largo de su pensamiento, como por ejemplo De Broglie. a) Interpretación probabilista del principio de incertidumbre.- Denominación atribuida a De Broglie, aunque también fue llamada interpretación real por Ferrater Mora (2) o interpretación de Copenhague, estando representada sobre todo por Niels Bohr. Según esta interpretación, la indeterminación o incertidumbre no puede atribuírse a la interferencia del observador en la realidad física (que de igual modo también existe): lo real está constitutivamente indeterminado. La imposibilidad de medir simultáneamente dos coordenadas se concibe como una consecuencia de las leyes fundamentales estadísticas de la mecánica cuántica, y no como una simple limitación técnica de la observación. En la interpretación probabilista, entonces, este principio es una prueba del indeterminismo del universo físico. Y no sólo en lo microfísico sino también en lo macrofísico, sólo que aquí se considera por razones prácticas un determinismo en razón del gran número de partículas que intervienen (del mismo modo que se considera por razones prácticas una geometría euclidiana en la tierra aún cuando no considere que el universo sea no euclidiano). Para Bohr y los físicos de Copenhague, entonces, las incertidumbres y probabilidades de la mecánica cuántica no son una limitación de la física o una señal de la incompletud de la teoría: para ellos la naturaleza es así: un electrón es una superposición de probabilidades de estar aquí o allá, tal como lo describe la mecánica cuántica. Pensar que un electrón está en un determinado lugar no tiene sentido, a menos que lo observemos. Si lo observamos, el sistema queda como cristalizado en una posición fija y en ese momento podemos precisar su posición. Los teóricos de Copenhague sostienen que el observador y lo observado interactúan entre sí: de alguna manera el electrón se ‘sabe’ observado y por ello su función de onda colapsa (o sea, queda fijado en una única posición en ese instante). Louis De Broglie (3) cuenta que “la interpretación de Bohr y de Heisenberg no sólo reduce toda la física a la probabilidad, sino que da a esta noción un sentido completamente nuevo. Mientras que los grandes maestros de la época clásica, desde Laplace hasta Poincaré, siempre proclamaron que los fenómenos naturales eran determinados y que la probabilidad, cuando se introducía en las teorías, resultaba de nuestra ignorancia o incapacidad para seguir un determinismo muy complicado, en la interpretación actualmente admitida de la física cuántica nos enfrentamos a la ‘probabilidad pura’ que no resultaría de un determinismo oculto” (4). b) Interpretación subjetivista del principio de incertidumbre.- Si la interpretación anterior era la oficial, la subjetivista surge como una crítica a ella. Sostiene que la realidad está en sí mísma determinada, y el indeterminismo deriva de la intervención del observador en el mundo subatómico. En toda medición física hay una interacción entre el observador y el sistema físico observado. El mero hecho de observar las partículas puede alterar su posición. Por ejemplo si quisiéramos observar con un microscopio imaginario un electrón en movimiento, su órbita se vería perturbada por la luz utilizada para observarlo. Lo que sí puede determinarse –y en esto hay una coincidencia con la interpretación probabilista- es una probabilidad matemática de que el electrón esté en un cierto lugar en un determinado instante, y por ello ya no se habla de órbitas sino de ‘nubes’, o zonas donde hay mayor probabilidad de encontrarlo. Según la interpretación subjetivista, y he aquí el aspecto que queremos destacar, la indeterminación en la velocidad y posición de las partículas subatómicas existiría únicamente en nuestro propio conocimiento y no en la naturaleza de las

80

ARMANDO ZABERT (COMPILADOR)

cosas; la realidad microfísica en sí estaría estrictamente determinada, y la indeterminación sería el resultado de la intervención de un físico que mediante su acto de observación modifica las condiciones del fenómeno observado (5). Los físicos contemporáneos rechazan generalmente esta hipótesis de procesos ocultos estrictamente determinados que subyacían en la aparente contigencia de los fenómenos observados (6), tendiendo a admitir la original interpretación probabilista. No mi intención buscar que el paciente lector sea un especialista en física, sino que de lo explicado vaya sacando la siguiente conclusión importante: la diferencia entre ambas interpretaciones es que la interpretación probabilista dice que la realidad (microfísica) misma está indeterminada, y la interpretación subjetivista que está determinada aunque se nos aparezca como indeterminada. Ambas interpretaciones aceptan una interacción entre lo observado y el observador, sólo que en la interpretación subjetivista esta interacción adquiere especial importancia por ser precisamente la razón de nuestra visión indeterminista de la realidad microfísica. 4. Críticas a la interpretación probabilista Los partidarios de la interpretación subjetivista no se limitaron a reformular el principio de incertidumbre desde una postura determinista, sino que también intentaron refutar los argumentos de la interpretación oficial (probabilista). Algunos de los argumentos esgrimidos fueron los siguientes: a) Si esta “intervención” del observador pudiera eliminarse, desaparecería el indeterminismo. Los partidarios de la interpretación probabilista, aún cuando también hablaban de una interacción entre el instrumento de observación y el sistema observado, no adjudicaban la indeterminación a dicha interacción sino a la realidad misma, más allá de si ésta fuese o no observada. b) El principio confunde determinismo con predicibilidad. El hecho de no poder predecirse –la posición o la velocidad de una partícula en un instante dado- no significa que la realidad sea indeterminada. En un sistema determinista puede haber imposibilidad para hacer predicciones. Por ejemplo, cuando se desconocen las condiciones iniciales y las leyes que rigen la evolución de los sistemas. c) El indeterminismo se podría eliminar si se introducen parámetros escondidos a un nivel subcuántico que restablezcan el determinismo en el sistema físico. De Broglie y Bohr, por ejemplo, introdujeron estos parámetros. Desde esta perspectiva, la interpretación probabilista sería solo una etapa provisional de la ciencia, la cual exige una explicación mediante las estructuras subyacentes a las leyes de la mecánica cuántica, siguiendo en esto el ejemplo que habían dado, en un nivel anterior del descenso hacia lo ínfimo, las explicaciones atomistas de las leyes de la termodinámica (es decir, explicar la evolución de los gases a partir del comportamiento de sus moléculas). d) Einstein está más de acuerdo con que los sistemas físicos son deterministas. Para él, el electrón debía tener una velocidad y una posición determinadas: si la teoría se las negaba, la teoría era débil. A esto se opuso Bohr defendiendo el PI y diciendo que la teoría era fuerte, y que en todo caso la realidad era “débil”, o al menos nuestra idea de ella. Einstein, Podolsky y Rosen, para demostrar la flasedad del PI, en 1935 sugirieron un experimento que se llamó la paradoja EPR. Muy simplificadamente debía ser así: supongamos que dos partículas A y B parten en direcciones contrarias, de forma tal que a partir de la velocidad de B se puede deducir la posición de A. Así, uno podría perfectamente saber la posición de A y la velocidad de B. Pero a partir de la posición fde A se puede deducir la de A, con lo cual sabríamos exactamente ambas magnitudes de A, en contra de lo sostenido por el PI. Bohr se opuso a esto y aseguró que al medirse la posición de A, la velocidad de B se alteraría como si “supiera” que a su compañera la estaban midiendo. La cosa terminó

81

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

aquí porque el experimento no podía llevarse a cabo, y sólo en 1982, un experimento de Aspect terminó dándole la razón a Bohr y refutando a Einstein. Pienso que Bohr le hubiese dicho a Einstein, a propósito de su experimento imaginario: “la fe es llegar a una certidumbre subjetiva en un mundo de incertidumbre objetiva” (7). En definitiva, las cuestiones planteadas por el PI acerca de la estructura determinista o no determinista de lo real continuaron, y en las últimas décadas han recobrado vigencia a partir de los planteos de Prigogyne, Hawkins y otros pensadores. 5. Incertidumbre en Ciencias Sociales El análisis del principio de incertidumbre en ciencias sociales nos presenta la consideración de dos cuestiones: a) ¿la realidad social en sí mísma está determinada, como sostiene la interpretación subjetivista, o es indeterminada como lo plantea la interpretación probabilista? b) ¿lo que conocemos de la realidad social es lo real en sí, incontaminado por el observador o sus instrumentos, o al contrario es siempre el resultado de la interacción del observador (o sus instrumentos) con lo real? Determinismo e indeterminismo en Ciencias Sociales. El determinismo puede entenderse de dos maneras distintas: a. Las leyes que rigen los procesos sociales no pueden alterarse, pero sí los procesos mismos en tanto respeten esa legalidad. Por ejemplo, no podemos cambiar la ley de gravedad, pero podemos detener con la mano la piedra que cae; o también, no podemos cambiar las leyes del aprendizaje, pero podemos lograr que alguien aprenda mejor. b. No solamente no pueden cambiarse las leyes sino tampoco alterarse los procesos. Existe suficiente apoyo empírico en favor de la primera hipótesis. De otro modo, ni el investigador social podría actuar como agente de cambio ni el hombre en general no tendría libre albedrío. Hasta el conductismo ortodoxo admite la posibilidad de cambiar el proceso, como cuando Watson pregonaba que podía transformar un niño en el adulto que él quisiera. Los procesos sociales son inexorables desde el punto de vista que no podemos cambiar sus leyes: no es posible ir contra la naturaleza cambiando un hombre en una cucaracha. Pero no son inexorables en tanto podamos alterar el rumbo del proceso encauzándolo en la dirección deseada y en el marco de la legalidad aceptada para lo real. La influencia del observador en la Investigación Social. Cuando se trata de querer cambiar una situación social, queremos que el observador influya sobre el contexto social, y cuando se trata de querer percibirlo objetivamente, podríamos querer que el observador no influya. De lo primero ya hemos hablado en el párrafo anterior, y sobre lo segundo haremos las siguientes consideraciones. a) Primera cuestión: cuando se trata de percibir al otro o a nosotros mismos, ¿los aprehendemos tal cual son, o lo hacemos de manera “deformada”? b) Segunda cuestión: si la hay, ¿a qué se debe esta “deformación”? ¿Sólo a nuestra subjetividad? ¿Sólo al hecho de que, aunque no influyera nuestra subjetividad, el sujeto observado “advierte” la presencia del observador como lo hacía el electrón de Bohr y entonces sufre ipso facto una modificación? ¿A ambas cosas?

82

ARMANDO ZABERT (COMPILADOR)

Examinemos la primera cuestión, la tendencia desde la psicología actual es a considerar el supuesto de que la percepción humana no es totalmente objetiva. Lacan sostiene que lo real es inaccesible al conocimiento y que lo que nos llega es por ejemplo una imagen (lo imaginario). El New Look por su lado, demuestra experimentalmente la influencia del observador sobre lo percibido modificándolo funcionalmente, en el sentido piagetiano. Por ejemplo, si un bebé observa un lápiz pero lo percibe como un objeto chupable, hizo una modificación funcional del objeto: le asignó otra función. Lo interesante del asunto es que, al percibir el objeto como un objeto chupable, sus acciones reales sobre él terminarán haciendo del lápiz cada vez menos un objeto para escribir y cada vez más un objeto para chupar. Mutatis mutandis, si observamos a una persona tranquila pero la percibimos enojada, hicimos una modificación funcional de la persona y nos comportaremos con ella como si estuviese enojada, con lo que tal vez terminemos, haciéndola enojar realmente! (profecía autocumplidora). Otro ejemplo podría compararse con los planteos que Sigmund Freud hizo en “La pérdida de la realidad en las neurosis y psicosis”, donde marca una diferencia entre la persona normal (observa la realidad, imagina como debería cambiarse, y procede a cambiarla), el neurótico (observa la realidad, imagina como debería cambiarse y se complace en esa fantasía “como si” fuera real), y el psicótico (observa la realidad, y cree que el acto de imaginarse como quedaría cambiada ya convierte el cambio en real). Debemos suponer que estos pensadores han llegado a estas conclusiones no porque hayan comparado lo real con lo percibido y hayan advertido diferencias (ya que lo real es inaccesible), sino porque se dieron cuenta que hay varias maneras distintas de ver lo mismo según cada sujeto, lo que obliga a suponer que por lo menos todos ellos menos uno no ve las cosas como realmente son. Examinemos ahora nuestra segunda cuestión. El observador podría influír sobre lo observado por dos motivos no excluyentes: por factores subjetivos, o por cambios en lo observado inducidos por el propio acto de la observación. Tomamos aquí la expresión “factores subjetivos” en un sentido amplio, que puede incluír limitaciones en los órganos sensoriales, factores cognitivos (como los modos en que la mente organiza el mundo a su manera para poder conocerlo y controlarlo), y factores afectivos que nos hacen ver lo que queremos ver, y no ver lo que nos molesta o hiere. Desde el idealismo moderno en adelante ha prevalecido la idea según la cual los factores subjetivos influyen sobre lo real observado, modificándolo. Al mundo lo organizamos desde “nuestras intuiciones puras y desde nuestras categorías del entendimiento” (según Kant), “desde nuestro inconciente cognoscitivo”, (según Piaget), o “desde nuestros deseos, temores y motivaciones inconcientes” (según Freud). También, por ejemplo Bachelard (8) refiere un inconciente newtoniano y euclidiano que nos procura una visión atomista y sustancial del mundo: “no sabemos como es la realidad microfísica, pero cuando escuchamos la palabra ‘lectrón inmediatamente nos imaginamos una bolita que da vueltas alrededor de otra bolita llamada núcleo”. La mecánica cuántica vino precisamente a desenmascarar esta creencia ofreciendo una visión de la realidad que contradice abiertamente nuestra visión ingenua del mundo, por ejemplo, cuando afirma que el electrón “no está en ningún lugar”. Epistemologías como la de Brunschvicg, Duhem, Bachelard y Piaget (y hasta el mismo Heisenberg en un momento adhiere a estas posturas) sostienen que el conocimiento (9) no proviene de simples sensaciones sino mas bien de una percepción siempre organizada previamente por el sujeto; sitúan el origen de todo conocimiento en la acción o en la interacción del sujeto con la realidad, con lo cual conocer no es simplemente contemplar sino transformar.

83

Proyecto de Investigación e Intervención Socio-Comunitaria Nociones de Epistemología

Lo que Dirac había llamado “lo observable” tendría, en rigor, dos características (10): a) no es un mero dato sensible sino el resultado de una acción experimental ejercida sobre la realidad, que modifica al objeto y da lugar a una manifestación medible; b) “lo observable” es traducido a símbolos operatorios matemáticos libres de toda representación geométrica; tales operaciones prolongan, en cierta medida, en el plano del pensamiento deductivo, las acciones experimentales que permitieron evidenciar lo observable. Por último, nuestra percepción “deformada” de lo real puede también deberse a que lo percibido queda alterado cuando “sabe” que es observado, tal como ocurría con el tímido electrón de Bohr. Y si un electrón sabe que es observado, con mucha más razón le sucederá lo mismo a un ser humano, cuestión sobre la cual hay suficiente evidencia empírica: a) Es conocido el experimento realizado hace ya décadas en psicología industrial, donde un grupo de obreros había incrementado su rendimiento porque se sabían observados por un investigador creyendo que habían sido elegidos por éste por sus virtudes como trabajadores. Se sintieron halagados y aumentaron más su productividad. b) El empleo de la cámara Gesell o sorpresa (en tanto implique que una persona sea observada sin advertirlo) se justifica a partir de la suposición que la conducta de la persona cambiará si se siente observada. c) En los diseños experimentales en Ciencias Sociales suele contemplarse la llamada influencia de la pre-medida, es decir, la influencia que ejerce sobre los sujetos el hecho de aplicarles una medición. Sería como decir: es difícil evaluar la inteligencia de una persona porque, al saberse medida con un test se puede poner nerviosa y disminuír su producción en el mismo, con lo cual ya no estamos midiendo objetivamente su inteligencia. Bibliografía Consultada: (1) De la Torre A, Física cuántica para filosofos, Buenos Aires, FCE, 1992, págs. 42-43. (2) Ferrater Mora J, Diccionario de filosofía, Madrid, Alianza, 1979, Tomo 2, pág. 1646. (3) Blanché R, El método experimental y la filosofía de la física, México, FCE, 1972, págs. 459-460. (4) De Broglie L, La physique quantique restera-t-elle indeterminniste, París, GauthierVillars, 1953, pág. 15. (5) Brunschwicg L, Science et la prise de conscience, Scientia, Vol LV, 1934, pág. 334. (6) Capek M, El impacto filosófico de la física contemporánea, Madrid, Tecnos, 1973, pág. 302. (7) Una respuesta del filósofo S. Rosenberg durante el Encuentro Argentino-Israelí de filosofía celebrado en Buenos Aires, en 1993. (8) Bachelard G, La formación del espíritu científico, Buenos Aires, Siglo XXI. (9) Calderón A, Aspectos epistemológicos de la física cuántica, Buenos Aires, Revista de la Universidad de Morón, N°5, diciembre 1980, pág. 53. (10) Calderón A, Op. Cit., pág. 55.

84


				
DOCUMENT INFO
Shared By:
Stats:
views:13882
posted:9/9/2009
language:Spanish
pages:84
Description: Apuntes de Epistemologia - Autor: Armando Zabert (2009)