25 de diciembre de 2011

El deporte “profesional”, una trampa

El deporte “profesional”, una trampa
Percy Cayetano Acuña Vigil

Sostenemos que en la actualidad lo que se considera deporte es un producto tramposo que desorienta y causa grave daño social. En nuestro concepto debemos remitirnos a las enseñanzas del deporte clásico y aprender de él para volverlo útil a la sociedad.



Una de las expresiones que me llama la atención por decir lo menos es la de “deporte profesional”. Si existe el deporte profesional es, porque hay deportistas profesionales: gente que dedica su vida (o parte de ella) a la práctica remunerada del deporte. Y la clave está ahí, en la remuneración. Quedan lejos los tiempos en que el deporte estaba relacionado con el ocio, con el tiempo libre, con el juego y la diversión.

Ahora el deporte es otra cosa: la competición es negocio. Los clubes son empresas y los deportistas trabajadores. ¿Dónde está el origen de esta transformación? ¿Cómo es posible que una diversión se convierta en una profesión de la que puedan vivir muchos seres humanos?

La clave explicativa está, entre otras cosas, en el dinero que mueve el deporte gracias a los medios de comunicación. La masificación del deporte a través de la prensa, la radio y la televisión es la causante de su profesionalización.

El deporte no es ya sólo deporte, sino que tiene que ser espectáculo y espectáculo para ganar dinero, para el negocio. Esta situación ha desnaturalizado al deporte, esta desnaturalización está ya naturalizada, normalizada. De este modo es normal que los niños respondan, cuando se les pregunta qué quieren ser de mayores, lo que todos hemos oído más de una vez: “futbolista”, lo que revela pobreza trágica en su formación y educación.

Estas respuestas son producto del circo televisivo, aquel que viene marcado por la publicidad, la venta de camisetas o las presiones mediáticas, y especialmente porque surgen en un medio en donde la pobreza en términos económicos encuentra en esta actividad su caldo de cultivo, frente a actividades productivas de mayor trascendencia y valor.

El deporte como una forma de perfeccionamiento humano es muy distinto a todo lo que estamos viendo, puro negocio. En este contexto mercantil ya no es noticia que los atletas sufran a posteriori de una salud quebradiza, pues la naturaleza les termina pasando una factura cuando no se han tomado las previsiones necesarias.

Qué distinto un deporte que mejora la salud, en definitiva, la vida, a el que se ha impuesto, que termina destruyéndola, y que viene marcado por los índices de audiencia y los patrocinadores de los grandes fichajes.

En el deporte clásico, los griegos problematizaron por primera vez un dominio ético que incluía al cuerpo y los placeres para articularlo con el campo de la política en un contexto bien delimitado, el de la polis.

El dominio de sí constituía una virtud privada que se proyectaba en lo público: el ciudadano capaz de llevar una vida equilibrada, que no caía en los excesos propios de las inculturas, estaba en condiciones de competir para el acceso a los cargos políticos. Es decir, la adquisición de la temperancia (enkrateia) era necesaria para la formación del hombre libre como también para la formación del ciudadano que se preparaba para gobernar a los demás.


Durante el siglo clásico asistimos al despliegue de una voluntad de auto estilización, que surgió en la aristocracia griega e incluyó prácticas tan disímiles como la retórica, el teatro, la filosofía, la música, el teatro y los juegos .

Los espacios públicos: el ágora, el teatro, los juegos constituían los lugares donde los jóvenes sobresalían en el ejercicio de la temperancia y se promocionaban para la vida política.
El entrenamiento del ciudadano virtuoso no se realizaba siguiendo un corpus sistemático sino que correspondía más bien a una estética de la existencia que definía lo esencial del hombre libre en su relación con la verdad.

En el contexto griego el culto del cuerpo se convirtió en un símbolo que designaba la superioridad de una clase que no se privó de proclamarse ante todos como tal. El cuerpo de los ejercicios, de los placeres, del juego era el cuerpo virtuoso de los políticos, de los filósofos, de los propietarios; en definitiva, no se trataba de otra cosa que de un cuerpo de clase, de esa única clase que para los griegos constituía "la humanidad plenamente humana y no mutilada".

En el deporte actual, más allá de todos los mecanismos que lo codifican , el placer - ya sea como práctica o espectáculo - está amplificado a un nivel jamás antes alcanzado. El mundial de fútbol, los play–off finales de la NBA, como la mayoría de los espectáculos del deporte son la ocasión para el despliegue de un virtuosismo creador y gozoso que disfrutan tanto los protagonistas como los espectadores que siguen dichos eventos.


Sin embargo se trata ahora del placer de contemplar el espectáculo que está ligado también al de adiestrar, cuidar, vigilar y controlar al animal. En una palabra: estos mecanismos tramposos anudan el poder al cuerpo y al goce, neutralizando a través de una sujeción estricta la potencia que tal anudamiento induce.

Referencias

1. M. Foucault. Microfísica del Poder. Ed. La Piqueta. Barcelona. 1987. M. Foucault. Historia de la Sexualidad. Tº 2.
2. Para dar cuenta de la naturaleza de los mecanismos específicos de dominación que se articulan con relación al fútbol. Desde esta perspectiva el fútbol actual  constituye una forma de represión de las pulsiones sexuales y una desviación de las mismas hacia la agresividad sádica. Constituye también - en tanto que formación de compromiso entre el mundo alienado del trabajo y las actividades recreativas - el instrumento más eficaz que prepara al individuo para el trabajo y lo aleja de la actividad ciudadana y política.
3. M. Foucault. Historia de la Sexualidad. Tº 2. El Uso de los Placeres. Siglo XXI Ed. México. 1986.
P. Veyne. El Imperio Romano. En Historia de la Vida Privada. Tº 1. p. 140.  M. Foucault.
4 M.  Foucault. Microfísica del Poder. Ed. La Piqueta. Barcelona. 1987.
 5.  Tal es el caso de las barras de vándalos antisociales, permitidas por la misma sociedad, quien las cubre con mascaras que entrampan las acciones por suprimirlas.

17 de diciembre de 2011

Natividad

Les deseo una feliz Navidad y un venturoso año nuevo

La Navidad es ante todo una fiesta religiosa. Hoy en día la religiosidad de nuestra sociedad está en un momento de crisis, y por tanto lo está también la Navidad. Originariamente transforma una fiesta pagana en una fiesta religiosa, pero es esa fiesta religiosa a la que se nos invita. Sólo desde una vivencia interior profunda podemos vivir la Navidad. Celebramos la victoria de la luz sobre las tinieblas, por ello es tiempo de celebración.


Botticelli, Natividad mística, 1500






8 de diciembre de 2011

Filosofía del lenguaje: Estado de la cuestión



Filosofía del lenguaje: Estado de la cuestión


En este escrito desarrollo un estado de la cuestión de la filosofía del lenguaje. Presento una descripción de los aportes principales en filosofía del lenguaje en general y luego hago referencia a lo que se ha denominado filosofía analítica en sus diferentes estilos.

El significado es un concepto fundamental para la filosofía del lenguaje. Las reflexiones en torno al lenguaje en multitud de ramas filosóficas están consideradas como pertenecientes a la filosofía continental. En casi todas estas disciplinas la idea de lenguaje es remitida al concepto de logos desarrollado en la filosofía griega antigua entendida como discurso o dialéctica. El lenguaje y los conceptos son observados como formando parte de la historia cultural.

En el campo de la hermenéutica, las reflexiones en torno al lenguaje han jugado un papel fundamental en el seno de la filosofía continental a lo largo de todo el siglo XX, en particular dentro de la línea de reflexión iniciada por Martin Heidegger con su propuesta de giro ontológico de la comprensión. Martin Heidegger combinó la fenomenología desarrollada por su maestro Edmund Husserl, la hermenéutica de Wilhelm Dilthey y gran cantidad de conceptos heredados de la filosofía de Aristóteles para desarrollar su concepción particular del lenguaje.

Dentro de los conceptos más importantes generados por Heidegger se encuentran el de Ser-en-el-mundo, (In-der-Welt-Sein). En su obra El ser y el tiempo  Heidegger construye sus filosofía del lenguaje en torno al concepto fundante de Ser-en-el-mundo, tal filosofía se centra en el habla, esto es, en el empleo que se realiza del lenguaje de forma cotidiana.

Hans Georg Gadamer popularizó estas ideas en su obra Verdad y método (Wahrheit und Methode, 1960) en la que proponía una ontología hermenéutica completa. En esta obra Gadamer considera que el lenguaje es "la esencia del ser humano" y que como tal es el medio a través del cual es posible que la comprensión tenga lugar en el ser humano, es más, todo lo que puede ser comprendido es lenguaje. Para Gadamer el mundo es constituido lingüísticamente y no puede existir nada más allá del lenguaje.

Otros filósofos que han trabajado desde la filosofía continental cuestiones relativas al lenguaje son: Jacques Derrida, Gilles Deleuze, Michel Foucault, Julia Kristeva, Walter Benjamin, Theodor Adorno o Herbert Marcuse.

Las ideas de la teoría del significado se asocian con la tradición británica empírica de Locke, Berkeley y Hume. Dicen que el contenido del significado es puramente mental, provocado por los signos. Sin embargo, esa visión del significado ha sido cuestionada por numerosos problemas desde el principio. La teoría de la verdad condicional se sostiene en qué condiciones tiene que tener una expresión para ser verdadera o falsa.

Los Teóricos del Uso entienden que el significado esté relacionado con actos de lenguaje y su particular pronunciación, no con la expresión en sí misma. Wittgenstein ayudó a crear esa idea del significado del uso.

El libro III del Ensayo sobre el entendimiento humano, de Locke, [ ] es la primera obra en la que se expone de forma sistemática las tesis semánticas basadas en el giro epistemológico cartesiano [ ].

Gottlob Frege, hizo varias contribuciones a la filosofía de influencia de la lengua. Las investigaciones sobre cómo el lenguaje interactúa con el mundo son llamados las teorías de referencia de Gottlob Frege, quien era un defensor de la teoría de referencia mediada. Frege ha dividido el contenido semántico de cada expresión en dos componentes: Sinn (generalmente traducido como "sentido") y Bedeutung (traducido como "significado", "denotación", "nominatum" y "de referencia", entre otros). El sentido de una oración es el pensamiento que expresa. Tal pensamiento es abstracto, universal y objetivo.

Bertrand Russell y Alfred North Whitehead desarrollaron el logicismo [ ] fallido de Frege e intentaron mostrar a su vez que las matemáticas son reducibles a principios lógicos fundamentales. Los “Principia Mathematica”[ ] (1910-1913) alentaron a varios filósofos a tomar un renovado interés en el desarrollo de la lógica simbólica.

Además, Russell adoptó la lógica como su herramienta filosófica primaria, una herramienta que pensó podía exponer la estructura subyacente de diversos problemas filosóficos. Bertrand Russell, En sus escritos posteriores, y por razones relacionadas con su conocimiento de la teoría de en epistemología, sostuvo que las expresiones referenciales son sólo directamente, lo que él llama, "lógicamente los nombres propios".

Más o menos de 1910 a 1930, filósofos analíticos como Russell y Ludwig Wittgenstein se enfocaron a crear un lenguaje ideal para el análisis filosófico que estaría libre de las ambigüedades del lenguaje ordinario que, según su visión, usualmente metía en problemas a los filósofos. En esta fase, Russell y Wittgenstein buscaron comprender el lenguaje, y por tanto los problemas filosóficos, haciendo uso de la lógica formal para formalizar las afirmaciones filosóficas.

 Wittgenstein desarrolló un sistema comprehensivo de atomismo lógico [ ] en su “Tractatus logico-philosophicus”. Ahí argumentó, que el mundo es la totalidad de los hechos, y los hechos pueden ser expresados en el lenguaje de lógica de predicados de primer orden. Así, el lenguaje es una “figura” del mundo que se puede construir expresando hechos atómicos en proposiciones atómicas ligándolas usando operadores lógicos.

El formalismo de Russell en los “Principia Mathematica” y Wittgenstein en el “Tractatus logico-philosophicus fue retomado por un grupo de pensadores en Viena y Berlín, quienes conformaron el Círculo de Viena y el Círculo de Berlín. Su doctrina se conoce como positivismo lógico. El positivismo lógico usa herramientas lógicas formales para sostener una explicación empirista de nuestro conocimiento del mundo. [ ]

Filósofos como Rudolf Carnap y Hans Reichenbach, junto con otros miembros del Círculo de Viena sostenían que las verdades de la lógica y las matemáticas eran tautologías [ ] y las de la ciencia eran aseveraciones empíricamente verificables. Estas dos constituían el universo entero de juicios con significado; cualquier otra cosa era un sinsentido.

En 1928, Carnap publicó dos libros importantes: La estructura lógica del mundo (En alemán: «Der logische Aufbau der Welt»), en el que desarrolló una versión formal rigurosa del empirismo, definiendo todos los términos científicos en términos fenomenalísticos.

En Pseudoproblemas de filosofía afirmaba que muchas preguntas filosóficas carecen de sentido, esto es, la manera en que eran planteadas suponían un abuso del lenguaje. Una implicación operacional de esta radical frase se tomó para eliminar la metafísica del discurso humano responsable. Es una posición conocida por la que Carnap fue principalmente conocido durante muchos años.

El libro que lo hizo el más famoso positivista lógico y miembro del Círculo de Viena, fue su Sintaxis lógica del lenguaje (Carnap, 1934). En esta obra, Carnap adelantó su principio de tolerancia, según el cual no existe algo que pueda llamarse lenguaje o lógica «correcto» o «verdadero». Uno es libre de adoptar la forma de lenguaje que le resulte útil a sus propósitos.

Después de la Segunda Guerra Mundial, la filosofía analítica dio un giro hacia el análisis del lenguaje ordinario. Este movimiento tuvo lugar en el auge de la filosofía tardía del en ocasiones llamado “segundo” Wittgenstein, la misma que se distancia en algunos puntos centrales de su primera filosofía.

En contraste con filósofos analíticos anteriores, quienes pensaban que los filósofos debían evitar las engañosas trampas del lenguaje natural construyendo lenguajes ideales, los filósofos del lenguaje ordinario sostuvieron que el lenguaje natural de hecho refleja un gran número de distinciones sutiles que suelen pasar inadvertidas en la formulación de teorías y problemas filosóficos tradicionales.

Mientras escuelas como el positivismo lógico se centraban en términos lógicos, supuestamente universales e independientes de factores contingentes como la cultura, el lenguaje, las condiciones históricas, etc., la filosofía del lenguaje ordinario enfatiza el uso del lenguaje que hacen los usuarios ordinarios. Los filósofos del lenguaje ordinario más prominentes durante los años cincuenta fueron Austin y Ryle, además del propio Wittgenstein.

A principios de la década de los cincuenta, el positivismo lógico había sido fuertemente desafiado por Wittgenstein en las “Investigaciones filosóficas”, por Quine en “Dos dogmas del empirismo” y por Wilfrid Sellars en “El empirismo y la filosofía de la mente”.

En los sesenta, tanto el positivismo lógico como la filosofía del lenguaje ordinario pasaron rápidamente de moda y la filosofía en lengua inglesa comenzó a incorporar un mayor rango de intereses, temas y métodos.

No obstante, hoy día la mayoría de los filósofos de Estados Unidos, Reino Unido y Australia se consideran a sí mismos “filósofos analíticos” [ ]. En gran medida la noción de “filosofía analítica” se extendió desde los programas específicos que dominaron la filosofía anglófona antes de 1960 a una noción mucho más general de “estilo analítico”, caracterizado por la precisión y profundidad con respecto a un tema limitado y en oposición a “discusiones imprecisas y arrogantes sobre temas muy amplios”.

Esta interpretación de la historia no es universalmente aceptada, y los oponentes de la filosofía analítica restan mucha importancia al rol de Wittgenstein durante los sesenta y setenta. Peter Hacker, [ ] representa la visión de los seguidores de Wittgenstein cuando critica que mucha de la filosofía contemporánea que se dice a sí misma analítica realmente no merece el título. Sostiene que bajo la influencia del creciente prestigio de ciertos desarrollos científicos y tecnológicos como la informática, la neurofisiología y la lingüística chomskyiana, los argumentos wittgensteinianos fueron relegados a un segundo término o descartados por completo. Sin embargo lo que Wittgenstein consideraba que eran enfermedades del intelecto, y en las que trabajó largo tiempo para extirparlas, surgieron nuevamente en formas violentamente mutadas.

La Filosofía analítica contemporánea
La Enciclopedia filosófica Symploke [ ] señala:

«En realidad, la filosofía analítica agrupa diversas posiciones filosóficas, muchas veces incompatibles entre sí. Han recibido la calificación de «filósofos analíticos» los atomistas lógicos, los neopositivistas, los analistas del lenguaje científico, los analistas del lenguaje ordinario, determinados filósofos marxistas, etc. Se acostumbra a decir que participan de un «estilo» o método (el análisis lógico) y de unas preocupaciones comunes (la voluntad de claridad, el interés por el lenguaje...)».

Aunque los filósofos contemporáneos que se identifican a sí mismos como “analíticos” tienen intereses, premisas, supuestos y métodos divergentes –y en ocasiones han rechazado las premisas fundamentales que definieron al movimiento antes de 1960- la filosofía analítica, en su estado actual, se define por un estilo particular [ ]  caracterizado por la precisión y la profundidad sobre temas muy específicos.

Para Richard Rorty la Filosofía «analítica» es una nueva variante de la filosofía kantiana, caracterizada por considerar que la representación es lingüística más que mental, y que la filosofía del lenguaje, más que critica trascendental o psicológica, es la disciplina que presenta los fundamentos del conocimiento [ ].

Complementando esta observación R. Rorty señala:
“…No creo que exista ya nada que sea identificable como «filosofía analítica», como no sea de alguna forma estilística o sociológica…” [ ].

Saúl Kripke [ ] ha realizado importantes y originales contribuciones en diversos campos relacionados con la lógica, la metafísica y la filosofía del lenguaje. Kripke es mayormente conocido por cuatro contribuciones a la filosofía: Semántica para la lógica modal (y otras relacionadas), llamadas semánticas Kripke, publicada en varios ensayos.

En su obra destacan sus conferencias de 1970 (publicadas en 1972 y 1980) en Princeton, llamadas El nombrar y la necesidad (Naming and Necessity), modificaron la filosofía del lenguaje, y, como algunos lo han dicho, "hicieron a la metafísica respetable de nuevo". Su interpretación de la filosofía de Ludwig Wittgenstein y su teoría de la verdad.

Michael Dummett [ ] ha escrito acerca de la historia de la filosofía analítica y ha hecho importantes contribuciones a esta disciplina, particularmente a las áreas de la filosofía de las matemáticas, la filosofía de la lógica, la filosofía del lenguaje y la metafísica.

Peter Frederick Strawson [ ] es un filósofo asociado con el movimiento de la filosofía del lenguaje, dentro de la filosofía analítica. Fue profesor de filosofía metafísica  en la Universidad de Oxford entre 1968 y 1987. Se hizo conocido con su artículo "On Referring" (1950), una crítica a Bertrand Russell y su teoría de las descripciones definidas. Es también conocido por la reconstrucción analítica de los argumentos de Immanuel Kant en la Crítica de la Razón Pura, y por la defensa de una rehabilitación de la metafísica como disciplina filosófica, especialmente en su libro Individuals, en el cual delinea y suministra una muestra de empleo de su proyecto de metafísica descriptiva [ ].

Wilfrid Sellars [ ] es conocido como un crítico de la epistemología fundacionalista [ ], pero sus obras filosóficas más generales están dirigidas hacia el objetivo final de la conciliación de formas intuitivas de describir el mundo (tanto las del sentido común y la filosofía tradicional) con una visión  científica naturalista de la realidad. Es reconocido por su argumentación y por su asimilación de diversos temas en la búsqueda de una visión sinóptica. Sellars fue el primer filósofo que sintetizo elementos del pragmatismo americano con los elementos de la filosofía analítica británica y austríaca y el positivismo lógico alemán. Su trabajo también refleja un compromiso sostenido con la tradición alemana del idealismo trascendental, el más obvio en su libro Ciencia y Metafísica: Variaciones kantianas.

W. V. O. Quine [ ]
Así como el Círculo de Viena intentaba continuar el trabajo del Tractatus de Wittgenstein, los filósofos posteriores trataron de refinar el trabajo de los positivistas. La distinción entre enunciados analíticos y sintéticos, presidía en el núcleo del positivismo lógico como las ecuaciones matemáticas, los enunciados analíticos adquieren significado a partir de la definición de sus palabras o sus símbolos.

El destacado filósofo estadounidense Willard Van Orman Quine [ ], desafió la validez de la distinción analítica sintética y al hacerlo cuestionó una tradición que se remontaba al menos hasta Inmanuel Kant o tal vez antes.

Quine en cierto modo estaba más cerca de los positivistas que algunas de las personas del otro grupo de Wittgenstein. En 1951 Quine publicó un artículo llamado “Dos dogmas del empirismo” [ ] que recibió una importante respuesta de una parte de la comunidad filosófica. Entonces, aquí está lo que no funcionó correctamente en la teoría de verificación en manos de los positivistas. “¿Estaban equivocados en que la verificación es la clave para el significado?”. Nosotros diríamos: “No. La aplicaron equivocadamente.”

Ellos trataron de aplicarla a oraciones una por una, pero en realidad sólo puede aplicarse a sistemas completos de oraciones que expresan nuestras teorías completas del mundo. Ahora había un segundo escenario según Quine que se relacionaba con esto y era la doctrina positivista de que hay una clase de proposiciones analíticas que expresan verdades que son totalmente independientes de cualquier declaración acerca del mundo. Son verdaderas sólo en virtud del significado, pero dice Quine; ahora que sabemos que el significado es holístico, sabemos que las oraciones no tienen esta clase de significado independiente. Todas las oraciones obtienen su significado, mediante la contribución que hacen a toda nuestra teoría completa y, en principio, ninguna oración está exenta de ser revisada, si las predicciones acerca de la experiencia llevadas a cabo por nuestra teoría completa resultan falsas.

Entonces, el resultado final es una visión en la que Quine conserva la concepción verificacionista central acerca de qué es el significado, pero rechaza el punto de vista de que hay oraciones que implican análisis puramente conceptuales y que constituyen los problemas especiales de la filosofía. Al tomar esta posición, abandona el punto de vista de que todos los problemas filosóficos son esencialmente problemas de significado y adopta una posición en la que sostiene que la filosofía sigue fundamentalmente la línea de las ciencias naturales y la matemática.

Para Quine la ontología -el estudio de la existencia o del ser- es simplemente la investigación de lo que está implícito en el lenguaje. En consecuencia, los filósofos deben tratar con las presunciones ontológicas del lenguaje, aunque lo que hay no depende del uso que hacemos del lenguaje, lo que decimos que hay, si depende del lenguaje.

Quine concebía al lenguaje como un todo estructural que responde a la experiencia como entidad única. La experiencia penetra la capa exterior y se filtra, aunque de manera diluida hacia el núcleo interior. De este modo, existe una clara distinción entra las proposiciones hechas a partir de la experiencia y aquellas hechas independientes de la experiencia. En el fondo Quine era un empirista pragmático que creía que todos los esquemas conceptuales, la ciencia y la lógica incluidas, son simplemente herramientas que sirven para entender el mundo.

Al tiempo que la filosofía analítica cambió su enfoque del lenguaje hacia la epistemología, también se dividió en otras áreas con mayor afinidad natural por el modo analítico. Filósofos como John Searle, Paul Rice, Donald Davidson, Noham Chomsky, Hilary Putnam, y muchos otros, hicieron contribuciones significativas a la filosofía de la mente, la filosofía de la ciencia, la lógica, etc. Esto conlleva nuevamente a la pregunta “¿Qué queremos expresar al decir filosofía analítica?”. ¿Es un área de estudio en sí misma como la estética?, ¿Es una metodología?, ¿Es simplemente un contrapunto a la tradición continental de Hegel en adelante?

A continuación resumo algunos de los campos más importantes y activos de la filosofía analítica contemporánea:

La Filosofía de la mente y las ciencias cognitivas
Motivado en parte por el interés en el verificacionismo de los positivistas lógicos, el conductismo [ ] (J. B. Watson, B. F. Skinner) fue la teoría de la mente más prominente en la filosofía analítica de la primera mitad del siglo XX. Los conductistas sostenían o bien que toda proposición sobre la mente era equivalente a proposiciones sobre conducta y disposiciones para actuar de modo particular o bien que los estados mentales eran equivalentes a conducta y disposiciones para actuar.

Gilbert Ryle, fue un filósofo, representante de la escuela filosófica de Oxford influenciado por el pensamiento de Wittgenstein sobre el lenguaje y conocido principalmente por su crítica al dualismo cartesiano. Su principal trabajo: El concepto de lo mental fue publicado en 1949 [ ]. Según Ryle el discurso ordinario contiene expresiones equívocas que dan lugar a diversos problemas filosóficos. Ryle considera que los estados mentales en realidad son disposiciones para actuar, y que la introspección puede darnos acceso directo a nuestro propio mundo mental, pero no podemos saber mucho acerca del de las otras personas. Gilbert Ryle sostiene que esos puntos de vista, que han sido lugares comunes desde Descartes, están basados en un «desastroso error categorial».

 En la década de los cincuenta, el conductismo cedió posiciones a favor del fisicalismo de tipos [ ] o teoría de la identidad y en los sesenta por el funcionalismo [ ] y la teoría de la identidad de casos (en oposición a la de tipos), sobre todo en la versión de Donald Davidson y su monismo anómalo. [ ] El monismo anómalo ha recibido críticas desde perspectivas diversas. Por un lado, se pone en duda que los argumentos de Davidson en favor de la anomalía de lo mental sean acertados. Se considera al monismo anómalo como una importante posición dentro de la Filosofía de la mente; sin embargo, la mayoría no lo considera la solución al problema mente-cuerpo.

El trabajo de D. Davidson especialmente en “Significado y verdad” [ ], e “Interpretación radical” [ ] identifican un enfoque del problema del significado que es rival a lo que se denomina «teoría causal del significado» desarrollado en la obra de H.P. Griece [ ].

Actualmente los temas de filosofía de la mente se encuentran estrechamente vinculados con diferentes aspectos de las ciencias cognitivas como la modularidad de la mente o el innatismo. También ha habido filósofos analíticos que han defendido el dualismo, la importancia de la conciencia y el dualismo de propiedades, en buena medida alentados por David Chalmers. John Searle [ ] sugiere que la obsesión con la filosofía del lenguaje en la primera mitad del siglo XX fue superada en la segunda mitad por un mayor énfasis en la filosofía de la mente, [ ] en la cual el funcionalismo probablemente sea la teoría dominante. En años recientes, un tema central de investigación en filosofía de la mente ha sido la conciencia.

Dan Sperber es conocido especialmente por su trabajo sobre la pragmática [ ] y, en particular, sobre la "teoría de la relevancia" y la "epidemiología de las representaciones". Su obra más influyente es La Relevancia, junto al británico Deirdre Wilson, que ha pasado a convertirse en el mainstream en pragmática, lingüística, inteligencia artificial y psicología cognitiva [ ]. Para Sperber los procesos cognitivos estarían dirigidos hacia la consecución de una máxima pertinencia, es decir, la búsqueda de una relación óptima entre los esfuerzos cognitivos y sus efectos [ ].

La Ética
En la primera mitad del siglo XX no hubo tratamiento importante de la ética filosófica destacándose actitudes escépticas con respecto al valor (v.gr. el emotivismo [ ]). Durante este tiempo, el utilitarismo [ ] fue la única aproximación no-escéptica a la ética. Sin embargo, en la segunda mitad del siglo XX, el libro “Filosofía moral moderna” de 1958 de Elizabeth Anscombe [ ] revivió la ética de virtudes de Aristóteles y “Una teoría de la justicia” de 1971 de John Rawls restableció el interés en la filosofía ética kantiana. Actualmente, la filosofía ética se halla dominada por tres escuelas: el utilitarismo, la ética de virtudes y el kantismo. Otro desarrollo importante en la segunda mitad del siglo XX (c. 1970) ha sido la gran preocupación de la filosofía ética contemporánea con las aplicaciones prácticas de la ética, p.e. a través de la bioética.[ ]

Como un efecto colateral del énfasis en la lógica y el lenguaje en los años iniciales de la filosofía analítica, los filósofos analíticos tenían poco que decir sobre la ética.[ ]  Wittgenstein, en el “Tractatus”, observa que los valores no pueden ser parte del mundo, y si en realidad son algo deben estar de alguna manera más allá o fuera del mundo y por lo tanto del lenguaje natural, que sirve para describir los hechos del mundo, y no puede pronunciarse en absoluto sobre su valor. Una interpretación de estas observaciones encontró eco en la doctrina de los positivistas lógicos [ ] de que las oraciones de valor –incluyendo todos los juicios éticos y estéticos- no son en realidad proposiciones, es decir, no pueden ser ni verdaderas ni falsas. La filosofía política y social, la ética y la estética, así como materias especializadas como la filosofía de la historia fueron marginales en la filosofía analítica por mucho tiempo.

Para los años cincuenta, los ataques de Phillipa Foot [ ] a esta posición contribuyeron al colapso del positivismo lógico y comenzó un renovado interés en la ética. Foot promocionó mucho el estudio de la ética de virtudes, en oposición al utilitarismo y la deontología de corte kantiano que sobrevivían en la época. En términos de filosofía de la acción la monografía más importante quizá sea “Intención” de Elizabeth Anscombe [ ], a la cual Donald Davidson [ ] denominó como “el tratamiento más importante de la acción desde Aristóteles”, y es normalmente considerada como una obra maestra de la psicología moral.

Gilbert Harman, filósofo norteamericano contemporáneo, profesor en la Universidad de Princeton, ha publicado numerosos trabajos sobre la ética, la epistemología, la metafísica y las filosofías del lenguaje y la mente. Harman comparte las creencias de su asesor de doctorado Willard Van Orman Quine de que la filosofía y la ciencia son continuas, así como su escepticismo sobre el análisis conceptual. Como filósofo moral, es conocido por su argumento explicativo para el anti-realismo y por su defensa de una forma de relativismo moral, en el Relativismo moral y la Objetividad moral (Oxford: Blackwell, 1996), en la que debate la cuestión con Judith Jarvis Thomson [ ].

La Filosofía de la religión
Como con el estudio de la ética, la filosofía analítica temprana tendió a evitar el estudio de la filosofía de la religión, en gran parte rechazando el tema como parte de la metafísica y algo sin sentido. También en la segunda mitad del siglo XX comenzó a haber un renovado interés en la filosofía de la religión, con destacados filósofos que entre otros temas han debatido sobre la validez lógica de defensa del libre albedrío como solución del problema del mal. [ ] p.e. W. Alston, [ ] en conexión con la filosofía del lenguaje, trabajó en la naturaleza del lenguaje religioso.

La Filosofía política
En cuanto a la filosofía política analítica contemporánea John Rawls [ ], en: el artículo “Dos conceptos de reglas” y el libro Justicia como equidad, y luego en su clásico libro de 1971 Una teoría de la justicia [ ], produjo una defensa sofisticada y refinadamente argumentada del liberalismo en política por la vía contractualista. Siguió de cerca el libro de Robert Nozick [ ] Anarquía, Estado y Utopía [ ], una defensa del liberalismo de libre mercado. A la par, Isaiah Berlin [ ], igualmente, ha tenido influencia tanto en la filosofía política analítica como en el liberalismo, principalmente a través de su conferencia Dos conceptos de libertad.

En décadas recientes ha habido muchas críticas al liberalismo, incluyendo el feminismo de Catherine MacKinnon [ ], el comunitarismo [ ] de Michael Sandel y de Alasdair MacIntyre [ ], y el multiculturalismo [ ] de Charles Taylor [ ]. Aunque no se trata propiamente de un filósofo analítico, Jürgen Habermas [ ] es otra figura en la filosofía política contemporánea y ha recibido atención por parte de la filosofía política analítica.

El Comunitarismo
Comunitaristas como Alasdair MacIntyre, Michael Sandel y Charles Taylor cuestionan la presunción liberal de que el individuo puede verse como completamente autónomo de la comunidad en la que vive y crece. En cambio, ellos sostienen una concepción del individuo que enfatiza el rol que juega la comunidad al forjar sus valores, pensamientos, cosmovisiones y opiniones.

PAV//

Consultar: Filosofía del lenguaje:Saúl Kripke / publicado en mi blog  Filosofía

5 de diciembre de 2011

Teorías del aprendizaje

Percy C. Acuña Vigil

Este documento sobre Teorías del Aprendizaje esta organizado de acuerdo al siguiente Mapa Conceptual. Parte del Conductismo, (Filosofía de la ciencia de la conducta); trata en si las Teorías del Aprendizaje propias. Examina la Teoría de Adquisición de Conceptos, Se complementa con una revisión de las Teorías Computacionales asociadas y concluye con una lección a modo de síntesis de la investigación sobre la Adquisición de Conceptos y la toma de posición epistemológica.



1. Los Paradigmas de investigación.
Durante el siglo XX dos corrientes del pensamiento han tenido influencia decisiva sobre la Psicología del Aprendizaje , el Conductismo   y la Psicología cognitiva . Según Thomas Kuhn  estos movimientos científicos constituyen dos revoluciones paradigmáticas, seguidas de su correspondiente periodo de ciencia normal .


En oposición al falsacionismo popperiano, Kuhn desacredita a la experimentación como la causa fundamental del progreso científico. Según su concepción, no es la fuerza de los datos lo que hace que un paradigma sea sustituido por otro, ya que los paradigmas son en sí mismos inconmensurables; sino que influyen criterios externos de tipo generacional o social.

Lakatos  discrepa con esta última idea, ya que su falsacionismo metodológico se encuentra en una posición intermedia entre las posiciones de Popper y de Kuhn. Lakatos coincide con Kuhn en el predominio de los paradigmas – llamados por él: programas de investigación -, sobre los datos pero acuerda con Popper que son finalmente los datos los que constituyen los árbitros de cambio en las teorías científicas.

2. Conductismo y Procesamiento de Información.
Según Kuhn, la primera revolución paradigmática da lugar a la aparición del conductismo, como respuesta al subjetivismo y al abuso del método introspectivo por parte del estructuralismo y del funcionalismo. Y la segunda revolución la constituye el procesamiento de la información.

Para Skinner el Conductismo es una filosofía de la Ciencia de la Conducta. Es una manera de estudiar lo Psicológico ó cualquier fenómeno del mundo desde la perspectiva de una ciencia de la conducta, sin mentalismos ni reduccionismos provenientes de la Neurología, Lógica, Sociología o Procesamiento de de datos. El Conductivismo metodológico se guía en función a criterios pragmáticos de abordaje programático de la conducta como referente de fenomenos "internos".


El conductismo se basa en los estudios del aprendizaje mediante condicionamiento, considerando innecesario el estudio de los procesos mentales superiores para la comprensión de la conducta humana. El núcleo central del conductismo está constituido por su concepción asociacionista del conocimiento y del aprendizaje.

A mitad de siglo, las múltiples anomalías empíricas y factores externos como las nuevas tecnologías cibernéticas y las Teorías de la Comunicación y de la Lingüística hacen que el paradigma conductista entre en crisis y sea sustituido por el procesamiento de información que apoyándose en la metáfora del ordenador, hace posible el estudio de los procesos mentales que el conductismo marginaba. De esta forma se entra en un nuevo periodo de ciencia normal, bajo el dominio de la psicología cognitiva, que llega hasta nuestros días.

Para la Psicología Cognitiva  la acción del sujeto está determinada por sus representaciones. Para el procesamiento de información, esas representaciones están constituidas por algún tipo de cómputo. La concepción del ser humano como procesador de información se basa en la aceptación de la analogía entre la mente humana y el funcionamiento de un computador En las últimas décadas, la investigación psicológica ha mostrado una atención creciente por el papel de la cognición en el aprendizaje humano, liberándose de los aspectos más restrictivos de los enfoques conductistas. Se prioriza en el papel de la atención, la memoria, la percepción, las pautas de reconocimiento y el uso del lenguaje en el proceso del aprendizaje.

"El enfoque cognitivo ha insistido sobre como los individuos representan el mundo en que viven y cómo reciben información, actuando de acuerdo con ella. Se considera que los sujetos son elaboradores o procesadores de la información". (Johnson-Laird, 1980)

Para la corriente constructivista, el ser humano adquiere el conocimiento mediante un proceso de construcción individual y subjetiva, de manera que la percepción del mundo está determinada por las expectativas del sujeto. En el paso del conductismo al procesamiento de información si bien se conserva el mismo núcleo central, su cinturón protector se ha modificado. Por oposición al conductismo, el procesamiento de información proporciona una concepción constructivista del ser humano.

De acuerdo a muchos autores, el procesamiento de información no constituye un programa progresivo respecto del conductismo y ha recibido muchas críticas debido a sus insuficiencias y limitaciones. A decir de Siegler y Klahr , el abandono de las investigaciones sobre el aprendizaje por parte del procesamiento de información es equivalente al abandono de los procesos mentales por parte del conductismo.

3. Teorías del aprendizaje
Diversas teorías nos ayudan a comprender, predecir, y controlar el comportamiento humano y tratan de explicar cómo los sujetos acceden al conocimiento. Su objeto de estudio se centra en la adquisición de destrezas y habilidades, en el razonamiento y en la adquisición de conceptos.



Por ejemplo, la Teoría del condicionamiento clásico de Pavlov: explica como los estímulos simultáneos llegan a evocar respuestas semejantes, aunque tal respuesta fuera evocada en principio sólo por uno de ellos. La teoría del condicionamiento instrumental u operante de Skinner describe cómo los refuerzos forman y mantienen un comportamiento determinado. Albert Bandura describe las condiciones en que se aprende a imitar modelos. La teoría Psicogenética de Piaget aborda la forma en que los sujetos construyen el conocimiento teniendo en cuenta el desarrollo cognitivo. La teoría del procesamiento de la información se emplea a su vez para comprender cómo se resuelven problemas utilizando analogías y metáforas.


¿Cuándo una teoría es mejor que otra?
Según LAKATOS (1978), cuando reúne tres condiciones:
•    Tener un exceso de contenido empírico con respecto a la teoría anterior, es decir, predecir hechos que aquella no predecía.
•    Explicar el éxito de la teoría anterior, es decir, explicar todo lo que aquella explicaba.
•    Lograr corroborar empíricamente al menos una parte de su exceso de contenido.

Por consiguiente, lo que caracteriza una buena teoría en la terminología de LAKATOS, es su capacidad para predecir e incorporar hechos nuevos, frente a aquellas otras teorías  que se limitan a explorar lo ya conocido. LAKATOS (1978) piensa que una nueva teoría se impondrá sobre otra vigente cuando, además de explicar todos los hechos relevantes que ésta explicaba, se enfrente con éxito a algunas de las anomalías de las que la teoría anterior no podrá darse cuenta. Así se asegura una continuidad entre las teorías sucesivas, ya sea dentro de un mismo programa (LAUDAN, 1977) o en programas diversos.

4. Adquisición de conceptos
Las teorías del aprendizaje tratan de explicar cómo se constituyen los significados y como se aprenden los nuevos conceptos.

Hasta hace poco, los psicólogos suponían, siguiendo a Mill y a otros filósofos empiristas, que las personas adquirimos conceptos mediante un proceso de abstracción (teoría inductivista) que suprime los detalles idiosincráticos que difieren de un ejemplo a otro, y que deja sólo lo que se mantiene común a todos ellos. En la actualidad existen dos vías formadoras de conceptos: mediante el desarrollo de la asociación (empirista) y mediante la reconstrucción (corriente europea).

Para la corriente asociacionista no hay nada en el intelecto que no haya pasado por los sentidos. Sostiene que todos los estímulos son neutros y que los organismos son todos equivalentes. Postula que el aprendizaje se realiza a través del proceso recompensa-castigo (teoría del conductismo: se apoya en la psicología fisiológica de Pavlov). Es antimentalista, de modo que el recorte del objeto está dado por la conducta, por lo observable y argumenta que el sujeto es pasivo y responde a las complejidades del medio.

Mientras que para las corrientes europeas, que están basadas en la acción y que tienen uno de sus apoyos en la teoría psicogenética de Piaget, el sujeto es activo. Los conceptos no se aprenden sino que se reconstruyen y se van internalizando. Lo importante es lo contextual, no lo social. Las corrientes del procesamiento de la información tienen algo de ambas. El sujeto no es pasivo.

5. Teorías computacionales
Dentro de las denominadas Teorías Computacionales, unas se desarrollan en el marco de la Inteligencia Artificial, sin buscar compatibilidad con datos psicológicos; y otras tantas teorías respetando los límites de la metáfora computacional, intentan ser psicológicamente relevantes, adecuándose a los datos que se conocen sobre el procesamiento humano de información.

A decir de Pozo, dentro de las teorías del aprendizaje computacional psicológicamente relevantes que se ocupan de la adquisición de conceptos, las más prototípicas son las teorías ACT (Adaptive Control of Thought: Control Adaptativo del Comportamiento) de ANDERSON (1982, 1983) , la teoría de los esquemas de RUMELHART y NORMAN (1978)  y la teoría de la inducción pragmática de HOLLAND y cols.

5.1.    Enfoque sintáctico: La teoría ACT de ANDERSON
El ACT es una teoría unitaria del procesamiento de la información. La idea básica que subyace a la teoría es los mecanismos de aprendizaje están estrechamente relacionados con el resto de los procesos, especialmente con la forma en que se presenta la información en el sistema.



"todos los procesos cognitivos superiores, como memoria, lenguaje, solución de problemas, imágenes, deducción e inducción son manifestaciones diferentes de un mismo sistema subyacente" (ANDERSON, 1983, pág. 1)

ANDERSON (1982, 1983) propone una teoría del aprendizaje basada en tres estadios sucesivos. Todo concepto adquirido pasa por tres fases: interpretación declarativa, compilación y ajuste.

La teoría del aprendizaje basada en el ACT está orientada fundamentalmente a la adquisición de destrezas (ANDERSON, 1982). Pero no sólo es aplicable a destrezas motoras relativamente simples. Incluye también, otro tipo de habilidades más complejas como la toma de decisiones, la solución de problemas matemáticos o la generación del lenguaje.
Según Pozo, el ACT puede también considerarse una teoría del aprendizaje de conceptos, ya que ninguna destreza compleja puede efectuarse sin la intervención de un concepto.

5.2.    Enfoque semántico: la teoría de los esquemas.
La teoría de los esquemas puede considerarse como una teoría de la representación y utilización de los conceptos almacenados en la memoria. Es una teoría general del procesamiento.



"Un esquema es una estructura de datos para representar conceptos genéricos almacenados en la memoria." (RUMELHART, 1984, pag. 163).

Según RUMELHART (1981, 1984), la teoría general de los esquemas se ocupa de cómo se representa el conocimiento y de cómo se usa el conocimiento almacenado. La unidad básica de procesamiento serían los esquemas, consistentes en "paquetes de información" sobre conceptos genéricos. Los esquemas representan conocimientos, son representaciones prototípicas de los conceptos.

Para RUMENHART y NORMAN desde un punto de vista lógico pueden distinguirse tres tipos de aprendizaje: el crecimiento, la reestructuración y el ajuste. Mediante el crecimiento se acumula nueva información en los esquemas ya existentes. Las leyes que rigen este crecimiento son básicamente asociativas:

5.3.    Enfoque pragmático: una teoría pragmática de la inducción.
La teoría de la inducción es una teoría general del procesamiento, que presenta una serie de restricciones básicas que le dan al proceso inductivo, un carácter pragmático. Esta teoría acepta la representación del conocimiento mediante modelos mentales.



El sistema de representación propuesto por HOLLAND y cols (1986), al igual que el ACT de ANDERSON (1983), está basado en reglas o sistemas de producción, pero se asemeja a la teoría de los esquemas en que sus unidades significativas de representación tienen un carácter más bien molar. Son los modelos mentales, compuestos por series de reglas o sistemas de producción.

6.    Lecciones
Según BOLTON (1977) , toda teoría de la adquisición de conceptos supone, explícita o implícitamente, una opción sobre la naturaleza de la realidad y una toma de posición epistemológica.

La postura que adoptan las teorías asociacionistas respecto a la naturaleza y a la forma en que se adquiere el conocimiento, tiene como características principales:  el elementismo, el empirismo y el realismo o la correspondencia entre realidad y conocimiento.

Las teorías tratan los conceptos como si fueran entidades reales y no nominales y parten de la idea de que su definición viene dada por sus referentes y no por su sentido o conexión hacia arriba con otros conceptos. En relación con el aprendizaje de conceptos, el asociacionismo da lugar a teorías de la abstracción o inducción de conceptos.

Las teorías descritas comparten tres supuestos básicos con respecto a la inducción o abstracción (BOLTON, 1977):
1.    Los conceptos se forman mediante el reconocimiento de similitudes entre objetos.
2.    El progreso en la formación de conceptos va de lo particular a lo general.
3.    Los conceptos concretos son primarios, ya que constituyen la base para la adquisición de conceptos más abstractos.

Las distintas teorías difieren en los mecanismos de aprendizaje que dan cuenta de esa abstracción y en los resultados producidos por ese aprendizaje, que dan lugar a conceptos probabilísticos o de estructura difusa, o a conceptos bien definidos.

Las teorías expuestas presentan una ausencia de organización en el sujeto psicológico, es decir que no pueden explicar la coherencia conceptual, y son incapaces de explicar el origen de los significados.

Estas teorías, si bien tienen desarrollados los mecanismos de ajuste de conceptos mediante generalización y diferenciación, presentan la limitación que para que el sistema ajuste sus conceptos debe poseerlos previamente. Los sistemas computacionales son incapaces de explicar el origen de esos conocimientos.

11. Bibliografía.



Anderson, John R.1976. Language, Memory, and Thought. September 1st 1976, Psychology Press – 546 pp.
Bruner, Jerome S. (1966). Investigaciones sobre el desarrollo cognitivo, Pablo del Río Editor, Madrid (España).
Carretero, M.- Limón, M., "Problemas actuales del constructivismo. De la teoría a la Práctica", en Rodrigo, M.-Arnay, J., Paidós, Barcelona.
Chalmers, A., ¿Qué es esa cosa llamada ciencia?, Siglo XXI, Madrid, 1984. Duran, S., Modelos Mentales y Prácticas Deductivas, inédito, 1997.
Chomsky, Noam (1980). El lenguaje y el entendimiento, Planeta-Agostini, Barcelona (España).
Holland, J. H.; Holyoak, K. J.; Nisbett, R. E. &, Thagard, P.R. (1989) Induction: Processes of inference, learning, and discovery. Cambridge, MA: MIT Press.
Kuhn, Thomas S. (2005). La estructura de las revoluciones científicas. Fondo de Cultura Económica de España.
Laird, J., El ordenador y la mente, Paidós, Barcelona, 1990.
Lakatos, Imre. La metodología de los Programas de investigación científica. Alianza. Madrid. 1993.
Mill, John Stuart. (2006 ).  "On Liberty" Penguin Classics.
Newell, Allen y Herbert Simon (1972). Human problem solving, Editorial Prentice Hall, Englewood Cliffs (New Jersey, EEUU).
Popper, Karl. 1934. Logik der Forschung, (La Lógica de la Investigación Científica). La lógica de la investigación científica. Editorial Tecnos. 1985.
Pozo, J., Teorías Cognitivas del Aprendizaje, Morata, Madrid, 1994.
Pozo, Juan Ignacio, Pozo Municio, Juan Ignacio.  Teorías cognitivas del aprendizaje. Ediciones Morata, 1989 - 288 páginas.
Rumelhart, D. & Norman, D. (1978). Accretion, tuning and restructuring: Three modes of learning. In. J.W. Cotton & R. Klatzky (eds.), Semantic Factors in Cognition. Hillsdale, NJ: Erlbaum.
Rumelhart, D. & Norman, D. (1981). Analogical processes in learning. In J.R. Anderson (ed.), Cognitive Skills and their Acquisition. Hillsdale, NJ: Erlbaum.

Compartir

Similares:

Related Posts Plugin for WordPress, Blogger...