ATRÁS

SIGUIENTE


1.2. La Teoría Cognitiva

La psicología como ciencia, a partir de la década de los años 50’, sufre una transformación de magnitudes tan importantes, que ha sido denominada por algunos como una verdadera revolución cognitiva. Es sencillo deducir, a partir de la palabra que califica la revolución, que la base del cambio se orienta hacia la cognición. De hecho, luego de un pasado histórico, marcado por diferentes interpretaciones epistemológicas que a su vez matizaban la explicación psicológica, se reivindica el papel de los procesos mentales como aspecto fundamental y característico de la racionalidad humana que ya había sido advertido por los griegos de la época clásica.

A partir de este período, el objeto de estudio de la psicología se ubicará en el alma por largo tiempo hasta que, en 1879, Wundt funda el primer laboratorio de psicología experimental en Alemania, con la finalidad de estudiar la conciencia y las sensaciones, a través de un método de observación pura o introspección. Este investigador, su discípulo Külpe, en compañía de Bühler y Marbe, tienen el mérito de colocar en el interés de investigación los procesos de orden mental y ocuparse de los procesos de pensamiento, aunque el momento epistemológico se encargó de relegarlos nuevamente por ser procesos inobservables abordados con una metodología que se mostraba en abierta contradicción con el carácter experimental que tenía que definir a la psicología como ciencia. De esta manera, se va imponiendo progresivamente, hasta lograr un dominio absoluto de esta área, una corriente empírica- experimental conocida como conductismo, que volcó y redujo la psicología hacia el estudio de la conducta observable; entre los exponentes del conductismo, hay quienes muestran una postura ingenua, algunos llegan a aceptar la presencia de variable O, en una discreta y poco comprometida posición de aceptar procesos de orden cognitivo, en la cadena E-O-R, pero sin posibilidad de acceder a ella y otros como Skinner, declaran su rechazo a todo aspecto o proceso que no pueda ser tratado con observación rigurosa y sujeta a manipulación experimental, posición que distingue, particularmente a la psicología norteamericana de principios de siglo.

Sin embargo, pese a todos sus postulados, el conductismo comienza a minar en sus estructuras debido, fundamentalmente, por una parte, a su negación de abordar procesos que forman parte de nuestra naturaleza humana, procesos a veces tan obvios que resulta incomprensible que a una ciencia que se encarga de precisamente de aclararlos y definirlos, le resulten totalmente ajenos; por otro lado, al desarrollo de la inteligencia artificial contribuyó notablemente a la utilización del modelo de la computadora como metáfora para simular procesos mentales hasta ahora subestimados. En este período, la psicología se presenta entonces como una ciencia cognitiva, la cual al igual que otras de su misma naturaleza, definen su campo de investigación, teorización y aplicación sobre la variedad y riqueza de aspectos que conforman los procesos de orden cognitivo. Seguidamente, trataremos los antecedentes históricos, la definición y perspectivas de la ciencia cognitiva, imprescindible para la explicación de los procesos de pensamiento que ocupan el centro de interés nuestro estudio.

Antecedentes de la Ciencia Cognitiva

Gardner, (1988:21), define la ciencia cognitiva “como un empeño contemporáneo de base empírica por responder a interrogantes epistemológicos de antigua data, en particular los vinculados a la naturaleza del conocimiento, sus elementos componentes, sus fuentes, evolución y difusión.”. Sus antecedentes se remontan al año 1948, en el cual se celebra el simposio de Hixson sobre “Los mecanismos cerebrales de la conducta”, en California; allí, comenzaron a explotarse los paralelismos entre el sistema nervioso y los procedimientos lógicos, por oradores como John von Neumann, McCulloch, y Lashley. El primero de ellos, matemático, identificó la notable analogía entre el cerebro y la computadora electrónica, McCulloch, a partir del paralelismo entre el sistema nervioso y los procedimientos lógicos abordó el procesamiento cerebral de la información. Lashley, en particular, se pronunció desde su perspectiva como psicólogo contra el dogma que había representado en los últimos años el conductismo en esta área del conocimiento, imposibilitando el estudio científico de la mente debido a su férrea creencia en que los elementos de conducta observables y poder determinante del medio eran las proposiciones fundamentales para una ciencia que debía ocuparse del comportamiento. Su ponencia, sobre ‘El problema del orden serial de la conducta’, formuló algunas premisas que serían esenciales para la ciencia cognitiva: cualquier teoría sobre la actividad humana debía dar cuenta de conductas organizadas complejas y expresarse por medio del lenguaje, la función cerebral es un sistema activo que desborda la tentativa de su reducción explicativa sobre un arco reflejo asociadas a la de un sistema nervioso estático.

Las ideas discutidas en este simposio tuvieron antecedentes de vieja data, algunos remontados hasta comienzos de siglo, que sin embargo fueron opacados u oscurecidos por el movimiento conductista. Algunos de esos aportes teóricos, claves para la ciencia cognitiva, lo constituyen las siguientes fuentes:

a.- Matemática y computación: a finales del siglo XIX, la matemática y lógica son objeto de notorios avances que repercuten fuertemente en el terreno de la ciencia cognitiva. La lógica aristotélica, basada en el razonamiento silogístico, cede espacio a una lógica que implica la manipulación de símbolos abstractos, formulada por el alemán Frege; también, Russell y Whitehead, lógicos matemáticos de origen británico, procuraron reducir los fundamentos básicos aritméticos a proposiciones de la lógica elemental. Mientras tanto, el matemático británico Alan Turing, en 1936, formuló la idea de una máquina simple, llamada más adelante Máquina de Turing, capaz de resolver cualquier tipo de cálculo que el hombre le planteara y la condición para cumplir la tarea consistía en que los pasos para ejecutarla fuesen definidos con claridad. A su juicio, si la máquina era programada adecuadamente, nadie diferenciaría sus respuestas de un interlocutor; esta afirmación quedó para la posteridad como “la prueba de la máquina Turing” y es utilizada para refutar el hecho de que una máquina pueda pensar.

Las premisas de Turing insinuaron a los científicos interesados que existía la posibilidad de abordar el pensamiento humano con precisión sobre la base de su descripción y analogía con una máquina cuyo funcionamiento es idéntico a él, sentando las bases para la evidencia empírica de procesos mentales. Sobre estos principios, von Neumann introdujo la posibilidad de crear un programa que la hiciese funcionar sin necesidad de reprogramarla para cada tarea, creando la noción del programa almacenado controlado por una memoria interna.

b.- El modelo de la neurona: El matemático y neurofisiólogo McCulloch y Walter Pitts, especialista en lógica, en el año 1943, formularon un modelo en que las acciones y conexiones de la red nerviosa eran representadas en un lenguaje lógico, en el que los nervios simulan los enunciados y su propiedad de ser activados o no activados -todo o nada-, por operaciones de cálculo proposicional; este modelo presume que la neurona es activada y al mismo tiempo activa a otra, lo cual resulta equivalente a que una proposición de una secuencia lógica implica alguna otra proposición. Asimismo, esta analogía se traduce en términos de electricidad y las señales que procesa un circuito. Estos investigadores pensaban que todo lo que podía describirse de manera exhaustiva e inequívoca era materializable a través de una red neural finita adecuada. Estos trabajos se concretaron en dos líneas de influencia para la máquina de Turing: la primera, un sistema nervioso integrada por neuronas que respondían al principio de todo o nada; la segunda, una computadora que podía material cualquier principio descrito de manera inequívoca. De esta forma probaron que existía una poderosa computadora, en este caso el cerebro humano, cuyo desempeño se explicaba sobre la semejanza de principios lógicos.

c.- La síntesis cibernética: los trabajos del matemático Wiener, en el área de dispositivos de mantenimiento de rumbo de aviones, misiles y artillería o servomecanismos, lo llevaron a proponer, en un artículo conjunto con Rosenblueth y Bigelow escrito en 1943, que si una máquina posee retroalimentación, es legítimo entonces decir que posee metas y propósitos. Wiener confiaba en que los avances científicos y tecnológicos, congruentes entre sí, constituían una nueva ciencia y la denominó cibernética.

d.- Teoría de la información: Se le adjudica al ingeniero electricista Claude Shannon la formulación de la Teoría de la Información. En 1930 sostuvo que los circuitos eléctricos, como los que integran la computadora, podían dar cuenta de las operaciones fundamentales de pensamiento; más adelante, formuló la noción clave de la teoría de la información que plantea que ésta puede concebirse de manera independiente del contenido como una decisión entre dos alternativas posibles. La idea de asumir la información con independencia del dispositivo, fue precursora en la consideración de los procesos cognitivos con independencia de su materialización particular.

e.- Síndromes neuropsicológicos: los innumerables casos de lesionados producto de la II Guerra Mundial, propiciaron investigaciones que explicaron la naturaleza de varios tipos de lesiones neurológicas, las cuales evidenciaban la limitación de los modelos de pensamiento basados en el arco reflejo.

Estos antecedentes, para la década de 1940, contribuyeron a construir los cimientos intelectuales de la ciencia cognitiva; ellos creaban en el ambiente científico las condiciones para la inminente puesta en escena de un campo de estudio desconocido hasta ahora. Las inquietudes intelectuales fueron canalizadas a través de diversas reuniones en que se trataban variados aspectos relacionados con la cognición como una ciencia interdisciplinaria de la mente. Así que además del Simposio de Hixon, se mencionan encuentros y reuniones, especialmente las efectuadas en Princeton, en 1944, bajo los auspicios de la Fundación Macy, convocadas por von Neumann y Wiener, en las que se iría perfilando el carácter interdisciplinario de esta ciencia y la posibilidad de aplicación en sectores diferentes de las nociones logradas en un área particular, las diez conferencias sobre cibernética organizadas por McCulloch sobre los problemas de la retroalimentación, en 1946 o las invitaciones a grupos de psicólogos efectuadas por el director del Instituto de Estudios Avanzados de Princeton, Oppenheimer en el inicio de los años 50’. De la misma forma, en Boston, el Instituto Tecnológico de Massachusetts, los Laboratorios Lincoln y Harvard, eran escenario de debates en torno a la cognición a la vez que mostraban rumbos teóricos progresivamente más distantes al conductismo; instituciones como la Fundación Ford y la Corporación Rand, respectivamente, crearon centros de estudios y proporcionaron importante respaldo financiero a las investigaciones psicológicas, por un lado, y a trabajos para el desarrollo de las computadoras con miras a crear máquinas capaces de pensar, por otro.

La literatura de finales de los años 40’ muestra los logros de la incipiente ciencia a un público numeroso, con libros como Desig for a brain, en 1952, del médico matemático de origen británico Ross Ashby, quien se propuso demostrar el funcionamiento mental utilizando métodos de la lógica axiomática, haciendo énfasis en la conducta adaptativa y la estabilidad como parámetros de supervivencia, texto de gran influencia en la potencial generación de científicos cognitivos; otras publicaciones del campo de la lingüística, sobre los caracteres distintivos del lenguaje por Jakobson, de la neuropsicología, sobre la evolución del sistema nervioso escrito por Hebb, del campo de la antropología, sobre retroalimentación y sistemas sociales, de Bateson, del campo matemático con los modelos estocásticos y los sistemas markovianos, fueron de influencia significativa en este momento de desarrollo, así como también crearon interés varios trabajos de investigadores del continente europeo, entre ellos Piaget, Bartlett y Vygotsky.

El Simposio sobre Teoría de la Información realizado en 1956 en el MIT, se toma como la fecha de inicio de la ciencia cognitiva, debido a los temas trascendentales que versaban sobre la teoría de la comunicación y las ciencias humanas que allí se discutieron. Ponencias diversas, introdujeron elementos claves: Simon y Newell, describieron la máquina de la teoría lógica y demostraron la ejecución de un teorema en la computadora; Chomsky, introdujo su teoría de los “Tres modelos de lenguaje” y Miller precisó la capacidad de la memoria inmediata en siete ítems. La investigación era alentada desde variadas perspectivas; los neurofisiólogos Maturana y Lettvin, demostraron la especificidad de registro de información en neuronas, lo cual fue corroborado en los estudios de Hubel y Wesel; los antropólogos Conklin, Goodenough y Lounsbury, al dedicarse a recopilación de datos referidos a culturas antiguas y su capacidad de formación de conceptos y su naturaleza lingüística y cognitiva, lo cual dio origen a la antropología cognitiva; matemáticos y lógicos, Simon. Newell, Minsky y McCarthy, dedicados a programas volcados a la resolución de problemas, reconocimiento de pautas o razonamiento lógico, sentaron las bases de la llamada inteligencia artificial; Hilary Putnam, filósofo norteamericano, sostuvo que la máquina de Turing y la invención de la computadora, aclaraban el problema de la relación mente-cuerpo, al demostrarse que la descripción lógica de una máquina de Turing puede hacerse de manera independiente del hardware o soporte material, declarando abiertamente la analogía con los procesos de pensamiento humano.

Para los años 60’, el movimiento cognitivo recibía apoyo financiero de instituciones privadas y públicas, se fundó el Centro para Estudios Cognitivos, en Harvard, por Bruner, y Miller, psicólogos inquietados por los problemas cognitivos, para indagar la naturaleza del conocimiento. Tal fue el movimiento intelectual y la presencia de investigadores dedicados a este empeño, que este centro es considerado por algunos como el lugar de nacimiento de las ciencias cognitivas. Miller, conjuntamente con el psicólogo de orientación matemática Galanter y Pribram, neurocientífico, publicaron un trabajo en el que sostenían el hecho de que si una computadora podía tener objetivos jerárquicamente organizados, medios para alcanzarlos y mecanismos de retroalimentación, era igualmente válido suponerlos para los seres humanos.

La idea sobre la analogía del computador se vio plasmada en textos sobre psicología cognitiva provenientes de diferentes áreas del conocimiento, tales como la psicología, la inteligencia artificial, la antropología, lingüística, entre los que pueden mencionarse: Psicología Cognitiva de Neisser, en 1967, (donde se expone que toda cognición implica procesos analíticos y sintéticos); Las ciencias de lo artificial, de Simon, en 1969, haciendo énfasis en el carácter de sistemas simbólicos que poseen tanto la computadora como la mente; Resolución Humana de Problemas, por Newell y Simon, en 1972, en que hablaron de los programas de resolución de problemas y su enfoque cognitivo; La estructura del lenguaje, de Fodor y Kats, en 1964, en que defendieron la postura chomskiana y su supremacía ante enfoques alternativos; Computadoras y Pensamiento, de Feigenbaum y Feldman, en 1963, referido a los programas de computación; Procesamiento Semántico de la Información, de Minsky, en 1968, orientado hacia el significado de la información; Antropología Cognitiva, de Tyler, en 1969. Ya en los años setenta, el cúmulo de publicaciones la actividad desarrollada en diversas áreas del campo cognitivo dejaba sentir su importancia, requiriendo de una estructura organizada que integrara las diferentes interesadas en este campo de conocimiento. Se creó, en 1977, la revista Ciencia Cognitiva ; posteriormente, La Sociedad Ciencia Cognitiva, en 1979, ambas con apoyo financiero de la Fundación Sloan, dicha fundación, en un informe sobre la situación de esta disciplina, concluyeron que “lo que ha originado el nacimiento de esta disciplina ha sido un común objetivo de investigación: descubrir las capacidades de la mente para la representación y la computación, su representación estructural y funcional en el cerebro” (Gardner, 1988:54), y al mismo tiempo propusieron el denominado hexágono cognitivo para mostrar las relaciones que se producen entre las seis disciplinas que integran este campo de estudio: psicología, filosofía, lingüística, antropología, neurociencia y la inteligencia artificial. Cada una de ellas, realiza contribuciones de provecho para las otras, estableciendo relaciones interdisciplinarias, débiles en unos casos y fuertes en otras o potenciales, todas girando en torno a un mismo propósito intelectual.

Gardner identifica cinco características de una ciencia cognitiva, los cuales aluden a los postulados centrales de esta ciencia, así como a su metodología o estrategias de su interés; ellas son:

Representaciones: es imperiosa la necesidad de concebir representaciones mentales, asociados a un nivel de análisis separado del ingrediente biológico, neurológico o sociológico. Se asume, entonces, la existencia de estados representacionales de tipo mental tales como reglas, símbolos, esquemas, ideas e imágenes y la relación entre ellas, para la descripción de la actividad cognitiva humana. En este sentido, las discusiones se debaten hacia la forma de conceptualizar estas representaciones; para algunos, toman la forma de proposiciones o enunciados, otros consideran que a esta forma se le suma una figurativa basada en imágenes, y no faltan los que proponen la representación múltiple.

Las computadoras: el uso de la computadora para la simulación de procesos cognitivos es el núcleo de las ciencias cognitivas. Su importancia como modelo del pensamiento humano es aceptado por todas ellas, conformando de esta manera el modelo de funcionamiento más viable de la mente humana.

Los estudios interdisciplinarios: son destacados los aportes de la filosofía, la inteligencia artificial, la lingüística, psicología, neurociencia y la antropología, para la explicación de la cognición humana, llegando incluso a tornarse difusos los límites entre las mismas ciencias.

Deslindar elementos fenoménicos individualizadores: esto se orienta a restar énfasis a la influencia de factores tales como las emociones o afectos, los aspectos históricos culturales y el contexto, que aún cuando sean importantes para el funcionamiento cognitivo, complican las investigaciones innecesariamente en este momento;

La vigencia del temario e inquietudes de epistemólogos de la tradición filosófica occidental: Aún cuando los planteamientos de la actual ciencia cognitiva difieran en cuanto a formulación de aquellas cuestiones que preocuparon a los filósofos sobre la naturaleza y alcance del conocimiento, en concreto representan las mismas búsquedas

Las ciencias cognitivas, por su parte, han acunado tanto elementos históricos que auguraban muchos de los planteamiento básicos vinculados con su estado actual, como desarrollado investigaciones adscritas a la fundamentación básica soportada sobre los principios teóricos cognitivas, logrando conformar una extensa red de conocimiento, apenas resumida a través de las aristas del hexágono ya citado. De aquí, que destacaremos los aportes más relevantes de cada una de estas disciplinas, con la finalidad de mostrar el panorama científico que nutre a esta ciencia de la mente.

La filosofía: Una vez más, Gardner apunta hacia la filosofía como la más antigua de las ciencias cognitivas. De hecho, considera que ha producido el programa de trabajo inicial, el temario y los asuntos que guían las investigaciones cognitivas de orientación empírica, y esto es evidente en las páginas de la historia de la filosofía, escenario permanente de discusiones sobre la naturaleza de la representación mental, la naturaleza espiritual o racional del pensamiento o la dicotomía mente-cuerpo. Sócrates, a través de Menón, sostiene que poseemos interiormente el saber necesario para realizar cálculos geométricos; Platón, depositaba en la matemática su confianza para el logro del dominio del conocimiento genuino, que ya reposaba en el alma desde el momento del nacimiento. Para esta ciencia, Descartes representa un antecedente de necesaria referencia, ya que sus escritos en la época moderna retoman la importancia de la razón, el pensamiento matemático e ideas innatas reconocidas por los griegos unos siglos atrás. Se interesó particularmente en el funcionamiento sensorial, los procesos cerebrales y la posibilidad de un modelo autómata del hombre. La menta la consideraba como lo fundamental de la existencia humana pero con funcionamiento independiente, introduciendo la idea de entidades diferenciadas para cada una de ellas, al tiempo que subestimó el componente sensorial y atribuyó todo pensamiento y creatividad a la mente. Para Gardner, el programa de trabajo formulado por Descartes en el siglo XVII, funge como rector, durante cientos de años, de los debates filosóficos y las ciencias experimentales; al plantear temas como el carácter central de un sí-mismo organizador, capaz de duda sistemática y metódica, la experiencia sensorial y corporal, el lenguaje como una facultad humana, el análisis del pensamiento y la mente como instrumento racional, desafió las concepciones que dominaban el escenario intelectual y filosófico del momento y proporcionó a los investigadores suficientes fuentes de búsqueda para la explicación de aspectos vinculados a la cognición de vigencia tal que perviven en nuestros días. Desde el empirismo inglés, con filósofos como Locke, Berkeley y Hume, se puso en duda la creencia en las ideas innatas de Descartes, y rechazaron toda base introspectiva de conocimiento, lugar que debía ocupar la experiencia sensorial. Estas concepciones racionalista y empiristas, sostenían posibilidades distintas para el pensamiento: una, como el instrumento para reflejar la experiencia mundana, la otra, como el factor organizador y revelador de todas las posibilidades, ámbito universal. Kant, ante esta dicotomía, sostuvo que la mente era un órgano activo del entendimiento, con la facultad de transformar la experiencia en la unidad ordenada de pensamiento; nuestro entendimiento aplica categorías y esquemas. Las categorías de pensamiento -término tomado de Aristóteles- , no son más que conceptos elementales como la cantidad, cualidad, negación y modalidad, que permiten atribuir sentido a la experiencia; los esquemas, son procedimientos intermedios entre la información sensorial y las categorías abstractas a priori, actuando como una representación intermedia, intelectual y sensible, que son tanto reglas como imágenes. De esta manera, acepta un nivel de representación mental para el pensamiento y el conocimiento. Por otro lado, el progreso de la lógica, con exponentes de la estatura de Boole, Frege, Peano, Peirce, Russell y Whitehead, la llevó al estatus de ciencia no empírica capaz de asimilar los descubrimientos que de ella ésta se produjeran. Russell y Whitehead revaluaron la experiencia sensible humana y su tratamiento con métodos del empirismo lógico Wittgenstein, aunque mas adelante renuncia a esa idea, incorporó el lenguaje al programa de estos dos lógicos, con su teoría figurativa del lenguaje y el mundo. Esa relación entre lenguaje , lógica y verdad, se constituyó en elemento esencial del Círculo de Viena y de los empiristas lógicos Feigl, Neurath, Schlick y Carnap; este último, resolviendo que el análisis lógico, orientado a atacar errores de sintaxis, podía dar cuenta de todo problema filosófico. Estas ideas se mantienen en trabajos que ocupan a las ciencias cognitivas, al centrar su interés en la sintaxis, como conjunto de símbolos y reglas, que subyacen a las operaciones mentales con distancia necesaria del contenido que ellas sugieren. El rastreo de la lógica de la mente es una inquietud reveladora de los trabajos de Chomsky, Montague, Newell, Simon, Brumer, Miller o Fodor, quien habla, específicamente, del lenguaje del pensamiento, que constituye una importante línea de investigación dentro de las ciencias cognitivas, sin embargo, decididamente distanciados de los postulados del empirismo lógico. Quine y Putnam, criticaron las tesis del empirismo lógico concluyendo que su fracaso, sustentado en que el significado es el método de verificación, la significación de las proposiciones metafísicas y matemáticas, entre otras, mostró tentativas relevantes de ser abordadas por las ciencias de la cognición. Putnam, filósofo de formación matemática, se ha ocupado de las implicaciones de la computadora sobre el estudio del pensamiento, considerando su invención como un suceso importante para la filosofía de la mente por su noción de la organización funcional. La idea funcionalista implica que el pensamiento y otras funciones inteligentes pueden ejecutarse por una máquina específica ya que reflejan un mismo tipo de proceso, con independencia del soporte material o hardware, agregando que si existe alguna clase de identidad, esta debe residir en el soporte lógico o software... “vale decir, tanto en los seres humanos como en las máquinas -y en cualquier otra forma de vida inteligente, desde los osos hormigueros hasta los ‘habitantes de las Antípodas’- podría materializarse la misma clase de programa. Así pues, la equiparación se produce en un nivel de abstracción mucho más alto, un nivel que tiene que ver con los objetivos de la actividad cognitiva, los medios de procesamiento de que se dispone, los pasos que deben seguirse, la evaluación de cada uno de esos pasos, y otros rasgos similares” (supra:95). El filósofo Dennett ha centrado su atención en la explicación de la posibilidad que dos individuos o entidades tengan psicológicamente algún elemento en común, sin aludir una única máquina de Turing, introduciendo el tema de la intencionalidad, y a todo sistema intencional se le atribuye racionalidad y propósito, lo cual se entiende como algo de naturaleza estrictamente mental; esta noción puede ser tratada con amplitud de impedimentos e influencias metafísicas ya que no comporta elementos de moralidad, divinidad u otros. Otro filósofo, quizá con la postura más radical sobre la certeza del destino común que comparten la filosofía y las cuestiones de la mente, es Fodor. Asume el programa de Descartes reconociendo el mérito concedido a los estados mentales, su potencialidad causal, la existencia de las ideas innatas, entendida como contenido informativo o principios con los que nace el individuo y que tienen por finalidad asignarle sentido a su experiencia; asimismo, acepta la concepción funcionalista de su maestro Putnam, y asume que los procesos cognitivos se constituyen en la manipulación de símbolos que son entidades abstractas sin relación necesaria con las entidades que denotan y que el objetivo de las investigaciones debe centrarse en la caracterización de un lenguaje del pensamiento para así construir una teoría de la mente. De hecho, su obra El lenguaje del pensamiento, considerada por muchos la línea divisoria de la filosofía del siglo XX; contiene aspectos vitales para las ciencias cognitivas: el lenguaje del pensamiento debe constituir un caudal potenciador de procesos cognitivos, tales como la percepción, el razonamiento o el aprendizaje lingüístico, y este lenguaje es de naturaleza innata; por otra parte, agrega que los procesos mentales son de carácter computacional y, por consiguiente, deben tener representaciones de esas computaciones. Sus ideas tienen implicaciones en variados ámbitos, como en el de la formación de conceptos, ya que considera que nuestro aparato intelectual está claramente especificado para anticipar experiencias e información particular. Este brevísimo resumen, para finalizar esta revisión histórica, representa sólo una muestra de los muchos aportes que la filosofía ha brindado a las ciencias cognitivas, aportes de innegable importancia, al propiciar programas y temarios que trascienden en el tiempo con vigencia y calidad.

La inteligencia artificial: muchos de aportes de esta disciplina cognitiva se han apuntado en el contexto filosófico, por las implicaciones que sus postulados manifiestan sobre la naturaleza del ser humano y de su conocimiento. La obra de Descartes ya presentaba la posibilidad de crear una mente mecánica; Babbage, ideó en el siglo XIX, una máquina de la diferencia para tabular funciones matemáticas; Boole, matemático inglés, se preocupo en discernir las leyes básicas del pensamiento fundamentadas sobre principios de la lógica, ideas que se retomaron casi cincuenta años más tarde por Russell y Whitehead para demostrar que las matemáticas tiene sus fundamentos en las leyes básicas de la lógica. Shannon, en 1938, anticipó en su tesis que cualquier operación descrita en una serie finita de pasos, podía ser materializada mediante relés de conmutación, sentando las bases para la construcción de máquinas capaces de ejecutar operaciones lógicas, el diseño y simplificación de circuitos. Turing había intuido, la misma posibilidad, alrededor de 1936, y demostró que ello era posible en una sola clase de computadora, a la vez que postuló la relación entre el pensamiento humano y la máquina, la cual se concretaría en la futura prueba de Turing orientada a distinguir entre las respuestas dadas por un sujeto y una máquina. A partir de la analogía entre las redes eléctricas y el cálculo proposicional, Bush diseñó máquinas para resolver ecuaciones diferenciales, McCulloch y Pitts, introdujeron la noción de redes neurales, asumiendo el cerebro como una máquina, particularmente del tipo Turing.; Wiener mientras, se abocada a indagar los mecanismos de retroalimentación e entidades orgánicas y mecánicas, al tiempo que von Neumann demostró que con el uso de la lógica binaria y la aritmética podían crearse programas para ser almacenados en la memoria de la máquina. Estas ideas brillantes sobre la construcción de computadoras que pudieran ejecutar funciones hasta ahora sólo realizadas por el cerebro humano, facilitaron que en el año 1956, diez especialistas en lógica y en matemática, entre quienes se encontraban MacCarthy, creador del término inteligencia artificial, Minsky, Simon y Newell debatieran, en el Seminario de Dartmouth, sobre las posibilidades de producir programas de computadoras que pensaran de manera inteligente. Se trataron tópicos varios como la creación de programas para jugar ajedrez o a las damas, Simon y Newell presentaron su programa para resolución de teoremas lógicos, Rochester introdujo la programación de un modelo de redes neurales y Minsky demostró computacionalmente la demostración de los teoremas de Euclides. De aquí en adelante, el desarrollo vertiginoso de esta ciencia se ha mantenido de manera incesante. Simon y Newell, con su primer programa, el teórico lógico, enfatizaron que su funcionamiento mostraba un paralelismo con la clase de pensamiento que practican los seres humanos y por el uso y manipulación de diversos sistemas simbólicos como la matemática y la lógica. De allí, que entendieron que la doctrina nuclear de la ciencia de la inteligencia artificial se debe ubicar en el sistema simbólico físico con capacidad para identificar procesos que operan sobre las expresiones simbólicas. En lo que a las ciencias cognitivas atañe, las líneas de investigación de la inteligencia artificial son variadas: el diseño de programas, los lenguajes de programación, el soporte material o físico (hardware), el soporte lógico (software), la simulación de procesos de pensamiento, programas inteligentes, etc. En cuanto a los tópicos que ocupan a la inteligencia artificial, existen algunos puntos generadores de argumentaciones constantes; se identifican, por ejemplo, de acuerdo a fidelidad o no a la noción funcionalista, una versión débil que sostiene que el uso de las computadoras y los programas inteligentes representan sólo un medio de probar teorías acerca de las operaciones cognitivas en los seres humanos; una versión fuerte, en cambio, postula que una computadora programada de manera apropiada es una mente, ya que si dispone de un programa adecuado, literalmente comprende y tiene otros procesos cognitivos, por lo tanto, no constituyen el medio para probar explicaciones sino que son en sí mismas las explicaciones. Otra fuente de discrepancias se encuentra entre los que asumen una postura modular o la de procesamiento central derivadas de los llamados generalistas y de los expertos; los primeros confían en programas globales o familias de ellos para abordar a los problemas o sus variantes, mientras que los segundos, se adhieren a programas basados en conocimientos de dominio específico. El aspecto relacionado con la forma de representación también se suma a los debates de esta ciencia; algunos son partidarios de la representación declarativa, en la que el conocimiento es codificado como una serie de declaraciones acumuladas, en tanto que otros se inclinan por la representación de procedimientos sistemáticos. Otro punto vital en el que concurren diversas argumentaciones es el que concierne al tipo de procesamiento que simula la computadora sobre el funcionamiento del cerebro, proponiéndose dos alternativas: el procesamiento en paralelo y el procesamiento en serie, siendo la primera de ellas de más aceptación debido a que se ha demostrado que el cerebro desarrolla procesamientos múltiples con intenciones específicas con un manejo de información disponible en sus circuitos reverberantes. En los años 70’, surge una nueva fuente de discrepancias relacionada con los enfoques que ven de lo particular a lo general y viceversa para la comprensión de aspectos inherentes al dominio cognitivo. Las aplicaciones de los descubrimientos y logros de esta ciencia han impactado a otras ciencias cognitivas, estimulando el desarrollo de trabajos que fortalecen cada día las relaciones entre la inteligencia artificial, la psicología, la neurofisiología, la lingüística, antropología y la filosofía.

La Lingüística: La historia de la lingüística es rica en aportes y desarrollos de investigaciones que han producido resultados dignos de incorporarse en las ciencias cognitivas; sin embargo en este resumen se destaca principalmente la obra de un autor particular (ver en Gardner una reseña minuciosa de los exponentes delárea). La lingüística como disciplina cognitiva debe mucho a ese visionario llamado Chomsky. quien discriminó y postuló reglas que subyacen en la comprensión y manejo del lenguaje que permiten formular o generar las oraciones correctas, reglas que pueden enunciarse formalmente. Su aproximación deductiva a la problemática de la identificación de las regularidades de la lengua, desechó la vía que involucraba el estudio de las locuciones particulares, para identificar que clase de sistema es el lenguaje, qué reglas lo definen, aplicarlo al examen de las locuciones particulares y expresar luego sus conclusiones en un sistema de carácter formal. La gramática transformacional, formulada con herramientas lógicas y matemáticas, marcó la historia del análisis lingüístico, al superar la reunión de datos relevantes e incorporar las construcciones abstractas a la teoría con la posibilidad de verificación predictiva. El énfasis de la misma se ubica en la sintaxis y las transformaciones dependen de la estructura ya que operan sobre cadenas de representaciones abstractas de oraciones luego de ser analizadas en sus categorías y constituyentes sintácticos. Asume que nuestra interpretación del mundo se basa en sistemas de representación inherentes a la estructura de la mente y que el lenguaje es el mejor modelo para conceptualizar los procesos de pensamiento, a la vez que destacó el carácter modular del lenguaje y la naturaleza innata de las estructuras que le subyacen. Como puede verse, ya manifestaba todos los signos de un cognitivista total. .

La Antropología: Para la antropología, apelar al nivel representacional ha sido una cuestión natural, y ello está presente en la historia de su desarrollo; una de las áreas, el estudio de los pueblos primitivos y sus creencias se ha interesado, especialmente, en la determinación de la naturaleza racional o no de sus individuos. Lévy-Bruhl, con el uso de métodos hermenéuticos que incluían mitos, relatos o transcripciones de diálogos, propuso un razonamiento distinto basado en una prelógica diferente a la del hombre civilizado, modificando su parecer, algunos años después para postular que la estructura fundamental de la mente humana es la misma en todas partes. La atención sobre el pensamiento se transformó de esta manera en un aspecto vital para los estudios antropológicos venideros. Así, en 1860, Tylor concluía que la cultura humana y la religiosa se producían por evolución natural de acuerdo con la ley de las capacidades mentales humanas, y agregó que aún la costumbre más irracional es producto de nuestra capacidad de razonamiento. Por su parte, Boas físico alemán, por la década de los 40’. Sugirió que cada cultura debía ser estudiada sin referencia a otras más o menos avanzadas y su atención sobre el proceso del lenguaje le llevó a pensar que éste era influido por el pensamiento, el estudio lingüístico, como una totalidad orgánica, se erige de vital importancia para todo estudio antropológico. Con base a su consideración, expresó que la diferencia principal entre los procesos mentales de los pueblos primitivos y los nuestros se encuentra en que las categorías desarrolladas por los primeros fueron elaboradas de manera burda e irreflexiva, mientras que los pueblos civilizados han sistematizado el conocimiento científico racional, pero que la capacidad cognitiva se halla presente en todos por igual, debido a lo cual no existe ningún fundamento científico para catalogar a un grupo humano como inferior a otro. Su punto de vista metodológico, que marcó toda una escuela dentro de los estudios antropológicos, recibió críticas y aportes teóricos, entre ellos el de Sapir y Whorf, quienes sostuvieron que el lenguaje utilizado por un grupo determina fundamentalmente su pensamiento. Jacobson, de la escuela de Prga, a su vez acotó sobre las propiedades de la mente humana y su influencia sobre la forma como opera el lenguaje, por ejemplo, la capacidad de percepción puede explicarse en función de polaridades por lo que se puede deducir que muchas distinciones del lenguaje, tal como los fonemas, la gramática y el significado, tienen carácter binario. Sin embargo, se debe a Lévy-Strauss el paso decisivo para en la manera de concebir los aspectos claves de una cultura como un fenómeno de naturaleza lingüística con los métodos de la lingüística estructural; destacó además la necesidad de comprender la forma en que la mente asimila, clasifica e interpreta información, por lo tanto, la representación mental. En su estudio sobre los sistemas clasificatorios, parte de la base de que el rasgo principal de toda mente es clasificar y que los primitivos y las personas civilizadas lo hacen guiándose más o menos por los mismos patrones y reflejan la misma especie de procedimiento analítico, confirmando la expresión esencialmente lógica de todo pensamiento humano... “la clase lo lógica presente en el pensamiento mítico es tan rigurosa como la de la ciencia moderna. (...) La diferencia no radica en la cualidad del proceso intelectual, sino en la naturaleza de las cosas a las cuales se aplica (...) El hombre siempre ha pensado igualmente bien; el mejoramiento no provendrá del presunto progreso de la mente humana, sino del descubrimiento de nuevos ámbitos a los que ésta puede aplicar sus inmodificadas e inmodificables facultades.” (Citado en Gardner, 1988:265); en este sentido, el reto del antropólogo es descubrir las leyes de orden que posee la mente. No obstante, Sperber, suscribió el modelo de lingüística para la antropología propuesto por su maestro como decisivo, pero objetó la escuela a la cual se adhirió argumentando que era equivocada, introduciendo como los más adecuados los provenientes de la escuela transformacionalista, con los modelos de Chomsky y Fodor; los procesos simbólicos forman parte de la dotación mental innata de cada sujeto. Con estos antecedentes, ya en la década de los 50’ con los trabajos provenientes de la teoría de la información, la cibernética, la lingüística, la semiótica, más adelante con los trabajos de investigadores como Jacobson y Morris, tomaba mayor concreción la idea de que toda acción humana debe ser explicada en función de sus aspectos cognitivos ya que el componente simbólicos es su atributo fundamental, y como un método adecuado para ello se presentó el análisis de componentes; los estudios antropológicos han incursionado en el campo de la psicología al incluir en sus áreas de investigación factores y procesos de percepción o facultades de razonamiento por parte de sociedades primitivas y orientales, aportando datos sobre la susceptibilidad de grupos humanos ante las ilusiones ópticas o el razonamiento, los cuales en particular sugieren que las operaciones fundamentales de pensamiento son idénticas en todas partes del mundo, estableciéndose la diferencia en el uso que se de a tales procesos. Rosch y otros, han favorecido el retorno al universalismo, en tanto que hoy la mayoría de los análisis antropológicos aceptan que todos los individuos en todo el mundo perciben y clasifican los objetos en forma aproximadamente similares, parecen pensar y procesar información de manera similar lo cual da cuenta de la identidad de los procesos mentales que caracteriza al ser humano.

Neurociencia: los estudios neurocientíficos han demostrado, a lo largo de su historia, dos tendencias bien definidas: una, la localizacionista, que atribuye conductas específicas a las regiones cerebrales, la otra, la holística, afianzada sobre la suposición de que el cerebro opera como una unidad integrada respondiendo como totalidad orgánica ante las pautas de estimulación. Descartes, sostuvo que diferentes partes del cerebro controlaban ciertas regiones del cuerpo y su contemporáneo Huarte, repuso que el cerebro operaba como una unidad, y esta dualidad es la que históricamente ha signado los estudios del sistema nervioso. Los representantes de la corriente holística, entre ellos Lashley, toman la idea de totalidad de la psicología Gestalt, que postula la percepción total inicial para luego llegar a los elementos componentes; él, concluyó acerca de la imposibilidad de que las mismas neuronas o sinapsis participen en dos reacciones similares frente a un mismo estímulo y desarrolló conceptos como el de equipotencialidad, que supone la capacidad de cualquier parte de un zona funcional cerebral para realizar cierta conducta; el de plasticidad que alude al potencial del sistema nervioso para asumir las funciones de las zonas objeto de daño. Sus resultados precisaban, también, de la reconceptualización del modelo asociacionista predominante en este campo de la ciencia, sin demandar un plano representacional, como buen discípulo de Watson, pero estableciendo la instancia de la elaboración de planes y estructura, además de la equivalencia del cerebro con la máquina analógica digital. La teoría localizacionista se ha fortalecido continuamente, desde el siglo XVII, por estudiosos del sistema nervioso como Galvani, Bell y Magendie, Müller; quizá fue Gall el más conocido por su teoría de la localización cerebral, con funciones separadas de naturaleza innata. Su doctrina nefrológica fue refutada por otros, como Flourens, con experimentos que concedían al sistema nervioso cierta especificidad pero apuntando hacia fenómenos que incluyen la unidad eficaz del sistema nervioso; pese a estas críticas, los descubrimientos apoyaban cada día mas las localizaciones cerebrales: los hallazgos de Broca, Wernicke, el estudio de pacientes con daño cerebral, fortalecían la especificidad cognitiva. En los años 60’, un grupo de neurólogos conocidos como los ‘holistas’, propugnaban el entendido del cerebro como un órgano altamente integrado y unitario que actuaba como tal en los procesos intelectuales, reconociendo la plasticidad del sistema nervioso, al tiempo que demandaron la explicación psicológica de la conducta. Las posturas conciliadoras de ambos terrenos no se hicieron esperar, de hecho a principios de la década de los 50’ se estaba procurando una integración o enlace entre ellas; la propuesta de Hebb apuntó a concebir una secuencia evolutiva que va desde el holismo hacia la localización, siendo su postura intermedia de considerable acogida por variados especialistas, entre ellos los del campo de la inteligencia artificial. Asimismo, los trabajos de Hubel y Wiesel, señalaron dos aportes de gran importancia para esta área: demostraron que la corteza visual posee, además de una organización especial, células específicas que responden a formas específica de información del medio y, además, que las experiencia tempranas desempeñan un papel crítico en el desarrollo del sistema nervioso junto con el momento evolutivo que tienen lugar, hechos estos que fueron corroborados en monos por Mishkin, en el año 1967, Hay resultados que apoyan ambas tendencias, como los obtenidos por Sperry, quien al estudiar sujetos epilépticos encontró que el hemisferio izquierdo domina los aspectos de lenguaje, conceptualización y clasificación, en tanto el derecho, atiende a las funciones espaciales y variadas formas de discriminación; pero, también encontró que el hemisferio derecho tiene capacidades lingüísticas que las reconocidas hasta ese momento y que mientras más joven es el cerebro sometido a daño, mayor posibilidad existe para que el hemisferio sano o ileso asuma las funciones del dañado o ausente. Luria, en la Unión Soviética, demostró que el desarrollo del sistema nervioso permite alterar la jerarquía de las funciones conductuales y que ninguna función cerebral es cumplida sin la participación de varias regiones anatómicas donde cada una de ellas hace una contribución característica e irremplazable. Como conclusión provisional de estas tendencias, en la actualidad se acepta el sistema nervioso, a nivel de procesamiento sensorial esta capacitado para respuestas específicas a determinadas pautas de información y que existe un compromiso neural en niveles de representación molares que incluyen ambos hemisferios; al mismo tiempo, la evidencia de la elasticidad y la plasticidad en función del desarrollo se incrementa. Puede decirse, entonces, que hay consenso en aceptar que existe cierto grado de localización con un marco general importante de plasticidad. También es oportuno mencionar otras líneas de investigación en la neurociencia; una de ellas está orientada hacia la estructuración horizontal o de procesamiento central, y la vertical o modular de los procesos cognitivos. Los procesos horizontales, estarían presentes en todo tipo de contenido, desde el aprendizaje de la música hasta el dibujo; los procesos verticales, pertenecen a un dominio particular y con reglas específicas y diferentes a otros dominios; otra línea de investigación aboga por la formulación de teorías adecuadas para cualquier actividad cerebral con miras a explicaciones pertinentes de dichas actividades: conocer todas las conexiones neurales que intervienen en la formación no nos habilita para entender el concepto. Por último, y ello constituye todo un desafío, es la búsqueda de conexiones explicativas entre el nivel neuronal y el nivel representacional.

La Psicología: Kant desconfiaba que otro campo del conocimiento que no fuese la filosofía se pudiese ocupar del sí-mismo cognoscente; la naturaleza de su objeto de estudio implica atender elementos que carecen de dimensiones espaciales o temporales, como el pensamiento, por lo cual no eran susceptibles de tratamiento matemático para su evidencia empírica. Sin embargo, a comienzos del siglo XIX, un trío de pensadores alemanes, Fries, Herbart y Beneke, creyeron que los procesos mentales podían medirse experimentalmente: las ideas poseen atributos de tiempo, intensidad y cualidad y, por lo tanto, pueden describirse esas relaciones a través de ecuaciones. De aquí en adelante, la investigación psicológica se nutrió de trabajos interesados en la evidencia empírica de las cuestiones psicológicas. Sobre la negación del pensamiento como proceso instantáneo o inconmensurable demostrada en situaciones experimentales, Helmholtz propuso que el conocimiento del espacio y otros vinculados con el entorno material, se va construyendo, no es innato; introdujo además la noción de inferencia como contribución del sujeto en el proceso de la percepción, en la creencia de que la visión razona implícitamente acerca de sus experiencias. Donders y Fechner también buscaron resultados cuantitativos, sobre la base de una perspectiva molecular de la psicología y sus procesos. El clérigo y filósofo Brentano se opuso a esta concepción y mantuvo para la psicología el objetivo de abordar la mente como entidad activa y creadora dotada de intenciones y su tema fundamental es el acto mental. Aunque esta inquietudes tuvieron poca resonancia en estos años de gloria del laboratorio de Leipzip y Wundt, interesado en la medición de experiencia consciente mediante el método de la introspección; pese a ello, sus ideas serían retomadas por los disidentes en la escuela de Wurtzburgo, por los psicólogos de la Gestalt y en el contexto de la inteligencia artificial en su concepción de la computadora como agente dotado de planes, intenciones y metas. Ante este estructuralismo surgió un movimiento, en el contexto pragmático norteamericano, denominado funcionalismo, que demandaba en énfasis en las operaciones de la actividad psíquica en su contexto real de vida; James, uno de sus máximos exponentes, fijó su atención en funciones o disposiciones tales como la percepción y el pensamiento con independencia de su contenido; de aquí al nacimiento del conductismo sólo había un paso. En 1913, Watson afirmó que la psicología debía obviar el funcionamiento de la mente y dedicarse al examen de la conducta objetiva y observable y ofrecer sus explicaciones sobre el modelo del arco reflejo; agregó que todos los organismos incluso los seres humanos, eran susceptibles de procesos de condicionamiento. De aquí en adelante, entre los años 20’ y 50’ de este siglo, con Skinner como el principal exponente, Hull, Spence y Thorndike entre otros, el conductismo se adueñó de la psicología, eliminando rigurosamente los elementos inobservables de sus teorías, particularmente todos aquellos de naturaleza mental, apelando a métodos experimentales de control y manipulación de variables, expresadas en términos de aprendizaje, en oposición al pensamiento y el razonamiento. Pero, a pesar de este clima epistemológico y metodológico, algunos estudiosos encontraron fundamentos que contradecían estos postulados; Tolman, en 1932, ante la limitación para explicar ciertas capacidades de los animales por medio de secuencias de acciones, introdujo la noción de mapas cognitivos en la resolución de problemas, utilizando un vocabulario intencionalista con términos como propósitos, expectativas y significado, sobre la base de variables intervinientes. Lashley, discípulo de Watson, en el año 48, manifestaba que el modelo del arco reflejo era insuficiente para explicar ciertas conductas; este puente neoconductista, que aceptaba la intervención de variables diferentes fue un puente importante para su declinación, pagando así su alto costo por obviar demasiados elementos importantes del comportamiento de los seres humanos, y ya en 1950, a raíz de la revolución cognitiva, se debilitó su dominio, sin dejar desconocer que produjo contribuciones específicas y de gran alcance para la comprensión de algunos hecho de referencia psicológica. Casi paralelamente al nacimiento y evolución del movimiento conductista, se gestaba otro cuyos antecedentes se remontan hasta 1809, cuando Ehrenfels, discípulo de Brentano, demostró que la cualidad perceptual de la percepción melódica debía ser considerada como una totalidad más que la suma de las notas que la conforman; sus ideas precursoras hicieron que Wertheimer fundara, en el año 1912, conjuntamente con Köhler y Koffka, la llamada psicología de la Gestalt, al publicar un trabajo donde al fenómeno Fi , que atiende al movimiento aparente de los rayos luminosos mostrados en secuencia, desestimando la hipótesis de la percepción por actuación única del movimiento del globo ocular, proponiendo en su lugar la organización que el cerebro hace de sus campos fisiológicos, como una evidencia de la concepción perceptual determinada por una configuración de totalidad. Estas premisas fueron aplicados a otros campos de la percepción, así como a la resolución de problemas con métodos holísticos, introduciéndose conceptos como los de fijeza funcional y las disposiciones en la comprensión de los impedimentos que se observan al tratar de solucionarlos. Se consideró que los procesos inteligentes suponían la capacidad para captar las relaciones fundamentales de una situación, caracterizando al pensamiento superior como productivo y novedoso. Las leyes de la Gestalt mantienen su vigencia en las áreas de la percepción, el pensamiento y el razonamiento. Sin embargo, el germen cognitivo se hacía sentir en algunos trabajos que comenzaban a ser conocidos en el campo psicológico. En 1932, Bartlett, habló de esquemas para referirse a estructuras cognitivas abstractas de datos específicos utilizados para la representación de conceptos en la memoria. Pero sin duda, en 1947, la aparición del trabajo sobre Psicología de la Inteligencia, elaborado por Jean Piaget, de la escuela de Ginebra, fue crucial para la psicología; su teoría basada en un enfoque evolutivo del desarrollo del conocimiento, sobre la concepción del origen biológico de la inteligencia, forma superior de adaptación biológica, y papel activo del sujeto en la construcción del conocimiento en la búsqueda del equilibrio adecuado a través de intercambios adaptativos con su medio. Se apoya en el formalismo lógico para expresar las estructuras básicas de pensamiento, el cual va adquiriendo características cualitativamente distintas en diferentes momentos del desarrollo, proponiendo en su aproximación cognitiva tres tipos de pensamiento: el intuitivo, el de operaciones concretas y el de operaciones formales, sobre la base de las operaciones lógicas que el individuo realiza; a su vez, introdujo nociones de espacio, tiempo y causalidad en su explicación teórica. Este programa de investigación de epistemología genética, es de tal trascendencia para los estudios psicológicos, que García (1991) afirma que todos tenemos dos teorías: la nuestra y la de Piaget. Otra postura teórica, sin el grado de sistematización que caracteriza a la propuesta piagetiana, es la de Vygotsky, alimentadas por el contexto del pensamiento marxista de la sociedad soviética, con su visión dialéctica del mundo, y la influencia de las teorías lingüísticas; de allí su énfasis en el componente sociohistórico y la naturaleza psicolingüística de lenguaje para integrar un marco psicológico, con rasgos cognitivos por la interdisciplinariedad asumida, la aceptación no reduccionista de los procesos mentales superiores y el papel de la conciencia, siendo estos últimos el objeto de estudio de la psicología. Es así como, a finales de la década del 40’, como ya lo señalamos en el apartado de la inteligencia artificial, se acentúan las limitaciones del conductismo y contribuyen a la legitimación de los estudios cognitivos el uso de la computadora y el auge de la teoría de la información, concretando para la década de los 50’ la llamada revolución cognitiva, gestándose en ideas y trabajos de los gestaltistas y psicólogos innovadores como Bartlett, Bruner, Miller, Piaget.y otros que anticiparon la legitimidad de la representación mental y de conceptos tales como intención, propósitos o resolución de problemas. Usando el modelo de la computadora, se inicia todo un programa de investigación sobre la cognición, que hasta el presente ha resultado sumamente productivo: Miller, descubrió límites precisos para el procesamiento de la información, con posibilidades de recodificación para superar esas restricciones; Broadbent describió el funcionamiento cognitivo a través de un diagrama de flujo, haciendo posible abordar los procesos psicológicos en sus dimensiones temporales y con independencia del contenido; Bruner, habló de estrategias para explicar la categorización o formación de conceptos; Neisser, Broadbent, Sperling, Sternberg, se ocuparon de aspectos relacionados con la teoría de la información, de los cuales han surgido modelos de memoria e hipótesis concernientes a su funcionamiento; Bransford puso de relieve los procedimientos inferenciales e integradores en los sujetos y de los esquemas organizadores para abordar el lenguaje; se han estudiado, además aspectos tan variados como la manipulación mental de figuras geométricas, las diferencias entre las diversas operaciones mentales que realiza el ser humano, las alternativas de representación proposicional o de imágenes, las facultades verticales y horizontales, la modularidad o el procesamiento central de la información, el procesamiento serial y el paralelo, y siguen presentes, también, interrogantes derivadas de estas mismas consideraciones, ya que con frecuencia, no se observan disposiciones concluyentes para esas inquietudes. Asimismo, puede mencionarse la vigencia del debate sobre las alternativas moleculares o molares de procesamientos cognitivos: de lo particular a lo general, o si se adecua mejor el enfoque de lo general a lo particular, a partir de un organismo dotado de estructuras capacitadas con sistemas específicos para procesar información que obtiene del medio, manipulándola, reorganizándola, que añora las posturas de la escuela de Wurzburgo o a los gestaltistas, entre otros. Y, como último, mencionaremos otra fuente de valiosas investigaciones, y es el que alude a la representación mental ciega de contenido o con la aceptación del mismo, bien bajo una forma única o con múltiples modalidades, ante lo cual la evidencia científica aún no ha dado su última palabra.

Para García (1991:44), la nueva disciplina cognitiva tiene variadas explicaciones sobre el pensamiento. Dice al respecto:

Así, además del punto de vista cercano a las teorías de Newell y Simon, existen posiciones cercanas al constructivismo piagetiano como las de Papert (1988), que desarrollan los lazos que tan cuidadosamente estableció Piaget entre su teoría y el computador. Otras posiciones tratan de recoger ideas y aportaciones evolutivas, como la distinción entre aprendizaje y desarrollo (Boden, 1988), o la existencia de discontinuidades y etapas diferentes (Minsky, 1986). Desde todas estas concepciones se ha empezado a hablar de las posibilidades de una ciencia cognitiva evolutiva (Rutkowska, 1987). Sin embargo, existe también otra concepción claramente innatista que, simple y llanamente, niega el desarrollo en cuanto tal, postulando únicamente la existencia de factores madurativos en la máquina biológica y la posibilidad de que algunos procesos puedan funcionar sólo tras la activación previa de otros... Esta posición [la]hemos llamado la concepción Chomsky-Fodor....

En opinión de Garnham y Oakhill (1996), las dos perspectivas teóricas principales sobre el desarrollo del pensamiento se representan en los enfoque piagetiano y el de procesamiento de la información; ambos, intentan identificar las limitaciones de la capacidad cognitiva en las diferentes edades y como pueden desarrollarse formas más avanzadas de entender el mundo a partir de las mas tempranas, la comprensión de conceptos en función de las edades y su influencia para adquirir otros nuevos. A pesar de ello, se muestran algunas diferencias, como la creencia de los teóricos de la información, acerca del desarrollo cognitivo como un proceso continuo, a través de la expansión cuantitativa de estructuras de conocimiento desestimando las diferencias cualitativas entre el pensamiento infantil y el adulto, en contraste con la noción de estadios cualitativamente distintos de Piaget, cada uno con estructuras y operaciones mentales propias y características; otra diferencia implica la manera como se construye el conocimiento: en los primeros, se asemeja a la colocación de ladrillos para una edificación, mientras que para los segundos, los estadios se soportan sobre procesos de asimilación y acomodación; los métodos usados son diferentes, aunque tienen el mismo interés. Pese a estas disimilitudes, se han hecho intentos por reconciliar en un solo cuerpo teórico ambas tendencias, que han demostrado ser, en sus postulados básicas, altamente compatibles. García (1991), agrega que en los estudios actuales sobre el desarrollo intelectual, confluyen dos líneas de investigación que atienden los procesos mentales como entidades cognoscentes que actúan sobre la base de la representación de la realidad, ellas son la perspectiva evolutiva en el estudios del pensamiento y la inteligencia humanas, representadas en las obras de Piaget y Vygotsky, de ineludible referencia para el esclarecimiento de la ontogénesis y el desarrollo de los procesos de orden cognitivo desde su énfasis diacrónico, y la otra se materializa en el análisis sincrónicos de los fenómenos cognitivos que promueve el enfoque del procesamiento de la información, con su metáfora de la computadora, el cual se convierte en una condición necesaria para la explicación y comprensión de la dimensión psicológica por la potencia demostrada estos últimos años en el campo de la investigación. Igualmente, destaca las tentativas teóricas de integración de estas líneas, aclarando que algunas de ellas han recibido la etiqueta de neopiagetianas, pero en realidad lo más adecuado sería denominarlas postpiagetianas, ya que comparten en mayor o menor medida, características y preocupaciones propias de la obra de Piaget, al tiempo que manifiestan la influencia decisiva de la psicología del procesamiento de la información.

Estas teorías recientes, a su vez, se distinguen entre sí por el peso que asignan a la postura evolutiva piagetiana o a los postulados del procesamiento de la información; asimismo, el énfasis otorgado a determinados rasgos contribuye a establecer diferencias significativas en ellas, una de ellas, de particular consideración, atañe a la importancia dada al concepto de estructura en el contexto del desarrollo y los cambios cualitativos en la explicación cognitiva; el punto de controversia se sitúa en si aceptar que la capacidad ‘estructural ‘ de procesamiento se incrementa con la edad o no, lo cual sirve de base para la explicación de las diferencias cognitivas entre niños y adultos. Las teorías de procesamiento de la información asumen que no existen cambios estructurales en la capacidad de procesamiento, más bien puede hablarse de cambios funcionales, y que el desarrollo es producto del progreso de dicha capacidad en el sujeto por una mejora en el uso de estrategias, el conocimiento que posee de la tarea y de sus propias capacidades cognitivas; las teorías postpiagetianas defienden, por el contrario, la existencia de cambios estructurales en la capacidad de procesamiento, en la que los estadios del desarrollo cognitivo tienen su referencia principal, posibilitando distintos tipos de pensamiento.

Tendencias actuales en la ciencia cognitiva

Seguidamente, revisaremos brevemente estas tendencias conciliadoras:

Teorías que acentúan el enfoque del procesamiento de la informaciön:

Estas aproximaciones conceden a los procesos un estatus de relevancia, resaltando el papel del conocimiento y las estrategias en su desarrollo, desestiman el concepto de estadios en el sentido piagetiano, y destacan la plena utilización de herramientas metodológicas de la psicología cognitiva, tales como los lenguajes computacionales, la simulación por computadora. Las propuestas de Robert Siegler y David Klahr se insertan en esta tendencia. Siegler, en trabajos publicados a partir de 1976, se ha ocupado de la búsqueda empírica de los precedentes evolutivos de las competencias piagetianas en edades anteriores, negando que existan cambios cualitativos con la edad; ha concluido que la mayor parte del conocimiento que tienen los niños está regido por reglas, las cuales determinan su caracterización; adicionalmente, encontró que los niños utilizan reglas de ayuda o retroceso, sistemas no perfectos pero razonables, aplicables a situaciones no familiares, que permiten el razonamiento similar en tareas totalmente distintas, produciendo un patrón de respuestas similares para esas tareas; además, expresó la importancia central del aspecto codificación vinculada al hecho de que el conocimiento se construye activamente, lo cual, en sus propias palabras es fuente de limitación de su propuesta, al no poder detallar como se realiza la codificación o por que algunas nociones, como el peso, se codifica antes que otras. Igualmente, no pudo explicar desde su teoría de las reglas los paralelismos y pautas de desarrollo universales que impregnaron sus hallazgos.

Por su parte, Klahr, del grupo de investigadores de la Universidad Carnegie-Melon, tomando las tareas piagetianas, ha descrito las competencias dentro de cada estadio en términos de sistemas de reglas de producción, formulables en un lenguaje de computación, que facilita la simulación por medio de la computadora. Sostiene que no hay razones para pensar que a partir de los cinco años la estructura básica del proceso cognitivo cambie con la edad, los cambios estructurales desaparecen así del panorama de desarrollo, el cual queda explicado con base en los conocimientos y las estrategias; su propuesta de estructura cognoscitiva, caracterizada por los sistemas reglas de producción, admite sólo cambios cuantitativos explicados por la capacidad de automodificación del sistema. Este modelo de sistema de producción, además de los trabajos en esta misma línea de Young, quien se dedica a los errores de sustracción y tareas piagetianas de seriación de varillas, y otros computacionales, formulados en lenguaje de alto nivel -LISP, PROLOG- , procurar algunas ventajas para la ciencia cognitiva: ofrecen explicaciones no contradictorias de los procesos que utilizan los niños para la resolución de tareas en cada estadio, y , para algunos, los sistemas de producción son más flexibles por la diferencia entre sus niveles; sin embargo, limitaciones se encuentran en estos modelos, en particular su incapacidad para explicar adecuadamente de aspectos homogéneos del desarrollo, y la insuficiencia de los sistemas de producción para cubrir teóricamente el desarrollo intelectual infantil. Garcia, atribuye estas situaciones a la juventud de estos enfoques, las cuales podrían ser superadas con modelos computacionales más potentes.

Teorías que acentúan el enfoque piagetiano (neoestructuralistas).

Las teorías del procesamiento de la información tienen dificultades para explicar aspectos puntuales de la teoría de Piaget: las secuencias universales y paralelismos de desarrollo, la imposibilidad para resolver determinados problemas en edades específicas y el fracaso en los intentos de entrenamiento para acelerar las capacidades para esa resolución de problemas. Con base en esta información, estas aproximaciones se proponen un análisis neoestructutalista del desarrollo intelectual a partir de los conceptos de estadio y de los cambios cualitativos y estructurales.

La primera de ellas, formulada en la década de los 70’, es la Teoría de los Operadores Constructivos, de Pascual-Leone, tiene sus antecedentes en sus trabajos en la escuela de Ginebra; toma el constructivismo piagetiano y el análisis de procesos del procesamiento de la información, sobre una concepción dialéctico contextual centrada en procesos atencionales y estilos cognitivos de los sujetos. Los operadores constructivos, o activadores de esquemas, son factores que se aplican sobre los esquemas, aumentando su fuerza o activación y dependen del organismo; tienen una base neurofisiológica, siendo de varios tipos: afectivos (A), para el aprendizaje y la modificación de esquemas (C,L), de los estilos cognitivos (F) y el operador (M) o espacio mental, que tiene un valor constante “e” y una variable evolutiva que se incrementa con la edad, representa la energía mental y se corresponde con la memoria operativa, responsable de los cambios que ocurren entre un estadio y otro, ya que aumentan con la edad. De esta manera, los procesos de maduración serían los causantes de los estadios piagetianos, por el aumento cuantitativo del espacio mental producto de la edad.

Hay dos posturas teóricas, de aportes originales, cuyos exponentes son Kurt Fischer y Graeme Halford. Desde 1980, Fischer y colaboradores han trabajado en una teoría de lo estadios que implica diferentes escalones (tiers) en la estructura de las destrezas cognitivas humanas; el concepto de destreza, tomado de Bruner, es definido como una habilidad que muestra cierta capacidad de generalización y especificidad en función de la necesidad de la tarea, y se desarrolla a partir de la interacción entre el medio y el organismo. Los cuatro escalones, llamados reflejo, sensoriomotor, representativo y abstracto, poseen un perfil de comportamiento y organizaciones características, en las que se van construyendo destrezas cada vez más complejas y su respectiva reorganización. Para los cambios en las destrezas intelectuales en cada nivel, se proponen reglas de transformación de intercoordinación, composición, enfoque, sustitución y diferenciación. Distingue en los sujetos una actuación óptima y otr a funcional en cada escalón, relacionada con el ambiente, lo cual rememora el concepto vygotskiano de zona de desarrollo próximo:

La Teoría de Halford, es la de más reciente aparición, aproximadamente en 1982; tomando de las matemáticas la noción de correspondencia de estructuras, define la estructura como un conjunto de elementos con relaciones o funciones definidas entre ellos. De allí, que describe cuatro estadios o niveles de organización cognitiva, basados en una jerarquía en las reglas de correspondencia entre estructuras utilizadas por los niños, en donde las correspondencias se van complejizando, la capacidad de procesamiento incrementándose debido a factores madurativos; esos niveles son: correspondencia de elementos, correspondencias relacionales, correspondencias de sistemas y correspondencias multisistemas.

Pero, la teoría que constituye quizá el intento de síntesis más elaborado entre las concepciones piagetianas y el enfoque del procesamiento de la información, de acuerdo con García, es la que expone Robbie Case, quien en sus trabajos que datan desde 1981, incorpora conceptos próximos a Vygotsky y Bruner. Incorporando la noción típica de estadios, que implica un desarrollo cognitivo en un tránsito de niveles cualitativamente distintos, supone que existen cuatro de ellos con sus correspondientes operaciones intelectuales de orden jerárquico: operaciones sensomotoras, relacionales, dimensionales y vectoriales, los cuales a su vez, se componen de subestadios comunes: consolidación operacional, coordinación operacional, coordinación bifocal y coordinación elaborada. Para explicar los mecanismos de transición entre estadios, apela a conceptos del procesamiento de la información; entre ellos, las llamadas estructuras de control, las cuales al complejizarse dentro de cada estadio y la adición de subrutinas, se coordinan para facilitar el salto cualitativo a un nuevo estadio. La estructura horizontal de cada estadio se compone de estructuras o estrategias de control con cierto grado de especificidad, independientes entre ellas pero que comparte una forma general subyacente. Los procesos de equilibración que en la perspectiva piagetiana eran responsables de la transición a un estadio diferente, son sustituidos por dos procesos: los invariantes funcionales, consideradas capacidades básicas que garantizan la integración jerárquica y la diferenciación de las estrategias de control; e otro proceso se representa por un conjunto de procesos cognitivos y afectivos, que disfrutan de las capacidades básicas y se enriquecen con el medio, y son la resolución de problemas, mediante el cual el niño es capaz de alcanzar estados agradables suprimiendo los que no lo son; exploración, sobre la base de curiosidad como motivación básica de búsqueda de lo nuevo, la imitación y observación de la conducta de otros, ayuda a la adquisición de las estructural operacionales producto de la evolución cultural; y, finalmente, la regulación mutua, que se entiende como una interacción bidireccional, como da del tipo escolar, de importancia crucial para el desarrollo. Es partidario, como otros teóricos del procesamiento de la información, del aumento de la capacidad de almacenamiento, en función de la eficacia con que el sujeto realiza las operaciones y libera recursos cognitivos, y no de la edad, así como de cambios estructurales específicos, controlados por los procesos señalados, que hacen posible el aumento de la eficiencia operacional cognitiva. La crítica hacia la teoría, comparte las su origen piagetiano, en que es excesivamente compleja, general y de difícil operativización.

Esta breve revisión de las teorías recientes, insertas en la aproximación de la psicología como ciencia cognitiva, merece ser ampliada y discutida en contextos que propicien su análisis con miras a profundizar el conocimiento de los procesos mentales en tiempos en que concepciones, aparentemente irreconciliables como la evolución y la cibernética, han demostrado compartir responsabilidades científicas determinantes para la comprensión del pensamiento humano.

Paralelamente, el panorama de la ciencia cognitiva y de sus principales fuentes de formulación conceptual provenientes de la psicología, la inteligencia artificial, la lingüística, la antropología, la filosofía y la neurociencia, tiende a ser un escenario de enorme actividad intelectual que se traduce en constantes innovaciones y aplicaciones interdisciplinarias de gran utilidad, con manifiesta propensión a difuminar los límites que separan corpus teóricos particulares, ya sobre la aceptación inequívoca de la naturaleza representacional de procesos humanos de pensamiento y cognición.

1.3. Los elementos constitutivos del pensamiento

¿De qué se compone el pensamiento? Esta pregunta ha recibido variadas respuestas, con fidelidad hacia de la corriente epistemológica en el cual se inserta la correspondiente escuela o tendencia psicológica desde la cual se formula la propuesta. Sin embargo, independientemente de la postura adoptada, las opciones se aglutinan en torno a que son las imágenes y los conceptos los elementos que constituyen el pensamiento. Llegar a esta simplificación no es del todo una señal de que la problemática resulte sencilla de abordar; las implicaciones filosóficas detrás del concepto o de la imagen trascienden los límites estrictamente psicológicos para incorporar tras sí otros determinantes, en conexión con aspectos antropológicos, sociológicos, lingüísticos, formales, etc., que en alguna medida demandan la pertinencia en la explicación sobre qué es un concepto o una imagen, cual es su naturaleza y qué elementos están asociados a su definición. Una vez lograda esta simplificación surge, además, una nueva interrogante y es la que señala hacia la manera como se organizan o relacionan esos elementos de los cuales se forma el pensamiento. Seguidamente, revisaremos estos planteamientos (Garnham y Oakhill, 1996; Gardner, 1988; García, 1991) con miras a identificar criterios que contribuyan a integrar un modelo de estilos de pensamiento.

1.3.1. - Componentes del pensamiento

Ya Aristóteles, en su tratado ‘Sobre el alma’ había llegado a la conclusión de que todo pensamiento es imposible sin una imagen; sin embargo, por el año de 1896, la Escuela de Würzburgo postuló que el pensamiento a menudo no poseía imágenes, no así la réplica de estudios empíricos de Tichener sobre esta escuela, quien trabajó bajo la premisa de que las imágenes acompañan todos los procesos de pensamiento, postura que ha sufrido los embates del conductismo, para luego alcanzar su reivindicación. El papel de los conceptos como inherentes al pensamiento ha sido terreno, más bien, del debate filosófico, que de negación de su condición psicológica. En la actualidad, se considera que el pensamiento se constituye básicamente en relación con tipos de elementos: los conceptos o categorizaciones y las imágenes.

1.3.2. Los conceptos o categorizaciones

Categorizar o formar conceptos es un atributo que los seres humanos poseen, desde edades muy tempranas. Implica la agrupación de elementos que se examinan semejantes para conformar un eje que en sí mismo reúna todas las condiciones necesarias y suficientes para la formación del concepto. Ello hace posible que el hombre pueda actuar sobre su entorno y sobrevivir a los múltiples desafíos que éste le impone, porque si él no es capaz de establecer patrones recurrentes en su experiencia no puede, en consecuencia, reaccionar ante situaciones diversas, bien sea que pongan en peligro su vida o se relacionen simplemente con una actividad lúdica. Esta capacidad que condiciona, de manera elemental la supervivencia, parece privilegiar no solamente al hombre. Los científicos cognitivos que estudian el comportamiento animal reconocen procesos de formación de conceptos, intención y toma de decisiones que tienen efectos importantes en el comportamiento animal; la evidencia señala, asimismo, que “el sistema nervioso central de los animales opera con los mismos principios básicos de los cerebros humanos y no se han descubierto mecanismos sinápticos o neuronales específicamente humanos” (Griffin, 1991). El hecho de que los animales categorizan, se evidencia, por ejemplo, en la respuesta similar que manifiestan ante un factor amenazante, sea este un depredador natural, el hombre o su potencial fuente de alimentación, o bien en la transmisión de información semántica, mediante llamadas o señales de alarma que los monos verdes ejecutan, advirtiendo del tipo específico de amenaza que acecha y la conducta de escape adecuada.

Problemas filosóficos en torno a la categorización: Categorizar o conceptualizar implica, ya lo dijimos, ineludibles referencias de tipo filosófico, las cuales pueden resumirse, brevemente, en torno a las siguientes inquietudes:

a) La primera de ellas alude a la interrogante de: ¿Qué es un concepto?. La respuesta más general expresaque es un conjunto de condiciones necesarias y suficientes para ser miembro de la categoría a la que el concepto pertenece, siendo cada condición individualmente necesaria para ser miembro, y todo el conjunto suficiente.” (Granma y Oakhill, 1996:38). Sin embargo, esta definición no cubre totalmente la diversidad de concepto que el ser humano es capaz de formar, particularmente si estos pertenecen a la esfera cotidiana. A este respecto, Wittgenstein, en sus últimos trabajos, resaltó el hecho de que los conceptos cotidianos poseen una estructura vaga y que los miembros de una categoría a menudo se encuentran relacionados, no mediante un conjunto de rasgos comunes sino mediante un conjunto solapado de rasgos, que lleva a los conceptos a guardar cierto parecido familiar entre unos y otros; y éste no es precisamente el ideal del conjunto necesario y suficiente. Johnson-Laird propuso, para los conceptos que dependen de constructos mentales, debido a que no tienen correlato objetivo con el mundo físico, llamarlos artefactos y para aquellos referidos a cosas que existen naturalmente en el mundo, como animales y plantas y minerales, el concepto de clase natural. Kripke y Putnam se han abocado al estudio de las clases naturales, éste último afirmando específicamente, que los significados no están en la mente e introdujo, además, el estereotipo para significar los conceptos de clase natural, los cuales se caracterizan por presentar una estructura altamente correlacionada. Los estereotipos, aunque están en la mente, no representan el significado de los términos de clases naturales.

b) La segunda inquietud revive la eterna disputa entre el realismo y el idealismo, al plantear si las categorías de las que se componen los conceptos reflejan estructuras del mundo que son independientes de la capacidad para formarlos o, por el contrario, las categorías con su respectiva estructura de este mundo se imponen decididamente sobre nosotros. Gardner, (1988), quien maneja indistintamente los términos de concepto, categorización y clasificación, identifica dos posiciones acerca de la manera de categorizar el mundo. La primera de ellas, que puede denominarse la concepción clásica, fue compartida tanto por filósofos, psicólogos y científicos, y establece como procedimiento para crear o adquirir conceptos, la selección de una categoría y un conjunto de rasgos definitorios. Las características determinantes de esta tendencia pueden ser resumidas en tres puntos elementales, que muestran una visión extrema de las categorías:

1.- Las categorías son arbitrarias. No hay nada en el mundo ni en nuestro sistema nervioso que determine de qué manera podemos recortar nuestras observaciones. Las culturas y lenguajes hacen esta tarea por nosotros. Los rubros pueden agruparse de cualquier cantidad de modos a fin de constituir categorías, y las personas pueden aprender a identificar o construir esas categorías, definidas por sus respectivas culturas;

2.- Las categorías poseen atributos definitorios o críticos. Todos los miembros de una categoría comparten estos atributos, ningún miembro de otra categoría los comparte, y no existe superposición alguna entre los miembros de una categoría y los que no lo son.

3.- La intensión (o suma de atributos) de una categoría determina su extensión (la cantidad de objetos del mundo que la integran en calidad de miembros). Por lo tanto, no tiene ningún sentido pensar que una categoría puede estar dotada de una estructura interna tal que algunos de sus ítems sobresalgan respecto de los demás como miembros ‘mejores’ . Un triángulo es grande y rojo, o no lo es. Los límites son estrictos y no hay confusión posible.” (supra: 367-368)

Esta posición clásica fue popular hasta mediados de siglo, cuando Wittgenstein, sus seguidores y los trabajos de la cognitivista Eleanor Rosch, formularon importantes críticas a la creencia de que las categorías venían dadas arbitrariamente por la cultura y que el individuo no hacía más que reflejarlas; Rosch, máxima representante de la posición natural de los conceptos, demostró en sus estudios cromáticos la influencia de ciertos factores cognitivos perceptuales subyacentes sobre la formación y referencia de las categorías lingüísticas, donde el léxico contribuye a codificar aspectos ya advertidos por el sujeto y no de manera contraria; estas conclusiones tienen un alto grado de relevancia también en otros campos. De la misma manera, afirmó que en el mundo de la realidad cotidiana, lo frecuente es que en las características definitorias de una categoría exista un alto grado de correlación entre características no independientes ente sí; en lugar de la independencia de rasgos que postulaba la concepción clásica; sugirió, como complemento para facilitar la clasificación, remitirse a la clase de acciones que los objetos provocan o permiten y discernir entre categorías de nivel básico, propio de los niños, en que los objetos que comparten similitudes perceptuales y rasgos funcionales, y los de nivel supraordinado, que representa un nivel superior del concepto y el subordinado, perteneciente a la misma familia del concepto. Propuso, también, una estructura básica que integra una amplia gama de categorías que giran en torno a un miembro central que denominó prototipo, el cual comparte la mayoría de las características de los miembros de la categoría y muy pocas con elementos pertenecientes a otras clases, y además, es construida por el hombre. Los estudios de Rosch mantienen perspectivas comunes con los estudios de la fisiología de la visión cromática y con los trabajos de la lógica difusa de conjuntos..

Otros que contribuyeron a debilitar la concepción clásica fueron Quine, Goodman, Kripke y Putnam, estos últimos haciendo referencia a:

...que existe una estructura real del mundo y que gran parte de nuestros equipos conceptuales están destinados a captar esa estructura auténtica y accesible... y que hay múltiples objetos ... que es imposible definir en función de una lista de atributos característicos. A todos los fines prácticos, estos conceptos carecen de definición, de intensión; sólo tienen extensión, o sea, una relación que enlaza al término con su referente concreto en el mundo (supra:379).

Actualmente, dentro de las ciencias cognitivas predomina el criterio de que la categorización se fundamenta en información procedente del mundo natural y los seres humanos, estamos equipados para responder a esa información; la mayoría de las veces, el lenguaje es posterior a la discriminación lograda por el individuo y no controla su categorización del mundo.

c) La tercera preocupación, se circunscribe a cuales son las categorías ontológicas más generales que se usan para reflejar el mundo. Una de las categorías básicas que posee gran consenso es la de los objetos; otra propuesta es la de los acontecimientos, blanco de desacuerdos que argumentan que es una categoría compuesta de objetos y las relaciones entre ellos.

1.3.2. Aspectos psicológicos en torno a la categorización

a.- Modelos de redes y rasgos

Ante el interés de la investigación psicológica acerca de cómo se representan los conceptos en la mente, surgieron dos posturas: las teorías basadas en redes y las teorías basadas en rasgos, a veces entendidas como teorías de la memoria semántica por considerarse que el significado se ubica en la memoria del individuo.

Las teorías de redes provienen del área de la inteligencia artificial. Los estudios de Collins y Quillian -1968, 1969, 1972- (Garnham y Oakhill, 1996, Gardner, 1988), representan el concepto por un nudo no analizado y las relaciones entre ellos por vínculos que al unir los nudos forman una red; la ubicación del nudo determina el significado. La red semántica ha sido útil para ilustrar las relaciones taxonómicas entre los conceptos de los objetos, utilizando los vínculos es-un y tiene-prop. Por ejemplo, en la taxonomía específica de clases animales y clases de perros, el vínculo es-un representaría la relación entre el nudo perro y el nudo animal; si se añade el vínculo tiene-prop a la jerarquía perro para designar la propiedad de ladrar, se hará innecesario representarla para los animales que se encuentren por debajo de la jerarquía, ya que heredan esa propiedad -Jerarquía heredada -. Estos autores consideran que las jerarquías es-un, al ser utilizadas para almacenar información redundan en un principio de economía cognitiva.

Las teorías de rasgos (Schaeffer y Wallace, 1969; Smith, Shoben y Rips, 1974), parten de la idea de que el concepto puede ser representado por una colección de rasgos extraídos del conjunto de aquellos que se usan repetidamente para especificar el significado de palabras diferentes, de aquí que un concepto específico o las palabras que les corresponden, poseen más rasgos que aquellos de tipo general; este análisis de componentes responde a un enfoque etnocientífico. El estudio de los términos del parentesco, por ejemplo, realizado por Wallace y Atkins en 1960 (ver descripción detallada en Gardner, 1988), discrimina cada componente por un término como mínimo, y cada término es definido de manera tal que no se superpone a ningún otro, cumpliendo el análisis con la meta de explicar exhaustivamente la variedad de términos que aluden a las relaciones de parentesco.

Sin embargo, hay señalamientos que declaran que ambos modelos, redes y rasgos, comparten las siguientes características: son formalmente equivalentes, responden a la concepción del concepto como conjunto de condiciones necesarias y suficientes y se refieren a conceptos concretos, obviando aquellos de naturaleza relacional que resultan de suma importancia para la explicación de la formación del pensamiento.

b.- Teorías del prototipo:

Están basadas en los trabajos de Rosch, sobre el prototipo, definido como el ejemplo más típico de una categoría. El prototipo produce algunas inquietudes acerca de cómo se representan mentalmente los conceptos: si se toma como prototipo a un ejemplo real o uno imaginario que toma un valor más típico al aglutinar cada rasgo perteneciente al concepto; la otra inquietud reside en cómo se diferencia un prototipo de un concepto perteneciente a la misma clase al momento de representar el significado mentalmente. Versiones de estas teorías, se orientan , más adelante, a identificar cómo se decide a cual o cuales categorías pertenece un objeto. La consideración de Putnam, de que la representación mental se organiza en torno al estereotipo, lleva implícito que existen propiedades fundamentales de los objetos que no forman parte del estereotipo, propiedades estas que deben ser descubiertas por el mundo científico. Las nociones de prototipo y estereotipo parecen estar relacionadas estrechamente con la idea de que la selección de la calidad de miembro de una categoría se basa en el juicio de similitud.

Otra forma de representación mental estaría basada en ejemplares, que asume que la memoria semántica se compone de una colección de representaciones de ejemplos particulares de un concepto, más que de prototipos abstractos, los cuales debían acompañarse de la especificación del criterio métrico de similitud; algunos trabajos provenientes de los modelos de procesamiento distribuido en paralelo señalaron que los criterios métricos de similitud pueden aprenderse mejor con los modelos conexionistas.

En un trabajo sobre aprendizaje de conceptos artificiales, Brooks, en 1978, 1983, (en Garnham y Oakhill, 1996:44), demostró que “el sólo aprendizaje de ejemplares puede, bajo ciertas circunstancias, resultar una manera de aprender conceptos mejor que el intento deliberado de averiguar condiciones definitorias, ya que conduce a un aprendizaje implícito de los conceptos”.

c.- Teorías basadas en teorías: se han introducido algunas alternativas para explicar la complejidad de la representación mental de las categorías naturales, y algunos psicólogos reconocen que la idea del prototipo resulta insuficiente para la descripción de la representación mental de los conceptos naturales. Esta afirmación se realiza con base en las teorías que maneja en hombre común, las cuales determinan cuáles son las propiedades fundamentales de las clases naturales; la utilidad de estas teorías legas ha sido resaltadas en trabajos como los de Medin, en 1985, quien destacó la importancia de ellas en la clasificación, y los de Carey, en 1985, que puntualizan la influencia las teorías del mundo natural sobre la categorización en niños. Smith, en 1988, en una perspectiva integradora, que un concepto de clase natural, se compone de un prototipo y de un conjunto de propiedades nucleares que se derivan de la teoría subyacente del dominio al que pertenece el concepto.

La teorización por parte del hombre común ha sido objeto de un sustancial interés en los últimos años. La importancia que se le comienza a reconocer al conocimiento derivado de las teorías implícitas, como representaciones individuales basadas en la acumulación de experiencias personales, se refleja en la celebración de 1992, de la I Reunión Científica sobre Teorías Implícitas, en la Universidad de La Laguna (España) y en la variedad de estudios orientados a discriminar aspectos propios que las caracterizan; es así, que encontramos (Rodrigo, Rodríguez y Marrero, 1993) trabajos que abordan aspectos particulares de ellas, como por ejemplo, las concepciones infantiles sobre los seres vivos, las concepciones educativas de los padres, el pensamiento de los profesores sobre la enseñanza, las concepciones sobre la mujer trabajadora, entre otros. Lo común de estos trabajos radica en asumir que

...la construcción de las teorías implícitas es una función invariante en nuestra especie. No sólo la realizan los niños y adultos de nuestra sociedad occidental, sino los de todas las culturas. Esta función viene garantizada por tres tipos de anclajes básicos: biológico, social y representacional... El niño no espera a que los adultos tracen en torno a él el soporte social que necesita para su desarrollo. Por el contrario, busca activamente, estructura e incluso demanda la asistencia de los adultos para aprender a resolver problemas de todo tipo... no necesita al adulto para que le enseñe, sino para proporcionarle el soporte interactivo básico que precisa para construir las categorías del mundo social...

Aunque el conocimiento se construye en marcos sociales y se beneficia del conocimiento construido por los otros, no debemos olvidar que está representado en la mente de los individuos... Es el individuo también el que tiene que hacer frente a las demandas de su entorno, tiene que pensar, decidir y actuar en relación a éstas. Para todo ello, necesita contar con interpretaciones sobre los fenómenos, tener argumentos sobre el mundo para poder alimentar sus procesos cognitivos. Pero además, sin una adopción personalizada del conocimiento, el individuo sólo tendría recursos para desenvolverse en las situaciones prototípicas que la cultura define... Por ello, aún contando con que el individuo pueda elaborar modelos culturales de conocimiento, también es capaz de elaborar sus propias síntesis de conocimientos ajustadas a las demandas situacionales y las metas personales. (supra: 60-62).

Hay otros aspectos del concepto que representan asimismo, una fuente de interés adicional: la combinación conceptual y las categorías básicas. La combinación conceptual, tiene dos perspectivas: la combinación referida a la tipicidad y la que alude al significado. En cuanto a la primera, la teoría clásica presume la combinación de conceptos simples en la formación de los conceptos complejos, pero esta explicación no satisface cuando se refiere al prototipo o a la tipicidad, ya que se genera dificultad al integrar dos prototipo para producir otro concepto a partir de ellos. Una opción para solucionar este problema ha sido formalizar la teoría del prototipo mediante la teoría de los conjuntos difusos de Zadeh, propuesta por Rosch en 1965; pero, al demostrarse que esta vía conducía a predicciones incorrectas sobre la tipicidad, se plantearon formalizaciones alternativas.

La segunda perspectiva, la de la combinación de significados, tiene aportaciones no sólo de la psicología sino, también, de la semántica formal, las cuales han contribuido a tratar problemas tales como el significado diferente de la misma palabra en función del contexto y su asociación a otra palabra, o cómo un adjetivo modifica al nombre; por su parte, Barsalou en 1985, al hablar de conceptos ad hoc, creados sobre la marcha, y de los derivados del objetivo, en la que los miembros de la categoría se relacionan por compartir un objetivo particular, arguyó que ellos pueden ser expresados mediante sintagmas y no de palabras individuales, y desde el área del procesamiento de la información, las teorías de redes y rasgos, se interesaron, más bien, a las relaciones taxonómicas o jerárquicas entre los conceptos. Lo cierto es que, tal como opinan Garnham y Oakhill, las teorías psicológicas de la categorización y conceptualización han ignorado, en su gran mayoría, otros tipos de relaciones entre conceptos, como por ejemplo, tratar sincategoremáticamente conceptos muy abstractos expresados mediante y o si... entonces . .

Las categorías básicas, basadas en los estudios de Rosch, sugieren la idea de que ellas dependen de una organización jerárquica, siendo la categoría básica el nivel más natural; estas categorías tienen la propiedad de evocar imágenes concretas, procesarse rápidamente y con más acierto, compartir muchos rasgos con otros objetos de la misma categoría y pocos con las opuestas, lo cual dice de su alta similitud intracategorial y alta oposición intercategorial. Tversky y Hemenway, en 1984, argumentaron que esos objetos del nivel básico, en vez de rasgos en común bien podrían tener partes en común y, en este orden de ideas, Medin y Murphy acentúan que la importancia del nivel básico radica en la estructura correlacional de los rasgos que ella posee, la cual sienta las bases para organizar las teorías implícitas que consideran subyacen a la categorización.

Existe una corriente, surgida en los años setenta, derivada de las teorías constructivistas y d la inteligencia artificial con exponentes como Minsky, Schank y Abelson, Rumelhart y Ortony (García, 1991), que enfatiza la organización del conocimiento, bien en imágenes o conceptos, sobre las nociones de guiones y esquemas. Los guiones son esquemas situacionales que representan acontecimientos organizados secuencialmente, que facilitan la construcción de una representación coherente del discurso y permiten resolver problemas de referencia; por ejemplo, el guión de un restaurante especifican un conjunto de escenas: entrar, solicitar mesa, los personajes que laboran allí, los objetos, elegir el menú, y otros. Desconocer la secuencia implica para el sistema cognitivo la incapacidad para representar coherentemente el conocimiento de aspectos que aludan al respectivo guión. Schack y Abelson (supra: 47-48) “apuntan algunos datos procedentes de estudios informales en los que se sugiere que a partir del primer año de vida, y quizás antes, los niños poseerían ya estructuras de conocimiento semejantes a los guiones, en algunos campos relacionados con la rutina diaria..”.

El esquema ‘noción’ que tiene su origen en la filosofía kantiana, expresa estructuras de datos que representan los conceptos genéricos ya presentes en la memoria, organizados jerárquicamente, cuyos valores ausentes deben ser cubiertos con información ambiental o inferencia. Estudios recientes sobre la adquisición de conceptos y categorías apuntan hacia la construcción de estructuras prototípicas parecidas a los esquemas.

1.3.3. Las Imágenes

La imagen como elemento constitutivo del pensamiento surge en cuanto a la posibilidad de un pensamiento que no dependa del lenguaje, o por lo menos no del lenguaje entendido como referente lingüístico o alfabético. El interés por ellas data de la época de los griegos, y luego los filósofos, los psicólogos especulativos y los primeros psicólogos experimentales, entre ellos Wundt, quienes no desestimaron “la capacidad humana de convocar ‘en el ojo de la propia mente’ diversos objetos, escenas y experiencias - entidades que no están presentes en el entorno, y que quizá jamas existieron.-” (Gardner, 1988:349).

Debido a que la naturaleza de su proceso no estaba al alcance del paradigma empirista dominante en la ciencia psicológica de principios de este siglo, se relegó su atención hasta que en 1960, Paivio, en el contexto del aprendizaje verbal, demostró que las palabras concretas, es decir, los objetos fácilmente imaginables, se recordaban mejor que las palabras abstractas, lo cual se explicaría por la hipótesis de la codificación dual, que propone la codificación de las palabras concretas de manera verbal y visual, mientras que las palabras abstractas sólo se codifican de manera verbal.

Investigadores de la Universidad de Stanford, con Shepard al frente, conjuntamente con su colega Metzler, al principio de la década de los 70, se dedicaron a examinar la forma en que los individuos elaboran representaciones que involucran imágenes visuales; se analizaron aspectos tales como la representación de objetos con o sin familiaridad y la similitud física compartida, a partir del uso de figuras geométricas, una de las cuales se mostraba rotada, y de otras formas representables en imágenes, como por ejemplo, un mapa. Los resultados, en franca correlación con alguna principios de la gestalt, evidencian que la imaginación de los sujetos simula la rotación del modelo a un ritmo constante para establecer las comparaciones respectivas con criterios de proximidad, simetría y conservación, entre otros; estos mismos resultados se aplican, con respecto a la audición, en la representación y transformación de sonidos musicales. Para Shepard, los cognitivista que postulan solamente las representaciones de tipo proposicional, han equivocado el camino, ya que las imágenes mentales forman parte de las capacidades humanas que han evolucionado en el transcurso de millones de años. Gardner (supra, 351), sostiene, con relación a los trabajos de este investigador, que al mismo tiempo que hizo creíble una modalidad análoga de representación mental.

Sus notables pruebas eran sistemáticas y parecían reflejar una capacidad básica del sistema de la cognición. Además, esas escurridizas imágenes internas desembocaron en una ley psicofísica simple pero muy sólida: el tiempo que le lleva al sujeto juzgar la identidad (o falta de identidad) entre imágenes es una función monótona de la distancia física entre ambas formas. Así, uno de los constructos teóricos menos tangibles de la psicología había dado por resultado una ley científica de llamativa precisión....

Otro exponente de las imágenes mentales es Kosslyn, cuyo programa de investigación en el año 1979, contemplaba tres líneas básicas: búsqueda de datos empíricos sobre la existencia y flexibilidad de las imágenes mentales, su autonomía y de qué se componen dichas imágenes. Uno de sus famosas experiencias consistió en mostrarles a los individuos un mapa de una isla imaginaria, tratando de recordar luego, los lugares que en él se encontraban, para después imaginar que esos lugares se movían. Sus conclusiones pueden resumirse de la manera siguiente: en la tarea del mapa, los sujetos elaboran una representación análoga y no mediante palabras, es decir que las imágenes tienen una propiedad análoga en oposición a la digital, lleva más tiempo recorrer imágenes de objetos con gran tamaño, las que se desplazan en tres dimensiones o detallar sus pormenores, que cuando los objetos son pequeños, se desplazan en superficies planas y se buscan rasgos generales; se corroboró, asimismo, la autonomía de las imágenes. Finalmente, introdujo la idea de que en la producción de imágenes, hay elementos descriptivos, semejantes al lenguaje, y figurativos.

Estos hallazgos fueron simulados en computadora, mediante dos clases de estructuras de datos: una matriz de superficie, que corresponde a la memoria visual de corto plazo, y los archivos de memoria a largo plazo; esta simulación permitió introducir variantes al modelo original, como el barrido o scanning, y erradicar las críticas al problema del homúnculo (creencia en la visión por parte del ojo mental), al funcionar la simulación adecuadamente. Otros estudios han contribuido a fortalecer los hallazgos de Kosslyn, uno de ellos el de Farah, quien en 1984 identificó un componente en el hemisferio izquierdo del cerebro humano que, como producto de cualquier lesión, es capaz de anular la generación de imágenes.

Johnson-Laird, por su parte, ante la polémica sobre las imágenes, sugirió la posibilidad de orientarse a la búsqueda de niveles de representación, a la vez que introdujo la teoría de los modelos mentales, que puede aplicarse también como teoría sobre la representación de la realidad y en la comprensión del discurso. Desde un contexto de investigación interesado en el razonamiento y la inferencia logística, definió el modelo mental como “una representación interna, abstracta, cuya estructura es idéntica al estado de cosas que representa, y que puede ser manipulado y evaluado. De esta manera, los modelos mentales que el sujeto construye subyacen y median la relación que éste mantiene con la realidad...” (García, 1991:50) y destacó la preferencia natural por parte de los individuos en trabajar con un modelo único Particularmente, habló de dos niveles de representación del discurso: una, relativamente superficial, cercana a la forma lingüística y otra más profunda, en forma de un modelo mental de lo descrito en el discurso; la forma de representación dual discursiva es secundada por autores quienes la han aplicado en la comprensión de textos (Van Dijk, Kintsch, Just, Carpenter), en la solución de problemas aritméticos (Kintsch, Greeno) y en el campo educativo (Gagné y Glaser).

Pylyshyn, en 1981, critica los trabajos de Shepard y Johnson-Laird, por considerar que constituyen sólo una porción de los estudios dedicados a la representación espacial y que no hay razón para considerar la imagen como una forma separada de la representación mental. Por lo contrario, una imagen es producto de reglas y proposiciones codificadas simbólicamente, o lo que es lo mismo, el sujeto, a partir de los conocimientos codificados en proposiciones, elabora una imagen. Para Pylyshyn, la cognición es computación, de allí que su perspectiva se realiza sobre la base de lo que supone el comportamiento de un sistema; identifica propiedades intrínsecas del sistema o la arquitectura funcional del sistema, que constituyen los procesos que reflejan el funcionamiento de las leyes naturales, y propiedades externas, que son las aquellas que pertenecen al mundo externo que debe ser representado. La arquitectura funcional contempla dos procesos distintos, unos que demandan para su explicación de alguna forma de representación, los cuales define como cognitivamente penetrables, y los que no requieren de ella, los cognitivamente impenetrables, ubicando las imágenes en el primer grupo, al igual que gran parte de los procesos de la cognición humana. Garnham y Oakhill, hablan de codificación en forma de mapas mentales para aludir al conocimiento espacial complejo, afirmando la evidencia que existe sobre que esos mapas guardan similitud con mapas de redes más que con los de tipo topográfico, por la característica de contener rasgos de importancia en torno al objeto más no gozan de precisiones en todos los aspectos. Se desprende de esta premisa que los mapas mentales se basan en la codificación de rasgos relevantes o puntos clave; la explicación de que los sujetos utilizan el razonamiento de tipo proposicional en el conocimiento de áreas que por su amplitud, se tornan imprecisas, ha sido confirmada en los trabajos de Stevens y Coupe, en el año 1978.

Fodor y Pylyshyn destacan la representación como marca distintiva de la psicología cognitiva, y la representación se caracteriza, a su vez, por estar en lugar de otra cosa. Goodman, en un trabajo en 1976 (Perner, 1994), advirtió, la necesidad de distinguir entre representar y representar-como , de acuerdo con lo propuesto por Frege, de diferenciar entre referente y sentido en las descripciones referenciales.

Al mismo tiempo, a raíz de los trabajos de Pylyshyn, los debates en torno a las imágenes se han centrado básicamente hacia la naturaleza analógica o proposicional de las imágenes. Los partidarios de la versión analógica, entre ellos Paivio, Finke, Kosslyn, Shepard, a pesar de que reconocen las limitaciones de la hipótesis dual expuesta por el primero de ellos, sostienen su vigencia y le confieren además un estatus especial a la imagen mental, la cual manifiesta una correspondencia directa e isomórfica entre característica y relaciones del mundo real con el representado. Los teóricos proposicionales, con Pylyshyn como su máximo exponente, Anderson, Bower, toda forma de representación mental puede reducirse a un formato único representacional de naturaleza abstracta y proposicional, con propiedades semánticas y sintácticas, con valores de verdad y la posibilidad de representación de entidades pictóricas o no; todo ello, redunda en economía y parsimonia para la representación del conocimiento.

Aproximaciones recientes al estudio de las imágenes, atienden variadas perspectivas; de acuerdo con Ortells (1996:87), se aglutinan en torno a dos líneas de investigación: relación entre imagen y percepción, la cual “intenta obtener evidencia adicional sobre la equivalencia imagen-percepción que permita determinar con mayor precisión la naturaleza de los mecanismos compartidos por ambos sistemas) y la arquitectura del sistema de procesamiento de imágenes, que “tiene por objetivo fundamental explicitar la arquitectura del sistema de procesamiento subyacente a los fenómenos imaginativos”. Estos enfoques mantienen como supuestos la naturaleza modular de la imagen mental, debido a que poseen estructuras representacionales y procesos computacionales específicos que hacen presumir sistema diferenciados con propósitos determinados; al tiempo que destacan el carácter interdisciplinario de las investigaciones.

La primera de estas líneas de investigación, que se aboca a la relación entre imagen y percepción se nutre de los trabajos realizados en el campo psicofisiológico, que demuestran cómo se vinculan las áreas corticales visuales con las imágenes, y la neuropsicología, que ha mostrado mecanismo funcionales compartidos entre imagen y percepción. La otra línea de investigación se basa en los estudios de Kosslyn, quien intenta desarrollar una arquitectura de la cognición visual.

Otra corriente de investigación, que se inserta en el terreno evolutivo es la propuesta de Perner (1994: 54), para quien la ”representación implica un medio representacional que se halla en relación con su contenido representacional”, sostiene que a partir de los rasgos definitorios de representación he deducido una secuencia de tres niveles de representación: primario, secundario y meta. Esta secuencia tiene implicaciones en la manera como se desarrolla el pensamiento en tanto que actividad representacional. (supra:22).

Las representaciones primarias se encuentran en contacto causal estrecho con la realidad que representan, es decir el qué; las secundarias representan lo que podría ser y son desdobladas de la realidad que representan, y la metarrepresentación, que es la habilidad de representar algo que representa algo. Las distintas clases de representación se asocian, respectivamente, con la capacidad para establecer modelos únicos, múltiples o modelos de un modelo.

Woodfield (1993), desde el punto de vista filosófico, defiende la tesis empírica que señala que las percepciones y los conceptos reposan en sistemas distintos de representación mental y ello lo formula en concordancia con trabajos provenientes de la psicología cognitiva que refieren numerosos sistemas de representación.

Una vez más, la complejidad de los fenómenos mentales requiere del concurso multidisciplinario para proveer explicaciones suficientes que satisfagan criterios adoptados desde la perspectiva cognitiva; las imágenes y los conceptos seguirán planteando interrogantes y se continuará investigando por su carácter de elementos constitutivos del pensamiento, con la expectativas de alcanzar el conocimiento necesario para la comprensión de esa pequeña parte del proceso de racionalidad humana.

2.- Piaget y El Pensamiento

Uno de los epistemólogos que ha generado considerables debates, tanto en sus críticos como por parte de sus seguidores, ha sido Jean Piaget. Dentro de su programa de investigación sobre Epistemología Genética propuso, en 1947, un modelo de desarrollo evolutivo de la inteligencia sustentado sobre tipos de pensamiento que se suceden, gradual y progresivamente, como una forma de equilibrio entre las acciones del organismo sobre el medio y las acciones inversas. Este modelo vincula las funciones mentales superiores con las relaciones lógicas y matemáticas por considerar que “la lógica formal, o logística, constituye simplemente la axiomática de los estados de equilibrio del pensamiento, y la ciencia real que corresponde a esta axiomática no es otra que la psicología misma del pensamiento” (Piaget, 1979:13). Seguidamente, de esa vasta y minuciosa obra, intentaremos una aproximación breve con miras a obtener una visión general de algunos tópicos relevantes, todos ellos relativos al estudio del pensamiento y de sus distintas maneras de hacerse evidente en el transcurso de la vida del hombre. (Para ello nos remitimos a Piaget 1973, 1975, 1979, 1981, 1985 y 1994).

Para Piaget, el pensamiento y toda actividad cognoscitiva y motriz, desde la percepción y el hábito hasta el pensamiento conceptual y reflexivo, no es más que la vinculación de significaciones, entendiendo por significación la relación entre un significante y una realidad significada; es por ello que la aparición del esquema simbólico en el niño, aproximadamente en el sexto período de la inteligencia senso-motriz, se vincula con la adquisición del lenguaje como sistema de signos, es decir del sistema individual de significantes. Esta forma de pensamiento naciente, apoyada en símbolos y signos, se desarrollará hasta llegar a un pensamiento reflexivo capaz de elaborar suposiciones sin relación necesaria con la realidad sólo sobre la base del razonamiento.

Piaget (1973, 1994) propuso cuatro factores que explican el desarrollo intelectual, haciendo énfasis en que ninguno de ellos por sí solo es condición suficiente para determinarlo; estos factores son: a) la herencia: los procesos madurativos, tanto en el aspecto físico o intelectual, ya que el individuo posee, por herencia, estructuras físicas que afectan su desarrollo intelectual; sin embargo, este elemento se encuentra indisoluble de los efectos de la experiencia y del aprendizaje. b) el medio físico: que representa la experiencia o contacto con los objetos; ese contacto conduce a dos tipos de experiencia mental: la física y la lógico matemática; esto se explica porque las experiencias sensoriales al ser internalizadas, forman una imagen mental de ese objeto, que lleva al niño a actuar sobre él como antes lo hizo en la experiencia física; c) el medio social: expresado en la transmisión social, este factor refiere a la interacción del sujeto con su medio social y al papel del lenguaje dentro de dicha interacción. Se enfatiza, sin embargo, que la transmisión social, bien sea a través de padres, escuela, libros, compañeros, modelos, etc., no será eficaz si el sujeto no está preparado para comprenderla, ya que la asimilación está condicionada por las leyes de este desarrollo cognitivo; d) equilibrio o autorregulación: constituye el factor que organiza y coordina los factores anteriores; equilibrio que en el ámbito intelectual significa una armonía activa.

Es importante destacar que Piaget no asume cualquier modelo de equilibrio para sustentar su explicación; de los tres modelos de equilibrio aplicables en psicología, a saber: el de equilibrio de fuerzas, en donde el equilibrio termina definiéndose por una balanza exacta de las fuerzas, el probabilista puro, en el cual los procesos se explican mediante una probabilidad que crece indefinidamente en un sistema conmutativo, representado en este caso por el universo y su medio y el del equilibrio por compensación entre las perturbaciones externas y las actividades del sujeto, opta por este último. Su utilización implica un juego de compensaciones que comportarán un máximo de actividades por tanto del sujeto y también una traducción probabilista, es decir, cada estrategia debe ser, en efecto, caracterizada por una probabilidad.

El desarrollo del pensamiento analizado en los estados de equilibrio finales, demuestra una correspondencia fundamental y básica con la lógica. Este desarrollo comprende desde la acción misma, práctica, verdadera, explícita, y su transformación en acción interna u operación. Esta transformación se encuentra mediada por un lenguaje matemático capaz de designar abstractamente acciones interiorizadas, mejor definidas como operaciones del pensamiento, y la realidad psicológica consiste en sistemas operatorios de conjunto, no en operaciones aisladas. En las etapas de la evolución del pensamiento se reconoce la existencia de las agrupaciones. El agrupamiento, psicológicamente, consiste en cierta forma de equilibrio de las operaciones, es decir de las acciones interiorizadas y organizadas en estructura de conjunto; desde el punto de vista lógico, presenta una estructura suficientemente definida, que expresa sucesiones de distinciones dicotómicas cuyas reglas de operación constituyen la lógica de las totalidades y se reconoce en las operaciones explícitas de que es capaz el sujeto. El papel del agrupamiento es importante para explicar el desarrollo del pensamiento.

Las agrupaciones y las operaciones fundamentales de pensamiento se clasifican así

I. Un primer sistema de agrupación formado por las operaciones lógicas, que son aquellas que parten de los elementos individuales considerados como invariables y se limitan clasificarlos, seriarlos, etc.

o La agrupación lógica más simple es la de la clasificación o englobamiento jerárquico de las clases y se basa en la operación fundamental de la reunión de los individuos en clases y de las clases entre sí. Su esquema dicotómico se representa en modelos tales como las clasificaciones zoológicas o botánicas. Esta agrupación es una reunión ente sí de individuos equivalentes.

o La segunda agrupación da lugar a una operación que consiste en vincular las relaciones que expresan las diferencias de la agrupación de los individuos equivalentes. La reunión de esas diferencias supone un orden de sucesión y la agrupación constituye entonces una seriación cualitativa. La operación inversa es la sustracción de una relación, lo que equivale a la adición de su inversa. Es paralela a la precedente con la diferencia de que la operación de adición implica un orden de sucesión, por lo tanto no es conmutativa. Aquí se da la transitividad.

o La tercera operación es la de sustitución, base de la equivalencia que reúne los diversos individuos en clases o diversas clases en otra compuesta.

o La cuarta, y generada a partir de las operaciones anteriores es la operación que implica reciprocidad: simétrica, que constituyen relaciones de equivalencia que unen entre sí los elementos de una misma clase, y asimétricas, que destacan la diferencia de los elementos de la misma clase.

Las operaciones descritas son de orden aditivo, la primera y la tercera referida a las clases y las otras, a las relaciones. Las siguientes cuatro operaciones se basan en operaciones de multiplicación, o sea, que consideran más de un sistema de clases o relaciones a la vez.

La quinta operación es de multiplicación de las clases que implica la distribución de individuos d acuerdo con dos sucesiones simultáneas, como en el caso de las tablas de doble entrada.

La sexta es la operación de multiplicación de dos series de relaciones, es decir, dar con todas las relaciones existentes entre objetos seriados según dos clases de relaciones a la vez.

Las séptima y octava son operaciones de correspondencia de uno a varios, resultando unas veces la agrupación expresada en forma de clases, como en un árbol genealógico, otras, en forma de relaciones, siendo simétrica y asimétricas de acuerdo con la dimensión específica.

De esta manera, con las combinaciones más simples, se obtienen ocho agrupaciones lógicas fundamentales: unas de adición (primera a cuarta), y otras de multiplicación (quinta a octava); unas comprenden clases, otras relaciones, otras se presentan en englobamientos, seriaciones, o correspondencias simples (primera, segunda, quinta y sexta) y otras en reciprocidades y correspondencias del tipo uno a varios (tercera, cuarta, séptima y octava).

    II. Operaciones infralógicas, paralelas a las anteriores, y que se refieren a la constitución de las nociones de espacio y tiempo, destinadas a componer y recomponer el objeto.

o La agrupación de adición partitiva es la que permite la composición: las partes reunidas en totalidades jerarquizadas cuyo término final es el objeto entero y se corresponde con el englobamiento de clases.

o Las operaciones de ubicación (orden espacial o temporal) y de desplazamiento cualitativo (cambio de orden), que se corresponden con la seriación de las relaciones asimétricas.

o Las substituciones y relaciones asimétricas espacio-temporales corresponden a las substituciones y a las simetrías lógicas.

o Las operaciones multiplicativas combinan las precedentes con varios sistemas o dimensiones.

III Las mismas distribuciones pueden encontrarse en las operaciones que se apoyan en valores, es decir, las que expresan las relaciones de medios y fines, esenciales para la inteligencia práctica.

IV El conjunto de los tres sistemas de operaciones descritos pueden traducirse bajo la forma de proposiciones, de donde se sigue una lógica de las proposiciones basadas en implicaciones e incompatibilidades entre funciones proporcionales.

Las operaciones del pensamiento alcanzan su forma de equilibrio cuando se organizan en sistemas de conjuntos que se caracterizan por su reversibilidad. La reversibilidad es una característica que le permite al pensamiento invertir su actividad para coordinar fenómenos observados con anterioridad a su situación presente; la reversibilidad, a su vez, permite la aparición del agrupamiento. El equilibrio de estas operaciones se encuentra en relación directa con niveles evolutivos de orden genético.

Seguidamente, intentaremos una escueta exposición de algunos aspectos puntuales de la teoría, haciendo énfasis en el pensamiento y las características que identifican y precisan su definición particular.


 

ATRÁS

SIGUIENTE