LA NUEVA CIENCIA DE LA MENTE
LA NUEVA CIENCIA DE LA MENTE ( H. GARDNER)
LOS RASGOS DE LA CIENCIA COGNITIVA
Ante todo, está la creencia de que, al
referirnos a las actividades cognitivas de los seres humanos, es menester
concebir representaciones mentales y postular un nivel de análisis totalmente
separado del nivel biológico o neurológico, por un lado, y del sociológico o
cultural, por el otro.
En
segundo lugar, está la creencia de
que para la comprensión de la mente humana es esencial la computadora electrónica.
El
tercer rasgo es su deliberada
decisión de restar énfasis a ciertos factores que, si bien pueden ser
importantes para el funcionamiento cognitivo, complicarían innecesariamente los
estudios científicos en estos momentos (afectos,
emociones, elementos históricos y culturales, contexto, etc.).
El
cuarto rasgo es que los científicos
cognitivistas tienen el convencimiento de la gran utilidad de los estudios
interdisciplinarios. Una quinta
característica es la afirmación de que un ingrediente clave de la ciencia
cognitiva contemporánea es el temario y el conjunto de inquietudes que los
epistemólogos de la tradición filosófica occidental han debatido durante largo
tiempo.
LOS CIMIENTOS DE LA CIENCIA COGNITIVA
El simposio de Hixon y el desafío del conductismo
En 1948 se reunió
el Simposio de Hixon para estudiar la forma cómo el sistema nervioso controla
la conducta, pero los debates desbordaron finalmente el tema oficial. Así, Von
Neuman trazó una notable analogía entre la computadora y el cerebro, y
McCulloch entre el cerebro y ciertos procesos lógicos para procesar la
información.
El psicólogo
Lashley, sin conocer tanto de informática y computación, comenzó a sentar las
bases de una ciencia cognitiva y atacó las fuerzas que habían impedido su
desarrollo. Años antes, ya el conductismo había empezado a atacar a la
psicología de base filosófica especulativa y al introspeccionismo, proponiendo
que la psicología debía estudiar lo objetivo: la conducta, y con un método
también objetivo fundado en la observación.
El conductismo
había postulado la decisiva influencia del medio en la conducta humana, y
entendió a ésta como una respuesta pasiva frente a los estímulos ambientales.
Lashley postuló que adherir demasiado a estos cánones conductistas obstaculizaría
el avance en el conocimiento de la mente humana, pues dejaba de lado aspectos
como la imaginación, los deseos, etc., así como también las conductas humanas
complejas como jugar o hablar.
Tampoco la
neuropsicología podía dar cuenta de ninguna conducta ordenada en forma
secuencial. Según Lashley, esas conductas debían ser planeadas de antemano
según una organización psíquica jerárquica. Llegó a la conclusión de que la
forma o estructura (del sistema nervioso) antecede y determina toda conducta
concreta: la organización no es impuesta desde afuera sino que emana del
interior del organismo.
Criticó a la
neuropsicología la idea según la cual la mayor parte del tiempo el cerebro está
inactivo, y se activa como reflejos aislados cuando aparecen ciertos estímulos
específicos. El sistema nervioso, para Lashley, está jerárquicamente organizado
y siempre está activo, y el control proviene de su centro y no del estímulo
ambiental. Para demostrar su teoría, estudió especialmente el lenguaje.
¿Por
qué el simposio de HIXSON es relevante para las ciencias cognitivas?. Tuvo especial importancia a raíz de
dos hechos: la vinculación que allí se hizo del cerebro con la computadora y su
implacable desafío al conductismo prevaleciente en ese momento.
Un momento crítico en la historia de la ciencia
El momento se vivió
en el Simposio de Hixon, donde se abrían grandes posibilidades para resolver el
enigma de la mente humana. Muchos estudiosos formados en la filosofía ahora
veían un campo en la psicología, la lingüística, la antropología, la sociología
y diversas neurociencias para dar respuesta a aquel enigma.
Además del
conductismo, otros factores impidieron el lanzamiento apropiado de una ciencia
de la cognición: el positivismo y el verificacionismo con su obsesión por lo
observable y verificable, el psicoanálisis con sus intuiciones poco
científicas. La situación política y las guerras vinieron a retardar más los
estudios científicos de la mente. Pero la guerra trajo también un adelanto,
pues el perfeccionamiento de dispositivos bélicos dio a Wiener, por ejemplo, la
pauta que los mecanismos de retroalimentación tenían mucha semejanza con los
procesos homeostáticos que hacen que el sistema nervioso desarrolle una
actividad intencional. Estas ideas de retroalimentación, planificación, etc.,
eran totalmente antitéticas con el modelo conductista.
Las lesiones
cerebrales producto de la guerra, estimularon los estudios de las funciones de
las diversas partes del cerebro. Luego de la guerra, se sintió más la necesidad
de una nueva disciplina que abordase científicamente el problema de la mente.
Aportes teóricos claves para la ciencia cognitiva
v
Matemática
y computación:
hacia fines del siglo 19 hubo muchos progresos en matemática y lógica,
superándose la lógica aristotélica y unificando ambas disciplinas mediante
sistemas de símbolos abstractos, lo cual influyó sobre matemáticos como Wiener
y Von Neumann, que la aplicaron a la nueva ciencia cognitiva.
En la década del '30, el matemático
A. Turing inventó una máquina muy simple (una tira de papel con varios
recuadros) capaz de hacer muchas operaciones usando solamente dos signos
(sistema binario); esto entusiasmó a quienes pensaron que entonces podrían
construir computadoras sobre esa base, pero también a los psicólogos, pues se
había dicho que la máquina de Turing podía incluso llegar a pensar tal como lo
hacía el hombre. En base a ello Von Neumann advirtió la posibilidad de hacer
una máquina similar al cerebro, en el sentido de que dicha máquina tuviese una
memoria interna almacenada en función de la cual actuar, y no como hasta
entonces donde ante cada nueva tarea había que reprogramar todo de nuevo a la
máquina. Se pensó por primera vez en la posibilidad que una máquina preparase y
ejecutase sus propios programas.
v
El
modelo de la neurona:
McCulloch y Pitts demostraron en 1943 que las operaciones de una neurona y sus
conexiones con otras (red neural) podían representarse mediante un modelo
lógico. De A y B podía deducirse C, aunque A, B y C fueran neuronas o
enunciados lógicos. Tales circuitos eran también equiparables a circuitos
eléctricos recorridos por ciertas señales.
Desde entonces se pensó en fabricar
una computadora tan perfecta como la del cerebro humano, que funcionase de
acuerdo a la ley del 'todo o nada', o sea, circuitos que se abren o se cierran,
neuronas que se conectan o no se conectan, etc.
Fue un importante impulso para el
desarrollo de la ciencia cognitiva la posibilidad de investigar la analogía
entre el pensar humano en la resolución de problemas y las estrategias
encarnadas en un programa de computación.
v
La
síntesis cibernética:
Von Neumann y Wiener acopiaron información sobre el sistema nervioso, la
matemática y la lógica. En particular Wiener se interesó por los mecanismos,
tanto mecánicos como humanos, de autorregulación de la retroalimentación. Quedó
asimismo impresionado por la analogía de McCulloch sobre la conexión lógica y
la conexión nerviosa.
Wiener advirtió que se estaba
creando una nueva ciencia que reunía los modos de funcionar del sistema nervioso,
la lógica y la computación, a la que llamó 'cibernética' (1948), y que estudia
según él la teoría del control y la comunicación, ya sea en una máquina o en un
animal, o sea la forma de procesar la información por medios eléctricos,
mecánicos o nerviosos. Esta síntesis es valiosa como aporte interdisciplinario,
aunque no fue la que en definitiva adoptó la ciencia cognitiva.
v
Teoría
de la información:
Shannon, fundador de la teoría de la información, empezó viendo un paralelismo
entre los principios de la lógica (verdad-falsedad) con los dos estados
(abierto-cerrado) de las llaves electromecánicas. Sobre esa base fundó la
teoría de la información. El 'bit' (que significa dígito binario) es la unidad
básica de información, definida como la cantidad de información requerida para
seleccionar un mensaje entre dos alternativas equiprobables. Por ejemplo, para
elegir un mensaje entre ocho alternativas equiprobables necesitamos tres bits:
el primero limita la elección de 8 a 4, el segundo de 4 a 2, y el tercer de 2
elige una, o sea la última.
La información no es materia ni
energía: sólo es información, y esta puede vehiculizarse por cualquier medio:
nervios, computadora, etc.
v
Síndromes
neuropsicológicos:
las lesiones cerebrales aportaron nuevo conocimiento a la ciencia cognitiva,
sobre todo porque refutó la teoría del estímulo-respuesta o arco reflejo
lineal. Por ejemplo, había afasias donde se mantenía la estructura de la
oración pero no se reconocía el significado de las palabras, y al revés, en
otras, se sabían los significados pero se armaba mal la oración.
Encuentros catalizadores y escritos influyentes
Hacia 1940 estaban
ya sentadas las bases sobre las que más tarde habría de fundarse la ciencia
cognitiva. Von Neumann, Wiener y Simon intuyeron un nuevo campo de estudio, una
ciencia interdisciplinaria que estudiara la mente (la ciencia cognitiva). El
Simposio de Hixon fue importante en la medida en que mostró la vinculación
cerebro-computadora, y en la medida en que se opuso al conductismo prevalente. Pero
este Simposio no fue lo único determinante.
Primero se reunió
la Fundación Macy bajo el auspicio de Von Neumann y Wiener, y luego,
agregándose Mc Culloch, se hicieron reuniones para estudiar la
retroalimentación, los mecanismos causales circulares tanto en sistemas
biológicos como sociales. De aquí extrajo el antropólogo Bateson sus ideas
sobre el 'doble vínculo' aplicado a la esquizofrenia. El físico Oppenheimer se
interesó por estos conceptos dentro de la psicología, invitando a tal efecto a
psicólogos como Miller y Bruner, que luego serían pilares para el surgimiento
de la ciencia cognitiva. El interés de Oppenheimer tenía que ver con la
percepción, pues en física existía el principio de indeterminación que aludía
justamente al problema de la observación de partículas subatómicas.
Por esta época
(1940-1950) hubo muchos encuentros entre todo estos investigadores y otros más,
de todo lo cual surgieron nuevas ideas como consecuencia del intercambio de
información entre ellos. Aparecieron luego libros como por ejemplo el de Ashby,
inglés, que buscaba dar cuenta de la mente en forma mecanicista. Por ejemplo,
la lógica podía explicar el aprendizaje y la conducta adaptativa. Entendió la
mente como una máquina que se organiza a sí misma, responde a estímulos con el
fin de alcanzar estabilidad. No obstante, Ashby nunca se apartó en estas
concepciones del conductismo.
En lingüística,
Jakobson empezó a discernir en el lenguaje unidades a partir de las cuales se
construyen los fonemas o sonidos básicos. En neuropsicología, Hebb habló sobre
el desarrollo e involución de la inteligencia, y en antropología Bateson habló
de la retroalimentación en los sistemas sociales. También hubo aportes desde la
matemática, como los modelos estocásticos. Todo ello fue una preparación de la
escena donde surgiría la nueva ciencia cognitiva, cuyas bases ya estaba
sentadas con los aportes de McCulloch, Turing, Von Neumann, Wiener y Pitts.
Estas investigaciones no formaba aún parte de la ciencia oficial del momento,
que eran el conductismo, la lingüística estructural, la antropología
funcionalista y la neuropsicología animal.
LAS PRIMERAS DECADAS DE LA CIENCIA COGNITIVA
Una fecha de nacimiento aceptada
Hay acuerdo en
considerar el inicio de la ciencia cognitiva el 11 de septiembre de 1956,
cuando se hizo un Simposio sobre la Teoría de la Información en EEUU. Miller
recuerda dos aportes: uno de Newell y Simon (la computadora podía demostrar un
teorema) y otro de Chomsky (el lenguaje humano es como un sistema matemático).
Miller, Bruner y
otros se dieron cuenta así que las computadoras, el lenguaje, etc. eran casos
especiales de un sistema más general, objeto de estudio de una futura 'ciencia
cognitiva'. Las ciencias cognitivas entonces abarcan muchas disciplinas
diversas, desde la teoría de la información hasta la lingüística, pasando por
la neurología y la psicología y hasta la etología animal.
Así, se advirtieron
analogías entre la computadora y la mente: ambas tenían un soporte material,
por un lado (hardware) y estados mentales o programas (software) por el otro.
La década de 1960: el movimiento toma fuerza
Bruner y Miller
fundan en Harvard el Centro para Estudios Cognitivos dando así impulso y gran
difusión a las nuevas ciencias cognitivas. En 1960 publican "Los planes y
la estructura de la conducta", anunciando allí el fin del conductismo y la
necesidad de un nuevo enfoque cibernético de la mente, reemplazando el arco
reflejo simple por la retroalimentación.
Las investigaciones
continuaron, y por ejemplo en 1967 se publica "Psicología cognitiva",
de Neisser, quien propuso una concepción constructiva de la actividad humana:
la cognición implica procesos analíticos y sintéticos inventivos. También,
Simon en "Las ciencias de lo artificial" propuso que tanto la
computadora como la mente humana debían concebirse como sistemas simbólicos
capaces de procesar, transformar, elaborar y manipular símbolos de diversas
especies.
La iniciativa de la fundación Sloan
Hacia 1970 la
fundación privada Sloan impulsó y financió una serie de investigaciones, entre
las cuales se encontraban una sobre neurociencias, dedicadas al estudio del
sistema nervioso, con lo cual dieron gran impulso a la ciencia cognitiva
integrando las neurociencias.
Así, poco a poco
fueron identificándose las diferencias disciplinas o ciencias cognitivas que
habrían de integrar la llamada ciencia cognitiva. Estas diferentes disciplinas
fueron 6:
Filosofía
Psicología
Lingüística,
Inteligencia
artificial
Antropología
Neurociencia
Entre ellas
se establecieron vínculos interdisciplinarios, que fueron fuertes (de la
psicología con todas las demás, de la lingüística con todas las demás, de la
filosofía con la psicología y la lingüística, de la antropología con la
lingüística, la psicología y la neurociencia, de la neurociencia con todas las
otras menos con la filosofía, y de la inteligencia artificial con todas menos
con la filosofía y la antropología). Es decir, también hubo vínculos débiles.
Estas seis ciencias
forman el llamado en 1978, "hexágono cognitivo", el cual informaba
por esta época sobre el cuadro de situación de la ciencia cognitiva.
Características fundamentales de la ciencia cognitiva
Gardner plantea
cinco características básicas de la ciencia cognitiva. Las dos primeras son
supuestos nucleares, mientras que las otras tres son rasgos metodológicos o
estratégicos.
1) Representaciones.-
La ciencia cognitiva plantea la legitimidad de identificar un nivel de análisis
llamado "nivel de la representación". Las representaciones son
símbolos, esquemas, ideas, imágenes que se amalgaman y transforman entre sí, y
ello explica el funcionamiento de la mente. Como son inobservables y superfluas
para explicar esto, las representaciones son cuestionadas por el conductismo.
2) Las
computadoras.- Las computadoras son concebidas como una prueba de
existencia: si es posible sostener que una máquina piensa, tiene metas, corrige
su conducta, modifica información, etc., entonces los seres humanos pueden ser
caracterizados de la misma manera.
Pero además de
servir de modelo para la mente, la computadora es también usada por los
cognitivistas para analizar sus datos, y hasta simular con ella procesos
cognitivos (inteligencia artificial).
3) Atenuación
de la importancia atribuida a los afectos, el contexto, la cultura y la
historia.- Los cognitivistas, en la práctica tratan de deslindar estos
factores en sus investigaciones en el mayor grado posible.
4) Creencia
en la validez de los estudios interdisciplinarios.- Aunque aún está
lejos el ideal de una ciencia cognitiva integrada, es preciso la colaboración
interdisciplinaria entre las diferencias ciencias cognitivas, pues cada una
puede aprovechar los datos provenientes de las demás.
5) Las raíces
en la tradición filosófica clásica.- Los problemas filosóficos clásicos
son claves en la ciencia cognitiva contemporánea, como por ejemplo qué es
conocer, como conocemos, etc. El ser humano tiene aspectos que no se asemejan a
la computadora (es la llamada paradoja computacional).
Comentarios
Publicar un comentario