¿Cuál es la relación en desarrollo entre lingüística y neurociencia?

Esta es una gran pregunta debido a la influencia significativa que los dos campos han tenido entre sí .

Los primeros días

La comprensión de la relación actual entre la neurociencia y el lenguaje comienza desde los primeros días de la neurociencia moderna, que comenzó con la llegada de microscopios avanzados y técnicas de tinción mejoradas. Paul Broca, quien, al estudiar los cerebros postmortem de pacientes afásicos, identificó el área de Broca como crítica para la producción del habla. Esto fue significativo porque fue la primera prueba anatómica para la localización de la función cerebral . Es decir, si bien la noción de que ciertas partes del cerebro están asociadas con diferentes funciones cognitivas se remonta a la antigüedad, y la frenología estaba de moda (y producía muchas cosas ridículas) en la época de Broca, fueron los estudios de afasia de Broca los que fueron el primero en mostrar realmente una relación entre una parte específica del cerebro y una capacidad cognitiva específica.
Los primeros intentos de localización que era frenología. ¿Qué hay para la alimentación gyrus?

Poco después, Carl Wernicke descubrió que un tipo diferente de problema de lenguaje estaba asociado con daños en una parte diferente del cerebro. La afasia de Broca es un déficit de producción; La afasia de Wernicke, que ahora llamamos afasia receptiva, es un déficit de comprensión. En sus estudios, se asoció con daño al lóbulo temporal, no al lóbulo frontal, en un área llamada … espere … sí … el área de Wernicke.

Lo interesante es que la primera evidencia de localización se descubrió con el lenguaje dado lo complejo que, tanto neural como cognitivamente, ahora sabemos que es el lenguaje. Hubiera sido mucho más fácil encontrar daño motor para la pierna derecha en la tira del motor y la función de la pierna derecha deteriorada, por ejemplo, porque hay una relación isomórfica entre los dos.

Sin embargo, es una coincidencia improbable que el lenguaje fue primero: ambas observaciones fueron hechas independientemente, con controversia sobre la precedencia, por Marc Dax (Broca) y su hijo, Gustav Dax (Wernicke), aproximadamente al mismo tiempo. Por lo tanto, el lenguaje tiene una importancia enorme en términos de definir quiénes son; los déficits lingüísticos adquieren una importancia descomunal.

El conductismo y la revolución cognitiva

La psicología de la primera mitad del siglo estuvo dominada por el conductismo y, por lo tanto, la neurociencia también. De las muchas figuras prominentes, Donald O. Hebb y BF Skinner se destacan. Hebb, con su investigación sobre la neurona, y su principio de que las neuronas que se disparan juntas, se conectan entre sí, podría explicar mucho sobre cómo el cerebro biológico podría apoyar el comportamiento. Aquí, sin embargo, los comportamientos simples tienen prioridad, por ejemplo, las respuestas pavlovianas. Skinner, luego tomó este marco y trató de explicar el lenguaje con su libro, Verbal Behavior, que fue en respuesta a un desafío, quizás el mayor desafío, el lenguaje . El título te dice la esencia: ¿Se puede entender el lenguaje humano a partir del marco simple de las neuronas activadas? como un comportamiento verbal

El libro era ambicioso y debería recibir más crédito, pero por el hecho de que se topó con el zumbido intelectual que es Noam Chomsky.

Chomsky, fumando pipa en sus primeros días en UPenn y MIT.

Él demolió el libro y destacó una amplia gama de fenómenos sintácticos lingüísticos que el conductismo parecía demasiado poco poderoso para explicar. Filosófico, creó un espacio dentro de la cabeza para ; para estados mentales y lingüísticos internos que no son simplemente una función de entrada y salida. Dijo que tenía que haber más.

Los psicólogos estaban muy entusiasmados con esto. No tengo un buen sentido del espíritu cultural de los psicólogos cognitivos de los años 60, pero de las personas con las que he hablado que eran veteranos de esa época, las ideas de Chomsky hacen que todos corran de regreso a sus laboratorios en busca de evidencia de sus ideas. Los neurocientíficos fueron un poco más desafiados porque todavía no había llegado a un punto de poder mirar confiablemente dentro de la cabeza, que ahora era el foco de la investigación: no el lenguaje externo, sino las representaciones mentales internas. Hubo algunos pioneros que comenzaron por algunos caminos interesantes, incluidos Eric Kandel y Michael Gazzaniga, pero el lenguaje estaba fuera del alcance y la tecnología no se había puesto al día: el EEG existía pero no estaba del todo listo.

Una bifurcación

Por lo tanto, el campo estaba dividido, con la revolución chomskiana en pleno apogeo. El problema era que, si bien las percepciones lingüísticas eran rápidas y furiosas dentro del marco de Chomskian, las predicciones psicológicas en realidad no estaban funcionando. Por ejemplo, la teoría derivativa de la complejidad buscó evidencia de que el número de pasos, o transformaciones, de un estado mental interno al lenguaje hablado externo debería corresponder a algún tipo de medida psicológica. No lo hizo. Así que muchos psicólogos abandonaron el marco chomskiano y comenzaron a adoptar el neoconductismo y algunos modelos nuevos, incluidas las redes neuronales. Este fue un intento de modelar fenómenos cognitivos complejos utilizando principios neuronales básicos, pero con redes muy complejas:

Un ejemplo de una red neuronal.

De esto surgió el trabajo de McClelland y Rumelhart, Connectionism. Apuntaron al tiempo pasado con sus modelos de redes neuronales y el tiempo pasado sigue siendo un punto clave de debate; es donde Steven Pinker se cortó los dientes y se estableció (dependiendo de la visión de Chomskian).

Desde mi perspectiva (y la de los demás), el problema es que estas redes neuronales no eran neuronas reales. Eran pruebas de concepto, no observaciones empíricas. No eran particularmente buenos para hacer predicciones, lo que ahora era un problema porque la neurociencia tenía un conjunto completamente nuevo de herramientas para medir los estados internos del cerebro de los humanos, la magnetoencefalografía, la resonancia magnética funcional y la tomografía por emisión de positrones.

Un escáner MEG, observando tus estados mentales.

El ahora

La neurociencia explotó con documentos, revistas, becas y, por lo tanto, científicos, utilizando esta nueva tecnología para medir la respuesta cerebral de todo lo que pudieron. Se otorgaron premios Nobel, se establecieron departamentos, etc.

Número de estudios de fMRI / año

Los estados actuales de la neurociencia y la lingüística están más allá del simple resumen. La relación actual muestra una combinación de bifurcación continua, pero más importante, un movimiento hacia la unificación de varios de estos hilos individuales. El futuro se ve brillante.

Cómo la neurociencia está influyendo en la lingüística
Para bien o para mal, el 99% de la investigación lingüística se realiza sin aportes de la neurociencia. Por un lado, esto es desafortunado porque el lenguaje en cada individuo es una función del cerebro. Por otro lado, muchas de las contribuciones actuales de la neurociencia no son relevantes para una cantidad significativa de investigación lingüística.

Una de las áreas clave de contacto es el modelado computacional y las redes neuronales.

El modelo dominante actual es la fonología, la teoría de la Optimidad, es, en el fondo, una red conexionista. Algunos lingüistas no saben o no les importa. Del mismo modo, una serie de modelos clave de percepción del habla y producción del lenguaje, pioneros en BU por Stephen Grossberg y Frank H. Guenther, investigan la computación neuronal involucrada en el lenguaje. Se han realizado avances recientes significativos en la vinculación de estos modelos con observaciones empíricas de neurociencia.

Nuestros modelos de percepción y producción del habla también están, en cierta medida, influenciados por los estudios de imágenes cerebrales. Los debates sobre representaciones de discurso ejemplares versus abstractas versus gestuales (Discriminación de vocales por hablantes de inglés, francés y turco: evidencia de un enfoque basado en ejemplos para la percepción del habla, la teoría motora de la percepción del habla revisada) se están respondiendo utilizando los últimos métodos de imagen, electrocorticografía (Página en nature.com, Codificación de características fonéticas en giro temporal superior humano).

Cómo la lingüística está influyendo en la neurociencia
Aunque la teoría derivativa de la complejidad no funcionó en la mente de muchos psicólogos, varios neurocientíficos aún están explorando las ideas de Chomsky.

Angela D. Friederici y Yosef Grodzinsky, entre otros, han estado explorando el papel del área de Broca en la sintaxis, como se discute aquí: ¿Qué dicen los neurocientíficos sobre la teoría gramatical universal de Noam Chomsky? Brevemente, existe un interés considerable en comprender si la actividad observada en el área de Broca está asociada con una función lingüística y humana única, y si esa función es el movimiento sintáctico, la recrusión, la memoria básica u otra cosa hipotética de Chomskian.

En términos de habla, en la mayoría de los modelos de procesamiento del lenguaje (p. Ej., Página en nih.gov), las teorías lingüísticas se usan para definir cuáles deberían ser las representaciones mentales, aunque a menudo las teorías son de hace 20 o 30 años.

Modelo de percepción del habla de Hickok y Poeppel.

Bifurcación Continua
Hay una serie de áreas donde es importante una mayor colaboración. Los neurocientíficos como Nina Dronkers han seguido los pasos de Broca y Wernicke, innovando nuevas teorías de organización cerebral, pensando en redes cerebrales en lugar de regiones cerebrales, para expandir nuestra comprensión de la afasia en nuevas y emocionantes direcciones. Esto no ha tenido mucho efecto en la teoría lingüística.

Por el contrario, la mayoría de la investigación en neurociencia ignora por completo la investigación lingüística interlingüística. Ninguno de los modelos propuestos puede dar cuenta de idiomas que se ven muy diferentes del inglés, alemán y chino, como lo discuto aquí (sobre sílabas: algunas ideas sobre neurociencia y lingüística computacional inspiradas en lecciones de ortografía de tercer grado). Se ha hecho muy poco para explorar cosas muy fundamentales como las alternancias fonológicas, sin mencionar una amplia gama de cosas en sintaxis.

El futuro

A pesar de eso, no veo nada más que prometer por delante. El campo ha avanzado mucho en los últimos 10 años y pronto podremos “ver” en la cabeza de las personas y ver lo que están escuchando (con cierta precisión) o por decir (dado que son angloparlantes, por supuesto ) Los debates continuarán enfurecidos sobre la unicidad del lenguaje, sobre la Gramática Universal, etc., así como lo harán sobre la naturaleza y la crianza, excepto que los debates serán cada vez más matizados a medida que surjan más evidencias empíricas.

Veo un futuro muy brillante para esta empresa colaborativa crítica formada en los primeros días de la neurociencia.

Creo que Marc E. ha proporcionado un excelente resumen de la relación entre las dos disciplinas. Solo me gustaría agregar algunos comentarios sobre las tendencias más recientes.

Primero, la lingüística (cognitiva) es probablemente la segunda disciplina más difícil / compleja en las ciencias cognitivas, después de la cognición (pensamiento) en sí misma. Al abordar la “neurociencia” como el estudio físico y anatómico del cerebro (y del sistema nervioso, en general), hay un aspecto predominante en la influencia de la lingüística en la neurociencia. Dada la complejidad de la Lingüística Cognitiva (CL), existe una necesidad emergente de instrumentos y metodologías igualmente complejas y precisas para estudiar los fenómenos físicos involucrados.

Los microscopios mejorados, por ejemplo, conducen a mejores estudios de autopsia del cerebro. El problema es que tales estudios no pueden rastrear el procesamiento neurológico activo. Los estudios clínicos ayudan a reducir las regiones de lluvia implicadas en ciertas actividades, pero necesita pacientes con lesiones cerebrales … un grupo muy limitado para el estudio; y tiende a encontrarse con el mismo problema, que no puede estudiar el procesamiento activo. El requisito para el procesamiento activo conduce a nuevos instrumentos, como EEG, MRI, PET, CAT, fMRI, etc. Estos instrumentos permiten obtener imágenes progresivamente más precisas, más profundas y “en línea” del cerebro (así como de otros órganos). curso). Ahora, no estoy diciendo que la investigación lingüística haya sido responsable del desarrollo de tales nuevos instrumentos; sin embargo, las necesidades de los investigadores en lingüística, así como las necesidades correspondientes en otras disciplinas diversas, aumentan la motivación y la presión para tal desarrollo.

Sin embargo, los instrumentos mejorados no son suficientes. Las necesidades de las diferentes disciplinas también conducen a nuevas metodologías para usar dicho equipo. Una de esas metodologías es la interferometría cognitiva , que involucra a sujetos que realizan ciertos conjuntos de tareas mientras son escaneados por instrumentos como los enumerados anteriormente. Para algunos estudios lingüísticos, las tareas pueden incluir una tarea de lenguaje (verbalización, comprensión auditiva, comprensión de lectura, etc.) que se realiza simultáneamente durante la realización de una tarea física, además de realizarse por separado. Luego se comparan los desempeños de las dos tareas, tanto simultáneas como independientes, y se examinan los datos escaneados.

En resumen, la lingüística influye en el desarrollo de herramientas y procedimientos utilizados en la investigación en neurociencia.

A cambio, los datos de la investigación en neurociencia se utilizan para refinar los modelos CL. La neurociencia ha sido extremadamente importante para llevar la CL al dominio de las ciencias “duras” (a diferencia de las ciencias sociales “blandas” que no conducen a una experimentación controlada y reproducible). Es imposible describir en solo unos pocos párrafos todas las contribuciones que la neurociencia ha hecho en el ámbito de la CL.

Sin embargo, puedo mencionar algunas tendencias. El primero implica el estudio de “neuronas espejo” (principalmente en primates, pero con algunas investigaciones directas limitadas y mucha más investigación indirecta, que involucra a humanos). Una segunda tendencia, algo relacionada, involucra los estudios de sincronización de ondas cerebrales . Estas líneas de investigación, junto con la interferometría cognitiva, han ayudado a establecer y refinar los modelos de semántica incorporada, que podrían estar bastante fuertemente implicados en la teoría de la metáfora cognitiva.