Wie erkennt das Gehirn den Rhythmen und Takten der Sprache
Neurowissenschaftler an der UC San Francisco haben entdeckt, wie das hören von Gehirn-scans Rede zu zerlegen in Silben. Die Ergebnisse liefern zum ersten mal eine neuronale Grundlage für die fundamentalen Atome der Sprache und Einsichten in unsere Wahrnehmung der rhythmischen Poesie der Sprache.
Seit Jahrzehnten Rede, haben Neurowissenschaftler suchten Beweise dafür, dass Neuronen im auditorischen Hirnareale verwenden Schwankungen in der Rede der Lautstärke zu identifizieren, die Anfänge und enden der Silben—wie ein lin-guis-tics pro-fes-sor-di-a-gram-ming ein Satz. So weit, diese Bemühungen hatten wenig Glück.
In der neuen Studie, veröffentlicht November 20, 2019 in der Wissenschaft Fortschritte, UCSF-Wissenschaftler haben entdeckt, dass das Gehirn statt auf eine Markierung der Vokal-stress in der Mitte jeder Silbe—mehr wie ein dichter Scannen die Sonette von Shakespeare (Shàll Í còmpáre thèe tó à súmmèrs dáy?). Die Forscher zeigten, dass dieses signal in einem Bereich von Sprache cortex genannt, der Mitte-superior-temporalen gyrus (mSTG)—ist speziell basierend auf dem steigenden Volumen zu Beginn jeder Vokal, das ist ein universelles Merkmal des menschlichen Sprachen.
Bemerkenswert ist, dass die Autoren sagen, diese einfache silbische marker könnte auch dem Gehirn direkte Informationen über die Muster von stress, timing und Rhythmus, das sind so zentral für die Vermittlung der Bedeutung und der emotionale Kontext, in Englisch und vielen anderen Sprachen.
„Was mich am meisten begeistert an diesem Werk ist, dass es zeigt eine einfache neuronale Codierung Prinzip für das Rhythmus-Gefühl, dass ist absolut von grundlegender Bedeutung wie unser Gehirn verarbeiten Rede“, sagte die neurowissenschaftlerin Yulia Oganian, Ph. D., wer führte die neue Forschung. „Könnte dies erklären, warum der Mensch so empfindlich auf die Reihenfolge der gestressten und ungestressten Silben, aus denen sich gesprochene Poesie, oder auch das mündliche erzählen?“
Oganian ist ein Postdoktorand im Labor von UCSF Health Neurochirurg Eddie Chang, MD, Ph. D., Bowes Biomedizinische Investigator an der UCSF, Mitglied der UCSF-Weill-Institut für Neurowissenschaften, und ein Howard Hughes Medical Institute (HHMI) der Fakultät Gelehrten, dessen Forschung Labor-Studien, die neuronale Grundlage der menschlichen Sprache, Bewegung und emotion.
„Was wirklich reizt mich ist, dass wir jetzt verstehen, wie ein simpler Audio-cue, die rasche Zunahme der Lautheit, passiert am Beginn der Vokale, dient als ein Kritischer Meilenstein für die Rede, denn es erzählt eine listener, wenn eine Silbe Auftritt, und ob es betont wird. Dies ist eine eher Mittel-Entdeckung, wie das Gehirn extrahiert Silbe Einheiten von Sprache“, sagte Chang.
An der Studie nahmen freiwillige aus der UCSF-Epilepsie-Mitte, die sich vorübergehend hatten die post-it-Hinweis-size-arrays von Elektroden auf der Oberfläche Ihrer Gehirne für ein bis zwei Wochen als Teil der standard-Vorbereitung für die Neurochirurgie. Diese Gehirn-Aufnahmen ermöglichen Neurochirurgen wie Chang aufzuzeigen, wie zu entfernen das Gehirn Gewebe, die bewirkt, dass Patienten Anfälle ohne Beschädigung wichtig gelegenen Regionen des Gehirns, sondern ermöglichen auch die Wissenschaftler in Chang ‚ s neuroscience research lab, Fragen zu stellen über das menschliche Gehirn-Funktion, die unmöglich sind zu jeder Adresse andere Art und Weise.
Oganian rekrutiert 11 Probanden, deren Beschlagnahme-mapping-Elektroden geschehen, zu überschneidungen mit den Bereichen des Gehirns beteiligt in der Sprachverarbeitung und die waren glücklich zur Teilnahme an einer Studie, die während Ihrer down-Zeit im Krankenhaus. Sie spielte jeder Teilnehmer eine Auswahl von Sprachaufnahmen aus einer Vielzahl von unterschiedlichen Lautsprecher während der Aufnahme die Muster der Hirnaktivität in Ihrer auditorischen Zentren Rede ist, dann analysiert die Daten zur Identifizierung von neuronalen mustern widerspiegelt die silbische Struktur von dem, was Sie gehört hatten.
Schnell die Daten offenbart, dass die mSTG-Aktivität enthielt eine diskrete Markierung der einzelnen Silben—im Widerspruch zu den vorherrschenden Modell im Feld, der vorgeschlagen hatte, dass das Gehirn setzt eine kontinuierliche Metronom-artigen Oszillator zu extrahieren silbengrenzen von Schwankungen in der Sprachlautstärke. Aber genau das, was Aspekte der Rede wurden diese diskreten Silbe-Marker der neuronalen Daten reagiert?
Um es möglich zu ermitteln, welche Funktionen der audio-Aufnahmen der Fahrt wurden die neuen Silbe Marker, Oganian gebeten, vier Ihrer Forschungs-Freiwilligen zu hören, aufgezeichnete Rede, die war, verlangsamte sich das vier-fache. Diese ultra-slow-speech-Aufnahmen lassen Oganian sehen, dass die Silbe Signale auftraten, die konsequent auf den moment der steigende stress am Anfang jeder Vokal (z.B. “ b „wird zu“ a „in der Silbe „ba“), und nicht an der Spitze der jede Silbe wie andere Wissenschaftler hatten die Theorie.
Der syllabisch-marker Oganian entdeckt, in der mSTG auch abwechslungsreich mit der Betonung der Redner platziert auf einer bestimmten Silbe. Dies suggeriert, dass diese erste Stufe der Sprachverarbeitung ermöglicht gleichzeitig die Gehirn-split-Rede in silbische Einheiten und auch das verfolgen der Muster von stress, die entscheidend sind für die Bedeutung in Englisch und vielen anderen Sprachen (z.B. „computer-Konsole“ zu „Konsole ein Freund“; „Tat ich das?“ vs. „Tat ich das?“).
Der syllabisch-signal bietet auch einen einfachen Taktgeber für das Gehirn zu verfolgen, den Rhythmus und die Geschwindigkeit der Sprache. „Einige Leute sprechen zu schnell; andere sprechen langsam. Menschen ändern sich, wie schnell Sie sprechen, wenn Sie aufgeregt oder traurig. Das Gehirn muss in der Lage sein zu justieren, dass“ Oganian sagte. „Durch die Kennzeichnung, wenn eine neue Silbe Auftritt, wird dieses signal fungiert als eine interne Schrittmacher in dem Sprachsignal selbst.“