Development of Cortical Responses to Visual and Audiovisual Speech in Infancy
Abstrakt (PL)
Doświadczamy i uczymy się mowy zarówno poprzez wzrok jak i słuch. Wyspecjalizowane sieci mózgowe - w tym obustronna dolna kora czołowa i górna kora skroniowa - wspierają przetwarzanie mowy wielozmysłowej u dorosłych. Nasze rozumienie rozwoju tej organizacji korowej jest niepełne. Percepcja mowy i twarzy specjalizuje się dla często doświadczanych bodźców (np. mowy ojczystej, pionowych twarzy) między 6 a 10 miesiącem życia. Badania przedstawione w niniejszej rozprawie doktorskiej dotyczyły rozwoju funkcjonalnej organizacji korowej w zakresie przetwarzania mowy wielozmysłowej w okresie niemowlęcym. Do pomiaru czołowo-skroniowych odpowiedzi hemodynamicznych na mowę wizualną i audiowizualną u niemowląt w wieku 5 i 10 miesięcy użyłam funkcjonalnej spektroskopii bliskiej podczerwieni (fNIRS). Jest to nieinwazyjna metoda neuroobrazowania o stosunkowo wysokiej rozdzielczości przestrzennej i czasowej. W pierwszym badaniu niemowlęta obserwowały nieme sylaby (mowę wizualną) i niekomunikatywne ruchy ust (tzw. grymasy). Odkryłam, że aktywacje korowe zarówno na mowę wizualną, jak i grymasy były podobne w wieku około 5 miesięcy, a różne w wieku około 10 miesięcy. W drugim badaniu niemowlęta oglądały synchroniczną mowę audiowizualną i asynchroniczną mowę słuchowo-wzrokową. W wieku około 5 miesięcy, rozległe wzorce odpowiedzi hemodynamiczne prawej półkuli dla mowy synchronicznej różniły się od odpowiedzi dla mowy asynchronicznej. W wieku 10 miesięcy określone obszary górnej kory skroniowej wykazywały zróżnicowane reakcje na synchroniczną i asynchroniczną mowę. Dodatkowo przeprowadziłam badanie fMRI osób dorosłych z dokładnie tymi samymi bodźcami co w badaniach nad niemowlętami aby potwierdzić obserwowane wyniki. Dolny zakręt czołowy (IFG) oraz górny zakręt/bruzda skroniowa (STS/G) były aktywne podczas przetwarzania mowy wizualnej i audiowizualnej, co potwierdza wniosek, że odpowiedzi czołowo-skroniowe obserwowane u niemowląt odzwierciedlają aktywacje IFG i STS/G. Podsumowując, wyniki tej pracy pokazują, że funkcjonalna organizacja korowa wspierająca przetwarzanie mowy wizualnej i audiowizualnej rozwija się i specjalizuje w okresie niemowlęcym. Wzorzec obserwowanych wyników sugeruje, że sieć korowa przetwarzająca mowę wizualną i audiowizualną ulega reorganizacji około 9 -10-tego miesiąca życia. Zaobserwowane wyniki podkreślają różne osie czasu rozwoju specjalizacji korowej dla mowy i twarzy. Podczas gdy specjalizacja korowa w zakresie mowy wizualnej rozwija się od 10-tego miesiąca życia, specjalizacja w zakresie dynamicznego przetwarzania twarzy prawdopodobnie rozwija się między 5-tym a 10-tym miesiącem życia. Wyniki te poszerzają nasze zrozumienie rozwoju lateralizacji sieci mowy, pokazując, że w przeciwieństwie do mowy słuchowej, dominacja lewej półkuli dla mowy wizualnej i audiowizualnej zaczyna się pojawiać dopiero około 10 miesięcy. Zaobserwowane wyniki podkreślają różnice w czasie rozwoju specjalizacji korowej dla mowy i twarzy. Podczas gdy specjalizacja korowa w zakresie przetwarzania mowy wzrokowej rozwija się od 10 miesiąca życia, specjalizacja w zakresie dynamicznego przetwarzania twarzy prawdopodobnie rozwija się między 5 a 10 miesiącem życia. Przedstawione wyniki wskazują na rozwój sieci korowej dla integracji mowy audiowizualnej. W wieku 10 miesięcy niemowlęta nie wykazują wyraźnego markera neuronalnego integracji multisensorycznej dźwięków mowy. Omawiam te odkrycia w świetle koncepcji interaktywnej specjalizacji funkcjonalnego rozwoju mózgu.
Abstrakt (EN)
We experience and learn about speech through both vision and hearing. In adults, specialised cortical networks - including bilateral inferior frontal and superior temporal cortices - support the processing of multisensory speech, however how this organisation develops in infancy remains poorly understood. Between 6 and 10 months of life perception of speech and faces specialises to support the processing of often-experienced classes of stimuli (e.g., native speech, upright face). The research presented in this thesis investigated the development of the functional cortical organisation supporting multisensory speech processing in infancy. I used functional near-infrared spectroscopy (fNIRS) - a non-invasive neuroimaging method with relatively high spatial and temporal resolution - to measure fronto-temporal haemodynamic responses to visual and audiovisual speech in awake 5 and 10 months olds. In the first study, infants watched faces producing silent visual articulations of syllables and non- communicative mouth movements (i.e., gurning). I found that cortical responses to both visual speech and gurning were similar around 5 months of age but differed at 10 months of age. In the second study, infants watched synchronous audiovisual speech and asynchronous auditory/visual speech. Around 5 months of age widespread patterns of right hemisphere responses were different to synchronous than asynchronous speech. By 10 months of age, specific superior temporal regions showed differential responses to synchronous and asynchronous speech. Additionally, I conducted an adult fMRI study with the exact same stimuli as in infant studies, to validate observed findings. Visual and audiovisual speech elicited bilateral inferior frontal gyrus (IFG) and superior temporal gyrus/sulcus (STS/G) activations, which supported the conclusion that the fronto-temporal responses observed in infants reflected activations of the IFG and STS/G. Altogether, the results of this thesis show that the functional cortical organisation which supports processing of visual and audiovisual speech develops and specialises in infancy. These results enhance our understanding of the development of lateralisation of the speech network, by showing that unlike for A speech, the left hemisphere dominance for visual and audiovisual speech is only beginning to emerge around 10 months of age. The pattern of observed results suggests that the cortical network for processing visual and audiovisual speech undergoes re-organisation around 9 to 10 months of age. Observed results highlight the different developmental timelines of cortical specialisation for speech and faces. While cortical specialisation for visual speech develops from 10 months of age, specialisation for dynamic face processing likely develops between 5 and 10 months of age. My results further inform the development of the cortical network for integration of audiovisual speech, demonstrating that by 10 months of age infants do not show a distinct neural marker of multisensory integration for speech sounds. I discuss these findings in light of Johnson’s (2001) theory of functional brain development, showing that they are consistent with the Interactive Specialisation viewpoint.