Warnzeichen, die einem elektrischen Brand vorausgehen
Mar 06, 2023Siemens Energy und Mitsubishi Electric entwickeln sich hoch
Mar 08, 2023Markt für Leistungsschalter, Thermistoren und Sicherungen: Nach Typ (Leistungsschalter (Luft, Vakuum, SF6 und Öl), Thermistor (NTC, PTC) und Sicherung (wiederverdrahtbar, Patrone, Klinge, rücksetzbar), nach Spannung, nach Betrieb, nach Anwendung (Transport). , Medizin, Verbraucher, Sonstige)
Mar 10, 2023Brauchen Sie wirklich einen Energiemonitor für Ihr Zuhause?
Mar 12, 2023Laut Aufzeichnungen der EPA gehört Duke Energy zu den größten Verursachern eines Gases, das 25.000-mal umweltschädlicher ist als Kohlendioxid
Mar 14, 2023Deutliche nichtlineare spektrotemporale Integration im primären und sekundären auditorischen Kortex
Scientific Reports Band 13, Artikelnummer: 7658 (2023) Diesen Artikel zitieren
266 Zugriffe
Details zu den Metriken
Tiere nehmen Geräusche über hierarchische Nervenbahnen wahr, die schließlich die Kortizes höherer Ordnung erreichen, um komplexe akustische Merkmale wie Lautäußerungen zu extrahieren. Die Aufklärung, wie sich die spektrotemporale Integration entlang der Hierarchie vom primären zum auditorischen Kortex höherer Ordnung unterscheidet, ist ein entscheidender Schritt zum Verständnis dieser aufwändigen sensorischen Berechnung. Hier verwendeten wir Zwei-Photonen-Kalzium-Bildgebung und Zweitonstimuli mit verschiedenen Frequenz-Timing-Kombinationen, um die spektrotemporale Integration zwischen primärem (A1) und sekundärem (A2) auditorischem Cortices bei Mäusen zu vergleichen. Einzelne Neuronen zeigten eine gemischte supralineare und sublineare Integration auf frequenz-timing-kombinationsspezifische Weise, und wir fanden einzigartige Integrationsmuster in diesen beiden Bereichen. Die zeitlich asymmetrische spektrotemporale Integration in A1-Neuronen deutete auf ihre Rolle bei der Unterscheidung frequenzmodulierter Wobbelrichtungen hin. Im Gegensatz dazu machte die zeitlich symmetrische und koinzidenzbevorzugte Integration in A2-Neuronen sie zu idealen spektralen Integratoren gleichzeitiger Mehrfrequenztöne. Darüber hinaus reagierte die neuronale Aktivität des Ensembles in A2 empfindlich auf Zweiton-Timings, und zusammenfallende Zweitöne riefen unterschiedliche Aktivitätsmuster des Ensembles aus der linearen Summe der Komponententöne hervor. Zusammengenommen zeigen diese Ergebnisse unterschiedliche Rollen von A1 und A2 bei der Kodierung komplexer akustischer Merkmale, was möglicherweise eher auf eine parallele als auf eine sequentielle Informationsextraktion zwischen diesen Regionen hindeutet.
Unser Gehirn integriert Eingaben aus dem Sinnesraum und der Zeit, um Objekte in der Außenwelt zu erkennen. Raumzeitliche sequenzsensitive Neuronen, wie sie beispielsweise auf sich bewegende Kanten beim Sehen1 oder auf Whisker-Ablenkungssequenzen bei der Somatowahrnehmung reagieren2,3,4, gelten als grundlegende Bausteine für die Objekterkennung im sensorischen Kortex. Im primären auditorischen Kortex können Zweitonsequenzen mit spezifischen spektralen und zeitlichen Kombinationen im Vergleich zu denen, die durch einzelne reine Töne hervorgerufen werden, supralineare5,6,7 oder sublineare8,9,10,11 Reaktionen hervorrufen. Diese nichtlineare Integration liegt wahrscheinlich der Extraktion komplexerer akustischer Merkmale zugrunde, wie z. B. frequenzmodulierten (FM) Sweeps, Klangsequenzen und letztendlich artspezifischen Lautäußerungen im Kortex höherer Ordnung. Das Verständnis, wie sich die Selektivität der spektrotemporalen Zweitonkombination vom primären zum auditorischen Kortex höherer Ordnung unterscheidet, ist daher ein entscheidender Schritt bei der Aufklärung der sequentiellen Transformation von Klanginformationen entlang der kortikalen Hierarchie.
Obwohl der primäre auditorische Kortex von Säugetieren durch seine scharfe Abstimmung auf reine Tonfrequenzen gekennzeichnet ist, haben Studien mit Zweitonreizen eine umfassende nichtlineare Integration in diesem frühesten Stadium der kortikalen Berechnung ergeben. Zweitonreaktionen sind seit Jahrzehnten vor allem für den unterdrückenden Einfluss vorhergehender Töne auf nacheilende Töne („Vorwärtsmaskierung“) bekannt. Genauer gesagt wird die durch Töne außerhalb des Empfangsfeldes eines Neurons verursachte Unterdrückung als „Seitenbandhemmung“ oder „laterale Hemmung“ bezeichnet und spielt eine entscheidende Rolle bei der Gestaltung seiner Selektivität für FM-Sweep-Richtungen9,12,13,14,15. Andererseits wurde, obwohl weniger umfassend untersucht, bei verschiedenen Arten eine erleichterte Integration zweier Töne beobachtet5,6,7, die als elementarer „Merkmalsdetektor“ fungieren könnte, der der Extraktion komplexerer akustischer Merkmale zugrunde liegt. Wichtig ist, dass dasselbe Neuron abhängig von der spezifischen Zweitonkombination sowohl eine erleichternde als auch eine unterdrückende Integration zeigen kann und dass ihre Verteilung innerhalb des Zweiton-Reizraums (definiert entlang der Frequenz- und Zeitdimensionen – im Folgenden „spektrotemporale Interaktionskarte“ genannt) beide charakterisiert Die einzigartige Fähigkeit des Neurons zur Klangintegration. Sogar innerhalb derselben aufgezeichneten Region besteht Heterogenität zwischen einzelnen Neuronen in ihren Zweitonkombinations-spezifischen Integrationsmustern. Daher ist eine detaillierte Quantifizierung spektrotemporaler Interaktionskarten auf der Ebene großer neuronaler Populationen erforderlich, um fundierte Integrationsfähigkeiten einzelner kortikaler Bereiche zu verstehen.
In auditorischen Kortizes höherer Ordnung reagieren Neuronen oft stark auf komplexe Sinnesreize, wie etwa artspezifische Lautäußerungen16,17,18,19 und menschliche Sprache20,21,22. Wir haben kürzlich berichtet, dass Neuronen im sekundären auditorischen Kortex (A2) der Maus bevorzugt auf harmonische Tonstapel mit synchronem statt asynchronem Beginn reagieren17. Obwohl dieser Befund auf eine spezielle spektrotemporale Integration in A2 hinwies, hinderte uns die Verwendung von bis zu zwanzig Frequenzkomponenten pro Stimulus in der vorherigen Studie daran, detaillierte spektrotemporale Interaktionsmuster in diesem Bereich zu bestimmen. In der vorliegenden Studie verwendeten wir ein Zwei-Ton-Paradigma, um nichtlineare spektrotemporale Interaktionskarten zwischen A1 und A2 zu vergleichen, indem wir Zwei-Photonen-Kalzium-Bildgebung der neuronalen Aktivität der Population verwendeten. Wir fanden heraus, dass diese beiden Bereiche eine unterschiedliche Verteilung erleichternder und unterdrückender Interaktionen entlang der Frequenz- und Zeitdimensionen des Zweiton-Reizraums aufweisen. Insbesondere zeigten A1-Neuronen zeitlich asymmetrische spektrotemporale Interaktionskarten, was mit ihrer Unterscheidung von FM-Richtungen übereinstimmt, während die symmetrische und koinzidenzbevorzugte Integration in A2-Neuronen sie zu einem spektralen Integrator gleichzeitiger Geräusche macht. Daher zeigen unsere Ergebnisse eine klare Funktionsaufteilung zwischen A1 und A2 bei der spektrotemporalen Integration, was darauf hindeutet, dass sie unterschiedliche Beiträge zur Objekterkennung und zum Wahrnehmungsverhalten leisten.
Um die Schallintegration sowohl entlang der spektralen als auch der zeitlichen Dimension in einzelnen Neuronen zu untersuchen, haben wir neuronale Reaktionen auf Zweitonreize mithilfe der Zwei-Photonen-Kalzium-Bildgebung bei wachen, kopffixierten Mäusen gemessen (Abb. 1a). Zwei bis drei Wochen nach der Injektion des GCaMP6s-exprimierenden Adeno-assoziierten Virus (AAV) und der Glasfensterimplantation wurde die Tonotopenkarte mit der intrinsischen Signalbildgebung durch das Glasfenster identifiziert (siehe „Methoden“)23. Wir richteten unsere Sichtfelder auf A1 oder A2 und bildeten Schicht 2/3 (L2/3) ab, wo supralineare Wechselwirkungen häufiger auftreten als in der tieferen körnigen Schicht5. Da unser Sichtfeld größer als die Größe von A2 war, wurden Zwei-Photonen-Bilder mit den intrinsischen Signalkarten verglichen und nur Neuronen innerhalb der funktionell definierten Bereichsgrenze in unsere Analysen einbezogen (siehe „Methoden“). Insgesamt haben wir 1234 A1-Neuronen (9 Mäuse, 12 Sichtfelder) und 435 A2-Neuronen (7 Mäuse) aufgezeichnet. Die spektrotemporale Interaktion wurde durch die Präsentation von Zweitonreizen mit 70 dB Schalldruckpegel (Abb. 1b) bestimmt, wobei ein Ton („Mittelton“) auf die beste Frequenz der neuronalen Population im Sichtfeld fixiert war. Der andere Ton („dF-Ton“) wurde aus neun Frequenzen ausgewählt (dF: − 1 bis + 1 Oktave um den Mittelton, 0,25-Oktaven-Intervall). Jeder Ton-Pip hatte eine Dauer von 20 ms, und die Zeitpunkte von Beginn zu Beginn wurden aus neun Intervallen ausgewählt (dT: – 100 bis + 100 ms, 25-ms-Intervall, wodurch keine zeitliche Überlappung zwischen zwei Tönen sichergestellt wurde, mit Ausnahme von dT = 0). . Negative Werte zeigen führende dF-Töne an). Komponententöne wurden auch einzeln dargestellt, um die Berechnung der Linearität in der Summation zu ermöglichen. Die Bereiche von dF und dT wurden so gewählt, dass sie dem ethologischen Bereich der Frequenzmodulation bei Mauslautäußerungen entsprechen (< 40 Okt./Sek.)12. Insbesondere dT = 100 ms, dF = 0,25 Okt. entspricht 2,5 Okt./Sek. und dT = 25 ms, dF = 1 Okt. entspricht 40 Okt./Sek. Von allen abgebildeten Neuronen reagierten 65,0 ± 3,4 % (A1) und 76,5 ± 5,4 % (A2) auf mindestens einen Ton. Abbildung 1c zeigt Zweiton- und Einzelton-Reaktionsspuren repräsentativer Neuronen in A1 und A2. Diese Neuronen, die schwach auf einzelne Töne reagierten, reagierten stark auf zwei Töne mit spezifischen Frequenz- und Timing-Kombinationen. Wir haben die Verteilung der supralinearen und sublinearen Integration kartiert, indem wir einen Linearitätsindex (LI) für jedes dF-dT-Paar berechnet haben (Abb. 1d). LI wurde als (T − L)/(T + L) berechnet, wobei T die Reaktion auf einen Zweitonreiz und L die lineare Summation der Reaktionen auf einzelne Töne darstellt. Somit reicht LI von −1 bis 1, wobei negative Werte Sublinearität, positive Werte Supralinearität und 0 lineare Summation darstellen. Die resultierenden spektrotemporalen Interaktionskarten für die repräsentativen Neuronen 1 und 2 veranschaulichten gemischte Supralinearität und Sublinearität in einzigartigen Mustern (Abb. 1e). Neuron 1 in A1 zeigte insgesamt Sublinearität mit Ausnahme der geclusterten Supralinearität im Quadranten dT < 0, dF < 0. Neuron 2 in A2 zeigte eine starke Supralinearität bei dT = 0 (übereinstimmend; rote Pfeilspitze), während die gleichen Frequenzpaare zu einer sublinearen Summation für verschobene Zeitabläufe führten, sogar bei der angrenzenden Spalte von dT = 25 ms (blaue Pfeilspitze; Spuren mit der linearen überlagert). Summe in Abb. 1d). Diese spektrotemporalen Interaktionskarten legen nahe, dass die Neuronen 1 und 2 unterschiedliche sensorische Merkmale extrahieren, nämlich Aufwärtsfrequenzschritte bzw. zusammenfallende Mehrfrequenzstapel.
Quantifizierung der spektrotemporalen Wechselwirkung mithilfe von Zweitonstimuli. (a) Zwei-Photonen-Bildgebungsaufbau. Hörbereiche wurden zunächst durch intrinsische Signalbildgebung kartiert, die zur Steuerung der chronischen Fensterimplantation verwendet wurde. Unten links: Schwellenwert-intrinsische Signalreaktionen auf reine Töne, die dem durch den Schädel abgebildeten kortikalen Gefäßsystem überlagert sind. Unten rechts: In-vivo-Zwei-Photonen-Bild von L2/3-Neuronen in A1. (b) Schallstimulusschema, das die Beziehung zwischen Frequenz und Zeit für jeden der beiden 20-ms-Töne zeigt. Der Center-Ton wurde an die beste Frequenz der neuronalen Population im Sichtfeld angepasst. (c) Antworten auf jedes dF-dT-Paar und Einzeltondarstellungen in einem repräsentativen A1- (oben) und A2-Neuron (unten). Die Spuren sind durchschnittlich über fünf Versuche hinweg. Eingefügte Schemata zeigen die spektrotemporale Beziehung zwischen den beiden präsentierten Tönen. (d) Berechnung von LI für neuronale Antworten, die mit Pfeilspitzen aus (c) markiert sind. LI > 0 (rote Pfeilspitze) zeigt eine supralineare Integration zweier Töne im Vergleich zur linearen Summe beider Frequenzkomponenten an, wohingegen LI < 0 (blaue Pfeilspitze) eine sublineare Integration anzeigt. (e) Spektrotemporale Interaktionskarten, die den LI über dF-dT-Paare für Neuron 1 (A1) und Neuron 2 (A2) zeigen.
Abbildung 2 zeigt weitere spektrotemporale Interaktionskarten von repräsentativen Tieren, die wir in A1 (Abb. 2a – c) und A2 (Abb. 2d – f) abgebildet haben. Im Allgemeinen zeigten die spektrotemporalen Interaktionskarten gemischte supralineare und sublineare Interaktionen sogar innerhalb einzelner Neuronen. Diese Muster waren komplexer als diejenigen in einer früheren Studie an Weißbüschelaffen, die hauptsächlich über unterstützende Interaktionen berichtete, indem sie sich auf nicht auf Töne reagierende Neuronen konzentrierte5 (siehe „Diskussion“) (Abb. 2b). Selbst innerhalb desselben Sichtfelds variierten die spektrotemporalen Interaktionskarten zwischen einzelnen Neuronen erheblich. Obwohl zum Beispiel Neuron 1 (A1, das gleiche Neuron wie Abb. 1c oben) eine geclusterte Supralinearität in einem Quadranten zeigte, zeigte Neuron 3 insgesamt eine Supralinearität, mit Ausnahme einer Anhäufung von Sublinearität um die dT = 0-Spalte. In Neuronen ohne reine Tonantworten beobachteten wir eine supralineare Summation bei bestimmten dF-dT-Kombinationen ohne beobachtete Sublinearität (Neuron 4). Als wir die spektrotemporalen Interaktionskarten aller A1-Neuronen dieser Maus gemittelt haben, zeigte die Populationskarte Sublinearität in der Mitte (dT von – 50 bis + 50 ms, dF von – 1 bis + 0,5 Okt.), umgeben von Supralinearität (Abb. 2c). . Im Gegensatz dazu beobachteten wir in A2 viele Neuronen, die supralinear zwei Töne entlang der Koinzidenzspalte (dT = 0 ms) integriert haben (Neuron 2: das gleiche Neuron wie Abb. 1c unten). In Neuronen ohne reine Tonantworten fanden wir reine Supralinearität oft nur entlang dT = 0 (Neuron 5). Wichtig ist, dass bei dT = 0, dF = 0 keine Supralinearität beobachtet wurde (vollständig überlappende Töne mit derselben Frequenz in Phase, was zu einem einzelnen Ton bei 76 dB SPL führt), was darauf hindeutet, dass supralineare Integration in diesen A2-Neuronen Mehrfrequenztöne erfordert. Sowohl in A1 als auch in A2 fanden wir auch Neuronen mit allgemeiner Sublinearität (Neuron 6). Als wir die spektrotemporalen Interaktionskarten aller A2-Neuronen dieser Maus gemittelt haben, war die Supralinearität entlang der dT = 0-Spalte offensichtlich, was auf eine deutliche spektrotemporale Integration zwischen A1- und A2-Neuronen schließen lässt.
Spektrotemporale Interaktionskarten von A1- und A2-Zellen in repräsentativen Mäusen. (a) Intrinsisches Signalbild, überlagert mit kortikalen Gefäßen, abgebildet durch ein Glasfenster in einer repräsentativen Maus. Das gelbe Quadrat stellt das Sichtfeld der A1-Zwei-Photonen-Bildgebung dar. (b) Spektrotemporale Interaktionskarten für beispielsweise A1-Neuronen in derselben Maus wie (a) zeigen gemischte supralineare und sublineare Interaktionen über dF-dT-Paare hinweg. (c) Durchschnittliche spektrotemporale Interaktionskarte über alle A1-Neuronen in derselben Maus. n = 121 Neuronen. (d) Intrinsisches Signalbild in einer repräsentativen Maus mit A2-Zwei-Photonen-Bildgebung. (e) Wie (b), aber zum Beispiel Neuronen in A2. (f) Wie (c), aber über A2-Neuronen in derselben Maus wie (d) und (e). n = 35 Neuronen.
Abbildung 3 zeigt Populationsanalysen basierend auf 809 (A1) und 322 (A2) auf Schall reagierenden Neuronen. Trotz der heterogenen Antworteigenschaften zwischen einzelnen Neuronen zeigten die spektrotemporalen Interaktionskarten der Population einzigartige Muster in A1 und A2. Das auffälligste Merkmal in der A2-Karte ist der scharfe Kontrast zwischen der supralinearen Summation für koinzidente Geräusche und der breiten Sublinearität für nicht koinzidente dTs (Abb. 3a). Im Gegensatz dazu war in A1 das Muster in der spektrotemporalen Karte weniger klar und die Supralinearität war über dTs verteilt. Der Unterschied in der spektrotemporalen Integration zwischen A1- und A2-Neuronen wurde nicht durch ihre reinen Tonantworteigenschaften erklärt (ergänzende Abbildung 1). Sowohl die normalisierten Antwortgrößen als auch der Linearitätsindex entlang der dT-Achse veranschaulichen die scharfe Abstimmung der A2-Neuronen auf zwei zusammenfallende Töne (Abb. 3b). Die Ergebnisse waren die gleichen, selbst wenn wir nur Neuronen analysierten, die nicht auf reine Töne reagierten (ergänzende Abbildung 2). Diese Koinzidenzpräferenz erklärt die bevorzugten Reaktionen der A2-Neuronen auf koinzidente harmonische Stapel (3–20 Frequenzkomponenten), über die wir zuvor17 berichtet haben (siehe „Diskussion“). Es ist wichtig zu beachten, dass die insgesamt nahezu lineare Summierung der A1-Populationsaktivität (Abb. 3b) nicht das Fehlen von Supra- oder Sublinearität in einzelnen Neuronen widerspiegelt. Als der Anteil der Neuronen mit statistisch signifikanter Supralinearität für jedes dF-dT-Paar berechnet wurde, zeigte A1 eine breite Verteilung der Supralinearität im Vergleich zu einer eher koinzidenzspezifischen Supralinearität in A2-Neuronen (Abb. 3c, d; „Facilitative“). Im Gegensatz dazu wurde in A2 eine statistisch signifikante Sublinearität im weiteren Sinne beobachtet, während A1 eine eingeschränktere Sublinearität um das Zentrum herum aufwies (Abb. 3c, d; „Suppressiv“). Dennoch war die Verteilung erleichternder und unterdrückender Interaktionen über dF und dT in A1 ausgewogener, was zu einer scheinbar nahezu linearen Summierung auf Bevölkerungsebene führte. In A2 führt eine eingeschränkte Erleichterung in Kombination mit einer breit verteilten Unterdrückung zu einer Gesamtsublinearität mit einem scharfen Peak der Supralinearität bei dT = 0.
A1- und A2-Neuronen integrieren zweifarbige Reize mit unterschiedlichen spektrotemporalen Kombinationen. (a) Spektrotemporale Integrationskarten über alle A1- und A2-Zellen. A1, n = 9 Mäuse, 809 reaktionsfähige Zellen. A2, n = 7 Mäuse, 322 reaktionsfähige Zellen. (b) Links zusammenfassende Daten zum Vergleich der normalisierten Antwortgrößen in A1 und A2. Rechts: zusammenfassende Daten zum Vergleich des Linearitätsindex in A1 und A2. A1: n = 2596 Zell-dF-Paare, A2: n = 1498 Zell-dF-Paare. Die Daten sind Mittelwerte ± SEM. (c) Anteil der Neuronen mit statistisch signifikanter Supralinearität (erleichternde Interaktion) und Sublinearität (unterdrückende Interaktion) für jedes dF-dT-Paar in A1. (d) Wie (c), jedoch für A2. (e) A1- und A2-Neuronen, klassifiziert nach ihrer Präferenz für Zweiton-Timings. Der Anteil der Neuronen, die koinzidente Reize gegenüber verschobenen Reizen bevorzugen, war in A2 signifikant höher als in A1, Chi-Quadrat-Test, p < 1,00 × 10–16. (f) Ein kumulatives Wahrscheinlichkeitsdiagramm des Asymmetrieindex für alle auf Schall reagierenden Zellen in A1 und A2. ***p = 2,65 × 10–8, Wilcoxon-Rangsummentest.
Als nächstes klassifizierten wir Neuronen anhand ihrer Präferenz für Zweiton-Timings. Der Anteil der Neuronen, die koinzidente gegenüber verschobenen Reizen bevorzugen, war in A2 signifikant höher als in A1 (A1: 29,3 %, A2: 57,8 %; Chi-Quadrat-Test, p < 1,00 × 10–16) (Abb. 3e). Die verschobenen reizbevorzugenden Neuronen könnten weiter in negative dT-bevorzugende, positive dT-bevorzugende und symmetrische Neuronen unterteilt werden. Der Anteil einseitig bevorzugender Neuronen war in A2 viel geringer, was auf eine höhere Symmetrie der spektrotemporalen Interaktionskarten in einzelnen Neuronen schließen lässt. Um dies zu testen, haben wir den Asymmetrieindex für einzelne Neuronen als |(P – N)/(P + N)| berechnet, wobei P und N die Reaktionen auf zweifarbige Reize mit positiven bzw. negativen dTs darstellen. Wir fanden heraus, dass der Asymmetrieindex in A2-Neuronen signifikant niedriger war als in A1-Neuronen (Wilcoxon-Rangsummentest, p = 2,65 × 10–8) (Abb. 3f). Zusammengenommen deuten diese Ergebnisse auf die Extraktion unterschiedlicher Klanginformationen in A1 und A2 hin; A1-Neuronen extrahieren die zeitliche Änderung der Schallfrequenzen besser, während A2-Neuronen in der Lage sind, mehrere gleichzeitig präsentierte Frequenzen zu integrieren.
Die Asymmetrie, die wir in spektrotemporalen Interaktionskarten einzelner Neuronen beobachteten, könnte die Extraktion von in Geräuschen vorhandenen Frequenzmodulationen vorhersagen. Um die Beziehung zwischen der spektrotemporalen Wechselwirkung zwischen zwei Tönen und der FM-Abstimmung direkt zu untersuchen, haben wir in einer Untergruppe von Experimenten sowohl die Zweiton- als auch die FM-Sweep-Reaktion derselben Zellen gemessen (A1: n = 6 Mäuse, 9 Sichtfelder, 993 Zellen; A2: n = 6 Mäuse, 361 Zellen) (Abb. 4a). Die FM-Tuning-Eigenschaften wurden durch die Darstellung von Aufwärts- oder Abwärtsbewegungen bestimmt, deren Geschwindigkeiten denen der Lautäußerungen von Mäusen nahekamen (2,5–80 Okt/Sek., 6 Geschwindigkeiten in jede Richtung)12. Um Reaktionen in Neuronen mit einem breiten Spektrum an Frequenzpräferenzen hervorzurufen, wurden lange FM-Sweeps mit einem 4-Oktaven-Bereich (4–64 kHz) bei 70 dB SPL präsentiert. Von allen abgebildeten Neuronen zeigten 39,8 % (A1) und 62,0 % (A2) signifikante erregende Reaktionen auf mindestens einen Sweep-Stimulus. In Übereinstimmung mit unserer vorherigen Studie12 nahm der Anteil der reagierenden Neuronen in A1 monoton von langsamen zu schnellen FM-Sweeps ab, was wahrscheinlich auf die größere Schallenergie zurückzuführen ist, die durch langsame (und somit längere) Sweeps übertragen wird (Abb. 4b). Im Gegensatz dazu zeigte A2 bei allen FM-Frequenzen einen größeren Anteil an reagierenden Neuronen als A1 (Chi-Quadrat-Test mit Bonferroni-Korrektur für Mehrfachvergleiche, p < 0,001), der Unterschied war jedoch besonders deutlich bei schnelleren FM-Frequenzen. Diese bevorzugte Kodierung schneller FMs in A2 kann darauf zurückzuführen sein, dass diese Geräusche mehr nahezu übereinstimmende Frequenzkomponenten enthalten, die von A2-Neuronen supralinear integriert werden. Wir haben den Richtungsselektivitätsindex (DSI) in einzelnen Neuronen als (U − D)/(U + D) berechnet, wobei U und D die Reaktionen darstellen, die durch Aufwärts- bzw. Abwärtsbewegungen ausgelöst werden. Interessanterweise zeigte A2 einen signifikant niedrigeren absoluten DSI als A1 um die mittleren FM-Raten (10 Okt/Sek. A1: 0,56 ± 0,03, A2: 0,41 ± 0,03, p = 2,5 × 10–3; 20 Okt/Sek. A1: 0,59 ± 0,03, A2: 0,40 ± 0,03, p = 1,5 × 10–5; Wilcoxon-Rangsummentest mit Bonferroni-Korrektur für Mehrfachvergleiche) (Abb. 4c). Dieses Ergebnis stand im Gegensatz zu einer früheren Studie, in der kein Unterschied im DSI zwischen den A1- und A2-Gebieten festgestellt wurde24. Diese Diskrepanz ist jedoch wahrscheinlich darauf zurückzuführen, dass bei der DSI-Berechnung ein extrem breiter Bereich von FM-Raten (8–670 Okt./Sek.) kombiniert wurde.
Die Asymmetrie der unterdrückenden spektrotemporalen Wechselwirkung korreliert mit der FM-Richtungsselektivität. (a) Oben, FM-Sweep-Abstimmung einer repräsentativen L2/3-Pyramidenzelle in A1. Kurven sind durchschnittliche Antworten aus fünf Versuchen. Die Einschübe unten zeigen schematische Darstellungen von Frequenz und Zeit. Unten: eine zweifarbige spektrotemporale Interaktionskarte für dasselbe Neuron. Gelbe Kästchen: Aufwärtsregion, blaue Kästchen: Abwärtsregion. (b) Anteil der reagierenden Zellen bei sechs absoluten FM-Raten in A1 und A2. A1: n = 6 Mäuse, 993 Zellen; A2: n = 6 Mäuse, 361 Zellen. ***p < 0,001 für alle Geschwindigkeiten, Chi-Quadrat-Test mit Bonferroni-Korrektur. (c) Durchschnitt (durchgezogene Linie) und SEM (Schattierung) des absoluten DSI bei jeder FM-Rate in A1 und A2. A1: 391 auf Sweep reagierende Zellen; A2: n = 222 auf Sweep reagierende Zellen. **p < 0,01. (d) Oben weist der DSI von Pyramidenzellen, gemittelt über 10–40 Okt/Sek., eine starke Korrelation mit der Linearitätsindex-Verzerrung für unterdrückende Wechselwirkungen (Biassupp), aber nicht für erleichternde Wechselwirkungen (Biasfac) auf. p = 0,0006, zweiseitiger t-Test. Rote Linie, Regressionskurve. n = 220 Zellen, die sowohl auf FM-Sweeps als auch auf zwei Töne reagieren. Untere, p- und R-Werte der Korrelation zwischen DSI und Linearitätsindex-Bias, getrennt nach FM-Rate. *p < 0,05. p-Werte werden für mehrere Vergleiche mit der Bonferroni-Korrektur angepasst. (e) Wie (d), jedoch für A2. n = 171 Zellen, die sowohl auf FM-Sweeps als auch auf zwei Töne reagieren.
Nachdem wir Unterschiede in den FM-Sweep-Reaktionseigenschaften zwischen A1- und A2-Neuronen beobachtet haben, untersuchten wir, ob spezifische Merkmale von spektrotemporalen Interaktionskarten für diese Unterschiede verantwortlich sind. Theoretische und experimentelle Daten in unserer vorherigen Studie zeigten, dass die kortikale laterale Hemmung zur FM-Richtungsselektivität in A1 im mittleren Geschwindigkeitsbereich (10–40 Okt/Sek.) beiträgt, bei niedrigeren oder höheren Geschwindigkeiten jedoch in geringerem Maße12. Wir stellten daher die Hypothese auf, dass die Asymmetrie der unterdrückenden spektrotemporalen Wechselwirkung, die die laterale Hemmung widerspiegelt9, 12, 13, 14, 15, die Ursache für eine höhere FM-Richtungsselektivität in A1 sein könnte. Um diese Hypothese zu testen, haben wir gefragt, welcher der nichtlinearen Berechnungstypen, erleichternde (supralineare) oder unterdrückende (sublineare) spektrotemporale Wechselwirkungen, eine Korrelation mit der FM-Richtungsselektivität zeigt. Von allen abgebildeten Neuronen zeigten 220 (A1) und 171 (A2) Neuronen signifikante Reaktionen sowohl auf Zweiton- als auch auf FM-Sweep-Stimuli. Theoretisch kann eine spektrotemporale Wechselwirkungskarte basierend auf ihren möglichen Beiträgen zur FM-Richtungsselektivität in zwei Regionen unterteilt werden (Abb. 4a). Supralinearität in den Quadranten dF > 0, dT > 0 und dF < 0, dT < 0 („Aufwärtsbereich“: gelbe Kästchen in Abb. 4a) sagt die Selektivität der FM-Richtung nach oben voraus, während dF < 0, dT > 0 und dF > 0 , dT < 0 Quadranten („Abwärtsbereich“: blaue Kästchen) deuten auf eine FM-Richtungsselektivität nach unten hin. Im Gegensatz dazu sagt die Sublinearität in denselben Regionen die Selektivität in die entgegengesetzte Richtung voraus. In einzelnen Neuronen haben wir die Summe von LI innerhalb der Aufwärts- und Abwärtsregionen getrennt für erleichternde (LI > 0) und unterdrückende (LI < 0) Interaktionen berechnet. Um die Asymmetrie zwischen Aufwärts- und Abwärtsregionen zu quantifizieren, haben wir den „Linearitätsindex-Bias“ getrennt für erleichternde und unterdrückende Interaktionen (Biasfac und Biassupp) als Differenz der summierten LI zwischen Aufwärts- und Abwärtsregionen definiert (siehe „Methoden“). Als wir die DSI- und Linearitätsindex-Bias-Werte in einzelnen A1-Neuronen verglichen, fanden wir eine starke Korrelation zwischen DSI und Biassupp (Abb. 4d). Wichtig ist, dass die Korrelation bei mittleren FM-Geschwindigkeiten stärker war und bei FM-Raten von 20 und 40 Okt/s statistisch signifikant war, was mit der theoretischen Vorhersage des hemmenden Beitrags zur Richtungsselektivität übereinstimmt (Abb. 4d und ergänzende Abb. 3). In A2 beobachteten wir eine signifikante Korrelation zwischen DSI und Biassupp bei 20 Okt/Sek., die Gesamtkorrelation war jedoch schwächer als in A1 (Abb. 4e). Daher lässt sich die starke Richtungsselektivität von A1-Neuronen zumindest teilweise durch die Asymmetrie in der unterdrückenden spektrotemporalen Interaktionskarte erklären, wohingegen eine symmetrischere spektrotemporale A2-Interaktion zu schwach richtungsselektiven Reaktionen in diesem Bereich führt. Im Gegensatz zur starken Korrelation zwischen DSI und Biassupp fanden wir keine signifikante Korrelation zwischen DSI und Biasfac, unabhängig von FM-Geschwindigkeiten oder kortikalen Bereichen (siehe „Diskussion“). Daher stimmen unsere Ergebnisse mit der Rolle der kortikalen Hemmung bei der Gestaltung der Richtungsselektivität bei ethologischen FM-Geschwindigkeiten für Mäuse überein.
Schließlich haben wir unter Nutzung unserer großen Populationsdaten quantifiziert, wie sich die Aktivitätsmuster neuronaler Ensembles zwischen Einzelton- und Zweitondarstellungen nichtlinear ändern. In Übereinstimmung mit einer früheren Studie an Weißbüschelaffen A1 fanden wir viele Neuronen, die signifikante Reaktionen auf Zweitonreize zeigten, jedoch nicht auf einzelne Töne5. Von den nicht reagierenden Einzelton-Neuronen reagierten 53,0 % (A1) und 55,2 % (A2) entweder auf gleichzeitige oder verschobene zwei Töne (Abb. 5a). Daher rekrutieren Zweitonreize neuronale Ensembles, die sich von der linearen Summe der durch Eintonreize rekrutierten Ensembles unterscheiden. Um dies zu quantifizieren, haben wir Korrelationskoeffizienten zwischen neuronalen Aktivitätsvektoren des Ensembles in einem hochdimensionalen Raum für zweifarbige Einzeltöne („Einzelton“) und der linearen Summe einzelner Töne („Linearsumme“) berechnet (Abb . 5b). Sowohl in A1 als auch in A2 zeigten die Zweitondarstellungen insgesamt eine höhere Korrelation mit der linearen Summe als die Einzeltondarstellungen, was darauf hindeutet, dass die Antwortmuster des Zweitonensembles die Darstellungen beider Komponententöne widerspiegeln (Abb. 5c). Es gab jedoch einen deutlichen Unterschied zwischen A1 und A2, als wir gleichzeitige und zeitlich verschobene Töne trennten. Sowohl in A1 als auch in A2 zeigte die lineare Summe niedrigere Korrelationskoeffizienten mit koinzidenten als mit verschobenen Zweitonreizen (A1 koinzident: 0,62 ± 0,05, verschoben: 0,73 ± 0,01, p = 0,0124; A2 koinzident: 0,40 ± 0,07, verschoben: 0,81 ± 0,01, p = 3,77 × 10–9), aber dieser Unterschied war in A2 viel deutlicher (A1-Koinzidenz vs. A2-Koinzidenz, p = 6,24 × 10–5) (Abb. 5c, d). Diese Ergebnisse deuten darauf hin, dass A2-Neuronenensembles im Vergleich zu ihren Einzeltönen unterschiedliche Aktivitätsmuster für koinzidente Klänge aufweisen, was darauf hindeutet, dass sie möglicherweise zur Wahrnehmungsbindung zeitlich kohärenter Klänge beitragen17,25,26,27. Interessanterweise war der Korrelationskoeffizient zwischen linearer Summe und zeitlich verschobenen zwei Tönen in A2 signifikant höher als in A1 (p = 6,57 × 10–6). Wenn die Töne asynchron sind, integrieren und transformieren A1-Ensembles die Darstellungen von Komponententönen nichtlinear, während A2-Ensembles Komponententöne präziser kodieren. Zusammengenommen zeigen diese Analysen auf Bevölkerungsebene eine Aufteilung solider integrativer Funktionen auf zwei Bereiche; A1 integriert und transformiert bevorzugt zeitlich verschobene Klänge, während A2 selektiv die nichtlineare Integration gleichzeitiger Klänge durchführt.
Ensemble-Aktivitätsmuster zeigen deutliche integrative Funktionen zwischen A1 und A2. (a) Von den nicht reagierenden Einzelton-Neuronen in L2/3 reagierten 53,0 % (A1) und 55,2 % (A2) entweder auf gleichzeitige Töne oder auf mindestens einen der acht verschobenen zwei Töne. (b) Schematische Darstellung der neuronalen Aktivitätsvektoren des Ensembles im hochdimensionalen Raum für zweifarbige Einzeltöne („Tonecent“ und „TonedF“) und die lineare Summe einzelner Töne („linear sum“). (c) Korrelationskoeffizient zwischen Einzelton- und Zweitondarstellungen (schwarze Linien) und zwischen linearen Summen- und Zweitondarstellungen (rote Linien) über dTs in A1 (links) und A2 (rechts). Durchgezogene Linie: Durchschnitt, Schattierung: SEM. (d) Boxdiagramme, die die Korrelationskoeffizienten zwischen der Zweitondarstellung und der linearen Summendarstellung getrennt für koinzidente und verschobene Zweitonreize zeigen. Kasten: 25. bis 75. Perzentil. Whiskers: 99,3 % Abdeckung. Rote Linien: Median. Blaue Kreuze: Ausreißer. Verschoben: n = 64 dF-dT-Paare, Koinzident: n = 8 dF-dT-Paare. *p < 0,05, ***p < 0,001, Zweifaktorielle ANOVA, gefolgt von Tukeys ehrlichem Signifikanztest.
In dieser Studie haben wir Zweitonreaktionen von funktionell identifizierten kortikalen Bereichen quantifiziert und unterschiedliche spektrotemporale Interaktionsregeln zwischen A1 und A2 sowohl auf zellulärer als auch auf Ensemble-Aktivitätsebene gefunden. Unsere Ergebnisse zeigen eine flächenhafte Funktionsaufteilung bei der spektrotemporalen Integration: A1-Neuronen integrieren vorzugsweise zeitliche Tonfolgen und sind daher in der Lage, Richtungen der Frequenzmodulation zu kodieren. Im Gegensatz dazu ermöglicht die zeitlich symmetrische und koinzidenzbevorzugte Zweitoninteraktion in A2-Neuronen die spektrale Integration gleichzeitiger Töne. Es ist hervorzuheben, dass unsere spektrotemporalen Interaktionskarten gemischte supralineare und sublineare Interaktionen sogar innerhalb einzelner Neuronen zeigten (Abb. 1 und 2). Diese Karten waren komplexer als die in einer früheren Studie an Weißbüschelaffen A1, die fast ausschließlich unterstützende Interaktionen visualisierte5. Obwohl wir die Möglichkeit einer Speziesabhängigkeit bei der Integration nicht ausschließen können, ist dieser Unterschied höchstwahrscheinlich darauf zurückzuführen, dass sich die Analysen der vorherigen Studie auf reine, nicht auf Ton reagierende Neuronen konzentrierten, was die Visualisierung sublinearer Reaktionen per Definition einschränkte. Die gemischte Verteilung supralinearer und sublinearer Interaktionen sollte den Kontrast zwischen neuronalen Reaktionen auf bevorzugte und nicht bevorzugte Tonsequenzen verstärken und dadurch die Informationskodierungseffizienz einzelner Neuronen erhöhen.
In A2 fanden wir eine starke Präferenz für die Darstellung zusammenfallender gegenüber zeitlich verschobenen zwei Tönen. Darüber hinaus zeigte die Ensembleaktivität für zusammenfallende, aber nicht verschobene zwei Töne ein deutliches Muster gegenüber der linearen Summe einzelner Töne, was möglicherweise zur Wahrnehmungsbindung zeitlich kohärenter Klänge beiträgt25,26,27. Diese einzigartige Mehrfrequenz-Integrationseigenschaft bildet wahrscheinlich die Grundlage für die bevorzugten Darstellungen koinzidenter Harmonischer in A2-Neuronen17. Wir haben jedoch einige Unterschiede zu unserer vorherigen Arbeit festgestellt, bei der Reize mit 3–20 harmonischen Komponenten verwendet wurden. Erstens beobachteten wir eine klare Supralinearität der koinzidenten Zweitonintegration in A2 (Abb. 3b), die im Gegensatz zur Gesamtsublinearität steht, über die wir zuvor unter Verwendung von Mehrfrequenzharmonischen berichtet haben. In Anbetracht der in neuronalen Schaltkreisen vorherrschenden Normalisierungsmechanismen28 könnte die größere Anzahl von Schallkomponenten, die in der vorherigen Studie verwendet wurden, aufgrund der Obergrenze der neuronalen Aktivität zu einer stärkeren sublinearen Interaktion geführt haben. Zweitens fanden wir eine geringe Präferenz von A1-Neuronen für zusammenfallende Töne gegenüber Reizen mit kleinen zeitlichen Verschiebungen (Abb. 3b), was im vorherigen Experiment auf Populationsebene nicht beobachtet wurde. Diese Ergebnisse sind nicht inkonsistent, da wir bereits zuvor einen kleinen Anteil koinzidenzbevorzugter Neuronen in A1 mit harmonischen Zehntonstapeln gefunden haben. Höchstwahrscheinlich gibt es sogar in A1 eine schwache Integration gleichzeitiger Geräusche, deren Supralinearität mit zunehmender Anzahl der Geräuschkomponenten abnimmt. Diese Integration gleichzeitiger Töne kann in A1-Neuronen inhärent sein oder von A2 durch Top-Down-Eingaben übermittelt werden29. Dennoch wurde die drastische Änderung der Aktivitätsmuster des Ensembles nur in A2, nicht jedoch in A1 festgestellt (Abb. 5d), was auf unterschiedliche Integrationsrollen zwischen diesen Bereichen schließen lässt. Zusammengenommen ergab die Verwendung minimal komplexer Zweitonreize in der vorliegenden Studie dynamischere Darstellungen von Tonsequenzen in einzelnen Neuronen, die abhängig von den spezifischen Frequenz-Intervall-Kombinationen sowohl supralineare als auch sublineare Wechselwirkungen zeigen.
Wir stellen zwei Einschränkungen bei der Interpretation der Ergebnisse unserer Kalzium-Bildgebungsexperimente fest. Erstens: Obwohl die GCaMP-Kalziumbildgebung uns eine große statistische Aussagekraft zur Untersuchung der Schallreaktionseigenschaften auf Populationsebene verschaffte, hinderte uns die langsame Kinetik von GCaMP daran, feine zeitliche Informationen zu analysieren, die möglicherweise durch neuronale Reaktionen übermittelt wurden. Zukünftige elektrophysiologische Aufzeichnungen, die auf A2 abzielen, würden eine detailliertere Kinetik der Zweitonreaktionen offenbaren, was Einblicke in die Schaltkreismechanismen liefern könnte, die seiner spektrotemporalen Integration zugrunde liegen. Zweitens ist die GCaMP-Kalziumbildgebung ein indirektes Maß für die neuronale Aktivität und kann unter Sublinearität beim Auslesen der Spike-Zahlen in Neuronen mit hohen Feuerraten leiden. Daher sind unsere Daten möglicherweise dahingehend verzerrt, dass bei der spektrotemporalen Integration mehr Sublinearität als Supralinearität beobachtet wird. Dennoch stärkt diese Tendenz unsere Schlussfolgerung für die supralineare Integration koinzidenter Geräusche in A2 weiter, da unsere Beobachtung wahrscheinlich eine Unterschätzung darstellt.
Wir haben gezeigt, dass die FM-Richtungsselektivität mit einer unterdrückenden, aber nicht erleichternden Interaktion bei Zweitonreaktionen korreliert. Dieses Ergebnis steht im Einklang mit der Idee, dass die kortikale Hemmung die A1-FM-Richtungsselektivität durch laterale Hemmung beeinflusst9,12,13,14,15. Unser vorheriges Schaltkreismodell hat vorhergesagt, dass die Hemmung die Richtungsselektivität bei FM-Raten im mittleren Bereich (10–40 Okt/s) beeinflusst, und die aktuellen experimentellen Daten stützen dieses Modell (Abb. 4d). Darüber hinaus erklären die symmetrischen spektrotemporalen Wechselwirkungskarten in A2 die geringere Richtungsselektivität, die wir in diesem Bereich beobachtet haben (Abb. 3f und 4c). Die asymmetrische Hemmung, die Richtungsselektivität in A1 erzeugt, entsteht durch die räumliche Trennung von nieder- und hochfrequenten Reaktionsbereichen12,30. In A2 macht die komprimierte und schlecht getrennte Tonotopie31,32,33,34,35,36 die Hemmung weniger asymmetrisch und erzeugt daher keine Richtungsselektivität.
Unsere Ergebnisse scheinen im Widerspruch zu früheren Arbeiten zu stehen, die die Rolle erleichternder Zweitonwechselwirkungen bei der FM-Richtungsselektivität bei Fledermäusen6 und Weißbüschelaffen5 vorschlagen. Diese Nichtübereinstimmung könnte auf den Unterschied im Stimulusraum zurückzuführen sein, der in den verschiedenen Studien getestet wurde, und wir schließen die Möglichkeit nicht aus, dass unterstützende Interaktion für die Richtungsselektivität bei höheren FM-Geschwindigkeiten als denen, die wir getestet haben, verantwortlich ist. In der aktuellen Studie untersuchten wir zweifarbige zeitliche Wechselwirkungen in Intervallen von 25–100 ms mit einem Abstand von 0,25–1 Oktaven, was Übergängen von 2,5–40 Okt/s entspricht. Im Gegensatz dazu beobachteten frühere Studien unterstützende Interaktionen meist in kürzeren Intervallen (< 10 ms6 oder < 25 ms5), die wir in unserer Studie nicht getestet haben. Viele frühere Studien konzentrierten sich auf kurzzeitige zeitliche Interaktionen und ahmten die Hochgeschwindigkeits-FMs bei der Echoortung von Fledermäusen nach (> 100 Okt/Sek.). Die stimmliche Kommunikation anderer Arten enthält jedoch typischerweise viel langsamere FMs, und wir haben zuvor gezeigt, dass die Lautäußerungen von Mäusen von FMs unter 40 Okt./Sek. dominiert werden12. Unsere Ergebnisse legen nahe, dass die Dynamik langsamer inhibitorischer Netzwerke12,30,37,38,39 zur Regulierung der Darstellung ethologisch relevanter langsamer FM-Raten bei Mäusen geeignet ist. Diese Idee steht im Einklang mit dem beobachteten langen Zeitfenster (bis zu einigen hundert Millisekunden) für die Schallintegration bei mehreren nicht echolokalisierenden Arten40,41,42. Natürlich ist es möglich, dass unterstützende Erregungsmechanismen auch bei Mäusen zur Kodierung schnellerer FM-Sweeps beitragen. Das Vorhandensein mehrerer Mechanismen könnte es neuronalen Schaltkreisen ermöglichen, FM-Richtungen mit einer Vielzahl von Reizparametern zu kodieren. Abschließend stellen wir fest, dass FM-Sweep-Geschwindigkeiten auch für den fehlenden beobachteten Unterschied in der FM-Richtungsselektivität zwischen A1 und A2 in einer früheren Studie verantwortlich sein können24. Da in dieser vorherigen Arbeit die Ergebnisse von 8 bis 670 Okt/s-Sweeps kombiniert wurden, könnte die geringere Richtungsselektivität von A2-Neuronen, die wir im mittleren Geschwindigkeitsbereich beobachteten (Abb. 4c), durch Reaktionen auf Hochgeschwindigkeits-FMs in ihren Ergebnissen verdeckt worden sein .
Welche Zell- und Schaltkreismechanismen liegen den unterschiedlichen spektrotemporalen Integrationseigenschaften zwischen A1- und A2-Neuronen zugrunde? Wir haben zuvor herausgefunden, dass Somatostatin-exprimierende inhibitorische Neuronen zur langsamen lateralen Hemmung30 und FM-Richtungsselektivität12 in A1 beitragen und das zeitliche Integrationsfenster für harmonische Klänge in A217 begrenzen. Diese Ergebnisse legen nahe, dass ein spezialisierter inhibitorischer Neuronensubtyp zur Gestaltung der Sublinearität in den spektrotemporalen Integrationskarten einzelner Neuronen beiträgt. Neben den Wechselwirkungen auf Schaltungsebene könnten auch Einzelzellenmechanismen zur Nichtlinearität beitragen, da dendritische Leitfähigkeiten bekanntermaßen sowohl die supralineare als auch die sublineare Integration vorantreiben. Insbesondere kann die aktive Leitfähigkeit in einem einzelnen Dendrit die zeitliche Abfolge von Eingaben43,44 oder zusammenfallenden Eingaben45,46,47 nichtlinear integrieren. Es wäre von großem Interesse zu untersuchen, ob diese zellulären Mechanismen zu den unterschiedlichen Schallreaktionseigenschaften zwischen A1- und A2-Neuronen beitragen. Wir schließen auch nicht die Möglichkeit aus, dass die spektrotemporalen Integrationseigenschaften in diesen kortikalen Regionen teilweise von vorgelagerten subkortikalen Systemen geerbt werden. Obwohl Vorwärtsunterdrückung häufig als kortikaler Ursprung angesehen wird, da Thalamusneuronen hochfrequenten Klickzügen folgen können48,49, wurden in subkortikalen Strukturen, einschließlich des Hörnervs, des Cochlea-Kerns und des Colliculus inferior, häufig nichtlineare Erleichterung und Unterdrückung von Zweitonreizen beobachtet50 ,51,52,53,54. Dennoch sind die Zeitfenster für Nichtlinearitäten in diesen peripheren Strukturen typischerweise schmaler (< 20 ms), und es ist unwahrscheinlich, dass die komplexen kortikalen spektrotemporalen Interaktionskarten, die breit über Frequenz- und Zeitbereiche verteilt sind, einfach durch Vererbung von vorgelagerten Strukturen erklärt werden können.
Kombinationsselektive nichtlineare Reaktionen in A1 gelten als Zwischenstufe für die Extraktion komplexerer Geräusche, wie etwa artspezifischer Lautäußerungen, im sekundären auditorischen Kortex5. Interessanterweise haben wir durch den Vergleich von zweifarbigen spektrotemporalen Interaktionskarten in A1 und A2 herausgefunden, dass diese Bereiche überlappende, aber voneinander unterschiedliche akustische Merkmale kodieren. Im Gegensatz zur erleichternden Interaktion, die in A1 breit über Frequenz und Zeit verteilt ist, integrieren A2-Neuronen bevorzugt koinzidente Frequenzen. Unsere Daten legen daher nahe, dass diese beiden Bereiche auf die Extraktion unterschiedlicher Klangmerkmale spezialisiert sind, nämlich FM in A1 und gleichzeitige Mehrfrequenztöne in A2. Diese Ergebnisse scheinen im Widerspruch zu der Vorstellung zu stehen, dass A2 sich auf die in A1 kodierten Informationen als Materialien zum Aufbau komplexer Klangdarstellungen verlässt. Da A2 Eingaben nicht nur von A1, sondern auch von anderen kortikalen und thalamischen Bereichen erhält55, können A1 und A2 eher parallele als sequentielle Informationsextraktionswege bilden21,35,55,56. Beispielsweise befindet sich neben A2 ein weiterer primärer auditorischer Kortex, das vordere Hörfeld (AAF), und es wurde berichtet, dass er schlecht zwischen FM-Richtungen unterscheidet57, ähnlich unserem Befund in A2. Wir halten es jedoch für unwahrscheinlich, dass die spektrotemporalen Integrationseigenschaften von A2 ausschließlich von AAF geerbt werden, da in einer Studie festgestellt wurde, dass AAF-Neuronen noch weniger auf komplexe harmonische Reize reagieren als A1-Neuronen58, und unsere vorherige Studie zeigte auch eine stärkere Koinzidenzpräferenz für harmonische Stapel in A2 als AAF17. Angesichts der unterschiedlichen spektrotemporalen Reaktionseigenschaften in A1-, A2- und AAF-Neuronen wird eine weitere anatomische Analyse ihrer interarealen Konnektivität für das Verständnis ihrer hierarchischen Organisation von großer Bedeutung sein.
Obwohl unsere Daten darauf hindeuten, dass A2-Neuronen eher für die Integration spektraler als zeitlicher Informationen geeignet sind, schließen wir die Möglichkeit nicht aus, dass die Verwendung komplexerer Klänge (z. B. Dreiton- oder größere Klangsequenzen) eine ausgefeiltere spektrotemporale Interaktion in A2 offenbaren könnte . Eine natürliche Folgefrage aus der vorliegenden Studie ist beispielsweise, wie A1 und A2 Mehrfrequenztöne mit FMs kodieren, die bei Lautäußerungen häufig vorkommen. Werden FM-Informationen in A1 an A2 weitergeleitet und anschließend mit den dortigen Multifrequenzinformationen integriert? Erhalten andere nachgelagerte Bereiche alternativ parallele Informationsströme von A1 und A2, um sie zu integrieren? Eine interessante Möglichkeit besteht darin, dass die beiden Schaltungsmodelle, hierarchische oder parallele Verarbeitung in A1 und A2, sich nicht gegenseitig ausschließen, sondern je nach Toneingängen gleichzeitig mit unterschiedlichen Beiträgen arbeiten. Zukünftige pfadspezifische Störungsexperimente werden von entscheidender Bedeutung sein, um zu verstehen, wie diese beiden Schaltkreismodelle unsere Wahrnehmung natürlicher akustischer Merkmale unterschiedlich unterstützen.
Die Mäuse waren zum Zeitpunkt der Experimente 6–12 Wochen alt. Mäuse wurden von Jackson Laboratories erworben: C57BL/6J; Slc32a1tm2(cre)Lowl/J (VGAT-Cre); Gt(ROSA)26Sortm9(CAG-tdTomato)Hze/J (Ai9). Es wurden sowohl weibliche als auch männliche Tiere verwendet und bei 21 °C und 40 % Luftfeuchtigkeit mit umgekehrtem Lichtzyklus (12–12 Stunden) gehalten. Alle Experimente wurden während ihres Dunkelzyklus durchgeführt. Alle Verfahren wurden in Übereinstimmung mit dem Institutional Animal Care and Use Committee der University of North Carolina in Chapel Hill sowie den Richtlinien der National Institutes of Health genehmigt und durchgeführt. Die Studienergebnisse werden gemäß den ARRIVE-Richtlinien gemeldet.
Hörreize wurden in Matlab (Mathworks) mit einer Abtastrate von 192 kHz berechnet und über einen elektrostatischen Freifeldlautsprecher (ES1-Lautsprecher mit ED1-Lautsprechertreiber; Tucker-Davis Technologies) und eine Soundkarte (Xonar DX; ASUS) geliefert. Die Lautsprecher wurden über einen Bereich von 2–64 kHz (21 Frequenzen, logarithmischer Abstand) kalibriert, um durch eine iterative Bestimmung der Dämpfungsfaktoren unter Verwendung eines 1/4-Zoll-Freifeldmikrofons (4939-) einen flachen Frequenzgang (± 1 dB) zu erzielen. A-011; Brüel & Kjær) ungefähr an der Position des linken Ohrs der Maus platziert. Zweitonstimuli bestanden aus zwei 20 ms langen 70 dB SPL-Tönen, wobei ein Ton (Mittelton) auf die beste Populationsfrequenz der abgebildeten Neuronen im Sichtfeld fixiert war (siehe unten). Der andere Ton (dF-Ton) wurde aus neun Frequenzen ausgewählt (dF: − 1 bis 1 Oktave um den Mittelton, 0,25-Oktaven-Intervall). Die Zeitpunkte von Beginn zu Beginn wurden aus neun Intervallen ausgewählt (dT: − 100 bis 100 ms, 25-ms-Intervall. Negative Werte zeigen führende dF-Töne an). Einzelne Töne wurden auch einzeln dargestellt, um die Berechnung der Linearität in der Summation zu ermöglichen. Tonreize wurden während Zwei-Photonen-Bildgebungsexperimenten in halbzufälliger Reihenfolge präsentiert; Jeder Versuchsblock bestand aus Reizen mit allen dT/dF-Paaren und einzelnen Komponententönen, jeweils einmal, in zufälliger Reihenfolge, und es wurden fünf Versuchsblöcke präsentiert. Für FM-Sweep-Experimente wurden aufwärts (4 bis 64 kHz) und abwärts (64 bis 4 kHz) logarithmische FM-Sweeps mit unterschiedlichen Geschwindigkeiten (2,5, 5, 10, 20, 40 und 80 Okt/Sek.) bei 70 dB SPL präsentiert. Die beste Frequenz wurde ermittelt, indem 1-sekündige reine Töne von 17 Frequenzen (logarithmischer Abstand, 4–64 kHz) bei 30, 50 und 70 dB SPL präsentiert wurden. Die Bandbreite (BW70) wurde als Durchschnitt des Frequenzbereichs, der signifikante Reaktionen hervorrief, und des Frequenzbereichs mit einer Gaußschen Anpassung berechnet, der einen Schwellenwert bei 70 dB SPL überschritt. Das Intervall zwischen den Versuchen betrug fünf Sekunden für alle Reiztypen während der Zwei-Photonen-Bildgebung und 30 Sekunden für die Bildgebung mit intrinsischen Signalen. Tonreize hatten einen linearen Anstiegs-Abfall von 3 ms bei Beginn und Ende. Die Reize wurden kontralateral zur Bildgebungsstelle an das Ohr abgegeben. Die Abgabe akustischer Reize wurde durch Bpod (Sanworks) gesteuert, das auf Matlab lief.
Intrinsische Signalbilder wurden mit einem speziellen Tandemobjektiv-Makroskop (bestehend aus Nikkor 35 mm 1:1,4- und 135 mm 1:2,8-Objektiven) und einer 12-Bit-CMOS-Kamera (DS-1A-01M30, Dalsa) aufgenommen. Allen Mäusen wurde zunächst eine maßgeschneiderte Kopfschiene aus Edelstahl implantiert. Die Mäuse wurden mit in Sauerstoff verdampftem Isofluoran (0,8–2 %) (1 l/min) anästhesiert und auf einem rückkopplungsgesteuerten Heizkissen bei 34–36 °C gehalten. Der über der rechten Hörrinde liegende Muskel wurde entfernt und die Kopfschiene mit Zahnzement am Schädel befestigt. Für die erste Kartierung wurde die Gehirnoberfläche durch den Schädel hindurch abgebildet, der durch Sättigung mit phosphatgepufferter Kochsalzlösung transparent gehalten wurde23. Zur Neukartierung 1–3 Tage vor der Zwei-Photonen-Kalziumbildgebung wurde die Gehirnoberfläche durch ein implantiertes Glasfenster abgebildet. Mäusen wurde vor der Bildgebung subkutan Chlorprothixen (1,5 mg/kg) injiziert. Bilder von Oberflächengefäßen wurden mit grüner LED-Beleuchtung (530 nm) aufgenommen und intrinsische Signale wurden mit roter Beleuchtung (625 nm) aufgezeichnet (16 Hz). Jeder Versuch bestand aus einer 1-sekündigen Grundlinie, gefolgt von einem Tonreiz und einem 30-sekündigen Intervall zwischen den Versuchen. Reflexionsbilder wurden mit 717 × 717 Pixeln (Abdeckung von 2,3 × 2,3 mm) aufgenommen. Bilder während des Reaktionszeitraums (0,5–2 s nach Einsetzen des Tons) wurden gemittelt und durch das durchschnittliche Bild während der Basislinie dividiert. Die Bilder wurden über 5–20 Versuche für jeden Ton gemittelt, einer Gaußschen Filterung unterzogen und zur Visualisierung mit einem Schwellenwert versehen. Zur Quantifizierung der Antwortamplituden in einzelnen Bereichen wurden die Bilder mit einem zweidimensionalen Gaußschen Fenster (σ = 200 mm) unter Verwendung der Lucy-Richardson-Entfaltungsmethode entschärft. Einzelne Hörbereiche, einschließlich A1, AAF, VAF und A2, wurden anhand ihrer charakteristischen tonotopischen Organisation identifiziert, die durch ihre Reaktionen auf reine Töne (1 s; 75 dB SPL; 3, 10 und 30 kHz) bestimmt wurde23. Insbesondere wurde A1 als der am weitesten kaudale Bereich identifiziert, dessen tonotopen Gradient sich rostrodorsal ausbreitete (niedrig → hoch), und dieser Bereich umfasste in früheren Studien wahrscheinlich das Ultraschallfeld (UF)31. VAF wurde als der am weitesten kaudale Bereich identifiziert, dessen tonotopischer Gradient sich rostroventral bewegte. A1 und VAF konvergierten bei den meisten Tieren an ihren Niederfrequenzpolen12,17,35,36,59. AAF wurde als der am weitesten rostral gelegene Bereich identifiziert, dessen tonotopischer Gradient sich nach kaudal verlagerte, wobei die meisten Mäuse einen kaudoventralen Gradienten aufwiesen. Schließlich wurde A2 als die auf den Ton reagierende Domäne zwischen VAF und AAF identifiziert, die typischerweise einen schwachen tonotopischen Gradienten aufwies, der sich nach ventral bewegte. Ausführlichere Protokolle für die Bildgebung intrinsischer Signale und die Bereichssegmentierung wurden in einem früheren Artikel23 beschrieben.
Nach der Kartierung der Bereiche der Hörrinde mittels intrinsischer Signalbildgebung wurde eine Kraniotomie (2 × 3 mm) über der Hörrinde durchgeführt, wobei die Dura intakt blieb. Das Bohren wurde alle 1–2 s unterbrochen und der Schädel mit phosphatgepufferter Kochsalzlösung gekühlt, um Schäden durch Überhitzung zu verhindern. Das Virus wurde an 5–10 Stellen injiziert (250 µm tief von der Pialoberfläche, 30 nL/Stelle bei 10 nL/min). Für die Bildgebung von Pyramidenzellen wurde AAV9.syn.GCaMP6s.WPRE.SV40 (2 × 1012 Genomkopien pro ml) in C57BL/6J- oder VGAT-Cre×Ai9-Mäuse injiziert. Über der Kraniotomie wurde ein Glasfenster angebracht und mit Zahnzement befestigt. Vor der Kraniotomie wurde Dexamethason (2 mg/kg) injiziert. Enrofloxacin (10 mg/kg) und Meloxicam (5 mg/kg) wurden injiziert, bevor die Mäuse in ihren Heimkäfig zurückgebracht wurden. Zwei-Photonen-Kalzium-Bildgebung wurde 2–3 Wochen nach der chronischen Fensterimplantation durchgeführt, um ein angemessenes Maß an GCaMP6s-Expression sicherzustellen. Ein zweites Bildgebungsexperiment mit intrinsischen Signalen wurde 1–3 Tage vor der Kalziumbildgebung durch das chronische Fenster durchgeführt, um intakte Karten des auditorischen Kortex zu bestätigen. Am Tag der Kalziumbildgebung wurde der Kopf wacher Mäuse unter dem Zwei-Photonen-Mikroskop in einer speziell angefertigten Schalldämpfungskammer fixiert. Mäuse blieben typischerweise ein bis zwei Stunden nach der Kopffixierung wach, ohne Anzeichen von stressbedingtem, intensivem Kämpfen zu zeigen. GCaMP6s wurde bei 925 nm angeregt (InSight DS+, Newport) und Bilder (512 × 512 Pixel, die 620 × 620 µm abdecken) wurden mit einem kommerziellen Mikroskop (MOM Scope, Sutter) aufgenommen, auf dem die Scanimage-Software (Vidrio) unter Verwendung eines 16-fach-Objektivs ausgeführt wurde ( Nikon) bei 30 Hz. Für A1 wurden bei drei Mäusen zwei Sichtfelder abgebildet, was insgesamt 12 Sichtfelder ergibt. Die Bilder wurden von L2/3 (200–300 µm unter der Oberfläche) aufgenommen. Die seitliche Bewegung wurde durch eine auf Kreuzkorrelation basierende Bildausrichtung60 korrigiert. Die Zeitpunkte der Tonabgabe wurden an die Bildrahmen angepasst, indem zeitliche TTL-Signale in der Wavesurfer-Software (Vidrio) aufgezeichnet wurden. Die Experimente wurden typischerweise über einen Zeitraum von zwei Tagen durchgeführt. Am ersten Tag wurden die besten Frequenzen einzelner Neuronen durch Messung reiner Tonreaktionen bestimmt. Am zweiten Tag wurden zweifarbige Experimente aus demselben Sichtfeld wie am ersten Tag durchgeführt. Bei den meisten Tieren wurden am zweiten Tag auch FM-Sweep-Experimente durchgeführt. In einzelnen Neuronen wurde die beste Frequenz als die Frequenz mit der stärksten Reaktion unabhängig von der Tonintensität berechnet. Die beste Populationshäufigkeit wurde als Spitzenwert des Histogramms der besten Häufigkeitsverteilung in jedem Sichtfeld der Bildgebung bestimmt.
Interessenbereiche (ROIs), die einzelnen Zellkörpern entsprechen, wurden automatisch von der Suite2P-Software (https://github.com/cortex-lab/Suite2P) erkannt und durch manuelles Zeichnen ergänzt. Allerdings haben wir die Analysepipeline in Suite 2P nach der ROI-Erkennung nicht verwendet, da wir häufig eine übermäßige Subtraktion von Hintergrundsignalen beobachteten. Alle ROIs wurden einzeln überprüft und mithilfe einer benutzerdefinierten grafischen Benutzeroberfläche in Matlab auf geeignete Formen hin bearbeitet. Pixel innerhalb jedes ROI wurden gemittelt, um eine Fluoreszenzzeitreihe Fcell-meausred(t) zu erstellen. Um Hintergrundkontaminationen zu korrigieren, wurden um jede Zell-ROI ringförmige Hintergrund-ROIs (beginnend bei 2 Pixel und endend bei 8 Pixel vom Rand des ROI) erstellt. Aus diesem Hintergrund-ROI wurden Pixel ausgeschlossen, die Zellkörper oder Prozesse aus umgebenden Zellen enthielten (erkannt als Pixel, die während der gesamten Bildgebungssitzung einen starken Anstieg von dF/F zeigten, der nicht mit dem des Zell-ROI korrelierte). Die verbleibenden Pixel wurden gemittelt, um eine Hintergrundfluoreszenz-Zeitreihe Fbackground(t) zu erstellen. Das Fluoreszenzsignal eines Zellkörpers wurde als F(t) = Fcell_measured(t) – 0,9 × Fbackground(t) geschätzt. Um eine robuste Neuropil-Subtraktion zu gewährleisten, wurden nur Zell-ROIs einbezogen, die mindestens 3 % heller waren als die Hintergrund-ROIs. Normalisierte Zeitreihen dF/F wurden generiert, nachdem ein kleiner Versatz (20 au) zu F(t) hinzugefügt wurde, um in seltenen Fällen eine Division durch extrem niedrige Basiswerte zu vermeiden. Unter Berücksichtigung der langsamen Kinetik von GCaMP6s betrug das Reaktionserkennungsfenster 1,2 s ab Tonbeginn für 1-sekündige reine Töne, 1 s ab Tonbeginn für Zweitonreize und vom Tonbeginn bis 0,3 s nach Tonversatz für FM-Sweep-Stimuli. Durch Geräusche hervorgerufene Reaktionen wurden als Fläche unter der Kurve der von der Grundlinie subtrahierten dF/F-Kurven während des Reaktionserkennungsfensters gemessen. Zellen wurden als signifikant erregt beurteilt, wenn sie zwei Kriterien erfüllten: 1) dF/F musste in mehr als der Hälfte der Versuche mindestens 0,5 s lang hintereinander einen festen Schwellenwert überschreiten. 2) dF/F, gemittelt über Versuche, musste mindestens 0,5 s lang hintereinander einen festen Schwellenwert überschreiten. Die Erregungsschwellen (3,3 × SD während der Basisperiode) wurden durch eine ROC-Analyse (Receiver Operator Characteristic) ermittelt und ergaben eine echte positive Rate von 90 % bei den Tonreaktionen. Zwei-Photonen-Bildgebungsfelder wurden durch den Vergleich von Blutgefäßmustern mit den Bildgebungsfeldern des intrinsischen Signals abgeglichen, und ROIs außerhalb der durch die intrinsische Bildgebung ermittelten Flächengrenze wurden von weiteren Analysen ausgeschlossen.
In Zweitonexperimenten wurden normalisierte Antwortgrößen in Abb. 3b für ROI-dF-Paare mit signifikanten erregenden Reaktionen in mindestens einem dT berechnet. Für jedes ROI-dF-Paar wurden die Antwortamplituden auf ihren Maximalwert über dTs normiert, und diese Werte wurden über alle dFs und ROIs in jedem kortikalen Bereich gemittelt. Der Linearitätsindex (LI) wurde anhand der mittleren dF/F-Kurven über mindestens fünf Präsentationsversuche jedes Klangreizes bestimmt. Für jeden ROI wurde LI für jede dF-dT-Kombination nur dann berechnet, wenn signifikante erregende Reaktionen im dF-dT-Paar, im Mittelton oder im dF-Ton hervorgerufen wurden. LI wurde als (T − L)/(T + L) berechnet, wobei T die Reaktion auf einen Zweitonreiz und L die lineare Summierung der Reaktionen auf allein dargebotene Töne darstellt. Antwortamplituden wurden als mittlere dF/F-Werte während Antworterkennungsfenstern berechnet und negative Amplituden wurden auf 0 gezwungen, um den LI-Bereich zwischen −1 und 1 zu halten. Spektrotemporale Interaktionskarten wurden durch Anwendung eines 2D-Gauß-Filters (Standard) geglättet Abweichung = 0,4, entsprechend 0,1 Okt. und 10 ms für die dF- bzw. dT-Achse) auf 9 × 9 LI-Matrizen. dF-dT-Paare mit signifikanter nichtlinearer Integration wurden durch Vergleich der Amplitudenverteilung für Zweitonreaktionen (fünf Versuche) mit allen Kombinationen linear summierter Komponententonreaktionen (fünf Versuche mit Mittelton × fünf Versuche mit dF-Ton = 25 Kombinationen) bestimmt. . Die p-Werte wurden mithilfe des Wilcoxon-Rangsummentests berechnet und aufgrund der geringen Anzahl an Versuchen wurde ein relativ hohes Signifikanzniveau von 0,1 verwendet.
Neuronen wurden anhand ihrer bevorzugten Reaktionen auf verschobene oder zusammenfallende zweifarbige Reize in Abb. 3e klassifiziert. Zwei auf Töne reagierende Neuronen wurden als auf Koinzidenz (Verschiebung) reagierend eingestuft, wenn die Antwortamplitude für die zusammenfallenden (verschobenen) zwei Töne mehr als 1,5-mal größer war als die für die verschobenen (übereinstimmenden) zwei Töne. Von den verschiebungsbevorzugenden Neuronen wurden Neuronen weiter als negative (positive) dT-bevorzugte Neuronen klassifiziert, wenn die Antwortamplitude für negative (positive) dTs mehr als 1,5-mal größer war als die für positive (negative) dTs. Die Antwortamplituden für verschobene Reize wurden als Durchschnitt über 5 dFs × 8 verschobene dTs = 40 dF-dT-Paare berechnet, und die für koinzidente Reize wurden als Durchschnitt über 5 dFs berechnet. Der Asymmetrieindex in Abb. 3f wurde als |(P − N)/(P + N)| berechnet, wobei P und N die Summe der Antwortamplituden darstellen, die durch zwei Töne mit positivem bzw. negativem dTs ausgelöst werden. Um die Asymmetrie erleichternder und unterdrückender Wechselwirkungen zwischen Aufwärts- und Abwärtsregionen getrennt zu quantifizieren, haben wir auch den Linearitätsindex-Bias (Biasfac und Biassupp) als Differenz der summierten LI zwischen Aufwärts- und Abwärtsregionen berechnet. Der Aufwärtsbereich wurde als die kombinierten Quadranten dF > 0, dT > 0 und dF < 0, dT < 0 definiert, und der Abwärtsbereich wurde als die kombinierten Quadranten dF > 0, dT < 0 und dF < 0, dT > 0 definiert. Biasfac (Biassupp) wurde als Differenz der summierten positiven (negativen) LI zwischen Upward- und Downward-Regionen berechnet.
Um Ensemble-Aktivitätsmuster zu messen, haben wir Neuronen aller Mäuse getrennt für A1- und A2-Daten kombiniert und die Populationsreaktionsvektoren in hochdimensionalen Räumen analysiert. Für jedes dF-dT-Paar wurde ein Populationsantwortvektor für jeden Bereich erstellt, indem die Antwortamplituden aller ROIs über Mäuse hinweg verkettet wurden. Nicht signifikante Antworten wurden zur Rauschunterdrückung auf 0 gesetzt. Populationsreaktionsvektoren wurden auch für einzelne Töne und die lineare Summe einzelner Töne generiert. Der Pearson-Korrelationskoeffizient wurde zwischen den Antwortvektoren der Bevölkerung auf zweifarbige Reize und der linearen Summe berechnet und dann über dFs gemittelt. In ähnlicher Weise wurde der Korrelationskoeffizient zwischen den Antwortvektoren der Bevölkerung auf Zweitonreize und einzelne Töne berechnet und dann über dFs und beide Töne gemittelt.
Die Richtungsselektivität wurde anhand der mittleren dF/F-Kurven über fünf Präsentationsversuche jedes FM-Sweep-Stimulus bestimmt. DSI wurde als (U − D)/(U + D) berechnet, wobei U die Antwortamplituden darstellt, die durch FM-Sweeps nach oben ausgelöst werden, und D die Amplituden, die durch FM-Sweeps nach unten ausgelöst werden. Für jeden ROI wurde der DSI nur unter Verwendung der FM-Frequenzen berechnet, die signifikante erregende Reaktionen in mindestens einer Richtung hervorriefen. Die Antwortamplituden wurden als mittlere dF/F-Werte während der Antwortmessfenster berechnet, und negative Amplituden wurden auf Null gesetzt, um den DSI-Bereich zwischen –1 und 1 zu halten. Die Antwortamplituden wurden über FM-Raten von 10–40 Okt/s innerhalb einer Aufwärts- oder Abwärtsrichtung gemittelt Anweisungen zur Berechnung eines einzelnen DSI-Werts für jeden ROI (Abb. 4d, e oben) oder separat für jede FM-Rate berechnet (Abb. 4c – e unten und ergänzende Abb. 3). Vier Mäuse, die in A1-Sweep-Analysen einbezogen wurden, wurden anhand der in unserer vorherigen Studie verwendeten Daten erneut analysiert12.
Alle Daten werden als Mittelwert ± SEM dargestellt. Statistisch signifikante Unterschiede zwischen den Bedingungen wurden mithilfe standardmäßiger parametrischer oder nichtparametrischer Tests in Matlab ermittelt. Für gepaarte Tests wurde der zweiseitige gepaarte t-Test verwendet, für unabhängige Gruppenvergleiche wurde der Rang-Summen-Test von Wilcoxon verwendet und für den Vergleich von Brüchen wurde der Chi-Quadrat-Test verwendet. Für den Vergleich mehrerer Gruppen wurde entweder eine Bonferroni-Korrektur zur Anpassung der p-Werte angewendet oder eine bidirektionale Varianzanalyse gefolgt von Tukeys ehrlichem Signifikanztest verwendet. Alle n-Werte beziehen sich auf die Anzahl der Zellen, es sei denn, es wird ausdrücklich angegeben, dass sich n auf die Anzahl der Mäuse oder die Anzahl der Zell-Ton-Paare bezieht. Die Stichprobengrößen wurden nicht durch statistische Methoden vorherbestimmt, sondern basierten auf den auf diesem Gebiet üblicherweise verwendeten.
Die Daten, die die Ergebnisse dieser Studie stützen, werden auf begründete Anfrage vom entsprechenden Autor zur Verfügung gestellt.
Hubel, DH & Wiesel, TN Rezeptive Felder, binokulare Interaktion und funktionale Architektur im visuellen Kortex der Katze. J. Physiol. 160, 106–154 (1962).
Artikel CAS PubMed PubMed Central Google Scholar
Laboy-Juárez, KJ, Langberg, T., Ahn, S. & Feldman, DE Elementare Bewegungssequenzdetektoren im somatosensorischen Whisker-Kortex. Nat. Neurosci. 22, 1438–1449 (2019).
Artikel PubMed PubMed Central Google Scholar
Simons, DJ Zeitliche und räumliche Integration im SI-Vibrissa-Cortex der Ratte. J. Neurophysiol. 54, 615–635 (1985).
Artikel CAS PubMed Google Scholar
Ramirez, A. et al. Räumlich-zeitliche rezeptive Felder des Barrel-Cortex, die durch umgekehrte Korrelation synaptischer Eingaben aufgedeckt wurden. Nat. Neurosci. 17, 866–875 (2014).
Artikel CAS PubMed PubMed Central Google Scholar
Sadagopan, S. & Wang, X. Nichtlineare spektrotemporale Wechselwirkungen, die der Selektivität für komplexe Geräusche im auditorischen Kortex zugrunde liegen. J. Neurosci. 29, 11192–11202 (2009).
Artikel CAS PubMed PubMed Central Google Scholar
Razak, KA & Fuzessery, ZM Erleichterungsmechanismen, die der Selektivität für die Richtung und Geschwindigkeit frequenzmodulierter Sweeps im auditorischen Kortex zugrunde liegen. J. Neurosci. 28, 9806–9816 (2008).
Artikel CAS PubMed PubMed Central Google Scholar
Brosch, M. & Schreiner, CE Sequenzsensitivität von Neuronen im primären auditorischen Kortex von Katzen. Großhirn. Cortex 10, 1155–1167 (2000).
Artikel CAS PubMed Google Scholar
Brosch, M. & Schreiner, CE Zeitlicher Verlauf der Vorwärtsmaskierungs-Stimmkurven im primären auditorischen Kortex von Katzen. J. Neurophysiol. 77, 923–943 (1997).
Artikel CAS PubMed Google Scholar
Razak, KA & Fuzessery, ZM Neuronale Mechanismen, die der Selektivität für die Geschwindigkeit und Richtung frequenzmodulierter Bewegungen im auditorischen Kortex der blassen Fledermaus zugrunde liegen. J. Neurophysiol. 96, 1303–1319 (2006).
Artikel PubMed Google Scholar
Calford, MB & Semple, MN Monaurale Hemmung im auditorischen Kortex von Katzen. J. Neurophysiol. 73, 1876–1891 (1995).
Artikel CAS PubMed Google Scholar
Nelken, I., Prut, Y., Vaadia, E. & Abeles, M. Populationsreaktionen auf Multifrequenzgeräusche im auditorischen Kortex der Katze: Ein- und Zwei-Parameter-Geräuschfamilien. Hören. Res. 72, 206–222 (1994).
Artikel CAS PubMed Google Scholar
Aponte, DA et al. Wiederkehrende Netzwerkdynamiken prägen die Richtungsselektivität im primären auditorischen Kortex. Nat. Komm. 12, 314 (2021).
Artikel CAS PubMed PubMed Central Google Scholar
Zhang, LI, Tan, AYY, Schreiner, CE & Merzenich, MM Topographie und synaptische Gestaltung der Richtungsselektivität im primären auditorischen Kortex. Natur 424, 201–205 (2003).
Artikel ADS CAS PubMed Google Scholar
Suga, N. Funktionelle Eigenschaften auditorischer Neuronen im Kortex echoortender Fledermäuse. J. Physiol. 181, 671–700 (1965).
Artikel CAS PubMed PubMed Central Google Scholar
Shannon-Hartman, S., Wong, D. & Maekawa, M. Verarbeitung von Reinton- und FM-Reizen im auditorischen Kortex der FM-Fledermaus, Myotis lucifugus. Hören. Res. 61, 179–188 (1992).
Artikel CAS PubMed Google Scholar
Tian, B., Reser, D., Durham, A., Kustov, A. & Rauschecker, JP Funktionelle Spezialisierung auf den auditorischen Kortex von Rhesusaffen. Wissenschaft 292, 290–293 (2001).
Artikel ADS CAS PubMed Google Scholar
Kline, AM, Aponte, DA, Tsukano, H., Giovannucci, A. & Kato, HK Hemmende Steuerung der koinzidenzabhängigen sensorischen Bindung im sekundären auditorischen Kortex. Nat. Komm. Rev. 12, 4610 (2021).
Artikel ADS CAS PubMed PubMed Central Google Scholar
Tasaka, G.-I. et al. Der temporale Assoziationskortex spielt eine Schlüsselrolle bei der auditiv gesteuerten mütterlichen Plastizität. Neuron 107, 566-579.e7 (2020).
Artikel CAS PubMed PubMed Central Google Scholar
Chong, KK, Anandakumar, DB, Dunlap, AG, Kacsoh, DB & Liu, RC Erfahrungsabhängige Kodierung zeitabhängiger Frequenztrajektorien durch Off-Reaktionen im sekundären auditorischen Kortex. J. Neurosci. 40, 4469–4482 (2020).
Artikel CAS PubMed PubMed Central Google Scholar
Wernicke, C. Der aphasische Symptomkomplex. Bogen. Neurol. 22, 280 (1970).
Artikel Google Scholar
Hamilton, LS, Oganian, Y., Hall, J. & Chang, EF Parallele und verteilte Kodierung von Sprache über den menschlichen auditorischen Kortex. Zelle 184, 4626-4639.e13 (2021).
Artikel CAS PubMed PubMed Central Google Scholar
de Heer, WA, Huth, AG, Griffiths, TL, Gallant, JL & Theunissen, FE Die hierarchische kortikale Organisation der menschlichen Sprachverarbeitung. J. Neurosci. 37, 6539–6557 (2017).
Artikel PubMed PubMed Central Google Scholar
Narayanan, DP et al. Biologische Einschränkungen beim stereotaktischen Targeting funktionell definierter kortikaler Bereiche. Großhirn. Cortex 33, 3293–3310 (2023).
Artikel PubMed Google Scholar
Issa, JB, Haeffele, BD, Young, ED & Yue, DT Multiskalenkartierung der Frequenzdurchlaufrate im auditorischen Kortex von Mäusen. Hören. Res. 344, 207–222 (2017).
Artikel PubMed Google Scholar
Bregman, AS Auditive Scene Analysis (MIT Press, 1990).
Buchen Sie Google Scholar
Bregman, AS & Pinker, S. Auditives Streaming und der Aufbau von Klangfarben. Dürfen. J. Psychol. 32, 19–31 (1978).
Artikel CAS PubMed Google Scholar
Darwin, CJ Wahrnehmung von Vokalen in Gegenwart eines anderen Lautes: Einschränkungen der Formantenwahrnehmung. J. Acoust. Soc. Bin. 76, 1636–1647 (1984).
Artikel ADS CAS PubMed Google Scholar
Carandini, M. & Heeger, DJ Normalisierung als kanonische neuronale Berechnung. Nat. Rev. Neurosci. 13(1), 51–62 (2011).
Artikel PubMed PubMed Central Google Scholar
Keller, AJ, Roth, MM & Scanziani, M. Feedback erzeugt ein zweites rezeptives Feld in Neuronen des visuellen Kortex. Natur 582, 545–549 (2020).
Artikel ADS CAS PubMed PubMed Central Google Scholar
Kato, HK, Asinof, SK & Isaacson, JS Netzwerkebene Kontrolle der Frequenzabstimmung im auditorischen Kortex. Neuron 95, 412-423.e4 (2017).
Artikel CAS PubMed PubMed Central Google Scholar
Stiebler, I., Neulist, R., Fichtel, I. & Ehret, G. Der auditorische Kortex der Hausmaus: Links-Rechts-Unterschiede, tonotopische Organisation und quantitative Analyse der Frequenzdarstellung. J. Comp. Physiol. Sens. Neuronales Verhalten. Physiol. 181, 559–571 (1997).
Artikel CAS Google Scholar
Joachimsthaler, B., Uhlmann, M., Miller, F., Ehret, G. & Kurt, S. Quantitative Analyse neuronaler Antworteigenschaften in primären und höheren auditorischen kortikalen Feldern wacher Hausmäuse (Mus musculus). EUR. J. Neurosci. 39, 904–918 (2014).
Artikel PubMed PubMed Central Google Scholar
Tsukano, H. et al. Abgrenzung einer frequenzorganisierten Region, die vom primären auditorischen Kortex der Maus isoliert ist. J. Neurophysiol. 113, 2900–2920 (2015).
Artikel PubMed PubMed Central Google Scholar
Guo, W. et al. Robustheit der kortikalen Topographie über Felder, Schichten, Anästhesiezustände und neurophysiologische Signaltypen hinweg. J. Neurosci. 32, 9159–9172 (2012).
Artikel CAS PubMed PubMed Central Google Scholar
Romero, S. et al. Zelluläre und Weitfeld-Bildgebung der Schallfrequenzorganisation in primären und höheren Ordnungsfeldern des auditorischen Kortex der Maus. Großhirn. Cortex 30, 1603–1622 (2020).
Artikel PubMed Google Scholar
Issa, JB et al. Multiskalige optische Ca2+-Bildgebung der tonalen Organisation im auditorischen Kortex der Maus. Neuron 83, 944–959 (2014).
Artikel CAS PubMed PubMed Central Google Scholar
Ozeki, H., Finn, IM, Schaffer, ES, Miller, KD & Ferster, D. Die inhibitorische Stabilisierung des kortikalen Netzwerks liegt der visuellen Umgebungsunterdrückung zugrunde. Neuron 62, 578–592 (2009).
Artikel CAS PubMed PubMed Central Google Scholar
Litwin-Kumar, A., Rosenbaum, R. & Doiron, B. Hemmende Stabilisierung und visuelle Kodierung in kortikalen Schaltkreisen mit mehreren Interneuron-Subtypen. J. Neurophysiol. 115, 1399–1409 (2016).
Artikel PubMed PubMed Central Google Scholar
Tsodyks, MV, Skaggs, WE, Sejnowski, TJ & McNaughton, BL Paradoxe Wirkungen der externen Modulation hemmender Interneurone. J. Neurosci. 17, 4382–4388 (1997).
Artikel CAS PubMed PubMed Central Google Scholar
Lewicki, MS & Konishi, M. Mechanismen, die der Empfindlichkeit von Singvogel-Vorderhirnneuronen gegenüber zeitlicher Ordnung zugrunde liegen. Proz. Natl. Acad. Wissenschaft. USA. 92, 5582–5586 (1995).
Artikel ADS CAS PubMed PubMed Central Google Scholar
Alder, TB & Rose, GJ Langfristige zeitliche Integration im Anuran-Hörsystem. Nat. Neurosci. 1, 519–523 (1998).
Artikel CAS PubMed Google Scholar
Margoliash, D. Akustische Parameter, die den Reaktionen liedspezifischer Neuronen im Weißkronensperling zugrunde liegen. J. Neurosci. 3, 1039–1057 (1983).
Artikel CAS PubMed PubMed Central Google Scholar
Branco, T., Clark, B. & Häusser, M. Dendritische Unterscheidung zeitlicher Eingabesequenzen in kortikalen Neuronen. Wissenschaft 329, 1671–1675 (2010).
Artikel ADS CAS PubMed PubMed Central Google Scholar
Euler, T., Detwiler, PB & Denk, W. Richtungsselektive Calciumsignale in Dendriten von Starburst-Amacrin-Zellen. Nature 418(6900), 845–852 (2002).
Artikel ADS CAS PubMed Google Scholar
Branco, T. & Häusser, M. Synaptische Integrationsgradienten in einzelnen kortikalen Pyramidenzelldendriten. Neuron 69, 885–892 (2011).
Artikel CAS PubMed PubMed Central Google Scholar
Losonczy, A. & Magee, JC Integrative Eigenschaften radialer schräger Dendriten in hippocampalen CA1-Pyramidenneuronen. Neuron 50, 291–307 (2006).
Artikel CAS PubMed Google Scholar
Schiller, J., Major, G., Koester, HJ & Schiller, Y. NMDA-Spitzen in basalen Dendriten kortikaler Pyramidenneuronen. Natur 404, 285–289 (2000).
Artikel ADS CAS PubMed Google Scholar
Wehr, M. & Zador, A. Synaptische Mechanismen der Vorwärtsunterdrückung im auditorischen Kortex von Ratten. Neuron 47, 437–445 (2005).
Artikel CAS PubMed Google Scholar
Creutzfeldt, O., Hellweg, FC & Schreiner, C. Thalamokortikale Transformation von Reaktionen auf komplexe Hörreize. Exp. Gehirnres. 39, 87–104 (1980).
Artikel CAS PubMed Google Scholar
Arthur, RM, Pfeiffer, RR & Suga, N. Eigenschaften der „Zweitonhemmung“ in primären Hörneuronen. J. Physiol. 212, 593–609 (1971).
Artikel CAS PubMed PubMed Central Google Scholar
Greenwood, DD, Merzenich, MM & Roth, GL Einige vorläufige Beobachtungen zu den Zusammenhängen zwischen Zweitonunterdrückung und Kombinationstonsteuerung im anteroventralen Cochleakern der Katze. J. Acoust. Soc. Bin. 59, 607–633 (1976).
Artikel ADS CAS PubMed Google Scholar
Winter, IM & Palmer, AR Pegelabhängigkeit der Onset-Unit-Reaktionen des Cochlea-Kerns und der Erleichterung durch Zweittöne oder Breitbandrauschen. J. Neurophysiol. 73, 141–159 (1995).
Artikel CAS PubMed Google Scholar
Spirou, GA, Davis, KA, Nelken, I. & Young, ED Spektrale Integration durch Typ-II-Interneuronen im dorsalen Cochlea-Kern. J. Neurophysiol. 82, 648–663 (1999).
Artikel CAS PubMed Google Scholar
Palmer, AR & Winter, IM Das zeitliche Fenster der Zweitonfazilitation in Onset-Einheiten des ventralen Cochlea-Kerns. Audiol. Neurootol. 1, 12–30 (1996).
Artikel CAS PubMed Google Scholar
Ohga, S. et al. Direkte Übertragungswege vom lemniskalen auditorischen Thalamus zum sekundären Hörfeld bei Mäusen. Großhirn. Cortex 28, 4424–4439 (2018).
Artikel PubMed PubMed Central Google Scholar
Bhaya-Grossman, I. & Chang, EF Sprachberechnungen des menschlichen oberen Temporalgyrus. Annu. Rev. Psychol. 73, 79–102 (2022).
Artikel PubMed Google Scholar
Bhumika, S. et al. Eine späte kritische Phase für frequenzmodulierte Sweeps im Hörsystem der Maus. Großhirn. Cortex 30, 2586–2599 (2020).
Artikel PubMed Google Scholar
Sołyga, M. & Barkat, TR Deutliche Integration spektral komplexer Geräusche im primären Hörkortex von Mäusen. Hören. Res. 417, 108455 (2022).
Artikel PubMed Google Scholar
Liu, J. et al. Parallele Verarbeitung der Klangdynamik im auditorischen Kortex der Maus über räumlich gemusterte Thalamus-Eingänge und unterschiedliche flächenhafte intrakortikale Schaltkreise. Cell Rep. 27, 872-885.e7 (2019).
Artikel CAS PubMed PubMed Central Google Scholar
Mitani, A., Dong, M. & Komiyama, T. Die Gehirn-Computer-Schnittstelle mit hemmenden Neuronen enthüllt subtypspezifische Strategien. Curr. Biol. 28, 77-83.e4 (2018).
Artikel CAS PubMed Google Scholar
Referenzen herunterladen
Wir danken Hiroaki Tsukano und Michellee Garcia für ihre Kommentare zum Manuskript. Diese Arbeit wurde von NIDCD (R01DC017516), NIH BRAIN Initiative (RF1NS128873), Pew Biomedical Scholarship, Whitehall Foundation, Klingenstein-Simons Fellowship, Foundation of Hope (HKK) und NINDS (F31-NS111849, T32-NS007431; AMK) unterstützt.
Diese Autoren haben gleichermaßen beigetragen: Amber M. Kline und Destinee A. Aponte.
Abteilung für Psychiatrie, University of North Carolina at Chapel Hill, Chapel Hill, NC, 27599, USA
Amber M. Kline, Destinee A. Aponte und Hiroyuki K. Kato
Neuroscience Center, University of North Carolina at Chapel Hill, Chapel Hill, NC, 27599, USA
Amber M. Kline, Destinee A. Aponte und Hiroyuki K. Kato
Carolina Institute for Developmental Disabilities, University of North Carolina at Chapel Hill, Chapel Hill, NC, 27599, USA
Hiroyuki K. Kato
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
AMK, DAA und HKK haben das Projekt entworfen und die Daten analysiert. AMK und DAA führten Experimente durch. AMK und HKK haben das Manuskript geschrieben.
Korrespondenz mit Hiroyuki K. Kato.
Die Autoren geben an, dass keine Interessenkonflikte bestehen.
Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.
Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.
Nachdrucke und Genehmigungen
Kline, AM, Aponte, DA & Kato, HK Deutliche nichtlineare spektrotemporale Integration im primären und sekundären auditorischen Kortex. Sci Rep 13, 7658 (2023). https://doi.org/10.1038/s41598-023-34731-6
Zitat herunterladen
Eingegangen: 10. Januar 2023
Angenommen: 06. Mai 2023
Veröffentlicht: 11. Mai 2023
DOI: https://doi.org/10.1038/s41598-023-34731-6
Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:
Leider ist für diesen Artikel derzeit kein gemeinsam nutzbarer Link verfügbar.
Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt
Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.