Drosophila-Linien

Verschiedene Linien (GMR57C10-Gal4, elav-Gal4, UAS-GCaMP6s, UAS-GCaMP6f, UAS-CD4:tdGFP, und UAS-tdTomato) wurden vom Bloomington Stock Center bezogen. MAN-Gal4 (VT50660-AD; VT14014-DBD) und MDN-1-Gal4 (VT44845-DBD; VT50660-AD) wurden von B. Dickson (Janelia Research Campus) bereitgestellt. DNa01-Gal4 (SS00731: GMR22C05-AD; GMR56G08-DBD), DNb06-Gal4 (SS02631: GMR20C04-AD; BJD113E03-DBD), DNg13-Gal4 (SS02538: BJD118A10-AD; BJD123E03-DBD), und DNg16-Gal4 (SS01543: BJD104A07-AD; BJD107F12-DBD) wurden von G. Rubin (Janelia Research Campus) zur Verfügung gestellt.

Generierung des Act88F:Rpr-Konstrukts und der Fliegen

Actin88F:Rpr-Stämme (Act88F:Rpr-Fliegen) wurden unter Verwendung eines Actin88F:eGFP-Konstrukts29 erzeugt. Die Act88F:GFP-Linie, die ein eGFP-Konstrukt enthält, das von einer 2053 bp-Region des Actin88F-Promotors angetrieben wird, wurde von R. Benton (Universität Lausanne) erhalten. Ein Act88F:Rpr-Konstrukt wurde erzeugt, indem zunächst das folgende Primerpaar verwendet wurde, um eine KpnI-Restriktionsstelle an das 5′-Ende eines rpr-cDNA-Klons (IP02530, Drosophila Genomics Resource Center, Bloomington, IN) und eine XbaI-Stelle an das 3′-Ende des offenen Leserahmens über ein QuikChange Site-directed mutagenesis kit (Agilent Technologies) hinzuzufügen:

Forward-Primer 5′ AGACGGTACCATGGCAGTGGCATTC 3′

Reverse-Primer 5′ GCCGCGTCTAGATCATTGCGATGGCTT 3′

Das Rpr-Konstrukt wurde dann in das Act88F:eGFP-Konstrukt hinter den Act88F-Promotor anstelle der eGFP-Sequenz gespleißt. Das Act88F:Rpr-Konstrukt wurde in attp18-Drosophila-Embryonen für die PhiC31-Integrase-vermittelte ortsspezifische Transgenese35 (Transgen-Landestelle Cytolocation 6C12) von BestGene Inc. (Chino Hills, CA). Bei einigen Experimenten wurde dieses Transgen mit UAS-GCaMP6s-p2A-tdTomato (aus dem Labor von M.H.D.) kombiniert.

Fluoreszenzmikroskopie der indirekten Flugmuskeln

Fluoreszenzmikroskopie der Hemi-Thoraces wurde durchgeführt36,37. Dazu wurden die Fliegen betäubt und Kopf und Bauch abgetrennt. Die Thoraxe wurden über Nacht in 4 % Paraformaldehyd bei 4 °C fixiert und am nächsten Tag in 1× phosphatgepufferter Kochsalzlösung (PBS) gespült. Die Proben wurden auf einem Glasobjektträger angeordnet, in flüssigem Stickstoff eingefroren und mit einer Rasierklinge in der Midsagittalebene halbiert. Die IFM wurden über Nacht bei 4 °C mit Alexa-Fluor 568 Phalloidin (1:100 in PBS mit 0,1 % Triton-X (PBST)) gefärbt, mit PBS gespült und mit dem EVOS® FL Cell Imaging System (Life Technologies) bei ×4-Vergrößerung sichtbar gemacht. Für die Ganzkörperaufnahme der IFM-Myofibrillen wurden die Fliegen präpariert und die Thoraxe wie oben beschrieben halbiert. Die Hemi-Thoraces wurden mit Alexa-Fluor 568 Phalloidin (1:100 in PBST) über Nacht bei 4 °C gefärbt. Die Proben wurden in PBS gespült, mit Vectashield (Vector Laboratories) aufgezogen und mit einem Leica TCS SPE RGBV Konfokalmikroskop (Leica Microsystems) bei 100-facher Vergrößerung sichtbar gemacht.

Immunfluoreszenzbildgebung von Gehirnen und ventralen Nervensträngen

Gehirne und VNCs wurden aus 2-3 dpe weiblichen Fliegen in PBS herauspräpariert. Die Gewebe wurden dann für 20 Minuten in 4% Paraformaldehyd in PBS bei Raumtemperatur fixiert. Nach der Fixierung wurden die Gehirne und VNCs 2-3 Mal für jeweils 10 Minuten in PBS mit 1 % Triton-X-100 (PBST) gewaschen und dann über Nacht bei 4 °C in PBST inkubiert. Anschließend wurden die Proben für 20 Minuten bei Raumtemperatur in PBST mit 5 % normalem Ziegenserum (PBSTS) eingelegt. Anschließend wurden sie mit in PBSTS verdünnten primären Antikörpern (Kaninchen anti-GFP im Verhältnis 1:500, Thermofisher RRID: AB_2536526; Maus anti-Bruchpilot/nc82 im Verhältnis 1:20, Developmental Studies Hybridoma Bank RRID: AB_2314866) 48 h lang bei 4 °C inkubiert. Die Gehirne und VNCs wurden 2-3 Mal für jeweils 10 Minuten in PBST gespült, bevor sie mit sekundären Antikörpern (Ziegen-Anti-Kaninchen-Sekundärantikörper, konjugiert mit Alexa 488 im Verhältnis 1:500; Thermofisher; Ziegen-Anti-Maus-Sekundärantikörper, konjugiert mit Alexa 633 im Verhältnis 1:500; Thermofisher), verdünnt in PBSTS, für 48 Stunden bei 4 °C inkubiert wurden. Schließlich wurden die Gehirne und VNCs 2-3 Mal für jeweils 10 Minuten in PBST gespült und auf Objektträger mit Brückendeckgläsern in Slowfade-Montagemedium (Thermofisher) aufgezogen.

Die Proben wurden mit einem Carl Zeiss LSM 700 Laser Scanning Konfokalmikroskop mit den folgenden Einstellungen abgebildet: ×20 Vergrößerung, 8-Bit-Dynamikbereich, 2× Bildmittelung, 0,52 × 0,52 μm Pixelgröße, 0,57 μm z-Schritt-Intervall. Die Standardabweichung der z-Projektionen der Bildvolumina wurde mit Fiji38 erstellt. Um die GFP-Expression im zentralen Nervensystem zu vergleichen, wurden die Laserintensität und die PMT-Verstärkungen für den grünen Kanal bei Wildtyp-, A1 > GFP- und Act88F:GFP-Proben konstant gehalten.

Bildgebung der GFP-Expression in Beinmuskeln

Beine wurden manuell am Körper-Koxa-Gelenk seziert und mit doppelseitigem Klebeband auf Glasträger montiert. In den Zwischenraum zwischen Deckglas und Objektträger wurde dann Slowfade-Montagemedium (Thermofisher) gegeben. Anschließend wurde die GFP-Fluoreszenz im grünen Kanal mit einem LSM 700 Laser Scanning Confocal Microscope (Zeiss) aufgezeichnet. Die Laserintensität, die PMT-Verstärkung und die Scan-Parameter wurden für Wildtyp-, MHC > GFP- und Act88F:GFP-Tiere konstant gehalten: ×20 Vergrößerung, 8-Bit-Dynamikbereich, ×8-Bildmittelung, 0,63 × 0,63 µm Pixelgröße und 10 µm z-Schritt-Intervall. Die Autofluoreszenz der Kutikula wurde auch im roten Kanal aufgezeichnet.

Thoraxzerlegung für die VNC-Bildgebung

Spezifische Halterungen, die für die Montage der Fliegen während der Bildgebung verwendet wurden, wurden wie zuvor beschrieben hergestellt39. Für die VNC-Bildgebung wurden diese Halterungen so modifiziert, dass sie (i) flache statt gefaltete Stahlplättchen und (ii) abgeschrägte Scheitelpunkte haben, um das kugelförmige Laufband für die optischen Strömungssensoren sichtbar zu machen (Shapeways, ‚file‘). Die Stahlunterlegscheiben wurden aus 0,001″ Edelstahl, Typ 316, weichgeglüht, hergestellt (McMaster-Carr, Teil #2317K11). Die Ausgleichsscheiben wurden geätzt (Etchit, Buffalo, MN), um rechteckige Löcher zu erzeugen, wie „hier“ beschrieben. Die Datei für das Design der Unterlegscheiben finden Sie ‚hier‘.

Alle Experimente wurden an 1-3 dpe weiblichen Fliegen durchgeführt, die bei 25 °C mit Standard-Maismehlfutter in einem 12-Stunden-Licht:12-Stunden-Dunkel-Zyklus aufgezogen wurden. Die Fliegen wurden bei 4 °C betäubt. Ein Fliegenweibchen wurde ausgewählt, und in einigen Fällen wurden die Flügel abgeschnitten, um die Montage zu vereinfachen. Der dorsale Thorax der Fliege wurde dann durch ein Loch in der Stahlunterlage des Objektträgers geschoben. Der Tisch wurde dann umgedreht, UV-härtender Klebstoff (Bondic, Aurora, ON Kanada) wurde sorgfältig um den Umfang des Thorax herum aufgetragen und durch UV-Beleuchtung (LED-200, Electro-Lite Co. Bethel, CT USA) ausgehärtet. Anschließend wurden Kopf und Bauch mit UV-Kleber an der Unterseite der Bühne befestigt. Der Objekttisch wurde dann mit extrazellulärer Kochsalzlösung gefüllt18. Unter einem Präparationsmikroskop mit hoher Vergrößerung (Leica M165C) wurde eine Injektionsnadel (30 G, BD PrecisionGlide, Franklin Lakes, NJ USA) verwendet, um die Kutikula vom dorsalen Thorax abzuschneiden und abzuheben40. Anschließend wurde bei Tieren ohne Act88F:Rpr eine stumpfe Pinzette verwendet, um die IFM zu entfernen, vor allem aus dem vorderen und mittleren Bereich des Thorax, der über dem Darm liegt (dieser Schritt ist bei Act88F:Rpr-Tieren nicht erforderlich). Dieser Vorgang legt die dorsale Oberfläche des Proventriculus frei – eine große, knollige Darmstruktur. Mit großer Sorgfalt wurde der Proventriculus dann mit einer superfeinen Pinzette gegriffen und angehoben, um einen Großteil des Darms (einschließlich Kropf und Speicheldrüsen) von dem weiter ventral gelegenen Nervengewebe zu entfernen. Der so angehobene Darm wurde mit einer ultrafeinen Schere (Fine Science Tools, Foster City, CA USA) an seinem vordersten Abschnitt durchtrennt. Dann wurde der Proventriculus zurückgeschält und ein hinterer Schnitt gemacht, um diese Teile des Darms vollständig zu entfernen und das darunter liegende Nervengewebe freizulegen. Bei diesem Schnitt wurde auch die Aorta entfernt, wodurch der Hämolymphfluss aus dem dorsalen Bauchgefäß eingeschränkt wurde. Dennoch waren die Fliegen lebensfähig und verhielten sich bis zu 4 Stunden lang. In einigen Fällen beobachteten wir, dass Darm- oder Muskelgewebe den VNC während der Bildgebung zu verdecken begann. Daher sollte loses Gewebe in diesem Stadium entfernt werden, wobei darauf zu achten ist, dass der VNC nicht durchtrennt wird. Nach jeder Sektion untersuchten wir, inwieweit das Tier seine Beine als Reaktion auf einen Lufthauch bewegte oder mit jedem Bein nach einem Gegenstand griff. Dies erwies sich als ein genauer Prädiktor für den Erfolg des Präparats. Um die Qualität eines Präparats zu beurteilen, untersuchten wir die Bewegungen der einzelnen Beine auf dem kugelförmigen Laufband. Wenn eine Fliege koordiniert laufen konnte, wurde die Präparation als erfolgreich angesehen. Andernfalls wurde das Tier mit einer Bewegungsstörung der Gliedmaßen eingestuft. Tiere mit mehreren gestörten Beinen wurden als unfähig eingestuft.

2-Photonenmikroskopie während des Verhaltens

Die Experimente wurden in der abendlichen Zeitgeberzeit (Z.T.) durchgeführt, und die Tiere wurden in der Regel 30-60 Minuten nach der Zerlegung abgebildet. Die Fliegenhalter wurden auf einer erhöhten Plattform über dem kugelförmigen Laufband befestigt (ergänzende Abb. 3a). Der VNC wurde dann mit Hilfe von Mikroskopokularen lokalisiert und mit Hilfe der 2-Photonen-Bildgebung in der Mitte des Sichtfeldes positioniert.

Das kugelförmige Laufband ist ein Aluminiumstab mit einem kugelförmigen Loch an einem Ende22. Wir stellten Schaumstoffkugeln mit einem Durchmesser von 10 mm her (Last-A-Foam FR-7106, General Plastics, Burlington Way, WA USA) und tupften sie manuell mit einem Rapidograph-Stift (Koh-I-Noor, Leeds, MA USA) an, um kontrastreiche Merkmale für optische Flussmessungen zu erhalten. Mit Hilfe eines digitalen Durchflussreglers (Sierra Instruments, Monterey, CA USA) wurde ein Strom gefilterter und befeuchteter Luft von 500-600 ml/min durch den Halter geleitet. Die Bewegungen der Kugel wurden mit zwei optischen Durchflusssensoren (ADNS3080) gemessen, die mit Zoomobjektiven (Computar MLM3X-MP, Cary, NC USA) ausgestattet waren. Der Ball und die Fliege wurden mit einem Paar IR-LEDs (850 nm Spitzenwellenlänge) beleuchtet, die mit optischen Fasern und Kollimatorlinsen (ThorLabs, Newton, NJ, USA) gekoppelt waren. Die Messungen des optischen Flusses wurden an ein Mikrocontroller-Board (Arduino Mega2560) weitergeleitet und mit Hilfe eines speziellen Python-Codes aufgezeichnet. Gleichzeitig wurden mit einer IR-empfindlichen Firewire-Kamera (Basler, Ahrensburg, Deutschland) Videoaufnahmen vom Verhalten der Tiere auf dem Ball mit etwa 30 fps gemacht.

Wir führten 2-Photonen-Mikroskopie mit einem Bergamo II Mikroskop (ThorLabs) durch, das mit zwei GaAsP PMT-Detektoren für GCaMP6- und tdTomato-Bildgebung ausgestattet und an einen Ti:Saphir-Laser (MaiTai DeepSee, Newport Spectra-Physics, Santa Clara, CA USA) gekoppelt war, der auf 930 nm abgestimmt war. Wir verwendeten ein 20×-Wasserimmersionsobjektiv von Olympus mit 1,0 NA (Olympus, Center Valley, PA, USA). Das Mikroskop wurde mit der ThorImage-Software (ThorLabs) gesteuert. Die Bildgebungsexperimente für koronale Schnitte wurden im Galvo-Galvo-Bildgebungsmodus bei 6-9 Hz durchgeführt. Diese Bildrate variierte mit der Bildgröße, die zwischen 26,58 × 26,58 µm und 53,15 × 53,15 µm lag. Die Laserleistung bewegte sich zwischen 3 mW und 5,7 mW. Mit geeigneter Hardware (z. B. Galvo-Resonanz-Scanner und Piezo-Objektivring) ist auch eine volumetrische Bildgebung möglich.

Gelegentlich wurde ein Luftstoß verwendet, um das Gehverhalten auszulösen. Diese Luftstöße wurden digital kodiert (Honeywell AWM 3300 V, Morris Plains, NJ USA). Eine kundenspezifische ROS-Software, die über ein analoges Ausgabegerät (Phidgets, Calgary, Kanada) mit der ThorSync-Software (ThorLabs) verbunden war, wurde zur Synchronisierung von optischen Flussmessungen, Verhaltensvideografie, Luftstoßmessungen und 2-Photonen-Bildaufnahme verwendet. Für die koronale Schnittbildgebung wurde ein Piezokragen (Physik Instrumente, Karlsruhe, Deutschland) verwendet, um die schnellen z-Achsen-Bewegungen des Mikroskop-Objektivs zu steuern.

Um die neurale Aktivität zwischen Kontroll- und Act88F:Rpr-Tieren zu vergleichen, wurden 512 × 512-Pixel-Bilder bei 1,7 fps mit konstanter Laserintensität und PMT-Verstärkung aufgenommen. Ausgewählte Bildregionen wurden empirisch als horizontale Schnitte ausgewählt, die aus Landmarken bestanden, die in ~61-65 µm Tiefe beobachtet wurden (siehe ergänzendes Video 1).

Vergleich des Laufens mit oder ohne Sektion

Um die Auswirkungen der Sektion auf die Fortbewegung zu bewerten, wurden Wildtyp-Tiere dem folgenden Verfahren unterzogen. Die Tiere wurden auf Bildträger montiert, und in jeden Träger wurde Kochsalzlösung gegeben. Nur eine zufällige Teilmenge der Tiere wurde seziert. Jede montierte Fliege wurde dann auf das kugelförmige Laufband gesetzt, und ihr Laufverhalten wurde 30 Minuten lang aufgezeichnet. Der optische Fluss wurde wie oben beschrieben aufgezeichnet. Um die Wahrscheinlichkeit der Fortbewegung zu erhöhen, wurde ein 500 ms langer Puls von 100 % CO2 mit einem einminütigen Intervall auf die Fühler der Fliege gerichtet (0,05 ln min-1 unter Verwendung eines Massenflussreglers; Vögtlin Instruments, Schweiz).

Infrarot-Laser-Antennenstimulation

Um das Laufverhalten zwischen Act88F:Rpr und Kontrolltieren zu vergleichen, stimulierten wir ihre Fühler mit einem 830 nm Nahinfrarot-Laser (Schäfter + Kirchhoff, Deutschland). Wir betäubten zunächst 7-8 dpe weibliche Tiere bei 4 °C und setzten sie auf Bildträger. Die Fliegen wurden dann für 10 Minuten akklimatisiert. Für jedes Experiment erhielt ein Tier zehn 2-s-Laserstimulationspulse (18,1 mW) auf die rechte Antenne in einem Intervall von 60 s zwischen den Pulsen. Kontroll- und Act88F:Rpr-Tiere wurden abwechselnd getestet, um die Auswirkungen der zirkadianen Zeit auf Verhaltensvergleiche zu minimieren.

Statistik

Die Stichprobengrößen für die Tierexperimente wurden wie folgt gewählt: Wir führten mindestens drei Experimente durch, um Populations- und spärliche neuronale Aufzeichnungen zu veranschaulichen, und führten mehr als zehn Experimente pro Gruppe durch, um statistische Vergleiche durchzuführen. Ein im Voraus festgelegtes Kriterium für ein geringes Signal-Rausch-Verhältnis bei Fluoreszenzsignalen führte dazu, dass zwei MDN-Experimente aus unserem Datensatz entfernt wurden. Eine Randomisierung oder Verblindung fand nicht statt. Für die antennale Laserstimulation waren die Daten nicht normalverteilt, daher wurden Friedman- und Mann-Whitney-U-Tests durchgeführt. Die Schätzungen der Variation werden als Mittelwert und bootstrapped 95% Konfidenzintervalle dargestellt.

Datenanalyse

Wir analysierten alle Daten mit benutzerdefinierten Python-Skripten. Da die Datenerfassungsfrequenz für den optischen Fluss, die Verhaltensvideografie und die 2-Photonen-Bildgebung unterschiedlich war, interpolierten wir die Signale so, dass sie der höchsten Frequenz entsprachen. Anschließend wurden die optischen Flussdaten mithilfe eines laufenden Durchschnitts (Fenster = 200 ms) geglättet und dann in Rotationen s-1 für die anterior-posteriore, medial-laterale und Gierachse umgerechnet22. Um diese Messungen intuitiver zu gestalten, wurden die Rotationen s-1 dann in mm s-1 (1 rot s-1 = 31,42 mm s-1) für anterior-posteriore (vforward) und medial-laterale (vside) Bewegungen und in Grad s-1 (1 rot s-1 = 360° s-1) für Gierbewegungen (vrotation) umgerechnet22.

Die Analyse der Fortbewegung bei sezierten Tieren (ergänzende Abb. 2) wurde wie folgt durchgeführt. Die Daten des optischen Vorwärtsflusses für 20 sezierte und 20 nicht sezierte Fliegen wurden auf 1500 Punkte s-1 heruntergerechnet und mit einem laufenden Durchschnitt von 0,2 s Dauer geglättet. Zur Berechnung des prozentualen Anteils der Zeit, in der vorwärts/rückwärts oder seitwärts gegangen wurde, wurden zwei Schwellenwerte, -0,31 mm s-1 und +0,31 mm s-1, empirisch definiert, um zwischen Stillstand und vorwärts (rechtswärts) bzw. rückwärts (linkswärts) gehen zu unterscheiden. Werte über 0,31 mm s-1 wurden als Momente des Vorwärtsgehens (nach rechts) und Werte unter -0,31 mm s-1 als Momente des Rückwärtsgehens (nach links) angesehen. Optische Flusswerte zwischen diesen Schwellenwerten wurden als Momente des Stillstands betrachtet. Der prozentuale Anteil der Gehzeit wurde als der Anteil der Datenpunkte berechnet, bei denen ein Tier nicht als stillstehend galt. In ähnlicher Weise wurden Schwellenwerte von 10,8 und -10,8 Grad s-1 verwendet, um Momente der Drehung zu definieren. Ein Durchgang wurde als eine kontinuierliche Periode des Gehens oder Drehens definiert.

Große Gewebedeformationen können während des Verhaltens auftreten. Daher führten wir post-hoc eine pan-neuronale Bildregistrierung durch (Abb. 2). Wir registrierten alle Bilder eines Bildgebungsexperiments auf ein Referenzbild. Da die Komplexität der Verformungen mit einfachen parametrischen Bewegungsmodellen (z. B. affine Transformationen) nicht erfasst werden konnte, verwendeten wir einen nicht-parametrischen Variationsansatz, mit dem beliebig komplexe Verformungen modelliert werden können. Wir berechneten das Bewegungsfeld w zwischen dem Referenzbild, bezeichnet mit Ir, und dem Bild zum Zeitpunkt t, bezeichnet mit It, durch Lösung des Minimierungsproblems

$$$$widehat {\mathbf{w}} = {\mathrm{arg}} \mathop{\min }_{\mathbf{w}} D\left( {\mathbf{w}} \right) + \lambda \mathop {\sum }\limits_{{\mathbf{x}} \in {\mathrm{\Omega }} \parallel \hskip -3pt \nabla {\mathbf{w}}\left( {\mathbf{x}} \right) \hskip -3pt \parallel _2^2,$$
(1)

wobei D(w) ein Datenanpassungsterm ist, der zweite Term ist eine Regularisierung, die die Glättung von w durch Bestrafung seines Gradienten ∇w41 fördert, Ω ist der diskrete Bildbereich, und der Parameter λ gleicht die Beiträge der beiden Terme aus.

GCaMP6s-Bilder stellen eine Herausforderung für die Bewegungsschätzung dar, da die neuronale Aktivität große lokale Intensitätsänderungen verursacht. Daher verwendeten wir einen zusätzlichen aktivitätsunabhängigen Fluorophor, tdTomato, und definierten einen Datenterm der Form

$$D\left( {\mathbf{w}} \right) = \rho \left( {{\mathbf{w}},I_{\mathrm{r}},I_t} \right) + \gamma \phi \left( {{\mathbf{w}},I_{\mathrm{r}},I_t} \right).$$
(2)

Der erste Term modelliert die Standardannahme der Erhaltung der Intensität entlang der Trajektorie jedes Pixels. Er ist definiert durch

$$\rho \left( {{\mathbf{w}},I_{\mathrm{r}},I_t} \right) = \mathop {\sum }\limits_{{\mathbf{x}} \in {\mathbf{\Omega }} \left| {I_t\left( {{\mathbf{x}} + {\mathbf{w}}\left( {\mathbf{x}} \right)} \right) – I_{\mathrm{r}}({\mathbf{x}})} \rechts|,$$
(3)

wobei wir eine \(\ell _1\)-Norm verwenden, um eine teilweise Robustheit gegenüber Intensitätsänderungen zu erreichen42. Der zweite Term in Gleichung (2) ist eine von Revaud und Mitarbeitern43 inspirierte Merkmalsanpassungsbedingung, die wie folgt geschrieben wird:

$$$\phi \left( {{\mathbf{w}},I_{\mathrm{r}},I_t} \right) = \mathop {\sum }\limits_{{\mathbf{x}} \in {\mathbf{\Omega }} \left\| {{\mathbf{w}}\left( {\mathbf{x}} \right) – {\mathbf{m}}({\mathbf{x}},I_{\mathrm{r}},I_t)} \right\|_1.$$
(4)

In den Gleichungen (2)-(4) sind Ir und It aus dem tdTomato-Kanal. Die Minimierung der Funktion ϕ begünstigt Bewegungsvektoren w(x), die nahe an Merkmalskorrespondenzen m(x, Ir, It) liegen, die auf einem spärlichen Satz relevanter Keypoints berechnet werden. Wir erhalten m mit dem von Revaud und Mitarbeitern43 vorgeschlagenen Feature-Matching-Algorithmus, der speziell für große Bildverformungen konzipiert ist. Wir berechnen m unter Verwendung des tdTomato-Bildkanals, so dass die Korrespondenzen auch gegenüber Intensitätsänderungen zwischen Ir und It unempfindlich sind. Folglich wird die Schätzung durch zuverlässige Merkmalsübereinstimmungen geleitet. Der Parameter γ gleicht die beiden Terme in Gleichung (2) aus.

Für jedes Experiment optimierten wir die Werte für λ und γ mithilfe einer Gittersuche, um horizontale Schnittbilder des VNC zu registrieren (ergänzende Abb. 4). Als Zielfunktion für die Optimierung verwendeten wir den Gradienten des zeitlichen Mittelwertbildes44. Kleine Werte von λ (d. h. λ < 1000) führten gelegentlich zu Artefakten in den registrierten Bildern. Diese Artefakte waren mit einer starken Konvergenz im Vektorfeld w(x) verbunden (ergänzende Abb. 4c). Daher definierten wir Artefakte empirisch als Cluster von Pixeln mit \({\mathrm{div}},{\mathbf{w}}\left( {\mathbf{x}} \right) < – 1.2\) und einer Kardinalität >20 (wir erhielten ähnliche Ergebnisse mit einer Kardinalität >5). Schließlich wurden die λ- und γ-Werte ausgewählt, die keine Artefakte und den höchsten Gradienten des mittleren Bildes aufweisen. Beispielhafte unregistrierte Bilder, Transformationsvektorfelder und registrierte Bilder der drei optimierten Beispiele sind im ergänzenden Film 5 zu sehen.

Wir lösten das Optimierungsproblem in Gleichung (1) mit einem ADMM-Algorithmus (Alternated Direction Method of Multiplier)45. Wir haben zwei Splitting-Variablen eingeführt, die mit der Regularisierung bzw. dem Feature-Matching-Term verbunden sind. Jedes Teilproblem des Algorithmus wurde analytisch gelöst. Wir haben Teile der Bibliothek für inverse Probleme verwendet, die in Ref. 46. Eine Nachbearbeitung auf der Grundlage der gewichteten Medianfilterung wurde mit der Methode aus47 durchgeführt.

In Abb. 2 wurden Verhaltensweisen halbautomatisch mit Hilfe eines benutzerdefinierten Python-Moduls annotiert. Mit diesem Modul kann der Benutzer zwei Bereiche von Interesse (ROIs) auf dem ersten Bild des Videos auswählen. Die erste ROI wird zur Erkennung des Gehens verwendet und muss über den metathorakalen und mesothorakalen Beinen positioniert werden. Die zweite ROI ist für die Erkennung der prothorakalen Beinpflege zuständig und muss vor der Fliege positioniert werden. Um Bewegungen in diesen Regionen zu erkennen, werden aufeinanderfolgende Bilder subtrahiert. Die sich daraus ergebenden Differenzbilder werden dann im Median verwischt (Radius = 5 Pixel), um das Rauschen zu reduzieren. Auf der Grundlage dieses unscharfen Bildes wird ein Schwellenwert für die Anzahl der Nicht-Null-Pixel in jeder der beiden ROIs angewandt, um binäre Sequenzen von Putz- und Laufbewegungen zu extrahieren. Es ist zu beachten, dass die während des Gehens beobachteten prothorakalen Beinbewegungen ignoriert werden (d. h. die Klassifizierung des Putzen ist der Klassifizierung des Gehens untergeordnet). Ein Hysteresefilter wurde dann angewendet, um binäre Verhaltenssequenzen tiefpasszufiltern und Übergänge zu entfernen, die über zu wenige Frames hinweg auftreten, um biologisch plausibel zu sein. Beispielhafte ROIs und Verhaltensanmerkungen sind im ergänzenden Film 6 zu sehen. Diese Verhaltensdaten wurden in Abb. 2 verwendet, wie in Ergänzungsfilm 2 gezeigt. Sie wurden mit den folgenden Parametern annotiert: Schwellenwert für Gehen = 400, Schwellenwert für Grooming = 5, Hystereselänge für Gehen = 8, Hystereselänge für Grooming = 10.

Für Abb. 2b, c verwendeten wir eine lineare Regression, um Regionen im VNC zu finden, die entweder mit Gehen oder Grooming verbunden sind. Die Regressoren Xw und Xg (für das Gehen bzw. die Fellpflege) wurden aus den beiden Verhaltenssequenzen Sw und Sg unter Verwendung von Gl. (5) durch Faltung mit einer exponentiell abklingenden Calcium-Signalimpulsantwort (CIR) konstruiert, die aus der für GCaMP6s gemessenen Zeitkonstante (t½ = 1,1448 s)19.

$$$\begin{array}{l}X_{\mathrm{w}} = S_{\mathrm{w}} \{\mathrm{CIR}}\X_{\mathrm{g}} = S_{\mathrm{g}} \otimes {\mathrm{CIR}}\end{array}$$
(5)

Die Zielfunktionen waren pixelweise ∆F/F-Spuren, wobei ∆F = Ft – F. Ft ist die Fluoreszenz zum Zeitpunkt t. F ist ein Basisfluoreszenzsignal, das als durchschnittlicher Pixelwert für die ersten zehn aufeinanderfolgenden GCaMP6s-Bilder gemessen wurde, in denen keine zelluläre Aktivität beobachtet wurde (d. h., minimale und unveränderliche GCaMP6s-Fluoreszenz).

Die Regressorgewichte wurden anhand von Gleichung (6) berechnet.

$$$$begin{array}{l}w_{\mathrm{w}} = \left( {X_{\mathrm{w}}^TX_{\mathrm{w}}} \right)^{ – 1}X_{\mathrm{w}}^Ty\\ w_{\mathrm{g}} = \left( {X_{\mathrm{g}}^TX_{\mathrm{g}}} \right)^{ – 1}X_{\mathrm{g}}^Ty,\end{array}$$
(6)

wobei y die pixelweise ∆F/F-Spur ist.

Abbildung 2b, c zeigt Heatmaps der Regressorgewichte, ww für Walking und wg für Grooming, normalisiert auf ihre jeweiligen Maxima. ROI 1 wurde als Region der Wärmekarte ausgewählt, die ein hohes Gewicht für Grooming, aber ein niedriges Gewicht für Walking aufweist. ROI 2 wurde als die räumliche Position mit dem höchsten Wert von ww gewählt. Jede ROI umfasst eine Region mit einem Radius von 15 Pixeln.

Um die spärlichen neuronalen Bildgebungsdaten zu identifizieren (Abb. 3-5), wurden die ROIs zunächst mithilfe von benutzerdefinierten Python-Skripten ausgewählt, die auf OpenCV- und Numpy-Bibliotheken basierten. Zu diesem Zweck wurde ein Referenzrahmen ausgewählt, für den die Software alle potenziellen ROIs identifizierte. Zu diesem Zweck wurde das GCaMP6s-Bild geglättet, um das Hintergrundrauschen zu reduzieren, und dann ein Otsu-Filter-Schwellenwert auf das Bild angewendet. Auf alle im Bild erkannten Objekte wurde dann ein Erosionsfaktor angewendet. Die Konturen aller erkannten Objekte wurden dann dem Benutzer zur manuellen Auswahl vorgelegt. Nachdem diese Referenz-ROIs für linke und rechte Neuronen ausgewählt worden waren, wurde ein auf Kreuzkorrelation basierender Bildregistrierungsalgorithmus48 verwendet, um die wahrscheinlichsten linken und rechten ROIs für jedes Bild auf der Grundlage der manuell ausgewählten Referenzbilder zu identifizieren. Ein zweites Skript wurde verwendet, um die automatisch ausgewählten ROIs manuell zu überprüfen und, falls sie nicht korrekt waren, alle potenziellen ROIs innerhalb des Bildes zur manuellen Auswahl anzuzeigen. Wenn die Erosionswerte zu fehlerhaften ROIs führten, wurde ein weiteres Skript verwendet, um elliptische ROIs mit beliebiger Ausrichtung manuell auf einem bestimmten Bild zu positionieren. Schließlich wurden die binären ROI-Bilder als Bildmaske verwendet, um die mittleren Fluoreszenzsignale aus den ursprünglichen GCaMP6s oder tdTomato-Bildern zu extrahieren. Diese Signale wurden als %∆R/R angegeben, wie in ref. 49 angegeben, um die Auswirkungen von Bewegungen auf unsere Messungen zu reduzieren. Da keine Stimuli vorhanden waren, wurde die Basislinie R als das minimale Verhältnis von GCaMP6s/tdTomato innerhalb eines 2,5-Sekunden-Bins berechnet.

Um vorübergehende Aktivitätssteigerungen zu erkennen, entwickelten wir einen Algorithmus, der teilweise auf ref. 50. Wir bestimmten zunächst, wann die erste Ableitung des %∆R/R-Signals einen Schwellenwert überschritt, der durch Untersuchung aller Ableitungswerte für eine bestimmte Neuronenklasse (MDN, MAN oder A1) ermittelt wurde. Wir kamen zu dem Schluss, dass die Schwellenwerte charakteristisch und möglicherweise für jede Art von Neuron unterschiedlich sein sollten, da die Fluoreszenzdynamik mit intrinsischen physiologischen Eigenschaften zusammenhängt, die sich zwischen den Neuronenklassen, nicht aber zwischen den Experimenten für eine einzelne Klasse unterscheiden können. Wir haben diesen Schwellenwert auf das 97,5. Perzentil für MDNs und dMANs und das 90. Perzentil für A1-Neuronen festgelegt. Für A1-Neuronen wurde ein niedrigerer Schwellenwert gewählt, da in A1-Spuren viel mehr Fluoreszenztransienten beobachtet wurden. Diese Transienten wären bei einem 97,5-Perzentil-Schwellenwert übersehen worden. Um den Beginn des Fluoreszenzanstiegs zu identifizieren, wurde der nächstgelegene Zeitpunkt ermittelt, an dem die Ableitung den Nullpunkt durchquerte. Dieser Nulldurchgang gilt als Zeitpunkt eines „Ereignisses“, das mit dem identifizierten Fluoreszenzanstieg verbunden ist. Nahe beieinander liegende Ereignisse ohne dazwischen liegenden Nulldurchgang der Ableitung wurden zu einem Ereignis zusammengefasst, das dem ersten Zeitpunkt zugeordnet wurde. Es wurden ~10 separate Experimente pro Tier durchgeführt. Ereignisse in den ersten und letzten 10 s jedes Experiments wurden nicht berücksichtigt, da das Datenpräsentationsfenster 10 s vor und 10 s nach jedem Ereignis umfasste.

Da linke und rechte MDN- und dMAN-Aktivitäten stark kovarierten (ergänzende Abb. 5), wurde ein zusätzlicher Schritt zur Ereigniserkennung durchgeführt: Wenn Ereignisse sowohl in linken als auch in rechten Neuronen innerhalb von 2 s nacheinander erkannt wurden, wurden beide Ereignisse beibehalten; andernfalls wurde ein Ereignis, das für Neuron A (z. B., linker MDN) und nicht für Neuron B (z.B. rechter MDN) identifiziert wurde, wurde auch der Ereignissammlung von Neuron B hinzugefügt.

Im Gegensatz dazu kovariierten die Aktivitäten von A1 links und rechts nicht stark. Daher wurden die Ereignisse dem einen und nicht dem anderen Neuron zugeordnet. Wenn ein Ereignis sowohl für das linke als auch für das rechte A1-Neuron innerhalb eines Zeitfensters von 0,25 s erkannt wurde, wurde keines der Ereignisse für die Analyse verwendet.

%∆R/R und optische Fluss-Spuren, die mit jedem Ereignis verknüpft waren, wurden ausgerichtet, indem die Ereigniszeitpunkte auf 0 s gesetzt wurden. Wir berechneten dann den Mittelwert und die bootstrapped 95% Konfidenzintervalle für diese ausgerichteten Spuren unter Verwendung der Python Seaborn-Bibliothek. Der optische Fluss und die %∆R/R-Messungen wurden für diese Analyse auf 500 Werte s-1 heruntergerechnet. Um die Übersichtlichkeit zu erhöhen, wurden die %∆R/R-Spuren von der Basislinie subtrahiert, so dass sie zum Zeitpunkt des Ereignisses in den zusammenfassenden Tafeln Null sind (Abb. 3d, 4d und 5d, e). Kontrolldaten (graue Spuren) wurden berechnet, indem zufällige Zeitpunkte anstelle von echten, identifizierten Ereignissen gesetzt wurden. Diese zufälligen Zeitpunkte wurden wie reale Ereignisse behandelt, und ihre Mittelwerte und bootstrapped 95%-Konfidenzintervalle wurden berechnet und zum Vergleich dargestellt.

Die Kovarianzanalyse (ergänzende Abb. 5) wurde mit einem benutzerdefinierten Python-Skript durchgeführt, das auf den Bibliotheken Matplotlib und Numpy basierte. Streudiagramme wurden berechnet, um die %∆R/R-Werte des linken und rechten Neurons aus allen Experimenten für jede Fliege separat zu vergleichen. Pearson’s r-Werte werden als Mittelwert ± Standardabweichung angegeben.

Ereignisbezogene Verhaltensweisen (Supplementary Movies 8, 10, 12 und 13) wurden manuell aus automatisch erkannten Ereignissen wie oben beschrieben ausgewählt. Für dMANs wurden Ereignisse aus denjenigen ausgewählt, die den Unterschied in den anterior-posterioren Ballrotationen zwischen 1 s vor und 2 s nach dem Ereignis maximierten. Für MDNs wurden Ereignisse aus denjenigen ausgewählt, die die anterior-posteriore Ballrotation bis zu 2 s nach dem Ereignis minimierten. Für A1-Neuronen wurden Ereignisse aus denjenigen ausgewählt, die die durchschnittlichen Gierkugeldrehungen (positiv für linke A1-Neuronen-Beispiele und negativ für rechte A1-Neuronen-Beispiele) bis zu 2 s nach den Ereignissen maximierten.

In der ergänzenden Abb. 8 wurden die Reaktionen auf die Nah-Infrarot-Laser-Stimulation über 10 Versuche für jedes Tier gemittelt. Der optische Fluss wurde auf 500 Werte s-1 heruntergerechnet. Der Mittelwert und die 95%-igen bootstrapped Konfidenzintervalle für die optischen Flusskurven wurden mit der Python-Bibliothek Seaborn gemessen und aufgezeichnet. Die Python-Bibliothek Scipy wurde zur Durchführung von Friedman- und Mann-Whitney-U-Tests verwendet.

Articles

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.