Tief

Blog

HeimHeim / Blog / Tief

Oct 09, 2023

Tief

Band Kommunikationsbiologie

Communications Biology Band 6, Artikelnummer: 241 (2023) Diesen Artikel zitieren

1050 Zugriffe

2 Altmetrisch

Details zu den Metriken

Eines der Hauptprobleme bei der Biobildgebung, das oft stark unterschätzt wird, besteht darin, ob für eine Diskriminierungs- oder Regressionsaufgabe extrahierte Merkmale für eine breitere Reihe ähnlicher Experimente oder bei unvorhersehbaren Störungen während des Bildaufnahmeprozesses gültig bleiben. Ein solches Problem ist umso wichtiger, wenn es im Zusammenhang mit Deep-Learning-Merkmalen behandelt wird, da es an einer a priori bekannten Beziehung zwischen den Black-Box-Deskriptoren (Deep-Features) und den phänotypischen Eigenschaften der untersuchten biologischen Einheiten mangelt. In dieser Hinsicht wird die weit verbreitete Verwendung von Deskriptoren, wie sie beispielsweise aus vorab trainierten Convolutional Neural Networks (CNNs) stammen, durch die Tatsache behindert, dass sie keine offensichtliche physikalische Bedeutung haben und stark unspezifischen Vorurteilen unterliegen, d. h. Merkmalen, die eine solche haben hängen nicht von den Zellphänotypen ab, sondern von Erfassungsartefakten wie Helligkeits- oder Texturänderungen, Fokusverschiebungen, Autofluoreszenz oder Photobleichung. Die vorgeschlagene Deep-Manager-Softwareplattform bietet die Möglichkeit, effizient diejenigen Merkmale auszuwählen, die eine geringere Empfindlichkeit gegenüber unspezifischen Störungen und gleichzeitig eine hohe Unterscheidungskraft aufweisen. Deep-Manager kann sowohl im Kontext handgefertigter als auch tiefer Funktionen verwendet werden. Die beispiellosen Leistungen der Methode werden anhand von fünf verschiedenen Fallstudien nachgewiesen, die von der Auswahl handgefertigter Intensitätsmerkmale grün fluoreszierender Proteine ​​bei der Untersuchung des Zelltods im Zusammenhang mit Brustkrebs durch Chemotherapie bis hin zur Behandlung von Problemen im Zusammenhang mit dem Deep Transfer Learning reichen. Deep-Manager, frei verfügbar unter https://github.com/BEEuniroma2/Deep-Manager, eignet sich für den Einsatz in vielen Bereichen der Biobildgebung und ist so konzipiert, dass er ständig mit neuen Bilderfassungsstörungen und -modalitäten aktualisiert wird.

Reproduzierbarkeit ist ein wichtiges Anliegen in der biomedizinischen Forschung, insbesondere wenn es darum geht, eine solide Grundlage für zukünftige klinische Therapien zur Verbesserung der menschlichen Gesundheit zu schaffen. Die biologischen Daten sind oft sehr unterschiedlich, was hauptsächlich auf unkontrollierbare experimentelle Parameter zurückzuführen ist. Besonders dramatisch ist dies bei Biobildaufnahmen zur quantitativen Analyse. Wenn Bilder nicht mit demselben Mikroskop, mit derselben Einstellung, derselben Lichtquelle und demselben Zellträger aufgenommen werden, sind diese Bilder nicht einfach vergleichbar, es sei denn, es werden Standardisierungsmethoden implementiert, die jedoch die erwartete Dynamik der Signale verändern können. Dies stellt eine enorme Einschränkung bei der Anwendung computergestützter Wissenschaftsmethoden in der Biologie dar, beispielsweise der leistungsstarken KI-basierten Bildanalysetools.

In dieser Hinsicht ist die Identifizierung einer Teilmenge von Bildmerkmalen, die sich optimal auf eine bestimmte Krankheit oder allgemeiner auf einen untersuchten Aspekt1,2 beziehen, immer noch ein Grenzproblem, das häufig unterschätzt wird, insbesondere bei bildbasierten Klassifizierungsaufgaben. Die Leistung von Klassifikatoren, die auf einer Teilmenge handgefertigter oder Black-Box-Funktionen ausgeführt werden, ist im Allgemeinen nicht skalierbar und nimmt in der Regel stark ab, wenn sie für andere Datensätze als diejenigen verwendet werden, die für die Klassifikatorkonstruktion verwendet werden, da es an Reproduzierbarkeit und Generalisierbarkeit mangelt3. Der Hauptgrund liegt darin, dass die für den Merkmalsauswahlschritt verfügbaren experimentellen Proben normalerweise knapp oder nicht so allgemein sind, dass sie mögliche zulässige Variationen abdecken, selbst wenn sie unter denselben biologischen Bedingungen auftreten. In der Praxis ist zu erwarten, dass sich die Leistung dramatisch verschlechtert, wenn die Ergebnisse einer kleineren Reihe von Experimenten auf eine allgemeinere und unabhängigere Fülle von Fällen ausgeweitet werden, wie in Abb. 1 (linker roter Zweig) dargestellt. Unabhängig davon, ob es sich um handgefertigte oder DTL-Funktionen (Deep Transfer Learning) handelt4,5 (d. h. Deskriptoren, die von einem vorab trainierten Convolutional Neural Network (CNN) stammen), ist es wichtig, die Funktionen auszuwählen, die eine sehr große Gültigkeit gegenüber heterogenen Merkmalen gewährleisten biologische Experimente, mit angemessener Repräsentativität und Generalisierbarkeit der Ergebnisse. Dieser Aspekt wurde unterschätzt, insbesondere im Zusammenhang mit DTL-Merkmalen, wo zwei weitere große Probleme angegangen werden müssen: die Dimensionalität der Features (Tausende von Features für ein bestimmtes Bild) und die Redundanz (viele Features sind stark korreliert). Die Aufmerksamkeit wurde hauptsächlich darauf gerichtet, wie die Anzahl der zu extrahierenden Merkmale verringert werden kann, und nicht darauf, wie die allgemeinsten (dh gültigsten) Merkmale ausgewählt werden. Die Auswahl der repräsentativsten Deskriptoren (sowohl handgefertigte als auch DTL-Deskriptoren) in biomedizinischen Bildern ist alles andere als einfach und birgt ein hohes Risiko, dass die Merkmale nicht von den Zellphänotypen, sondern von Helligkeit, Texturartefakten und Fokusänderungen abhängen , Autofluoreszenz und andere unvorhersehbare Störungen. Um dieses Problem zu lösen, stellen wir hier eine Plattform namens Deep-Manager (DM) (der blaue Zweig in Abb. 1) vor, die es ermöglicht, die besten Merkmale für eine bestimmte Klassifizierungsaufgabe nach der Extraktion durch benutzerdefinierte Funktionen oder danach zu identifizieren und praktisch auszuwählen Übertragung durch ein bestimmtes benutzerdefiniertes vorab trainiertes DL-Netzwerk. Der Begriff „tief“ bezieht sich ausdrücklich auf tiefe Merkmale, bei denen das Problem einer effizienten Merkmalsauswahl ungelöst ist und das Risiko einer Verzerrung enorm ist3. Wie in dieser Arbeit gezeigt, kann die Plattform jedoch auch auf handgefertigten Intensitäten und Texturmerkmalen laufen, die üblicherweise in biomedizinischen Bildern quantifiziert werden. DM kann Biologen daher in ihrer täglichen Praxis sehr dabei helfen, die Allgemeingültigkeit der rational ausgewählten Merkmale zu überprüfen. Die DM-Plattform identifiziert die extrahierten Merkmale, die speziell die Eigenschaften der Zell-/Gewebeobjekte darstellen, und verwirft die unspezifischen makroskopischen Variationen, die unbeabsichtigt im Trainingsdatensatz auftreten. Dies ist von entscheidender Bedeutung, wenn der Bildaufnahmeprozess sehr komplex ist und an einer praktischen Grenze der Wiederholbarkeit liegt (z. B. korreliert die gemessene grüne Emissionsintensität mit einem bestimmten Ereignis oder einfach mit Autofluoreszenzphänomenen? Auf der Ebene niedriger Intensität ist die Antwort nicht trivial ). Beispielsweise kann bei biologischen Experimenten mit lebenden Zellen6 der Aufnahmeprozess lange dauern (z. B. Tage) und die Aufnahmebedingungen sind für den gesamten Zeitraum schwer zu kontrollieren, sowohl bei Verwendung von Phasenkontrast-Transmissionslicht als auch bei Verwendung von Fluoreszenz-Zeitraffer (TM). Mikroskopie7,8. Die intra-experimentelle Heterogenität von Videosequenzen sowie die inter-experimentelle Variation aufgrund unkontrollierter Änderungen im Aufnahmeaufbau9 führen aufgrund der geringen Validität der extrahierten Merkmale ebenfalls zu einem hohen Risiko falscher Schlussfolgerungen. Diese Effekte führen zu Fehlern im Erkennungsmodell und zu irreführenden biologischen oder klinischen Schlussfolgerungen (z. B. falsche Arzneimittelwirkung). In dieser Hinsicht ermöglicht die DM-Plattform die effiziente Auswahl aller Merkmale, die aus einem neuronalen DTL-Netzwerk oder durch kundenspezifische handgefertigte Deskriptoren extrahiert wurden, diejenigen, die eine geringere Empfindlichkeit gegenüber Störungen und gleichzeitig eine hohe Unterscheidungskraft aufweisen (Abb. 1). blauer Zweig). Nach der Anwendung der verschiedenen Degradationstests auf den Trainingsdatensatz (Abb. 1 rechte Erweiterung) werden Merkmale hinsichtlich ihrer Unterscheidungskraft (DP) und Empfindlichkeit gegenüber den Degradationen (SENS) charakterisiert, gemessen als relative Differenz der DP-Werte zuvor und nach der Abbauinjektion (Einzelheiten siehe Methoden). Anschließend wird ein Ansatz mit mehreren Schwellenwerten verwendet, um Merkmale mit hohem DP und niedrigem SENS (cyanfarbene Punkte im blauen Zweig in Abb. 1) von den anderen Merkmalsgruppen (niedriger DP oder/und hoher Empfindlichkeit, grüne und blaue Punkte in Abb. 1) zu trennen blauer Zweig). Ausgewählte Merkmale können dann in einer vom Benutzer vorgeschlagenen Klassifizierungsaufgabe verwendet werden, bei der er aufgefordert wird, einen unabhängigen Testsatz beschrifteter Bilder, den Testdatensatz, hochzuladen, um die Gültigkeit der ausgewählten Merkmale durch Bewertung ihres DP über einen anderen Satz zu überprüfen ( Abb. 1).

Der rote Zweig kennzeichnet die gängige Praxis in der biomedizinischen Bildanalyse zur Merkmalsauswahl. Von oben nach unten: Intensitäts- und Texturdeskriptoren extrahieren, Merkmale mit der höchsten Unterscheidungsfähigkeit in Bezug auf AUC auswählen, ein Klassifizierungsmodell erstellen, die Leistung anhand eines externen Validierungsdatensatzes testen. Der blaue Zweig kennzeichnet den Deep-Manager-Arbeitsablauf. Von oben nach unten: Ändern Sie den Trainingsdatensatz, der die optischen Bildartefakte erzeugt, entsprechend der Bildgebungsmodalität (rechte Erweiterung), extrahieren Sie Intensität, Textur oder CNN-Merkmale (Tiefenmerkmale) aus dem geänderten Datensatz, berechnen Sie die Unterscheidungsfähigkeit in Bezug auf AUC (bzw DP) und bewerten Sie die Empfindlichkeit jedes Merkmals, indem Sie den DP-Wert vor und nach der Störung vergleichen, wählen Sie die Merkmale mit höherem DP und geringerer Empfindlichkeit (Cyan-Marker) aus, erstellen Sie ein Klassifizierungsmodell über die ausgewählten Merkmale und testen Sie es an einem externen Datensatz von Bilder. Die im Schritt der Merkmalsauswahl auferlegte Robustheit vermeidet einen Fehler im Validierungsschritt und stellt die Konstruktion eines allgemeingültigeren Klassifizierungsmodells sicher.

Der vorgeschlagene Ansatz ist allgemein und kann auf jede auf Deep Neural Networks basierende Verarbeitungsarchitektur angewendet werden, indem einfach ein Netzwerk aus einem vorgeschlagenen Satz vorhandener Netzwerke ausgewählt wird oder, für Benutzer mit Programmierkenntnissen, die Python-Software modifiziert wird, um proprietäre Netzwerke und neue Funktionen zu integrieren , oder auch neue Störungstests. Um den Nutzen von DM zu demonstrieren, wenden wir die Software auf fünf verschiedene Fallstudien an. Fallstudie Nr. 1: Fluoreszenzmikroskopische Videos des durch Chemotherapie verursachten Todes von MDA-MB 231-Brustkrebszellen in Gegenwart eines grün fluoreszierenden Apoptose-Reporters10. Fallstudie Nr. 2: TL-Mikroskopievideos von menschlichen PC3-Prostatakrebszellen, die sich in einer 2D-Umgebung in Gegenwart des Chemotherapeutikums Etoposid11 bewegen. Fallstudie Nr. 3: Phasenkontrast-TL-Mikroskopievideos von Immunzellen, die sich in einem 3D-Kollagengel in mikrofluidischen Tumor-on-Chip-Geräten bewegen, die die Tumormikroumgebung nachahmen12. Fallstudie Nr. 4: Fluoreszenzmikroskopie-Videos von Krebszellen, die durch zytotoxische T-Zellen in 3D-Tumor-on-Chip zur Apoptose gezwungen werden;10 Fallstudie Nr. 5: Statische Phasenkontrast-TL-Mikroskopiebilder von BT-474-Brustkrebszellen aus der kürzlich vorgestellten Studie öffentlicher Datensatz LIVECell13. Im Folgenden verweisen wir auf jede Fallstudie einfach mit der Fallstudiennummer. Darüber hinaus bezeichnen wir zur besseren Lesbarkeit die in der aktuellen Version des DM-Tools berücksichtigten Bildgebungsmodalitäten als: IM-ACQ-1 (2D-TL-Zeitraffermikroskopie), IM-ACQ-2 (3D-Phasenkontrast-TL-Zeit). -Zeitraffer-Mikroskopie), IM-ACQ-3 (3D-Fluoreszenz-Zeitraffer-Mikroskopie). Jede Modalität identifiziert spezifische Tests, die sich auf die verwendeten Geräte und Versuchsbedingungen beziehen, wie unten beschrieben.

Bei allen fünf betrachteten Fallstudien erzielten wir eine sehr gute Leistung. Insbesondere beim Vergleich der durchschnittlichen Sensitivität und der durchschnittlichen Diskriminanzleistungswerte (DP) der von DM ausgewählten Merkmale mit denen, die mit dem besten Vergleichsansatz14,15 wie dem Zwei-Stichproben-T-Test mit gepoolter Varianzschätzung oder der Kullback-Leibler-Divergenz erhalten wurden , Chernoff-Grenze, Mann-Whitney, Fläche zwischen der empirischen Receiver Operating Characteristic (ROC)-Kurve und schrittweiser linearer Regressionsanpassung erzielten wir eine Verbesserung der DP- und Empfindlichkeitswerte im Bereich von 6–10 % bzw. 56–69 % Zusätzliche Stärke der automatischen Bereitstellung eines reduzierten Satzes ausgewählter Features anstelle einer einfachen Feature-Rangfolge. Darüber hinaus haben wir in Fallstudie 5 auch die Unterscheidungsfähigkeit der ausgewählten Merkmale in einem unabhängigen binären Klassifizierungsproblem getestet und dabei eine durchschnittliche AUC der Klassifizierung von 0,82 mit einer durchschnittlichen AUC-Verbesserung in Bezug auf eine Modalität ohne Auswahl von 33 % erhalten. Die implementierten Störungstests sind typisch für jede Bildgebungsmodalität (siehe rechte Erweiterung in Abb. 1) und können je nach weiteren interessierenden Störungen (z. B. Helligkeitsdrift usw.) weiter erweitert werden. Es ist wichtig zu betonen, dass reale Bilder aufgrund des von Natur aus unvollkommenen Aufnahmeprotokolls und der Heterogenität der Proben zwar ihre eigenen nativen Artefakte aufweisen, wir jedoch ein kontrolliertes Szenario benötigen, in dem wir die Auswirkung bekannter Quellen von Bildstörungen quantifizieren können.

Um die Wirksamkeit der vorgeschlagenen Deep-Manager-Softwareplattform zu demonstrieren, haben wir fünf verschiedene Anwendungsfälle ausgewählt. Der erste Anwendungsfall betrifft die Nutzung von DM zur Gewinnung von Informationen aus der Bildgebung lebender Zellen, was unter Biologen eine gängige Alltagspraxis ist. Der klinische Fall bezieht sich auf handgefertigte Intensitätsmerkmale im Zusammenhang mit der GFP-Emissionsintensität bei der Unterscheidung zwischen natürlichem Tod und chemotherapieinduziertem Tod in MDA-MB 231-Brustkrebszellen12. Der zweite Anwendungsfall betrifft die Extraktion robuster Tiefenmerkmale durch DTL in TL-Mikroskopievideos von menschlichen PC3-Prostatakrebszellen in einer 2D-Umgebung in Gegenwart des Chemotherapeutikums Etoposid11. Der dritte Anwendungsfall betrifft die Extraktion tiefer Merkmale in Phasenkontrast-TL-Mikroskopievideos von Immunzellen, die sich in einem 3D-Kollagengel in mikrofluidischen Tumor-on-Chip-Geräten bewegen, die die Tumormikroumgebung nachahmen12. Der vierte Anwendungsfall betrachtet das Problem der Extraktion tiefer Merkmale in 3D-Fluoreszenzmikroskopie-Videos von Krebszellen, die aufgrund der Abtötung durch zytotoxische T-Zellen in 3D-Tumor-on-Chip in die Apoptose übergehen12. Schließlich befasst sich die fünfte Verwendung mit einer Klassifizierungsaufgabe unter Verwendung der mithilfe der DM-Plattform extrahierten Tiefenmerkmale. Genauer gesagt erfassen wir statische Phasenkontrast-TL-Mikroskopiebilder von BT-474-Brustkrebszellen aus dem kürzlich veröffentlichten öffentlichen Datensatz LIVECELL13 mit der Aufgabe, den Krebswachstumsfaktor nach 4-stündiger Kultivierung in einer Schale in einem 5-tägigen Experiment zu erkennen. Einzelheiten zu jedem Anwendungsfall finden Sie in den nächsten Abschnitten.

In dieser Fallstudie verglichen wir die individuelle Unterscheidungsleistung handgefertigter Merkmale, die GFP anhand des p-Werts des Student-T-Tests mit und ohne Auswahl mithilfe des DM-Tools abgeleitet hat. Für die Aufgabe, zwischen natürlichem und chemotherapiebedingtem Tod zu charakterisieren und zu unterscheiden, haben wir für jede Erkrankung vier unabhängige Videos (insgesamt acht) mit einer Dauer von 70 Stunden ausgewählt, die zu einem Zeitpunkt von einer Stunde aufgenommen wurden. Mithilfe des STAMP-Codes10, herunterladbar unter https://cloudstore.bee.uniroma2.it/index, haben wir dann automatisch 431 Nutzpflanzen identifiziert, die jeweils eine sterbende Zelle enthalten (d. h. eine Zelle, die innerhalb von 70 Stunden absterben wird). php/s/LEpHYTsPnDj4Ajt (Passwort: STAMP2021).

Insbesondere sind 96 Nutzpflanzen vom natürlichen Tod und 335 Nutzpflanzen vom zytotoxischen T-Zelltod betroffen. Weitere Einzelheiten zum Bildverarbeitungsschritt finden Sie in 10. Jede Kulturpflanze wurde anhand der folgenden handwerklichen Merkmale charakterisiert: durchschnittliche grüne Emission in der Kulturpflanze, gmean, die gesamte grüne Emission in der Kulturpflanze gtot, das obere 75. Perzentil der grünen Emission in der Kulturpflanze g75, das untere 25. Perzentil der grünen Emission in der Ernte g25. Normalerweise werden die 25. und 75. Perzentilwerte den Maximal- und Minimalwerten vorgezogen, die unvorhersehbaren gelegentlichen Störungen ausgesetzt sind. Die Unterscheidungsfähigkeit der für die verfügbaren Nutzpflanzen berechneten Merkmale wird anhand des individuellen DP (max(1-AUC,AUC)) und anhand des p-Werts eines gepaarten Student-t-Tests mit zwei Stichproben bewertet (siehe Gleichungen . (6), (7) in den Zusatzinformationen). Die Ergebnisse sind in Abb. 2, Tafel A dargestellt. Vorläufige Beweise zeigten die Unterscheidbarkeit der beiden Todesphänomene unter Verwendung aller vier Deskriptoren. Ein DP-Wert war gleich oder höher als 0,70 und der p-Wert lag unter 0,005. Um die Ergebnisse sicherer beurteilen zu können, haben wir dann die DM-Plattform auf die Pflanzen im Trainingssatz angewendet. Durch Auswahl des richtigen Szenarios (3D-Fluoreszenzmikroskopie) haben wir Störungstests im Zusammenhang mit Autofluoreszenz, Photobleichung und Sättigung angewendet und die vier Deskriptoren {gmean, gtot, g75 und g25} über die modifizierten Bilder berechnet. Anschließend werden die DP-Werte der Deskriptoren mit denen vor Bildveränderungen verglichen und die Empfindlichkeit SENS für jedes Merkmal berechnet. Abbildung 2, Tafel b zeigt die neuen Boxplots der vier Deskriptoren, die über den geänderten Satz von Bildern berechnet wurden, mit Angabe der entsprechenden DP-, SENS- und p-Werte. Wie sofort ersichtlich ist, bleiben die Deskriptoren {gmean, gtot} zwar immer noch einigermaßen robust, DP nimmt jedoch ab (jedoch über den Grenzwert von 0,6), allerdings mit einer prozentualen Änderung (SENS), die kleiner als der Grenzwert von 0,1 ist. Im Gegensatz dazu weisen die Deskriptoren {g75 und g25}, die häufig bei der Unterscheidung von Todesereignissen verwendet werden, einen starken Rückgang der DP-Werte auf: Die DP-Werte von g25 reichen von 0,75 bis 0,61 mit einer prozentualen Sensitivität von SENS von 0,18, die weit darüber hinausgeht Grenzwert von 0,1 und g75 DP-Werte gehen von 0,70 bis 0,62 mit einer prozentualen Empfindlichkeit SENS von 0,11, die immer noch über dem Grenzwert von 0,1 liegt. Eine der erstaunlichsten Tatsachen ist auch die Beständigkeit der statistischen Signifikanz in Bezug auf den p-Wert für den Deskriptor g75. Mit anderen Worten ermöglicht die DM-Plattform die Verwendung der Erkenntnis, welche Deskriptoren eine Chance haben, für eine größere Fülle von Experimenten und mit einer erhöhten Komplexität biologischer Phänomene gültig zu sein, wodurch das absolute Vertrauen in den Trainingssatz geschwächt wird, sondern eher als Teilmenge eines größeren Umfangs und repräsentatives Set.

a Eine standardmäßige Bewertung der Merkmalsextraktion und Unterscheidungsfähigkeit unter Verwendung des p-Werts für vier handgefertigte GFP-Intensitätsmerkmale {gmean, gtot, g25 und g75}, berechnet über Bilder, die mit Fluoreszenz aufgenommen wurden. Es wurden n = 431 biologisch unabhängige Proben berücksichtigt. b Bei Anwendung der DM-Plattform auf die vier Intensitätsmerkmale {gmean, gtot, g25 und g75} erweisen sich einige Deskriptoren als nicht mehr gültig für die Analyse, z. B. g, g75 und g25, weil sie zu empfindlich sind (SENS = 0,18 > thSENS). (0,1) bzw. SENS = 0,11 > thSENS (0,1)) auf Störungen (Autofluoreszenz, Photobleichung, Sättigung) zurückzuführen. Dennoch bleibt der Deskriptor g75 im Hinblick auf die t-Test-Analyse immer noch signifikant (p-Wert < ***), weist jedoch aufgrund einer inakzeptablen Verschlechterung der DP-Leistung nach der Störungsinjektion einen Sensitivitätswert SENS auf, der größer als der Schwellenwert ist. Es wurden n = 1293 biologisch unabhängige Proben berücksichtigt.

In dieser Aufgabe haben wir das Funktionsprinzip des DM-Tools anhand der Fallstudien 2–4 demonstriert, indem wir für jede Bildgebungsmodalität und jeden angewendeten Test die extrahierten Tiefenmerkmale entsprechend den Empfindlichkeits- und DP-Werten aufgeteilt haben. In Abb. 3a – c zeigen wir die Score-Plots (SENS, DP) für jedes extrahierte Merkmal: Rote Markierungen geben den DP der Features ohne den Sensitivitätstest an (angenommener SENS = 0), Cyan-Markierungen zeigen den Score-Plot der ausgewählten Merkmale an Merkmale, blaue und grüne sind diejenigen, die abgelehnt wurden (hoher SENS bzw. niedriger DP). Die orangefarbenen Linien geben die Schwellenwerte für DP (horizontale Linie) und für SENS (vertikale Linie) an. Die Diagramme (a) bis (c) zeigen jeweils die drei Fallstudien für jeden Test (von links nach rechts). Außerdem wird die Anzahl der ausgewählten Features angezeigt.

Score-Plots (SENS, DP) des mithilfe von Transferlernen extrahierten Merkmals (im Beispiel wird „Resnet101“ verwendet) für a–c Fallstudie Nr. 2, d–f Fallstudie Nr. 3, g–I Fallstudie Nr. 4 und für die drei Tests für jede Modalität, a, d, g Test 1, b, e, h Test2, c, f, i Test3. Cyan-Markierungen lokalisieren die (SENS, DP)-Werte für jeden ausgewählten Deskriptor (hoher DP und niedriger SENS). Blaue Markierungen lokalisieren die (SENS, DP)-Werte für jeden Deskriptor, der aufgrund eines zu hohen SENS abgelehnt wurde. Grüne Markierungen lokalisieren die (SENS, DP)-Werte für abgelehnte Deskriptoren aufgrund eines zu niedrigen DP.

In dieser Aufgabe haben wir die Leistung der Funktionsauswahl des DM-Tools mit anderen vorhandenen Auswahlmethoden verglichen. Um den Kompensationseffekt mit einem über die ausgewählten Merkmale trainierten Klassifizierungsmodell zu vermeiden und die Robustheit der mit dem vorgeschlagenen Tool ausgewählten Merkmale zu beurteilen, haben wir nur die Empfindlichkeits- und DP-Werte der mit den Ansätzen ausgewählten Merkmale verglichen. Mit dem Ziel, verschiedene Standardansätze zur Merkmalsauswahl mit der DM-Auswahl zu vergleichen, gehen wir wie folgt vor. Zuerst haben wir die Merkmale aus dem ursprünglichen Trainingsdatensatz von Bildern extrahiert, indem wir Transferlernen von einem bestimmten CNN und einer zugehörigen Pooling-Schicht durchgeführt haben. Anschließend ordneten wir die Features gemäß einer Vergleichsmethode unter den unten aufgeführten Features ein und behielten den ersten Nsel bei, wobei Nsel die Anzahl der von DM ausgewählten Features ist. Anschließend extrahieren wir die DP- und SENS-Werte für die ausgewählten Features, wenn sie über den artefaktierten Datensatz berechnet werden, und verwenden sie zum Vergleich. Auf diese Weise überprüfen wir das Potenzial der Auswahl von Merkmalen mithilfe des Sensitivitätskriteriums zusätzlich zum DP. Der Klarheit halber verwendet auch METHODE 5 das DP-Kriterium für die Rangfolge, jedoch ohne die Bewertung der Merkmalsempfindlichkeit. Wie weiter unten gezeigt wird, erzielt das DP-Kriterium bei alleiniger Verwendung eine sehr geringe Leistung. Insbesondere haben wir mit den folgenden Methoden verglichen: Rankfeature basierend auf der Rangfolge der Merkmale nach Klassentrennbarkeitskriterien15 und schrittweises Regressionsmodell14.

Im Detail betrachten wir:

METHODE 1: Ordnen Sie das Merkmal anhand von Kriterien wie: T-Test, nämlich dem Absolutwert-T-Test bei zwei Stichproben mit gepoolter Varianzschätzung15.

METHODE 2: Rangfolge der Merkmale anhand von Kriterien wie Entropie, insbesondere relativer Entropie (Kullback-Leibler-Divergenz)15.

METHODE 3: Rangfolge der Merkmale anhand von Kriterien wie: Bhattacharyya, nämlich dem minimal erreichbaren Klassifizierungsfehler oder der Chernoff-Grenze15.

METHODE 4: Ordnen Sie das Merkmal mithilfe von Kriterien wie: Wilcoxon, nämlich dem absoluten Wert der standardisierten u-Statistik eines ungepaarten Wilcoxon-Tests mit zwei Stichproben, auch bekannt als Mann-Whitney15.

METHODE 5: Ordnen Sie das Merkmal anhand von Kriterien wie: ROC, Fläche zwischen der empirischen ROC-Kurve und der Steigung des zufälligen Klassifikators15.

METHODE 6: Schrittweise lineare Regressionsanpassung für die Merkmalsauswahl14.

Für jede Teilmenge ausgewählter Features werten wir das Score-Plot (SENS, DP) aus, indem wir dieselben Features über den artefaktierten Bildsatz berechnen. Die Abbildungen 4–6 veranschaulichen Boxplots (orangefarbene Kästchen für SENS, grüne Kästchen für DP-Werte) für die ausgewählten Merkmale entsprechend der für die Auswahl verwendeten Methode. Gepaarte Boxplots zeigten die (SENS,DP)-Verteilungswerte für jede Methode an. Wie man beobachten kann, erzielen METHODE 1 (t-Test) und METHODE 4 (Wilcoxon-Test) häufig eine gute Leistung, weisen jedoch eine Streuverteilung der Werte für DP (grüne Kästchen) und SENS (orange Kästchen) auf. Andererseits weisen METHODE 2 (Entropie), METHODE 3 (Bhattacharyya), METHODE 5 (ROC) und METHODE 6 (schrittweise lineare Anpassung) inakzeptabel niedrige DP-Werte auf, selbst wenn die SENS-Werte sehr niedrig sind. Die Ergebnisse werden für alle Tests (TESTS 1–3) und für alle Fallstudien (Fallstudien 2, 3 und 4) bestätigt.

Gelbe Sternchen kennzeichnen die Durchschnittswerte und die horizontale schwarze Linie kennzeichnet den Medianwert. Die Ergebnisse beziehen sich auf Fallstudie Nr. 2, IM-ACQ-1, Tests 1(a)–3(c). Es wurden n = 200 biologisch unabhängige Proben berücksichtigt.

Gelbe Sternchen kennzeichnen die Durchschnittswerte und die horizontale schwarze Linie kennzeichnet den Medianwert. Die Ergebnisse beziehen sich auf Fallstudie Nr. 3, IM-ACQ-2, Tests 1(a)–3(c). Es wurden n = 200 biologisch unabhängige Proben berücksichtigt.

Gelbe Sternchen kennzeichnen die Durchschnittswerte und die horizontale schwarze Linie kennzeichnet den Medianwert. Die Ergebnisse beziehen sich auf Fallstudie Nr. 4, IM-ACQ-3, Tests 1(a)–3(c). Es wurden n = 200 biologisch unabhängige Proben berücksichtigt.

Um darüber hinaus die Wirksamkeit des Deep-Manager-Funktionsauswahlansatzes zu demonstrieren, vergleichen wir verschiedene Deep-Learning-Netzwerkarchitekturen unter den am häufigsten verwendeten. Auch hier haben wir keinen Klassifizierungsschritt für die ausgewählten Merkmale implementiert, um eine Verschleierung der Robustheit der ausgewählten Merkmale zu vermeiden. Der Vergleich wird hinsichtlich der Empfindlichkeit und der DP-Werte durchgeführt. Insbesondere haben wir ResNET10116, VGG1917, NasNETLarge18 und DenseNET20119 berücksichtigt. Die für jede Architektur verwendeten Schichten werden als Kompromiss zwischen Speicherspeicherung und zeitaufwändiger (tiefere Schichten bieten eine gröbere Darstellung des Bildes, daher werden weniger Deskriptoren extrahiert) und Unterscheidungsleistung ausgewählt. Tabelle 1 listet die verwendeten Ebenen und die Anzahl der für die Analyse berücksichtigten Deskriptoren auf. Die Tabellen 2–4 zeigen die numerischen Ergebnisse von DP und SENS der mit jeder Vergleichsmethode (Spalten 2–7) und dem DM-Tool (erste Spalte) ausgewählten Merkmale unter Verwendung der in Tabelle 1 aufgeführten Netzwerke und Ebenen für Fallstudien #2–#4. Die Methoden 1–6 werden wie folgt angewendet. Zunächst werden Merkmale extrahiert, indem ein bestimmtes Netzwerk und eine bestimmte Schicht auf den ursprünglichen Datensatz der Trainingsbilder angewendet werden. Anschließend werden die Features nach dem in den Methoden (1–5) enthaltenen Kriterium eingestuft oder direkt mit Methode 6 ausgewählt. Nach der Rangfolge werden die Features anhand der ersten Nsel-Ranking-Features ausgewählt, wobei Nsel die Anzahl der mit dem DM-Tool ausgewählten Features ist. Durch Extrahieren der gleichen Merkmale auch aus dem modifizierten Bilddatensatz (erhalten nach Anwendung der entsprechenden Tests entsprechend der Bildgebungsmodalität) haben wir dann den SENS und den neuen DP berechnet, die in Tabelle 2 aufgeführt sind. Auf diese Weise können wir direkt auswerten die Bedeutung der Verwendung des Sensitivitätskriteriums in Verbindung mit dem DP-Wert, insbesondere beim Vergleich des DM-Ansatzes mit der METHODE 5, die tatsächlich ein DP-ähnliches Rankingkriterium verwendet, aber anhand des Originaldatensatzes und ohne die Unterstützung des Sensitivitätsbewertungsverfahrens auswertet. Die Durchschnittswerte von SENS und DP sind in der Tabelle aufgeführt, während die Werte in Klammern die über den ausgewählten Merkmalssatz berechnete Standardabweichung darstellen. Die besten Ergebnisse für jeden Test sind fett gedruckt. Wie man sieht, erreicht Deep-Manager in allen 36 Tests höhere oder gleichwertige DP-Werte für die ausgewählten Features. Bemerkenswert ist die Tatsache, dass die METHODEN 1–5 nicht autonom eine Teilmenge ausgewählter Features liefern, sondern vielmehr ein Feature-Ranking-Ergebnis. Daher würden die METHODEN 1–5 einen weiteren Optimierungsschritt für die Merkmalsauswahl erfordern. Im Gegensatz dazu liefert METHODE 6 (schrittweise lineare Regression), die tatsächlich eine Teilmenge ausgewählter Merkmale zurückgibt, niemals akzeptable Ergebnisse in Bezug auf den DP der extrahierten Merkmale, wenn die Leistungen über die im modifizierten Satz von Bildern extrahierten Merkmale berechnet werden.

Faltungs-Neuronale Netze bestehen aus wiederholten verschachtelten Faltungsoperationen, die sich mit nichtlinearen Operationen und Pooling-Schichten abwechseln. Es ist ziemlich unvorhersehbar, welche Schichten für eine optimale Implementierung des Transferlernens verwendet werden sollen. Normalerweise werden Pooling-Schichten bevorzugt, da sie im Vergleich zu allen vorherigen Faltungsschichten einen kompakteren Satz an Informationen zurückgeben. Mit dem Ziel, ein weiteres Potenzial der Deep-Manager-Plattform darzustellen, vergleichen wir die DP-Werte für Features, die aus verschiedenen Schichten verschiedener CNNs ausgewählt wurden. Es werden Ergebnisse für die Fallstudie 2 (2D-Kultur) unter Verwendung der Netzwerke ResNET101 (max-pool1 und avg-pool5), VGG19 (max-pool1, max-pool2, max-pool3, max-pool4, max-pool5) und DenseNET201 ( max-pool1, avg-pool2, avg-pool3, avg-pool4, avg-pool5). NasNetLarge wird hier nicht dargestellt, da es eine einzigartige Pooling-Schicht (dh global_average pool5) darstellt. Abbildung 7 vergleicht die DP-Verteilung der aus jeder Ebene ausgewählten Features. Frühere Experimente verdeutlichen, wie wichtig es ist, die richtige Pooling-Schicht auszuwählen. Wie man sieht, hängen die DP-Werte der ausgewählten Features von der Schicht und dem angewendeten Test ab. Im Durchschnitt kann festgestellt werden, dass eine mittlere Schicht (Pool3 für DenseNET201 und für VGG19) die höchsten DP-Werte für Test 1 und Test 2 erreicht (Fallstudie 2). Im Gegenteil, pool5 erreicht die beste Leistung bei den durchschnittlichen DP-Werten für Test 3 (Fallstudie 2). Diese Tatsache sollte jedoch mit einer wesentlich geringeren Anzahl zu verwaltender Features einhergehen, solange die Ebene tiefer wird und der Zeitaufwand folglich geringer ist.

a ResNET101, max-pool1, avg-pool5. b VGG19, Kartenpool1, Max-Pool2, Max-Pool3, Max-Pool4, Max-Pool5. c DenseNET201, max-pool1, avg-pool2, avg-pool3, avg-pool4 und avg-pool5. Für Panel (a) wurden n = 46770 unabhängige Daten verwendet, für Panel (b) wurden n = 127667 unabhängige Daten verwendet, für Panel (c) wurden n = 26675 unabhängige Daten verwendet.

In dieser Aufgabe haben wir das Potenzial der Verwendung des DM-Tools gestärkt, indem wir eine Klassifizierungsaufgabe basierend auf Support Vector Machine (SVM) implementiert haben, die über die vom DM-Tool ausgewählten Tiefenfunktionen trainiert wurde. Vor diesem Hintergrund haben wir eine Fallstudie aus dem kürzlich veröffentlichten, mit LIVEcell gekennzeichneten Datensatz13 ausgewählt. Insbesondere mit dem Ziel, eine praktische Anwendung im Einklang mit den in dieser Arbeit verwendeten Beispielen zu präsentieren, haben wir BT-474-Zellen ausgewählt, in Flößen gezüchtete Brustkrebszellen. Die Aufgabe bestand darin, den Krebswachstumsfaktor nach 4 Stunden zu erkennen. Anschließend verglichen wir die Zellen am Tag 0 mit den nach 4 Stunden sichtbaren Zellen und verwendeten die DM-Plattform, um die diskriminantesten und robustesten Tiefenmerkmale für die Aufgabe auszuwählen. Abbildung 8 zeigt fünf Beispiele von Zellen aus jeder Gruppe.

Einige Beispiele für Ernten von BT-474-Zellen, die am Tag 0, Stunde 0 erworben wurden (obere Reihe), b BT-474-Zellen, die am Tag 0, Stunde 4 erworben wurden. Maßstabsbalken entsprechend 40 mm.

Mithilfe der Anmerkungen können wir jede Zelle lokalisieren und eine Region of Interest (ROI) um sie herum extrahieren. Gemäß den in Abb. 7 gezeigten Simulationsergebnissen haben wir den CNN Densenet201 mit der durchschnittlichen Pooling-Schicht „average_pool5“ ausgewählt, der für alle drei Tests die höchsten durchschnittlichen DP-Werte aufwies. Um ein anspruchsvolles Szenario zu erstellen, führten wir die Klassifizierungsaufgabe durch, bei der wir Zellen am Tag 0, Stunde 0 von Zellen am Tag 0, Stunde 4 unterschieden. Um die Aufgabe realistisch zu gestalten und ein Übertraining des Modells zu vermeiden, haben wir die Störungstests 1– 3 (Luminanz, Bewegung und Unschärfe) auf die Bilder im Testsatz, wie vom LIVEcell-Datensatz bereitgestellt. Wir haben alle 5554 im Trainingsdatensatz annotierten ROIs extrahiert und die 1912 ROIs aus dem Testsatz getestet, nachdem wir die in der Methode beschriebenen zufälligen Störungen angewendet haben. Die über die DM-Toolbox extrahierten Merkmale wurden dann einer SVM mit einem linearen Kernel20-Klassifizierungsmodell zugeführt, mit dem Ziel, Veränderungen der Zellmorphologie in der 4. Stunde der Kultur zu erkennen. Da die Anzahl der ausgewählten Features sehr gering ist (von 2 bis 5 über 1920, die vom Netz extrahiert wurden), führten wir auch Simulationen durch, indem wir den Schwellenwert thDP senkten, der für die Auswahl der Features entsprechend ihrer DP-Werte im Trainingssatz verwendet wurde. Wir betrachteten das Werteintervall für thDP als gleich [0,5 ÷ 0,7] in Schritten von 0,05. Die Abbildungen 9–11 (Panel a) zeigen die Genauigkeit der Klassifizierung (ACC) und die Werte der Fläche unter der Kurve (AUC). 9–11 (Panel b) zeigen die F1-Score-Werte im Zusammenhang mit den drei Variationstests für die 2D-Transmissionslichtumgebung. Der unabhängige Testsatz von Bildern wurde gemäß Abb. 9a, b dem Helligkeitstest für das 2D-Szenario, Abb. 10a, b dem Bewegungstest für das 2D-Szenario und Abb. 11a, b dem Unschärfetest für modifiziert das 2D-Szenario. Blaue Linien stellen Leistungsergebnisse dar, die über den Trainingssatz berechnet wurden, rote Linien bezeichnen Leistungsergebnisse, die über den modifizierten Testsatz berechnet wurden, und grüne Linien stellen die Leistungsergebnisse dar, die durch die Nichtauswahl von Features erzielt wurden. Wie deutlich zu erkennen ist, ermöglicht die Möglichkeit, die Funktionen auszuwählen, nicht nur eine höhere Klassifizierungsleistung in Bezug auf ACC, F1-Score und AUC, sondern reduziert auch die Zeit, die das Modell zum Trainieren benötigt, erheblich. In beiden drei Tests nehmen die Trainingsgenauigkeit der Klassifizierung, die F1-Score-Werte und die AUC-Werte mit einer geringeren Anzahl ausgewählter Merkmale (höherer thDP) ab. Gleichzeitig erhöht sich die Testgenauigkeit der Klassifizierung, der F1-Score-Werte und der AUC-Werte. Dieses Phänomen zeigt einen abnehmenden Übertrainingstrend und eine zunehmende Systemrobustheit gegenüber Bildvariationen. Die geringen Ergebnisse, die durch die Nichtauswahl der Merkmale erzielt wurden (grüne Linien), bewiesen außerdem, wie wichtig der Einsatz des DM-Tools ist. Als abschließenden Vergleich haben wir das vorab trainierte DENSENET201-Netzwerk anhand desselben Trainingsbildsatzes nach der Anwendung der Störungen test1-test3 für IM-ACQ-1-Bilder verfeinert. Die Trainingsoptionen für die Optimierungsmethode „Stochastic Gradient Descent with Momentum“ (SGDM) waren 10 Epochen (1000 Iterationen pro Epoche), Datenmischung in jeder Epoche, Mini-Batch-Größe von 10 und eine anfängliche Lernrate von 0,001. Das Training dauerte etwa 33 Stunden auf Matlab 2022b mit der GPU NVIDIA GeFORCE RTX und Intel Core i7, 9. Generation. Außerdem haben wir aus Gründen der Rechenzeit zufällig 5000 Trainingsdaten aus 16662 ausgewählt. Anschließend haben wir das abgestimmte Netzwerk auf den in den vorherigen Experimenten verwendeten Testsatz angewendet. Die im Hinblick auf ACC erzielten Ergebnisse sind in den Abbildungen dargestellt. 9–11 als Cyan-Linie. Darüber hinaus haben wir das DM-Merkmalsauswahlkriterium auch auf die vom fein abgestimmten DENSENT201-Netzwerk extrahierten Tiefenmerkmale angewendet. Die Ergebnisse werden durch die schwarzen Linien dargestellt. Wie man feststellen kann, ist das fein abgestimmte Netzwerk wahrscheinlich aufgrund des Abstimmungsschritts für das Merkmalsauswahlverfahren nicht sinnvoll. Andererseits bleibt die Generalisierungsfähigkeit des fein abgestimmten Netzwerks recht gering. Obwohl die Ergebnisse in Bezug auf ACC- und F1-Scores vergleichbar sind, machen eine Trainingszeit von 33 Stunden und die Notwendigkeit, das Netzwerk bei Bedarf bei neuen Störungstests neu zu trainieren, das DM-Tool zum überlegenen Ansatz, wenn man auch den reduzierten Funktionsumfang berücksichtigt Das diesbezüglich fein abgestimmte Netzwerk wird als Eingabe für die Klassifizierungsmodelle verwendet.

Klassifizierungsleistung der DM-Auswahl in Kombination mit dem SVM-Klassifizierungsmodell in Bezug auf ACC (linkes Y-Achsenfeld a) und F1-Score (linkes Y-Achsenfeld b) vs. AUC (rechte Y-Achse) bei der morphologischen Erkennung von BT-474-Zellen Änderungen über 4 Stunden Kultur am Tag 0. Der unabhängige Testsatz von Bildern wurde entsprechend dem Helligkeitstest für das 2D-Szenario geändert. Blaue Linien kennzeichnen Leistungsergebnisse, die über den Trainingssatz berechnet wurden, rote Linien kennzeichnen Leistungsergebnisse, die über den modifizierten Testsatz berechnet wurden, grüne Linien stellen die Leistungsergebnisse dar, die durch die Nichtauswahl von Features erzielt wurden, die cyanfarbene Linie kennzeichnet die Leistung des fein abgestimmten DENSENET201-Netzwerks, schwarze Linien stellen die Leistung der Anwendung des DM-Feature-Auswahlverfahrens auf die Features dar, die vom fein abgestimmten DENSENET201-Netzwerk extrahiert wurden. Zum Extrahieren des Boxplots wurden n = 10 Wiederholungen verwendet.

Klassifizierungsleistung der DM-Auswahl in Kombination mit dem SVM-Klassifizierungsmodell in Bezug auf ACC (linkes Y-Achsenfeld a) und F1-Score (linkes Y-Achsenfeld b) vs. AUC (rechte Y-Achse) bei der morphologischen Erkennung von BT-474-Zellen Änderungen über 4 Stunden Kultur am Tag 0. Der unabhängige Testsatz von Bildern wurde entsprechend dem Bewegungstest für das 2D-Szenario modifiziert. Blaue Linien kennzeichnen Leistungsergebnisse, die über den Trainingssatz berechnet wurden, rote Linien kennzeichnen Leistungsergebnisse, die über den modifizierten Testsatz berechnet wurden, grüne Linien stellen die Leistungsergebnisse dar, die durch die Nichtauswahl von Features erzielt wurden, die cyanfarbene Linie kennzeichnet die Leistung des fein abgestimmten DENSENET201-Netzwerks, schwarze Linien stellen die Leistung der Anwendung des DM-Feature-Auswahlverfahrens auf die Features dar, die vom fein abgestimmten DENSENET201-Netzwerk extrahiert wurden. Zum Extrahieren des Boxplots wurden n = 10 Wiederholungen verwendet.

Klassifizierungsleistung der DM-Auswahl in Kombination mit dem SVM-Klassifizierungsmodell in Bezug auf ACC (linkes Y-Achsenfeld a) und F1-Score (linkes Y-Achsenfeld b) vs. AUC (rechte Y-Achse) bei der morphologischen Erkennung von BT-474-Zellen Änderungen über 4 Stunden Kultur am Tag 0. Der unabhängige Testsatz von Bildern wurde gemäß dem Unschärfetest für das 2D-Szenario modifiziert. Blaue Linien kennzeichnen Leistungsergebnisse, die über den Trainingssatz berechnet wurden, rote Linien kennzeichnen Leistungsergebnisse, die über den modifizierten Testsatz berechnet wurden, grüne Linien stellen die Leistungsergebnisse dar, die durch die Nichtauswahl von Features erzielt wurden, die cyanfarbene Linie kennzeichnet die Leistung des fein abgestimmten DENSENET201-Netzwerks, schwarze Linien stellen die Leistung der Anwendung des DM-Feature-Auswahlverfahrens auf die Features dar, die vom fein abgestimmten DENSENET201-Netzwerk extrahiert wurden. Zum Extrahieren des Boxplots wurden n = 10 Wiederholungen verwendet.

Das größte Ziel aller, die Datenanalysetechniken für medizinische Anwendungen entwickeln, ist es, ihre Arbeit in einem realen Kontext einzusetzen. Leider ist der Übergang von den hervorragenden Ergebnissen, die beispielsweise im Labor erzielt wurden, in ein Krankenhaus alles andere als einfach. Im realen Messszenario werden viele Variablen nicht kontrolliert und ihre Variationen können zu nicht akzeptablen Leistungen führen. Ein solches Problem ist umso kritischer, wenn es im Zusammenhang mit Deep-Learning-Merkmalen behandelt wird, da es an einer a priori bekannten Beziehung zwischen den Black-Box-Deskriptoren (Deep-Features) und den phänotypischen Eigenschaften der untersuchten biologischen Einheiten mangelt. In dieser Arbeit haben wir eine Softwareplattform namens Deep-Manager eingeführt, die dieser Einschränkung entgegenwirkt, indem sie die Leistung und Empfindlichkeit jeder Funktion gegenüber verschiedenen Störungen analysiert. Das Potenzial des vorgeschlagenen Ansatzes wurde in fünf verschiedenen Fallstudien und verschiedenen simulierten Artefakten validiert und zeigte eine überlegene Leistung im Vergleich zu den Standardlösungen.

Mit der Deep-Manager-Plattform können Benutzer spezifische Empfindlichkeitstests für ihren eigenen Bilddatensatz durchführen, um die am besten geeigneten Funktionen für die spezifische Klassifizierungsaufgabe auszuwählen. Sensitivitätstests zielen darauf ab, herauszufinden, welche Merkmale, die aus Ad-hoc-Algorithmen (handgefertigt) oder aus einem vorab festgelegten Deep-Learning-Netzwerk durch einen Transfer-Learning-Ansatz extrahiert wurden, empfindlicher auf externe Größen und Phänomene reagieren, die spezifisch für die Akquisition sind. Um die Wirksamkeit der vorgeschlagenen Methode zu beweisen, haben wir aus dem umfangreichen Spektrum an Aufnahmegeräten und Versuchsaufbauten drei der am häufigsten verwendeten praktischen Kontexte im Bereich der biologischen Bildanalyse ausgewählt: 2D-Transmissionslicht-Zeitraffermikroskopie , 3D-Phasenkontrast-Zeitraffermikroskopie und 3D-Fluoreszenz-Zeitraffermikroskopie. Die implementierten Sensitivitätstests sind daher für diese Kontexte konzipiert. Die Liste der möglichen Tests der Deep-Manager-Plattform könnte jedoch in Zukunft auf andere Bereiche wie histopathologische Bildgebung oder indirekte Immunfluoreszenz erweitert werden. Aus diesem Grund bezeichnen wir die vorliegende Version im Folgenden als Deep-Manager 1.0-Version. Link: https://github.com/BEEuniroma2/Deep-Manager. Alle zur Reproduktion der Zahlen erforderlichen Daten sind in der Datei „Supplementary Data 1“ enthalten.

In Bezug auf die Bildgebungsmodalität berücksichtigte die aktuelle Version des DM-Tools drei verschiedene Bildgebungsmodalitäten (Ergänzende Anmerkungen 1.1): IM-ACQ-1 (2D-TL-Zeitraffermikroskopie, Abschnitt „Ergänzende Anmerkungen“), IM-ACQ-2 (3D-Phasenkontrast-TL). Zeitraffermikroskopie), IM-ACQ-3 (3D-Fluoreszenzzeitraffermikroskopie). Jede Modalität identifiziert spezifische Tests im Zusammenhang mit der verwendeten Ausrüstung und den verwendeten Versuchsbedingungen.

Für die Modalität IM-ACQ-1 haben wir „Helligkeitsartefakt“, „Stage-Multipositionierungsartefakt“ und „Out-of-Focus-Artefakt“ implementiert. Die Fallstudien Nr. 2 und Nr. 5 beziehen sich auf dieses Szenario. Für die Modalität IM-ACQ_2 haben wir die Tests „Helligkeitsvariation“, „Lokal-unscharf“ und „Geltexturvariation“ einbezogen. Fallstudie Nr. 3 bezieht sich auf ein solches Szenario. Schließlich haben wir für die Modalität IM-ACQ-3 „Autofluoreszenz des Kulturmediums“, „Photobleichung“ und „Fluoreszenzsättigung“ einbezogen. Die Fallstudien Nr. 1 und Nr. 4 beziehen sich auf eine solche Modalität. Weitere mathematische Details finden Sie in den Ergänzenden Anmerkungen (Abschnitte 1.1, IM-ACQ-1 – IM-ACQ-2, Ergänzende Abbildungen 1–9).

Die DM-Plattform ermöglicht zwei unterschiedliche Modalitäten: 1. handgefertigte Intensitäts- und Texturfunktionen 2. Deep-Features aus dem Deep Transfer Learning (DTL)-Algorithmus. Benutzer mit Programmierkenntnissen können auch individuelle Funktionen mit spezifischen Zusatzfunktionen hinzufügen. Ein Extraktor für geometrische Deskriptoren würde einen vorläufigen Segmentierungsschritt erfordern, um die Form jeder Zelle zu extrahieren. Standardmäßig schlägt die Plattform einige bekannte Intensitäts- und Texturdeskriptoren vor, die über das Originalbild (oder das Bild, das Störungen ausgesetzt ist) berechnet werden. Die Liste der verfügbaren Intensitätsdeskriptoren lautet: durchschnittliche Intensität, mittlere Intensität, Standardabweichung der Intensität, minimale Intensität, 10. Perzentil der Intensität, 25. Perzentil der Intensität, 75. Perzentil der Intensität, 90. Perzentil der Intensität, maximale Intensität , Entropie der Intensität21. In Bezug auf die Texturdeskriptoren umfasst die DM-Plattform Haralick-Funktionen22 und Histogram of Oriented Gradient-Funktionen (HoG)23. Weitere Details finden Sie in den Referenzen und im Abschnitt 1.2 der Ergänzenden Hinweise „Handgefertigte Funktionen“. Durch die Auswahl unterschiedlich tiefer Schichten wird das Eingabebild in eine unterschiedliche Anzahl von Deskriptoren kodiert, von detaillierter Darstellung (höhere Schichten) bis hin zu gröberer Kodierung (sehr tiefe Schichten). Standardmäßig umfasst die DM-Plattform mehrere bekannte Deep-Learning-Architekturen: ResNET10116, VGG1917, NasNETLarge18 und DenseNET20119. Jedes Netzwerk verfügt über sogenannte Pooling-Schichten, die die Datendimensionen reduzieren, indem sie die Ausgaben von Neuronenclustern auf einer Schicht zu einem einzelnen Neuron in der nächsten Schicht kombinieren16,24.

Die Deep-Manager-Plattform wurde in der Open-Source-Sprache Python 3.8 im Anaconda-Framework realisiert. Die gesamte Plattformarchitektur wurde für unterschiedliche Fachkenntnisse konzipiert. Der DM-Software wird eine Textdatei zugeführt, die eine Liste von Parametern und zugehörigen Bereichswerten enthält, die bei der Implementierung und Anwendung der Artefakte verwendet werden sollen. Für alle Tests steht eine eindeutige Textdatei zur Verfügung, sodass der Benutzer die Plattform wiederholt ausführen kann, indem er eine eindeutige SETTING-Datei ändert. Fortgeschrittene Benutzer können die Tests auch ändern oder einen neuen hinzufügen, indem sie die Einstellungsparameter ordnungsgemäß in die SETTING-Datei aufnehmen. Die Hauptschritte der DM-Funktionen sind: (1) Der Benutzer wird zunächst aufgefordert, das zu bearbeitende praktische Szenario auszuwählen (eine solche Auswahl ermöglicht es der Plattform, die endgültigen Auswahlergebnisse in einer bestimmten Datei zu speichern, die entsprechend der Testnummer nummeriert ist (z. B. 2D TL). (Mikroskopie, 3D-Phasenkontrast-TL-Mikroskopie oder 3D-Fluoreszenz). Alle für die ausgewählte Modalität verfügbaren Tests werden angewendet. (2) Der Benutzer wird dann aufgefordert, die Textdatei EINSTELLUNG auszuwählen, um die DM-Konfiguration zu laden. Die verwendeten Parameter sind in aufgeführt die Ergänzenden Hinweise, Abschnitt Algorithmusparameter. Die Datei enthält außerdem den Namen des Netzwerks, das für das Transferlernen verwendet wird, und ggf. die Schicht, die zum Extrahieren der Merkmale verwendet wird. Spezifische Details werden in den Methoden für jeden Test bereitgestellt. (3) Der Benutzer wird dann aufgefordert, den Pfad auszuwählen, in dem der Trainingsdatensatz der Bilder gespeichert wird. Details finden Sie im DM-Leitfaden https://github.com/BEEuniroma2/Deep-Manager; (4) der Benutzer wird aufgefordert, den handgefertigten oder auszuwählen die DTL-Modalität. Wenn daher die handgefertigte Auswahl gewählt wird, berechnet die Plattform automatisch eine Reihe von Textur- und Intensitätsmerkmalen. Wenn DTL ausgewählt ist, liest die Plattform die Einstellungsinformationen darüber, welches Netzwerk und welche Ebene ausgewählt werden soll, in der oben genannten SETTING-Datei. DM wendet die Störungen gemäß den oben beschriebenen Tests an und berechnet die Merkmale vor und nach der Störung; (5) Der Benutzer kann Störungseffekte auf zufällig ausgewählten Bildern visualisieren. Es ist auch möglich, in einem 2D-Diagramm Werte von DP vs. SENSITIVITÄT für die ausgewählten und nicht ausgewählten Merkmale zu visualisieren; Schließlich (6) wird der Benutzer dann aufgefordert, ein Verzeichnis auszuwählen, das zwei Validierungsdatensätze enthält, aus denen er die Merkmale für eine Unterscheidungsaufgabe auswählen möchte. Alle Bildformate sind zulässig, JPEG, TIFF, PNG usw. Ausgewählte Features werden dann für den Validierungsdatensatz berechnet und in einer separaten Repository-Variablen gespeichert, um in einer Klassifizierungsaufgabe verwendet zu werden. Der Benutzer kann den geänderten Satz von Trainingsbildern auch zur weiteren Verwendung speichern. Der Auswahlprozess funktioniert wie folgt; Unter Verwendung der beiden für jeden Deskriptor fi erzielten Werte, d. h. fi0 und fimod, vor und nach den Störungen leitet die Software die einzelnen Diskriminanzleistungswerte (DP) wie folgt ab:

Anschließend wird die Empfindlichkeit (SENS) des Deskriptors fi gegenüber der hinzugefügten Störung wie folgt berechnet:

wobei \({{{{{\rm{AUC}}}}}}{({f}_{i0})}_{{{{\rm{class1}}}}}}^{{{{ {\rm{class2}}}}}}\) gibt die Fläche unter der ROC-Kurve (Receiving Operating Characteristic)25 des Merkmals fi0 bei der Unterscheidung von Klasse1 von Klasse2 an. Wir betrachten DP hier als den Maximalwert zwischen 1-AUC und AUC, wobei AUC eine Möglichkeit ist, die Unterscheidungsfähigkeit eines Deskriptors in einem binären Klassifizierungsproblem zu quantifizieren17. In Bezug auf den AUC-Wert wurde der DP jedes Merkmals aufgrund seiner Invarianz gegenüber der direkten oder umgekehrten Beziehung „Merkmal zu Beschriftung“ ausgewählt. Mit anderen Worten: entweder hohe oder niedrige AUC-Werte (beide weisen auf eine hohe Diskriminanzfähigkeit hin) entsprechen hohen DP-Werten.

Die Software wendet einen Schwellenwert thDP an, um Deskriptoren entsprechend den DP-Werten zu klassifizieren, und einen Schwellenwert thSENS, um Deskriptoren entsprechend den Sensitivitätswerten zu klassifizieren. Vor diesem Hintergrund werden die Deskriptoren in verschiedene Regionen eingeteilt: hohe DP und niedrige SENS (die ausgewählten), wobei der DP höher als thDP und die Empfindlichkeit niedriger als thSENS ist (Cyan-Markierungen in Abb. 12), hohe SENS, d. h. diejenigen, die aufgrund der abgelehnt werden hohe Empfindlichkeit größer als thSENS gegenüber dem Artefakt (blaue Markierungen in Abb. 12) und niedrige DP kleiner als thDP, d. h. diejenigen, die aufgrund ihrer geringen Unterscheidungskraft abgelehnt wurden (grüne Markierungen in Abb. 12).

Rote Markierungen lokalisieren die DP-Werte für Deskriptoren, die vor der Bildänderung mithilfe von Transferlernen extrahiert wurden. Bei der Berechnung vor der Anwendung des Tests wird davon ausgegangen, dass die Empfindlichkeitswerte Null sind. Cyan-Markierungen lokalisieren die (SENS, DP)-Werte für jeden Deskriptor mit hohem DP und niedrigem SENS. Blaue Markierungen lokalisieren die (SENS, DP)-Werte für jeden Deskriptor mit hohem SENS. Grüne Markierungen lokalisieren die (SENS, DP)-Werte für Deskriptoren mit niedrigem DP.

Die Schwellenwerte werden in die Textdatei SETTING geladen und können vom Benutzer geändert werden, da sie stark von der Anwendung abhängen. Eine Skizze des möglichen Deep-Manager-Ergebnisses ist in Abb. 10 dargestellt. Da es sich um DP-Werte im Bereich [0,5,1] handelt, liegen zulässige Werte von thDP im Bereich [0,6–0,8] entsprechend der Unterscheidungsfähigkeit der extrahierten Merkmale im konkreten Fall. Die Empfindlichkeit liegt standardmäßig im Bereich von [0,05–0,1] und entspricht der erwarteten Variation des DP vor und nach der Störung. Wenn der Schwellenwert thDP zu hoch oder thSENS zu klein ist und keine Funktion ausgewählt ist, weist das Tool den Benutzer darauf hin, andere Schwellenwerte auszuwählen.

Für die Aufnahme von Zeitrafferbildern wurde eine invertierte Leica DMi8 verwendet, die mit einer Retiga R6-Kamera und einer Lumencor SOLA SE 365-Lichtmaschine ausgestattet ist und ein 5-fach-Objektiv verwendet. Als Filterwürfel wurden TXRed (Anregungsfilter 560/40 nm, Emissionsfilter 630/75 nm, dichroitischer Spiegel 585 nm) und GFP (Anregungsfilter 470/40 nm, Emissionsfilter 525/50 nm, dichroitischer Spiegel 495 nm) verwendet. Ein lebender Fluoreszenzfarbstoff (CellTrace, rot) wurde verwendet, um die Krebszellen vor der Kultur auf dem Chip selektiv vorzufärben. Um den apoptotischen Tod zu überwachen, wurde dem Kulturmedium auf dem Chip ein lebender fluoreszierender Reporter für Caspase-Aktivität (CellEvent Caspase-3/7, grün) hinzugefügt. Der rote Kanal wurde dann zur Lokalisierung von Zellen verwendet10, während die Transposition der Position der Krebszelle auf dem grünen Kanal die Überwachung des grünen Emissionssignals und damit von Todesereignissen ermöglichte. Brustkrebszellen (BT474-Zelllinie, repräsentativ für den Brustkrebs-Subtyp HER2 +) wurden in 3D-biomimetischen Kollagengelen in mikrofluidischen Geräten mit Immunzellen (PBMCs, mononukleäre Zellen des peripheren Blutes von gesunden Spendern) mit oder ohne Zusatz kokultiviert einer gezielten Immuntherapie, dem Trastuzumab (Markenname Herceptin). Mit dem Ziel, die Vorteile der Verwendung des DM-Tools in der gängigen Praxis zu demonstrieren, haben wir handgefertigte Merkmale im Zusammenhang mit grünen Emissionen extrahiert und den Fall der Standardpraxis mit der Verwendung des DM-Tools verglichen.

Bei 2D-TL-Zeitraffermikroskopie-Experimenten ist eine gute Merkmalsauswahl von entscheidender Bedeutung, um Merkmale auszuschließen, die aufgrund unvorhersehbarer Änderungen wie Luminanzdrift, Flackern, Fokusänderungen im Laufe der Zeit usw. variieren und die Dateninterpretation hoffnungslos behindern können. Mit dem Ziel, die Gültigkeit der vorgeschlagenen Deep-Manager-Plattform in einem solchen Kontext zu testen, analysierten wir Krebszellen vor und nach der Exposition gegenüber dem Chemotherapeutikum Etoposid, einem Topoisomerase-II-Inhibitor, der die Zell-DNA-Replikation blockiert und die Zellmotilität, -form und -form tiefgreifend beeinflusst Körnigkeit im Laufe der Zeit, Eigenschaften, die leicht fehlinterpretiert werden können, wenn sie Luminanzdrift, Flackern usw. ausgesetzt sind. Kurz gesagt, menschliche metastasierende PC-3-Prostatakrebszellen (ATCC) wurden in RPMI 1640-Medium gezüchtet, ergänzt mit 10 % fötalem Rinderserum, 1 % L-Glutamin (2 mM) und 1 % Penicillin/Streptomycin (100 IU/ml) (Euroclone), bei 37 °C in einer feuchten Atmosphäre mit 5 % CO2 in der Luft. In jedem Experiment wurden 40.000 Zellen/ml in 35-mm-Petrischalen (Euroclone) ausgesät. 72 Stunden nach der Aussaat wurden die Zellen mit dem Chemotherapeutikum Etoposid (Sigma-Aldrich), einem Topoisomerase-II-Inhibitor, der die Zell-DNA-Replikation blockiert, in Endkonzentrationen von 0 und 5 μM behandelt und sofort auf Zeitraffer analysiert. Die Bilder wurden mit einem maßgeschneiderten kleinen Umkehrmikroskop mit einem Bild pro Minute und einer gesamten Versuchszeit von 6 Stunden aufgenommen. In den präsentierten Ergebnissen haben wir die beiden Extrembedingungen 0 und 5 μM berücksichtigt.

Brustkrebszellen (BT474-Zelllinie, repräsentativ für den Brustkrebs-Subtyp HER2 +) wurden in 3D-biomimetischen Kollagengelen in mikrofluidischen Geräten mit Immunzellen (PBMCs, mononukleäre Zellen des peripheren Blutes von gesunden Spendern) ohne oder mit Zusatz kokultiviert einer gezielten Immuntherapie, dem Trastuzumab (Markenname Herceptin). Einzelheiten finden Sie in der ursprünglichen biologischen Veröffentlichung12. In diesem Anwendungsfall haben wir gezeigt, wie die Fähigkeit der Tiefenmerkmale zur Unterscheidung der Wirkung einer gezielten Immuntherapie bei Brusttumoren durch Bildveränderungen beeinflusst wird, und verglichen die Ergebnisse mit denen, die mit Standardansätzen zur Merkmalsauswahl unter Verwendung verschiedener Deep-Learning-Architekturen erzielt wurden.

Lungenkrebszellen (IGR-Pub) wurden in 3D-biomimetischen Kollagengelen in mikrofluidischen Geräten ohne oder mit Immunzellen (autologe zytotoxische T-Zellen, Klon P62) co-kultiviert. Dem Medium wurde CellEvent Caspase-3/7 Green Detection Reagent (Thermofisher, #C10423) zugesetzt, um die Zellen, die im grünen Kanal Apoptose durchlaufen, sichtbar zu machen. Einzelheiten finden Sie in der ursprünglichen biologischen Veröffentlichung10. In diesem Anwendungsfall haben wir gezeigt, wie die Fähigkeit zur Unterscheidung der zytotoxischen Wirkung von T-Zellen in Lungentumoren durch Tiefenmerkmale durch Bildveränderungen beeinflusst wird, und haben die Ergebnisse mit denen verglichen, die mit Standardansätzen zur Merkmalsauswahl und verschiedenen Deep-Learning-Architekturen erzielt wurden.

Mit dem Ziel, das Potenzial der Auswahl tiefer Merkmale mit dem vorgeschlagenen DM-Tool zu demonstrieren, haben wir eine Fallstudie aus dem kürzlich veröffentlichten, mit LIVECell gekennzeichneten Datensatz ausgewählt13. Insbesondere mit dem Ziel, eine praktische Anwendung im Einklang mit den in dieser Arbeit verwendeten Beispielen zu präsentieren, haben wir BT-474-Zellen ausgewählt, in Flößen gezüchtete Brustkrebszellen. Die Zelllinien wurden von ATCC gekauft und gemäß den Empfehlungen der Lieferanten kultiviert. Mehrere Vertiefungen für jeden Zelltyp wurden in 96-Well-Platten (Corning) ausgesät und über einen Zeitraum von 5 Tagen alle 4 Stunden mit einem Incucyte S3 Live-Cell Analysis-System (Sartorius) abgebildet, das mit seiner Standard-CMOS-Kamera (Basler acA1920) ausgestattet war. 155 um). Diese Ausrüstung vermeidet das Vorhandensein des Phasenrings, der in herkömmlichen Zernike-Phasenbildern zu finden ist. Phasenkontrast-TL-Bilder wurden mit einem ×10-Objektiv an zwei Positionen in jeder Vertiefung aufgenommen und dann in vier gleich große Bilder (704 × 520 Pixel entsprechend 0,875 × 0,645 mm2) zugeschnitten. Anschließend wurden die Bilder von einem Expertenteam kommentiert.

Die statistische Signifikanz wurde durch die Implementierung eines Student-T-Tests bewertet. Die Wiederholbarkeit wurde durch 10-zufällige Unterabtastung unter Verwendung des Hold-out-Kreuzvalidierungsansatzes sichergestellt (z. B. Abb. 9–11). Die Anzahl der für jede statistische Analyse verwendeten Proben war in der entsprechenden Bildunterschrift angegeben.

Weitere Informationen zum Forschungsdesign finden Sie in der mit diesem Artikel verlinkten Nature Portfolio Reporting Summary.

Die Autoren erklären, dass Daten, die die Ergebnisse dieser Studie stützen, im Papier [und seinen ergänzenden Informationsdateien] verfügbar sind. Weitere Unterstützung und Anfragen können an die E-Mail-Adresse des entsprechenden Autors gesendet werden: [email protected] oder über das Formular unter https://web.bee.uniroma2.it/our-contacts/. Bilder, die zum LIVECell-Datensatz gehören, können unter https://sartorius-research.github.io/LIVECell/ heruntergeladen werden. Siehe auch Ref. 13.

Die Deep-Manager-Software und Beispielbilder zum Ausführen des Codes können kostenlos unter https://github.com/BEEuniroma2/Deep-Manager heruntergeladen werden.

Zhang, D., Zou, L., Zhou, X. & He, F. Integration von Methoden zur Merkmalsauswahl und Merkmalsextraktion mit Deep Learning zur Vorhersage des klinischen Ergebnisses von Brustkrebs. IEEE Access 6, 28936–28944 (2018).

Artikel Google Scholar

Jelen, L., Krzyzak, A., Fevens, T. & Jelen, M. Einfluss der Feature-Set-Reduktion auf die Brustkrebs-Malignitätsklassifizierung von Feinnadelaspirationsbiopsien. Berechnen. Biol. Med. 79, 80–91 (2016).

Artikel PubMed Google Scholar

Walsh, I. et al. DOME: Empfehlungen für die überwachte Validierung maschinellen Lernens in der Biologie. Nat. Methoden 18, 1122–1127 (2021).

Artikel CAS PubMed Google Scholar

Wu, Z. et al. DynaMorph: Lernen morphodynamischer Zustände menschlicher Zellen mit Live-Bildgebung und sc-RNAseq. Mol. Biol. Zelle. 33, https://doi.org/10.1091/mbc.E21-11-0561 (2022).

Moen, E. et al. Deep Learning für die zelluläre Bildanalyse. Nat. Methoden 16, 1233–1246 (2019).

Artikel CAS PubMed PubMed Central Google Scholar

Caldon, CE & Burgess, A. Markierungsfreie, quantitative Einzelzell-Schicksalverfolgung von Zeitrafferfilmen. MethodsX 6, 2468–2475 (2019).

Artikel PubMed PubMed Central Google Scholar

Specht, EA, Braselmann, E. & Palmer, AE Eine kritische und vergleichende Übersicht über Fluoreszenzwerkzeuge für die Bildgebung lebender Zellen. Annu. Rev. Physiol. 79, 93–117 (2017).

Artikel CAS PubMed Google Scholar

Billinton, N., Knight, AW & Knight, AW Den Wald durch die Bäume sehen: ein Überblick über Techniken zur Unterscheidung von grün fluoreszierendem Protein von endogener Autofluoreszenz. Anal. Biochem. 201, 175–197 (2001).

Artikel Google Scholar

Neumann, M. & Gabel, D. Einfache Methode zur Reduzierung der Autofluoreszenz in der Fluoreszenzmikroskopie. J. Histochem. Zytochem. 50, 437–439 ​​(2002).

Artikel CAS PubMed Google Scholar

Veith, I. et al. Die räumliche und zeitliche Apoptosekartierung von 3D-Tumorökosystemen zeigt die Übertragbarkeit des Todes durch zytotoxischen Krebs. PLoS Comput. Biol. 17, 1–23 (2021).

Artikel Google Scholar

Di Giuseppe, D. et al. Lernen der Wirksamkeit krebsbedingter Medikamente unter Ausnutzung des Konsenses über die koordinierte Motilität innerhalb von Zellclustern. IEEE Trans. Biomed. Ing. 66, 2882–2888 (2019).

Artikel PubMed Google Scholar

Nguyen, M. et al. Untersuchung der Wirkung von Krebsmedikamenten und krebsassoziierten Fibroblasten durch On-Chip-Rekonstitution immunkompetenter Tumormikroumgebungen. Cell Rep. 25, 3884–3893.e3 (2018).

Artikel CAS PubMed Google Scholar

Edlund, C. et al. LIVECell – ein umfangreicher Datensatz zur markierungsfreien Segmentierung lebender Zellen. Nat. Methoden 18, 1038–1045 (2021).

Artikel CAS PubMed PubMed Central Google Scholar

Draper, NR & Smith, H. Auswahl der „besten“ Regressionsgleichung. Appl. Bedauern. Anal. 2, 327–368 (1998).

Artikel Google Scholar

Liu, H. & Motoda, H. Feature Extraction, Construction and Selection: A Data Mining Perspective (Springer Science & Business Media, 1998).

He, K., Zhang, X., Ren, S. & Sun, J. Deep Residual Learning für die Bilderkennung. In Proc. IEEE Comput. Soc. Konf. Berechnen. Vis. Mustererkennung. (2015).

Bhandary, A. et al. Deep-Learning-Framework zur Erkennung von Lungenanomalien – Eine Studie mit Röntgen-Thorax- und Lungen-CT-Bildern ☆. Mustererkennung. Lette. 129, 271–278 (2020).

Artikel Google Scholar

Zoph, B., Vasudevan, V., Shlens, J. & Le, QV Lernen übertragbarer Architekturen für skalierbare Bilderkennung. In Proc. IEEE Comput. Soc. Konf. Berechnen. Vis. Mustererkennung. 8697–8710 (IEEE, 2018).

Huang, G., Zhuang, L., van der Maaten, L. & Weinberger, KW Dicht verbundene Faltungsnetzwerke. Im CVPR 2017 (2017).

Suthaharan, S. Modelle und Algorithmen des maschinellen Lernens für die Big-Data-Klassifizierung (Springer, 2016).

Gonzalez, RC & Woods, RE Digital Image Processing (Addison-Wesley Longman Publishing Co., 2001).

Haralick, RM, Shanmugam, K. & Dinstein, I. Texturmerkmale für die Bildklassifizierung. IEEE Trans. Syst. Mann Cybern. https://doi.org/10.1190/segam2015-5927230.1 (1973).

Dalal, N., Triggs, B. & Europe, D. Histogramme orientierter Gradienten zur menschlichen Erkennung. Im Jahr 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05) (2005).

Brownlee, J. Eine sanfte Einführung in das Pooling von Schichten für Faltungs-Neuronale Netze. Beherrschung des maschinellen Lernens https://machinelearningmastery.com/pooling-layers-for-convolutional-neural-networks/ (2019).

Hanley, JA & Mcneil, BJ Die Bedeutung und Verwendung der Fläche unter einer ROC-Kurve (Receiver Characteristic). Radiology 143, 29–36 (1982).

Artikel CAS PubMed Google Scholar

Referenzen herunterladen

Diese Autoren haben gleichermaßen beigetragen: A. Mencattini, M. D'Orazio.

Fakultät für Elektrotechnik, Universität Rom Tor Vergata, 00133, Rom, Italien

A. Mencattini, M. D'Orazio, P. Casti, MC Comes, D. Di Giuseppe, G. Antonelli, J. Filippi, C. Di Natale und E. Martinelli

Interdisziplinäres Zentrum für fortgeschrittene Studien zu Lab-on-Chip- und Organ-on-Chip-Anwendungen (IC-LOC), Universität Rom Tor Vergata, 00133, Rom, Italien

A. Mencattini, M. D'Orazio, P. Casti, MC Comes, D. Di Giuseppe, G. Antonelli, J. Filippi, F. Corsi und E. Martinelli

Abteilung für Biologie, Universität Rom Tor Vergata, 00133, Rom, Italien

F. Corsi & L. Ghibelli

Inserm U830, Labor für Stress und Krebs, Institut Curie, Forschungszentrum, Paris Sciences and Letters Research University, 75005, Paris, Frankreich

I. Veith & MC Parrini

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Konzeptualisierung: AM und EM Methodik: AM, MDO, MCP, PC, IV, FC, CDN und EM Software: MDO, MCC, JF, DDG und GA Formale Analyse: AM, MDO, LG, MPC und EM Schreiben – Originalentwurf: AM und EM Schreiben – Rezension und Bearbeitung: Alle Autoren. Visualisierung: AM, MCP und EM

Korrespondenz mit E. Martinelli.

Die Autoren geben an, dass keine Interessenkonflikte bestehen. Die Software ist für nichtkommerzielle Nutzungen kostenlos.

Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Mencattini, A., D'Orazio, M., Casti, P. et al. Deep-Manager: ein vielseitiges Tool zur optimalen Merkmalsauswahl bei der Live-Cell-Imaging-Analyse. Commun Biol 6, 241 (2023). https://doi.org/10.1038/s42003-023-04585-9

Zitat herunterladen

Eingegangen: 08. Juli 2022

Angenommen: 13. Februar 2023

Veröffentlicht: 3. März 2023

DOI: https://doi.org/10.1038/s42003-023-04585-9

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.