Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
COMPUTER-IMPLEMENTED METHOD AND SYSTEM FOR DIAGNOSING DISEASES THAT AFFECT MORPHOLOGICAL CHARACTERISTICS AND THE CYTOPLASMIC COMPLEXITY OF BLOOD CELLS
Document Type and Number:
WIPO Patent Application WO/2023/057334
Kind Code:
A1
Abstract:
A computer-implemented method for diagnosing diseases that affect the morphological characteristics and the cytoplasmic complexity of blood cells, the method comprising: a) obtaining blood parameters from at least one patient, the blood parameters comprising at least two measured properties of individual cells from full blood analysis, the individual cells comprising leukocytes, the measured properties of the leukocytes comprising the size and granularity of the cytoplasm and the structure of the cell nucleus; b) creating at least one scatter plot, each axis of the scatter plot comprising a different measured property of the individual cells; c) ascertaining at least one cluster in at least one scatter plot, the clusters comprising the subpopulations of leukocytes, the subpopulations comprising monocytes, lymphocytes, basophils, neutrophils and eosinophils; d) combining the property elements of the ascertained clusters to form a 1-dimensional global vector, the arrangement of the property elements in the global vector comprising an arrangement by associated cluster; e) reducing the dimension of the global vector; f) diagnosing at least one disease by means of an ensemble, the ensemble comprising at least one machine learning model and at least one deep learning model, the at least one machine learning model receiving at least one reduced global vector as an input variable and the at least one deep learning model receiving at least one scatter plot image as an input variable; and g) automatically generating a report which comprises at least one result of the diagnosis of at least one disease.

Inventors:
PUSHKIN ALEKSANDR (RU)
SHULKIN DIMITRIJ (DE)
CHERTKOV SERGEY (DE)
Application Number:
PCT/EP2022/077297
Publication Date:
April 13, 2023
Filing Date:
September 30, 2022
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
ROBOTDREAMS GMBH (AT)
International Classes:
G16H50/00
Foreign References:
US20180247715A12018-08-30
RU2733077C12020-09-29
Other References:
ANONYMOUS: "Principal Component Analysis", 30 September 2021 (2021-09-30), pages 1 - 29, XP093016837, Retrieved from the Internet [retrieved on 20230124]
TAKUBO TTATSUMI N: "Further evolution and leukocyte differential using an automated blood cell counter", RINSHO BYORI., vol. 43, no. 9, September 1995 (1995-09-01), pages 925 - 30
CHAUDHURY ANOIRET LHIGGINS JM: "White blood cell population dynamics for risk stratification of acute coronary syndrome", PROC NATL ACAD SCI USA., vol. 114, no. 46, 27 October 2017 (2017-10-27), pages 12344 - 12349
STATLAND BEWINKEL PHARRIS SCBURDSALL MJSAUNDERS AM: "Evaluation of biologic sources of variation of leukocyte counts and other hematologic quantities using very precise automated analyzers", AM J CLIN PATHOL, vol. 69, no. 1, January 1978 (1978-01-01), pages 48 - 54
GIJSBERTS CMDEN RUIJTER HME KLEIJN DPVHUISMAN ATEN BERG MJVAN WIJK RHAASSELBERGS FWVOSKUIL MPASTERKAMP GVAN SOLINGE WW: "Hematological Parameters Improve Prediction of Mortality and Secondary Adverse Events in Coronary Angiography Patients: A Longitudinal Cohort Study", MEDICINE (BALTIMORE, vol. 94, no. 45, November 2015 (2015-11-01), pages e1992
CHAUDHURY A.NOIRET L.HIGGINS J.: "White blood cell population dynamics for risk stratification of acute coronary syndrome", PROCEEDINGS OF THE NATIONAL ACADEMY OF SCIENCES, vol. 114, no. 46, 2017, pages 12344 - 12349
PIESZKO K., HICZKIEWICZJ., BUDZIANOWSKI P., RZEZNICZAK J., BUDZIANOWSKI J., BTASZCZYNSKI J., STOWINSKI R., BURCHARDT, P. MACHINE: "Iearned models using hematological inflammation markers in the prediction of short-term acute coronary syndrome outcomes", JOURNAL OF TRANSLATIONAL MEDICINE, vol. 16, no. 1, 2018, pages 334
KABARI L.G.NWAME B.B.: "Principal Component Analysis (PCA) - An Effective Tool in Machine Learning", INTERNATIONAL JOURNALS OF ADVANCED RESEARCH IN COMPUTER SCIENCE AND SOFTWARE ENGINEERING, vol. 9
VALUEVA, M.V.NAGORNOV, N.N.LYAKHOV, P.A.VALUEV, G.V.CHERVYAKOV, N.I.: "Mathematics and Computers in Simulation", vol. 177, 2020, ELSEVIER BV., article "Application of the residue number system to reduce hardware costs of the convolutional neural network implementation", pages: 232 - 243
ROSTAMIZADEH, AFSHIN.TALWALKAR, AMEET.: "Foundations of machine learning", 2012, MIT PRESS
GUIDO, SARAHROTHER, KRISTIAN, EINFÜHRUNG IN MACHINE LEARNING MIT PYTHON PRAXISWISSEN DATA SCIENCE
Attorney, Agent or Firm:
LKGLOBAL | LORENZ & KOPF PARTG MBB PATENTANWÄLTE (DE)
Download PDF:
Claims:
Patentansprüche

1. Computerimplementiertes Verfahren zur Bestimmung von Erkrankungen, die sich auf die morphologischen Merkmale und die zytoplasmatische Komplexität von Blutzellen auswirken, wobei das Verfahren umfasst: a) Gewinnung von Blutparametern von mindestens einem Patienten, wobei die Blutparameter mindestens zwei gemessene Eigenschaften der Einzelzellen des großen Blutbildes umfassen, wobei die Einzelzellen die Leukozyten umfassen, wobei die gemessenen Eigenschaften der Leukozyten die Größe, Granularität des Zytoplasmas und die Struktur des Zellkerns umfassen; b) Erstellung mindestens eines Streudiagramms, wobei jede Achse des Streudiagramms eine unterschiedliche gemessene Eigenschaft der Einzelzellen umfasst; c) Ermittlung mindestens eines Clusters in mindestens einem des mindestens einen Streudiagramms, wobei die Cluster die Subpopulationen der Leukozyten umfassen, wobei die Subpopulationen Monozyten, Lymphozyten, Basophile, Neutrophile und Eosinophile umfassen; d) Zusammenfassen der Eigenschaftselemente der ermittelten Cluster zu einem eindimensionalen globalen Vektor, wobei die Anordnung der Eigenschaftselemente im globalen Vektor eine Anordnung nach den zugehörigen Clustern umfasst; e) Dimensionsreduktion des globalen Vektors; f) Bestimmung mindestens einer Erkrankung durch ein Ensemble, wobei das Ensemble mindestens ein Machine Learning Modell und mindestens ein Deep Learning Modell umfasst, wobei das Machine Learning Modell mindestens einen reduzierten globalen Vektor als Eingangsgröße erhält und das mindestens eine Deep Learning Modell mindestens ein Streudiagrammbild als Eingangsgröße erhält; und g) Automatisches Erzeugen eines Berichts, der mindestens ein Ergebnis über die Bestimmung mindestens einer Erkrankung umfasst.

2. Computerimplementiertes Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Gewinnung der Blutparameter des großen Blutbildes die Gewinnung aus einem hämatologischen Analysator umfasst.

3. Computerimplementiertes Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Dimensionsreduktion des globalen Vektors eine Hauptkomponentenanalyse umfasst, wobei der globale Vektor vor und/oder nach der Dimensionsreduktion standardisiert wird.

4. Computerimplementiertes Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass das mindestens eine Streudiagrammbild für das mindestens eine Deep Learning Modell standardisiert wird.

5. Computerimplementiertes Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Ermittlung der Cluster eine Clusteranalyse umfasst, wobei die Clusteranalyse ein hierarchisches Clusterverfahren umfasst.

6. Computerimplementiertes Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Bestimmung mindestens einer Erkrankung das Soft Voting und/oder Hard Voting Verfahren umfasst.

7. Computerimplementiertes Verfahren nach Anspruch 1 und 3, dadurch gekennzeichnet, dass die Machine Learning Modelle, die den reduzierten globalen Vektor als Eingangsgröße im Ensemble erhalten, Künstliche Neuronale Netze, K- Nearest Neighbors, Random Forest, AdaBoost, Gradient Boosting Machines (GBM) und Support Vector Machines (SVM) umfassen.

8. Computerimplementiertes Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Deep Learning Modelle, die mindestens ein Streudiagrammbild als Eingangsgröße erhalten, Convolutional Neural Networks umfassen.

9. Computerimplementiertes Verfahren nach Ansprüchen 1 bis 8, dadurch gekennzeichnet, dass alle Modelle im Ensemble auf der Grundlage einer vorgefertigten Datenbank trainiert werden, wobei die Datenbank die gemessenen Eigenschaften von Einzelzellen und/oder Streudiagramme umfasst; wobei die Datenbank mit neuen gemessenen Eigenschaften von Einzelzellen und/oder Streudiagrammen erweiterbar ist.

10. Computerimplementiertes Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Erstellung mindestens eines Ergebnisberichtes durch den Computer erfolgt, wobei der Ergebnisbericht eine Grafik und/oder einen Informationstext und/oder eine Wahrscheinlichkeit und/oder einen Score für mindestens eine Erkrankung umfasst, wobei die Darstellung des Ergebnisberichtes die Darstellung auf dem Computergerät und/oder Mobilgerät und/oder Laborgerät umfasst.

11 . Computerimplementiertes Verfahren nach Ansprüchen 1 bis 10, ferner umfassend: Gewinnung von Blutparametern von mindestens einem Patienten, wobei die Blutparameter die gemessenen Eigenschaften der Einzelzellen des großen Blutbildes umfassen, wobei die Einzelzellen Erythrozyten und Thrombozyten umfassen, wobei in 1 b) neben oder anstelle mindestens eines Streudiagramms mindestens ein Histogramm erstellt wird, wobei eine der Achsen der Histogramme die Anzahl der Einzelzellen umfasst, wobei in 1f) neben oder anstelle mindestens eines Streudiagrammbildes mindestens ein Histogrammbild als Eingangsgröße für mindestens ein Deep Learning Modell im Ensemble für die Bestimmung mindestens einer Erkrankung verwendet wird, wobei die Datenbank in Anspruch 9 mit Histogrammen ergänzt wird.

12. System zur Bestimmung von Erkrankungen, die sich auf die morphologischen Merkmale und die zytoplasmatische Komplexität von Blutzellen auswirken, aufweisend einen Computer mit einer Recheneinheit, einer damit verbundenen Speichereinheit und einer Eingabeeinheit, wobei das System dazu ausgebildet ist, a) durch ein Analysegerät gewonnene Blutparameter von mindestens einem Patienten über die Eingabeeinheit zu erfassen, wobei die Blutparameter mindestens zwei gemessene Eigenschaften der Einzelzellen des großen Blutbildes umfassen, wobei die Einzelzellen die Leukozyten umfassen, wobei die gemessenen Eigenschaften der Leukozyten die Größe, Granularität des Zytoplasmas und die Struktur des Zellkerns umfassen; b) mindestens ein Streudiagramms durch die Recheneinheit zu erstellen, wobei jede Achse des Streudiagramms eine unterschiedliche gemessene Eigenschaft der Einzelzellen umfasst; c) mindestens einen Cluster in mindestens einem des mindestens einen Streudiagramms durch die Recheneinheit zu ermitteln, wobei die Cluster die Subpopulationen der Leukozyten umfassen, wobei die Subpopulationen Monozyten, Lymphozyten, Basophile, Neutrophile und Eosinophile umfassen; d) die Eigenschaftselemente der ermittelten Cluster zu einem eindimensionalen globalen Vektor durch die Recheneinheit zusammenzufassen, wobei die Anordnung der Eigenschaftselemente im globalen Vektor eine Anordnung nach den zugehörigen Clustern umfasst; e) eine Dimensionsreduktion des globalen Vektors durch die Recheneinheit durchzuführen; f) mittels der Recheneinheit mindestens eine Erkrankung durch ein Ensemble zu ermitteln, wobei das Ensemble mindestens ein Machine Learning Modell und mindestens ein Deep Learning Modell umfasst, wobei das Machine Learning Modell mindestens einen reduzierten globalen Vektor als Eingangsgröße erhält und das mindestens eine Deep Learning Modell mindestens ein Streudiagrammbild als Eingangsgröße erhält; und g) Automatisches Erzeugen eines Berichts durch die Recheneinheit, der mindestens ein Ergebnis über die Bestimmung mindestens einer Erkrankung umfasst.

Description:
Computerimplementiertes Verfahren und System zur Bestimmung von Erkrankungen, die sich auf morphologische Merkmale und die zytoplasmatische Komplexität von Blutzellen auswirken

Technisches Gebiet

Die Erfindung bezieht sich auf die klinische Labordiagnostik und beschreibt ein computerimplementiertes Verfahren zur Bestimmung von Erkrankungen, die sich auf die morphologischen Merkmale und die zytoplasmatische Komplexität von Blutzellen auswirken.

Technischer Hintergrund

Die klinische Blutanalyse ist eine der zugänglichsten diagnostischen Methoden in der praktischen Medizin, da sie systemische pathologische Prozesse im menschlichen Körper auf der Grundlage einer quantitativen Bewertung der Zellzusammensetzung und Blutmorphologie widerspiegelt. Zirkulierende Blutzellen durchdringen kontinuierlich fast alle Gewebe im menschlichen Körper in hohem Durchsatz, und ihre Zustände der Reifung, Aktivierung, Proliferation und Alterung spiegeln die aktuellen pathophysiologischen Zustände wider: Gesundheit, akute Reaktion auf Pathologie, chronische Kompensation von Erkrankungen und schließlich Dekompensation.

Die routinemäßige Messung des vollständiges Blutbildes umfasst die Messung von Einzelzellmerkmalen bei Zehntausenden von Blutzellen und bietet einen umfassenden Überblick über diese pathophysiologischen Zustände. Bei jedem routinemäßigen Blutbild werden hochdimensionale Einzelzellinformationen von weißen Blutzellen (Leukozyten) gemessen. Dabei werden im hämatologischen Analysator verschiedene morphologische Merkmale wie Größe, Komplexität, Lobularität und Granularität gemessen, die eine Dfferenzierung der fünf Subpopulationen reifer Leukozyten in Neutrophile, Lymphozyten, Monozyten, Eosinophile und Basophile ermöglichen (Takubo T, Tatsumi N. Further evolution and leukocyte differential using an automated blood cell counter. Rinsho Byori. 1995 Sep;43(9):925-30. Japanese. PMID: 7474456.).

Die klinischen Entscheidungen beruhen derzeit nur auf einigen wenigen abgeleiteten Statistiken. Aufgrund der großen Menge an Informationen, die über das Blutbild des Patienten erhalten werden, sind Ärzte oft nicht in der Lage, dieses in Bezug auf die klinische Situation vollständig zu interpretieren. (Chaudhury A, Noiret L, Higgins JM. White blood cell population dynamics for risk stratification of acute coronary syndrome. Proc Natl Acad Sei U S A. 2017 Nov 14;114(46):12344- 12349. doi: 10.1073/pnas.1709228114. Epub 2017 Oct 27. PMID: 29087321 ; PMCID: PMC5699055.).

Das enorme Potenzial des vollständigen Blutbildes wurde jedoch erkannt, wobei frühere Versuche unternommen wurden, Infektionen durch die Identifizierung unreifer Granulozyten frühzeitig zu erkennen oder die Prognose für einige bösartige Erkrankungen durch die Zählung der Anzahl von (Leukozyten) mit atypischen Merkmalen zu bestimmen (Statland BE, Winkel P, Harris SC, Burdsall MJ, Saunders AM. Evaluation of biologic sources of variation of leukocyte counts and other hematologic quantities using very precise automated analyzers. Am J Clin Pathol. 1978 Jan;69(1 ):48-54. doi: 10.1093/ajcp/69.1.48. PMID: 563672.).

Diese Bemühungen hatten zwar nur begrenzte Erfolge, deuten aber auf das Potenzial für eine verbesserte klinische Entscheidungshilfe hin (Gijsberts CM, den Ruijter HM, de Kleijn DPV, Huisman A, Ten Berg MJ, van Wijk RHA, Asselbergs FW, Voskuil M, Pasterkamp G, van Solinge WW, Hoefer IE. Hematological Parameters Improve Prediction of Mortality and Secondary Adverse Events in Coronary Angiography Patients: A Longitudinal Cohort Study. Medicine (Baltimore). 2015 Nov;94(45):e1992. doi: 10.1097/MD.0000000000001992. PMID: 26559287; PMCID: PMC4912281 .). Die Methoden der Diagnostik vom Akuten Koronarsyndrom (AKS) durch die Analyse von Leukozyten unter Verwendung von statistisch-mathematischen Ansätzen wurde in der folgenden Arbeit untersucht (Chaudhury A., Noiret L., Higgins J. White blood cell population dynamics for risk stratification of acute coronary syndrome. Proceedings of the National Academy of Sciences, 2017; 114(46), S.12344-12349).

Mit der zunehmenden Menge an digitalen Daten, die von Analysesystemen bereitgestellt werden, wächst das Potenzial für die Anwendung von Methoden von Machine Learning aus dem Bereich der Künstlichen Intelligenz (Kl), um die Effektivität der verfügbaren diagnostischen Informationen im Interesse des Patienten und medizinischer Einrichtungen zu erhöhen (Pieszko K., Hiczkiewicz J., Budzianowski P., Rzezniczak J., Budzianowski J., Blaszczyhski J., Slowihski FL, Burchardt, P. Machine-learned models using hematological inflammation markers in the prediction of short-term acute coronary syndrome outcomes. Journal of Translational Medicine, 2018; 16(1 ):334).

Beschreibung

Es kann als Aufgabe betrachtet werden, ein alternatives Verfahren für die Bestimmung von Erkrankungen vorzuschlagen, insbesondere von Erkrankungen, die sich auf die morphologischen Merkmale und die zytoplasmatische Komplexität von Blutzellen auswirken, um die Qualität der medizinischen Versorgung von Patienten zu verbessern.

Die Aufgabe wird gelöst durch ein computerimplementiertes Verfahren mit den Merkmalen des unabhängigen Anspruchs 1 . Vorteilhafte Ausführungsformen und Weiterbildungen sind den Unteransprüchen und der nachfolgenden Beschreibung zu entnehmen. Es wird ein computerimplementiertes Verfahren zur Bestimmung von

Erkrankungen vorgeschlagen, die sich auf die morphologischen Merkmale und die zytoplasmatische Komplexität von Blutzellen auswirken, wobei das Verfahren umfasst: a) Gewinnung von Blutparametern von mindestens einem Patienten, wobei die Blutparameter mindestens zwei gemessene Eigenschaften der Einzelzellen des großen Blutbildes umfassen, wobei die Einzelzellen die Leukozyten umfassen, wobei die gemessenen Eigenschaften der Leukozyten die Größe, Granularität des Zytoplasmas und die Struktur des Zellkerns umfassen; b) Erstellung mindestens eines Streudiagramms, wobei jede Achse des Streudiagramms eine unterschiedliche gemessene Eigenschaft der Einzelzellen umfasst; c) Ermittlung mindestens eines Clusters in mindestens einem Streudiagramm, wobei die Cluster die Subpopulationen der Leukozyten umfassen, wobei die Subpopulationen Monozyten, Lymphozyten, Basophile, Neutrophile und Eosinophile umfassen; d) Zusammenfügen der Eigenschaftselemente der ermittelten Cluster zu einem eindimensionalen globalen Vektor, wobei die Anordnung der Eigenschaftselemente im globalen Vektor eine Anordnung nach den zugehörigen Clustern umfasst; e) Dimensionsreduktion des globalen Vektors; f) Bestimmung mindestens einer Erkrankung durch ein Ensemble, wobei das Ensemble mindestens ein Machine Learning Modell und mindestens ein Deep Learning Modell umfasst, wobei das mindestens eine Machine Learning Modell mindestens einen reduzierten globalen Vektor als Eingangsgröße erhält und das mindestens eine Deep Learning Modell mindestens ein Streudiagrammbild als Eingangsgröße erhält; und g) Automatisches Erzeugen eines Berichts, der mindestens ein Ergebnis über die Bestimmung mindestens einer Erkrankung umfasst.

Die Durchführung eines erfindungsgemäßen Verfahrens wird weiter nachfolgend erläutert.

Der Patient betritt die Notaufnahme der medizinischen Organisation. Es besteht ein Verdacht auf das akute Koronarsyndrom (AKS), das sich auf die morphologischen Merkmale und die zytoplasmatische Komplexität von Blutzellen auswirkt. Es wird das erste venöse Vollblut aus einer kubischen Vene z.B. mit Hilfe eines 4 ml Vakuumsystems zur Blutentnahme in ein z.B. Vacutest-Röhrchen (KIMA, Italien) entnommen und auf die Innenfläche der z.B. 7,2 mg K3EDTA- Röhrchenwände aufgetragen. Diese Probe wird anschließend zur Bestimmung von Erkrankungen durch das erfindungsgemäße Verfahren verwendet. Die Probenentnahme ist dabei nicht teil des Verfahrens.

Das Röhrchen wird nach der Blutentnahme gerührt, indem es auf den Kopf gestellt und 30 Sekunden lang horizontal und vertikal gedreht wird. Danach wird die klinische Blutuntersuchung im offenen Modus auf dem automatischen Hämatologie-Analysegerät z.B. CELL-DYN Sapphire (Abbott Laboratories, USA) durchgeführt. Dabei werden die Einzelzellen des Gesamtblutbildes hochdimensional gemessen, wobei die Messungen, wie beispielhaft in Fig. 1 dargestellt, die Eigenschaften der Einzelzellen umfassen.

Die Messungen werden z.B. als FCS-Dateien oder in einem anderen Format vom Analysegerät kopiert und zur maschinellen Bearbeitung auf einen zugänglichen PC oder mobiles Computergerät oder eine Cloud übertragen. Diese Messungen enthalten Blutparameter als Eigenschaften von Leukozyten, wobei Leukozyten die Neutrophile, Eosinophile, Basophile, Lymphozyten und Monozyten umfassen, wobei die Eigenschaften die Größe, Granularität, Lobularität und Komplexität umfassen (Fig. 2).

Die maschinelle Bearbeitung besteht in der automatischen Differenzierung von mindestens drei Subpopulationen (Neutrophile, Lymphozyten, Monozyten), indem die gemessenen Eigenschaften übereinander in mindestens einem Streudiagramm, wie beispielsweise in Fig. 3 ersichtlich, eingetragen werden: Größe über Komplexität und/oder Größe über Lobularität. Abbott Cell-DYN Sapphire ermittelt die Größe der Zellen durch Messung des axialen Lichtverlustes (ALL) für jede Zelle, die zytoplasmatische und nukleare Komplexität durch Messung der Intensität der Zwischenwinkelstreuung (IAS) und die Lobularität durch Messung der Intensität der polarisierten Seitenstreuung Intensität (PSS).

Die Ermittlung der Subpopulationen differenziert nach ihren Eigenschaften erfolgt automatisch durch die Hierarchische Clusteranalyse, wobei man unter Hierarchischer Clusteranalyse ein Verfahren zur Entdeckung von Ähnlichkeitsstrukturen in Datenbeständen versteht, wobei Cluster hierbei aus Messgrößen bestehen, die zueinander eine geringere Distanz aufweisen als zu den Messgrößen anderer Cluster (Fig. 3). Neben der Hierarchischen Clusteranalyse können auch folgende Clusteralgorithmen verwendet werden: K- Means, K-Medians, Affinity Propagation, Mean-shift, Spectral Clustering, Ward- hierarchical Clustering, DBSCAN, OPTICS, Gaussian Mixtures und Birch.

Danach werden die Elemente von mindestens drei Subpopulationen sortiert und in einem globalen Vektor zusammengefasst: wobei der globale Vektor die Vektoren von mindestens drei Subpopulationen differenziert nach ihren Eigenschaften umfasst:

wobei der Lymphozyt-Vektor mindestens zwei Eigenschaften (Größe und Komplexität), der Monozyt-Vektor mindestens zwei Eigenschaften (Größe und Komplexität) und der Neutrophile-Vektor mindestens zwei Eigenschaften (Größe und Komplexität) umfasst. Selbstverständlich können auch eine oder mehrere weitere Eigenschaften hierbei berücksichtigt werden, beispielsweise die Lobularität, sodass der Neutrophilie-Vektor folgendermaßen lauten könnte:

Danach kann der globale Vektor mit den Eigenschaftselementen standardisiert werden, indem die Werte in einem Bereich von [0,1] oder [-1 ,1] neu skaliert werden oder die Daten so umskaliert werden, dass sie einen Mittelwert von 0 und eine Standardabweichung von 1 (Einheitsvarianz) aufweisen: wobei der Vektor {u} die Mittelwerte der Eigenschaftselemente der globalen Vektoren in der vorgefertigten Datenbank repräsentiert: und der Vektor {s} die Standardabweichungen der Elemente der globalen Vektoren in der vorgefertigten Datenbank repräsentiert:

Nach der Standardisierung wird eine Hauptkomponentenanalyse (PCA) angewendet. Die PCA kann auch vor der Standardisierung oder anstelle der Standardisierung angewendet werden. Das Ziel der PCA besteht darin, die Dimension der Merkmale des standardisierten globalen Vektors zu reduzieren und gleichzeitig so viel Variabilität (Information) der Merkmale beizubehalten (Dunteman G.H. Principal Component Analysis, 1989). Die große Größe der Vektoren kann Probleme für das maschinelle Lernen verursachen, da auf diesen Daten basierende Prognosemodelle Gefahr laufen, umgeschult zu werden (Kabari L.G., Nwame B.B., Principal Component Analysis (PCA) - An Effective Tool in Machine Learning, International Journals of Advanced Research in Computer Science and Software Engineering, ISSN: 2277-128X (Volume-9, lssue-5)). Darüber hinaus können viele der Anzeichen redundant oder hoch korreliert sein, was ebenfalls zu einer Abnahme der diagnostischen Genauigkeit führen kann. Außerdem erhöht die PCA auch die Berechnungsgeschwindigkeit erheblich.

Neben PCA können auch Sparse Principal Components Analysis, Kernel Principal Component Analysis, Truncated Singular Value Decomposition, Independent Component Analysis, Non-negative Matrix Factorization und Latent Dirichlet Allocation verwendet werden.

Nach der PCA wird die Anzahl der Elemente im globalen Vektor von n auf die Anzahl der Hauptkomponenten p reduziert: wobei die Elemente xi ...x p des reduzierten Vektors die Hauptkomponenten repräsentieren. Die Anzahl p der Hauptkomponenten ist kleiner als oder gleich der Anzahl n der Elemente des globalen Vektors vor der Dimensionsreduzierung, d.h. p < n. Nach der PCA wird der reduzierte globale Hauptkomponentenvektor als Eingangsvektor für mindestens ein Machine Learning Modell, wie es etwa in Fig. 4 gezeigt wird, verwendet.

Machine Learning ist ein Teilgebiet der Künstlichen Intelligenz und ein Oberbegriff für die "künstliche" Erzeugung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann diese nach Abschluss der Lernphase verallgemeinern. Dazu bauen die Algorithmen des maschinellen Lernens auf der Grundlage von Trainingsdaten ein statistisches Modell auf. Das heißt, die in der Lernphase zugeführten Beispiele werden nicht einfach auswendig gelernt, sondern es werden Muster und Regelmäßigkeiten in den Lerndaten erkannt. Auf diese Weise kann das System auch unbekannte Daten bewerten (Lerntransfer).

Werden mindestens zwei (Machine) Learning Modelle für die Vorhersage verwendet, so spricht man von einem Ensemble. Ensembles sind ein Paradigma des maschinellen Lernens, bei dem mehrere Modelle trainiert werden, um dasselbe Problem zu lösen und zu kombinieren, um bessere Ergebnisse zu erzielen (Langley P., Elements of Machine Learning, 1996), wobei ein Ensemble Künstliche Neuronale Netze und/oder k-nearest neighbors Modelle und/oder Random Forest Modelle und/oder Entscheidungbäume und/oder AdaBoost Modelle und/oder Gradient Boosting Maschines (GBM) und/oder Bootstrapped Aggregation Modelle und/oder Stacked Generalization Modelle und/oder Logistic Regresssion Modelle und/oder Bayesian Modelle und/oder Support Vector Machines (SVM) aufweisen kann. Während der globale Vektor, wie er etwa in Fig. 4 gezeigt wird, als Eingangsgröße für mindestens ein Machine Learning Modell verwendet wird, wird mindestens ein globales Streudiagramm als Eingangsbild in Form einer Eingangsmatrix für mindestens ein Deep Learning Modell, wie es etwa in Fig. 5 gezeigt ist, verwendet, wobei ein globales Streudiagramm aus mindestens einem Streudiagramm besteht, wobei die Deep Learning Modelle Convolutional Neural Networks (CNNs) umfassen könnten.

Im Bereich des Deep Learning ist ein CNN eine Klasse künstlicher neuronaler Netze, die am häufigsten zur Analyse visueller Bilder eingesetzt wird (Valueva, M.V.; Nagornov, N.N.; Lyakhov, P.A.; Valuev, G.V.; Chervyakov, N.I. (2020). "Application of the residue number system to reduce hardware costs of the convolutional neural network implementation". Mathematics and Computers in Simulation. Elsevier BV. 177: 232-243. doi:10.1016/j.matcom.2020.04.031 . ISSN 0378-4754.). Ein CNN besteht im Wesentlichen aus Filtern (Convolutional Layer) und Aggregations-Schichten (Pooling Layer), die sich abwechselnd wiederholen, und am Ende aus einer oder mehreren Schichten von „normalen“ vollständig verbundenen Neuronen (Dense / Fully Connected Layer). Ein CNN erkennt mit seinen Filtern ortsunabhängig Strukturen in den Bildern. Die Art der Filter wird dabei nicht vorgegeben, sondern vom neuronalen Netz gelernt. Mit jeder Filterebene erhöht sich das Abstraktions-Level des Netzes. Welche Abstraktionen schließlich zur Aktivierung des hinteren Layer führen, ergibt sich aus den charakteristischen Merkmalen der vorgegebenen Klassen, die erkannt werden sollen.

Streudiagramme werden erstellt, indem die gemessenen Eigenschaften der Einzelzellen der Leukozyten gegeneinander, wie in Fig. 6 exemplarisch dargestellt wird, aufgetragen werden: Größe über Komplexität, Größe über Granularität, Größe über Lobularität, Komplexität über Granularität, Komplexität über Lobularität, Granularität über Lobularität. Es ist denkbar, dass - je nach Analysegerät - auch weniger Eigenschaften gemessen werden, etwa nur die drei Eigenschaften Zellgröße, Zellkomplexität und Zellinhalt. Es ist davon auszugehen, dass praktisch sämtliche Analysegeräte mindestens zwei Eigenschaften, d.h., die Zellgröße und Komplexität, messen und in den einfachsten Streudiagrammen zumindest diese beiden Eigenschaften gegeneinander aufgetragen werden. Die einzelnen Streudiagramme in Fig. 6 können zum globalen Streudiagramm zugefügt werden, wobei die Reihenfolge der einzelnen Streudiagramme im globalen Streudiagramm vertauscht werden kann.

Die Bestimmung einer Erkrankung im Verfahren ist entweder dadurch gekennzeichnet ist, dass eine Summierung der Stimmen von mehreren trainierten Machine und Deep Learning Modellen ermittelt wird (hard voting), wobei die Diagnose einer Erkrankung mit den meisten Stimmen, wie beispielsweise in Fig. 7 dargestellt, gewählt wird.

Oder die Bestimmung der Diagnose einer Erkrankung ist im Verfahren dadurch gekennzeichnet, dass eine Summierung der Wahrscheinlichkeiten von mehreren trainierten Machine und Deep Learning Modellen berechnet wird (soft voting), wobei die Diagnose einer Erkrankung aus dem gewichteten Mittelwert der größten Summenwahrscheinlichkeit für jedes Ensemble, wie beispielsweise in Fig. 8 gezeigt, ausgegeben wird.

Die Machine und Deep Learning Modelle werden auf der Grundlage einer vorgefertigten Datenbank, wie sie beispielhaft in Fig. 9 gezeigt ist, trainiert, wobei die Datenbank aus den gemessenen Blutparametern besteht. Die Datenbank wird in zwei Datensätze Xtrain und X tes t unterteilt, wobei Xtrain für das Training der Modelle und Xtest für die Evaluierung der Qualität der Modelle verwendet wird.

Für das Training und die Evaluierung von Modellen, die als Eingangsgröße globale Vektoren benötigen, werden diese aus den Datensätzen nach oben beschriebenen Ansätzen hergeleitet: wobei n die Gesamtanzahl der Eigenschaftselemente und m die Anzahl der Patienten in den Datensätzen repräsentiert. Die Datensätze werden nach dem oben genannten Ansatz standardisiert und anschließend nach dem Ansatz der PCA reduziert: wobei p die Anzahl der Hauptkomponenten und m die Anzahl der Patienten in den Datensätzen repräsentiert.

Für das Trainieren der Deep Learning Modelle, die als Eingangsgröße globale Streudiagramme benötigen, werden diese globale Streudiagramme aus den Datensätzen nach oben beschriebenen Verfahren hergeleitet: wobei die Datensätze aus m globalen Streudiagrammen bestehen, wobei m die Anzahl der Patienten repräsentiert.

Zu jedem globalen Vektor und globalen Streudiagramm in den Datensätzen korrespondiert eine wahre Erkrankung (positiv) oder ein wahrer gesunder Kontrollfall (negativ). Die Wahrheiten werden in einem Antwortvektor bzw. einer One-Hot-Encode Antwortmatrix Y train zusammengefasst. Bei der One-Hot- Codierung werden kategoriale Daten in numerische Daten zur Verwendung beim maschinellen Lernen umgewandelt. Kategoriale Merkmale werden hierbei insbesondere in binäre Merkmale umgewandelt, die "one-hot" kodiert werden, d. h., wenn ein Merkmal durch diese Spalte repräsentiert wird, erhält es eine 1 , ansonsten eine 0.

Das Trainieren der Modelle erfolgt an dem Trainingsdatensatz nach dem Supervised und/oder Semi-Supervised Ansatz. Supervised Learning (Überwachtes Lernen) ist ein Teilgebiet des maschinellen Lernens. Mit Lernen ist dabei die Fähigkeit einer künstlichen Intelligenz gemeint, Gesetzmäßigkeiten nachzubilden. Die Ergebnisse sind durch Expertenwissen in der Antwortmatrix Ytrain bekannt und werden benutzt, um das System anzulernen. Ein Lernalgorithmus versucht, eine Hypothese zu finden, die möglichst zielsichere Voraussagen trifft. Unter Hypothese ist dabei eine Abbildung zu verstehen, die jedem Eingabewert den vermuteten Ausgabewert zuordnet (Rostamizadeh, Afshin., Talwalkar, Ameet.: Foundations of machine learning. MIT Press, Cambridge, MA 2012, ISBN 978-0-262-01825-8.). Die Methode richtet sich also nach einer im Vorhinein festgelegten, zu lernenden Ausgabe, deren Ergebnisse in der Antwortmatrix Ytrain bekannt sind. Die Ergebnisse des Lernprozesses können mit den bekannten, richtigen Ergebnissen verglichen, also „überwacht“, werden (Guido, Sarah, Rother, Kristian: Einführung in Machine Learning mit Python Praxiswissen Data Science. Heidelberg, ISBN 978-3-96009-049-6.).

Semi-Supervised Lernen (Halb-Überwachtes Lernen) ist ein Ansatz des maschinellen Lernens, bei dem während des Trainings eine kleine Menge an Daten, deren Ergebnisse in der Antwortmatrix Y train bekannt sind (beschriftet/labeled), mit einer großen Menge an Daten, deren Ergebnisse unbekannt sind (unbeschriftet/unlabeled), kombiniert wird. Im ersten Schritt werden die ersten Modelle mit den beschrifteten Daten aus der vorgefertigten Datenbank initial trainiert. Danach werden mit initial trainierten Modellen die unbeschrifteten Daten klassifiziert und dadurch beschriftet (Pseudo-Labeling). Die Datenbank kann mit unbeschrifteten Daten und korrespondierenden Pseudo- Labels erweitert werden und für das Trainieren der nächsten Modelle verwendet werden. Die Pseudo Labels werden dabei als wahre Diagnosen betrachtet. Nach dem Training der Modelle und ihrer Aggregation zu einem Ensemble wird die Qualität der Ensembles an dem Testdatensatz X te st überprüft. Eine der Möglichkeiten, die Qualität der Modelle zu schätzen, ist die Gruppierung der Ergebnisse in einer Konfusionsmatrix. wobei TN für Richtig negative (True Negative), FN für Falsch negative (False Negative), FP für Falsch positive (False Positive) und TP für Richtig positive (True Positive) Vorhersagen stehen. Die Konfusionsmatrix veranschaulicht die Anzahl der Patienten mit Erkrankungen bzw. gesunde Patienten, die von Modellen richtig bzw. falsch vorhergesagt wurden. Dabei gibt die Sensitivität: die Wahrscheinlichkeit an, mit der eine positive Diagnose richtig als positiv klassifiziert wird. Beispielsweise entspricht die Sensitivität bei einer medizinischen Diagnose dem Anteil an tatsächlich Kranken, bei denen die Erkrankung auch erkannt wurde. Neben der Sensitivität, gibt dabei die Spezifität die Wahrscheinlichkeit an, mit der ein Ausschluss der Erkrankung richtig als negativ klassifiziert wird. Beispielsweise entspricht die Spezifität bei einer medizinischen Diagnose den Anteil an Gesunden, bei denen auch festgestellt wurde, dass keine Erkrankung vorliegt. Die Spezifität eines Tests gibt an, mit welcher Wahrscheinlichkeit ein Nicht-Infizierter auch tatsächlich erkannt würde.

Im Rahmen einer experimentellen Studie wurde eine Datenbank mit 221 Fällen retrospektiv in Zusammenarbeit mit dem multidisziplinären Krankenhaus Nr. 2 in St. Petersburg aufgebaut. Bei 110 Patienten wurde die Diagnose das Akute Koronarsyndrom (55 Fälle mit STEMI und 55 Fälle mit NSTEMI) von einem Kardiologen klassifiziert. Bei 1 11 Patienten wurde die Erkrankung ausgeschlossen, somit repräsentieren sie die gesunden Kontrollfälle. Bei allen Patienten wurde die erste Blutprobe in der Notfallaufnahme genommen und in einem Hämatologie-Analysegerät des Typs CELL-DYN Sapphire (Abbott Laboratories, USA) gemessen. Die Datenbank wurde nach einen Zufallsprinzip in einen Trainingsdatensatz Xtrain mit 154 Fällen und einen Testdatensatz X test mit 67 Fällen getrennt. Der Trainingsdatensatz X train wurde zum Trainieren der Machine und Deep Learning Modelle verwendet. An dem Testdatensatz X test wurde die Genauigkeit und Performance der Modelle evaluiert. Der Testdatensatz Xtest enthielt 17 STE-ACS, 18 NON-STE-ACS und 32 negative Kontrollfälle. Nach dem Training der Modelle und ihrer Aggregation zu einem Ensemble wurde die Qualität der Ensembles an dem Testdatensatz X te st überprüft. Danach wurden von 32 gesunden Patienten 30 als richtig gesund klassifiziert (TN) und von 35 kranken Patienten 34 als richtig krank klassifiziert (TP). Daraus ergibt sich eine Sensitivität von 97,14% und eine Spezifität von 93,75%, was auf eine sehr gute Qualität der Ensembles hinweist. Vergleicht man die Genauigkeiten des geschilderten Verfahrens mit den Genauigkeiten von High Sensitive Troponin-I Test von Abbott Technologies, wie es etwa in Fig. 1 1 dargestellt ist, so stellt man fest, dass das geschilderte Verfahren eine bessere Sensitivität und Spezifität unimittelbar nach der ersten Blutuntersuchung liefern kann.

Die trainierten Modelle, die auf der Grundlage des Trainingsdatensatzes trainiert werden und an dem Testdatensatz eine hohe Genauigkeit demonstrieren, können im Rahmen des Verfahrens innerhalb eines Laborinformationssystems für die Vorhersage der Erkrankungen, die sich auf die morphologischen Merkmale und die zytoplasmatische Komplexität von Blutzellen auswirken, eingesetzt werden. Die Datenbank kann jederzeit mit neuen beschrifteten und/oder unbeschrifteten Patientenfällen erweitert werden, sodass die Modelle nach dem Supervised und/oder Semi-Supervised Ansatz erneut trainiert werden können, um bessere Modelle zu gewinnen und die alten Modelle nach Bedarf zu ersetzen.

In der beispielhaften Darstellung der Fig. 10 sind alle Verfahrensschritte des computerimplementierten Verfahrens bei der Diagnose von Erkrankungen zusammengefasst, die sich auf die morphologischen Merkmale und die zytoplasmatische Komplexität von Blutzellen auswirken, zusammen.

Die Neuheit der vorgestellten Lösung wird dadurch erreicht, dass im Vergleich zu bestehenden Analoga zum ersten Mal globale Vektoren und globale Streudiagramme, die automatisch aus gemessenen Eigenschaften von Leukozyten durch die Clusteranalyse gewonnen werden, als Eingangsgrößen für Ensembles von Maschinen- und Deep-Learning-Modellen verwendet werden, mit dem Ziel Erkrankungen zu bestimmen, die sich auf die morphologischen Merkmale und die zytoplasmatische Komplexität von Blutzellen auswirken. Im Falle der Diagnose von NSTE-AKS, wurden im Rahmen der experimentellen Studie genauere und schnellere Ergebnisse unmittelbar nach der ersten Blutprobe, wie beispielhaft in Fig. 11 gezeigt, erreicht als moderne konventionelle Standardlösungen.

In einer vorteilhaften Ausführungsform umfasst die Gewinnung der Blutparameter des großen Blutbildes die Gewinnung aus einem hämatologischen Analysator.

In einer vorteilhaften Ausführungsform umfasst die Dimensionsreduktion des globalen Vektors eine Hauptkomponentenanalyse, wobei der globale Vektor vor und/oder nach der Dimensionsreduktion standardisiert wird. In einer vorteilhaften Ausführungsform wird das mindestens eine Streudiagrammbild für das mindestens eine Deep Learning Modell standardisiert. Dies kann bevorzugt vor und/oder bei der Übertragung in das betreffende Deep Learning Modell erfolgen.

In einer vorteilhaften Ausführungsform umfasst die Ermittlung der Cluster eine Clusteranalyse, wobei die Clusteranalyse ein hierarchisches Clusterverfahren umfasst.

In einer vorteilhaften Ausführungsform umfasst die Bestimmung mindestens einer Erkrankung das Soft Voting und/oder Hard Voting Verfahren.

In einer vorteilhaften Ausführungsform umfassen die Machine Learning Modelle, die den reduzierten globalen Vektor als Eingangsgröße im Ensemble erhalten, Künstliche Neuronale Netze, K-Nearest Neighbors, Random Forest, AdaBoost, Gradient Boosting Machines (GBM) und/oder Support Vector Machines (SVM).

In einer vorteilhaften Ausführungsform umfassen die Deep Learning Modelle, die mindestens ein Streudiagrammbild als Eingangsgröße erhalten, Convolutional Neural Networks.

In einer vorteilhaften Ausführungsform werden alle Modelle im Ensemble auf der Grundlage einer vorgefertigten Datenbank trainiert, wobei die Datenbank die gemessenen Eigenschaften von Einzelzellen und/oder Streudiagramme umfasst; wobei die Datenbank mit neuen gemessenen Eigenschaften von Einzelzellen und/oder Streudiagrammen erweiterbar ist. Die Datenbank könnte folglich für das Trainieren der Modelle stets mit neuen Daten erweitert werden, um die Genauigkeit der Modelle zu steigern.

In einer vorteilhaften Ausführungsform erfolgt die Erstellung mindestens eines Ergebnisberichtes durch den Computer, wobei der Ergebnisbericht eine Grafik und/oder einen Informationstext und/oder eine Wahrscheinlichkeit und/oder einen Score für mindestens eine Erkrankung umfasst, wobei die Darstellung des Ergebnisberichtes die Darstellung auf dem Computergerät und/oder Mobilgerät und/oder Laborgerät umfasst.

In einer vorteilhaften Ausführungsform umfasst das Verfahren ferner die Gewinnung von Blutparametern von mindestens einem Patienten, wobei die Blutparameter die gemessenen Eigenschaften der Einzelzellen des großen Blutbildes umfassen, wobei die Einzelzellen Erythrozyten und Thrombozyten umfassen, wobei in b) neben oder anstelle mindestens eines Streudiagramms mindestens ein Histogramm erstellt wird, wobei eine der Achsen der Histogramme die Anzahl der Einzelzellen umfasst, wobei in f) neben oder anstelle mindestens eines Streudiagrammbildes mindestens ein Histogrammbild als Eingangsgröße für mindestens ein Deep Learning Modell im Ensemble für die Bestimmung mindestens einer Erkrankung verwendet wird, wobei die Datenbank in Anspruch 8. mit Histogrammen ergänzt wird.

Die Erfindung betrifft analog dazu ein System zur Bestimmung von Erkrankungen, die sich auf die morphologischen Merkmale und die zytoplasmatische Komplexität von Blutzellen auswirken, aufweisend einen Computer mit einer Recheneinheit, einer damit verbundenen Speichereinheit und einer Eingabeeinheit, wobei das System dazu ausgebildet ist, a) durch ein Analysegerät gewonnene Blutparameter von mindestens einem Patienten über die Eingabeeinheit zu erfassen, wobei die Blutparameter mindestens zwei gemessene Eigenschaften der Einzelzellen des großen Blutbildes umfassen, wobei die Einzelzellen die Leukozyten umfassen, wobei die gemessenen Eigenschaften der Leukozyten die Größe, Granularität des Zytoplasmas und die Struktur des Zellkerns umfassen; b) mindestens ein Streudiagramms durch die Recheneinheit zu erstellen, wobei jede Achse des Streudiagramms eine unterschiedliche gemessene Eigenschaft der Einzelzellen umfasst; c) mindestens einen Cluster in mindestens einem des mindestens einen Streudiagramms durch die Recheneinheit zu ermitteln, wobei die Cluster die Subpopulationen der Leukozyten umfassen, wobei die Subpopulationen Monozyten, Lymphozyten, Basophile, Neutrophile und Eosinophile umfassen; d) die Eigenschaftselemente der ermittelten Cluster zu einem eindimensionalen globalen Vektor durch die Recheneinheit zusammenzufassen, wobei die Anordnung der Eigenschaftselemente im globalen Vektor eine Anordnung nach den zugehörigen Clustern umfasst; e) eine Dimensionsreduktion des globalen Vektors durch die Recheneinheit durchzuführen; f) mittels der Recheneinheit mindestens eine Erkrankung durch ein Ensemble zu ermitteln, wobei das Ensemble mindestens ein Machine Learning Modell und mindestens ein Deep Learning Modell umfasst, wobei das Machine Learning Modell mindestens einen reduzierten globalen Vektor als Eingangsgröße erhält und das mindestens eine Deep Learning Modell mindestens ein Streudiagrammbild als Eingangsgröße erhält; und g) Automatisches Erzeugen eines Berichts durch die Recheneinheit, der mindestens ein Ergebnis über die Bestimmung mindestens einer Erkrankung umfasst.

Das System könnte weiterhin dazu ausgebildet sein, einen oder mehrere der vorangehend geschilderten Verfahrensschritte auszuführen. Hierbei ist anzumerken, dass die Speichereinheit, die mit der Recheneinheit verbunden ist, dazu ausgebildet ist, einen entsprechenden Algorithmus zu speichern, der Recheneinheit zur Ausführung zuzuführen, Daten zu speichern und der Recheneinheit bei der Ausführung des Algorithmus bzw. des Verfahrens zuzuführen. Die Eingabeeinheit kann jede beliebige Einrichtung sein, die dazu befähigt ist, Daten von außen in das System zu übertragen. Dies kann eine Daten- oder Signalschnittstelle sein, ein Eingabegerät, ein Datenträger mit einer entsprechenden Schnittstelle oder jede andere geeignete Einrichtung.

Kurze Beschreibung der Figuren

Fig. 1 zeigt, welche Eigenschaften der Leukozyten im hämatologischen Analysator (Abbott Cell Dyn Sapphire) mit einem Laserlicht gemessen werden: Größe, Lobularität, Granularität und Komplexität. Dies ist beispielhaft für das Analysegerät vom Typ Abbott Cell Dyn Sapphire. Bei anderen Analysegeräten, beispielsweise vom Typ Sysmex, können Zellgröße, Zellkomplexität und Zellinhalt gemessen werden. Wie vorangehend angemerkt können geeignete Analysegeräte üblicherweise mindestens die beiden Eigenschaften: Zellgröße und innere Komplexität messen.

Fig. 2 zeigt exemplarisch eine Reihe von Subpopulationen der Leukozyten, die nach gemessenen Eigenschaften durch die Clusteranalyse sortiert werden, wobei die Subpopulationen Basophile, Neutrophile, Lymphozyten, Monozyten und Eosinophile umfassen. Alle Subpopulationen werden durch ihre Eigenschaften beschrieben.

Fig. 3 zeigt beispielhaft die Ermittlung von mindestens drei Subpopulationen (Neutrophile, Lymphozyten, Monozyten) nach mindestens drei Eigenschaften (Größe, Komplexität, Lobularität), indem die gemessenen Eigenschaften übereinander in mindestens zwei Streudiagrammen in Kartesischen Koordinaten eingetragen werden: Größe über Komplexität und Größe über Lobularität.

Fig. 4 zeigt exemplarisch die Standardisierung und Reduzierung des globalen Vektors, der als Eingangsgröße für die Machine Learning Modelle verwendet wird.

Beispielhaft zeigt Fig. 5 ein globales Streudiagramm, das als Eingangsbild in Form einer Matrix für die Deep Learning Modelle verwendet wird.

Fig. 6 zeigt beispielhaft die Erstellung eines globalen Streudiagramms, indem die gemessenen Eigenschaften der Einzelzellen der Leukozyten gegeneinander in einzelnen Streudiagrammen eingetragen werden: Größe über Komplexität, Größe über Granularität, Größe über Lobularität, Komplexität über Granularität, Komplexität über Lobularität, Granularität über Lobularität, wobei die Reihenfolge der einzelnen Streudiagramme im globalen Streudiagramm verstauscht, werden können.

Fig. 7 zeigt beispielhaft das oben genannte Hard Voting Verfahren für die Bestimmung der Erkrankung.

Fig. 8 zeigt exemplarisch das ebenfalls vorangehend genannte Soft Voting Verfahren für die Bestimmung der Erkrankung.

Beispielhaft wird in Fig. 9 die Anwendung einer Datenbank für das Trainieren und Evaluieren der Modelle gezeigt. Die Datenbank enthält die gemessenen Blutparameter und die korrespondierenden wahren Diagnosen (beschriftete Datenbank). Die Datenbank wird in zwei Teile getrennt: Xtrain und Xtest- Xtrain wird für das Training verwendet, während Xtest für das Evaluieren der Modelle verwendet wird. Für die Modelle, die die globalen Vektoren als Input benötigen, werden aus Xtrain und Xtest globale Vektoren nach oben beschriebenen Ansätzen gewonnen. Für die Modelle, die die globalen Streudiagramme als Input benötigen, werden globale Streudiagramme oben beschriebenen Ansätzen gewonnen.

In der beispielhaften Darstellung von Fig. 10 werden alle Schritte des computerimplementierten Verfahrens zusammengefasst. Eine vor dem Verfahren entnommene Blutprobe eines Patienten wird zur Untersuchung in dem erfindungsgemäßen Verfahren bereitgestellt, was hier als Schritt (1 ) bezeichnet wird. Im Schritt (2) werden die Eigenschaften der Einzelzellen der Blutprobe in einem Analysator gemessen. Im Schritt (3) werden die Messdaten als rohe Daten in den Computer übertragen. Im Schritt (4) werden die Streudiagramme erstellt. Im Schritt (5) werden durch die Clusteranalyse die Subpopulationen differenziert nach ihren Eigenschaften ermittelt und in einem globalen Vektor zusammengefügt. Im Schritt (6) wird der globale Vektor standardisiert und reduziert. Im Schritt (7) wird der reduzierte Vektor als Eingangsgröße für das mindestens eine trainierte Machine Learning Modell verwendet, während die einzelnen Streudiagramme aus (4) in einem globalen Streudiagramm zusammengefasst und als Eingangsbild für das mindestens eine trainierte Deep Learning Modell verwendet werden. Im Schritt (8) erfolgt die Bestimmung der Erkrankung nach Hard bzw. Soft Voting Ansatz. Im Schritt (9) wird die Diagnose auf einer graphischen Oberfläche oder in Form eines automatisch erstellten Berichtes ausgegeben. Im Schritt (11 ) kann die vorhergesagte Diagnose zusammen mit korrespondierenden rohen Daten aus (3) in der vorgefertigten Datenbank gespeichert, um die Datenbank mit einem neuen Fall zu erweitern und neue Modelle nach Semi-Supervised Ansatz zu trainieren. Die vorgefertigte Datenbank kann auch mit rohen Messdaten und der korrespondierenden wahren Diagnose im Schritt (11) erweitert werden. Der Zweck der Datenbank besteht darin, die Modelle zu trainieren und zu evaluieren. Dabei wird die Datenbank in den Schritten (12) und (13) in den Trainingsdaten- und Testdatensatz getrennt. Im Schritt (18) erfolgt das Training und Evaluierung des mindestens einen Machine Learning Modells, wobei als Eingangsgrößen globale Vektoren aus dem Schritt (14) und (17) verwendet werden. Im Schritt (19) erfolgt das Training und Evaluierung des mindestens einen Deep Learning Modells, wobei als Eingangsgrößen Streudiagramme aus dem Schritt (15) und (16) verwendet werden. Die Modelle im Schritt (7) können jederzeit durch die neu trainierten Modelle im Schritt (18) und (19) ersetzt werden, solange die neu trainierten Modelle an dem Testdatensatz bessere Ergebnisse erzielen.

Das beschriebene Verfahren kann auf der Grundlage der Ergebnisse der klinischen Blutanalyse durchgeführt werden, die während der ersten Minuten des Aufenthalts des Patienten in der Notaufnahme noch vor dem Erhalt anderer Labor- und instrumenteller Untersuchungsmethoden gewonnen werden, was die Qualität der medizinischen Versorgung erheblich verbessert.

Ein Beispiel für die Anwendung der Methode bei einem Patienten mit einer "positiven" Diagnose, die als Ergebnis der Anwendung der Methode bestätigt wurde. Folgendes Beispiel soll zur weiteren Erläuterung des erfindungsgemäßen Verfahrens dienen. Ein 36jähriger Patient trat in die Aufnahmeabteilung mit einer vorläufigen Diagnose " Arteriosclerotic heart disease, Akutes Koronarsyndrom ohne Aufhebung der ST. Akute Herzinsuffizienz. Killip Klasse I" ein, zwei Stunden nach einem typischem Schmerzsyndrom. Die elektrokardiographische Untersuchung wurde in der Empfangssektion durchgeführt, die ebenfalls keine Erhöhung des ST-Segments auf dem Elektrokardiogramm zeigte. Dann wurden venöse Blutproben für Laboruntersuchungen entnommen. Die außerhalb des Verfahrens entnommenen Blutproben wurden zur Untersuchung bereitgestellt (Fig. 10, Schritt 1 ), wobei die Untersuchung auch die hochempfindliche kardiale Troponin I-Methode und die klinischen Blutanalyse umfasste. Die Ergebnisse von Laborstudien lauteten: Harnstoff 4,2 mmol/l (3,0 - 9,2); ALT 16 Einheiten/I (0 - 55); AST 12 Einheiten/I (5 - 34); Protein gesamt 70 g/l (64 - 83); Kreatinin 74 pmol/l (64 - 1 1 1 ); Bilirubin gesamt 6,2 pmol/l (3,4 - 20). 5); Glukose 7,5 mmol/l (3,9 - 5,5); Kalium 3,7 mmol/l (3,5 - 5,1 ); Natrium 137 mmol/l (135 - 145); Calcium ionisiert 1 ,23 mmol/l (1 ,13 - 1 ,32); APTV 78,7 s (25,1 - 36,5); MNO 0,97 (0,2 - 0,5). 90 - 1 ,20); Prothrombin 1 18,0% (70,0 - 140,0); Prothrombinzeit 1 1 ,0 s (9,4 - 12,5); Leukozyten 12,4 10E9/I (4,0 - 9,0); (NEUT) Neutrophile 10,0*109/1 (2,0 - 5,5); (NEUT%) Neutrophile 80. 0 % (48,0 - 78,0); (LYM)-Lymphozyten 1 ,79*109/1 (1 ,20 - 3,00); (LYM%)-Lymphozyten 14,3 % (19,0 - 37,0); (MON)-Monozyten 0. 57 109/1 (0,09 - 0,60); (MON%) Monozyten 4,6% (3,0 - 1 1 ,0); (EOS) Eosinophile 0,07*109/I (0,00 - 0. 30); (EOS%) Eosinophile 0,52 % (1 ,00 - 5,00); (BAS) Basophile 0,07*109/1 (0,00 - 0,06); (BAS%) Basophile 0,52 % (0,00 - 1 ,00); (HGB) Hämoglobin 134 g/l (130 - 160); (HCT) Hämatokrit 40,7% (40,0 - 48). 0); (RBC)- Erythrozyten 4,45 10*12/1 (4,00 - 5,60); (MCH) durchschnittliche Hämoglobinkonzentration in den roten Blutkörperchen 30,1 pg (24,0 - 34,0); (MCHC) durchschnittliche Hämoglobinkonzentration in den roten Blutkörperchen 32. 9 g/dL (30,0 - 38,0); (MCV) mittleres Erythrozytenvolumen 91 ,4 fL (75,0 - 95,0); (RDW- CV) Erythrozytenverteilung um 1 1 ,0% (11 ,5 - 16,0%). 5); (PLT)-Thrombozyten 262*109/I (180 - 400); (MPV) durchschnittliches Thrombozytenvolumen 1 1 ,5 fL (7,4 - 10,4); Herz-Troponin I (Hochempfindlichkeitsmethode) 37,9 ng/ml (obere Referenzgrenze 26,2 ng/ml).

Nachdem das Blut gemessen wurde (Fig. 10, Schritt 2), wurden die rohen Messdaten auf den PC übertragen (Fig. 10, Schritt 3). Danach wurden zwei Streudiagramme für die trainierten Deep Learning Modelle erzeugt (Fig. 10, Schritt 4) und zu einem globalen Streudiagramm zusammengefasst. Parallel wurde der globale Vektor mit 4216 Elementen hergeleitet (Fig. 10, Schritt 5): wobei 4216 Elemente die gemessenen Eigenschaften der Subpopulationen der Leukozyten repräsentieren. Der globale Vektor wird standardisiert, indem der Mittelwert gelöscht und auf eine einzige Dispersion auf der Grundlage einer vordefinierten Datenbank skaliert wird: wobei der Vektor {u} die Mittelwerte der Eigenschaftselemente der globalen Vektoren in der vorgefertigten Datenbank repräsentiert und der Vektor {s} die Standardabweichungen der Elemente der globalen Vektoren in der vorgefertigten Datenbank repräsentiert.

Nach der Standardisierung wurde die PCA angewendet (Fig. 10, Schritt 5), um die Dimensionalität von Merkmalen von 4216 Elementen auf 4 Elemente, die als Hauptkomponenten bezeichnet werden, zu reduzieren und gleichzeitig eine möglichst große Variabilität (Information) der Merkmale zu erhalten. Nach der

Anwendung der Hauptkomponentenanalyse wurden alle 4216 Elemente des standardisierten globalen Vektors auf den Vektor im 4-dimensionalen Unterraum reduziert:

Auf den ersten Blick ist es schwierig, aus den Werten dieses reduzierten Vektors Informationen für die Patientendiagnose zu extrahieren. Zu diesem Zweck wird ein Ensemble aus den Ensembles der trainierten Modelle des maschinellen Lernens verwendet. Das Ensemble besteht aus einem Ensemble aus Künstlichen Neuronalen Netzen, aus einem Ensemble aus K-Nearest Neighbors Modellen, aus einem Ensemble aus Random Forest Modellen, aus einem Ensemble aus AdaBoost Modellen, aus einem Ensemble aus Gradient Tree Boosting Modellen und aus einem Ensemble aus Support Vector Machines Modellen, wobei die einzelnen Ensembles jeweils an der vorgefertigten Datenbank trainiert wurden. Der standardisierte und reduzierte globale Vektor wird als Eingangsvektor für alle Ensembles verwendet, während das globale Streudiagramm für ein Deep Learning Modell verwendet wird. Für den oben genannten Fall werden die Stimmen für AKS von einzelnen Ensembles gezählt (hard voting): Das Endergebnis für AKS nach dem Hard Voting Verfahren ist positiv. Es wurde die Entscheidung getroffen, eine perkutane Koronarintervention durchzuführen. Der Patient bekam eine koronarangiographische Untersuchung, gefolgt von einer transluminalen Dilatation und Stenting der infarktabhängigen Koronararterie.

KORONAROGRAPHIE Nr. 7175 vom 07.06.2018: Linker Typ der Blutzirkulation. Linke Koronararterie: Barrel - ohne Stenose. Vorderer Ventrikelast - Stenose des Mundes 5-50%, Subokklusion im mittleren Drittel. A.intermedia - Stenose im proximalen Drittel von 90%. Diagonaläste - ohne Stenose. Biegender Ast (BB) - ohne Stenose. Stumpfkantige Äste - ohne Stenosen. Rechte Koronararterie: hypoplassiert. Acute Edge Branch: Keine Stenose. Rückseitiger Ast (ROB) - ohne Stenosen. Hinterer interventrikulärer Ast - ohne Stenosen.

ORONAROPLASTIK UND PMV-STENTING Nr. 7176 vom 07.06.18: Stenosezone der PMV (durchschnittliches Drittel) BC 2,0*20,0 mm, p=18 atm. Der Stent mit einer Medikamentenbeschichtung von 2,75*33,0 mm wird im mittleren Drittel des BC 2,0*20,0 mm, p=16 atm, implantiert. Kontrolle: TIMI III Grad Blutfluss. In 2 Projektionen vom 08.06.2018 wurden auf Brust-Röntgenbildern keine Infiltrationsschatten festgestellt. Die Wurzeln sind strukturell, nicht vergrößert, die linke ist teilweise blockiert. Das Lungenmuster wurde nicht verändert. Das Diaphragma ist konturiert. Herzschatten ohne Gesichtszüge. Sinus ist frei.

Die folgende Behandlung wurde durchgeführt: Betablocker, Antikoagulantien, doppelte Disaggregationstherapie, Statine (die Dosis von Crestor wurde aufgrund des Anstiegs des Transaminasenspiegels um 20->10 mg/Tag reduziert), Gastroprotektoren. Der Patient lehnte eine Rehabilitationsbehandlung im Sanatorium ab.

In der postoperativen Phase erreichte die maximale Konzentration von kardialem Troponin I in der dynamischen Beobachtung 7522,5 ng / ml. Der Krankenhausaufenthalt dauerte 12 Tage. Die endgültige Diagnose lautete "Arteriosclerotic heart disease". Akuter Myokardinfarkt der vorderen Parietalregion, hohe laterale Anteile des linken Ventrikels ohne Anhebung des ST-Segments vom 07.06.18. Koronaroplastik und Stenting vom 07.06.18". Der Patient wurde am 19.06.2018 zur weiteren ambulanten Beobachtung an seinem Wohnort entlassen.