Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR THE POSITION PLANNING OF A CAPTURING SYSTEM OF A MEDICAL IMAGING DEVICE, AND MEDICAL IMAGING DEVICE
Document Type and Number:
WIPO Patent Application WO/2019/149400
Kind Code:
A1
Abstract:
A method for the position planning of a capturing system of an imaging device with respect to a selectable capturing region of a patient, comprising the following steps: • capturing current position information of the capturing system and/or of the imaging device and/or setting information of a collimator of the imaging device, • capturing current position information of the patient, • determining a current course of an x-ray beam that can be emitted by the capturing system, • determining a current volume of intersection between the x-ray beam and the patient, in particular a patient envelope determined from the position information of the patient, and/or a current capturing region from the current course of the x-ray beam and a patient envelope, • displaying the current volume of intersection and/or the current capturing region as a virtual display element, • receiving a target volume of intersection and/or a target capturing region by manipulation of the virtual display element, and • determining a target position of the capturing system and/or of the imaging device and/or the setting of the collimator in such a way that, when the target position is assumed, the target volume of intersection and/or target capturing region becomes the current volume of intersection and/or current capturing region.

Inventors:
HEINRICH, Veronika (Kazmairstr. 83, München, 80339, DE)
MAYER, Hermann Georg (Ernsdorfer Straße 40, Prien am Chiemsee, 83209, DE)
SCHWEIZER, Hans (Flurweg 16, Plattling, 94447, DE)
ULLRICH, Christian (Mögeldorfer Hauptstraße 31, Nürnberg, 90482, DE)
Application Number:
EP2018/081864
Publication Date:
August 08, 2019
Filing Date:
November 20, 2018
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
SIEMENS HEALTHCARE GMBH (Henkestr. 127, Erlangen, 91052, DE)
International Classes:
A61B6/00
Foreign References:
DE102012215496A12014-03-06
DE102012205238A12013-10-02
DE102010062090A12012-05-31
DE102014216718A12016-02-25
US20130336445A12013-12-19
Other References:
None
Download PDF:
Claims:
Patentansprüche

1. Verfahren zur Positionsplanung eines Aufnahmesystems eines bildgebenden Geräts bezüglich eines auswählbaren Aufnahmebe reichs eines Patienten mit den folgenden Schritten:

• Erfassen oder Entgegennahme von aktuellen Positionsin formationen des Aufnahmesystems und/oder des bildgeben den Geräts und/oder Einstellungsinformationen eines Kol limators des bildgebenden Geräts,

• Erfassen oder Entgegennahme von aktuellen Positionsin formationen des Patienten,

• Ermitteln eines aktuellen Verlaufs eines von dem Aufnah mesystem aussendbaren Röntgenstrahls,

• Ermitteln eines aktuellen Schnittvolumens zwischen dem Röntgenstrahl und dem Patienten, insbesondere einer aus den Positionsinformationen des Patienten ermittelten Pa tientenhülle, und/oder eines aktuellen Aufnahmebereichs aus dem aktuellen Verlauf des Röntgenstrahls und einer Patientenhülle,

• Anzeige des aktuellen Schnittvolumens und/oder des aktu ellen Aufnahmebereichs als virtuelles Anzeigeelement,

• Entgegennahme eines Ziel-Schnittvolumens und/oder eines Ziel-Aufnahmebereichs durch Manipulation des virtuellen Anzeigeelements, und

• Bestimmung einer Ziel-Position des Aufnahmesystems

und/oder des bildgebenden Geräts und/oder der Einstel lung des Kollimators derart, dass bei Einnehmen der Ziel-Position das Ziel-Schnittvolumen und/oder der Ziel- Aufnahmebereich zum aktuellen Schnittvolumen und/oder aktuellen Aufnahmebereich wird.

2. Verfahren zur Positionsplanung eines Aufnahmesystems eines bildgebenden Geräts bezüglich eines auswählbaren Aufnahmebe reichs eines Patienten mit den folgenden Schritten:

• Erfassen oder Entgegennahme von aktuellen Positionsin formationen des Aufnahmesystems und/oder des bildgeben den Geräts und/oder Einstellungsinformationen eines Kol limators des bildgebenden Geräts, • Erfassen oder Entgegennahme von aktuellen Positionsin formationen des Patienten,

• Ermitteln eines von dem Aufnahmesystem während seiner aktuellen Position aufnehmbaren aktuellen 3D- Rekonstruktionsvolumens ,

• Ermitteln eines aktuellen Aufnahmevolumens aus dem aktu ellen 3D-Rekonstruktionsvolumen und einer Patientenhül le,

• Anzeige des aktuellen Aufnahmevolumens als virtuelles Anzeigeelement,

• Entgegennahme eines Ziel-Aufnahmevolumens durch Manipu lation des virtuellen Anzeigeelements, und

• Bestimmung einer Ziel-Position des Aufnahmesystems

und/oder des bildgebenden Geräts und/oder Einstellung des Kollimators derart, dass bei Einnehmen der Ziel- Position das Ziel-Aufnahmevolumen zum aktuellen Aufnah mevolumen wird.

3. Verfahren nach Anspruch 1 oder 2, wobei das Aufnahmesystem und/oder das bildgebende Gerät und/oder die Einstellung des Kollimators in die Ziel-Position verfahren werden.

4. Verfahren nach einem der vorangehenden Ansprüche, wobei das Aufnahmesystem von einem C-Bogen und/oder das bildgebende Gerät von einem mobilen C-Bogen-Gerät gebildet werden.

5. Verfahren nach Anspruch 1, wobei der Aufnahmebereich 2- dimensional oder 3-dimensional ausgebildet ist.

6. Verfahren nach einem der vorangehenden Ansprüche, wobei das aktuelle Schnittvolumen oder der aktuelle Aufnahmebereich oder das aktuelle Aufnahmevolumen und die aktuelle Patienten hülle oder Patientenposition gemeinsam angezeigt werden, ins besondere auf einer Anzeigeeinheit.

7. Verfahren nach Anspruch 6, wobei die Anzeigeeinheit von einem Monitor oder einem Smart Device oder einer virtual oder augmented reality Anzeigeeinheit, insbesondere einer aug- mented reality Brille, gebildet wird.

8. Verfahren nach einem der vorangehenden Ansprüche, wobei das virtuelle Anzeigeelement verschiebbar und/oder hinsicht lich Größe, Lage und Orientierung veränderbar ausgebildet ist .

9. Verfahren nach Anspruch 8, wobei das virtuelle Anzeigeele ment für eine Bedienperson mittels zumindest eines Bedienele mentes und/oder einer Eingabeeinheit manipulierbar ist.

10. Verfahren nach einem der vorangehenden Ansprüche, wobei die aktuellen Positionsinformationen des Aufnahmesystems und/oder des bildgebenden Geräts und/oder die Einstellungsin formationen eines Kollimators des bildgebenden Geräts

und/oder die aktuellen Positionsinformationen des Patienten regelmäßig oder kontinuierlich aktualisiert werden.

11. Verfahren nach einem der vorangehenden Ansprüche, wobei eine Abfolge von mehreren Ziel-Schnittvolumina oder Ziel- Aufnahmebereichen oder Ziel-Aufnahmevolumina entgegengenommen und entsprechende Ziel-Positionen bestimmt und eingenommen werden .

12. Verfahren nach einem der vorangehenden Ansprüche, wobei eine lagerichtige Einblendung von zuvor aufgenommenen Aufnah men des Patienten auf einer Anzeigeeinheit durchgeführt wird.

13. Medizinisches bildgebendes Gerät zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 12, aufweisend ein Aufnahmesystem mit einem Röntgendetektor und einer Röntgen quelle, einen Kollimator zur Kollimierung eines von der Rönt genquelle aussendbaren Röntgenstrahls, eine Steuerungsein richtung zur Ansteuerung des Verfahrens, eine Berechnungsein heit zur Ermittlung des aktuellen Schnittvolumens oder des aktuellen Aufnahmebereichs oder des aktuellen Aufnahmevo- lumns, einer Anzeigeeinheit zur Anzeige des aktuellen Schnittvolumens oder des aktuellen Aufnahmebereichs oder des aktuellen Aufnahmevolumens als virtuelles Anzeigeelement, und eine Eingabeeinheit zur Manipulation des virtuellen Anzeige lements .

14. Medizinisches bildgebendes Gerät nach Anspruch 13, auf weisend ein Trackingsystem zum Erfassen von aktuellen Positi onsinformationen des Aufnahmesystems und/oder des bildgeben den Geräts und/oder Einstellungsinformationen eines Kollima tors und zum Erfassen von aktuellen Positionsinformationen des Patienten.

15. Medizinisches bildgebendes Gerät nach Anspruch 14, wobei das Trackingsystem von einer 3D-Kamera oder einer augmented reality Brille gebildet wird.

16. Medizinisches bildgebendes Gerät nach Anspruch 13, wel ches von einem mobilen C-Bogengerät gebildet wird.

17. Verfahren zur Darstellung des Aufnahmebereichs eines Auf nahmesystems eines bildgebenden Geräts mit den folgenden Schritten :

• Erfassen von aktuellen Positionsinformationen des Auf nahmesystems und/oder des bildgebenden Geräts und/oder Einstellungsinformationen eines Kollimators des bildge benden Geräts,

• Erfassen von aktuellen Positionsinformationen eines Pa tienten,

• Ermitteln eines aktuellen Verlaufs eines von dem Aufnah mesystem aussendbaren Röntgenstrahls,

• Ermitteln eines aktuellen Schnittvolumens zwischen dem Röntgenstrahl und dem Patienten, insbesondere einer aus den Positionsinformationen des Patienten ermittelten Pa tientenhülle, und/oder eines aktuellen Aufnahmebereichs aus dem aktuellen Verlauf des Röntgenstrahls und einer Patientenhülle, und

• Anzeige des aktuellen Schnittvolumens und/oder aktuellen Aufnahmebereichs .

Description:
Beschreibung

Verfahren zur Positionsplanung eines Aufnahmesystems eines medizinischen bildgebenden Geräts und medizinisches bildge bendes Gerät

Die Erfindung betrifft ein Verfahren zur Positionsplanung ei nes Aufnahmesystems eines medizinischen bildgebenden Geräts gemäß dem Patentanspruch 1 und gemäß dem Patentanspruch 2 so wie eine Vorrichtung zur Durchführung eines derartigen Ver fahrens gemäß dem Patentanspruch 13.

Bildgebende Medizingeräte, z.B. festinstallierte Radiogra phiesysteme oder mobile C-Bogen Geräte, verwenden heutzutage zur Vorschau der aufzunehmenden Körperregion des Patienten typischerweise folgende Techniken:

1. Anzeige der 2D-Aufnahmeregion mittels Projektion direkt auf den Patienten. Dies wird meist durch mehrere Linienlaser oder die Projektion eines hellen „Fensters" direkt auf die Patientenoberflache erreicht. Die Projektions-Hardware ist dafür im bildgebenden Gerat eingebaut, z.B. am Bildaufnehmer und/oder Strahlergehäuse. 2. Virtuelle Vorschau der Aufnahme region am Monitor des bildgebenden Systems durch einen Poly gonzug, z.B. ein Rechteck.

Diese Methoden sind allerdings wenig flexibel und erfordern vom Anwender, dass er manuell die Lage des bildgebenden Sys tems solange justiert, bis die gewünschte Zielregion für die Aufnahme erreicht ist. Mit den Methoden aus Technik 2 kann das zwar z.T. verbessert werden, aber insbesondere beim Setup von 3D Scans können die flachen Projektionen auf die Patien tenoberflache trotzdem nur einen unvollständigen Eindruck des resultierenden Rekonstruktionsvolumens bzw. seiner Lage rela tiv zum Patienten geben. Dies ist insbesondere bei mobilen C- Bogen mit einem räumlich sehr begrenzten Rekonstruktionsvolu men (Kubus mit ca. 16cm Kantenlange beim Cios Spin) mitunter ein Problem, wenn größere Ziel Strukturen mit einem Scan ab gebildet werden sollen. Die optimale Platzierung des Volu- mens, um alle Strukturen gleichzeitig zu erfassen erfordert einiges an Erfahrung des OP Teams, um den C-Bogen optimal für die Aufnahme bzw. den 3D Scan zu platzieren.

Es ist Aufgabe der vorliegenden Erfindung, ein Verfahren be reitzustellen, welches Nachteile aus dem Stand der Technik überwindet; des Weiteren ist es Aufgabe der Erfindung, ein für die Durchführung des Verfahrens geeignetes bildgebendes Gerät bereitzustellen.

Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Positionsplanung eines Aufnahmesystems eines medizini schen bildgebenden Geräts gemäß dem Patentanspruch 1 und ein Verfahren gemäß dem Patentanspruch 2 und von einer Vorrich tung gemäß dem Patentanspruch 13. Vorteilhafte Ausgestaltun gen der Erfindung sind jeweils Gegenstand der zugehörigen Un teransprüche .

Das erfindungsgemäße Verfahren zur Positionsplanung eines Aufnahmesystems eines bildgebenden Geräts bezüglich eines auswählbaren Aufnahmebereichs eines Patienten umfasst die folgenden Schritte: Erfassen oder Entgegennahme von aktuellen Positionsinformationen des Aufnahmesystems und/oder des bild gebenden Geräts und/oder Einstellungsinformationen eines Kol limators des bildgebenden Geräts, Erfassen oder Entgegennahme von aktuellen Positionsinformationen des Patienten, Ermitteln eines aktuellen Verlaufs eines von dem Aufnahmesystem aus- sendbaren Röntgenstrahls, Ermitteln eines aktuellen Schnitt volumens zwischen dem Röntgenstrahl und dem Patienten, insbe sondere einer aus den Positionsinformationen des Patienten ermittelten Patientenhülle, und/oder eines aktuellen Aufnah mebereichs aus dem aktuellen Verlauf des Röntgenstrahls und einer Patientenhülle, Anzeige des aktuellen Schnittvolumens und/oder des aktuellen Aufnahmebereichs als virtuelles Anzei geelement, Entgegennahme eines Ziel-Schnittvolumens und/oder eines Ziel-Aufnahmebereichs durch Manipulation des virtuellen Anzeigeelements, und Bestimmung einer Ziel-Position des Auf nahmesystems und/oder des bildgebenden Geräts und/oder der Einstellung des Kollimators derart, dass bei Einnehmen der Ziel-Position das Ziel-Schnittvolumen und/oder der Ziel- Aufnahmebereich zum aktuellen Schnittvolumen und/oder aktuel len Aufnahmebereich wird.

Unter einer Manipulation des Anzeigeelements ist hierbei eine beliebige Veränderung desselben zu verstehen, also eine Ver schiebung oder Verdrehung, Änderung von Lage, Größe oder Ori entierung usw.

Es wird also vorgeschlagen, die aktuelle Position des Patien ten bzw. von Teilen des Patienten und die Position (z.B. den Umriss) des bildgebenden Systems (z.B. des mobilen C-Bogen- Geräts) , Aufnahmesystems (z.B. nur Röntgenquelle und Röntgen detektor) oder Informationen zum Kollimatorsystem durch ge eignete, bekannte Positionsbestimmungsverfahren (z.B. Tra ckingverfahren) einmalig, kontinuierlich oder in vorgegebenen Zeitabständen zu erfassen. Diese Erfassung kann z.B. durch eine externe 3D Trackingkamera und geeignete Markerstruktu ren, welche an dem Patienten und dem bildgebenden System, z.B. einem C-Bogen, befestigt sind, erfolgen (outside-in Tra cking) . Es ist auch möglich, entsprechende Tracking HW zu verwenden, wie sie in mixed reality oder augmented reality (AR) Brillen (z.B. MS HoloLens) verwendet werden (inside-out Tracking) . Auch eine Kombination beider Verfahren zur Erhö hung der Robustheit ist möglich. Außerdem können auch andere Möglichkeiten zum Erfassen der Positionen verwendet werden oder es können die Positionen aus bereits vorliegenden Daten entgegengenommen werden.

Die erfassten Positionen und Daten werden z.B. an eine Steue rungseinheit des bildgebenden Geräts weitergegeben. Dadurch ist der Steuerungseinheit die aktuelle, relative Lage von Bildsystem und Patient zueinander bekannt oder kann ermittelt werden. Erfindungsgemäß wird dann ein aktuelles Schnittvolu mens zwischen dem Röntgenstrahl und dem Patienten, insbeson dere einer aus den Positionsinformationen des Patienten er mittelten Patientenhülle, und/oder ein aktueller Aufnahmebe- reichs aus dem aktuellen Verlauf des Röntgenstrahls und einer Patientenhülle ermittelt. Es wird nun auf einer Anzeigeein heit (z.B. 2D Bildschirm oder bevorzugt in stereoskopischer Form auf der AR Brille) ein virtuelles Anzeigeelement ange zeigt, welches das aktuelle Schnittvolumen und/oder den aktu ellen Aufnahmebereich darstellt. Dies kann auch z.B. mit dem realen Patienten überblendet werden. Dieses Anzeigeelement stellt dabei z.B. bei einer geplanten 2D Aufnahme die

Schnittmenge zwischen Patientenvolumen und kollimiertem Di rektstrahlungsverlauf der Röntgenstrahlung dar. Nach einer Ausgestaltung der Erfindung ist dabei das virtuelle Anzei geelement für eine Bedienperson mittels zumindest eines Be dienelementes und/oder einer Eingabeeinheit manipulierbar.

Der Anwender kann nun, z.B. mit geeigneten GUI (Graphic User Interface) Bedienelementen (z.B. graphische Anfasser, Slider, oder ähnliches) und einem bekannten Eingabegerät (z.B. Maus und Tastatur, Touchscreen, oder ähnliches) , auf der Anzeige einheit, z.B. 2D Bildschirm, das Anzeigeelement manipulieren. Nach einer Ausgestaltung der Erfindung ist das virtuelle An zeigeelement verschiebbar und/oder hinsichtlich Größe, Lage und Orientierung veränderbar ausgebildet. Wird für die Dar stellung eine AR Brille verwendet, kann die Manipulation des Aufnahmebereichs z.B. auch per Gestensteuerung erfolgen, in dem der Anwender direkt am Patienten das holographisch über lagerte Volumen manipuliert. Neben der Gestensteuerung können auch die Lage-, Beschleunigungs- und Magnetfeldsensoren übli cher Brillen in die Interaktion einbezogen werden, um z.B. die Ausrichtung des Systems durch Kopfbewegungen zu beein flussen .

Erfindungsgemäß erfolgt systemseitig eine Entgegennahme eines Ziel-Schnittvolumens und/oder eines Ziel-Aufnahmebereichs durch eine Manipulation des virtuellen Anzeigeelements. Dar aus wird dann eine Ziel-Position des Aufnahmesystems und/oder des bildgebenden Geräts und/oder der Einstellung des Kollima tors derart, dass bei Einnehmen der Ziel-Position das Ziel- Schnittvolumen und/oder der Ziel-Aufnahmebereich zum aktuel- len Schnittvolumen und/oder aktuellen Aufnahmebereich wird, bestimmt .

Hierfür können z.B. von der Steuerungseinheit bei Bestätigung des Ziel-Schnittvolumens und/oder Ziel-Aufnahmebereichs Bewe gungsbefehle für die unterschiedlichen Geräteachsen (z.B. Po sition des C-Bogens relativ zum Patienten, Or

bital/Angularwinkel, Höhe der Vertikalachse) und/oder die Einstellungen des Kollimators abgeleitet werden. In die Be rechnung der Gerätebewegungen können z.B. auch Kollisions sensorparameter einfließen, um den optimalen Bewegungsablauf zur Geräte Positionierung automatisch zu ermitteln und ggf. dynamisch anzupassen.

Anstelle von 2D-Aufnahmen können auch 3D-Scans vorgesehen sein. Hierfür wird z.B. statt der Schnittmenge aus Direkt strahlung und Patientenvolumen das mit dem Bildgebungsgerät technisch mögliche 3D Rekonstruktionsvolumen (z.B. ein Wür fel) z.B. in Originalgröße über den Patienten oder die Pati entenhülle überlagert. Der Anwender kann dann die Lage des Volumens wie beschrieben manipulieren.

Ein weiteres erfindungsgemäßes Verfahren zur Positionsplanung eines Aufnahmesystems eines bildgebenden Geräts bezüglich ei nes auswählbaren Aufnahmebereichs eines Patienten umfasst die folgenden Schritte: Erfassen oder Entgegennahme von aktuellen Positionsinformationen des Aufnahmesystems und/oder des bild gebenden Geräts und/oder Einstellungsinformationen eines Kol limators des bildgebenden Geräts, Erfassen oder Entgegennahme von aktuellen Positionsinformationen des Patienten, Ermitteln eines von dem Aufnahmesystem während seiner aktuellen Positi on aufnehmbaren aktuellen 3D-Rekonstruktionsvolumens , Ermit teln eines aktuellen Aufnahmevolumens aus dem aktuellen 3D- Rekonstruktionsvolumen und einer Patientenhülle, Anzeige des aktuellen Aufnahmevolumens als virtuelles Anzeigeelement, Entgegennahme eines Ziel-Aufnahmevolumens durch Manipulation des virtuellen Anzeigeelements, und Bestimmung einer Ziel- Position des Aufnahmesystems und/oder des bildgebenden Geräts und/oder Einstellung des Kollimators derart, dass bei Einneh men der Ziel-Position das Ziel-Aufnahmevolumen zum aktuellen Aufnahmevolumen wird.

Zweckmäßigerweise wird das Aufnahmesystem und/oder das bild gebende Gerät und/oder die Einstellung des Kollimators in die Ziel-Position verfahren.

Nach einer Ausgestaltung der Erfindung werden das Aufnahme system von einem C-Bogen und/oder das bildgebende Gerät von einem mobilen C-Bogen-Gerät gebildet. Mobile C-Bogen Geräte weisen C-Bögen auf, welche auf einem Gerätewagen befestigt sind und vielfältig verstellbar sind, z.B. rotierbar und translatierbar . Der Gerätewagen kann außerdem automatisch o- der manuell frei verfahren werden. Festinstallierte C-Bogen Geräte weisen ebenfalls verstellbare C-Bögen auf. So kann z.B. ein C-Bogen an einem Knickarmroboter angeordnet und in beliebigen Raumrichtungen verstellbar sein.

Nach einer weiteren Ausgestaltung der Erfindung werden das aktuelle Schnittvolumen oder der aktuelle Aufnahmebereich o- der das aktuelle Aufnahmevolumen und die aktuelle Patienten hülle gemeinsam angezeigt, insbesondere auf der entsprechen den Anzeigeeinheit. Die Anzeigeeinheit wird in vorteilhafter Weise von einem Monitor oder einem Smart Device oder einer virtual oder augmented reality Anzeigeeinheit, insbesondere einer augmented reality Brille, gebildet.

Nach einer weiteren Ausgestaltung der Erfindung werden die aktuellen Positionsinformationen des Aufnahmesystems und/oder des bildgebenden Geräts und/oder die Einstellungsinformatio nen eines Kollimators des bildgebenden Geräts und/oder die aktuellen Positionsinformationen des Patienten regelmäßig o- der kontinuierlich aktualisiert. Auf diese Weise kann eine zuverlässige Funktionsweise des Verfahrens gewährleistet wer den . Nach einer weiteren Ausgestaltung der Erfindung werden eine Abfolge von mehreren Ziel-Schnittvolumina oder Ziel- Aufnahmebereichen oder Ziel-Aufnahmevolumina entgegengenommen und entsprechende Ziel-Positionen bestimmt und eingenommen. Bei jeder der Ziel-Positionen können dann die entsprechenden Aufnahmen durchgeführt werden. Eine derartige Abfolge von Aufnahmen (Panorama) ist dann sinnvoll, wenn das Ziel- Schnittvolumen und/oder der Ziel-Aufnahmebereich die Dimensi onen übersteigen, die mit einer Aufnahme abbildbar sind

(letztlich begrenzt durch die Größe des Bildaufnehmers) .

Hierbei kann die Steuerungseinheit die Abfolge von Aufnahmen planen und/oder die Bewegungsvektoren entsprechend ihrer zeitlichen nötigen Abfolge berechnen.

Reicht das normale Rekonstruktionsvolumen eines klassischen Einzelscans (z.B. Orbitalscan bei einem C-Bogen) größenmäßig nicht aus, kann auch hier theoretisch eine Art 3D Panorama berechnet werden, aus dem sich nötige Bahnkurven und Bewe gungsmuster für das bildgebende System im Rahmen der tech nisch bedingten Restriktionen dieses Verfahrens ableiten las sen .

Nach einer weiteren Ausgestaltung der Erfindung wird eine la gerichtige Einblendung von zuvor aufgenommenen Aufnahmen des Patienten auf einer Anzeigeeinheit durchgeführt. In diesem Zusammenhang können zur besseren Orientierung z.B. präopera tiv erstellte 2D-Aufnahmen bzw. 3D-Scans (z.B. CT oder MRT) lagekorrigiert und/oder in Originalgröße über dem Patienten eingeblendet werden. Dies kann vorteilhaft sein, wenn z.B. bestimmte Bereiche zu Kontrollzwecken erneut aufgenommen wer den sollen, um z.B. die Lage von Implantaten zu prüfen oder um einen Tumor zu operieren. Auch Größenvergleiche von rele vanten Strukturen bzgl. der Veränderung seit der letzten Auf nahme werden hiermit ermöglicht. Vorteilhaft kann zudem sein, dass der Arzt bereits vor dem Eingriff die Lage relevanter Strukturen in einem entsprechenden Planungssystem markiert und eine Steuerungseinheit ermittelt dann z.B. im OP unter Kenntnis der Patientenposition bereits die nötigen Aufnahme- Positionen des bildgebenden Geräts (z.B: mobiler C-Bogen) für intraoperative 2D-Aufnahmen bzw. 3D Scans.

Durch das erfindungsgemäße Verfahren werden klinische Ar beitsabläufe vereinfacht, indem die heute übliche, umständli che Platzierungsinteraktion mit dem bildgebenden Gerät (z.B. C-Bogen) größtenteils eliminiert wird und durch einen patien- ten- bzw. bildzentrierten Ansatz ersetzt wird. Die optimale Geräteposition wird dabei automatisch bestimmt. Als Hilfsmit tel werden z.B. volumenerfassende Kamerasysteme und ggf. AR Brillen verwendet. Das Verfahren dient als intuitive, über sichtliche und schnelle Positionierhilfe für einen Benutzer bzw. einen Bedienperson eines medizinischen bildgebenden Ge räts, um Arbeitsabläufe zu vereinfachen und die Patientenver sorgung zu verbessern.

Die Erfindung umfasst außerdem ein Medizinisches bildgebendes Gerät zur Durchführung eines erfindungsgemäßen Verfahrens, aufweisend ein Aufnahmesystem mit einem Röntgendetektor und einer Röntgenquelle, einen Kollimator zur Kollimierung eines von der Röntgenquelle aussendbaren Röntgenstrahls, eine Steu erungseinrichtung zur Ansteuerung des Verfahrens, eine Be rechnungseinheit zur Ermittlung des aktuellen Schnittvolumens oder des aktuellen Aufnahmebereichs oder des aktuellen Auf nahmevolumens, eine Anzeigeeinheit zur Anzeige des aktuellen Schnittvolumens oder des aktuellen Aufnahmebereichs oder des aktuellen Aufnahmevolumens als virtuelles Anzeigeelement, und eine Eingabeeinheit zur Manipulation des Anzeigeelements.

Nach einer Ausgestaltung der Erfindung umfasst das Gerät au ßerdem ein Trackingsystem zum Erfassen von aktuellen Positi onsinformationen des Aufnahmesystems und/oder des bildgeben den Geräts und/oder Einstellungsinformationen eines Kollima tors und zum Erfassen von aktuellen Positionsinformationen des Patienten. Ein solches Trackingsystem kann z.B. von einer (externen) 3D-Kamera oder einer augmented reality Brille ge bildet werden. Eine externe 3D Trackingkamera kann z.B. auch auf geeignete Markerstrukturen zurückgreifen, welche z.B. an dem Patienten und dem Aufnahmesystem, z.B. einem C-Bogen, be festigt sind (outside-in Tracking) . Es ist auch möglich, ent sprechende Tracking Hardware zu verwenden, wie sie in mixed reality oder augmented reality (AR) Brillen (z.B. MS Holo- Lens) verwendet werden (inside-out Tracking) . Auch eine Kom bination beider Verfahren zur Erhöhung der Robustheit ist möglich .

Die Erfindung umfasst außerdem ein Verfahren zur Darstellung des Aufnahmebereichs eines Aufnahmesystems eines bildgebenden Geräts mit den folgenden Schritten: Erfassen von aktuellen Positionsinformationen des Aufnahmesystems und/oder des bild gebenden Geräts und/oder Einstellungsinformationen eines Kol limators des bildgebenden Geräts, Erfassen von aktuellen Po sitionsinformationen eines Patienten, Ermitteln eines aktuel len Verlaufs eines von dem Aufnahmesystem aussendbaren Rönt genstrahls, Ermitteln eines aktuellen Schnittvolumens zwi schen dem Röntgenstrahl und dem Patienten, insbesondere einer aus den Positionsinformationen des Patienten ermittelten Pa tientenhülle, und/oder eines aktuellen Aufnahmebereichs aus dem aktuellen Verlauf des Röntgenstrahls und einer Patienten hülle, und Anzeige des aktuellen Schnittvolumens und/oder ak tuellen Aufnahmebereichs.

Die Erfindung sowie weitere vorteilhafte Ausgestaltungen ge mäß Merkmalen der Unteransprüche werden im Folgenden anhand schematisch dargestellter Ausführungsbeispiele in der Zeich nung näher erläutert, ohne dass dadurch eine Beschränkung der Erfindung auf diese Ausführungsbeispiele erfolgt. Es zeigen:

FIG 1 ein erfindungsgemäßes bildgebendes Gerät mit einem

Aufnahmesystem und einer Anzeigeeinheit;

FIG 2 eine Anzeige eines aktuellen Schnittvolumens aus Pa tientenhülle und Röntgenstrahl und virtuellem Anzei geelement bei einem bildgebenden Gerät gemäß FIG 1; FIG 3 eine vergrößerte Ansicht gemäß FIG 2 mit überlagerter 2D-Aufnähme ;

FIG 4 eine Ansicht einer manuellen Verschiebung des virtu ellen Anzeigeelements gemäß FIG 2 und 3;

FIG 5 eine Abfolge eines erfindungsgemäßen Verfahrens;

FIG 6 eine Anzeige eines aktuellen Aufnahmevolumens und

virtuellem Anzeigeelement bei einem bildgebenden Ge rät für 3D-Aufnahmen; und

FIG 7 eine vergrößerte Ansicht gemäß FIG 3 mit überlagerter

3D-Aufnähme .

In der FIG 1 ist ein medizinisches bildgebendes Gerät mit ei nem C-Bogen 1, an welchem ein Röntgendetektor 2 und eine Röntgenquelle 3 befestigt sind, gezeigt. Die Röntgenquelle 3 kann einen zusätzlich durch einen Kollimator (nicht gezeigt) geformten bzw. formbaren Röntgenstrahl 4 aussenden, welcher einen auf einer Patientenliege 6 gelagerten Patienten 5 durchdringt. Z.B. durch ein Erfassungssystem, z.B. ein Tra ckingsystem mit einer 3D-Trackingkamera 14, werden die Posi tion und/oder die Hülle des C-Bogens und die Position des Pa tienten 5 z.B. in Form einer Patientenhülle erfasst. Das Auf nahmesystem (der C-Bogen 1 mit Röntgenquelle 3 und Röntgende tektor 2) ist bezüglich des Patienten 5 verstellbar, z.B. ro tierbar und translatierbar . Das Aufnahmesystem kann z.B. mit tels einer Halterung an der Decke, dem Boden oder einem Gerä tewagen befestigt sein. Das bildgebende Gerät wird von einer Systemsteuerung 13 angesteuert, welche z.B. auf Anweisung o- der automatisch die Aussendung der Röntgenstrahlung und die Bewegungen des Aufnahmesystems ansteuert. Außerdem weist das bildgebende Gerät noch eine Berechnungseinheit 17 sowie eine Bedieneinheit mit einer Anzeigeeinheit, z.B. einen Touchmoni tor 16 mit einer Anzeige 18 auf. Das bildgebende Gerät kann zur Durchführung des erfindungsgemäßen Verfahrens verwendet werden .

In der FIG 5 ist ein Verlauf eines erfindungsgemäßen Verfah rens gezeigt. In einem ersten Schritt 21 werden aktuelle Po sitionsinformationen des Aufnahmesystems und/oder des bildge benden Geräts und/oder Einstellungsinformationen eines Kolli mators des bildgebenden Geräts z.B. von einem Erfassungssys tem erfasst oder entgegengenommen. Ein solches Erfassungssys tem kann z.B. von dem Trackingsystem mit der 3D- Trackingkamera 14 gebildet werden. Hierzu können bei Bedarf zusätzlich geeignete Markerstrukturen, welche an dem Patien ten und dem bildgebenden System, z.B. einem C-Bogen, befes tigt sind, verwendet werden (outside-in Tracking) . Es ist auch möglich, entsprechende Tracking Hardware zu verwenden, wie sie in mixed reality oder augmented reality (AR) Brillen (z.B. MS HoloLens) verwendet werden (inside-out Tracking). In der FIG 1 ist hierzu beispielhaft eine augmented reality Brille 15 gezeigt. Außerdem können auch andere Möglichkeiten zum Erfassen der Positionen verwendet werden oder es können die Positionen aus bereits vorliegenden Daten (z.B. zuvor aufgenommenes Röntgenbild) entgegengenommen werden.

In einem zweiten Schritt 22 werden aktuelle Positionsinforma tionen des Patienten 5 oder von Teilen/Organen des Patienten 5 erfasst oder entgegengenommen. Auch diese können von dem Trackingsystem erfasst werden. Aus den Positionsinformationen kann z.B. eine Patientenhülle oder Organhülle bestimmt wer den. In einem dritten Schritt 23 wird ein aktueller Verlauf eines von dem Aufnahmesystem aussendbaren Röntgenstrahls be stimmt. Hierbei werden z.B. die Positionsinformationen des gesamten bildgebenden Geräts oder lediglich des Aufnahmesys tems und/oder Informationen des Kollimators verwendet, um den aktuellen Verlauf des Röntgenstrahls 4 zu bestimmen. Hierfür muss noch keine tatsächliche Röntgenstrahlung ausgesendet sein, sondern es können auch lediglich die geplanten bzw. be absichtigten Einstellungen z.B. des Kollimators verwendet werden . In einem vierten Schritt 24 wird ein aktuelles Schnittvolu mens zwischen dem Röntgenstrahl 4 und dem Patienten 5/ der Patientenhülle, und/oder ein aktueller Aufnahmebereich oder ein aktuelles Aufnahmevolumen aus dem aktuellen Verlauf des Röntgenstrahls und der Position des Patienten/ der Patienten hülle ermittelt. Dies kann z.B. dadurch durchgeführt werden, dass die erfassten Positionen und Daten an die Steuerungsein heit 13 des bildgebenden Geräts weitergegeben werden. Dadurch ist der Steuerungseinheit die aktuelle, relative Lage von Bildsystem und Patient/ Patientenhülle/ Organhülle zueinander bekannt oder kann ermittelt werden.

In einem fünften Schritt 25 werden das aktuelle Schnittvolu men 7 und/oder der aktuelle Aufnahmebereich oder das aktuelle Aufnahmevolumen als virtuelles Anzeigeelement 8 - dargestellt in FIG 2 und vergrößert in FIG 3 - angezeigt, z.B. an einer Anzeige 18 eines Touchmonitors 16. Bevorzugt werden diese mit der aktuellen Patientenhülle bzw. der aktuellen Patientenpo sition gemeinsam angezeigt, um dem Nutzer eine exakte Reprä sentation der Wirklichkeit zu vermitteln. Es können neben re alen Anzeigeeinheiten wie Monitoren, Touchscreen oder Tablets auch virtuelle Anzeigeeinheiten verwendet werden. Aus dem aktuellen Schnittvolumen 7 ergibt sich dann auf einfache Wei se der Aufnahmebereich, z.B. bei 2D-Aufnahmen . Im 3D-Fall kann z.B. ein aktuell aufnehmbares Aufnahmevolumen mittels des technisch bzw. in Bezug auf die Position des bildgebenden Geräts möglichen 3D-Rekonstruktionsvolumens und der Patien tenhülle des Patienten 5 bestimmt werden.

In einem sechsten Schritt 26 werden ein Ziel-Schnittvolumen und/oder ein Ziel-Aufnahmebereich oder ein Ziel- Aufnahmevolumen durch Manipulation des virtuellen Anzeigeele ments entgegengenommen, z.B. aus einer Usereingabe einer Be dienperson auf dem Touchmonitor. Wie in der FIG 4 gezeigt, kann der User/die Bedienperson das virtuelle Anzeigeelement 8 verschieben, alternativ auch in Lage oder Orientierung verän dern oder anderweitig manipulieren. Dies kann z.B. durch ma- nuelles Verschieben des virtuellen Anzeigeelements 8 durchge führt werden, wie in FIG 4 anhand der Hand angedeutet. Es kann auch durch Mausklick oder eine andere Usereingabe durch geführt werden. Es können auch z.B. Gestensteuerung oder akustische Steuerung verwendet werden. Wird für die Darstel lung eine AR Brille verwendet, kann die Manipulation des Auf nahmebereichs z.B. auch per Gestensteuerung erfolgen, indem der Anwender direkt am Patienten das holographisch überlager te Volumen manipuliert. Neben der Gestensteuerung können auch die Lage-, Beschleunigungs- und Magnetfeldsensoren üblicher Brillen in die Interaktion einbezogen werden, um z.B. die Ausrichtung des Systems durch Kopfbewegungen zu beeinflussen. Durch die Manipulation wird das aktuelle Schnittvolumen zum Ziel-Schnittvolumen bzw. der aktuelle Aufnahmebereich zum Ziel-Aufnahmebereich bzw. das aktuelle Aufnahmevolumen zum Ziel-Aufnahmevolumen .

In einem siebten Schritt 27 wird eine Ziel-Position des Auf nahmesystems und/oder des bildgebenden Geräts und/oder der Einstellung des Kollimators derart entgegengenommen, dass bei Einnehmen der Ziel-Position das Ziel-Schnittvolumen und/oder Ziel-Aufnahmebereich zum aktuellen Schnittvolumen und/oder aktuellen Aufnahmebereich wird. Das bildgebende Gerät bzw. die Steuerungseinheit 13 und/oder die Berechnungseinheit 17 berechnet dann aus dem Ziel-Schnittvolumen, welche Position der C-Bogen und/oder auch das gesamte bildgebende Gerät und/oder der Kollimator einnehmen müssen, um aus dem Ziel- Schnittvolumen das aktuellen Schnittvolumen zu bilden. Das bildgebende Gerät bzw. die Steuerungseinheit 13 und/oder die Berechnungseinheit 17 berechnet alternativ aus dem Ziel- Aufnahmebereich oder Ziel-Aufnahmevolumen, welche Position der C-Bogen und/oder auch das gesamte bildgebende Gerät und/oder der Kollimator einnehmen müssen, um aus dem Ziel- Aufnahmebereich den aktuellen Aufnahmebereich zu bilden oder aus dem Ziel-Aufnahmevolumen das aktuelle Aufnahmevolumen.

Der C-Bogen und/oder das bildgebende Gerät und/oder der Kol limator können dann z.B. automatisch in die entsprechende Po sition und/oder Einstellung verfahren werden. Hierfür können z.B. von der Steuerungseinheit bei Bestätigung des Ziel- Schnittvolumens und/oder Ziel-Aufnahmebereichs Bewegungsbe fehle für die unterschiedlichen Geräteachsen (z.B. Position des C-Bogens relativ zum Patienten, Orbital/Angularwinkel, Höhe der Vertikalachse) und/oder die Einstellungen des Kolli mators abgeleitet werden. In die Berechnung der Gerätebewe gungen können z.B. auch Kollisionssensorparameter einfließen, um den optimalen Bewegungsablauf zur Geräte Positionierung automatisch zu ermitteln und ggf. dynamisch anzupassen.

In einem optionalen achten Schritt 28 wird die Ziel-Position des Aufnahmesystems und/oder des bildgebenden Geräts und/oder der Einstellung des Kollimators angefahren.

In der FIG 3 ist in dem vergrößerten Ausschnitt außerdem ge zeigt, dass eine zuvor aufgenommene 2D-Aufnahme 9 des Patien ten 5 im Bereich des aktuellen Schnittvolumens oder Aufnahme bereichs eingeblendet wird. Diese kann für den User bzw. die Bedienperson z.B. als Orientierung oder zusätzliche Positio nierungshilfe genutzt werden.

Es kann sich bei dem bildgebenden Gerät um ein festinstal liertes C-Bogen-Gerät oder auch z.B. um ein mobiles C-Bogen- Gerät handeln.

In der FIG 6 ist ein aktuell aufnehmbares Aufnahmevolumen 10 gezeigt für den Fall, dass 3D-Aufnahmen geplant werden sol len. In diesem Fall wird das aktuell aufnehmbare Aufnahmevo lumen 10 mittels des technisch bzw. in Bezug auf die Position des bildgebenden Geräts möglichen 3D-Rekonstruktionsvolumens 11 und der Patientenhülle des Patienten 5 bestimmt. Das bild gebende Gerät, also z.B. der C-Bogen 1 und der Patient 5 wer den wie auch im zweidimensionalen Fall durch ein Erfassungs system, z.B. Trackingssystem, getrackt.

In der FIG 7 ist in einem vergrößerten Ausschnitt zu FIG 6 gezeigt, wie zusätzlich ein zuvor z.B. mittels Angiographie oder CT aufgenommenes 3D-Volumenbild mit dem aktuellen Auf nahmevolumen überlagert wird.

Die aktuellen Positionsinformationen des Aufnahmesystems und/oder des bildgebenden Geräts und/oder die Einstellungsin formationen eines Kollimators des bildgebenden Geräts und/oder die aktuellen Positionsinformationen des Patienten können einmalig bestimmt oder bevorzugt auch regelmäßig oder kontinuierlich aktualisiert werden. Auf diese Weise kann eine zuverlässige Funktionsweise des Verfahrens gewährleistet wer den .

Es können auch eine Abfolge von mehreren Ziel-Schnittvolumina oder Ziel-Aufnahmebereichen oder Ziel-Aufnahmevolumina entge gengenommen und entsprechende Ziel-Positionen bestimmt und eingenommen werden. Bei jeder der Ziel-Positionen können dann die entsprechenden Aufnahmen durchgeführt werden. Eine derar tige Abfolge von Aufnahmen (Panorama) ist dann sinnvoll, wenn das Ziel-Schnittvolumen und/oder der Ziel-Aufnahmebereich die Dimensionen übersteigen, die mit einer Aufnahme abbildbar sind (letztlich begrenzt durch die Größe des Röntgendetek tors) . Hierbei kann die Steuerungseinheit die Abfolge von Aufnahmen planen und/oder die Bewegungsvektoren entsprechend ihrer zeitlichen nötigen Abfolge berechnen.

Bezugszeichenliste

1 C-Bogen

2 Röntgendetektor

3 Röntgenquelle

4 Röntgenstrahl

5 Patient bzw. Patientenhülle

6 Patientenliege

7 Schnittvolumen

8 virtuelles Anzeigeelement

9 2D-Aufnahme

10 Aufnahmevolumen 11 mögliches 3D-Rekonstruktionsvolumen

12 3D-Aufnahme

13 Systemsteuerung

14 3D-Trackingkamera

15 Augmented reality Brille

16 Monitor-Touchscreen

17 Berechnungseinheit

18 Anzeige

21 erster Schritt

22 zweiter Schritt

23 dritter Schritt

24 vierter Schritt

25 fünfter Schritt

26 sechster Schritt

27 siebter Schritt

28 achter Schritt