Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
NAVIGATION SYSTEM HAVING A 3-D SURFACE SCANNER
Document Type and Number:
WIPO Patent Application WO/2023/135178
Kind Code:
A1
Abstract:
The present disclosure relates to a surgical navigation system (1) for use during a surgical intervention on a patient (P), comprising: a tracking system (2) adapted to track at least the patient (P) and preferably at least one medical instrument (4); a 3-D surface scanner (6) adapted to create a 3-D surface recording (8) of an intracorporeal anatomy of the patient (P) of interest, with the 3-D surface scanner (6) being tracked by the tracking system (2), in particular by way of an attached tracker (10); and a control unit (12) adapted for the following: processing the 3-D surface recording (8) and the detected and tracked pose of the tracked 3-D surface scanner (6) and of the patient, determining a pose of the 3-D surface recording (8) vis-à-vis the patient (P) by way of the detected and tracked pose of the 3-D surface scanner (6) and complementing a virtual, digital 3-D anatomy model (14) of the patient (P) with the 3-D surface recording (8) at the determined pose, and visually outputting a view of the complemented digital 3-D anatomy model (14) of the patient (P) for surgical navigation by way of an output apparatus (16), in particular an operating theatre monitor, in order to provide for navigation a current digital 3-D anatomy model (14) complemented with the intracorporeal anatomy of the patient (P) of interest. Further, the present disclosure relates to a surgical assistance system (100) having a surgical robot (102), to a navigation method and to a computer-readable storage medium according to the alternative independent claims.

Inventors:
SARVESTANI AMIR (DE)
Application Number:
PCT/EP2023/050566
Publication Date:
July 20, 2023
Filing Date:
January 11, 2023
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
B BRAUN NEW VENTURES GMBH (DE)
International Classes:
A61B34/20; A61B34/30; A61B90/00; A61B34/10
Foreign References:
US20200015911A12020-01-16
US20190142524A12019-05-16
US9913733B22018-03-13
Attorney, Agent or Firm:
WINTER, BRANDL - PARTNERSCHAFT MBB (DE)
Download PDF:
Claims:
Ansprüche

1. Chirurgisches Navigationssystem (1) zur Verwendung bei einem chirurgischen Eingriff bei einem Patienten (P) mit einem Trackingsystem (2), das dafür angepasst ist, zumindest den Patienten (P) und vorzugsweise zumindest ein medizinisches Instrument (4) nachzuverfolgen; einem 3D-Oberflächenscanner (6), der dafür angepasst ist, eine 3D- Oberflächenaufnahme (8) einer intrakorporalen Anatomie des Patienten (P) von Interesse zu erstellen, wobei der 3D-Oberflächenscanner (6) durch das Trackingsystem (2), insbesondere mittels angebrachtem Tracker (10), nachverfolgt wird; und einer Steuereinheit (12), die dafür angepasst ist die 3D-Oberflächenaufnahme (8) und die erfasste und nachverfolgte Lage des nachverfolgten 3D-Oberflächenscanners (6) und des Patienten (P) zu verarbeiten, über die erfasste und nachverfolgte Lage des 3D-Oberflächenscanners (6) eine Lage der 3D-Oberflächenaufhahme (8) gegenüber dem Patienten (P) zu bestimmen und ein virtuelles, digitales 3D-Anatomie-Modell (14) des Patienten (P) an der bestimmten Lage um die 3D-Oberflächenaufnahme (8) zu ergänzen, und eine Ansicht des ergänzten digitalen 3D-Anatomie-Modells (14) des Patienten (P) für eine chirurgische Navigation über eine Ausgabevorrichtung (16), insbesondere einen OP-Monitor, visuell auszugeben, um ein zeitaktuelles und ein um die intrakorporale Anatomie des Patienten (P) von Interesse ergänztes digitales 3D-Anatomie-Modell (14) für eine Navigation bereitzustellen.

2. Chirurgisches Navigationssystem (1) nach Anspruch 1, dadurch gekennzeichnet, dass der 3D-Oberflächenscanner (6) des Navigationssystems (1) einen Handgriff (18) und vorzugsweise ein Drahtloskommunikationsmodul (20) aufweist, um den 3D- Oberflächenscanner (6) manuell zu führen und 3D-Oberflächenaufnahmen (8) in verschiedenen Lagen zu erstellen, oder der 3D-Oberflächenscanner (6) einen Befestigungsabschnitt aufweist, um insbesondere an einem Haltearm des Navigationssystems (1) befestigt zu werden, oder das chirurgische Navigationssystem (1) einen Roboter mit einem Roboterarm aufweist, an dem der 3D-Oberflächenscanner (6) als Endeffektor angebunden ist, um automatisch die 3D-Oberflächenaufnahme (8) in zumindest einer vordefinierten Lage des 3D-Oberflächenscanners (6) zu erstellen, insbesondere um nach einem Abtast- Algorithmus oder -Muster mehrere 3D-Oberflächenaufhahme (8) in mehreren Lagen des 3D-Oberfiächenscanners (6) zu erstellen.

3. Chirurgisches Navigationssystem (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der 3D-Oberflächenscanner (6) einen Strahler für strukturiertes Licht und einen RGB-Sensor für eine Detektion des Lichts aufweist und/oder eine Stereokamera aufweist und/oder eine Time-of-Flight Kamera aufweist und/oder einen LIDAR-Scanner aufweist, um insbesondere eine 3D-Punktwolke der anatomischen Region von Interesse als 3D-Oberflächenaufnahme (8) zu erstellen.

4. Chirurgisches Navigationssystem (1 ) nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Trackingsystem (2) ein optisches Trackingsystem aufweist und/oder ein EM-Trackingsystem aufweist

5. Chirurgisches Navigationssystem (1) nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass in einer Speichereinheit des Navigationssystems (1) ein virtuelles digitales 3D- Anatomie-Modell (14) eines Beinabschnitts des Patienten (P) inklusive Knie gespeichert ist und das Navigationssystem (1) mit dem 3D-Oberflächenscanner (6) dafür angepasst ist, eine 3D-Oberflächenaufnahme (8) des Kniegelenks zu erstellen, wobei das Navigationssystem (1) hierfür einen Tibia-Tracker (24) und einen separaten Femur-Tracker (26) aufweist, die dafür angepasst sind, an der Tibia und an dem Femur für eine Nachverfolgung des Knochens starr angeordnet zu werden, und die Steuereinheit (12) dafür angepasst ist, auf Basis des nachverfolgten Tibia- Trackers (24) und des Femur-Trackers (26) die 3D-Oberflächenaufnahme (8) zu dem nachverfolgten Beinabschnitt zu korrelieren.

6. Chirurgisches Navigationssystem (1 ) nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (12) dafür angepasst ist insbesondere mittels eines Pointers des Navigationssystems (1), das digitale 3D- Anatomie-Modell (14) des Patienten (P) um Landmarkenpunkte (30), insbesondere um Hüft-, Knie- und Kniescheibenmitten, Schienbeinmitte und/oder Knöchelmitte, zu ergänzen, um ein kombiniertes digitales 3D-Anatomie-Modell (14) aus Punkten (30), Achsen (28) und Flächen (8) zu erhalten.

7. Chirurgisches Navigationssystem (1 ) nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (12) dafür angepasst ist zumindest zwei 3D-Oberflächenaufnahmen (8) in zumindest zwei unterschiedlichen Lagen des 3D-Oberflächenscanner (6) zu verarbeiten, um auf Basis dieser einzelnen 3D-Oberflächenaufnahmen (8) eine erweiterte und/oder präzisere 3D- Oberflächenaufnahme (8) als Gesamtaufnahme zu erhalten.

8. Chirurgisches Navigationssystem (1 ) nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass der 3D-Oberflächenscanner (6) dafür angepasst ist, intrakorporal in den Patienten (P) eingeführt zu werden, und insbesondere eine maximale Breite und eine maximale Höhe, besonders bevorzugt eine maximale Abmessung, von 10 cm hat

9. Chirurgisches Navigationssystem (1 ) nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das chirurgische Navigationssystem (1) ein chirurgisches Endoskop aufweist, in dem der 3D-Oberflächenscanner (6), insbesondere in dessen stimseitigen Endoskopkopf der 3D-Oberflächenscanner (6), integriert ist

10. Chirurgisches Navigationssystem (1 ) nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass in einer Speichereinheit (22) des Navigationssystems (1) das 3D-Anatomie-Modell (14) des Patienten (P) mit einem Implantat nach Eingriffeplan gespeichert ist, und die Steuereinheit (12) dafür angepasst ist, über eine 3D-Oberflächenaufnahme (8) mit dem 3D-Oberflächenscanner (6) intraoperativ die Lage des realen Implantats gegenüber der Lage des Implantats nach Eingriffeplan zu verifizieren, und bei einer Abweichung eine Warnung oder Abweichungsinfbrmation über die Ausgabevorrichtung (16) auszugeben.

11. Chirurgisches Navigationssystem (1 ) nach einem der vorstehenden

Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (12) dafür angepasst ist vordefinierte Strukturen von Interesse in der 3D-Oberflächenaufhahme (8) zu erkennen, insbesondere Knochen zu erkennen, und das digitale 3D-Anatomie-Modell (14) nur um diese vordefinierten Strukturen von Interesse zu ergänzen.

12. Chirurgisches Assistenzsystem (100) mit einem Navigationssystem (1 ) gemäß einem der vorstehenden Ansprüche und einem medizinischen Roboter (102) mit einem medizinischen Endeffektor (104).

13. Navigationsverfahren zur Verwendung bei einem chirurgischen Eingriff bei einem Patienten (P), insbesondere bei einer Knie-Endoprothetik und vorzugsweise bei einem chirurgischen Navigationssystem (1) gemäß den vorstehenden Ansprüchen, gekennzeichnet durch die Schritte:

Nachverfolgen eines Patienten (P) und vorzugsweise zumindest eines medizinischen Instruments mittels eines Trackingsystems (2) eines Navigationssystems (1);

Erstellen einer 3D-Oberflächenaufhahme (8) einer intrakorporalen Anatomie des Patienten (P) von Interesse durch einen 3D-Oberflächenscanner (6) und Nachverfblgen des 3D-Oberflächenscanners (6) durch das Trackingsystem (2), insbesondere über einen angebrachten Tracker (10);

Bestimmen, über die erfasste Lage des 3D-Oberflächenscanners (6), einer Lage der 3D-Oberflächenaufhahme (8) gegenüber dem Patienten (P) durch eine Steuereinheit (12);

Ergänzen eines digitalen 3D-Anatomie-Modells (14) des Patienten (P) an der bestimmten Lage um die 3D-Oberflächenaufnahme (8) durch die Steuereinheit (12); und

Ausgeben einer visuellen Ansicht des ergänzten digitalen 3D-Anatomie-Modells (14) des Patienten (P) für eine chirurgische Navigation über eine Ausgabevorrichtung (16), insbesondere über einen OP-Monitor, um ein intraoperatives, zeitaktuelles und um die intrakorporale Anatomie des Patienten (P) von Interesse ergänztes digitales 3D- Anatomie-Modell (14) für eine Navigation bereitzustellen.

14. Navigationsverfahren nach Anspruch 13 dadurch gekennzeichnet, dass das Navigationsverfahren ferner die Schritte aufweist: Erstellen einer 3D-0berflächenaufnahme (8) einer Stirnseite eines Femurs in einer ersten Lage des 3D-Oberflächenscanners (6), insbesondere über einen robotergeführten 3D-Oberflächenscanner (6);

Erfassen der Lage des 3D-Obeifiächenscanners (6) und eines Femur-Trackers (26) am Femur durch das Trackingsystem (2);

Erstellen der 3D-Oberflächenaufnahme (8) von einer Tibia, insbesondere von einer Stirnseite, in einer zweiten Lage des 3D-Oberflächenscanners (6), insbesondere robotergeführt;

Erfassen der Lage des 3D-Oberflächenscanners (6) und eines Tibia-Trackers (24) an der Tibia durch das Trackingsystem (2);

Ergänzen, durch die Steuereinheit (12), des digitalen 3D-Anatomie-Modells (14) des Patienten (P) um die lagekorrekten 3D-Oberflächenaufnahmen (8).

15. Computerlesbares Speichermedium, das Befehle umfasst, die bei einer Ausführung durch einen Computer diesen veranlassen, die Verfahrensschritte des Navigationsverfahrens gemäß Anspruch 13 oder 14 auszuführen.

Description:
NAVIGATIONSSYSTEM MIT 3D-OBERFLÄCHENSCANNER

Beschreibung

Technisches Gebiet

Die vorliegende Offenbarung betrifft ein chirurgisches Navigationssystem zur Navigation bei einem chirurgischen Eingriff bei einem Patienten, insbesondere bei einer Kniegelenkoperation. Daneben betrifft die vorliegende Offenbarung ein chirurgisches Assistenzsystem, ein Navigationsverfahren sowie ein computerlesbares Speichermedium gemäß den Oberbegriffen der nebengeordneten Ansprüche.

Hintergrand der vorliegenden Offenbarung

Aktuelle chirurgische Navigationssysteme lassen sich im Wesentlichen in zwei Gruppen/ Typen/ Klassen oder Arten von chirurgischen Navigationssystemen aufteilen.

Die erste Gruppe von Navigationssystemen ist eine aufnahme- bzw. bildgestützte Navigation und verwendet Aufnahmen wie etwa Computertomografie-Aufnahmen (CT- Aufnahme), Magnetresonanz-Aufnahmen (MR-Aufnahmen), Röntgen-Aufnahmen oder auch Ultraschall-Aufnahmen, die präoperativ vor dem durchzuführenden Eingriff erstellt und gespeichert werden. Diese Aufnahmen müssen dann vor und während des Eingriffe mit der Lage des Patienten abgeglichen werden, um die Navigation von Instrumenten oder Implantaten zu ermöglichen.

Die zweite Gruppe von Navigationssystemen ist eine aufnahmenlose bzw. bildlose Navigation und arbeitet ohne (präoperative) Aufnahmen. Diese zweite Gruppe von Navigationssystemen erstellen zeitaktuell, während des Eingriffe am Patienten ein rudimentäres (geometrisches) virtuelles bzw. digitales Modell des Patienten und erfolgt in der Regel durch Abtasten anatomischer Landmarken-Punkte bzw. Orientierungs- punkte mit einer Navigationssonde, einem Pointer oder etwa durch eine kinematische Analyse. Ein solches 3D-Anatomie-Modell bildet also digital wichtige anatomische Punkte in einem computergestützten System nach, um dem Chirurgen eine Navigation zu ermöglichen.

Hierbei haben die aufnahmebasierten Navigationssysteme jedoch den Nachteil, dass sie eine komplexe und zeitaufwändige Registrierung erfordern, die zudem oft nicht die erforderliche Genauigkeit liefert, insbesondere bei einer Knieoperation oder einer Kraniotomie.

Im Gegensatz dazu erfordert die zweite Gruppe der aufnahmelosen Navigationssysteme zwar keine präoperative Bildgebung und auch keine intraoperative Registrierung, jedoch hat die zweite Gruppe den Nachteil, dass sie nur ein sehr grobes, rudimentäres digitales 3D-Modell der Anatomie des Patienten (digitales 3D-Anatomie- Modells) als Referenz verwenden, beispielsweise ein Achsenmodell des Beins bei einer Knieoperation. Die reale dreidimensionale (3D) Struktur des Beins wird dabei über Geraden (zweidimensionale Struktur) im (dreidimensionalen) Raum vereinfacht und modellartig nachgebildet, um zumindest ein grobes 3D-(Überblicks-)Modell des Beins zu erhalten. Dieses geometrische schematische 3D-Modell kann dann in einem computergestützten System aus verschiedenen Blickrichtungen her betrachtet werden.

Zusammenfassung der Offenbarung

Es sind daher die Aufgaben und Ziele der vorliegenden Offenbarung, die Nachteile aus dem Stand der Technik zu vermeiden oder zumindest zu vermindern und insbesondere ein chirurgisches Navigationssystem, ein chirurgisches Assistenzsystem, ein Navigationsverfahren und ein computerlesbares Speichermedium zur Verfügung zu stellen, das eine verbesserte, flexiblere Navigation ermöglicht, und insbesondere keine präoperative Bildgebung/ Aufnahme mit anschließender intraoperativer Registrierung benötigt, jedoch eine für einen interessierenden Eingriffebereich des Patienten eine hinreichend genaue intrakorporale 3D-Aufnahme des Patienten als Referenz für eine Navigation bereitstellt, um etwa Instrumente oder Implantate ausrichten zu können. Insbesondere soll eine noch bessere, schnellere, flexiblere und genauere Navigation mit einem möglichst einfach zu bedienenden Navigationssystem zur Verfügung gestellt werden, das eine intraoperative dreidimensionale Erfassung und Visualisierung von interessierenden anatomischen Strukturen eines Eingriffebereichs erlaubt. Diese Aufgaben werden hinsichtlich eines gattungsgemäßen chirurgischen Navigationssystems erfindungsgemäß durch die Merkmale des Anspruchs 1 gelöst, hinsichtlich eines gattungsgemäßen chirurgischen Assistenzsystems erfindungsgemäß durch die Merkmale des Anspruchs 12 gelöst, hinsichtlich eines Navigationsverfahrens erfindungsgemäß durch die Schritte des Anspruchs 13 gelöst und hinsichtlich eines computerlesbaren Speichermediums erfindungsgemäß durch die Merkmale des Anspruchs 15 gelöst.

Ein Grundgedanke der vorliegenden Offenbarung liegt also darin, dass das chirurgische Navigationssystem, aufweist, insbesondere besteht aus: einem Nachverfolgungssystem/ Trackingsystem (mit insbesondere einer Navigationskamera) zur Ortung bzw. Lokalisierung (einer Lage) von zumindest einem Körperabschnitt des Patienten, an dem der Eingriff vorgenommen wird, sowie einem 3D- Oberflächenscanner. Ferner kann das Navigationssystem vorzugsweise medizinische Instrumente für den Eingriff aufweisen. Der 3D-Oberflächenscanner, insbesondere eine 3D-Oberflächenscanner-Kamera, wird bei einem Eingriff dazu verwendet, um nach Öffnung des Patienten intraoperativ eine 3D-Oberflächenaufhahme zu erstellen und aus dieser ein digitales 3D-Oberflächenmodell der inneren Anatomie des Patienten (digitales 3D-Anatomie-Modell des Patienten) zu erstellen oder ein bestehendes 3D- Anatomie-Modell des Patienten zu ergänzen, das schließlich als Referenz für die Navigation dient und insbesondere von Instrumenten oder Implantaten für eine Führung zu deren Zielposition verwendet werden kann.

Insbesondere umfasst das chirurgische Navigationssystem gemäß der vorliegenden Offenbarung ein Nachverfolgungssystem, insbesondere mit einer Navigationskamera, vorzugsweise einen oder mehrere Tracker zur Nachverfolgung des Patienten und vorzugsweise einen oder mehrere Tracker zur Nachverfblgung/ zum Tracken von Instrumenten oder Implantaten. Darüber hinaus umfasst das Navigationssystem einen 3D-Oberflächenscanner, der durch das Nachverfolgungssystem/ Trackingsystem nachverfolgbar ist (bzw. die Lage im Raum erfassbar ist) und insbesondere mit einem Tracker/ Marker ausgestattet ist, um (über den Tracker) die Position, insbesondere die Position und Orientierung (also der Lage), der gescannten intrakorporalen anatomischen 3D-Oberfläche mit dem Nachverfolgungssystem (der Navigationskamera) (mittelbar) zu erfassen und zu lokalisieren. Da das Trackingsystem sowohl die Lage des Körperabschnitts des Patienten erfasst und auch die Lage der 3D-Oberflächenaufhahme, kann eine relative Transformation von Patient (bzw. dem interessierenden Körperabschnitt) zu der 3D- Oberflächenaufhahme hergestellt werden und eine Lage der 3D-Oberflächenaufnahme zu dem Patienten korreliert werden. Der 3D-Oberflächenscanner zielt dabei auf die anatomische Region von Interesse bzw. wird auf diese ausgerichtet, und erfasst eine 3D-Oberflächenaufnahme von dieser Region. Damit erhalt er ein digitales 3D- Oberflächenmodell, welches er in ein 3D-Anatomie-Modell des Patienten integriert. Diese 3D-Oberflächenaufnahme kann durch Bewegen des 3D-Oberflächenscanners, etwa manuell mit der Hand oder gesteuert mit einem Roboterarm, auch um weitere anatomische Bereiche erweitert werden. Während (also zeitgleich mit) der Erfassung der realen anatomischen 3D-Oberfläche als (digitale) 3D-Oberflächenaufnahme wird der 3D-Oberflächenscanner, insbesondere eine 3D-Scankamera, im Raum lokalisiert (Position und/oder Orientierung) und auf dieser Basis die 3D-Oberflächenaufnahme mit dem Patienten korreliert, insbesondere mit Hilfe eines an dem Patienten vorgesehenen Patienten-Trackers. Insbesondere wird also die Position und/oder Orientierung der 3D- Oberflächenaufnahme relativ zu dem Patienten ermittelt. Mit anderen Worten weist das Navigationssystem also insbesondere aut ein Trackingsystem (Lokalisierungssystem), mindestens einen am Patienten angebrachten Tracker und einen mit einem Tracker ausgestatteten 3D-Oberflächenscanner, wobei der 3D-Oberflächenscanner, insbesondere als 3D-Oberflächenabtast-Kamera, eine 3D-Oberflächenaufnahme einer anvisierten inneren Anatomie des Patienten erstellt und der 3D-Oberflächenscanner relativ zu dem Patienten lokalisiert wird. Die 3D-Oberflächenaufhahme wird an eine Steuereinheit bzw. ein Computersystem übertragen. Das Navigationssystem weist eine Ausgabevorrichtung, insbesondere ein Display, auf und das um die 3D- Oberflächenaufnahme ergänzte 3D-Anatomie-Modell kann als Referenz für eine Positionierung navigierter Instrumente oder Implantate verwendet werde, ohne dass präoperative Aufnahmen des Patienten verwendet werden müssen.

Diese 3D-Oberflächenaufnahme (als erzeugte 3D-0berfläche) wird einer Steuereinheit bereitgestellt bzw. auf ein angepasstes Computersystem (als Steuereinheit) übertragen. Das Navigationssystem weist ferner eine Ausgabevorrichtung für eine visuelle Ausgabe auf, insbesondere ein Display (etwa ein OP-Monitor). Die Steuereinheit bzw. das Computersystem erstellt und ergänzt ein digitales dreidimensionales (3D) anatomisches Modell des Patienten (3D-Anatomie- Modell des Patienten), welches optional durch Palpation/ ertastete anatomische Landmarken-Punkte ergänzt werden kann oder in welchem bereits Landmarken-Punkte vorhanden sind. Das Computersystem bzw. die Steuereinheit ermöglicht dann die Planung und Navigation des Eingriffs, beispielsweise durch eine visuelle Positionierung einer orthopädischen Prothese in einer Soll-Lage. Während des Eingriffs zeigt das Navigationssystem der vorliegenden Offenbarung dann die aktuelle Position und/oder Orientierung, insbesondere Lage, von navigierten Instrumenten oder Implantaten relativ zu dem 3D-Anatomie-Modell des Patienten mit optional einbeziehbarem und einblendbarem Eingriffsplan an, so dass ein Chirurg die Instrumente oder Implantate optimal führen und positionieren kann, um das beste Ergebnis für den Patienten zu erzielen.

So kann das vorliegende chirurgische Navigationssystem die Vorteile der Technologien einer aufhahmebasierten Navigation und einer aufnahmelosen Navigation kombinieren und bestmöglich ausschöpfen, so dass das chirurgische Navigationssystem keine präoperative Aufnahme/ Bildgebung mit anschließender intraoperativen Registrierung benötigt, aber dennoch ein genaues 3D-Modell (3D- Anatomie-Modell) des Patienten als Referenz hat, um insbesondere Instrumente oder Implantate bestmöglich für ein bestmögliches Eingriffsergebnis auszurichten. Insbesondere bei einer orthopädischen Navigation, in welcher eine genaue Form und Anordnung von Knochen erfasst und für eine Navigation bereitgestellt werden muss, spielt das chirurgische Navigationssystem seine Vorteile aus.

Mit noch ganz anderen Worten wird ein chirurgisches Navigationssystem zur Verwendung bei einem chirurgischen Eingriff bei einem Patienten offenbart, das aufweist: ein Trackingsystem/ Nachverfolgungssystem/ Lokalisierungssystem, das dafür angepasst ist, zumindest den Körperabschnitt des Patienten von Interesse, an welchem der Eingriff stattfindet, insbesondere den gesamten Patienten, und vorzugsweise zumindest ein medizinisches Instrument, hinsichtlich seiner Lage zu erfassen und nachzuverfolgen; einen 3D-Oberflächenscanner, der dafür angepasst ist, eine 3D- Oberflächenaufnahme (gewissermaßen eine 2D-Oberflächenstruktur im 3D-Raum) einer intrakorporalen Anatomie des Patienten von Interesse zu erstellen, wobei der 3D- Oberflächenscanner durch das Trackingsystem, insbesondere mittels angebrachtem Tracker, nachverfolgt wird; und einer Steuereinheit, die dafür angepasst ist/ konfiguriert ist die 3D-Oberflächenaufhahme und die erfasste und nachverfolgte Lage des nachverfolgten 3D-Oberflächenscanner und des nachverfolgten Patienten (bzw. dessen Körperabschnitt) zu verarbeiten, über die erfasste und nachverfolgte Lage des 3D- Oberflächenscanners eine Position und Orientierung (also Lage) der 3D- Oberflächenaufhahme gegenüber dem Patienten zu bestimmen und ein virtuelles, digitales 3D-Anatomie-Modell des Patienten (bzw. zumindest ein digitales 3D-Anatomie- Modell des interessierenden Körperabschnitts), das insbesondere in einer Speichereinheit hinterlegt ist, an der bestimmten Position und Orientierung (also Lage) um die (lokale) 3D-Oberflächenaufnahme (korreliert) zu ergänzen, und eine Ansicht des ergänzten digitalen 3D-Anatomie-Modells des Patienten für eine chirurgische Navigation über eine Ausgabevorrichtung, insbesondere einen OP-Monitor, visuell auszugeben, um ein zeitaktuelles und um die intrakorporale Anatomie des Patienten von Interesse ergänztes digitales 3D-Anatomie-Modell für eine Navigation bereitzustellen.

Der 3D-Oberflächenscanner des Navigationssystems kann mit hoher Geschwindigkeit und hoher Präzision arbeiten, ist kosteneffizient, einfach zu handhaben und im Bereich der Medizintechnik besonders gut einsetzbar. Diese Vorteile erstrecken sich damit auch auf das Navigationssystem. Insbesondere kann ein 3D- Oberflächenscanner mit strukturiertem Licht in der Wirbelsäulen- und Neuro-Navigation eingesetzt werden, um während des Eingriffs eine 3D-Oberflächenaufnahme einer anvisierten Anatomie des Patienten zu erstellen. Diese kann vorzugsweise auch zur Registrierung eines präoperativen Datensatzes wie eines vor dem Eingriff aufgenommenen CT-Aufnahme oder einer MR-Aufnahme verwendet werden. Mit dem 3D-Oberflächenscanner kann insbesondere eine 3D-Punktwolke erstellt und weiter vorzugsweise eine Farbkarte überlagert werden.

Das vorliegende chirurgische Navigationssystem kann bei verschiedenen Indikationen eingesetzt werden. In der Kniechirurgie beispielsweise kann es verwendet werden, um eine 3D-Oberflächenaufnahme der Gelenkfläche des Kniegelenks nach Öffnung und Freilegung des Knies zu erstellen. Diese 3D-Oberflächenaufnahme des distalen Oberschenkelknochens kann insbesondere relativ zu einer Referenz eines Femur-Trackers erfasst werden, während eine 3D-Oberflächenaufhahme der proximalen Tibia relativ zu einer Referenz des Tibia-Trackers erfasst werden kann. Die 3D-Oberflächenaufnahme des Oberschenkelknochens (Femur) und des Schienbeinknochens (Tibia) kann optional durch anatomische Orientierungspunkte wie Hüft-, Knie- und Kniescheibenmitte, Schienbeinmitte und Knöchelmitte ergänzt werden bzw. ein 3D-Anatomie-Modell des Patienten mit bereite vorhandenen anatomischen Orientierungspunkten kann durch die 3D-Oberflächenaufhahme ergänzt werden. Nachdem die zumindest eine 3D-Oberflächenaufhahme(n) und ferner vorzugsweise anatomische Landmarken, erfasst wurden, kann insbesondere eine Knieprothese in der vorgesehenen Ausrichtung zu den biomechanischen Achsen positioniert werden. Die 3D-Oberflächenaufnahmen des Oberschenkels und des Schienbeins ermöglichen eine besonders präzise Positionierung und Größenbestimmung der Prothese.

Im Falle einer Hüftchirurgie etwa kann das chirurgische Navigationssystem eine 3D-Oberflächenaufnahme der Hüftpfanne erstellen und das bildlose, landmarkenbasierte digitale 3D-Anatomie-Modell des Patienten um die 3D- Oberflächenaufhahme der Hüftpfanne ergänzen. Dies ermöglicht es, während der Pfannenausrichtung nicht nur die anatomischen Winkel und Abstände zu visualisieren, sondern auch den Sitz und die Ausrichtung des Pfannenimplantate relativ zur Knochenstruktur visuell zu kontrollieren.

Der Begriff „Position“ meint eine geometrische Position im dreidimensionalen Raum, der insbesondere mittels Koordinaten eines kartesischen Koordinatensystems angegeben wird. Insbesondere kann die Position durch die drei Koordinaten X, Y und Z angegeben werden.

Der Begriff „Orientierung“ wiederum gibt eine Ausrichtung (etwa an der Position) im Raum an. Man kann auch sagen, dass durch die Orientierung eine Ausrichtung angegeben wird mit Richtungs- bzw. Drehungsangabe im dreidimensionalen Raum. Insbesondere kann die Orientierung mittels drei Winkeln angegeben werden.

Der Begriff „Lage“ umfasst sowohl eine Position als auch eine Orientierung. Insbesondere kann die Lage mittels sechs Koordinaten angegeben werden, drei Positionskoordinaten X, Y und Z sowie drei Winkelkoordinaten für die Orientierung. Der Begriff 3D definiert dabei, dass die Aufhahmedaten räumlich, also dreidimensional voriiegen. Der Körper des Patienten oder zumindest ein Teilbereich des Körpers mit räumlicher Ausdehnung kann in einem dreidimensionalen Raum mit etwa einem kartesischen Koordinatensystem (X, Y, Z) digital als Aufhahmedaten vorliegen.

Vorteilhafte Ausführungsfbrmen sind in den Unteransprüchen beansprucht und werden insbesondere nachfolgend erläutert

Gemäß einer Ausführungsform kann der 3D-Oberflächenscanner des Navigationssystems einen Handgriff und vorzugsweise ein Drahtloskommunikationsmodul (etwa WIFI, Bluetooth oder IR) aufweisen, um den 3D- Oberflächenscanner manuell zu führen und 3D-Oberflächenaufnahmen in verschiedenen Lagen zu erstellen. Insbesondere kann der 3D-Oberflächenscanner mit Handgriff einen Akku aulweisen, um als autarkes Modul zu agieren. Alternativ oder zusätzlich kann der 3D-Oberflächenscanner einen Befestigungsabschnitt, insbesondere ein Klemmmodul, aufweisen, um insbesondere an einem Haltearm des Navigationssystems befestigt zu werden. Alternativ oder zusätzlich kann das chirurgische Navigationssystem einen Roboter mit einem Roboterarm aufweisen, an dem der 3D-Oberflächenscanner als Endeffektor angebunden ist, um automatisch die 3D-Oberflächenaufnahme in zumindest einer vordefinierten Lage des 3D- Oberflächenscanners zu erstellen, insbesondere um, vorzugsweise nach einem Abtast- Algorithmus oder -Muster, mehrere 3D-Oberflächenaufnahme in mehreren Lagen des 3D-Oberflächenscanners zu erstellen. Mit anderen Worten kann insbesondere der 3D- Oberflächenscanner dafür ausgebildet sein, in der Hand gehalten zu werden, an einem statischen mechanischen Haltearm des Navigationssystems montiert sein oder von einem Roboterarm gehalten und aktiv bewegt werden. Insbesondere kann der 3D- Oberflächenscanner an einem Roboterarm des Navigationssystems oder des Assistenzsystems befestigt sein, der den 3D-Oberflächenscanner autonom bewegt, um den anatomischen Bereich von Interesse (gesteuert) zu erfassen.

Gemäß einer weiteren Ausführungsform kann der 3D-Oberflächenscanner einen Strahler für strukturiertes Licht und einen Sensor, insbesondere RGB-Sensor (beispielsweise eine Kamera) für eine Detektion des Lichts aufweisen und/oder eine Stereokamera aufweisen und/oder eine Time-of-Flight Kamera aufweisen und/oder einen LIDAR-Scanner aufweisen, um insbesondere eine 3D-Punktwolke der anatomischen Region von Interesse als 3D-Oberflächenaufnahme zu erstellen. Mit anderen Worten kann der 3D-Oberflächenscanner die 3D-Oberflächenaufnahmen also mit verschiedenen Technologien erstellen, insbesondere mit strukturiertem Licht und entsprechender Detektion, mit einer Stereokamera (Stereo-Vision), mit einer Time-of- Flight-Kamera oder einem LIDAR-Sensor/ Lidar-Kamera, um insbesondere eine 3D- Punktwolke der anatomischen Region von Interesse zu erstellen.

Vorzugsweise ist das Trackingsystem und/oder die Steuereinheit und/oder der 3D- Oberflächenscanner des Navigationssystems dafür angepasst eine Lage durch Maschinelles Sehen (Machine Vision) zu bestimmen. Insbesondere werden mit einer 2D-Kamera Aufnahmen aus verschiedenen Blickrichtungen relativ zu dem Objekt oder der Oberfläche von Interesse erstellt und aus diesen eine räumliche Information berechnet.

Vorzugsweise kann das Trackingsystem ein optisches Trackingsystem aufweisen und/oder ein auf maschinellen Sehen basierendes Trackingsystem / Lokalisierungssystem und/oder ein EM-Trackingsystem aufweisen. Insbesondere kann das Navigationssystem konfiguriert sein, zusätzlich zu dem optischen Trackingsystem eine elektromagnetische Nachverfolgung (EM-Navigationssystem) durchzuführen.

Vorzugsweise kann in einer Speichereinheit des Navigationssystems ein virtuelles digitales 3D-Anatomie-Modell eines Beinabschnitts des Patienten inklusive Knie gespeichert sein und das Navigationssystem mit dem 3D-Oberflächenscanner dafür angepasst sein, eine 3D-Oberflächenaufnahme des Kniegelenks zu erstellen, wobei das Navigationssystem hierfür einen Tibia-Tracker und einen separaten Femur-Tracker aufweist, die dafür angepasst sind, an der Tibia und an dem Femur für eine Nachverfolgung des Knochens starr angeordnet zu werden. Die Steuereinheit ist dafür angepasst, auf Basis des nachverfolgten Tibia-Trackers und des Femur-Trackers die 3D-Oberflächenaufnahme zu dem nachverfolgten Beinabschnitt zu korrelieren. Zwei Knochenreferenzen (Knochenabschnitt Tibia und Femur im Bereich des Kniegelenks) werden also separat mit der Navigation verfolgt, wobei zwei oder mehr 3D-Oberflächen der Anatomie relativ zu den entsprechenden Referenzknochen erfasst werden. Insbesondere kann das Navigationssystem also dafür angepasst sein, zwei Referenzknochen mit jeweils angebrachten Trackern separat mit dem Trackingsystem nachzuverfolgen und zumindest zwei intrakorporale anatomische 3D- Oberflächenaufnahmen relativ zu den Referenzknochen zu erstellen.

Gemäß einer Ausführungsform kann die Steuereinheit dafür angepasst sein, insbesondere mittels eines Pointers des Navigationssystems, das digitale 3D-Anatomie- Modell des Patienten um Orientierungspunkte, insbesondere um Hüft-, Knie- und Kniescheibenmitten, Schienbeinmitte und/oder Knöchelmitte, zu ergänzen, um ein kombiniertes digitales 3D-Anatomie-Modell aus Punkten, (biomechanischen) Achsen und Flächen zu erhalten. Mit anderen Worten kann die erfasste 3D-Oberfläche um weitere anatomische Landmarkenpunkte/ Orientierungspunkte ergänzt werden, die am Patienten durch Abtasten oder durch kinematische Bewegungen erfasst werden, wodurch ein kombiniertes Modell aus Punkten, (biomechanischen) Achsen und Flächen entsteht.

Gemäß einer weiteren Ausführungsform kann die Steuereinheit dafür angepasst sein, zumindest zwei 3D-Oberflächenaufnahmen in zumindest zwei unterschiedlichen (erfassten) Lagen des 3D-Oberflächenscanner zu verarbeiten, um auf Basis dieser einzelnen 3D-Oberflächenaufnahmen eine erweiterte und/oder präzisere 3D- Oberflächenaufhahme als Gesamtaufnahme zu erhalten. Diese auch als Stitching- Technology bekannte Technik verbindet mehrere einzelne 3D-Oberflächenaufhahmen miteinander zu einer Gesamtaufhahme. Ähnlich einer Panoramafunktion bei Fotos werden mehrere Aufnahmen, insbesondere an Überschneidungsbereichen, miteinander verbunden. Durch die erfasste Lage des 3D-Oberflächenscanners muss jedoch kein Überschneidungsbereich vorliegen, da auch einzelne separate Bereiche ergänzt werden können. Das Navigationssystem erlaubt also eine absolute Ergänzung und benötigt keinen relativen Bezug. Vorzugsweise kann die Steuereinheit dafür angepasst sein, an Überschneidungsbereichen von 3D-Oberflächenaufnahmen, eine resultierende 3D-Oberflächenaufnahme für diesen Bereich zu berechnen, um eine Präzision zu erhöhen. Insbesondere kann die 3D-Oberflächenaufhahme in einer einzigen statischen Position, insbesondere Lage, oder über mehrere Positionen, insbesondere Lagen, hinweg erfasst werden, wodurch der gescannte Oberflächenbereich und damit das 3D- Anatomie-Modell des Patienten vergrößert wird. Vorzugsweise kann der 3D-Oberflächenscanner dafür angepasst sein, intrakorporal in den Patienten eingeführt zu werden, und insbesondere eine maximale Breite und eine maximale Höhe, besonders bevorzugt eine maximale Abmessung, von 10 cm haben. Der 3D-Oberflächenscanner, insbesondere 3D-Oberflächenscanner- Kamera kann also so klein sein, dass er in das Innere der Anatomie des Patienten eingeführt werden kann, um Oberflächen einer tief liegenden Region als 3D- Oberflächenaufhahmen zu erfassen. Die erfasste 3D-Oberflächenaufnahme kann verwendet werden, um die Position eines Implantats oder Instruments während der Operation zu planen.

Insbesondere kann das chirurgische Navigationssystem ein chirurgisches Endoskop aufweisen, in dem, insbesondere in dessen stimseitigem/ endständigem Endoskopkopf, der 3D-Oberflächenscanner, integriert ist. Der 3D-Oberflächenscanner kann also (Bestand-)Teil eines chirurgischen Endoskops sein.

Gemäß einer Ausführungsform kann in einer Speichereinheit des Navigationssystems das 3D-Anatomie-Modell des Patienten mit einem Implantat nach Eingriffsplan gespeichert sein, und die Steuereinheit dafür angepasst sein, über eine 3D-Oberflächenaufnahme mit dem 3D-Oberflächenscanner intraoperativ die Lage des realen Implantats gegenüber der Lage des Implantats nach Eingriffsplan zu verifizieren, und bei einer Abweichung eine Warnung über die Anzeigevorrichtung auszugeben. Der 3D-Oberflächenscanner kann also auch nach dem Einsetzen des Implantats verwendet werden, um die Position zu überprüfen und mit dem Eingriffsplan zu vergleichen. Insbesondere wird durch die Steuereinheit eine Soll-Lage des Implantats in dem 3D- Anatomie-Modell des Patienten mit einer Ist-Lage gemäß der durchgeführten 3D- Oberflächenaufnahme verglichen und eine Abweichung wird über die Ausgabevorrichtung eingeblendet, um dem Chirurgen eine Information bezüglich der Ausrichtung bereitzustellen.

Insbesondere kann die Steuereinheit dafür angepasst sein, die 3D- Oberflächenaufnahme in dem digitalen 3D-Anatomie-Modell des Patienten als strukturlose Oberflächen oder als eine Oberfläche mit Farbtextur oder mit Graustufentextur zu ergänzen. Mit anderen Worten kann die 3D-Oberflächenaufnahme vorzugsweise in Form einer strukturlosen Oberfläche oder in eine Oberfläche mit Farb- oder Graustufentextur umgewandelt und gespeichert werden.

Gemäß einer Ausführungsfbrm kann die Steuereinheit dafür angepasst sein, vordefinierte Strukturen von Interesse in der 3D-Oberflächenaufhahme zu erkennen, insbesondere Knochen zu erkennen, und das digitale 3D-Anatomie-Modell nur um diese vordefinierten Strukturen von Interesse zu ergänzen. Die erfassten 3D- Oberflächenaufnahmen können also insbesondere so manipuliert werden, dass nur Strukturen von Interesse in der 3D-Oberflächenaufnahme verbleiben. Strukturen, die beispielsweise nicht zum Knochen gehören, wie z. B. die Haut, werden automatisch von der 3D-Oberflächenaufnahme abgegrenzt.

Hinsichtlich eines chirurgischen Assistenzsystems werden die Aufgaben dadurch gelöst, dass dieses ein Navigationssystem gemäß der vorliegenden Offenbarung aufweist und einen medizinischen Roboter mit einem medizinischen Endeffektor. Das Navigationssystem kann insbesondere in einen chirurgischen Roboter integriert werden, ohne dass ein präoperatives Bildvolumen erforderlich ist. Demzufolge kann mit dem chirurgischen Assistenzsystem über das Navigationssystem die Daten für eine Navigation bereitgestellt werden und über den Roboter mit dem Endeffektor ein automatisierter oder teilautomatisierter Eingriff durchgeführt werden. Insbesondere bei einer Knieoperation kann auf Basis des erstellten und ergänzten 3D-Anatomie-Modells des Patienten der Roboter so gesteuert werden, dass der Endeffektor eine Resektion der Tibia und des Femurs vomimmt und ferner vorzugsweise eine Knieprothese automatisch lagekorrekt einsetzt

Hinsichtlich eines Navigationsverfahrens zur Verwendung bei einem chirurgischen Eingriff bei einem Patienten, insbesondere bei Knie-Endoprothetik, vorzugsweise bei einem chirurgischen Navigationssystem der vorliegenden Offenbarung, werden die Aufgaben dadurch gelöst dass das Navigationsverfahren die Schritte aufweist:

Nachverfolgen eines Patienten und vorzugsweise zumindest eines medizinischen Instruments, insbesondere eines Pointers, mittels eines Trackingsystems/ Nachverfolgungssystems;

Erstellen einer 3D-Oberflächenaufnahme einer intrakorporalen Anatomie des Patienten von Interesse mit einem 3D-Oberflächenscanner und Nachverfolgen des 3D- Oberflächenscanners durch das Trackingsystem, insbesondere über angebrachte Tracker,

Bestimmen, über die erfasste Lage des 3D-Oberflächenscanners einer Lage der 3D-Oberflächenaufhahme gegenüber dem Patienten;

Ergänzen eines digitalen 3D-Anatomie-Modells des Patienten an der bestimmten Lage um die 3D-Oberflächenaufnahme (korreliert); und

Ausgeben einer visuellen Ansicht des ergänzten digitalen 3D-Anatomie-Modells des Patienten für eine chirurgische Navigation über eine Ausgabevomchtung, insbesondere einen OP-Monitor, um ein zeitaktuelles und um die intrakorporale Anatomie des Patienten von Interesse ergänztes digitales 3D-Anatomie-Modell für eine Navigation bereitzustellen. Durch dieses Navigationsverfahren kann schnell, einfach und flexibel ein Eingriff durchgeführt werden, insbesondere eine Kniegelenksoperation mit einer Knieprothese, und eine Sicherheit des Patienten weiter verbessert werden.

Insbesondere kann das Navigationsverfehren ferner die Schritte aufweisen: Erstellen einer 3D-Oberflächenaufnahme einer Stirnseite eines Femurs in einer ersten Lage des 3D-Oberflächenscanners, insbesondere über einen robotergeführten 3D- Oberflächenscanner; Erfassen der Lage des 3D-Oberflächenscanners und eines Femurs über ein Femur-Tracker (am Femur) durch das Trackingsystem; Erstellen einer 3D-Oberflächenaufnahme, insbesondere einer Stirnseite, einer Tibia in einer zweiten Lage des 3D-Oberflächenscanners, insbesondere robotergeführt; Erfassen der Lage des 3D-Oberflächenscanners und einer Tibia über einen Tibia-Tracker an der Tibia durch das Trackingsystem; und Ergänzen des digitalen 3D-Anatomie-Modells des Patienten, durch die Steuereinheit, um die 3D-Oberflächenaufnahmen an der bestimmten Lage (lagekorrekte Einbindung der digitalen Aufnahmedaten).

Hinsichtlich eines computerlesbaren Speichermediums werden die Aufgaben dadurch gelöst, dass dieses Befehle umfasst, die bei einer Ausführung durch einen Computer diesen veranlassen, die Verfahrensschritte des Navigationsverfahrens gemäß der vorliegenden Offenbarung auszuführen.

Die Offenbarung hinsichtlich des Navigationssystem gemäß der vorliegenden Offenbarung gilt ebenso für das Navigationsverfehren gemäß der vorliegenden Offenbarung als auch umgekehrt Insbesondere kann die Steuereinheit des Navigationssystems dafür angepasst sein (etwa einen Prozessor und eine Speichereinheit mit Befehlen aufweisen), die Verfahrensschritte gemäß dem Navigationsverfahren durchzuführen.

Kurzbeschreibung der Figuren

Die Erfindung wird nachfolgend anhand bevorzugter Ausführungsformen mit Hilfe von Figuren näher erläutert. Es zeigen:

Fig. 1 eine perspektivische, schematische Ansicht eines Assistenzsystems mit einem chirurgischen Navigationssystem gemäß einer bevorzugten Ausführungsform der vorliegenden Offenbarung, welche für eine Knieoperation angepasst ist;

Fig. 2 ein schematisches 3D-Anatomie-Modell eines Patienten mit digitalisierten anatomischen Landmarken und einer gescannten 3D-Oberflächenaufhahme der Knieoperation aus Fig. 1;

Fig. 3 eine schematische perspektivische Ansicht einer 3D-Oberflächenscanners eines Navigationssystems einer weiteren Ausführungsform in Form einer 3D- Scan-Kamera, welche eine Gelenkfläche eines Kniegelenks erfasst und eine Ansicht eines 3D-Anatomie-Modells über einen Bildschirm ausgibt; und

Fig. 4 ein Flussdiagramm eines Navigationsverfahrens gemäß einer bevorzugten Variante.

Die Figuren sind schematischer Natur und sollen nur dem Verständnis der Erfindung dienen. Gleiche Elemente sind mit denselben Bezugszeichen versehen. Die Merkmale der verschiedenen Ausführungsformen können untereinander ausgetauscht werden.

Detaillierte Beschreibung bevorzugter Ausführungsformen

Fig. 1 zeigt in einer schematischen perspektivischen Ansicht ein chirurgisches Assistenzsystem 100 gemäß einer bevorzugten Ausführungsform mit einem Roboter 102 und einem chirurgischen Navigationssystem 1 gemäß einer bevorzugten Ausführungsform.

Das chirurgische Navigationssystem 1 wird für eine chirurgische Knieoperation bei einem Patienten P eingesetzt, in welcher eine Resektion einer Tibia durchgeführt wird und ein Implantat in das Kniegelenk eingesetzt wird. Bei diesem chirurgischen Eingriff am Patienten ist eine genaue und zeitaktuelle Navigation entscheidend.

Das Navigationssystem 1 weist für eine Erfassung einer Lage eines Starrkörpers ein optisches Trackingsystem 2 auf, das dafür angepasst ist, den Patienten P und auch ein medizinisches Instrument mit angebrachtem Starrkörper zu erfassen und nachzuverfolgen. In dieser Ausführungsform weist das Trackingsystem 2 eine Stereokamera für eine dreidimensionale Erfassung auf und eine nachgeschaltete Verarbeitungseinheit, um auf Basis der Stereo-Aufnahme eine Lage im Raum zu ermitteln. Der von dem Trackingsystem 2 zu erfassende Starrkörper ist in Form eines Trackers 10 mit drei zueinander beabstandeten Kugeln ausgebildet, so dass das Trackingsystem mittelbar über die Erfassung der Lage der Tracker 10 auf die Lage des zugehörigen Abschnitts, an dem der Tracker 10 jeweils angebracht ist, zu schließen.

Das Navigationssystem 6 weist ferner einen mobilen, handgeführten 3D- Oberflächenscanner 6 auf, der speziell dafür angepasst ist, eine 3D- Oberflächenaufnahme 8 einer intrakorporalen Anatomie des Patienten P von Interesse, hiervon dem Kniegelenk mit den entsprechenden Knochen zu erstellen. Der 3D- Oberflächenscanner 6 selbst wird durch das Trackingsystem 2 mittels angebrachtem Tracker 10 nachverfolgt, so dass eine Lage des 3D-Oberflächenscanners 6 im Raum durch das Trackingsystem 2 bestimmbar ist. Mit anderen Worten nimmt der 3D- Oberflächenscanner 6 eine dreidimensionale Oberfläche eines Kniegelenks des Patienten P auf (mit Farbinformationen und gewissermaßen Höheninformationen, ähnlich denen einer dreidimensionalen Landkarte) wobei während der 3D- Oberflächenaufnahme 8 die Lage des 3D-Oberflächenscanners 6 erfasst wird. Da die Lage der 3D-Oberflächenaufhahme 8 zu der Lage des 3D-Oberflächenscanners 6 bestimmbar ist, und weiter, die Lage des 3D-Oberflächenscanners zu der Stereokamera des Trackingsystems 2, ist auch eine Transformation zwischen der 3D- Oberflächenaufhahme 8 und dem Trackingsystem bestimmbar. Da ferner das Kniegelenk des Patienten P über die Tracker 10 erfasst wird (hier das Femur und die Tibia), ist auch die Lage des Beins als Körperabschnitt des Patienten zu dem Trackingsystem 2 bestimmbar bzw. eine Transformation von der Lage der einzelnen Knochen zu dem lokalen Koordinatensystem (KOS) des Trackingsystems 2 bestimmbar. Damit ist insgesamt, über die Verknüpfung der beiden Transfonnationen die Lage (des lokalen KOS) des Femurs und die Lage (des lokalen KOS) der Tibia und damit des Kniegelenks gegenüber der 3D-Oberflächenaufhahme 8 bestimmt.

Konkret ist eine Steuereinheit 12 mit einem Prozessor, einem RAM-Modul, und einem Speicher dafür angepasst, die 3D-Oberflächenaufhahme 8 und die erfasste und nachverfolgte Lage des 3D-Oberflächenscanners 6 und des Patienten P zu verarbeiten und über die Lage des 3D-Oberflächenscanners 6 eine Lage der 3D- Oberflächenaufnahme 8 gegenüber dem Patienten P zu bestimmen und ein virtuelles, digitales 3D-Anatomie-Modell 14 des Patienten P, an der bestimmten Lage um die 3D- Oberflächenaufnahme 8 zu ergänzen. Durch die Erfassung des realen Beins des Patienten P durch das Trackingsystem 2 kann eine Korrelation eines virtuellen Modells des Beins des Patienten P mit dem realen Bein durchgeführt werden, so dass auch die Lage der 3D-Oberflächenaufnahme 8 zu der Lage des virtuellen Beins bestimmbar ist Man kann auch sagen, dass in dem virtuellen bzw. digitalen Raum ein 3D-Anatomie- Modell 14 des Patienten P gespeichert ist, etwa als schematisches biomechanisches Achsenmodell (Achse mit Anfangs- und Endpunkt als Repräsentation eines Knochens) mit weiteren Landmarkenpunkten, und dieses 3D-Anatomie-Modell 14 des Patienten P um die gescannte Oberfläche von Interesse, nämlich den Eingriffebereich, ergänzt wird, um detailliertere digitale Informationen zu diesem Eingriffebereich bereitzustellen und eine Navigation intraoperativ zu unterstützen.

Eine Ansicht des ergänzten digitalen 3D-Anatomie-Modells 14 des Patienten P kann dann computergestützt über ein Display als Ausgabevorrichtung 16, beispielsweise einen OP-Monitor, für eine chirurgische Navigation visuell ausgegeben werden, um ein zeitaktuelles und ein um die intrakorporale Anatomie des Patienten P von Interesse ergänztes digitales 3D-Anatomie-Modell 14 für eine Navigation bereitzustellen. Damit entfallt eine aufwändige Registrierung und dennoch kann ein 3D- Anatomie-Modell 14 des Patienten P bereitgestellt werden, das im Bereich des Eingriffs besonders genaue anatomische Strukturinformationen für eine Navigation bietet.

Das chirurgische Navigationssystem 1 stellt die besondere Möglichkeit bereit dass in verschiedenen Lagen und damit verschiedenen Blickwinkeln und Ansichten eine 3D-Oberflächenaufnahme 8 erstellt werden kann, um das 3D-Anatomie-Modell 14 des Patienten P hinsichtlich relevanter aufgenommener Bereiche zu erweitern und zudem eine Genauigkeit durch redundante Informationen und einem Optimierungsalgorithmus weiter zu verbessern.

Der 3D-Oberflächenscanner 6 ist so gestaltet dass ein Chirurg diesen problemlos in der Hand halten und führen kann. Dafür weist der 3D-Oberflächenscanner 6 einen Handgriff 18 für ein manuelles Ergreifen und Führen auf, sowie einen Akkumulator, um autark Energie bereitzustellen und ein Funk-Kommunikationsmodul 20 in Form eines WLAN- oder Bluetooth-Modul für eine Datenübertragung an die Steuereinheit 12 auf, um kabellos gestaltet zu sein.

In einer anderen, nicht dargestellten Ausführungsform kann das chirurgische Navigationssystem auch einen Roboter mit einem Roboterarm aufweisen, an dem der 3D-Oberflächenscanner 6 als Endeffektor angebunden ist, um automatisch die 3D- Oberflächenaufhahme 8 in zumindest einer vordefinierten Lage des 3D- Oberflächenscanners 6 zu erstellen, insbesondere um nach einem Abtast-Algorithmus oder -Muster mehrere 3D-Oberflächenaufnahme 8 in mehreren Lagen des 3D- Oberflächenscanners 6 zu erstellen. Wenn der 3D-Oberflächenscanner 6 robotergeführt ist, so kann mittels eines Algorithmus oder mit vordefinierten Lagen der 3D- Oberflächenscanner 6 in diese Lagen automatisch verfahren werden und eine Aufnahme erstellt werden. Diese Konfiguration hätte auch den Vorteil, dass eine Lage des 3D-Oberflächenscanners 6 nicht nur über einen Tracker erfassbar ist, sondern zudem über eine Kinematik gegenüber einer Roboterbasis, wobei eine Transformation zwischen der Roboterbasis und dem Trackingsystem bestimmbar ist Auf diese Weise kann auch bei Unterbrechung einer Sicht auf den Tracker die Lage des 3D- Oberflächenscanners 6 bestimmt werden. In einer Speichereinheit 22 des Navigationssystems 1 ist das virtuelle digitale 3D- Anatomie-Modell 14 eines Beinabschnitts des Patienten P inklusive Knie gespeichert Der 3D-Oberflächenscanner 6 erstellt die 3D-Oberflächenaufnahme 8 des Kniegelenks, wobei über einen separaten und starr an dem Knochen eingeschraubten Tibia-Tracker 24 und Femur-Tracker 26 der entsprechende Knochen durch das Trackingsystem 2 erfassbar ist Die Steuereinheit 12 ist dafür angepasst, auf Basis des nachverfolgten Tibia-Trackers 24 und des Femur-Trackers 24 die 3D-Oberflächenaufnahme 8 zu dem nachverfolgten Beinabschnitt zu korrelieren.

Fig. 2 zeigt beispielhaft eine Erstellung eines Patientenmodells bzw. 3D-Anatomie- Modell 14 auf Basis einer gescannten 3D-Oberflächenaufnahme und digitalisierten anatomischen Landmarken im Falle einer Navigation bei dem Eingriff am Knie des Patienten aus Fig. 1. Auf der linken Seite von Fig. 2 sind schematisch die realen Knochen des Patienten dargestellt, während auf der rechten Seite das 3D-Anatomie- Modell 14 des Patienten P abgebildet ist mit geraden biomechanischen Achsen 28 (näherungsweise) entlang einer Längsachse der beiden Knochen und mit anatomischen, für den Eingriff relevanten Landmarkenpunkten (in der Fig. 2 zur Veranschaulichung mit Bezugszeichen mit einem Strich ergänzt), insbesondere um Hütt-, Knie- und Kniescheibenmitten, Schienbeinmitte und/oder Knöchelmitte. An dem realen Kniegelenk des Patienten P wird durch den 3D-Oberflächenscanner 6 lokal eine 3D-Oberflächenaufnahme 8 als Teilausschnitt des Kniegelenks erstellt und diese wird, wie vorstehend beschrieben, in dem 3D-Anatomie-Modell 14 des Patienten P ergänzt, hier angedeutet mit der eingefügten 3D-Oberfläche rechts in Fig. 2.

Auf Basis dieses 3D-Anatomie-Modell 14 des Patienten P kann der Chirurg dann eine Operation durchführen und entsprechen navigieren, aber auch bei einem Einsetzen eines Implantats eine Position einer Soll-Lage des Implantats gemäß einem Eingriffeplan, der die Soll-Lage im 3D-Anatomie-Modell 14 des Patienten P widergibt, mit einer Ist-Lage des Implantats vergleichen und bei Bedarf Korrekturen vornehmen, um intraoperativ die Ist- an die Soll-Lage anzupassen.

Fig. 3 zeigt ein chirurgisches Navigationssystem 1 gemäß einer weiteren bevorzugten Ausführungsform. In dieser ist eine 3D-Kamera mit einem Strahler für strukturiertes Licht und mehrere RGB-SensorerV RGB-Kameras als 3D- Oberflächenscanner 6 eingesetzt. An dieser ist wieder ein Starrkörper als Tracker 10 angeordnet, um die Lage über das Trackingsystem 2 zu erfassen. Die 3D-Kamera erstellt in seinem Sichtfeld 32 die Oberflächenaufnahme in Form einer Punktwolke im dreidimensionalen Raum, um die geometrischen Informationen zu erhalten, und wobei zudem eine Farbinformation gemäß der aulgenommenen Farbe hinzugefügt wird, um eine Navigation noch intuitiver zu gestalten. Das Kniegelenk wird mit dem 3D- Oberflächenscanner 6 gescannt und die Steuereinheit 12 ist dafür angepasst, aus der 3D-Oberflächenaufnahme den Knochen zu erkennen und nur diesen als relevanten Teil der 3D-Oberflächenaufnahme zu bestimmen und dem 3D-Anatomie-Modell 14 des Patienten hinzuzufügen.

Die Steuereinheit 12 erstellt in dieser Ausführungsform zwei Ansichten des 3D- Anatomie-Modells 14, einmal der Tibia und einmal des Femurs, und gibt diese Auf einem Bildschirm für eine Navigation aus. So erhält der Chirurg unmittelbar und intraoperativ die für seinen Eingriff relevanten Informationen und kann eine Operation und ein Einsetzen eines Implantats noch besser durchführen.

Fig. 4 zeigt ein Flussdiagramm eines Navigationsverfahrens zur Verwendung bei einem chirurgischen Eingriff bei einem Patienten P, insbesondere bei einer Tibia- Resektion.

In einem ersten Schritt S1 wird eine Lage des Beins des Patienten P mit dem Kniegelenk, an dem der Eingriff durchgeführt wird, und eines beim Eingriff eingesetzten medizinischen Instrument mittels eines Trackingsystems 2 eines Navigationssystems 1 erfasst und nachverfolgt. Die Lage wird insbesondere in Form von drei Positionskoordinaten und drei Winkelangaben für eine Orientierung gespeichert.

In einem Schritt S2 erfolgt eine Erstellung einer 3D-Oberflächenaufhahme 8 einer intrakorporalen Anatomie des Patienten P von Interesse mit einem 3D- Oberflächenscanner 6 und eine Bestimmung einer Lage des 3D-Oberflächenscanners 6 durch das Trackingsystem 2 zum Zeitpunkt der 3D-Oberflächenaufhahme 8 über an dem 3D-Oberflächenscanner 6 angebrachte Tracker 10 und ein Nachverfolgen im Raum. In einem nachfolgenden Schritt S3 wird, über die erfasste Lage des 3D- Oberflächenscanners 6, eine Lage der 3D-Oberflächenaufhahme 8 gegenüber dem Patienten P bestimmt bzw. berechnet. Insbesondere kann zunächst eine Lage der 3D- Oberflächenaufnahme 8 gegenüber dem 3D-Oberflächenscanner 8 und weiter, gegenüber dem Trackingsystem 2 und weiter gegenüber dem Patienten P bestimmt werden. Diese Transformation zwischen dem Patienten P und der 3D- Oberflächenaufhahme wird durch eine Steuereinheit 12 verwendet, um in einem Schritt S4 ein digitales 3D-Anatomie-Modell (14) des Patienten (P) an genau dieser bestimmten Lage um die 3D-Oberflächenaufhahme 8 zu ergänzen. Mit anderen Worten wird das virtuelle, digitale 3D-Modell deines Köperabschnitts des Patienten um die 3D- Oberflächenaufnahme 8 lagekorrekt ergänzt.

Schließlich wird durch die Steuereinheit 12 eine Ansicht des virtuellen ergänzten digitalen 3D-Anatomie-Modells 14 des Patienten P erstellt, beispielsweise eine Frontansicht, eine Seitenansicht, eine perspektivische Ansicht und diese visuelle Ansicht des ergänzten digitalen 3D-Anatomie-Modells 14 wird dann für eine chirurgische Navigation über eine Ausgabevorrichtung 16 in Form eines OP-Monitors 34 ausgegeben bzw. angezeigt, um ein intraoperatives, zeitaktuelles und um die intrakorporale Anatomie des Patienten(P von Interesse ergänztes digitales 3D- Anatomie-Modell 14 für eine Navigation bereitzustellen.

Bezuaszeichenliste

1 Chirurgisches Navigationssystem

2 Trackingsystem

4 Medizinisches Instalment

6 3D-Oberflächenscanner

8 3D-Oberflächenaufnahme

10 Tracker/ Marker

12 Steuereinheit

14 3D-Anatomie-Modell

16 Ausgabevorrichtung

18 Handgriff

20 Funk-Kommunikationsmodul

Speichereinheit

24 Tibia-Tracker

26 Femur-Tracker

28 Achse

30 Landmarkenpunkt

32 Sichtfeld

34 Monitor

36 Lichtquelle für strukturiertes Licht

38 RGB-Sensor 1', 2', 3', 4', 5', 6', 7', 8', 9' Landmarkenpunkte

100 Chirurgisches Assistenzsystem

102 Roboter

104 Medizinischer Endeffektor

P Patient

S1 Schritt Bestimmen Lage des Beins Patienten und eines Instruments

S2 Schritt Erstellen 3D-Oberflächenaufnahme mit 3D-Oberflächenscanner und

Erfassen Lage des 3D-Oberflächenscanners S3 Schritt Bestimmen einer Transformation zwischen der 3D-Oberflächenaufnahme und dem Patienten

S4 Schritt lagekorrektes Ergänzen eines 3D-Anatomie-Modells um 3D-Oberflächenaufnahme

S5 Schritt Ausgeben einer Ansicht des ergänzten 3D-Anatomie-Modells des Patienten durch OP-Monitor