Prof. Hansen

Prof. Dr. Christian Hansen
Virtual and Augmented Reality Group
Aktuelle Projekte
Erforschung und Entwicklung eines hybriden AR Frameworks für die Projektionsanalyse und interaktive Fehlstellenbereinigung (hARPyie)
Laufzeit: 01.01.2025 bis 31.12.2027
Damit Projektionen auf nicht planaren Oberflächen visuell korrekt, sprich ohne unerwünschte Verzerrungen abgebildet werden, ist ein sogenanntes Warping notwendig. Dadurch passt sich die Projektion an die gegebene Oberfläche an. Jedoch können die Polynome und Splines, die dieses Warping beschreiben, nicht alle Wellen im Raum abbilden, wodurch es zu entarteten Projektionen kommen kann. Dies hat zur Folge, dass die entsprechenden Fehlstellen manuell bereinigt werden müssen.
Ein gängiger Einsatzort für AR ist die Montage. Durch die erweiterte Realität kann direkt am 3D Objekt auf Probleme hingewiesen werden und Hilfestellungen eingeblendet werden. Ähnlich dazu soll im beschriebenen Anwendungsfall eine AR-Brille genutzt werden, um den Kunden auf Fehlstellen aufmerksam zu machen und durch Visualisierungen Lösungen mittels AR bereitstellen, die der Kunde dann manuell durch Gesten ausführen kann. Somit kann der Kunde selbstständig und lösungsorientiert Fehlstellen bereinigen. Die AR-Brille bietet weiterhin den Vorteil der Telekommunikation. So kann die Firma DP im Zweifel einschreiten und auch remote weiterhelfen.
Erforschung und Entwicklung eines Virtual Reality Frameworks für das Training mittels flexiblen, tubulären Strukturen (FlexTube)
Laufzeit: 01.01.2025 bis 31.12.2027
In der beruflichen und universitären Ausbildung müssen den Lernenden oft komplexe Zusammenhänge vermittelt werden. Dies geschieht heute vor allem durch beschreibende Texte und illustrative Darstellungen in Lehrbüchern sowie durch die Einbindung digitaler Medien wie Videos und 3D-Animationen in den Unterricht.
Mit der Etablierung von Smartphones und Tablet-Computern in weiten Teilen der Gesellschaft entstehen neue Möglichkeiten, Wissen anschaulich zu vermitteln. Neue VR-Geräte wie die Meta Quest Pro oder die Apple Vision Pro ermöglichen es zudem, eine immersive virtuelle Realität (VR) zu erzeugen. Solche VR-basierten Umgebungen werden bereits in einer Vielzahl von Bildungsszenarien eingesetzt.
VR-Anwendungen sind klassischen Lernmethoden insbesondere dann überlegen, wenn es um die Vermittlung komplexer, räumlicher Zusammenhänge geht. Dabei treten in mechanischen oder medizinischer Lernkontexten sehr häufig tubuläre Strukturen (Schläuche, Gefäßsysteme, Versorgungs- und Drainagesysteme etc.) auf, deren Zusammenhang räumlich und oft auch in einem zeitlichen Kontext (Verdrehung von Strukturen über einen definierten Zeitraum) verstanden werden muss, vgl. Abb. 1. In medizinischen Szenarien muss das Verknoten von tubulären Strukturen, z.B. chirurgischen Fäden, erlernt werden.
Zusammenfassend lässt sich sagen, dass derzeit VR-basierte Anwendungen fehlen, um mit tubulären Strukturen in einem VR-basierten Trainings- und Lernkontext zu interagieren. Deshalb sollen in dem vorgestellten Projekt die KMU LIVINGSOLIDS und die Arbeitsgruppe Virtual and Augmented Reality der Otto-von-Guericke-Universität Magdeburg ihre Kompetenzen ergänzen. So soll ein solches neuartige VR Framework erforscht und entwickelt werden. Dieses Framework soll explizit für die Interaktion mit diversen flexiblen, tubulären Strukturen ausgelegt sein. Um eine breite Anwendung sicher zu stellen, wird es an exemplarischen Trainingsszenarien aus der Automobilindustrie und der Medizin evaluiert.
Operativ-chirurgisch orientierte Forschungsvorhaben: Innovative und patientenspezifische Visualisierungstechniken für die perioperative Optimierung der onkologischen Chirurgie von perihilären Cholangiokarzinomen
Laufzeit: 01.01.2025 bis 31.12.2027
Preoperative planning in oncologic surgery of perihilar cholangiocarcininoma (pCCA) is essential due to a significant morbidity and mortality of these complex procedures and the very high individual variability of the liver anatomy.
The proposed project aims to optimize treatment of patients with biliary tumors using different technological approaches that all yield in the increase of resectability due to better preoperative planning, surgical preparation and intraoperative orientation, the reduction of complications and an overall improvement of patient care.
One goal is to enable a more precise preoperative visualization by optimized imaging using latest photon-coutning detector computed tomography (PCD-CT) for lilar and especially biliary structures. Furthermore a preoperative planning support for surgeons using artificial intelligence will be developed.
The standard of care for intraoperative orientation in hepatobiliary surgery is the intraoperative ultrasound (IOUS). However, this technique is only partly useful in pCCA. Therefore, the project also aims to improve intraoperative orientation through virtual (VR) and augmented reality (AR) and 3D printing, which has been shown to the beneficial for the treatment of intrahepatic tumors and should also be explored for pCCA. Additionally, the IOUS has recently been fused with preoperative 3D reconstructions as commercially available Real Time Virtual Sonography (RVS). The technique has only been described for intrahepatic tumors regarding the liver. The combination of optimized preoperative visualization for pCCA with RVS IOUS may also enable an improved intraoperative orientation during these procedures.
All four work packages influence and build on one another to improve outcomes in these hightly complex oncologic surgeries for pCCA by optimizing current patient care and, with a consistent and lasting contribution, surgical treatment and training.
The unique advantage of the consortium is the established and successful research cooperation between clinicians and engineers as well as the high experience in the field of liver surgery, liver imaging and computer-aided evaluation and analysis.
Projektionsgekoppelter Druckmessfußboden zur Ganganalyse und Rehabilitation (RehaFLOOR)
Laufzeit: 01.01.2025 bis 31.12.2027
Das Ziel des Vorhabens ist die Erforschung und Entwicklung eines neuartigen Systems zur therapeutischen und diagnostischen Ganganalyse und –Rehabilitation auf Basis eines Mehrkanal-Projektionssystems in Kombination mit einem modular aufgebauten, großflächigen Druckmessfußboden (siehe Abbildung 1). Primäre Zielgruppe sind Patienten nach Schlaganfall, Unfall oder Amputation. Weitere Einsatzfelder ergeben sich in den Bereichen Neurologie, Orthopädie und Sportmedizin. Das Vorhaben zielt dabei insbesondere auf einen kostengünstigen und flächendeckenden einsetzbaren Lösungsansatz, der die Lücke zwischen der beobachtenden Ganganalyse im Bereich der therapeutischen Rehabilitation und den instrumentierten High-End Systemen im Bereich von Forschung und Spezialklinik schließt. Neben der Erforschung neuartiger Möglichkeiten zur Diagnose und Rehabilitation auf Basis des angestrebten innovativen Technologieansatzes, ist es daher vorrangiges Ziel die Hürden für den Einsatz der Technologie aus Kosten- und Anwendersicht derart zu reduzieren, dass ein breiter Einsatz in der therapeutischen Rehabilitation unter besonderer Berücksichtigung neuromuskulärer Komplexaufgaben mit minimiertem Zeitaufwand möglich wird. Für die einzelnen Praxen bedeutet dies ein erweitertes Angebot und die Sicherung bzw. Schaffung neuer Arbeitsplätze.
Industrie-in-Klinik-Plattform mediMESH - Modellvorhaben: Nutzergerechte Gestaltung einer Gestensteuerung für medizintechnische Geräte (IDLE) - Teilvorhaben: XR-Technologien für den Einbezug von Nutzern in frühe Entwicklungsphasen innovativer Medizintechniklösungen
Laufzeit: 01.05.2024 bis 30.04.2027
Das Teilvorhaben ist in das IDLE Gesamtvorhaben eingebettet, das die Erforschung und Entwicklung
textilbasierter, berührungsloser Interaktion in sterilen klinischen Umgebung zum Ziel hat. Das Teilvorhaben zielt darauf ab, nutzerzentrierte Entwicklung von Medizintechnik zu verbessern, indem innovative Ansätze mit Augmented und Virtual Reality (XR) Technologien erforscht werden. Medizinische Fehlerquoten von 5-15 % pro Krankenhausaufenthalt in Industrieländern, oft auf Probleme bei der Bedienoberfläche von Medizinprodukten zurückzuführen, unterstreichen die Dringlichkeit. Das Projekt hat zwei Hauptarbeitsstränge:
Der erste konzentriert sich auf die Entwicklung eines Gestensets zur Steuerung medizinischer Großgeräte. Systemanforderungen werden analysiert, Architektur und Schnittstellen spezifiziert. Dabei wird besonderes Augenmerk auf die Integration des Gestensteuerungssystems in virtuelle Prototypen gelegt. Dedizierte Interaktionsmethoden werden entwickelt und das Gesamtsystem wird im MRT-Szenario virtuell evaluiert.
Der zweite Arbeitsstrang erforscht den Einsatz von XR-Technologien für die nutzerzentrierte
Technologieentwicklung. Verschiedene XR-Methoden werden analysiert und nutzerzentrierte
Forschungsergebnisse generiert. XR-Technologien ermöglichen interaktive Tests von Prototypen und
stärken die Nutzerpartizipation. Zentraler Forschungsbestandteil ist die Untersuchung der Validität von Usability- und User Experience-Studien in virtuellen Umgebungen.
Insgesamt strebt das Projekt an, die Qualität und Effizienz der Medizinproduktentwicklung zu steigern, Fehler zu reduzieren und die Benutzerfreundlichkeit zu erhöhen. Es erweitert das Methodenrepertoire für nutzerzentrierte Technologieentwicklung. Das Ziel ist die Entwicklung technologisch exzellenter und wettbewerbsfähiger Lösungen für die Medizintechnikforschung und -industrie.
T!Raum - transPORT - transDIGITAL: Digitaler Zwilling für den Transferraum transPORT
Laufzeit: 01.11.2023 bis 31.10.2026
Mit transDIGITAL wird der Wissenschaftshafen Magdeburg dank eines „Digitalen Zwillings“ bald auch im virtuellen Raum erlebbar. Ein digitaler Zwilling ist ein dynamisches, interaktives Abbild der Wirklichkeit. Grundlage dafür ist unter anderem die Visualisierung der physischen Bausubstanz,
Infrastrukturanlagen und -einrichtungen sowie quartiersspezifischer Prozesse, Systeme und Angebote und die Möglichkeiten eines Informationsfeedbacks für die Bürger:innen und Besuchenden des
Stadtquartiers. Dies ermöglicht – neben einer erhöhten Sichtbarkeit für denlokalen Standort Magdeburg – die digitale Bereitstellung von Services, Wissen und Vernetzungsmöglichkeiten aus dem Wissenschaftshafen als urbanes Ökosystem und Hightech-Zentrum für Medizintechnik mit
überregionaler Wirk- und Sogkraft in die ganze Welt hinaus.
Dafür wird in einem ersten Schritt der digitale Zwilling als Austausch- und Kommunikationsplattform implementiert. Im weiteren Verlauf wird diese dann um verschiedene Interaktionsmöglichkeiten für die Öffentlichkeit ausgebaut und Wissen mit Interaktionsformaten bereitgestellt. Vielfältige
begleitende partizipatorische Transfer-, Austausch- und Experimentierformate zu verschiedenen Themen wie Wissenschaft (Medizintechnik, innovative Studierendenförderung), Wirtschaft (StartUps,
KMU, Nachwuchs) und Kultur, laden insbesondere die Zivilgesellschaft sowohl über den digitalen Zwilling als auch im Rahmen der Gesamtinitiative transPORT – Transferhafen Magdeburg zum Mitgestalten des Quartiers ein.
transDITIGAL ist eines von zehn Vorhaben der Gesamtinitiative transPORT – Transferhafen Magdeburg, gefördert durch das Bundesministerium für Bildung und Forschung in der Programmlinie T!Raum – Transferräume für die Zukunft von Regionen.
INSTANT - MAINTAIN -Entwicklung eines Multi-Applikator-Assistenzsystems für interventionelle Pankreaskrebsbehandlungen mit Platzierungsfehler-Kompensation
Laufzeit: 01.01.2024 bis 30.06.2026
Im Rahmen des FuE-Projektes soll ein Multi-Applikator-Assistenzsystem für CT-gesteuerte Interventionen von Pankreaskrebs entwickelt werden. Das System soll den Benutzer dabei unterstützen, multiple Applikatoren präzise zu platzieren, Platzierungsfehler zu erkennen und automatisch Vorschläge für eine optimale Adjustierung der Instrumente vorschlagen. Dafür sollen in dem Projekt neue Hard- und Softwarekomponenten entwickelt und miteinander verzahnt werden. Das System soll am Beispiel der Behandlung des Pankreaskarzinoms entwickelt und demonstriert werden. Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von einem KMU-Partner (CAScination Deutschland GmbH) und zwei Forschungspartnern (Otto-von-Guericke-Universität Magdeburg und Fraunhofer MEVIS - Institut für digitale Medizin). Das geplante Vorhaben ist auf eine Laufzeit von 2,5 Jahren ausgelegt. Das Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird von der ZPVP, Experimentelle Fabrik Magdeburg, betreut.
INSTANT-MUTAR - Multi-User-Training in Augmented Reality
Laufzeit: 01.07.2023 bis 31.12.2025
Im Rahmen des FuE-Projektes soll ein Multi-User-Augmented-Reality (AR)-System entwickelt werden, mit dem sich Interaktionen mehrerer Benutzer in der AR via Head-Mounted-Display (HMD) oder Tablet bzw. Smartphone darstellen sowie virtuelle Inhalte austauschen und manipulieren lassen.
Während des Projekts übernimmt die 3DQR GmbH die smartphone- bzw. tabletbasierte Umsetzung des Multi-User-Frameworks zur Erstellung der interaktiven AR-Szenen. Außerdem werden in Zusammenarbeit mit der OVGU mehrere Anwendungsschnittstellen (API) entwickelt, die gemeinsam nutzbare Funktionalitäten, wie z.B. die Netzwerkkommunikation und Serveranbindung, enthalten. Diese sollen die Einbindung der von der OVGU entwickelten und evaluierten Techniken für HMD-basierte AR vereinfachen und beschleunigen. Außerdem wird auf diese Weise eine plattformübergreifende (d.h. auf Smartphone/Tablet und AR-Brille) Multi-User-Nutzung ermöglicht.
Planning, Navigation and Monitoring Device for CT-guided Interventions (Großgeräteantrag)
Laufzeit: 01.11.2020 bis 31.10.2025
In this project within the framework of the DFG major research instrumentation programme, a planning/navigation device is to be interfaced with a computer tomograph so that it can act as a central information system. In addition, algorithms are to be developed to facilitate CT-supported interventions in cooperation with several research groups on the STIMULATE research campus. These include, for example, new deep-learning-based segmentation procedures and path optimization algorithms to support multi-applicator planning or new CT image reconstruction procedures to reduce artifacts while saving radiation dose.
Forschungscampus STIMULATE - Leitthema iCT
Laufzeit: 01.10.2020 bis 30.09.2025
Minimal-invasive CT-geführte Behandlungen von onkologischen Erkrankungen gehören inzwischen zum klinischen Alltag, was jedoch mit einer Erhöhung der Strahlenbelastung für Patienten und behandelndes medizinisches Personal einhergeht. Dabei werden aktuell CT-Systeme genutzt,
die ursprünglich für eine diagnostische Bildgebung konzipiert wurden, deren Anforderungen sich allerdings wesentlich von denen, welche an eine interventionelle Anwendung gestellt werden, unterscheiden. So dauern computertomografische Interventionen in der Regel länger als die diagnostische Bildgebung, neben dem Patienten befindet sich auch medizinisches Personal im Raum, und es wird unter Nutzung spezieller Instrumente ein therapeutischer Eingriff durchgeführt.
Das Ziel des Leitthemas iCT Solutions ist die Etablierung der interventionellen Computertomographie (iCT) als kurative Therapiemethode zur minimal-invasiven bildgeführten Behandlung bösartiger Lungen- und Leberläsionen. Dabei soll der Workflow von der Planung bis zur Nachkontrolle unter anderem in folgenden Aspekten optimiert werden:
- Entwicklung eines neuartigen Instrumententrackings mit dem Ziel der automatischen Bildnachführung
- Einsatz eines Leichtbauroboters zum Führen einer US-Sonde
- Verbesserung des Patientenzugangs durch die Umsetzung eines interventionsspezifischen Tisches
- Erforschung und Etablierung interventionsspezifischer Bildgebungsprotokolle, um eine Beschleunigung der Bildaufnahmen bei gleichzeitiger Dosisreduktion zu erreichen
Abgeschlossene Projekte
INSTANT - OnSXale - Erforschung von Darstellungs- und Interaktionsmethoden in verteilten XR-Lernumgebungen
Laufzeit: 01.09.2022 bis 28.02.2025
Im Rahmen des FuE-Projektes "OnSXale" sollen neuartige kollaborative und virtuelle Lernumgebungen für die Berufsausbildung in handwerklichen Berufen konzipiert, erforscht, entwickelt und evaluiert werden. Dabei werden Möglichkeiten erforscht und entwickelt, Lehrinhalte minimal-skeuomorph und didaktisch effektiv darzustellen. Außerdem werden Methoden zur verteilten, kollaborativen Bearbeitung von Ausbildungsaufgaben in virtuellen Umgebungen erforscht und entwickelt.
Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von der rhaug GmbH und der Otto-von-Guericke Universität Magdeburg. Das geplante Vorhaben ist auf eine Laufzeit von 2,5 Jahren ausgelegt. Das avisierte Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird entsprechend von der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH begleitet.
INSTANT - ProLeARn - Hardwareunabhängige Augmented Reality Umgebung - ARPSL
Laufzeit: 01.06.2022 bis 31.12.2024
Im Rahmen des Projektes "ProLeARn" soll ein projektorbasiertes Augmented Reality-System für den Einsatz in schulischen Lehr- und Lernszenarien erforscht und entwickelt werden. Das Ziel des Vorhabens ist eine kosteneffiziente Lösung, welche mehreren Nutzern den simultanen Zugang zu virtuellen Inhalten erlaubt. Dafür werden unterschiedliche Projektionsgeometrien entwickelt und Algorithmen zur Darstellung der Inhalte sowie zur Interaktion der Teilnehmer mit virtuellen Inhalten als auch untereinander erforscht.
Grundsätzlich löst das Projekt das Problem, für die Anwendung von Augmented Reality in großen Gruppen AR-Hardware (Head-Mounted Displays, Eingabegeräte) für jeden Teilnehmer vorhalten zu müssen. Durch eine skalierbare, projektionsbasierte Lösung, die ohne nutzerspezifische Zusatzgeräte verwendet werden kann, ist der Zugang für alle Teilnehmer sichergestellt. Aus wirtschaftlicher Sicht bietet das avisierte System eine kosteneffiziente, erweiterbare und damit nachhaltige Lösung für AR-Umgebungen.
INSTANT - Web-KI Prostate - KI-basierte Algorithmen zur Vorhersage für Prostataerkrankungen
Laufzeit: 01.04.2022 bis 31.12.2024
Im FuE-Projekt "Web-KI Prostate" soll eine webbasierte Applikation zur Vorhersage von Prostatakarzinomen und -erkrankungen mittel Künstlicher Intelligenz (KI) konzipiert, erforscht, entwickelt und evaluiert werden.
Indem durch die Applikation auf verdächtige Areale im Prostatagewebe verwiesen wird und eine Einschätzung zu einer Erkrankung abgegeben wird, soll die Versorgung der Patienten verbessert und die rradiologischen Fachkräfte entlastet werden. Der Einsatz der KI hat das Potenzial, die Diagnose für eine Vielzahl an Patienten zu verbessern, die Anzahl an unnötigen Biopsien zu verringern und Kosten zu reduzieren.
Die Realisierung der Entwicklung erfolgt in Kooperation zwischen der ALTA Klinik GmbH (KMU) und der Otto-von-Guericke-Universität Magdeburg. Das geplante Vorhaben ist auf eine Laufzeit von 2,5 Jahren ausgelegt. Das Vorhaben ist ein aus dem Netzwerk "INSTANT" hervorgegangenes FuE-Projekt und wird von dem Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH (Netzwerkmanagement) bei der Umsetzung begleitet.
INSTANT - MultiMersive: Erweiterte Interaktion mit virtuellen Inhalten (InterActVR)
Laufzeit: 01.08.2021 bis 31.07.2023
Im Rahmen des FuE-Projektes "InterMED" soll ein Software-Framework für die nahtlose Kombination unterschiedlicher Medienformate zum Zweck der medizinischen sowie industriellen Aus- und Weiterbildung konzipiert, erforscht, entwickelt und evaluiert werden. Der Fokus liegt hierbei auf dem Wechseln/Springen zwischen Formaten wie klassischen 2D-Videoinhalten, passiven und interaktiven 360°-Videoumgebungen sowie Virtual-Reality-Szenen. Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von einem KMU-Partner (VISUALIMPRESSION) und einem Forschungspartner (Otto-von-Guericke-Universität Magdeburg). Das geplante Vorhaben ist auf eine Laufzeit von 2 Jahren ausgelegt. Das avisierte Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird von der Netzwerkmanagementeinrichtung, der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH - Experimentelle Fabrik Magdeburg, bei der Umsetzung begleitet.
INSTANT - medAR / Medizinisches Tracking- und AR.Interaktionssystem (MTAI)
Laufzeit: 01.02.2021 bis 30.04.2023
Im Rahmen des FuE-Projektes "medAR" wird angestrebt, neue interaktive, stereoskopische Augmented-Reality (AR)-Darstellungstechniken für medizinische Anwendungen zu erforschen und zu entwickeln. So sollen minimalinvasive Interventionen mit Hilfe der projektorbasierten AR unterstützt werden, indem Navigationshinweise für operative Instrumente oder virtuelle anatomische Objekte mit Bewegungskompensation auf den Patienten dreidimensional überlagert und für mehrere Nutzer in Teilprojektionen dargestellt werden. Die Navigation der Instrumente wird von visuellem wie auch auditivem Feedback unterstützt.
Durch den universellen Charakter des Systemaufbaus sollen darüber hinaus weitere Anwendungsszenarien erschlossen werden, wie z.B. die Ersthelfer:innenausbildung oder die anatomische Ausbildung von Ärzt:innen. Bei der Ausbildung von Ersthelfer:innen können unterschiedliche Krankheitsbilder auf einem Dummy dargestellt und mittels eines zu entwickelnden Pointers manipuliert werden.
Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von einem KMU-Partner (domeprojection.com GmbH) und einem Forschungspartner (Otto-von-Gericke-Universität Magdeburg). Das Vorhaben ist auf eine Laufzeit von 2 1/4 Jahren ausgelegt.
Das Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird von der Netzwerkmanagementeinrichtung, der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH - Experimentelle Fabrik Magdeburg, bei der Umsetzung begleitet.
INSTANT - VR-MED / Virtual Reality-gestützte Notfallsimulation für die medizinische Aus- und Weiterbildung
Laufzeit: 01.03.2021 bis 28.02.2023
Im Rahmen eines Verbundprojektes, an dem die Firma 2tainment GmbH und die Fakultät für Informatik (FIN) der Otto-von-Guericke Universität Magdeburg beteiligt sein sollen, wird ein neuartiger Virtual-Reality(VR)-Simulator entwickelt. In erster Linie soll eine Software-gestützte Simulation von Diagnostik- und Behandlungsabläufen erreicht werden. Das F&E-Projekt zielt auf den Einsatz von VR-Technologie und Simulationsalgorithmen für ausgewählte notfallmedizinische Trainingsmaßnahmen sowie die dafür notwendigen medizinischen Geräte ab. Ziel ist es, die notfallmedizinische Versorgung in Deutschland im Hinblick auf die Qualität der Trainingsmaßnahmen erheblich zu verbessern, indem der VR-Simulator zukünftig als Ausbildungsunterstützung für angehende Ärzte und Sanitäter dienen soll. Das avisierte Vorhaben ist ein aus dem Netzwerk kooperative Systeme (NekoS) hervorgegangenes FuE-Projekt und wird von der Netzwerkmanagementeinrichtung, der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH, bei der Umsetzung begleitet.
Improving Spatial Perception for Medical Augmented Reality with Interactable Depth Layers
Laufzeit: 01.09.2019 bis 31.08.2022
Incorrect spatial interpretation is still one of the most common perceptional problems in medical augmented reality (AR). To further investigate this challenge, our project will elaborate on new methods that can improve the spatial perception for medical AR. Existing approaches are often not sufficient to explore medical 3D data in projected or optical see-through AR. While aiming at providing additional depth information for the whole dataset, many current approaches clutter the scene with too much information, thus binding valuable mental resources and potentially amplifying inattentional blindness.
Therefore, we will develop and evaluate new visualization ans interaction techniques for multilayer AR. Our objective is to determine if depth layer decompositions help to better understand spatial relations of medical 3D data, and if transparency can facilitate depth perception for multi-layer visualizations. In addition, we will investigate whether methods for multimodal and collaborative interaction can help to reduce the amount of currently displayed AR information. The results of this project should gain new insights for the representation of multilayer information in medical AR. These insights could be used to enhance established AR visualization techniques, to increase its usability, and thus to reduce risks during AR-guided medical interventions.
Development of Augmented and Virtual Multi-User Applications for Medical-Technical Exchange in Immersive Rooms (AVATAR)
Laufzeit: 01.09.2018 bis 31.05.2022
The exchange of surgical experience and competence nowadays mainly takes place at conferences, through the presentation of surgical videos and through the organisation of visits to each other. Complex manual skills and surgical techniques have to be newly developed, trained and passed on to younger surgeons or colleagues. With the methods currently used, this exchange is very costly and time-consuming.
In this project, VR interaction and visualization techniques will be developed to improve the exchange of experience and competence between medical professionals. In a virtual reality, several users are to train collaboratively - simultaneously and in real time. The positions of locally distributed persons will be determined using hybrid tracking systems based on ultra-wideband technologies and inertial sensors. On this basis, VR training scenarios are designed, implemented in a multi-user communication system and clinically evaluated over distance.
The innovation of this project is the combination of collaborative interaction and visualization techniques with hybrid tracking technologies in an advanced multi-user communication system. The project results should form a basis for the development of future VR-based communication and simulation systems in medicine.
Next Generation of Surgical Simulators for Surgical Planning, Training and Education
Laufzeit: 01.11.2019 bis 31.12.2021
The aim of the project "Next Generation of Surgical Simulators for Surgical Planning, Training and Education" is to prepare an EU application in the field of "Health, demographic change and well-being". The aim is to apply for a Marie-Sklodowska Curie action, more precisely an ITN (Innovative Training Network). The applicants share the opinion that the improvement of surgical training is becoming more and more important in surgery. As patients get older, these procedures often become more complex and risky. Surgical simulators on today's market cannot reflect the reality and complexity of surgery, nor are they at an acceptable price level. The planned EU project aims precisely at this problem. An open-source framework for the simulation of surgical interventions is to be developed, which can be extended by research institutions and companies and used scientifically and commercially.
VR/AR-basierter Explorer für die medizinische Ausbildung
Laufzeit: 01.06.2019 bis 31.12.2021
Mit der Etablierung von Smartphones und Tablet-Computern in weiten Teilen unserer Gesellschaft ergeben sich neue Möglichkeiten, Wissen anschaulich zu vermitteln. Viele der neueren Geräte ermöglichen es auch, eine immersive virtuelle Realität (VR) zu schaffen oder die Realität mit virtuellen Elementen in Form von Augmented Reality anzureichern. Solche VR/AR-basierten Umgebungen werden bereits in einer Vielzahl von Trainingsszenarien, insbesondere in der Pilotenausbildung, eingesetzt, basieren aber auf stationären, hochpreisigen Komponenten, z.B. VR-Höhlen, und erfordern spezielle stationäre VR/AR-Hardware.
In diesem Projekt sollen VR/AR-Lösungen für die medizinische Grundausbildung untersucht werden, die auf der Verwendung erschwinglicher mobiler Eingabegeräte basieren. Ziel ist es, Lernenden den Zugang zu dieser neuen Form der digitalen Wissensvermittlung zu ermöglichen. Die virtuellen Inhalte sollen direkt mit bestehenden Lehrbüchern verknüpft werden, um diese didaktisch anzureichern und sinnvoll mit digitalen Medien zu ergänzen. Im Rahmen dieses Projektes möchten sich die Projektpartner auf die medizinische Grundausbildung konzentrieren, insbesondere auf die Vermittlung von medizinisch-technischem Wissen in Anatomie und Chirurgie. Darüber hinaus soll eine Software entwickelt werden, die es Lehrern ermöglicht, mit Hilfe eines Autorentools selbst neue Lernszenarien zu erstellen.
Dieser Text wurde mit DeepL übersetzt
A VR-UI for Virtual Planning and Training Applications over Large Distances
Laufzeit: 01.11.2019 bis 31.10.2021
In this international ZIM project, the consortium wants to concentrate on the research and development of Virtual Reality User Interfaces (VR-UIs). The application focus will be on virtual planning and training applications in medicine. With the solution envisaged in this project, physicians are to be able to communicate over long distances (intercontinental between Germany and Canada), distributed and in groups of up to 5 users and exchange medical skills. From a technical point of view, the VR-exploration of medical case data (text, image and video data) and the annotation of the data in VR as well as the VR-selection and manipulation of the data should be in the foreground. Successful implementation requires an interdisciplinary consortium of UI experts (UCDplus GmbH, University of Waterloo) and medical VR software developers (Luxsonic Technologies Ltd., Otto-von-Guericke University Magdeburg).
Biofeedback-based AR system for Medical Balance Training
Laufzeit: 01.11.2019 bis 31.10.2021
The therapy of impaired balance is usually done with medication in combination with physiotherapeutic training. The MediBalance Pro medical device from MediTECH Electronic GmbH has successfully established itself on the market. However, it is currently only used in specialized therapy centers for dizziness treatment and is limited there only to a training of the control of the equilibrium focus. In this international ZIM project, the existing hardware is to be equipped with an advanced AR-based operating and game interface. ln addition, the system is to be expanded with a multiphysiological sensor system. Within the scope of the project, a prototype for a new medical device will be developed.
Intelligente Einlegesohle für Interaktionsanwendungen
Laufzeit: 01.10.2017 bis 31.03.2021
In this project a novel interaction approach will be investigated, which enables the operation of software via simple foot-based gestures. This enables the user to operate the software by foot, but at the same time they can fully concentrate on the actual work process using their hands. In surgical applications in particular, this reduces the risk for the patient as the surgeon does not have to touch potentially unsterile input devices.
The project will be established as a joint project between Thorsis Technologies and the research campus STIMULATE of the Otto-von-Guericke University. The primary objective is to develop the necessary hardware and software components to provide functional verification in the context of surgical applications. A basic prerequisite for the acceptance of the insole as an interaction medium for a wide range of applications is the uncomplicated applicability and compatibility of the insole with standard footwear.
Automated Online Service for the Preparation of Patient-individual 3D Models to Support Therapy Decisions
Laufzeit: 01.11.2016 bis 31.12.2020
To provide hospitals with tools for the preparation of patient-individual 3D models of organs and pathologic structures, an automated online service shall be developed in this research project in co-operation with the company Dornheim Medical Images. Therefore, a clinical solution using the example of oncologic therapy of the prostate will be investigated. In this context, the Computer-Assisted Surgery group develops techniques for improved image segmentation and human-computer interaction.
Augmented Reality-gestützte 3D-Laparoskopie
Laufzeit: 01.07.2017 bis 30.06.2020
Die Einführung der 3D-Technologie hat zu einer erheblich verbesserten Orientierung, Präzision und Geschwindigkeit in der laparoskopischen Chirurgie geführt. Sie erleichtert die laparoskopische partielle Nephrektomie auch bei Nierentumoren in komplizierterer Lage. Nicht jeder Nierentumor ist anhand seiner Topographie leicht zu erkennen. Dafür gibt es verschiedene Gründe. Zum einen können Nierentumore nicht über den Parenchymrand hinausragen, zum anderen ist die Niere von einer Bindegewebskapsel umschlossen, die manchmal nur sehr schwer vom Parenchym zu trennen ist.
Andererseits besteht das Hauptziel der Tumorchirurgie darin, den karzinomatösen Herd vollständig zu entfernen. Daher wird die offene Operation regelmäßig bei Tumoren durchgeführt, die entweder nicht wesentlich aus dem Parenchym herausragen oder intraoperativ starke Adhäsionen mit der Nierenkapsel aufweisen, wie oben beschrieben. In Bezug auf die Behandlungssicherheit für die Niere führt diese Technik zu grundsätzlich ähnlichen Ergebnissen. Allerdings ist der größere Schnitt mit erheblichen Nachteilen für die Lebensqualität des Patienten verbunden.
In diesem Projekt wollen wir einen Augmented-Reality-Ansatz entwickeln, bei dem Schnittbilder (MRT oder CT) mit 3D-Laparoskopie-Bildern in Echtzeit verschmolzen werden. Das Forschungsprojekt zielt darauf ab, die Einbringung und Identifizierung von Markern, die sich besonders für die Bildgebung eignen, als Grundlage für eine bildgesteuerte Therapie zu etablieren.
Dieser Text wurde mit DeepL übersetzt
3D-Projektionsdarstellungen zum Training und zur Unterstützung medizinischer Eingriffe
Laufzeit: 01.04.2017 bis 30.04.2020
Die Projektionstechnologie hat im Zuge der voranschreitenden Digitalisierung aller Lebens- und Arbeitsbereiche in den letzten zehn Jahren eine starke Weiterentwicklung erlebt. Die Fähigkeit, lichtstarke und großflächige Projektionen zu erzeugen, wird bereits in vielen Bereichen genutzt, z. B. für Simulations- und Trainingsanwendungen in der Fahrzeug- und der Luftfahrtindustrie. Hochqualitative vielkanalige Projektionen erlauben es, die reale Umgebung mit virtuellen Objekten ohne Nutzung zusätzlicher Hardware zu erweitern (Augmented Reality) oder sogar zu ersetzen (Virtual Reality).
Im Rahmen eines Verbundprojektes, an dem die Firma domeprojection.com® GmbH und der Forschungscampus STIMULATE der Otto-von-Guericke Universität beteiligt sind, wird angestrebt, 3D-Projektionsdarstellungen zum Training und zur Unterstützung medizinischer Eingriffe zu erforschen und ihre klinische Anwendung vorzubereiten.
Auf Basis eines kameragestützten 3D-Multi-Projektorsystems sollen an der Otto-von-Guericke-Universität Magdeburg neue medizinische 3D-Visualisierungs- und Interaktionstechniken erforscht werden. Dies beinhaltet die Entwicklung neuer Algorithmen zum Rendering und zur Visualisierung von virtuellen 3D-Objekten, die Evaluation und Entwicklung geeigneter 3D-Interaktionstechniken sowie die systematische Evaluierung der entwickelten Verfahren in medizinischen Einsatzszenarien.
Verbesserung der räumlichen Wahrnehmung für medizinische Augmented Reality Anwendungen durch illustrative Visualisierungstechnik und auditives Feedback
Laufzeit: 01.04.2016 bis 30.04.2020
This project shall offer new findings for the encoding of spatial information in medical augmented reality (AR) illustrations. New methods for AR distance encoding via illustrative shadows and glyphs shall be investigated. Furthermore, context-adaptive methods for the delineation as well as methods for the encoding of spatial information via auditive feedback are developed. The results can be used to reduce incorrect spatial interpretations in medical AR, to expand existing AR visualization methods and to support physicians during image-guided interventions to reduce the risk of future medical interventions.
Hometraining für die Therapie kognitiver Störungen
Laufzeit: 01.03.2017 bis 28.02.2020
Der Kostendruck auf Rehabilitationskliniken führt dazu, dass Schlaganfallpatienten nach 3-4 Wochen aus der Klinik entlassen werden und die weitere Therapie über Praxen niedergelassener Neuropsychologen und Ergotherapeuten erfolgt. Die für eine effiziente Folgetherapie notwendige Behandlungsintensität wird jedoch nach Entlassung aus der Rehabilitationsklinik unter aktuellen Bedingungen nicht mehr gewährleistet. Um therapeutische Effekte zu erzielen, muss die begonnene Therapie durch ein intensives, möglichst tägliches Training fortgesetzt werden.
Ziel dieses Forschungsprojektes ist die Entwicklung eines Systems zur Therapie kognitiver Störungen für Patienten nach Schlaganfall im Hometraining. Hierfür sollen Benutzungsschnittstellen mit neuen Interaktions- und Visualisierungtechniken entwickelt werden. Weiterhin soll im Rahmen von Studien geprüft werden, ob Belohnungs- und Motivationstechniken aus dem Bereich der Computerspiele auf die neue Therapiesoftware übertragen werden können. Ein Element der Motivations- und Reward-Strategie z.B. ist die geeignete Darstellung der Leistungsdaten des Patienten.
Bei dem Vorhaben handelt es sich um ein Kooperationsprojekt zwischen dem Forschungscampus STIMULATE an der Otto-von-Guericke Universität, dem Universitätsklinikum Leipzig und der Hasomed GmbH.
Forschungscampus STIMULATE -> Forschungsgruppe Therapieplanung und Navigation
Laufzeit: 01.01.2015 bis 31.12.2019
In der FG "Therapieplanung und Navigation" werden Algorithmen und klinisch einsetzbare Prototypen zur Pllanung und Navigation minimal-invasiver Eingriffe entwickelt. Die Forschungsschwerpunkte liegen im Bereich Instrumententracking, Kalibrierung, Augmented Reality Visualisierung, und Mensch-Maschine-Interaktion unter sterilen Bedingungen.
Navigated Thermoablation of Liver Metastases in the MR
Laufzeit: 01.02.2015 bis 31.12.2019
This project of the research campus STIMULATE deals with the investigation of an MR-compatible navigation system for MR image-guided thermoablation of liver metastases. Central contributions are methods for the improved navigation under MR imaging, especially for the intra-interventional adjustment of prospective planning data. The navigation system shall be operable by a projector-camera system which is to be developed in this project.
Navigated Thermoablation of Spine Metastases
Laufzeit: 01.01.2015 bis 31.12.2019
The investigation of a radio-based navigation system for the support of percutaneous thermoablations is in the center of this project in the research campus STIMULATE. The navigation system shall be used and evaluated in the context of navigated spine interventions, especially for the treatment of spine metastases, with the aid of the angiography system Artis zeego.
Evaluation of Projector-Sensor Systems for Medical Applications
Laufzeit: 01.12.2016 bis 30.11.2019
In this project, 3D interaction and visualization techniques for projector-based visualization of VR and AR contents shall be investigated. A focus is on the fast and accurate calibration of modern projector-sensor systems. The project results shall give information about the forms in which the systems are suitable for medical applications.
Fuß-Auge-Interaktion zur Steuerung medizinischer Software unter sterilen Bedingungen
Laufzeit: 01.05.2017 bis 30.04.2019
Die Verwendung medizinischer Bilddaten zur interventionellen Navigationsunterstützung erfordert ein immer höheres Maß an Interaktion zwischen Operateur und Computer. Der sterile, knappe Arbeitsraum begrenzt dabei die zur Verfügung stehenden Eingabemodalitäten. Die im medizinischen Alltag oft anzutreffende Delegation von Aufgaben an assistierendes Personal ist fehleranfällig und unterliegt Schwankungen in der Effektivität, abhängig von der Qualifikation und Erfahrung der Beteiligten. Berührungslose Eingabegeräte geben dem Operateur zwar die benötigte direkte Schnittstelle an die Hand, erfordern jedoch zeitintensive Unterbrechungen der Hauptaufgabe zum Zweck der Softwarebedienung.
Das Ziel dieses Projektes ist die Erforschung von berührungslosen Eingabegeräten und Mensch-Maschine Schnittstellen. In diesen Zusammenhang soll insbesondere die Nutzererfahrung (User Experience, UX) für den Gebrauch solcher Schnittstellen verbessert werden. Ziel ist die Entwicklung eines Eingabesystems, welches auf mehrere Modalitäten zurückgreift, die sich mit den Anforderungen im OP vereinbaren lassen.
Um das Thema umfassend zu beleuchten ist eine enge Zusammenarbeit mit Prof. Dr. Lennart Nacke der University of Waterloo (Ontario, Kanada) als Experten im Bereich Human-Computer-Interaction und User Experience vorgesehen. Professor Nacke forscht im Bereich verschiedener Eingabesysteme mit Spezialisierung auf physiologischen Sensoren und Eyetrackern.
2D-Kartendarstellungen zur Unterstützung neurochirurgischer Eingriffe
Laufzeit: 01.03.2017 bis 28.02.2018
Für die Planung komplexer chirurgischer Eingriffe werden 3D-Modelle der relevanten anatomischen und pathologischen Strukturen verwendet. In erster Linie wurden diese Modelle für die präoperative Operationsplanung entwickelt. Aufgrund der oft sehr hohen geometrischen Komplexität und des damit verbundenen Interpretations- und Interaktionsaufwands für den Betrachter kann das Potenzial von 3D-Modellen bei chirurgischen Eingriffen nur bedingt ausgeschöpft werden.
Während eines 12-monatigen Forschungsaufenthaltes am Surgical Planning Laboratory, Department of Radiology, Brigham and Womens Hospital, Harvard Medical School, Boston, USA, soll dieses Problem für neurochirurgische Eingriffe genauer analysiert werden. Dazu soll eine neue Methode zur 2D-Kartendarstellung zur Navigationsunterstützung bei neurochirurgischen Eingriffen konzipiert, entwickelt und evaluiert werden. Es sollen Algorithmen erforscht werden, die klassifizierte, gewichtete neurochirurgische Daten für eine 2D-Kartendarstellung liefern. Basierend auf diesen Algorithmen soll ein Prototyp für die Visualisierung relevanter neurochirurgischer Daten in Form einer 2D-Kartendarstellung erstellt werden.
Dieser Text wurde mit DeepL übersetzt
Segmentierung von 3D Ultraschalldaten
Laufzeit: 01.12.2015 bis 31.12.2016
In diesem Forschungsprojekt sollen neue Algorithmen zur Segmentierung von Strukturen in 3D Ultraschalldaten entwickelt werden. Ein Fokus liegt dabei auf der robusten Segmentierung der Schilddrüse im Rahmen nuklearmedizinischer Untersuchungen.
Augmented Reality Visualisierung für die 3D Laparoskopie
Laufzeit: 15.10.2015 bis 15.10.2016
In diesem Forschungsprojekt wird ein Augmented-Reality-Visualisierungsverfahren konzipiert, entwickelt und klinisch evaluiert. Hierbei werden virtuelle 3D Planungsmodelle der Niere (Tumore, Gefäße) in ein 3D Laparoskopiebild mit Hilfe geeigneter Visualisierungstechniken eingeblendet (Augmented Reality).
AngioNav: Planning of Vascular Interventions
Laufzeit: 01.04.2014 bis 31.08.2016
In der Angiologie und interventionellen Radiologie werden Eingriffe häufig über das Gefäßsystem des Menschen durchgeführt, u.a. um Gefäßerkrankungen zu therapieren oder ein spezielles Therapeutikum gezielt im Körper zu platzieren. Für die Behandlung werden Katheter eingesetzt, die durch den behandelnden Angiologen über das Gefäßsystem des Patienten zum Ziel navigiert werden. Für die Navigation des Katheters ist die Kenntnis der Morphologie der Gefäßstrukturen von hoher Bedeutung. Zur ersten Orientierung werden prä-interventionelle Schnittbilder (CT, MRT) verwendet. Die Navigation des Katheters erfolgt über die interventionelle Bildgebung, in der Regel mittels 2D Fluoroskopie. Da es sich hierbei um Projektionsbilder handelt, enthalten sie keinerlei Tiefeninformationen. Deshalb ist gerade bei komplexen Eingriffen die Zuhilfenahme von prä-interventionellen Daten in vielen Fällen auch während der Intervention nötig, um die Position und Orientierung des Katheters zu interpretieren und eine optimale Zielführung zu gewährleisten. Für die Generierung der interventionellen Planungsdaten ist die Entwicklung eines Software-Assistenten zur Planung vaskulärer Interventionen, insbesondere zur Segmentierung komplexer Gefäßstrukturen, notwendig.
Optimierung eines Sensors zur berührungslosen Gestensteuerung von medizinischer Software
Laufzeit: 01.10.2015 bis 31.12.2015
In diesem Forschungs- und Entwicklungsprojekt wird ein optischer Sensor zur berührungslosen Gestenerkennung im Rahmen einer Nutzerstudie evaluiert. Die gewonnen Erkenntnisse werden zur Verbesserung der Gestenerkennungsrate des Sensor eingesetzt.
Evaluierung von Algorithmen zur Segmentierung von Lebermetastasen
Laufzeit: 01.03.2015 bis 30.06.2015
Für die Planung und Durchführung von RF-Ablationen in der Leber ist die Kenntnis von Durchmesser, Form und Volumetrie von Lebermetastasen von hohem Interesse. In diesem Projekt sollen geeignete Algorithmen aus dem Algorithmen-Framework ITK gefunden, geeignet parametrisiert, und an CT-Datensätzen der Leber evaluiert werden. Das Verfahren ist mittlerweile im klinischen Einsatz.
Forschungscampus STIMULATE -> Computerassistierte Chirurgie
Laufzeit: 01.03.2013 bis 31.12.2014
Der Magdeburger Forschungscampus STIMULATE ist ein Vorhaben, das im Rahmen der Förderinitiative "Forschungscampus - öffentlich-private Partnerschaft für Innovationen" durch das BMBF gefördert wird.
Den Fokus von STIMULATE stellen Technologien für bildgeführte minimal-invasive Methoden in der Medizin dar. Das Ziel besteht in der Verbesserung medizinischer Behandlungsmethoden sowie in der Eindämmung der Kostenexplosion im Gesundheitswesen. Dabei werden schwerpunktmäßig altersbedingte Volkskrankheiten aus den Bereichen Onkologie, Neurologie sowie Gefäßerkrankungen betrachtet. Langfristig soll sich das Vorhaben STIMULATE zum "Deutschen Zentrum für bildgestützte Medizin" entwickeln.