Künstliche Intelligenz im HNO-Bereich

02.03.2026

Künstliche Intelligenz (KI) hat sich in der Medizin zu einem der dynamischsten Innovationsfelder entwickelt. Sie unterstützt Ärzte dabei, Muster in riesigen Datenmengen zu erkennen, Diagnosen zu präzisieren, Therapien individueller zu planen und Eingriffe sicherer zu machen. Von der Radiologie über die Onkologie bis zur Chirurgie verändert KI die Art, wie Krankheiten verstanden und behandelt werden – oft leise im Hintergrund, aber mit spürbarem Nutzen für Patienten. Besonders spannend ist, wie stark diese Technologien inzwischen auch in der Hals-Nasen-Ohren-Heilkunde angekommen sind, wo sie Diagnostik, Navigation und operative Präzision auf ein neues Niveau heben.

Hierzu konnte die Redaktion des Leading Medicine Guide mit dem HNO-Spezialisten Professor Dr. med. Marco Domenico Caversaccio sprechen.

Professor Dr. med. Marco Domenico CaversaccioCopyright "Gianni Pauciello, HNO-Klinik Inselspital"

Genutzt wird die KI-Technologie vor allem für Forschung, Textbearbeitung und ähnliche Aufgaben. KI ist längst ein Geschäft geworden, kein Experiment mehr, und die großen Anbieter verdienen inzwischen erheblich daran. Gleichzeitig verschwimmen die Grenzen zwischen künstlicher Intelligenz, Realität und virtuellen Inhalten immer stärker.

Trotz aller Möglichkeiten bleibt der Umgang mit KI anspruchsvoll. Man darf sich nicht blind darauf verlassen, denn das Persönliche fehlt. Im direkten Gespräch entstehen andere Einblicke, Zwischentöne, Rückfragen – etwas, das Maschinen nicht ersetzen können. Zudem kursiert im Internet viel Unsinn, was den kritischen Umgang umso wichtiger macht. Interessant ist, wie sich frühere Prognosen relativiert haben. Vor rund zwanzig Jahren wurde etwa behauptet, die Radiologie werde durch KI weitgehend automatisiert. Tatsächlich ist in den USA die Zahl der Radiologen um vier Prozent gestiegen. KI hat dort eher neue Geschäftsfelder geschaffen, statt Arbeitsplätze zu ersetzen. Technische Entwicklungen bleiben dennoch faszinierend, besonders im medizinischen Bereich. Auch in der HNO-Medizin stellt sich die Frage, wie KI künftig helfen kann – etwa bei der früheren oder präziseren Erkennung von Tumoren im Kopf-Hals-Bereich durch Mustererkennung in Bildgebung oder Pathologie. Erste Ansätze existieren bereits, und die Forschung arbeitet intensiv daran weiter“, stellt Prof. Dr. Caversaccio am Anfang unseres Gesprächs fest.

KI kann Tumore im Kopf-Hals-Bereich früher und präziser erkennbar machen, weil sie an mehreren Stellen des diagnostischen Prozesses Fähigkeiten besitzt, die weit über das hinausgehen, was das menschliche Auge oder klassische Auswertungsmethoden leisten können. In der Bildgebung analysieren KI-Modelle CT-, MRT- oder PET-Aufnahmen nicht nur oberflächlich, sondern mathematisch Punkt für Punkt. 

In diesen Daten steckt enormes Potenzial für digitale Biopsien und Mustererkennung, die sich Jahr für Jahr weiterentwickeln. Ziel ist es, radiologische Informationen mit pathologischen Daten zu verknüpfen, um Tumore früher und präziser zu erkennen. Würden sich oberflächliche oder kleine Tumore zuverlässig in der Bildgebung identifizieren lassen, könnten invasive Verfahren wie die Panendoskopie in Zukunft seltener notwendig werden. Noch ist das nicht Realität, aber verschiedene Forschungsgruppen – etwa in Würzburg oder Heidelberg – arbeiten intensiv daran, Radiomics, Pathomics und Big-Data-Analysen zusammenzuführen. Die Idee dahinter ist klar: Je mehr Daten ein System sieht, desto besser kann es Muster erkennen. Ähnlich wie große Datenplattformen lernen KI-Modelle mit jeder neuen Untersuchung dazu. Dennoch steht die praktische Umsetzung noch am Anfang. Viele Konzepte sind technisch beeindruckend, aber der Schritt in die breite klinische Anwendung ist komplex. Tumore unterscheiden sich stark voneinander, was die Entwicklung universeller Modelle erschwert. In einigen Bereichen, wie der Planung und Anpassung von Cochlea-Implantaten, ist man bereits weiter – dort lassen sich diagnostische Daten und intraoperative Strategien schon heute enger verzahnen“, erläutert Prof. Dr. Caversaccio.


Radiomics, Pathomics und Big-Data-Analysen stehen für einen neuen Ansatz in der modernen Medizin: Sie verwandeln Bild- und Gewebedaten in hochpräzise, auswertbare Informationen. Radiomics extrahiert tausende Merkmale aus CT-, MRT- oder PET-Bildern und macht Muster sichtbar, die Rückschlüsse auf Tumorbiologie, Aggressivität oder Therapieansprechen erlauben. Pathomics arbeitet nach dem gleichen Prinzip, jedoch auf Basis digitalisierter Gewebeproben, in denen KI feinste Zellstrukturen und Veränderungen erkennt. Big-Data-Analysen verknüpfen diese Informationen mit genetischen Daten, Laborwerten und klinischen Verläufen. So entsteht ein umfassendes Datenbild, das Diagnosen präziser macht, Therapien individueller planbar werden lässt und langfristig dazu beitragen kann, unnötige Eingriffe zu vermeiden.


KI verändert die präoperative Planung in der HNO-Chirurgie grundlegend, weil sie aus komplexen Bilddaten deutlich mehr Informationen herausfiltern kann, als es mit rein menschlicher Interpretation möglich wäre.

Foto Robotergestützte Elektrodenimplantation OTODRIVE und OTOARM
Copyright "Gianni Pauciello, HNO-Klinik Inselspital"

Bei Eingriffen an der Schädelbasis oder im Mittelohr, wo Millimeter über Sicherheit und Funktionserhalt entscheiden, analysiert KI radiologische Aufnahmen so präzise, dass selbst feinste anatomische Varianten, Risikostrukturen oder potenzielle Engstellen sichtbar werden. Dadurch entstehen virtuelle Modelle, die den individuellen Verlauf von Nerven, Gefäßen oder luftgefüllten Räumen exakt abbilden und die Planung wesentlich verlässlicher machen. Besonders im Mittelohr, wo die Gehörknöchelchen, der Gesichtsnerv und das Innenohr extrem dicht beieinanderliegen, erhöht das die operative Sicherheit erheblich.

Hierzu erklärt Prof. Dr. Caversaccio: „In der chirurgischen Planung kommen heute verschiedene digitale Verfahren zum Einsatz, die vor allem auf präziser Segmentierung basieren. Strukturen wie der Nervus vestibularis, der Nervus facialis oder der Akustikusnerv lassen sich damit detailliert darstellen – teils halbautomatisch, teils vollautomatisch, je nach System. Diese Informationen können entweder mental in die OP-Strategie einfließen oder direkt in ein Navigationssystem eingespeist werden. Während des Eingriffs lässt sich dann millimetergenau erkennen, wie nah man sich an empfindlichen Strukturen befindet. Voraussetzung dafür sind hochpräzise Navigationssysteme, denn sobald man den Knochen verlässt und in bewegliche Bereiche wie den Liquorraum gelangt, sinkt die Genauigkeit auf etwa zwei Millimeter – ein Faktor, der stets berücksichtigt werden muss. Solche Navigations- und Segmentierungsverfahren werden im klinischen Alltag regelmäßig genutzt, oft in enger Zusammenarbeit mit der Neurochirurgie. Darüber hinaus existieren weitere Hilfsmittel wie Rapid-Prototyping-Modelle, die komplexe Schädelbasissituationen dreidimensional visualisieren und bei der Wahl des optimalen Zugangswegs unterstützen. Auch wenn diese Modelle nicht als KI gelten, erleichtern sie die räumliche Orientierung erheblich. Parallel dazu entwickeln sich digitale Konzepte wie Simulationen, virtuelle Trainingssysteme oder sogenannte Digital Twins weiter. Sie ermöglichen es, Operationswege vorab zu planen, Risiken zu markieren oder robotische Systeme präziser zu steuern. Augmented-Reality-Technologien könnten künftig zusätzliche Informationen direkt ins Sichtfeld des Chirurgen einblenden – ähnlich wie bei modernen Cockpits. Die zunehmende Digitalisierung des OP-Umfelds führt zu immer mehr verfügbaren Daten, die sinnvoll integriert werden müssen: Bildgebung, Navigation, physiologische Messwerte oder AR-Overlays. Trotz all dieser Entwicklungen bleibt klar: Die Verantwortung liegt immer beim Chirurgen. Digitale Systeme können unterstützen, visualisieren und warnen – aber sie ersetzen nicht die operative Erfahrung, das anatomische Verständnis und die situative Entscheidung im OP“.

Für viele Chirurgen kann die zunehmende Technisierung im OP tatsächlich eine Überforderung darstellen. Besonders die ältere Generation ist stark durch das Prinzip „Learning by doing“ geprägt – durch anatomische Präparate, praktische Erfahrung und ein intuitives räumliches Verständnis. Digitale Systeme, Simulationen und KI-gestützte Tools verändern diese Welt grundlegend. Dennoch bleibt klar: Gute Chirurgie beruht weiterhin auf anatomischem Wissen, räumlichem Vorstellungsvermögen und feinmotorischer Präzision. Manche Menschen besitzen einen ausgeprägten 3D-Blick und eine hohe taktile Sensibilität – Fähigkeiten, die auch modernste Technik nicht ersetzen kann.

Navigationssysteme unterstützen heute viele Eingriffe, bleiben aber passive Werkzeuge. Sie zeigen Positionen an, ähnlich wie ein Navigationsgerät im Auto, übernehmen jedoch keine aktive Steuerung. Der nächste Schritt wären Systeme mit Sensor-Aktuatoren, die Gewebe erkennen, Kräfte messen und Rückmeldung geben – doch diese Technologie steckt noch in den Kinderschuhen. Parallel dazu entwickeln sich Augmented-Reality-Lösungen, intraoperative Bildgebung und digitale Cockpit-Strukturen, die immer mehr Informationen in den OP bringen. Die Herausforderung besteht darin, diese Daten sinnvoll zu integrieren, ohne den Chirurgen zu überfrachten. Gleichzeitig birgt die Abhängigkeit von Technik Risiken. Wie beim Autofahren, wo viele Menschen ohne Navi kaum noch Orientierung haben, kann auch in der Medizin die eigene Kompetenz verkümmern, wenn man sich zu sehr auf Geräte verlässt. Deshalb bleibt die chirurgische Grundausbildung unverändert wichtig: Anatomiekenntnisse, praktische Übungen an Modellen oder Präparaten und das Erlernen manueller Fertigkeiten bilden weiterhin das Fundament. Die junge Generation wächst zwar selbstverständlich mit digitalen Welten auf, doch das ersetzt nicht die Notwendigkeit, das eigene Gehirn zu trainieren und unabhängige Entscheidungen treffen zu können. KI-Systeme können Muster erkennen, Daten vergleichen und unterstützen – aber sie schaffen selten Neues. Emotionale Intelligenz, Intuition und kreative Problemlösung bleiben menschliche Stärken. Das zeigt sich auch in Bereichen wie der Tinnitusforschung, wo Machine-Learning-Modelle trotz jahrelanger Arbeit kaum verlässliche Muster aus EEG-Daten extrahieren können, weil das individuelle Empfinden so unterschiedlich ist. Gleichzeitig gibt es Felder, in denen digitale Unterstützung bereits heute große Fortschritte ermöglicht: etwa bei Cochlea-Implantaten, wo Diagnostik, intraoperative Messungen und postoperative Fitting-Strategien immer präziser aufeinander abgestimmt werden können. Hier entsteht echte personalisierte Medizin. Insgesamt dienen digitale Systeme, KI und Robotik als wertvolle Add-ons – als Unterstützung, nicht als Ersatz. Die Verantwortung bleibt beim Chirurgen, der entscheidet, interpretiert und handelt“, so Prof. Dr. Caversaccio und ergänzt:

Durch moderne Messverfahren wie Impedanzanalysen (Messverfahren, mit denen man den elektrischen Widerstand von Gewebe oder Elektroden erfasst) und Neural-Response-Messungen (Verfahren, mit denen überprüft wird, ob der Hörnerv auf elektrische Reize reagiert) lässt sich bei Cochlea-Implantationen bereits während des Eingriffs abschätzen, welches Hörvermögen später erreichbar sein könnte. Die Cochlea ist tonotop aufgebaut, was die Zuordnung von Frequenzen erleichtert – von tiefen 125 Hertz bis hin zu 8 Kilohertz. Diese Struktur macht es möglich, anhand der intraoperativen Daten früh Hinweise auf die spätere Funktion zu gewinnen. Ob KI insgesamt zu weniger Komplikationen führt, hängt stark vom jeweiligen Anwendungsfeld ab. In einigen Bereichen gibt es bereits Studien, die zeigen, dass KI-gestützte Mustererkennung helfen kann, Diagnosen zu präzisieren oder unnötige Eingriffe zu vermeiden. Bei chronischer Rhinosinusitis etwa könnten radiologische Muster in Zukunft Hinweise auf bestimmte Ursachen wie Mukoviszidose liefern und so den diagnostischen Weg verkürzen. KI könnte dann unterstützen, ob eine Biopsie nötig ist, welche Therapie sinnvoll erscheint oder ob eine Operation vermieden werden kann. Solche Systeme sind in der Lage, aus großen Datenmengen Vorschläge abzuleiten – etwa welche Medikamente sinnvoll wären oder welche Behandlungsstrategie den größten Nutzen verspricht. Damit entsteht ein zusätzlicher Entscheidungsrahmen, der den klinischen Alltag unterstützen kann, ohne die ärztliche Verantwortung zu ersetzen“.

KI-gestützte Navigationssysteme bieten während endoskopischer Nasennebenhöhlen-Operationen einen deutlichen Mehrwert, weil sie nicht nur statische Bilddaten anzeigen, sondern diese aktiv interpretieren und in Echtzeit mit der individuellen Anatomie des Patienten abgleichen. 

Die praktische Weiterbildung im Umgang mit moderner OP-Technik beginnt klassisch an anatomischen Präparaten und Modellen. Für Eingriffe wie an den Nasennebenhöhlen stehen spezielle Trainingssysteme zur Verfügung, etwa das FACON-Modell oder anatomische Präparate, wie sie von der FMH (Foederatio Medicorum Helveticorum, Berufsverband der Schweizer Ärzte) vorgeschrieben sind. Erst wenn diese Grundlagen sicher beherrscht werden, folgt der schrittweise Einstieg in den OP-Bereich. Navigationssysteme gehören dort seit über zwanzig Jahren zum Standard, doch sie erfordern technisches Verständnis: Die Genauigkeit muss regelmäßig überprüft werden, und man muss einschätzen können, ob das System zuverlässig arbeitet. Mit zunehmender Erfahrung kommen weitere digitale Werkzeuge hinzu – etwa 3D-Darstellungen, das Einzeichnen von Tumoren oder kritischen Strukturen wie dem Nervus opticus, oder Funktionen wie ,Navigator-Control´, die bestimmte Bereiche schützen. Dieses Niveau wird in der Regel erst nach drei bis vier Jahren erreicht. Bei komplexen Tumoren, insbesondere an der Schädelbasis, arbeiten mehrere Fachrichtungen zusammen, etwa Neurochirurgie oder Kieferchirurgie. Auch hier spielt digitale Planung eine große Rolle: Bei Unterkieferrekonstruktionen wird die benötigte Knochenstruktur – häufig die Fibula – vorab digital vermessen, geplant und später intraoperativ exakt angepasst. Solche Planungs- und Navigationshilfen erleichtern die Orientierung und erhöhen die Präzision, werden aber nicht bei jedem Patienten eingesetzt. Einige Verfahren, wie die digitale Planung für Fibula-Transplantate, werden von den Krankenkassen übernommen und sind dadurch etabliert. Andere Technologien kommen nur bei komplexen Fällen zum Einsatz. Insgesamt zeigt sich jedoch deutlich, dass Bildgebung, Simulationen und digitale Planungshilfen zunehmend an Bedeutung gewinnen und die chirurgische Arbeit sinnvoll ergänzen“, verdeutlicht Prof. Dr. Caversaccio.


KI kann aus CT- und MRT-Daten präzise 3D-Modelle erzeugen, anatomische Varianten markieren und Risikostrukturen automatisch hervorheben. Dadurch entsteht eine deutlich intuitivere und sicherere Orientierung im OP. Während des Eingriffs erkennt das System kleinste Abweichungen vom geplanten Instrumentenpfad und warnt frühzeitig vor kritischen Bereichen, was Komplikationen reduziert. Gleichzeitig lernt die KI aus großen Datenmengen typische Gefahrenzonen vorauszusagen und passt das Navigationsmodell dynamisch an Veränderungen wie Blutungen oder Schleimhautschwellungen an – ein Vorteil, den klassische statische Bilddatensätze nicht bieten.


KI kann intraoperative Risiken in der HNO-Chirurgie deutlich früher und präziser sichtbar machen, weil sie während des Eingriffs kontinuierlich eine Vielzahl von Datenquellen analysiert und daraus Hinweise auf potenzielle Gefahren ableitet, die im menschlichen Blickfeld oft erst später erkennbar wären.

Foto Elektrocochleographie - Elektrische Messung der Aktivität der Cochlea (Gehörschnecke)
Copyright "Gianni Pauciello, HNO-Klinik Inselspital"

Bei Operationen an der Schädelbasis oder in unmittelbarer Nähe sensibler Strukturen wie dem Nervus facialis, dem Nervus cochlearis oder der A. carotis interna vergleicht KI in Echtzeit die aktuelle Instrumentenposition mit dem präoperativ erstellten 3D-Modell und erkennt selbst minimale Abweichungen vom geplanten Pfad. Sobald sich ein Instrument einer kritischen Struktur nähert, kann das System warnen, bevor diese überhaupt im endoskopischen Bild erscheint. Gleichzeitig ist KI in der Lage, anatomische Landmarken intraoperativ automatisch zu identifizieren – auch dann, wenn Blutung, Schleimhautschwellung oder Gewebeverschiebungen die Orientierung erschweren.

Ob KI tatsächlich Komplikationen verhindern kann, ist derzeit noch offen. In einigen Bereichen helfen digitale Verfahren bereits, Risiken besser einzuschätzen – etwa durch automatische oder halbautomatische Segmentierungen, die Nerven, Gefäße oder andere empfindliche Strukturen sichtbar machen. Diese Einzeichnungen unterstützen die Planung und erhöhen die Orientierung im OP, ersetzen aber nicht die chirurgische Erfahrung. Ähnlich wie in der plastischen Chirurgie, wo präoperative Fotos genutzt werden, um mögliche Ergebnisse zu visualisieren, können auch KI-gestützte Modelle Prognosen liefern. Doch wie bei einer Nasenkorrektur bleibt die Realität komplex: Weichteile, Mimik und individuelle Heilungsprozesse lassen sich nicht vollständig vorhersagen. Eine Planung kann zu 70 oder 80 Prozent stimmen – absolute Präzision ist kaum erreichbar. KI kann zudem das perioperative Management unterstützen, etwa bei der Auswahl geeigneter Medikamente oder bei der Einschätzung von Risiken. Solche Systeme könnten künftig Empfehlungen geben, basierend auf vergleichbaren Fällen und großen Datenmengen. Doch viele dieser Ansätze befinden sich noch im Stadium des ,Proof of Concept´. Die entscheidende Hürde ist die Translation in zugelassene Medizinprodukte. Regulatorisch sind die Anforderungen hoch: Systeme müssen eine sehr hohe Sensitivität und Spezifität nachweisen, bevor sie zugelassen werden. Besonders komplex wird es, wenn KI mit Robotik kombiniert wird – hier greifen strenge MDR-Regelungen der Klasse III. Für solche Anwendungen fehlen oft die großen Datensätze, die für eine Zulassung notwendig wären. Deshalb bleiben viele KI-Prototypen in der Forschung, während nur wenige den Weg in die klinische Routine finden. Niederschwellige digitale Tools, Simulationen oder Trainings-Apps sind dagegen weit verbreitet, weil sie keine hohe regulatorische Hürde haben. Doch echte KI-gestützte Systeme, die chirurgische Entscheidungen beeinflussen oder operative Schritte steuern, sind nach wie vor selten. Die Technologie entwickelt sich rasant, aber der Weg in die Praxis ist anspruchsvoll – besonders in hochsensiblen Bereichen wie der Schädelbasis-Chirurgie, wo maximale Genauigkeit unverzichtbar ist“, hält Prof. Dr. Caversaccio fest.


Damit KI-gestützte Systeme in der HNO-Medizin nicht zu einer Überabhängigkeit führen, muss von Anfang an klar definiert sein, welche Rolle sie im klinischen Alltag spielen: Unterstützung ja, Entscheidungshoheit nein. Ein zentraler Punkt ist die technische und inhaltliche Transparenz.


KI spielt bei Cochlea-Implantationen eine zunehmend zentrale Rolle, weil sie sowohl die technische Präzision des Eingriffs als auch die individuelle Hörprognose verbessert.

Foto Roboterassistierte Cochlea-Implantation HEARO (MED-EL)
Copyright "Gianni Pauciello, HNO-Klinik Inselspital"

Im Bereich der Hörgeräte spielt KI bereits heute eine spürbare Rolle. Moderne Systeme können Hintergrundgeräusche gezielt herausfiltern, Sprachsignale hervorheben und mithilfe neuronaler Netze individuelle Klangprofile erstellen. Die Geräte passen sich an Tonlagen, Umgebungen und persönliche Hörvorlieben an – von der Verstärkung bestimmter Frequenzen bis zur Optimierung von Musik- oder Sprachwahrnehmung. Die Entwicklung schreitet rasant voran, und die Industrie arbeitet intensiv daran, Hörgeräte und Sprachprozessoren immer stärker zu personalisieren. Da diese Technik nicht invasiv ist, gelangt sie vergleichsweise schnell auf den Markt und bietet vielen Menschen eine deutliche Verbesserung der Lebensqualität. Gleichzeitig bleiben Herausforderungen bestehen, etwa bei einseitiger Taubheit oder in der Tinnitusforschung. Tinnitus ist extrem individuell, was die Entwicklung verlässlicher KI-gestützter Lösungen erschwert. Bei einseitiger Taubheit kommen heute häufig Crossover-Systeme oder Cochlea-Implantate zum Einsatz, sofern die Voraussetzungen gegeben sind. Doch auch hier zeigt sich: Viele Ideen existieren, viele Studien laufen – aber die Umsetzung ist komplex. Ein besonders aktives Forschungsfeld betrifft die Stimme. Stimmlippen und Phonetik liefern wertvolle Hinweise, etwa auf Diabetes, neurodegenerative Erkrankungen oder frühe Tumorveränderungen. Mit Stroboskopie, Videoanalysen und KI-gestützter Mustererkennung entstehen neue diagnostische Möglichkeiten, die derzeit intensiv untersucht werden. Die Kombination aus Bildgebung, akustischen Daten und KI-Analyse eröffnet spannende Perspektiven. Parallel dazu entwickeln sich weitere Technologien wie die Fusion von CT- und MRT-Daten, Genomics und Pathomics. Auch die Robotik bleibt ein wichtiges Thema – allerdings ist der entscheidende Schritt noch nicht erreicht: eine KI, die selbstständig den optimalen chirurgischen Weg vorschlägt, Risiken bewertet und Komplikationen zuverlässig verhindert. In der Medizin ist das ungleich schwieriger als in industriellen Anwendungen, weil jeder Eingriff am Menschen individuelle Variablen mit sich bringt“, hebt Prof. Dr. Caversaccio hervor und betont zum Abschluss unseres Gesprächs:

Robotische Systeme dienen daher weiterhin als Assistenz, nicht als autonome Akteure. Sie unterstützen, begrenzen Risiken und erhöhen die Präzision, übernehmen aber keine vollständigen Operationen. Die Verantwortung bleibt beim Menschen. Gleichzeitig verändert die zunehmende Digitalisierung den Arbeitsalltag: Informationssysteme, Standardprozesse und Softwarelösungen geben immer stärker vor, wie Abläufe funktionieren. Das erleichtert vieles, führt aber auch dazu, dass Menschen sich an die Logik der Systeme anpassen müssen. In einer Welt, die immer stärker standardisiert wird, wächst die Gefahr, selbst ein Stück weit ,robotischer´ zu werden. Trotzdem bleibt klar: In der Medizin steht der Mensch im Mittelpunkt – als Patient und als Entscheider im OP. Technik kann unterstützen, strukturieren und präzisieren, aber sie ersetzt nicht die Erfahrung, Intuition und Verantwortung des Chirurgen“.

Herzlichen Dank, Professor Dr. Caversaccio, für diese informativen Einblicke zur KI im HNO-Bereich!