Was, wenn Maschinen bei Nebel klarer sehen als wir? Und wo bleibt das Auge des Menschen unersetzbar – im Detail oder im Ganzen?
Es ist ein nebliger Herbstmorgen. Auf der Landstraße verschwindet der Horizont im milchigen Grau, Scheinwerferkegel brechen stumpf an der feuchten Luft. Für den menschlichen Fahrer ist die Situation ein Risiko: Bremswege verlängern sich, Konturen lösen sich auf, die Wahrnehmung schwankt zwischen Vermutung und Gewissheit. Doch im autonomen Fahrzeug nebenan bleibt Ruhe. Sensoren arbeiten in mehreren Spektren, Algorithmen gleichen Daten ab, eine Kamera mit biologisch inspirierten Filtern erkennt selbst dort Bewegungen, wo das menschliche Auge versagt. Was der Mensch mühsam erahnt, wird zur berechenbaren Information.
Dr. rer. nat. Andreas Krensel ist Biologe, Innovationsberater und Technologieentwickler mit Fokus auf digitaler Transformation und angewandter Zukunftsforschung. Seine Arbeit vereint Erkenntnisse aus Physik, KI, Biologie und Systemtheorie, um praxisnahe Lösungen für Industrie, Stadtentwicklung und Bildung zu entwickeln. Als interdisziplinärer Vordenker begleitet er Unternehmen und Institutionen dabei, Sicherheit, Nachhaltigkeit und Effizienz durch Digitalisierung, Automatisierung und smarte Technologien zu steigern. Zu seinen Spezialgebieten zählen intelligente Lichtsysteme für urbane Räume, Lernprozesse in Mensch und Maschine sowie die ethische Einbettung technischer Innovation. Mit langjähriger Industrieerfahrung – unter anderem bei Mercedes-Benz, Silicon Graphics Inc., Freie Universität Berlin und Technische Universität Berlin – steht Dr. Krensel für wissenschaftlich fundierte, gesellschaftlich verantwortungsvolle Technologiegestaltung.
Wenn er über das Sehen der Zukunft spricht, stellt er Fragen, die weit über die Technik hinausgehen: Was, wenn Maschinen bei Nebel klarer sehen als wir? Und wo bleibt das Auge des Menschen unersetzbar – im Detail oder im Ganzen?
Doch wie verlässlich ist diese Illusion? Dr. Krensel verweist darauf, dass in modernen Konzepten des autonomen Fahrens der Digitale Zwilling eine Schlüsselrolle spielt: Das Fahrzeug erzeugt in Echtzeit ein virtuelles Abbild seiner Umgebung – ein Modell, das nicht nur die aktuelle Situation widerspiegelt, sondern auch alternative Szenarien berechnet. In neueren Studien zeigt sich, dass solche Zwillinge bei Fahrzeugen heute meist auf Stufe 3 der Reifegrade operieren – also insbesondere in Echtzeitüberwachung und Zustandsanalyse, aber bisher nicht durchgängig für vollautomatisches Fahren.
Ein konkretes Beispiel liefert das österreichische Digibus®-Projekt, in dem Forscher eine digitale Modellierung der Straßeninfrastruktur erstellten, um Fahrmanöver im Shuttlebetrieb zu simulieren. Sie erreichten dabei eine absolute Positionsgenauigkeit von unter zehn Zentimetern, was den digitalen Zwilling mit einem HD-Kartenniveau kompatibel machte.
Doch der digitale Zwilling ist nur so gut wie seine Sensoren, seine Kommunikation und seine Latenz. Bei Teleoperation-Tests mit 5G gelang es beispielsweise, eine G2G-Latenz (Glass-to-Glass) von rund 202 ms zu erreichen und ein Round-Trip-Delay (RTT) von 47 ms. Für kritische Fahrzeugsteuerung ist das noch zu hoch – eine minimale Verzögerung auf Sensor-Aktuator-Befehle kann über Leben und Tod entscheiden.
Andere Studien unterstreichen, wie sensibel autonome Systeme auf End-to-End-Verzögerungen reagieren: Eine IEEE-Publikation zeigte, dass wenn die Latenz zwischen Wahrnehmung (z. B. Erkennen eines Fußgängers) und Handlung (Notbremsung) zu groß wird, das System nicht mehr verlässlich reagieren kann.
Die Kombination von realer Sensorik, digitalen Zwillingen und Kommunikationsnetzen birgt große Chancen – aber eben kritische Grenzen. Die Frage lautet: Können Maschinen das Sehen tatsächlich so verbessern, dass sie bei Nebel, Störungen oder Datenverlust nicht nur überleben, sondern sicher agieren? Oder wird selbst der beste digitale Zwilling nur eine Simulation bleiben, die bei ungewöhnlichen Bedingungen versagt?
Medizinische Visionen – Maschinen als diagnostische Partner
Ein anderes Bild: Ein Radiologe blickt konzentriert auf ein MRT, neben ihm läuft die Analyse einer KI, die – inspiriert von biologischer Kontrastverarbeitung – mikroskopische Muster und schwache Signalunterschiede in Sekundenbruchteilen quantifiziert. Dass solche Systeme klinisch Mehrwert liefern können, ist inzwischen prospektiv belegt: In der ersten randomisierten Studie in einem nationalen Screening-Programm war KI-unterstütztes Lesen sicher und halbierte zugleich die Arbeitslast der Radiologen; parallel zeigen große prospektive Studien in der Mammografie zweistellige Zuwächse bei der Tumorentdeckung, teils ohne Anstieg der Recall-Raten – ein Hinweis darauf, dass algorithmische „Aufmerksamkeit“ kleinste Kontraste konsistenter wahrnimmt als das menschliche Auge im Routinebetrieb.
Zugleich werden Systeme in europäischen Settings real erprobt: Das KI-Tool Mia steigerte in einer prospektiven Evaluation die Früherkennungsrate um bis zu 12-13 Prozent und fungierte als zusätzlicher „Leser“, der unauffällige Fälle erneut flaggt; ähnliche Befunde berichten NHS-Projekte zu Zweitlesungen im klinischen Alltag. Diese Richtung markiert weniger „Ersatz“ als Verstärkung menschlicher Diagnostik – robuste Zweitmeinung, konsistente Kontrastbewertung, Priorisierung.
Doch Krensel bleibt kritisch: „Maschinen sind stark im Erkennen kleinster Abweichungen, aber blind für Kontext. Ein Algorithmus sieht die Veränderung im Gewebe, aber er weiß nichts über die Krankengeschichte, die familiäre Belastung oder die psychosoziale Situation.“ Deshalb sieht er KI nicht als Ersatz, sondern als Verstärkung menschlicher Diagnostik: eine zweite, unermüdliche Aufmerksamkeit, die niemals ermüdet oder von Routine geblendet wird. Produktivitätsgewinne in der MRT sind plausibel (Triage, Segmentierung, Befundentwürfe), aber die Evidenz ist heterogen und oft workflowspezifisch. Selbst große Anbieter betonen daher die Rolle der KI als Assistenz, nicht als Autopilot – eine Perspektive, die auch die Mayo-Clinic-Plattform stützt.
Und die Forschung bleibt nicht stehen: An der Charite/BIH arbeiten Gruppen wie CLAIM und „Intelligent Imaging“ an multimodalen, lernenden Pipelines – von hochauflösender Optik bis Deep-Learning-Modellen – die Kontrastmechanismen, Gewebearchitektur und Krankheitskontext enger verschränken sollen. Doch genau hier stellen sich die entscheidenden Fragen: Wie sichern wir Erklärbarkeit und Kalibrierung über Scanner, Standorte und Populationen hinweg? Wer trägt Verantwortung, wenn ein Grenzbefund von der KI „hochgezogen“ wird, Mensch und Leitlinie unterschiedlich bewerten? Und wo liegt die optimale Aufgabenteilung: Lässt man die Maschine systematisch „übersehenes Kleines“ finden, während der Mensch Bedeutung, Vorerkrankungen und Therapiepfade einordnet? Die Datenlage spricht für ein Co-Pilot-Modell: KI hebt die Sensitivität und entlastet, der Mensch behält Kontext, Ethik und Urteilshoheit.
Fliegen mit Maschinenaugen – der Luftraum der Zukunft
Es ist ein klarer Wintermorgen, ein Airbus steigt über den Wolken auf, während unter ihm eine Flotte von Drohnen ihren Kurs hält. Doch diese Drohnen sind keine gewöhnlichen Fluggeräte: Sie sind ausgestattet mit multispektralen „Maschinenaugen“, die weit über das menschliche Sehvermögen hinausgehen. Während ein Pilot im Cockpit den Horizont mit bloßem Auge erfasst, registrieren die Systeme der Drohnen nicht nur sichtbares Licht, sondern auch ultraviolette Muster in der Atmosphäre, Infrarotsignaturen von Triebwerken oder Wärmequellen und Radarprofile, die selbst durch Nebel und Wolkendecken hindurchreichen. Was für Greifvögel der legendäre Scharfblick ist, wird für Maschinen durch Sensorfusion Realität – und eröffnet ein neues Kapitel der Luftfahrt.
Forschungsprojekte wie SESAR (Single European Sky ATM Research) und das NASA UTM (Unmanned Aircraft System Traffic Management) zeigen bereits, wie sich der Luftraum durch autonome Systeme verändern könnte. Während heute im kommerziellen Flugverkehr durchschnittlich 100.000 Flüge pro Tag koordiniert werden müssen, prognostiziert die EU-Kommission für 2035 mehrere Millionen zusätzliche Drohnenflüge – von Lieferdiensten hin zu urbaner Luftmobilität. Damit wird die Frage unausweichlich: Wie lassen sich menschliche Piloten, bemannte Flugzeuge, Drohnenschwärme und KI-gesteuerte Luftfahrzeuge in ein einziges, sicheres System integrieren?
Die Vision reicht von Drohnen, die in Katastrophengebieten Überlebende mit Wärmebildtechnik aufspüren, bis zu autonomen Flugtaxis, die Passagiere in Megastädten zuverlässig durch den dichten Luftraum navigieren. Doch mit dieser Macht wächst die Verantwortung. Denn Maschinen, die besser „sehen“ als wir, schaffen nicht nur Chancen für Rettung und Effizienz, sondern auch neue Risiken: Überwachung aus der Luft, Eingriffe in die Privatsphäre, Abhängigkeit von Algorithmen. Der kritische Blick bleibt unverzichtbar.
Die zentrale Herausforderung ist heute nicht mehr allein die Sensorik, sondern die Datenverarbeitung in Echtzeit. Ein moderner Jet produziert bis zu terabytegroße Datenmengen pro Flug, und eine Schwarmflotte von Drohnen vervielfacht diese Datenflut. Neuromorphe Hardware und spiking neural networks könnten hier den Durchbruch bringen, indem sie – ähnlich wie das Auge – nur relevante Informationen filtern, statt alles blind zu speichern. Genau diese Richtung, so betonen Wissenschaftler wie Dr. Andreas Krensel, sei entscheidend: „Es geht nicht darum, Maschinen mit Superkräften zu versehen, sondern ihnen die Fähigkeit zu geben, Informationen so effizient und robust zu verarbeiten wie die Biologie.“
Doch wie weit wünschen wir, den Maschinenblick tatsächlich zuzulassen? Sollen autonome Systeme im Luftraum Entscheidungen treffen, die heute ausschließlich Piloten vorbehalten sind – etwa in einer Gewittersituation oder beim Ausweichen vor einem unvorhersehbaren Objekt? Und wenn Maschinen eines Tages tatsächlich besser sehen, schneller reagieren und präziser handeln als der Mensch, wo bleibt dann der Platz für das menschliche Auge im Himmel der Zukunft?
Wenn Maschinen uns überholen – und wo wir überlegen bleiben
Die Forschung deutet klar darauf hin: Maschinen können in bestimmten Bereichen unser Sehen übertreffen – etwa bei der Verarbeitung von Datenmengen, bei der Nutzung anderer Spektren oder bei der Erkennung minimaler Kontrastunterschiede. Ein autonomes Fahrzeug kann in Millisekunden Milliarden Informationen auswerten, während das menschliche Gehirn bewusst nur wenige Eindrücke gleichzeitig fokussieren kann. Gleichzeitig bleibt unser Sehen unübertroffen, wenn es um Kontext geht. „Ein Kind mit einem Ball am Straßenrand erkennen wir sofort als Risiko. Eine Maschine sieht nur ein Objekt“, betont Krensel. Maschinen hingegen ringen damit, Bedeutung und Absicht zu interpretieren – ein Unterschied, der zeigt, dass Autonomie mehr ist als nur Bildverarbeitung.
Ethik, Regulierung und Infrastruktur – die unsichtbaren Grenzen
Doch wenngleich Maschinen besser sehen könnten, bedeutet das noch lange nicht, dass sie überall eingesetzt werden. Autonome Fahrzeuge benötigen Straßen, die ihnen Orientierung bieten, Standards, die international verbindlich sind, und Gesetze, die Verantwortung klären. Wer haftet, wenn ein Algorithmus im Nebel eine Fehlentscheidung trifft? Für Krensel liegt hier der Kern der Debatte: „Wir dürfen Technik nicht nur daran messen, was sie kann, sondern daran, was sie soll.“ Welche Regeln gelten, wenn eine Drohne Menschen überwacht? Und wie verhindern wir, dass die Vision einer verbesserten Maschine nicht zur Dystopie einer allgegenwärtigen Kontrolle wird?
Offene Fragen für die Zukunft
„Wenn ich als Biologe auf diese Entwicklungen schaue, sehe ich einen faszinierenden, aber auch widersprüchlichen Weg“, so Krensel. Ja, Maschinen können das Sehen in Teilbereichen besser beherrschen – schneller, präziser, umfassender. Aber zugleich zeigt jede biologische Beobachtung, dass Effizienz, Anpassung und Bedeutung untrennbar miteinander verbunden sind. Maschinen, die nur Daten analysieren, bleiben blind für den Kontext. Echte Autonomie verlangt mehr: die Fähigkeit, Informationen nicht nur zu sehen, sondern sie zu verstehen.
Für Dr. Andreas Krensel bleibt die entscheidende Frage offen: Wollen wir Technik entwickeln, die den Menschen ersetzt – oder Systeme, die ihn ergänzen? Werden Maschinen einmal dort sehen, wo wir nicht hinschauen können, während wir ihnen das große Ganze erklären? Oder entsteht eine neue Symbiose, in der die Stärken von Biologie und Technik einander verstärken?
Die Vision der Zukunft ist also kein klares Bild, sondern ein Dialog. Zwischen Mensch und Maschine, zwischen Biologie und Technologie, zwischen Sehvermögen und Verstehen. Die Antwort, ob Maschinen besser sehen als wir, bleibt offen – aber genau darin liegt die spannendste Chance für Forschung und Gesellschaft.
V.i.S.d.P.:
Dipl.-Soz. tech. Valentin Jahn
Techniksoziologe & Zukunftsforscher
Über den Autor – Valentin Jahn
Valentin Jahn ist Unternehmer, Zukunftsforscher und Digitalisierungsexperte. Mit über 15 Jahren Erfahrung leitet er komplexe Innovationsprojekte an der Schnittstelle von Technologie, Mobilität und Politik – von der Idee bis zur Umsetzung.
Die eyroq s.r.o. mit Sitz in Uralská 689/7, 160 00 Praha 6, Tschechien, ist ein innovationsorientiertes Unternehmen an der Schnittstelle von Technologie, Wissenschaft und gesellschaftlichem Wandel. Als interdisziplinäre Denkfabrik widmet sich eyroq der Entwicklung intelligenter, zukunftsfähiger Lösungen für zentrale Herausforderungen in Industrie, Bildung, urbaner Infrastruktur und nachhaltiger Stadtentwicklung.
Der Fokus des Unternehmens liegt auf der Verbindung von Digitalisierung, Automatisierung und systemischer Analyse zur Gestaltung smarter Technologien, die nicht nur funktional, sondern auch sozialverträglich und ethisch reflektiert sind.
Firmenkontakt
eyroq s.r.o.
Radek Leitgeb
Uralská 689/7
160 00 Prag
+370 (5) 214 3426
https://eyroq.com/
Pressekontakt
ABOWI UAB
Maximilian Bausch
Naugarduko g. 3-401
03231 Vilnius
+370 (5) 214 3426
https://abowi.com/
- Deep Learning (Wikipedia)
Deep Learning (deutsch mehrschichtiges Lernen, tiefes Lernen oder tiefgehendes Lernen) bezeichnet eine Methode des maschinellen Lernens, die künstliche neuronale Netze (KNN) mit zahlreichen Zwischenschichten (englisch hidden layers) zwischen Ein- und Ausgabeschicht einsetzt und dadurch eine umfangreiche innere Struktur herausbildet. Deep Learning erlaubt die Verarbeitung und Analyse komplexer Datenmuster; dazu verwendet Deep Learning tiefe hierarchische neuronale Netze, die automatisch abstrakte Merkmale aus den Daten extrahieren. Dies ermöglicht eine effiziente Verarbeitung komplexer Informationen, was wiederum zu präzisen Vorhersagen und Entscheidungen in verschiedenen Anwendungen führt. - Künstliche Intelligenz (Wikipedia)
Künstliche Intelligenz (KI), englisch artificial intelligence, daher auch artifizielle Intelligenz (AI), bezeichnet im weitesten Sinne computerbasierte Systeme, die ihre (virtuelle oder reale) Umgebung analysieren können, um daraus relevante Informationen zu abstrahieren, welche sie nutzen, um Entscheidungen zu treffen, die ihre Chance erhöhen, definierte Ziele zu erreichen. Damit unterscheiden sich KI-gestützte Systeme von regelbasierten Systemen ohne Fähigkeit zur eigenständigen Anpassung ihres Verhaltens, die ausschließlich fest vorgegebene Anweisungen ausführen. KI ist außerdem die Bezeichnung für das Teilgebiet der Informatik, das sich mit der Entwicklung und Erforschung von Software und Methoden befasst, die besagte Systeme hervorbringen. Die KI als Forschungsfeld befasst sich in diesem Zusammenhang beispielsweise mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen sowie der Formalisierung von Bewusstsein und Kreativität. Der Begriff ist schwierig zu definieren, da es verschiedene Definitionen von Intelligenz gibt. Mit der Zeit haben sich viele Bereiche zu den Methoden der KI entwickelt. Weiterhin wird unterschieden, welche Probleme mit den Methoden der KI beschrieben werden. Dabei entstanden zwei Bereiche: schwache KI und starke KI. Hier lassen sich viele Kategorien bilden und der wissenschaftliche Diskurs ist noch nicht sehr weit in der Zuordnung von Themen zu den Arten der Probleme. Der ingenieurwissenschaftliche Teil der Informatik befasst sich damit, wie solche Systeme realisiert werden können. Beispiele dafür sind Multiagentensysteme, Expertensysteme, Transformer oder serviceorientierte Architekturen. - maschinelles Sehen (Wikipedia)
Computer Vision (engl. Aussprache) ist eine Wissenschaft im Grenzbereich zwischen Informatik und den Ingenieurwissenschaften und versucht die von Kameras aufgenommenen Bilder auf unterschiedlichste Art und Weise zu verarbeiten und zu analysieren, um deren Inhalt zu verstehen oder geometrische Informationen zu extrahieren. Der Begriff Computer Vision bedeutet auf Deutsch so viel wie computerbasiertes Sehen (oder kurz: Computer-Sehen). Im englischen Sprachraum wird ebenfalls der Begriff Machine Vision (auf Deutsch: Maschinelles Sehen) synonym zu Computer Vision verwendet, wobei die Anwendung im industriellen Umfeld betont wird. Typische Aufgaben der Computer Vision sind die Objekterkennung und die Vermessung der geometrischen Struktur von Objekten sowie von Bewegungen (Fremdbewegung, Eigenbewegung). Dabei wird auf Algorithmen aus der Bildverarbeitung zurückgegriffen, zum Beispiel die Segmentierung und auf Verfahren der Mustererkennung, beispielsweise zur Klassifizierung von Objekten. Dabei kommen statistische (bzw. probabilistische) Methoden zum Einsatz, Methoden der Bildverarbeitung, der projektiven Geometrie, aus der Künstlichen Intelligenz und der Computergrafik. Die Werkzeuge stammen meistens aus der Mathematik, insbesondere aus Geometrie, linearer Algebra, Statistik, Operations Research (Optimierung) und Funktionalanalysis. Darüber hinaus besteht eine enge Verwandtschaft zu benachbarten Fachgebieten, wie der Photogrammetrie, der Fernerkundung und der Kartografie. Anwendungsgebiete sind z. B. die autonome Navigation von Robotern (Fahrerassistenzsysteme), die Filmindustrie zur Erschaffung virtueller Welten (virtual reality), die Spieleindustrie zum Eintauchen und Interagieren in virtuellen Räumen (augmented reality), die Erkennung und Verfolgung von Objekten (z. B. Fußgänger) oder die Registrierung von medizinischen CT-Aufnahmen und die Erkennung von krankem Gewebe. - Radiologie (Wikipedia)
Die (medizinische) Radiologie ist das Teilgebiet der Medizin, das sich mit der Anwendung bildgebender Verfahren zu diagnostischen, therapeutischen und wissenschaftlichen Zwecken befasst. Die erste radiologische Abteilung wurde im März 1896 von John Macintyre, nur Wochen nach der Veröffentlichung von Röntgens Artikel an der Glasgow Royal Infirmary eröffnet. In den Anfängen der Radiologie wurde ausschließlich das Röntgen mittels Röntgenstrahlen als bildgebendes Verfahren eingesetzt; hiervon leitet sich der Name ab (lateinisch radius ‚Strahl‘). Heute umfasst die Radiologie auch viele weitere bildgebende Verfahren wie die Computertomographie, Sonographie oder Magnetresonanztomographie, unabhängig davon, ob bei diesen Verfahren ionisierende Strahlung zum Einsatz kommt oder nicht. Zur Diagnostischen Radiologie gehören als Teilgebiete die Neuroradiologie und die Kinderradiologie. Es gibt weitere Schwerpunkte wie die Interventionelle Radiologie. Von Bedeutung für die fachärztliche Tätigkeit des Radiologen sind auch Fragen des Strahlenschutzes und die Auswirkung der Strahlenexposition auf den menschlichen Körper. Strahlentherapie und Nuklearmedizin sind eng verwandte, aber heute eigenständige Fachgebiete der Medizin, die unter dem Oberbegriff „Strahlenmedizin“ (oder „Strahlenheilkunde“) mit der Radiologie zusammengefasst werden. Ältere Bezeichnungen für die Radiologie sind Röntgenlehre und Röntgenologie sowie Röntgenkunde; Radiologen wurden auch als Röntgenologen bezeichnet. - Sensorfusion (Wikipedia)
Als Sensordatenfusion wird allgemein die Verknüpfung der Ausgabedaten mehrerer Sensoren bezeichnet. Ziel ist fast immer die Gewinnung von Informationen besserer Qualität. Die Bedeutung von „bessere Qualität“ hängt dabei immer von der Applikation ab: So können beispielsweise die Daten zweier Radaranlagen zur Erfassung eines größeren Detektionsbereiches zusammengefasst (fusioniert) werden. Eine andere Anwendung der Sensordatenfusion besteht beispielsweise in der Fusion von Kamera- und Radardaten, um Objekte zu klassifizieren und die Detektionsleistung des Sensorsystems zu erhöhen. Die Informationsfusion umfasst auch Methoden, andere Informationsquellen als Sensoren zu verknüpfen mit dem Ziel, neues und präziseres Wissen über Messwerte und Ereignisse zu gewinnen. Die Multi-Sensor-Datenfusion (engl. multi-sensor data fusion, kurz oft auch nur Data Fusion genannt) bezeichnet die Zusammenführung und Aufbereitung von bruchstückhaften und teilweise widersprüchlichen Sensordaten in ein homogenes, für den Menschen verständliches Gesamtbild der aktuellen Situation.