Künstliche Intelligenz und autonomes Fahren
Immer wieder werden Algorithmen und künstliche Intelligenz als das „nächste große Ding“ gehandelt. Was ist Hype, was wird Realität? Lässt man die heiße Luft weg, zeigen sich interessante Perspektiven für das automatisierte und autonome Fahren.
Es ist ratsam, „künstliche Intelligenz“ wie in der Lehrbuch-Definition als Teilgebiet der Informatik und im Zusammenhang mit Automatisierung und maschinellem Lernen zu verstehen, um einige Missverständnisse von vornherein auszuschließen. Von Bedeutung scheinen folgende Vorklärungen: Künstliche Intelligenz ist nicht erst dann am Werk, wenn menschliche Eingriffe komplett überflüssig werden. Künstliche Intelligenz hat keine Moral und löst keine ethischen Konflikte. Künstliche Intelligenz kann Regeln anwenden, ändert sich aber nicht.
Wie stark sind autonome Fahrzeuge auf KI angewiesen?
Beim automatisierten Fahren spielen auf allen fünf Leveln die Umfelderkennung, die Signalverarbeitung und ein bewertender automatischer Abgleich zu Gefahren und Regeln im Straßenverkehr eine Rolle. Schon beim assistierten Fahren auf Level 1 warnt ein Abstandswarner vor zu dichtem Auffahren oder zu schneller Annäherung an Hindernisse. Je nach Auslegung kann ein Abstandsregler (Adaptive Cruise Control, ACC) bei Bedarf eine Bremsung automatisch einleiten und vorher schon für ein besseres „Mitschwimmen“ im Verkehr sorgen. Zum Sicherheitsaspekt tritt also ein Gesichtspunkt der Effizienz hinzu. Die „Intelligenz“ eines Fahrerassistenzsystems hat zwangsläufig eine psychologische Komponente: Sie entlastet den Fahrer bei seinen Aufgaben, aber sie kann ihn auch ablenken, so dass er sich in trügerischer Sicherheit wiegt.
Prof. Dr. Frank Flemisch vom Bonner Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie weist am Beispiel eines Tesla-Unfalls auf diese Gefahr hin: „Die Begriffe automatisiert und autonom fahren dürfen nicht vermischt werden. Wenn man sich auf Level 2 im teilautomatisierten Fahren bewegt, muss der Fahrer stets aufmerksam sein und jederzeit eingreifen können.“ Selbst wenn ihm Marketing-Begriffe möglicherweise etwas anderes signalisieren. Flemisch nennt dies „das unsichere Tal der Automation“: Nicht die Technik per se ist unzureichend. Doch sie beschwört Gefahren herauf, wenn der Fahrer nicht schnell genug eingreift.
Ab Level 4 übernimmt das Fahrzeug die Regie, gegebenenfalls für komplette Strecken und auch in komplexen Situationen. Der Fahrer ist anders als auf Level 5 noch Fahrer und das Fahrzeug hat noch Lenkrad und Pedale, aber er kann sich auch für längere Zeit anderen Aufgaben widmen. Reagiert der Fahrer nicht, muss das Fahrzeug eigenständig einen sicheren Zustand herstellen, etwa die Straße verlassen und am Fahrbahnrand anhalten können.
Anknüpfungspunkte, Überschneidungen, Schnittstellen
Mit jedem Level automatisierten Fahrens steigen die Anforderungen daran exponentiell. Professor Flemisch sieht „die autonome Endstufe in allen Anwendungsfällen noch sehr weit in der Zukunft“ und rechnet mit mindestens zwei Jahrzehnten weiterer intensiver Forschungsarbeit. „Lokale Anwendungen für beschränkte autonome Szenarien könnten schon früher möglich werden.“
Skeptische Stimmen, so etwa Thomas Sedran, bis vor kurzem Strategiechef von VW, und John Krafcik, Chef der Alphabet-Tochter Waymo, bezweifeln gelegentlich gar, ob die volle Autonomie realisiert werden kann. Auf dem Weg dahin sind autonome Fahrzeuge mit unzähligen Aufgaben konfrontiert: Das Sensorium der Fahrzeuge wächst: mehr Kameras, die höher aufgelöste Bilder liefern, Radar-, Lidar- und weitere Sensoren, die immer größere Datenmengen als Input liefern. Das verlangt mehr Rechenleistung, und auch eine gewünschte Redundanz muss von einer zentralen Steuereinheit bewältigt werden. Sie muss „einschätzen“ können, wie die Sichtverhältnisse in 50, 100 oder 200 Metern aussehen, sie muss Straßenverhältnisse (Glatteis, Aquaplaning) „beurteilen “, sie muss Informationen aus einer Cloud, Verkehrsmeldungen und Navigationsdaten mitverarbeiten.
Dabei ist unterstellt, dass sich das Fahrzeug selbst nicht in einem kritischen Zustand befindet, technisch in Ordnung ist und die Innenraumkamera einen reaktionsbereiten, keinesfalls übermüdeten Fahrer zeigt. Erst auf dem höchsten Level ist das irrelevant. Künstliche Intelligenz trifft insofern ständig Entscheidungen und nimmt Abwägungen vor. Vollends schwierig, wenn nicht ausweglos sind Situationen, in denen ein Fahrzeug abwägen müsste, ob es auf ein kleines Hindernis oder auf ein großes Hindernis aufprallen möchte. Was, wenn das große Hindernis ein Brückenpfeiler ist – was, wenn das kleine Hindernis kein Hase oder Waschbär, sondern ein Radfahrer, Fußgänger oder Kinderwagen ist?
Wo greift KI heute schon beim autonomen Fahren ein? Wo wird sie künftig eingreifen?
In all diesen Situationen greift die Intelligenz des Fahrzeugs heute schon ein. Auch wenn sie dem Fahrer die Initiative zurückgibt, erst recht, wenn Fahrassistenzsysteme dem Fahrer vorgreifen und eine Notbremsung einleiten oder „bemerken“, dass er eigentlich vollbremsen will. Und vor allem dann, wenn Fahrerassistenzsysteme (FAS) den Fahrer „überstimmen“ oder ihm Aktionen abnehmen.
Mit der quantitativen Zunahme der FAS wächst der Rechenbedarf, um konsistente Handlungen mit dem Fahrzeug auszuführen. Hier hat es in den beiden vergangenen Jahren große Fortschritte gegeben. Mit jedem Level vervielfachen sich diese Anforderungen. Und es entstehen Situationen wie diese: Am Ende einer Stop-and-go-Staufahrt gibt der Level-3-Assistent eines Audi A8 AI die Kontrolle an den Fahrer zurück. Merkt er das? Ein Warnton signalisiert es. Wird er überhört, bleibt das Fahrzeug auf dem Standstreifen stehen. Auf dem Fahrstreifen, wenn er fehlt! Ein weiterer Fallstrick: Funktionen wie diese können ab Werk deaktiviert sein, aber vom Fahrer freigeschaltet werden. Die gesamte Interaktion zwischen Mensch und Maschine muss so verzögerungsfrei und genau erfolgen, dass der Fahrer um alle Handlungsoptionen weiß und das Fahrzeug auf alle, auch die unmöglichen Fälle vorbereitet ist.
KI muss also künftig auch dann reagieren, wenn der Fahrer das nicht Erwartete tut. Lösen lässt sich das nur mit zusätzlichem Aufwand: weiteren Tests, umfangreichen Simulationen und echten Fahrkilometern. Flemisch schätzt, „dass wir hier eher über siebenstellige Kilometerzahlen sprechen, bis wir von einer sicheren, praxisfähigen Systemreife sprechen können“.
Aus technischer Sicht stellt sich das naturgemäß anders dar als aus rechtlicher und moralischer. Es muss definiert werden, wo die Fahrerhaftung endet. – Dabei ist nicht automatisch klar, wessen Haftung dann beginnt. Die des Herstellers, die eines Diensteanbieters? Und lässt sich in einem selbstlernenden System überhaupt noch nachvollziehen, welche Algorithmen zu welcher Entscheidung geführt haben? Und, wie Flemisch ergänzt: „Wir können die Technik umfassend trainieren. Aber wir können dem Fahrer nicht so einfach vermitteln, welches Vertrauen angemessen ist.“
Welche weiteren Entwicklungen sind in der Entwicklungspipeline?
Die Hardware bietet heute schon immer mehr Sensorkombinationen, bei der Software wird die Sensordatenfusion immer wichtiger. Dafür müssen immer höhere Rechenkapazitäten bereitgestellt werden. Doch die Entwicklung schreitet voran: Werden die Systeme autark? Gibt es autonome Algorithmen, die zu unethischen Entscheidungen führen? Kann der Mensch die Kontrolle über die Technik verlieren? Flemisch hält es für notwendig, sich diesen Fragen zu stellen: „Es gibt die Optimisten und die Skeptiker. Ich glaube, wir brauchen beide, um die richtige Balance zu finden.“
Skepsis sieht er angebracht mit Blick auf Big Data und Cloud-Anwendungen – und vor allem auf die damit verbundenen Gefahren durch Hacker. Wenn Fahrzeuge ihr Verhalten aufeinander abstimmen, muss sichergestellt sein, dass keine Hacker Regie führen. „Das Schadenspotenzial ist enorm. Die Entwicklung wird ein Wettlauf mit potentiellen Hackern sein“, meint Flemisch. Und er warnt vor Naivität, wie die Diskussionen um den Netzwerkausrüster Huawei zeigten: „Wir dürfen ‚nach Snowden’ nicht naiv sein. Niemand kann Ihnen garantieren, dass ein Router oder ein Browser keine verdeckten Schnittstellen hat. Und was passieren kann, wenn ein autoritärer Staat Kontrolle über Daten und Algorithmen gewinnt.“
Auch viele positive Entwicklungen führt Flemisch an. „Mit der Weiterentwicklung von Interfaces erleichtern Sprach- und Gestensteuerung die Mensch-Maschine-Kommunikation, auch im teilautonomen Fahrzeug. Virtuelle Realität verschafft uns einen Blick auf Staus und Hindernisse, die wir mit bloßem Auge beim besten Willen nicht erkennen können. Unsere Sinnesorgane, oder richtiger: Unsere menschlichen Algorithmen werden künftig durch maschinelle unterstützt. Der Zentaur als Mischwesen von Pferd und Mensch ist hier ein beliebtes Bild: Fähigkeiten werden durch Zusammenfügen erweitert.“
Das Bild ist nicht mehr treffend, wenn es die lernende und entscheidende Instanz nur beim Menschen sieht. Vielmehr wird die künstliche Intelligenz immer mehr Entscheidungen vorbereiten oder selbst treffen und dem Menschen abnehmen.
KI-Methoden und neuronale Netze helfen heute schon in der Automobilkonstruktion, geometrische Varianten durchzuspielen (und Testzyklen zu ersparen). Künstliche Intelligenz, angewendet auf den Stellwinkel eines Spoilers, hat Porsche geholfen, auf der Nordschleife des Nürburgrings einen neuen Streckenrekord aufzustellen. Richtig und mit Augenmaß angewandt, wird automatisiertes Fahren und KI in einigen Jahren so selbstverständlich sein wie heute ein Blick auf den Tacho oder der Gangwechsel.
Autor: Günter Eymann