News und Termine

06.07.2018

Wie sicher ist autonomes Fahren?

Autonomes Fahren soll sicher sein – soweit die Forderung und Erwartung. Doch vieles zu dieser neuen Form der Mobilität ist aus heutiger Sicht noch unklar oder schlicht noch nicht so weit – wie ein Expertenvortrag und eine Podiumsdiskussion an der FH Campus Wien zeigten.

Experten aus (Rechts-)Wissenschaft und Praxis diskutieren über die Sicherheit autonomen Fahrens

v.l.n.r.: Hans Tschürtz, Christian Loidl, Andreas Gerstinger, Konrad Lachmayer

 

Die StVO als rechtlicher Rahmen, nicht definierbare Gefährdungssituationen, unzureichende Safety-Normen, Auswirkungen künstlicher Intelligenz und maschinellen Lernens sowie neue Haftungskonzepte – mit dem autonomen Fahren sind viele Herausforderungen verbunden, die es zu meistern gilt.

Expertenvortrag

Hans Tschürtz, Leiter des Vienna Institute for Safety and Systems (VISSE) der FH Campus Wien und des Masterstudiums Safety and Systems Engineering, leitete seinen Vortrag „Wie sicher ist autonomes Fahren?“ mit Erkenntnissen aus der Verkehrsunfallforschung ein.

Der Mensch lenkt – oder auch nicht…

Als Hauptursache von Verkehrsunfällen gilt menschliches Versagen. Ein Unfall passiert durch einen Verkehrskonflikt und die unangemessene Behandlung des Konflikts. Darunter fallen etwa Mängel in der Reaktion des Menschen, oder aber eine völlig falsche Risiko-Einschätzung. Beim autonomen Fahren fallen das zentrale Steuerelement/-system „Mensch“ und seine Fähigkeiten allerdings weg.

Ein System organisiert sich selbst…

Assistiertes, teilautomatisiertes, hochautomatisiertes, vollautomatisiertes und autonomes Fahren – das sind die fünf Stufen, in denen sich der Grad der Unterstützung durch technische Systeme bis zur völligen Übernahme widerspiegelt. Beim autonomen Fahren übernimmt das Fahrzeug also alle Fahrfunktionen. Die Komplexität, bzw. die Anforderung an technische Lösungen, ist dabei ausgesprochen hoch. Hohe technische Komplexität wiederum begünstigt die Wahrscheinlichkeit, dass sich ein System emergent verhält. Das bedeutet, im System selbst können sich neue Strukturen, Eigenschaften und Fähigkeiten herausbilden, die seine Elemente nicht ursprünglich haben und sich ungünstig auf das System auswirken können.

Systems of Systems

Insbesondere beim autonomen Fahren geht es darum, ein „Supersystem zu beherrschen“. Agieren EGO-Systeme eigenständig, so befinden sie sich in einem „Systems of Systems“ Kontext und müssen Hindernisse selbst erkennen und Situationen, ohne Zutun des Menschen, einschätzen und beherrschen. Dazu kommen zusätzliche Aspekte wie Umwelteinflüsse, Sichteinschränkungen, das Fehlverhalten anderer VerkehrsteilnehmerInnen, Ereignisse der höheren Gewalt, mutwillige Einflüsse oder etwa Verschmutzung der Sensorik. Viele Faktoren also, die zusammenwirken und die Sicherheit beeinträchtigen.

Fail-Safe-Prinzip – auch für autonomes Fahren?

Nach diesem Prinzip muss eine Komponente immer so ausfallen, dass sie einen sicheren Zustand einnimmt. Und es beruht auf der Annahme, dass es einen klar definierten, sicheren Zustand gibt. Wenn es diesen jedoch nicht gibt oder wenn sich dieser je nach Situation verändert, so wird das Prinzip schwer anwendbar. Wie weit ist dieser Grundsatz also auf das autonome Fahren anwendbar?

Safe Systems for an automatic World!

Hans Tschürtz plädiert dafür, einen anderen konzeptionellen Umgang zum Thema Sicherheit zu verfolgen. Sollen komplexe Systeme sicher sein, muss der Faktor Sicherheit von Anfang an in die Systeme integriert werden. Dieser Ansatz der „inhärenten Systemsicherheit“ mit Fokus auf das autonome Fahren wird im Masterstudiengang Safety and Systems Engineering an der FH Campus Wien gelehrt.

Podiumsdiskussion: (Rechts-)Wissenschaft trifft Safety-Praxis

In der anschließenden Podiumsdiskussion, moderiert von Walter Sebron (Forscher am VISSE)  beleuchteten Experten aus Wissenschaft und Praxis die Frage nach der Sicherheit des autonomen Fahrens aus ihren jeweiligen Blickwinkeln und zeigten einmal mehr auf, wie umfassend sich dieses Thema gestaltet – und was es noch zu lösen gilt.

Autonom – und im Einklang mit der StVO

Konrad Lachmayer, Vizedekan der Fakultät für Rechtswisschenschaften der Sigmund Freud PrivatUniversität, ortet offene Punkte im „Spannungsfeld von Recht und Technik“. Denn auch ein autonomes Fahrsystem müsse sich an die Straßenverkehrsordnung (StVO) halten. So stelle sich die Frage, ob ein vollautomatisiertes System überhaupt in der Lage sei, den Vertrauensgrundsatz einzuhalten, entsprechend zu reagieren und zu handeln – geschweige denn, sich insgesamt StVO-konform zu verhalten. „Aus rechtlicher Sicht ist die Technik gefordert, die Elemente dahingehend zu entwickeln und umzusetzen.“ Zudem müsse sich jeder Staat, jede Rechtsordnung und  jede Gesellschaft überlegen, welche Vorgaben sie aufstellt. Entscheidend sei, inwieweit die Wirtschaft in der Lage ist, diese Vorgaben zu erfüllen. Denn primär gehe es – gerade im Hinblick auf die StVO – immer um Verkehrssicherheit.

Sicherheitssysteme noch nicht so weit

Für Christian Loidl, Geschäftsführer von TeLo GmbH und Lehrender im Masterstudium Safety and Systems Engineering, ist die Frage der Sicherheit für den Prozess- und Maschinenbaubereich bereits gelöst, denn hier gebe es ein funktionierendes Sicherheitssystem, da es für jede identifizierte Gefährdung eine intelligente, vernünftige, im Kostenrahmen befindliche sicherheitstechnische Lösung gebe. „Die Voraussetzung ist also, Gefahrensituationen genau identifizieren und analysieren zu können, was aber im Bereich des autonomen Fahrens nicht so einfach ist. Gefährdungssituationen können hier nicht spezifisch definiert werden. Wir sind aktuell einfach noch nicht in der Lage, ein entsprechendes Sicherheitssystem zu designen, aufzusetzen und zu beurteilen“, so die Ansicht von Loidl.

Gleich gut, aber reicht das?

Safety Manager Andreas Gerstinger thematisierte den Umstand, dass Autofahren – in Anbetracht der Unfallstatistik - nach wie vor zu den gefährlichsten Aktivitäten zählt. Rational betrachtet sei also die Ausgangslage die „Messlatte“, eine Verbesserung natürlich anzustreben. Dazu brachte er einen Grundsatz aus der Safety-Welt ins Spiel: das GAMAB Prinzip. Dieses besagt, dass ein neues System mindestens so gut sein muss wie bereits bestehende. „Umgelegt auf das autonome Fahren wird das allerdings nicht reichen. Denn wir haben uns damit abgefunden, dass Menschen Fehler machen und Unfälle verursachen, wir hingegen aber weit weniger bereit sind, Unfälle von autonomen Fahrzeugen oder Fehler in technischen Systemen zu akzeptieren“, erläutert Gerstinger. Diese niedrigere Akzeptanzschwelle zeigt sich auch daran, dass Unfälle autonomer Fahrzeuge in den Medien viel stärker thematisiert werden.

Kommt eins und eins zum anderen…

Hans Tschürtz brachte die Aspekte der schwer erkenn- und beherrschbaren Situationen, die Hinderniserkennung sowie das Bild- und Szenenverständnis in Verbindung mit Systemfehlern in die Diskussion ein. Denn Systemfehler lassen sich bald beherrschen. Auf diese seien auch heutige Safety-Normen ausgelegt, wonach man immer von einer Fehlfunktion ausgehe. „So richtig gefährlich wird es dann, wenn in einer Situation mehrere Ereignisse zusammentreffen, die wir heute noch schwer interpretieren und teilweise auch nicht beherrschen können“, warnt Safety-Experte Tschürtz.

Selbstlernend. Und dann?

Einig waren sich die Podiumsteilnehmer darin, dass künstliche Intelligenz und maschinelles Lernen ein zusätzliches Problem verursachen. Gerstinger kritisierte, dass Anforderungen nicht mehr explizit gemacht würden, sondern das System angelernt werde, auf Basis von Eingangsdaten zu lernen und der Entscheidungsprozess der Software nicht bekannt sei. Tschürtz sieht durch die künstliche Intelligenz ein Ansteigen der Komplexität und die Schwierigkeit, einen entsprechenden Sicherheitsnachweis zu erbringen. Denn häufig würden Tests durchgeführt, für die keine Requirements erarbeitet wurden. Lachmayer sieht zudem ein großes rechtliches Problem, da nicht geklärt ist, wer bei selbstlernenden Systemen zur Verantwortung zu ziehen sei.

Im Vorhinein sehen, was NICHT sein soll: Safety Engineering

Loidl spricht sich dafür aus, sicherheitsrelevante Systeme von typisch anwendungsgerechten Systemen zu trennen, um die Situation überschaubar zu halten und gegenseitige Beeinflussung ausschließen zu können. Das Schwierige sei aber, dass trotz umfangreichen Testens – auch in der Maschinen- und Anlagenindustrie – es zu Gefahrensituationen kommen könne, die bislang noch nicht aufgetreten seien. Dem stimmte Gerstinger zu: „Gerade diese unbekannten Situationen oder Kombinationen, die man nicht vorhergesehen hat, verursachen diese Probleme. Es kommen mehrere Faktoren zusammen, die man in dieser Kombination noch nicht betrachtet und analysiert hat und dann passiert der Unfall.“ Safety Engineering sei eben genau das Vorhersehen dieser unbekannten Situationen, um Unfälle oder Ausfälle zu vermeiden.

Systemebene mit neuen Zugängen: Safety and Systems Engineering

Dazu brauche es eine andere Denkweise, verschränktes Wissen und Methoden wie dies etwa im Masterstudium Safety and Systems Engineering gelehrt wird, so der einhellige Tenor der Podiumsteilnehmer und das Plädoyer für dieses auf die Industrie zugeschnittene Spezialstudium, das im deutschsprachigen Raum nur in Wien angeboten wird.

Das könnte Sie auch noch interessieren

Schwerpunkt "Alles digital" / Zukunftsgespräche "Die Grenzen der Technik" vom 23. November 2017

Hans Tschürtz im Video zu den Zukunftsgesprächen "Die Grenzen der Technik"

Christian Loidl - 3 Fragen, 3 Antworten zur Sicherheit technischer Systeme (Video)

"Fehler im System erst gar nicht entstehen lassen"

Safety Day 2017 unter dem Motto "Sicher autonom fahren in Zug und Straßenbahn"

Forschung und Entwicklung: MA 23-Projekt "Sicheres autonomes Fahren in Zug und Straßenbahn"