Detailergebnis zu DOK-Nr. 72790
Ein Sicherheitsnachweis für Machine-Learning im Kontext des automatisierten Fahrens
Autoren |
S. Burton L. Gauerhof C. Heinzemann L. Buerkle |
---|---|
Sachgebiete |
0.11 Daten (EDV, IT, Internetanwendungen und Verkehrsdaten) 6.3 Verkehrssicherheit (Unfälle) 6.7.2 Verkehrsbeeinflussung außerorts, Verkehrsmanagement, Fahrerassistenzsysteme |
Aktive Sicherheit und Automatisiertes Fahren: 3. Interdisziplinärer Expertendialog (IEDAS). Renningen: expert Verlag, 2018 (Haus der Technik Fachbuch Bd. 146) S. 60-74, 3 B, zahlr. Q
Methoden zum Maschinellen Lernen, wie zum Beispiel Neuronale Netze, weisen ein großes Potenzial für Funktionen zum automatisierten Fahren im offenen Kontext auf. Zu diesen Funktionen gehören videobasierte Objekterkennung und -klassifikation wie auch Trajektorienplanung. Trotz allem können diese Ansätze nur für die Serienproduktion freigegeben werden, wenn ausreichend hohe Sicherheitsanforderungen nachgewiesen werden können. Bereits bestehende Standards zur Funktionalen Sicherheit, wie beispielsweise ISO 26262, können nur bedingt auf Maschinelles Lernen und insbesondere auf funktionale Unzulänglichkeiten im offenen Kontext übertragen werden. Daher muss eine überzeugende Argumentation für die Sicherheit des automatisierten Fahrens mit solchen Methoden aufgezeigt werden. Hierfür wird mithilfe der Goal Structuring Notation (GSN) ein strukturierter Sicherheitsnachweis eingeführt. Dabei ist eine systemanalytische Betrachtung nötig, um eine genaue Definition der Funktionsanforderungen an Leistung und Ausführung ableiten und schließlich darauf den Sicherheitsnachweis aufbauen zu können. Diese Definition enthält eine explizite Formulierung der Annahmen und kontextbezogenen Informationen, die eine bestimmte Anwendung betrifft.