Dieser Download ist nicht möglich!
DOK Straße
Zurück Vor

Detailergebnis zu DOK-Nr. 79982

Wann und wohin als nächstes fahren: Deep-Learning-Framework zur Modellierung des Fahrverhaltens mittels automatisch erfasster Fahrzeuginformationen (Orig. engl.: When and where to go next: Deep learning framework for modeling drivers’ behaviors using automatic vehicle identification data)

Autoren K. Jin
X. Li
W. Wang
X. Hua
S. Qin
Sachgebiete 6.2 Verkehrsberechnungen, Verkehrsmodelle
6.7.2 Verkehrsbeeinflussung außerorts, Verkehrsmanagement, Fahrerassistenzsysteme
0.11 Datenverarbeitung

Transportation Research Record: Journal of the Transportation Research Board Vol. 2676, H. 6, 2022, S. 387-398, 8 B, 2 T, 34 Q. - Online-Ressource: verfügbar unter: https://journals.sagepub.com/home/trr

In den letzten Jahren haben sich in vielen Ländern automatische Fahrzeug-Identifizierungssysteme (AVI) mittels WiFi oder Bluetooth rasch entwickelt. Hierdurch besteht die Möglichkeit, die Mobilitätsmuster der Fahrer in städtischen Straßennetzen zu analysieren, was bisher kaum erforscht wurde. In dem Beitrag wird ein Deep Learning (DL) Framework vorgeschlagen, das auf AVI-Daten basiert, um das Verhalten von Fahrenden zu modellieren und gleichzeitig eine Reisezeitvorhersage durchzuführen. Konkret wurden DeepWalk-Encoder und DeepWalk + Time long short-term memory (DT-LSTM) erprobt, um die räumlichen und zeitlichen Korrelationen gleichzeitig zu erfassen. Durch das Erlernen der räumlichen Beziehung zwischen den Sensoren aus den historischen Trajektorien konnte der DeepWalk-Encoder die Sensoren in niedrigdimensionale numerische Vektoren umwandeln, die für das Deep Learning wichtig sind. Außerdem wurde eine neue Variante (DT-LSTM) entwickelt, um die kurzfristigen und langfristigen Interessen der Fahrenden zu speichern. So konnte die Konsistenz von Ort und Reisezeit in den Trajektorienfolgen mit unterschiedlichen Zeitintervallen realisiert werden. Reale AVI-Daten eines Monats standen aus Chongqing (China) zur Verfügung. Die experimentellen Ergebnisse zeigen die Effektivität des Modells, das im Vergleich zu anderen Benchmark-Methoden mit einer Acc-1 von 82 %, einer Acc-5 von 95 % und einem MAPE (Mean absolute percentage error) von 17 % die beste Leistung (SOTA) erzielt.