Franziska SchlozEntwicklung und Bewertung einer Reihenfolgestrategie zur Leistungsverbesserung von Shuttle-Systemen mit Deep Reinforcement Learning | |||||||
| |||||||
ISBN: | 978-3-8440-8720-8 | ||||||
Series: | Logistik | ||||||
Keywords: | Auftragsreihenfolge; Lagersystem; Deep Reinforcement Learning | ||||||
Type of publication: | Thesis | ||||||
Language: | German | ||||||
Pages: | 170 pages | ||||||
Figures: | 50 figures | ||||||
Weight: | 251 g | ||||||
Format: | 21 x 14,8 cm | ||||||
Binding: | Paperback | ||||||
Price: | 48,80 € / 61,10 SFr | ||||||
Published: | August 2022 | ||||||
Buy: | |||||||
Recommendation: | You want to recommend this title? | ||||||
Review copy: | Here you can order a review copy. | ||||||
Link: | You want to link this page? Click here. | ||||||
Export citations: |
|
||||||
Abstract: | Um die Leistung von Shuttle-Systemen zu verbessern, existieren verschiedene Ansätze. In dieser Arbeit wird der Einsatz des Deep Reinforcement Learning (DRL) zur Bildung der Fahrauftragsreihenfolge untersucht. Die Zielsetzung ist der Erhalt des konzeptionellen Beweises, dass durch den Einsatz eines DRL-Agenten, der auf die Minimierung der Gesamtauftragsdurchlaufzeit trainiert wird, eine Leistungsverbesserung erreicht werden kann. Hierfür wird zunächst anhand einer qualitativen Inhaltsanalyse die Forschungslücke in diesem Bereich aufgezeigt sowie dargelegt, dass das DRL, basierend auf der unterliegenden Theorie, für den Anwendungsfall geeignet ist. Als Trainings- und Testumgebung wird ein Simulationsmodell einer Ebene eines ebenengebundenen Systems erstellt, das hinsichtlich der Anzahl an Gassen, der Gassenlänge und der Anzahl an Shuttles konfiguriert werden kann. Auf Seiten des DRL wird der Deep Q Learning Agent, basierend auf der Keras-RL Bibliothek, genutzt. Es erfolgen die Entwicklung des Zustands- und des Aktionsraumes sowie der Belohnungsfunktion. Um den Agenten zu testen und die Durchführbarkeit aufzuzeigen, werden 20 Testszenarien basierend auf drei verschiedenen Lagerkonfigurationen mit zwei und drei Fahrzeugen definiert. Insgesamt wird in 17 der 20 Szenarien ein erfolgreiches Lernen des Agenten und damit eine Leistungssteigerung des Systems erzielt. |