Optimierung einer kennfeldbasierten Regelung mittels Reinforcement Learning am Beispiel einer Verbrennungskraftmaschine
Seiten
2018
Shaker (Verlag)
978-3-8440-6377-6 (ISBN)
Shaker (Verlag)
978-3-8440-6377-6 (ISBN)
- Keine Verlagsinformationen verfügbar
- Artikel merken
Die Forschung rund um die Verbrennungskraftmaschine (VKM) ist trotz großer Fortschritte im Bereich der Elektromobilität oder alternativer Kraftstoffe immer noch sehr aktuell. Dies ergibt sich aus der fortwährenden Nutzung der VKM's, vor allem im Bereich des Individualverkehrs. Im Rahmen dieser Dissertation wurde untersucht, inwiefern sich die überwiegend manuell vorgenommenen Adaptionen von kennfeldbasierten Regelungsstrategien, in einer VKM, automatisieren lassen. Das Ziel war es, den erheblichen Zeitaufwand dieser heuristisch geprägten Vorgehensweise zu verringern und das benötigte Experten- bzw. Prozesswissen zu beschränken.
Innerhalb der Dissertation wurde daher eine systematische Optimierungsroutine entwickelt, welche eine kennfeldbasierte PI-Regelung, passend zu den leerlaufspezifischen Zielen, parametriert. Dabei wird die Regelung insbesondere auf die starken Nichtlinearitäten und großen Totzeiten im Prozess abgestimmt. Das Verfahren basiert dabei auf einer Optimierungsroutine aus dem Bereich des reinforcement learnings, welches durch klassische und moderne regelungstechnische Ansätze auch für die praktische Erprobung nutzbar gemacht wurde. Die vorgestellte Methode ist sowohl off-line, als auch on-line nutzbar und wurde einerseits simulativ und andererseits praktisch, durch Anwendung des rapid control prototyping Ansatzes, umfangreich getestet.
Das Ergebnis der Dissertation ist ein Optimierungsverfahren, welches in der Lage ist die manuelle Adaptionszeit für die Auslegung kennfeldbasierter Regelungen zu verkürzen. Es konnte zudem gezeigt werden, dass die Regelgüte im Vergleich zu alternativen Konzepten (bspw. linearen, nichtlinearen oder heuristischen Auslegungsverfahren) gesteigert werden kann.
Innerhalb der Dissertation wurde daher eine systematische Optimierungsroutine entwickelt, welche eine kennfeldbasierte PI-Regelung, passend zu den leerlaufspezifischen Zielen, parametriert. Dabei wird die Regelung insbesondere auf die starken Nichtlinearitäten und großen Totzeiten im Prozess abgestimmt. Das Verfahren basiert dabei auf einer Optimierungsroutine aus dem Bereich des reinforcement learnings, welches durch klassische und moderne regelungstechnische Ansätze auch für die praktische Erprobung nutzbar gemacht wurde. Die vorgestellte Methode ist sowohl off-line, als auch on-line nutzbar und wurde einerseits simulativ und andererseits praktisch, durch Anwendung des rapid control prototyping Ansatzes, umfangreich getestet.
Das Ergebnis der Dissertation ist ein Optimierungsverfahren, welches in der Lage ist die manuelle Adaptionszeit für die Auslegung kennfeldbasierter Regelungen zu verkürzen. Es konnte zudem gezeigt werden, dass die Regelgüte im Vergleich zu alternativen Konzepten (bspw. linearen, nichtlinearen oder heuristischen Auslegungsverfahren) gesteigert werden kann.
Erscheinungsdatum | 27.12.2018 |
---|---|
Reihe/Serie | Berichte aus der Steuerungs- und Regelungstechnik |
Verlagsort | Aachen |
Sprache | deutsch |
Maße | 148 x 210 mm |
Gewicht | 296 g |
Themenwelt | Technik ► Elektrotechnik / Energietechnik |
Schlagworte | Optimierung • Reinforcement Learning • Verbrennungskraftmaschine |
ISBN-10 | 3-8440-6377-3 / 3844063773 |
ISBN-13 | 978-3-8440-6377-6 / 9783844063776 |
Zustand | Neuware |
Haben Sie eine Frage zum Produkt? |
Mehr entdecken
aus dem Bereich
aus dem Bereich