Beruflich Dokumente
Kultur Dokumente
Daniel Jerouschek
Vollständiger Abdruck der von der TUM School of Engineering and Design der Technischen
genehmigten Dissertation.
Die Dissertation wurde am 03.03.2022 bei der Technischen Universität München eingereicht
und durch die TUM School of Engineering and Design am 10.11.2022 angenommen.
Kurzfassung
Ein Bestandteil der Energiewende im Verkehrssektor ist die Elektrifizierung des An-
triebsstrangs. Fahrzeuge mit einem 48V-Mild-Hybrid Bordnetz bieten eine höhere Ener-
gieeffizienz als vergleichbare Fahrzeuge mit reinem verbrennungsmotorischem Antrieb.
Aufgrund der im Verhältnis zur gespeicherten Energie hohen Leistungen, besteht die
Herausforderung dieser Form des Bordnetzes aus einer exakten Spannungsprädiktion.
Für die Bordnetzstabilität ist die Spannungsprädiktion entscheidend und damit ein si-
cherheitsrelevanter Baustein in den Fahrzeugen. Die aktuell in der Industrie genutzten
Modelle basieren auf elektrischen Ersatzschaltbildmodellen, die neben messbaren phy-
sikalischen Größen zusätzlich abhängig vom Ladezustand der Batterie sind. In Bezug
auf diese beiden Punkte werden in der vorliegenden Arbeit alternative Modellierungsme-
thoden entwickelt. Zum einen basiert der Modellierungsansatz auf künstlichen neurona-
len Netzen, die mit Backpropagation Algorithmen trainiert werden. Zum anderen nutzen
die Netze ausschließlich physikalisch messbare Parameter als Input. Die Datenvorver-
arbeitung wird neben der Sequenzialisierung und Normalisierung um neuartige Algorith-
men zum Under- und Oversampling ergänzt. Das Undersampling wird auf kontinuierliche
Daten adaptiert, mit der Möglichkeit mehrere Features parallel dem Reduktionsprozess
zu unterstellen. Die dabei erzeugte Flexibilität im Multi Feature Undersampling ist für un-
ausgewogene Datensätze ein wichtiges Kriterium, um schnell und präzise Datenvertei-
lungen zu erlangen, die für das Training neuronaler Netze besser geeignet sind. Das an-
schließende Oversampling eliminiert die unterrepräsentierten Featurebereiche in einem
mehrstufigen Prozess, der auf kontinuierliche In- und Outputs angepasst ist. Die Zeit-
abhängigkeiten im Spannungsverhalten der Batterie werden durch rekurrente neuronale
Netze aufgegriffen. Insbesondere zeigen Long Short-Term Memory Zellen die Fähigkeit
selbst langsame elektrochemische Effekte zu modellieren. Ein Teil der Hyperparame-
ter wurde anhand von Vergleichsmodellen experimentell bestimmt, für den anderen Teil
wurden sinnvolle Parameterräume definiert. Dabei ist das Hyperparametertuning in eine
kaskadierte Pipeline gebettet, die unabhängige Parametergruppen mit einem Bayess-
chen Optimierungsframework sequenziell optimiert. Die Datenvorverarbeitung und das
Hyperparametertuning wurden im Rahmen dieser Arbeit anhand zweier Lithium-Ionen-
Batteriepacks erfolgreich verifiziert und über einen sehr großen Temperatur- und Leis-
tungsbereich validiert. Der gesamte Prozess zur Entwicklung eines Batteriemodells auf
Basis von neuronalen Netzen ist komplex und interdisziplinär. Die in dieser Arbeit entwi-
ckelte Datenverarbeitungs- und Hyperparametertuningpipeline stellen ein Tool dar, wel-
ches die Entwicklung solcher Modelle vereinfacht.
i
Abstract
One basic part of the energy transition in the transport sector is the electrification of
the powertrain. Vehicles with a 48V mild hybrid electrical power supply system offer hig-
her energy efficiency than comparable vehicles with a purely internal combustion engi-
ne drive. Due to the high power in relation to the stored energy, the challenge of this
form of vehicle electrical system consists of precise voltage prediction.Voltage predic-
tion is crucial for ensuring the stability of the vehicle electrical system and is therefore
a safety-relevant component in the vehicles. The models currently used in the industry
are based on electrical equivalent circuit models which, in addition to measurable phy-
sical quantities, are also dependent on the state of charge of the battery. With respect
to these two issues, alternative modeling methods are developed in the present work.
On the one hand, the modeling approach is based on artificial neural networks trained
with backpropagation algorithms. On the other hand, the networks use only physical-
ly measurable parameters as input. In addition to sequentialization and normalization
data preprocessing is complemented by novel algorithms for undersampling and over-
sampling. Undersampling is adapted to continuous data, with the possibility of subjecting
multiple features to the reduction process in parallel. The flexibility generated in the multi
feature undersampling is an important criterion for unbalanced datasets to quickly and
accurately obtain data distributions that are more suitable for neural network training.
The subsequent oversampling eliminates the underrepresented feature regions in a mul-
tistep process adapted to continuous inputs and outputs. Time dependencies in battery
voltage behavior are addressed by recurrent neural networks. In particular, Long Short-
Term Memory cells show the ability to model even slow electrochemical effects. One Part
of the hyperparameters were determined experimentally using comparative models, and
reasonable parameter spaces were defined for the other part. Here, the hyperparameter
tuning is embedded in a cascaded pipeline that sequentially optimizes independent pa-
rameter groups using a bayesian optimization framework. The data preprocessing and
hyperparameter tuning were successfully verified and validated over a very wide tem-
perature and power range using two lithium-ion battery packs in this work. The entire
process of developing a neural network-based battery model is complex and interdisci-
plinary. The data processing and hyperparameter tuning pipeline developed in this work
provide a tool that simplifies the development of such models.
ii
Vorwort und Danksagung
Die vorliegende Arbeit entstand während meiner Tätigkeit als Doktorand bei der IAV
GmbH in München in Kooperation mit dem Lehrstuhl für Elektrische Antriebssysteme
und Leistungselektronik (EAL) an der Technischen Universität München (TUM).
Mein besonderer Dank gilt an erster Stelle Prof. Dr.-Ing. Ralph Kennel für die Möglichkeit
zur Promotion und für die Betreuung dieser Arbeit. Vielen Dank für alle inneren und
äußeren Freiheiten, Ihre Unterstützung und das mir entgegengebrachte Vertrauen.
Bei Prof. Dr.-Ing. Andreas Jossen möchte ich mich ausdrücklich für die schnelle Erstel-
lung des umfangreichen Zweitgutachtens sowie für seine Unterstützung und wertvollen
Hinweise bedanken.
Des Weiteren danke ich Prof. Malte Jaensch für die Übernahme des Prüfungsvorsit-
zes.
Ein großes Dankeschön geht an meinen Mentor Dr. rer. nat. Ahmet Taskiran für die fachli-
chen Diskussionen, wertvolle Anregungen und das mir entgegengebrachte Vertrauen.
Dieser Dank gilt ebenso den Kolleginnen und Kollegen der IAV GmbH, die Zusammen-
arbeit hat mir große Freude bereitet.
Mein herzlicher Dank geht an meine Familie und Freunde. Bei meinen Eltern bedanke
ich mich vielmals für ihre fortwährende Unterstützung, ohne die mir meine Ausbildung
so nicht möglich gewesen wäre.
Für den bedingungslosen Rückhalt und ihr Verständnis möchte ich mich ganz besonders
bei meiner Frau Viola bedanken. Ohne ihren Zuspruch wäre mir die Fertigstellung dieser
Arbeit nicht möglich gewesen. Ein ganz besonderer Dank gilt meiner Tochter Marie, die
mich in den letzten Zügen der Ausarbeitung meiner Dissertation maßgeblich motiviert
hat. Ich freue mich nun auf viele gemeinsame Abenteuer mit euch.
iii
Inhaltsverzeichnis
Kurzfassung ..................................................................................................... i
Abstract........................................................................................................... ii
Vorwort und Danksagung .................................................................................. iii
1 Einleitung................................................................................................ 1
1.1 Motivation ............................................................................................... 1
1.2 Ziel der Arbeit.......................................................................................... 4
1.3 Einordnung der Arbeit............................................................................... 5
1.4 Methodik................................................................................................. 6
2 Stand der Technik .................................................................................... 7
2.1 Lithium-Ionen-Batterien ............................................................................ 7
2.1.1 Funktionsweise........................................................................................ 7
2.1.2 Aktivmaterialien ....................................................................................... 10
2.1.3 Leerlaufspannung und Überspannugen ...................................................... 11
2.1.4 Batteriekennwerte .................................................................................... 12
2.1.5 Batteriemanagementsystem...................................................................... 14
2.1.6 Modellierung ........................................................................................... 16
2.2 48 V Bordnetz ......................................................................................... 18
2.2.1 Einsatzzweck .......................................................................................... 19
2.2.2 Komponenten .......................................................................................... 21
2.3 Maschinelles Lernen ................................................................................ 22
2.3.1 Trainingsprozess...................................................................................... 22
2.3.2 Deep Learning......................................................................................... 25
2.3.3 Recurrent Neural Networks ....................................................................... 26
2.3.4 Transformer............................................................................................. 34
2.3.5 Hyperparameter ...................................................................................... 38
3 Daten ..................................................................................................... 43
3.1 Batterie Samples ..................................................................................... 43
3.2 Datengenerierung .................................................................................... 45
3.2.1 CAN-Daten ............................................................................................. 45
3.2.2 HiL-Prüfeinrichtung .................................................................................. 45
4 Datenverarbeitungspipeline ....................................................................... 46
4.1 Auswahl der Features ............................................................................... 47
4.2 Datenvorverarbeitung ............................................................................... 48
4.2.1 Sequenzialisierung................................................................................... 48
4.2.2 Split........................................................................................................ 49
4.2.3 Balancing................................................................................................ 49
4.2.4 Normalisierung ........................................................................................ 58
iv
5 Training und Hyperparametertuning ........................................................... 59
5.1 Trainingsbasierte Hyperparameter ............................................................. 61
5.1.1 Unabhängige Parameter ........................................................................... 61
5.1.2 Tuning Parameter..................................................................................... 62
5.2 Modellbezogene Hyperparameter .............................................................. 63
5.2.1 Recurrent Neural Networks ....................................................................... 63
5.2.2 Transformer............................................................................................. 65
5.3 Hyperparametertuning des LTO-Batterie Modells......................................... 66
5.3.1 Auswahl des Balancings ........................................................................... 66
5.3.2 Begründung für Wahl der Hyperparameter .................................................. 74
5.3.3 Modellparametertuning ............................................................................. 77
5.4 Hyperparametertuning des LFP-Batterie Modells......................................... 81
5.4.1 Auswahl des Balancings ........................................................................... 81
5.4.2 Begründung für Wahl der Hyperparameter .................................................. 86
5.4.3 Modellparametertuning ............................................................................. 89
5.5 Zwischenfazit .......................................................................................... 93
6 Verifikation und Validierung ....................................................................... 95
6.1 Verifikation .............................................................................................. 96
6.2 Validierung .............................................................................................. 96
6.2.1 Messungen der HiL-Prüfeinrichtung ........................................................... 96
6.2.2 Validierungsergebnisse............................................................................. 101
6.3 Vergleich Modellierungsansätze ................................................................ 111
7 Zusammenfassung und Ausblick................................................................ 115
7.1 Zusammenfassung................................................................................... 115
7.2 Ausblick .................................................................................................. 117
v
Abbildungsverzeichnis
Abbildung 1 Zusammenhang der Begrifflichkeiten künstliche Intelligenz, Data Mi-
Abbildung 3 Schema der Verarbeitung des Training, Validation und Test Set in
Abbildung 8 Verhalten von Loss und Validation Loss bei Overfitting (a) und kei-
Abbildung 9 Beispielhaftes neuronales Netz mit (a) und ohne (b) Dropout ............ 33
peline.......................................................................................... 46
und Strom vor und nach einem Undersampling der Daten mit den
vi
Abbildung 19 LTO-Batterie - Datenverteilungen von verschiedenen Oversampling
timierer ....................................................................................... 75
Abbildung 24 LTO-Batterie - Loss, Validation Loss und MAXE im Verlauf eines Trai-
und Strom vor und nach einem Undersampling der Daten mit den
timierer ....................................................................................... 87
Abbildung 33 Validierung und Verifizierung im Rahmen des V-Modells mit den je-
vii
Abbildung 37 LTO-Batterie - Validierung des Modells mit dem Profil „Val_LTO_5“
viii
Tabellenverzeichnis
Tabelle 1 Kennwerte der Batteriesamples ......................................................... 44
Features.......................................................................................... 67
Tabelle 4 LTO-Batterie - MAXE von RNN und Transformer Modellen für verschie-
Tabelle 5 LTO-Batterie - MAXE von RNN und Transformer Modellen für weitere
Tabelle 8 LFP-Batterie - MAXE von RNN und Transformer Modellen für verschie-
Tabelle 9 LFP-Batterie - MAXE von RNN und Transformer Modellen für weitere
Tabelle 15 Fehlermetriken der finalen Batterie Modelle über das gesamte Validati-
ix
Akronyme
A
Adam - Adaptive Moment Estimation................................................................... 39
AEKF - Adaptive-Extended-Kalman-Filter ............................................................ 18
ANFIS - Adaptiven Neuro-Fuzzy-Inferenzsystem.................................................. 18
ASHA - Asynchronous Successive Halving Algorithm........................................... 62
B
BEV - Battery Electric Vehicle ............................................................................. 18
BGD - Batch Gradient Descent ........................................................................... 39
BMS - Batterie-Management-System .................................................................... 3
BN - Batchnormalisierung................................................................................... 76
BP - Backpropagation......................................................................................... 27
BPTT - Backpropagation Through Time Algorithmus ............................................ 27
C
CNN - Convolutional Neural Network................................................................... 25
D
DCR - Direct Current Resitance .......................................................................... 17
DEC - Diethylcarbonat.......................................................................................... 9
DEKF - Dual-Extended-Kalman-Filter .................................................................. 18
DM - Diskriminative Modell ................................................................................. 25
DMC - Diemthylcarbonat....................................................................................... 9
E
EIS - Elektrochemische Impedanzspektroskopie .................................................. 17
ESB - Ersatzschaltbildmodell .............................................................................. 16
F
FFNN - Feed Forward Neural Networks............................................................... 17
FUS - Focused-Undersampling ........................................................................... 50
G
GAN - Generative Adversarial Network................................................................ 25
GD - Gradientenabstiegsverfahren ...................................................................... 39
GM - Generative Modell...................................................................................... 25
GRU - Gated Recurrent Unit ............................................................................... 18
GT - Ground Truth.............................................................................................. 23
H
HPPC - Hybrid Pulse Power Characterization ...................................................... 17
x
I
ICV - Internal Combustion Enginge Vehicle.......................................................... 18
K
KF - Kalman-Filter.............................................................................................. 13
KI - Künstliche Intelligenz...................................................................................... 1
L
LFP - Lithium-Eisenphosphat................................................................................ 9
LIB - Lithium-Ionen-Batterie .................................................................................. 3
LMO - Lithium-Mangan-Oxid............................................................................... 11
LR - Learningrate ............................................................................................... 76
LSTM - Long Short-Term Memory....................................................................... 17
LTO - Lithium-Titanat .......................................................................................... 10
LU - Language Understanding ............................................................................ 34
LUT - Look-up-Tables ......................................................................................... 17
M
MAE - Mean Absolute Error ................................................................................ 24
MAPE - Mean Absolute Percentage Error ............................................................ 25
MAXE - Max Absolute Error ................................................................................ 24
MFU - Multi-Feature-Undersampling.................................................................... 50
MHEV - Mild-Hybrid-Fahrzeug .............................................................................. 3
MLP - Multi Layer Perceptron.............................................................................. 25
MSE - Mean Square Error................................................................................... 23
N
NCA - Lithium-Nickel-Cobalt-Oxid ....................................................................... 11
NLP - Natural Language Processing................................................................ 1, 34
NMC - Lithium-Nickel-Mangan-Cobalt-Oxid.......................................................... 11
NN - Neuronales Netzwerk ................................................................................... 1
O
OCV - Open-Circuit-Votlage................................................................................ 11
P
PHEV - Plug-In Hybrid Vehicle ............................................................................ 18
R
RNN - Rekurrentes Neuronales Netzwerk............................................................ 17
RUS - Random-Undersampling........................................................................... 50
S
SEI - Solid-Electrolyte-Interphase........................................................................ 10
xi
SGD - Stochastic Gradient Descent..................................................................... 39
SMOTE - Synthetic Minority Oversampling Technique .......................................... 55
SOC - State-of-Charge......................................................................................... 3
SOF - State-of-Function...................................................................................... 15
SOH - State-of-Health ........................................................................................ 14
SOP - State-of-Power ......................................................................................... 13
SOS - State-of-Safety......................................................................................... 15
T
TBPTT - Truncated Backpropagation Through Time Algorithmus .......................... 27
xii
1. Einleitung
1.1. Motivation
Im Allgemeinen werden Algorithmen, die spezielle Fragen auf Basis von vorher selbst
erlernten Zusammenhängen beantworten können, als „schwache KI“ bezeichnet. Die
sogenannte „starke KI“ kann Probleme genereller Art lösen, ist aber bis jetzt noch nicht
realisiert worden. Abbildung 1 zeigt die Zusammenhänge der im Sprachgebrauch oft
diffus verwendeten Begriffe KI, Data Mining, maschinelles Lernen und Deep Learning.
Data Mining ist eine wichtige Grundlage für KI-Produkte. Deep Learning dagegen ist ein
Teilgebiet des maschinellen Lernens. Je nachdem ob gelabelte Daten vorhanden sind
oder nicht, spricht man bei den algorithmischen Ansätzen des maschinellen Lernens von
überwachtem oder unüberwachtem Lernen.
Der große Vorteil von maschinellem Lernen ist, dass die zum Teil sehr großen Daten-
mengen verarbeitet werden und dann für das Lernen der Zusammenhänge im Daten-
satz genutzt werden. Das Lernen erfolgt nicht regelbasiert aber automatisiert, wodurch
ein Einsatz von Fachleuten aus dem zu lernenden Gebiet nicht notwendig ist. Der Algo-
rithmus bleibt auch während dem Einsatz lernfähig und kann richtige Entscheidungen in
Sekundenschnelle treffen. Zudem können aufgrund der hochkomplexen Strukturen Zu-
sammenhänge erkannt werden, die höchst nichtlinear und von Menschen schwer bzw.
nicht zu erkennen sind.
1
diagnose, zeigen KI-Systeme die gleiche Güte in der Analyse wie Fachärzte. Jedoch
benötigen die Maschinen deutlich weniger Zeit dafür [2]. Die Energiewende ist ein wei-
teres gegenwärtiges Problem, welches mithilfe von KI effizienter gelöst werden kann.
Abbildung 1 Zusammenhang der Begrifflichkeiten künstliche Intelligenz, Data Mining, maschinelles Lernen und Deep
Learning
2
Einen wichtigen Beitrag zur Energiewende leistet die Elektrifizierung des Verkehrssek-
tors. Um diesen Schritt zu erfüllen, ist die Entwicklung und Produktion von vielen ver-
schiedenen und großen elektrischen Energiespeichern notwendig. Neben batteriebe-
triebenen Elektrofahrzeugen, mit ihren Nachteilen in Bezug auf die Infrastruktur, Kos-
ten und Reichweite, besteht eine vielversprechende Lösung zur Reduzierung der CO2 -
Emissionen in der Hybridisierung von Fahrzeugen mit Verbrennungsmotor. Ein Mild-
Hybrid-Fahrzeug (MHEV) mit einem 48-V-Bordnetz ist eine kostengünstige und effektive
Elektrifizierungsvariante [3]. Eine elektrische Maschine sorgt für die Energierückgewin-
nung beim Bremsen und unterstützt den Verbrennungsmotor beim Beschleunigen sowie
bei der Lastpunktanpassung. Außerdem können riemengetriebene Verbraucher elektrifi-
ziert und mit der gewonnenen Energie betrieben werden. Die rekuperierte Energie muss
in einem elektrischen Energiespeicher, meist in Form einer Lithium-Ionen-Batterie (LIB),
gespeichert werden.
Die Anforderung bezüglich des Reifegrades, der Energie- und Leistungsdichte, der Si-
cherheit sowie der Kosten erfüllen derzeit LIB, im Vergleich zu den anderen Batterietech-
nologien, am ausgewogensten. Trotz der Vorteile einer LIB ist das Entwicklungspotential
in dieser Technologie noch immer groß. Alternative Anoden- und Kathodenmaterialien,
optimiertes Packaging und Kühlung sowie ein effizientes Batterie-Management-System
(BMS) sind vielversprechende Entwicklungsbereiche in der LIB-Forschung. Insbesonde-
re durch ein intelligentes und leistungsfähiges BMS, mit den Zustandsschätzern zum
Lade- und Leistungszustand, können die Potentiale der Zellchemie einer Batterie voll-
umfänglich genutzt werden.
In Bezug auf die Batteriekapazität führt bei MHEV-Bordnetzen die hohe angewandte
Leistung dazu, dass die Vorhersage von Leistungsfähigkeit und Spannung kritischer ist
als die Schätzung des Ladezustands (engl. State-of-Charge (SOC)). Durch eine besse-
re Spannungsvorhersage kann das System häufiger unbegrenzt betrieben werden. Im
Energiemanagement eines Bordnetzes werden die kumulierten Anforderungen der Ver-
braucher hinsichtlich der Leistung und des Stroms in Bezug auf die Bordnetzstabilität
geprüft. Dazu wird die geforderte Leistung an das BMS weitergeben, welches daraufhin
eine zu erwartende Spannung schätzt. Liegt diese Spannung innerhalb der festgelegten
Grenzen, können die Verbraucher uneingeschränkt arbeiten. Werden Spannungsgren-
zen überschritten, müssen Maßnahmen zur Leistungsreduzierung bzw. Leistungserhö-
hung eingeleitet werden. Durch eine genauere Spannungsprädiktion kann eine größere
Nutzbarkeit des Speicherinhalts sichergestellt werden.
3
1.2. Ziel der Arbeit
Der im Kapitel 2.1.6 beschriebene Stand der Technik zur Batteriemodellierung zeigt un-
terschiedliche Modellierungstechniken für State-of-Power Predictions. Modelle auf Basis
neuronaler Netze sind in der Literatur selten zu finden, insbesondere ist keine Anleitung
zum Aufbau dieser Modelle und der damit eng verbundenen Datenvorverarbeitung vor-
handen. Die Fortschritte in der Rechengeschwindigkeit der Chips sowie die stetige Wei-
terentwicklung neuer Modelle und Algorithmen im Bereich des maschinellen Lernens
versprechen eine erfolgreiche Anwendung von künstlicher Intelligenz in der Batteriemo-
dellierung.
Auf Basis dessen können für diese Dissertation folgende vier Ziele formuliert werden:
4
zu bestimmen und eine schnelle effiziente Datenstruktur muss aufgebaut werden.
Die Datenaufbereitung mit der damit verbundenen Reduzierung, Normalisierung
und Verteilungsoptimierung soll mit einem für Batteriemodelle optimiertem Algo-
rithmus durchgeführt werden. Der Algorithmus soll sowohl die in der Literatur gän-
gigen Methoden nutzen als auch bei Notwendigkeit neu entwickelte Ansätze mit
einbeziehen. Unterschiedliche NN sollen verglichen werden und daraus konkrete
Modellierungsansätze vorgeschlagen werden. Trainingsparameter sollen insofern
möglichst pauschal erarbeitet werden, andernfalls ein Hyperparametertuning Al-
gorithmus entwickelt werden. Dafür müssen alle Hyperparameter erläutert und die
Parameteroptionen eingegrenzt werden. Der Tuning Algorithmus soll schnell und
präzise arbeiten.
4. Die Validierung des für die Verifikation erstellten Modells: Die in der Verifikation
erstellten Modelle müssen in einem Rahmen validiert sein, der die tatsächlichen
möglichen Arbeitspunkte der Batterie abdeckt. Die vom Trainingsdatensatz sepa-
rierten Validierungsmessungen werden mit Testsamples an Prüfstanden erzeugt.
Die aus der Validierung resultierende Modellgüte wird mit anderen Modellierungs-
techniken verglichen.
Die Arbeit darf nicht als allgemeingültiges Batteriemodell für bestimmte Zellchemien,
Batteriegrößen oder Anwendungsfälle verstanden werden, sondern als ein Tool zur Pa-
rametrisierung eines Batteriemodells auf Basis von NN inklusive der damit verbundenen
Datenvorverarbeitung.
In Abgrenzung zu vielen Batteriemodellen wird in dieser Arbeit weder der SOC model-
liert noch auf den SOC als Input zurückgegriffen. SOC-Modellierungen sind in der Lite-
ratur vielfach in einigen verschiedenen Ausführungsformen diskutiert worden, wie auch
in Kapitel 2.1.6 beschrieben wird. Die übliche Modellierungsmethode mit SOC als Input
geht mit einem Verlust an Flexibilität im Entwicklungsprozess und einer begrenzten ma-
ximalen Modellgüte einher, weshalb in dieser Arbeit untersucht wird, inwiefern dieses
vermieden werden kann.
5
1.4. Methodik
• Kapitel 3: Grundlage für das Training von NN sind Daten, die zunächst erhoben wer-
den müssen. Die Trainingsdaten werden ergänzt um Validierungsdaten, welche se-
parat an einem HIL Prüfstand erfasst werden.
• Kapitel 4: In diesem Kapitel werden Algorithmen vorgestellt und entwickelt, die zum
Erreichen des Ziels „Eine geregelte Vorgehensweise zur Datenverarbeitung und Mo-
dellierung von NN im Batteriekontext etablieren“ dienen. In der Literatur übliche Ver-
fahren zum Splitten der Datensätze, der Sequenzialisierung und der Normalisierung
wurden ergänzt durch neu entwickelte Algorithmen. Insbesondere das Under- und
Oversampling wurde speziell für diesen Anwendungsbereich um Methoden erwei-
tert, welche die besonderen Gegebenheiten der Batteriemodellierung, wie die Anzahl
und den Einfluss der Features auf die Modellgüte, variabel austesten und somit das
Optimum finden kann. Zusammen mit der Auswahl der Features entsteht eine Daten-
verarbeitungspipeline, die auf die Eingangsdaten geregelt angewendet werden kann.
• Kapitel 5: Hier wird beschrieben, wie und in welcher Reihenfolge die Hyperparameter
des NN getuned werden. Das Tuning wird an zwei konkreten Batterie Samples durch-
geführt. Zusammen mit der Anwendung der Datenverarbeitungspipeline wird das Ziel
der erfolgreichen Verifikation angestrebt.
• 6: Anschließend werden die Modelle mit den am Prüfstand erhobenen Daten verifi-
ziert und validiert, sowie in Relation zur Modellgüte von herkömmlichen Batteriemo-
dellen gestellt.
6
2. Stand der Technik
2.1. Lithium-Ionen-Batterien
Die Komplexität der Lithium-Ionen-Batterie wird stark von ihren physikalischen und che-
mischen Eigenschaften beeinflusst und ist daher grundlegend für die Modellierung. Das
BMS überwacht die Zustände der Batterie sowohl mit Hilfe von Sensoren als auch mit
Zellmodellen.
2.1.1. Funktionsweise
7
Abbildung 2 Funktionsweise einer Lithium-Ionen-Batterie mit Anode, Separator, Kathode und den Ableitern
8
Die zugrundeliegende Oxidation der Lithium-Eisenphosphat-Batterie (LFP) Kathode ist
in Gleichung 2.1 für den Ladefall dargestellt.
Laden
LiFePO4 −−−−→ FePO4 + Li+ + e− (2.1)
Laden
C6 + Li+ + e− −−−−→ LiC6 (2.2)
Die daraus resultierende Redoxreaktion ist in Gleichung 2.3 sowohl für den Lade- als
auch für den Entladefall gegeben.
Entladen
FePO4 + LiC6 −
−−
↽ −−
−−−−
−⇀− LiFePO4 + C6 (2.3)
Laden
Die Wahl der Materialien beeinflusst die elektrischen Eigenschaften der Zelle. Die Io-
nenleitfähigkeit des Elektrolyten bestimmt maßgeblich die mögliche Lade- und Entlade-
rate. Flüssige Elektrolyte finden aufgrund der hohen technologischen Reife, der hohen
Ionenleitfähigkeit und der großen thermischen Stabilität derzeit einen großen Anwen-
dungsbereich. Die Elektrolytlösung besteht typischerweise aus einem Solvat (Lithium-
hexaflourphosphaten LiPF6 ) und einem Lösungsmittel wie Diethylcarbonat (DEC) oder
Dimethylcarbonat (DMC). [5]
Der Separator ist eine poröse Membran, die eine Ionen Diffusion zulässt, aber elek-
trisch isoliert. Damit wird eine Trennung der beiden Aktivmaterialien sowohl räumlich als
auch elektrisch gewährleistet. Bezeichnenderweise werden Separatoren aus Polypropy-
len oder Polyethylen [6] mit einer Dicke von weniger als 25 µm hergestellt [7].
Die Stromableiter dienen zur Kontaktierung der Zelle bzw. des Aktivmaterials mit dem
angeschlossenen externen Stromkreis. Durch die Auswahl der Materialien, Kupfer auf
der Anodenseite und Aluminium auf der Kathodenseite, wird ein möglichst kleiner elek-
trischer Widerstand realisiert [8]. Dieser Widerstand wirkt sich direkt auf die Überspan-
nungen unter Belastung aus.
9
2.1.2. Aktivmaterialien
• LTO: Ein weniger weit verbreitetes Material für Anoden ist Lithium-Titanat (LTO)
Li4 Ti4 O12 . Nachteile von LTO Anoden sind die geringere Energiedichte und die ho-
hen Kosten. Dem gegenüber stehen die höhere Sicherheit und die Leistungsfähigkeit.
Durch das im Vergleich zu Graphit Anoden höhere Potential von 1,6 V gegenüber
Li/Li+ reduziert sich die gesamte Zellspannung und dadurch auch die Energiedichte
der Zelle. Die theoretische spezifische Kapazität von 175 mAh/g ist verglichen mit
Graphit deutlich geringer [10]. Die Interkalation der Lithium-Ionen erfolgt unter einer
sehr geringen mechanischen Ausdehnung, was einen positiven Effekt auf die Alte-
rung der Zelle hat. Aus diesem Grund können Zellen mit LTO Anoden sowohl eine
sehr große zyklische Stabilität als auch sehr hohe Stromraten erreichen [14]. Auf-
grund des hohen Potentials gegenüber Li/Li+ entsteht nahezu keine SEI-Schicht [15].
Die fehlende SEI-Schicht und die Tatsache, dass LTO Anoden selbst bei Tempera-
turen um 100°C keinerlei gasförmige Dekompositionspodukte erzeugen, führen zu
10
einer sehr hohen Sicherheit in Bezug auf Thermal Runaways [16].
• LFP: LFP LiFePO4 wurde durch das Doping von Kohlenstoffpartikeln und der damit
verbundenen besseren Hochstromfähigkeit zu einem konkurrenzfähigen Kathoden-
material [17, 22]. Sowohl die Schnelladefähigkeit als auch die thermische Sicherheit
bieten Vorteile gegenüber anderen Materialien [13]. LFP ist bis zu 250°C thermisch
stabil, es gibt keine Sauerstoffentwicklung und es hat die besten Überladeeigenschaf-
ten [23]. Die Volumenänderung während der Zyklisierung beträgt nur 6,77 % [24], was
eine große Lebensdauer begünstigt [25]. Die niedrige Energiedichte von LFP Katho-
den resultiert zum einen aus der im Vergleich zu NMC geringen theoretischen spe-
zifischen Kapazität von 170 mAh/g [17] und zum anderen aus dem relativ niedrigen
Potential gegenüber Li/Li+ von 3,4 V [20].
Die Differenz der beiden Potentialkennlinien der Aktivmaterialien bestimmt die Leerlauf-
spannung (engl. open-circuit-votlage (OCV)) einer Zelle. Die Nenn-OCV addiert sich bei
C-LFP Zellen auf ca. 3,2 V, sowie bei LTO-NMC Zellen auf ca. 2,4 V. Durch das hohe Po-
tential der LTO Anode gegenüber Li/Li+ , liegt die Spannung der LTO-NMC Zelle deutlich
unterhalb der von einer C-LFP Zelle. Des weiteren ist der Verlauf der OCV Kennlinie von
LFP-Zellen im mittleren SOC Bereich sehr flach.
Die tatsächlich an den Batteriepolen gemessene Spannung Upol ist für die meisten An-
wendungsfälle die entscheidende Größe, da anhand dieser die Betriebsstrategie der
Zelle bzw. des Batteriepacks ausgelegt und angepasst wird. Diese setzt sich zum einen
aus der OCV und zum anderen aus Überspannungen Uover zusammen, die sich je nach
aktueller und vergangener Belastung der Zelle einstellen.
11
Upol = OCV + Uover (2.4)
Die Überspannungen der Zelle setzen sich aus drei Effekten zusammen:
Aufgrund der vielen nichtlinearen Abhängigkeiten, ist die aus dem Betrieb der Zelle resul-
tierende Spannung eine komplexe Größe der Batterie. Sie ist sowohl von den aktuellen
als auch von vergangenen Belastungen und den Stati der Zelle abhängig.
2.1.4. Batteriekennwerte
Der Ladezustand der Batterie ist ein sowohl für die Modellierung der Batterie als auch
für die Berechnung der entnehmbaren Energiemenge verwendeter Status. Viele interne
Batterieparameter und Effekte, wie der Innenwiderstand oder die Diffusion, sind abhän-
gig von der Lithiumkonzentration in den Aktivmaterialien und damit indirekt abhängig vom
SOC. Der SOC wird berechnet mit der noch entnehmbaren Kapazität Qent im Verhältnis
zur Nennkapazität Qnenn :
Qent
SOC = (2.5)
Qnenn
Der SOC ist eine Hilfsgröße, die physikalisch nicht direkt gemessen werden kann. Für
die exakte Bestimmung müsste die Batterie komplett entladen werden und dabei der
gemessene Strom über die Zeit integriert werden.
Z SOC0
Qent = IBatt dt (2.6)
SOCini
In der realen Anwendung im Fahrzeug ist eine Entladung der Batterie zur Bestimmung
des SOCs zu aufwändig oder nicht möglich, da die Batterie weiter belastet und geladen
wird. Ist der initiale SOC bekannt, kann das Amperestundenzählen den SOC in Echtzeit
12
berechnen. Nachteil dieses Verfahrens ist, dass Fehler in der Strommessung durch die
Integration akkumuliert werden. Dies ist vor allem für lange Berechnungszeiträume nicht
zu vernachlässigen. [26]
Eine weitere Möglichkeit der Bestimmung des SOCs besteht über die OCV. Ist die OCV
Kennlinie der Batterie bekannt, kann anhand einer Ruhespannungsmessung bestimmt
werden, welcher SOC vorliegt. Dafür müssen alle Prozesse, die Überspannungen verur-
sachen, abgeklungen sein. Dies bedeutet, dass die Batterie für mehrere Stunden nicht
belastet werden darf. Da die OCV Methode in den meisten Applikationen unpraktikabel
ist und die Amperestundenbilanzierung die Problematik der Fehlerintegration hat, wird
der SOC meist mithilfe anderer Verfahren geschätzt.
Der State-of-Power (SOP) einer Batteriezelle gibt an, wieviel elektrische Leistung un-
ter Berücksichtigung der geltenden Rahmenbedingungen einer Zelle entnommen oder
zugeführt werden kann. Auf Zellebene sind die Rahmenbedingungen bestimmt durch
die vom Hersteller definierten Strom- und Spannungsgrenzen, die einen sicheren Be-
trieb der Zelle gewährleisten. Darüber hinaus können die Rahmenbedingungen für gan-
ze Batteriepacks je nach Anwendungsfall verschärft werden. Gelten für den Strom die
maximalen Grenzen Imax_dis und Imax_charge sowie für die Spannung die Grenzen Umin
und Umax , so kann die maximale Entladeleistung Pmax_dis wie folgt dargestellt werden:
max_dis ∗ U wenn U > Umin ,
I
Pmax_dis = (2.7)
I ∗ U sonst.
min
Die Leistungsfähigkeit einer Batterie ist zudem von der Dauer der Belastung abhängig.
Durch längere Belastungen kumulieren sich die Polarisationsüberspannungen und der
Ladezustand der Batterie ändert sich ggf. signifikant. Der tatsächliche Strom an der Bat-
terie ergibt sich aus der Superposition aller Strombedarfe der Verbraucher sowie der
Stromabgabe der Erzeuger. Die Spannung, die sich im Bordnetz einstellt, ist hingegen
rein von der Batterie als einzigen Spannungserzeuger abhängig. Damit ist die SOP-
Modellierung im Bordnetz in erster Linie eine Frage der Spannungsreaktion der Batterie
13
auf die superpositionierten Strombedarfe und –abgaben der Verbraucher bzw. Erzeuger.
Die Leistungsfähigkeitsprognose der Batterie wird somit zu einer Abfrage im Bordnetz,
ob die Spannungsgrenzen Umax und Umin bei einem zeitlich abhängigen Bordnetzstrom
IBN (t) eingehalten werden:
|I|
Crate = (2.10)
Qnenn
Die maximale C-Rate unterscheidet sich je nach Zellchemie in Entlade- und Laderich-
tung [30].
2.1.5. Batteriemanagementsystem
14
rung verlieren Batterien aufgrund von internen Alterungsmechanismen zyklisierbare
Kapazität [25]. Durch die Alterung steigt auch der Innenwiderstand der Zelle. Der
Innenwiderstand [35] sowie die Impedanz [36] werden geschätzt und für weitere Mo-
delle wie die Leistungsschätzung [37], den Funktionsstatus (engl. State-of-Function
(SOF)) und den Sicherheitszustand (engl. State-of-Safety (SOS)) [38] genutzt.
• Sicherheit: Durch die Wahl der Komponenten und deren chemische Eigenschaf-
ten werden die elektrischen Betriebsbereiche einer Zelle festgelegt. Die gemesse-
nen Werte werden permanent mit den Spannungs- und Stromgrenzen verglichen.
Bei einer Verletzung dieser Extrema werden Maßnahmen eingeleitet, um den siche-
ren Betrieb der Zelle zu gewährleisten. In erster Linie werden Maßnahmen zur Re-
duzierung der Leistung ergriffen, die einen weiteren Betrieb der Zelle ermöglichen. In
zweiter Instanz kann die Zelle oder das gesamte Batteriepack durch ein Trennelement
vom externen Stromkreis getrennt werden und somit vor Über- oder Unterspannun-
gen sowie vor zu großen Strömen geschützt werden [39]. Thermisch wird zum einen
der absolute Wert getrackt und dementsprechend an das thermische Management
Anweisungen zum Heizen oder Kühlen gegeben. Zum anderen wird aber auch der
Temperaturgradient beobachtet, da dieser ein Indikator für einen Thermal Runaway
darstellt [40].
• Thermisches Management: Das thermische Management nutzt zum einen die Mess-
werte der Temperatur als auch thermische Modelle, um das Heizen und Kühlen zu
steuern. Die einzelnen Zellen in den Batteriepacks werden aktiv durch einen Heiz-
/Kühlkreislauf mit einem Liquid direkt umströmt oder durch Kühlplatten indirekt tem-
periert [41]. Ziel ist es, einen möglichst optimalen Temperaturbereich der Zellen zu
erreichen. Typischerweise liegt der in Bezug auf Alterungseffekte optimale Tempera-
turbereich von Batterien während dem Betrieb im Bereich von 20°C bis 45°C [42] und
während der Lagerung bei 25°C [43]. Außerdem kann ein thermisches Event erkannt
und durch Kühlung verzögert werden.
15
mit geringerem Aufwand zu integrieren und ebenso weniger fehleranfällig, jedoch ist
der thermische Einfluss auf das Gesamtsystem hier nicht zu vernachlässigen [44].
Nicht dissipative Systeme leiten die Energie direkt an andere Zellen weiter [46, 47].
Das Balancing der Zellen wird vom BMS, je nach festgestelltem Bedarf, getriggert.
2.1.6. Modellierung
Die nicht messbaren Zustände einer Batterie, wie der SOC, SOH und SOP, sind wichtige
Kenngrößen für ein BMS. Im Gegensatz zu physikalischen Größen (Spannung, Strom
und Temperatur) können diese Zustände nicht direkt gemessen werden und müssen mit
Modellen geschätzt werden.
In der Literatur werden die unterschiedlichen Modellierungsansätze für den SOC breit
diskutiert. Einen etablierten und seit Langem weit verbreiteten Ansatz stellt die Model-
lierung mit einem Ersatzschaltbildmodell (ESB) dar. ESBs modellieren die makroskopi-
schen Effekte der elektrochemischen Prozesse, welche in einer Batteriezelle während
der Ladung und Entladung auftreten. Die Spannungspolarisierung, die durch nichtlinea-
re Effekte aufgrund von Diffusion, Ladungstransfer und die elektrochemische Doppel-
schicht entstehen, werden mit einem oder mehreren RC-Gliedern modelliert. Instantane
Spannungsabfälle werden durch einen einfachen Widerstand dargestellt. Die Kompo-
nenten des ESB werden in Abhängigkeit von Umgebungsfaktoren parametriert. In der
Implementierung werden die einzelnen Parameter der Komponenten per Interpolation
aus Look-Up-Tables generiert. Für das Parameter-Fitting müssen hochgenaue Messun-
gen durchgeführt werden, die einem bestimmten Schema folgen. Madani et al. [50] ha-
ben ein ESB mit zwei RC Gliedern auf eine LTO-Batterie angewendet. Bei einer Unter-
suchung von Farmann [51] verdeutlichte sich, dass eine hohe Anzahl an RC-Gliedern
theoretisch einen Genauigkeitsvorteil bringen sollte, jedoch mehr als zwei RC-Glieder
tatsächlich keinen merkbar positiven Effekt liefern. Physikochemische Modelle basieren
auf den fundamentalen Gleichungen aller physikochemischen Effekte in der Batteriezel-
le. Dadurch sind die Modelle inhärent genauer und für weitere Abschätzungen wie die
Alterung interpretierbar, jedoch sind sie sehr rechenintensiv [32].
Eine weitere Methode zur SOC-Modellierung ist der Einsatz von adaptiven modellbasier-
ten Filtermethoden. Der Kalman-Filter schätzt Systemzustände anhand von fehlerbehaf-
teten Beobachtungen und minimiert den Fehler der Zielgröße. Ding et al. [28] haben den
SOC einer LFP-Batterie mit einer Weiterentwicklung des KF, den extended-KF, model-
16
liert. Meng et al. [34] nutzen sowohl KF als auch extended-KF und unscented-KF für eine
kaskadierte SOC-Modellierung.
Die aktuelle Literatur weist zusätzlich zu den klassischen ESB und KF Modellen eben-
so erste datengestützte Modellierungsansätze auf. Neben den Anwendungen von fuzzy
logic [52] und feed forward neural networks (FFNN) [53] zeigen aktuelle Forschungen
gute Ergebnisse im Bereich von RNN. Der Vorteil von RNN ist die Möglichkeit, Zeitab-
hängigkeiten in die Modellierung zu integrieren. Da zu lange Betrachtungszeiträume bei
einfachen RNNs die Ergebnisse verschleiern lassen (vgl. vanishing gradients), nutzen
aktuelle Modellierungsansätze [54, 55] Long Short-Term Memory (LSTM) erfolgreich zur
SOC-Modellierung.
Vidal et al. [56] zeigten in ihrer Untersuchung, dass RNNs bessere Modellierungser-
gebnisse liefern als FFNNs, jedoch ähnliche Ergebnisse wie Modelle mit KF hervorbrin-
gen.
Die SOH-Modellierung bedient sich an den gleichen Ansätzen wie die SOC-Modellierung.
In der Literatur finden sich sowohl Beispiele für die Modellierung des SOHs mit einem
ESB [57], als auch mit modellbasierten Filtermethoden wie KF und deren Weiterentwick-
lungen [58, 59], sowie datengestützte Modelle auf Basis von NN [60, 61, 62].
Die Modellierung des SOP kann je nach Anwendungsfall, wie in Kapitel 2.1.4 bereits aus-
geführt wurde, entweder über die tatsächliche Leistungsfähigkeit (vgl. Gleichungen 2.7
und 2.8) oder über die Einhaltung der Spannungsgrenzen (vgl. Gleichung 2.9) erfolgen.
Im Nachfolgenden werden sowohl Spannungsmodelle als auch reine Leistungsschät-
zungen als SOP-Modelle aufgefasst.
Farmann et al. [63, 51] haben die SOP-Modellierung in zwei grundlegende Methoden
unterteilt. Zum einen sind das Prädiktionen basierend auf adaptiven charakteristischen
Look-up-Tables (LUT), welche in Abhängigkeit von Batterieparametern SOC, Tempe-
ratur, Dauer des Leistungspulses, angeforderte Leistung und Spannung eine mögliche
Leistungsfähigkeit ausgeben. Die Parametrierung dieser LUTs ist mit einer Vielzahl von
spezifizierten Messungen, wie Hybrid Pulse Power Characterization (HPPC) und Elek-
trochemische Impedanzspektroskopie (EIS) relativ aufwändig. Dagegen ist die Rechen-
geschwindigkeit des Modells in der Anwendung auf dem BMS sehr hoch. In der Ver-
gangenheit wurden einige dieser LUTs aufgestellt [64, 65, 66]. Zum anderen wird von
den Autoren die modellbasierte Prädiktion genannt. Ähnlich wie bei der SOC Schätzung
wird dafür ein ESB Modell mit einem Widerstand und ggf. mehreren RC-Gliedern para-
metriert. Beispielsweise wird in [67] eine Leistungsprognose auf einem einzelnen Wider-
stand, dem Direct Current Resitance (DCR), aufgebaut. Ein einzelner Widerstand kann
die Anforderung, die elektrochemischen Prozesse in der Batterie so genau wie mög-
lich nachzustellen, nicht erfüllen. Aufgrund der Komplexität der Prozesse innerhalb einer
17
Batterie ist die Modellierung nur mit sehr großem Aufwand und mehreren zusätzlichen
RC-Gliedern möglich. Daher werden die ESB um KF ergänzt, um den Schätzungsfehler
zu minimieren. Neben den Ansätzen mit einem klassischen KF [68] sind in der Literatur
ebenso Erweiterungen zum KF, wie dem adaptive-extended-KF (AEKF) [69] oder dem
dual-extended-KF (DEKF) [70], erfolgreich validiert worden.
Die datengestützte Modellierung ist in der SOP-Prädiktion verglichen mit der SOC- oder
SOH-Modellierung noch nicht in gleichem Umfang in der Literatur zu finden. Haiying et al.
[71] haben ein SOP-Modell mit einem FFNN aufgestellt, welches jedoch keine zeitliche
Abhängigkeit in den Eingangsvariablen besitzt. Fleischer et al. [72, 73, 74] haben eine
Spannungsprognose mit einem Adaptiven Neuro-Fuzzy-Inferenzsystem (ANFIS) auf ei-
ne KF SOC-Schätzung aufgebaut. Die Idee hinter ANFIS ist, die Vorteile der Fuzzylogik
und der künstlich neuronalen Netzwerke zu vereinen, um somit eine effektive Modellie-
rung für nichtlineare Verhaltensmuster zu schaffen. Zeitliche Abhängigkeiten können in
diesem Ansatz nicht berücksichtigt werden. Zhao et al. [75] haben eine Spannungspro-
gnose mit einem RNN implementiert. Die Modellierung erfolgt mit zwei Gated Recurrent
Unit (GRU) Schichten mit je 30 hidden Units. Als Eingangsfeature dienen der SOC, die
Leistung, die Temperatur und die Spannung im vorherigen Zeitschritt. Damit kann die
zeitliche Abhängigkeit der Spannungsentwicklung während der Belastung der Zelle ab-
gebildet werden. Modelliert werden zwei Batterien, eine Panasonic NCA und eine Sony
NMC Zelle, anhand von dynamischen Batteriemessungen im Temperaturbereich von -
10°C bis 25°C. In der Dissertation von Carlos Vidal [76] wird ein RNN Spannungsmodell
sowohl mit LSTM Zellen als auch mit GRU Zellen trainiert und anschließend mit der her-
kömmlichen ESB Modellierung verglichen. Die RNN Modelle bestehen aus zwei Layern
mit jeweils zehn bis zwölf hidden Units. Als Inputfeatures dienen der SOC, der Strom und
die Temperatur. Das ESB ist ein Modell dritter Ordnung mit einem nichtlinearen Wider-
stand, parametrisiert mit einem HPPC Test Verfahren. Der Vergleich der Modellierungs-
ansätze zeigt, dass das LSTM Modell das Spannungsverhalten der Batterie deutlich
besser schätzt als das ESB. Dieses Verhalten ist vor allem bei kälteren Temperaturen zu
beobachten. Im Vergleich der RNN Technologien zeigt das LSTM Netzwerk eine leicht
bessere Genauigkeit gegenüber dem GRU Netzwerk.
2.2. 48 V Bordnetz
18
2.2.1. Einsatzzweck
Die Auslegung der E-Maschine ist abhängig von der Topologie. MHEVs in einer seriell-
Hybriden Topologie müssen aufgrund der Leistungsübertragung aus dem Verbrenner
sehr groß dimensioniert werden, für seriell-parallel-Hybride Topologien werden zwei E-
Maschinen benötigt. Aus diesen Gründen werden MHEVs in der Regel als parallel-
Hybride Topologie ausgeführt [3].
• P1-Hybrid: In dieser Topologie ist die E-Maschine direkt auf der Kurbelwelle des Mo-
tors verbaut. Die starre mechanische Verbindung mit der Antriebswelle ermöglicht
zwar höhere Leistungen, jedoch kann die E-Maschine nicht betrieben werden, ohne
dass sich der Verbrennungsmotor mitdreht [79].
• P2-Hybrid: Die E-Maschine ist zwischen der Kupplung und dem Getriebe angeord-
net. Daraus ergibt sich die Möglichkeit das Fahrzeug rein elektrisch anzutreiben. Aus
diesem Grund ist der Einsatz von Motor-Aus-Segeln und elektrischem Kriechen mög-
lich [79]. Eine Spezialform stellt ein E-Doppelkupplungsgetriebe dar, wobei die E-
Maschine im Getriebe am Eingang einer der beiden Wellen angebracht ist [80].
• P4-Hybrid: In dieser Bauweise wird ein Allradsystem realisiert, indem eine Achse
vom Verbrennungsmotor und eine andere von der E-Maschine angetrieben wird. Hier
ist eine sehr leichte Integration möglich, da kein Eingriff auf den herkömmlichen An-
triebsstrang stattfindet [77].
Das Kraftstoffeinsparpotential hängt von der Bauart ab. Bei P0 und P1 Topologien wer-
19
den zwischen 4 % und 8 % Kraftstoff eingespart. Bei P2, P3 und P4 Topologien sind es
bis zu 15 % [78]. Die tatsächliche Einsparung ist von der Auslegung der Komponenten
und der Betriebsstrategie abhängig.
Der größte Teil der Einsparung wird durch das Rekuperieren der Bremsenergie erreicht
[81]. Beim Rekuperieren wird die E-Maschine generatorisch betrieben und somit elektri-
sche Leistung erzeugt. Die Energie, welche sonst durch mechanische Bremsen in Wär-
me umgewandelt worden wäre, wird nun in der Batterie zwischengespeichert [82]. Der
Wirkungsgrad der Rekuperation ist abhängig von der gewählten Topologie. Je näher
die E-Maschine an der angetriebenen Achse liegt und somit weniger Komponenten zwi-
schengelagert die Effizienz mindern, desto höher ist der Wirkungsgrad. P3 und P4 Topo-
logien erreichen 91 %, P2 85 %, P1 79 %, und P0 72 %. Für das elektrische Fahren und
Boosten gelten die gleichen Wirkungsgrade, da die Kraft über die gleichen Komponenten
hin zur Achse übertragen wird [82]. Reines elektrisches Fahren kann nur von Topologi-
en unterstützt werden, in denen die E-Maschine mit einer Kupplung vom Motor getrennt
werden kann [79]. Die Unterstützung des Verbrennungsmotors durch die E-Maschine
beim Beschleunigen kann von allen Topologien gewährleistet werden. Dadurch wird die
Verbrennungskraftmaschine in einem effizienteren Betriebspunkt betrieben und die aus
der Rekuperation gewonnene Energie kann abgegeben werden [83]. Eine weitere Funk-
tionalität, die bereits in den Micro-Hybriden eingesetzt wird, ist das Start-Stopp-System.
Hier wird der Verbrennungsmotor in Standphasen abgestellt und das Bordnetz rein aus
den Batterien versorgt. Dabei ist immer sicherzustellen, dass das Fahrzeug startfähig
bleibt [82]. Weiteres Einsparpotential bringt das Motor-Aus-Segeln mit sich. In diesem
Zustand wird der Verbrennungsmotor während der Fahrt auch bei großen Geschwin-
digkeiten ausgeschaltet und das Fahrzeug rollt mit verminderter Reibung aus (passives
Segeln) oder die Geschwindigkeit wird durch den Antrieb der E-Maschine gehalten (akti-
ves Segeln). Die CO2 Emissionseinsparung bei realen Geschwindigkeitsprofilen, wie im
WLTP-Zyklus, liegt beim Einsatz von aktivem und passivem Segeln je nach Fahrzeug-
klasse zwischen 12 % und 14 %. [84] Die Start-Stop Funktionalität bringt eine erhebliche
CO2 Einsparung im urbanen Umfeld mit sich. Das Segeln hingegen ist vor allem auf extra
urbanen Straßen bzw. auf Autobahnen effizient [81].
Die beschriebenen Betriebsmodi des MHEV verfolgen das Ziel der Kraftstoffeinsparung.
Im Vergleich zu einem Fahrzeug mit einem Dieselmotor werden mit einem MHEV Sys-
tem ca. 9 % Kraftstoff und Harnstoff eingespart. Ein HEV spart im Vergleich ca. 22 %
ein [85]. Die Vorteile eines MHEV liegen in der einfachen Integration und den damit ver-
bundenen geringen Kosten. Dadurch, dass die VDE-Kleinspannungsgrenze von 60 V
nicht überschritten wird, können die 48 V Komponenten im Vergleich zu 12 V Kompo-
nenten ohne erhöhte Schutz- und Sicherheitseinrichtungen verbaut werden. Durch die
einfache Integrierbarkeit sowie die schnell zu erreichenden großen Stückzahlen dient der
MHEV als Einstieg in die Elektrifizierung des Antriebes. Große Stückzahlen sind durch
kleine Markteintrittsbarrieren möglich, da beispielsweise im Gegensatz zu BEVs oder
20
PHEVs keine Ladeinfrastruktur aufgebaut werden muss. Das Gewicht der zusätzlichen
Komponenten wird teilweise durch die kleineren Leitungsquerschnitte im 48 V Bordnetz
kompensiert. Neben den Vorteilen der CO2 Emissionseinsparung gibt es auch kundenre-
levante Vorteile. Ein elektrischer Zusatzverdichter erzeugt mehr Drehmoment im unteren
Drehzahlbereich, wodurch ein komfortableres Fahrgefühl entsteht [86]. Die Leistungsfä-
higkeit des 48 V Bordnetzes ermöglicht eine weitere Verbesserung des Komforts durch
Komponenten wie die elektrische Servolenkung oder die Wankstabilisierung [87].
2.2.2. Komponenten
Ein MHEV besteht im Kern aus den drei Komponenten E-Maschine, DC/DC Wandler
sowie Batterie und kann um elektrische Verbraucher erweitert werden.
Der DC/DC Wandler koppelt das 12 V Bordnetz mit dem 48 V Bordnetz. Die meisten
elektrischen Verbraucher sind auf der 12 V Seite, aber die Energie wird auf der 48 V
Seite in das System eingebracht. Somit wird der DC/DC Wandler meist im Buck-Mode
betrieben, um die Spannung im 12 V Bordnetz zu halten. In Ausnahmefällen, wie dem
Verbrennungsmotorstart mit der 48 V E-Maschine, kann der Wandler auch im Boost-
Mode betrieben werden, um die großen Leistungen im 48 V System zu dämpfen. Üblich
sind Leistungen von 1 kW bis 3 kW. [87]
Die 48 V E-Maschine dient als direkter Ersatz für den 12 V Generator und je nach Aus-
legung des 48 V Bordnetzes auch als Ersatz für den Anlasser. Das Energiemanage-
mentsystem entscheidet über den Betriebsmodus und die geforderte Leistung [87]. Die
E-Maschinen werden typischerweise auf 10 kW – 15 kW Leistung ausgelegt. Eine hö-
here Leistung würde nicht zu signifikant mehr rekuperierbarer Energie während dem
WLTP-Zyklus führen [88, 89].
Die Batterie dient im 48 V System als Puffer, um die beim Rekuperieren gewonnene
Energie zwischenzuspeichern und für die Betriebsmodi Segeln, Motorstart und Boost
bzw. für die elektrischen Verbraucher vorzuhalten. Somit hat die Kapazität der Batterie
einen direkten Einfluss auf die CO2 Emissionen eines MHEV. Die Abwägung zwischen
mehr Gewicht und größerem Speicher resultiert in einem optimalen Energieinhalt von
0,3 kWh [81].
Ein zweiter Auslegungsparameter der Batterie ist die maximale Leistungsfähigkeit. Die
Anforderung ist, dass die Rekuperationsleistung der E-Maschine von der Batterie aufge-
nommen werden kann. Bei einer Leistung von 15 kW und einem Batterieenergieinhalt
von 0,5 kWh wird die Batterie mit 30 C geladen.
15 kW
= 30 C (2.11)
0, 5 kWh
21
Im Vergleich zu den Anforderungen bei einem BEV, ist diese Ladeleistung deutlich mehr
herausfordernd. Der „Taycan“ von Porsche kann bei einem Batterieenergieinhalt von 95
kWh mit maximal 350 kW geladen werden, was zu einer maximalen C-Rate von 3,68 C
führt [90].
350 kW
= 3, 68 C (2.12)
95 kWh
Die hohen Stromraten stellen sowohl eine Herausforderung in der Funktionsweise der
Batterie als auch in der Modellierung dar. Die Hochstromfähigkeit der Batterien wird
durch die Diffusion im Aktivmaterial und die Leitfähigkeit begrenzt [91]. Des weiteren
altern Batterien bei hohen C-Raten schneller [30].
Maschinelles Lernen ist ein Teilgebiet der künstlichen Intelligenz, welches sich mit dem
Lernen von Computern anhand von Daten beschäftigt. Dabei wird in drei algorithmische
Ansätze unterteilt:
• Reinforcement Lernen: Ein Agent bewegt sich in einer bestimmten Umgebung und
interagiert mit dieser. Vom Diskriminator bekommt er abhängig vom Status eine Be-
lohnung bzw. Bestrafung. Ziel ist es, dass der Agent die Nutzenfunktion maximiert,
um so implizit das bestrebte Verhalten zu erlernen.
• Überwachtes Lernen: Das Modell wird anhand von gelabelten Daten trainiert. Für
jeden Input ist ein Label (Ground Truth) vorhanden, mit dem Ziel, dass das Modell
jeden dieser Punkte möglichst genau prädiziert.
Bei diskreten Ergebnisräumen, spricht man von Klassifikation, bei kontinuierlichen Er-
gebnisräumen von Regression. Da in der vorliegenden Arbeit gelabelte, kontinuierliche
Daten vohranden sind, wird vor allem das überwachte Lernen mit Regressionsmodellen
betrachtet.
2.3.1. Trainingsprozess
Die Abbildung 3 zeigt den Trainingsprozess von überwachtem Lernen mit gelabelten Da-
ten. In der Datenvorverarbeitung werden die Rohdaten vorverarbeitet, um ein möglichst
genaues und effizientes Training zu erreichen. Nach der Datenvorverarbeitung werden
die benötigten Features bestimmt und extrahiert. Die resultierenden Daten werden dann
22
dreigeteilt und für verschiedene Phasen des Trainings bzw. der Validierung eingesetzt.
Somit wird sichergestellt, dass jeder Datenpunkt jeweils exklusiv in einem der drei Da-
tensätze vorkommt.
• Training Set: Diese Daten werden verwendet, um das Netz zu trainieren. Das Netz
lernt aus den vorhandenen Daten Muster und Zusammenhänge, indem die Gewichte
und Biases mit dem Backpropagation Through Time Algorithmus angepasst werden.
Die Gleichverteilung der Daten ist für das Training wichtig, da sonst eine algorithmi-
sche Voreingenommenheit in das Modell übertragen wird. Unterrepräsentierte Da-
tenbereiche werden als unwahrscheinlich, bzw. als unwichtig eingestuft, überreprä-
sentierte Bereiche als besonders wahrscheinlich gesehen. Algorithmen zum Under-
und Oversampling optimieren das Trainingsdatenset dahingehend. Mithilfe der Ver-
lustfunktion wird der Loss (vgl. Formel 2.13) aus dem Trainingsdatensatz einer Epo-
che bestimmt.
• Validation Set: Das Validation Set wird für das Hyperparamertuning benutzt. Nach
jeder Epoche die trainiert wird, werden Fehlermetriken wie der Validation Loss auf
Basis des Validation Sets berechnet, die dann Einfluss auf die Wahl der Hyperpara-
meter haben. Die Validierungsdaten überschneiden sich nicht mit den Trainingsdaten
und können daher als ungesehene Daten zur Modellvalidierung genutzt werden.
• Test Set: Mit dem Test Set wird das final trainierte Modell bewertet. Die Daten soll-
ten eine ähnliche Verteilung wie Validation und Training Set haben. Die vom Modell
prädizierten Werte können direkt mit der Ground Truth aus dem Test Set verglichen
werden.
Der Loss wird anhand der Verlustfunktion floss aus der Ground Truth GT und dem ge-
schätzten Wert des Modells YP red berechnet:
Die Metrik wird sowohl für das Trainingsdatenset als Training-Loss als auch für das Vali-
dationsset als Validation-Loss berechnet. Anhand dieser beiden Metriken kann abgelei-
tet werden, wie der Trainingsfortschritt ist und ob Overfitting vorliegt.
Um trainierte Modelle mit anderen zu vergleichen, werden für das Training Set separate
Metriken berechnet. In der Literatur werden oft die mittlere quadratische Abweichung
(engl. Mean Square Error (MSE)) und der mittlere absolute Fehler (engl. Mean Absolute
23
Abbildung 3 Schema der Verarbeitung des Training, Validation und Test Set in der gesamten Datenverarbeitungs- und
Trainingspipeline
n
1 X
M AE = ∗ |Yi − Ŷi | (2.15)
N
i=1
Für eine besser Vergleichbarkeit von Modellierungsansätzen wird der MAE oft auf die
Nennspannung Unenn referenziert. Der mittlere absolute prozentuale Fehler (engl. Mean
24
Absolute Percentage Error (MAPE)) berechnet sich zu:
M AE
M AP E = (2.17)
Unenn
Werden Modelle mit mehreren Schichten trainiert, spricht man vom Deep Learning. Der
ersten Schicht wird der Input übergeben. In den tieferen Schichten werden abstrakte
Muster trainiert, die dann in der letzten Schicht, dem Output, resultieren.
• Multi Layer Perceptron: Ein Multi Layer Perceptron (MLP) ist ein einfaches Feed
Forward Neural Network, welches aus drei oder mehr Schichten besteht. Alle Neuro-
nen sind mit jedem Neuron der vorhergegangen bzw. nachfolgenden Schicht vernetzt.
Daher ist es ein vollvernetztes neuronales Netzwerk. Die Neuronen, außer die der In-
put Schicht, werden über eine nichtlineare Funktion aktiviert. Dabei wird meist auf
tanh oder sigmoid Funktionen zurückgegriffen. Durch diese Aktivierungsfunktionen
können MLP sämtliche Funktionen approximieren [93].
• Convolutional Neural Network: Convolutional Neural Network (CNN) sind eine der
bekanntesten Netzwerktypen, basierend auf der mathematischen Operation, der Fal-
tung (Convolution) von Matrizen. Neben den Faltungsschichten werden in einem CNN
auch Pooling-Schichten und Vollvernetzte Schichten genutzt. Das Pooling soll die
Komplexität für die folgenden Schichten reduzieren und dabei helfen die dominanten
Merkmale zu extrahieren. Die Performance ist vor allem in Bild- und Sprachverarbei-
tungsanwendungen sehr gut [94].
• Recurrent Neural Networks: RNNs sind künstliche neuronale Netze, in denen nicht
nur die Schichten untereinander verbunden sind, sondern auch Verbindungen zwi-
schen Neuronen derselben oder vorhergegangenen Schicht existieren. Dies gibt dem
25
Netz die Möglichkeit persistent Informationen zu speichern. Somit können sequenzi-
elle Daten eingelesen und im Netz verarbeitet werden [97].
In diesem Kapitel wird zunächst auf die Funktionsweise der RNN eingegangen sowie
anschließend die häufig verwendeten GRU, LSTM, Dropout Layern und Dense Layern
erläutert. Abbildung 4 zeigt den Aufbau von einem Neuron in einem RNN. Jedes Neuron
besteht aus mehreren RNN Zellen, welche die Inputs x0−t zu einem Zellzustand C und
dem Ausgang h weiterverarbeiten. Der Input wird in Form von sequenzierten Daten ge-
speist. Der Output der letzten Schicht ist der letzte Wert des Ausgangs ht . Der Ausgang
eines Neurons wird, wie bei einem FFNN, mit w gewichtet und an das nächste Neuron
als Output ot übergeben. Die sequenzierten Inputs entsprechen in der Regel Ausschnit-
ten aus der zeitlichen Reihenfolge der Daten. Die Sequenzlänge t gibt vor, wie viele RNN
Zellen pro Neuron vorhanden sind. Das RNN lernt anhand der Sequenzen das zeitliche
Verhalten der Daten und schätzt bei der Eingabe einer neuen Sequenz den letzten Wert.
26
Backpropagation (BP) ist das Verfahren, welches angewandt wird, um das Netz zu trai-
nieren. Die gelabelten Daten werden zuerst durch das Netz propagiert und anschlie-
ßend das Ergebnis mit dem Label verglichen. Der entstandene Fehler hat Einfluss auf
die Anpassung der Gewichte bei der Backpropagation. Je nach Größe des Fehlers und
Einfluss des einzelnen Neurons auf das Ergebnis wird das Gewicht der Neuronenverbin-
dung aktualisiert. Bei RNN wird ein Backpropagation Through Time Algorithmus (BPTT)
angewendet. Die Zeitreihen werden während der BP aufgefalten und die Fehlerberech-
nung findet in jedem Zeitschritt statt. Die berechneten Fehler werden addiert und für
das Gradientenabstiegsverfahren verwendet [98]. Der Aufwand einen einzelnen Para-
meter bei BPTT zu aktualisieren ist hoch, daher wird oft der Algorithmus der Truncated
Backpropagation Through Time (TBPTT) verwendet. Bei TBPTT werden die Sequenzen
in Truncs unterteilt, die dann einzeln berechnet werden. Die Länge der Truncs gibt die
maximale Zeitabhängigkeit vor [99].
Der Aufbau einer einzelnen RNN Zelle ist in Abbildung 5 dargestellt. Der Input xt wird
zusammen mit ht−1 über die Aktivierungsfunktion tanh zum Output ht verarbeitet.
yt = σ(W hy hy + c) (2.18)
xh hh
ht = σ(W xt + W ht−1 + b) (2.19)
27
RNN Zellen können nur unzureichend Langzeitabhängigkeiten nachbilden. Der Butterfly
Effekt der Chaos Theorie [100] beschreibt die sensitive Abhängigkeit der initialen Bedin-
gungen. So können kleine Änderungen am Eingang eine große Veränderung am Aus-
gang des Netzes verursachen [101]. Zusätzlich führt das vanishing gradients Problem zu
einem verschwimmen der Gradienten innerhalb der Zeitabhängigkeit. Dies haben zuerst
Hochreiter [102] und Bengio [103] beschrieben. Während der BPTT werden die Gradi-
enten wegen der Kettenregel mit rekurrenten Matrix Multiplikationen berechnet. Sind die
Gradienten kleiner als eins, tendieren diese exponentiell gegen 0 zu konvergieren [104].
Die Lösung dieser Problematik wird in den nächsten Sektionen beschrieben. Sind die
Gradienten in der BPTT größer als eins, explodieren die Werte. Das damit einhergehen-
de Problem ist das exploding gradients Problem, dem mit Hilfe von Gradient clipping,
einem Verfahren, bei welchem die Gradienten begrenzt werden, entgegengewirkt wer-
den kann [104].
LSTM Zellen wurden initial von Hochreiter et al. [105] in ihrer Thesis eingeführt. In die-
sem Ansatz wird das vanishing gradient Problem damit gelöst, dass ein zusätzlicher
Status zu jeder Zelle hinzugefügt wird. Abbildung 6 zeigt die Struktur einer LSTM Zelle.
Der versteckte Zustandsvektor ht ist stark vom Zellzustand Ct abhängig. Der Zellzustand
ermöglicht es dem Netzwerk Informationen über einen längeren Zeitraum zu speichern,
ohne auf das vanishing gradient Problem zu stoßen. Das Forgetgate ft , das Inputgate
it und der vorherige Zellzustand Ct−1 haben direkte Auswirkungen auf den Zellzustand
Ct . Das Forgetgate wird mit dem vorherigen versteckten Zustand ht−1 , dem Inputvektor
und einer Aktivierungsfunktion berechnet. Der Kandidat für das Aktualisierungsgate Ct
hat die gleichen Inputs, wird aber mit einer tanh Funktion aktiviert. Das Inputgate it und
das Outputgate ot werden ähnlich wie das Forgetgate berechnet. W und U beschreiben
die entsprechenden Matrizen, b ist der Vorspannungsvektor und σ ist die Aktivierungs-
funktion.
28
Abbildung 6 Schematische Struktur einer LSTM Zelle
29
Gated Recurrent Units
GRUs wurden zuerst von Cho et al. [106] vorgeschlagen. Die Struktur einer GRU Zel-
le ist ähnlich der einer LSTM Zelle, jedoch beinhaltet sie ein Outputgate weniger. Da-
durch können die Matrix Berechnungen während dem Fitting und dem BPTT schneller
durchgeführt werden als beim LSTM. Typischerweise sind die Trainingszeiten pro Epo-
che kürzer, jedoch ist die Genauigkeit geringer. Der versteckte Zustandsvektor ht ist
stark abhängig vom Aktualisierungsgate zt , dem vorherigen versteckten Zustandsvektor
ht−1 und dem Kandidaten für den versteckten Zustandsvektor het . Der Kandidat für den
versteckten Zustandsvektor het wird mit einer tanh Funktion aktiviert und zusätzlich mit
dem Resetgatevektor rt multipliziert. Der Resetgatevektor rt und der Aktualisierungsga-
tevektor zt werden mit dem vorherigen versteckten Zustand ht−1 und dem Inputvektor xt
berechnet. W und U beschreiben die entsprechenden Matrizen, b ist der Biasvektor und
s ist die Aktivierungsfunktion.
30
Dense Layer
Dense Layer sind vollvernetzte FFNN Layers, die oft genutzt werden um lineare Pro-
bleme zu fitten [107]. Wird eine nichtlineare Aktivierungsfunktion, wie beispielsweise
tanh [108], genutzt, kann auch nichtlineares Verhalten gefitted werden. Nutzt man die-
se Schichten im Anschluss an GRUs oder LSTMs, werden die abstrakten Outputs der
RNNs weiterverarbeitet. Es wurde gezeigt, dass ein bis drei Dense Layer nach den RNN
Schichten die Performance der Netze verbessern [109, 108].
Dropout
Das Trainieren von neuronalen Netzen hat das Ziel, die Input-Daten möglichst gut zu ge-
neralisieren. Wie in den ersten 20 Epochen der Abbildung 8 (b) zu sehen ist, kommt es
am Anfang eines Trainings in der Regel zu einem Underfitting, bei dem die Datenpunk-
te nur unzureichend genau geschätzt werden. Im weiteren Verlauf des Trainings sollten
sowohl der Loss als auch der Validation Loss weiter abnehmen, bis eine Art Sättigung
erreicht ist. In Teil (a) ist ein typischer Verlauf von Overfitting mit dem charakteristischen
Anstieg des Validation Loss im Verlauf des Trainings zu sehen. Das Trainingsdatenset
wird dabei so genau nachgeahmt, dass eine Generalisierung, wie sie in der Validierung
geprüft wird, nicht auftritt. Diese Art der trivialen Abbildung der Eingangsdaten auf die
Ausgangsdaten ist begünstigt durch geringe Datenmengen und großen NN mit vielen
hidden Layern und vielen hidden Units. Eine pauschale Aussage darüber, ob Overfit-
ting auftreten wird oder nicht, kann nicht gemacht werden. Daher wird dem Effekt mit
Dropouts präventiv entgegengewirkt.
31
Abbildung 8 Verhalten von Loss und Validation Loss bei Overfitting (a) und keinem Overfitting (b)
32
Srivastava et al. haben 2014 [110] Dropouts zur Vermeidung von Overfitting eingeführt.
Dropout Layer können nach jedem hidden Layer hinzugefügt werden, um die Robustheit
der jeweiligen und vorhergegangenen Schichten zu verbessern. Abbildung 9 zeigt das
Prinzip hinter Dropout. Es werden zufällig Neuronen ausgesucht, welche während des
Trainings nicht beachtet werden. Die Dropout Rate gibt an, wie viele Neuronen in jeder
Iteration anteilig ausgelassen werden. Eine Konsequenz ist hier, dass das Netz weniger
sensitiv auf kleine Änderungen am Eingang reagiert. Wird die Gefahr der Entstehung
eines Overfittings reduziert, ist es möglich mit höheren Lernraten zu trainieren und damit
den Lernprozess zu beschleunigen.
Abbildung 9 Beispielhaftes neuronales Netz mit (a) und ohne (b) Dropout
33
2.3.4. Transformer
Die von Vaswani et. al. [111] vorgestellten Transformer zeigen im Bereich der Computer-
linguistik (NLP) deutlich bessere Ergebnisse als LSTM oder andere RNN. Zum Beispiel
wurden mit dem vortrainierten BERT [112] in Anwendungen des Sprachverständnisses
(engl. Language Understanding, LU) LSTMs deutlich übertroffen. Der Transformer von
Radfar et al. [113] aus dem Bereich der spoken language understanding kann Audio Se-
quenzen interpretieren. Außerhalb der Sprach- und Bildverarbeitung wird in der Literatur
keine weitere Anwendung diskutiert. Die Fähigkeit der Transformer, Sequenzen zu ver-
arbeiten und Regressionsprobleme zu lösen, lässt auf eine mögliche Anwendung in der
Spannungsprädiktion bei Batterien schließen.
Transformer haben, wie die meisten Modelle der neuronalen Sequenztransduktion, eine
Encoder-Decoder Struktur. Im Gegensatz zu RNNs greifen Transformer nicht auf das
Prinzip der rekurrenten Strukturen zurück, sondern bauen auf dem Attention Mechanis-
mus auf.
34
Abbildung 10 Modellarchitektur eines Transformers
35
Die in der Encoder-Decoder Struktur verwendeten Multi-Head Attention Module beste-
hen aus mehreren Scaled Dot-Product Attention Mechanismen, die jeweils aus den Que-
ries q, Keys k und Values v ihre eigenen Projektionen berechnen. Wie in Abbildung 11
gezeigt, werden die parallel ausgeführten Projektionen zu einem Ausgang verkettet.
36
Der Scaled Dot-Product Attention Mechanismus aus Abbildung 12, bildet ein Skalarpro-
dukt aus den normierten Querys q und Keys k, das dann mit einer Softmax Funktion die
Gewichte der Values v aktiviert.
37
Durch die Attention Mechanismen entstehen kurze Pfade zwischen langen Zeitabhän-
gigkeiten innerhalb des Netzwerks. Je kürzer diese Pfade sind, desto einfacher kann ein
Modell einen Zusammenhang zwischen zwei Punkten erkennen.
Wie in Kapitel 2.3.3 beschrieben, werden bei Transformern Dropout Layer mit der Dro-
pout Rate dr eingefügt, um die Gefahr von Overfitting zu reduzieren. Zusätzlich zum
Dropout wird nach jedem Sub-Layer eine Normalisierungsschicht integriert [111].
2.3.5. Hyperparameter
Die Güte von NN ist nicht nur abhängig von den Daten, die in das Netz gespeist wer-
den, sondern auch von den Hyperparametern, die zu Beginn des Trainings festgelegt
werden. Hyperparameter sind von den Modellparametern zu unterscheiden. Modellpa-
rameter, wie die Gewichte und der Bias, werden während dem Training automatisch vom
Algorithmus angepasst. Das Hyperparametertuning findet manuell, meist mit Hilfe von
Such- und Optimierungsalgorithmen statt.
Trainingsbasierte Hyperparameter
Die folgenden Hyperparameter beziehen sich auf das Training des Modells und müssen
im Voraus festgelegt werden:
• Sequenzlänge: Die Sequenzlänge hat Einfluss auf die Anzahl der Sequenzen, die
zeitliche Abhängigkeit der Modellierung und die Performance des Trainings. Durch
die obligatorische zeitliche Aneinanderreihung der Messpunkte ergeben sich bei grö-
ßeren Sequenzlängen weniger Sequenzen. Dieser Einfluss ist zu beachten, wenn nur
wenige Rohdatenpunkte vorliegen, die viele zeitliche Unterbrechungen enthalten. Für
die zeitliche Abhängigkeit der Modellierung sind zum einen die zugrundeliegenden
physikochemischen Effekte zu berücksichtigen und zum anderen die typischen Be-
lastungsszenarien in der jeweiligen Applikation. Bei schnellen, volatilen Belastungs-
änderungen sind kürzere Sequenzlängen ausreichend. Um längere Effekte in der Bat-
terie abzubilden, wird die Sequenzlänge größer gefasst. Die Anzahl der RNN Zellen je
Neuron ist gleich der Sequenzlänge, somit steigt der Rechenaufwand mit steigender
Sequenzlänge.
• Lernrate: Die Lernrate η beeinflusst maßgeblich die Geschwindigkeit sowie die Ge-
nauigkeit des Optimierungsverfahrens, da sie die Änderung der Gewichte und der
Bias während des Lernprozesses definiert. Lernraten werden häufig im Bereich zwi-
schen 0,01 und 0,9 verwendet. Grundsätzlich hängt die Wahl der richtigen Lernrate
immer vom zu lösenden Problem, dem verwendeten Netz und den Trainingsdaten
38
ab. Wird die Lernrate zu groß gewählt, werden die Gewichte schneller und in größe-
ren Schritten geändert. Dies kann zur Folge haben, dass ein Minimum übersprungen
wird. Eine kleine Lernrate führt dazu, dass die Verlustfunktion nur langsam gegen
das Minimum konvergiert, was lange Trainingslaufzeiten zur Folge hat. Der Anwender
muss einen Kompromiss aus Trainingslaufzeit und Genauigkeit finden. Um diesem
Problem entgegenzuwirken, können variable Lernraten implementiert werden. Varia-
ble Lernraten nehmen stufenweise ab. Anfangs werden Sie größer gewählt, um sich
schneller an das globale Minimum heranzutasten und fallen während der Trainings-
laufzeit ab, um eine Konvergenz in kleinen Schritten gegen das Minimum sicherzu-
stellen [114].
• Batchgröße: Mit Stochastic Gradient Descent (SGD) wird die Backpropagation für
jeden einzelnen Datenpunkt aus dem Training Set durchgeführt. Im Kontrast dazu
steht der Batch Gradient Descent (BGD), bei dem nur einmal pro Epoche das Upda-
ten der Modellparameter stattfindet. SGD ist sehr rechen- und daher zeitaufwändig,
wohingegen mit BGD die Gefahr besteht, dass weniger erfolgreich generalisiert wer-
den kann und somit die Modelle ungenauer werden [118]. Um die beiden Nachteile
der Verfahren zu minimieren, wurde das sogenannte Mini-Batch stochastic gradient
descent Verfahren eingeführt. Hier wird in einem Schritt eine Teilmenge (Batch) des
Datensatzes verarbeitet und pro Batch einmal die BP durchgeführt. Bei Regressions-
modellen wurde festgestellt, dass mit einem Mini-Batch SGD keine Generalisierungs-
lücke entsteht [119]. Mini-Batch SGD werden in der Praxis häufig angewendet [120].
Die Batchgröße gibt an, wie viele Datenpunkte pro Batch gebündelt werden.
39
• Epochen: Eine Trainingsepoche ist abgeschlossen, wenn jeder Eingangsdatenpunkt
für das Training einmal verwendet wurde. Je mehr Epochen trainiert werden, desto
besser kann das Netz die Input Daten abbilden. Ein zu langes Training kann dazu
führen, dass Overfitting entsteht, oder das Netz in eine Art Sättigung läuft und nicht
mehr dazulernt. An diesem Punkt kann das Training unterbrochen werden.
Bei einem RNN gibt es hauptsächlich die folgenden drei zu tunenden modellbezogenen
Hyperparameter:
• Anzahl Schichten: Die Anzahl der Schichten in einem Deep Neural Network hängt
nicht nur von der Anzahl der Inputs und Outputs ab, sondern auch von der Größe
des Training Set und dessen Komplexität. Durch die richtige Wahl der Anzahl der
Schichten können die Ergebnisse verbessert und eine geringere Trainingszeit erreicht
werden. Bis zu drei hidden Layers können die Genauigkeit eines Netzes erhöhen,
jedoch wird die Trainingszeit vielfach erhöht [122].
• Anzahl Neuronen: Die Anzahl der Neuronen pro Schicht ist in Abhängigkeit von der
Anzahl der Schichten zu dimensionieren. Je mehr Neuronen pro Schicht vorhanden
sind, desto komplexer ist das Netz. Das Training dauert länger und die Tendenz zum
Overfitting steigt [122, 123].
• Dropout Rate: Wie in Kapitel 2.3.3 beschrieben gibt die Dropout Rate an, welcher
Anteil der Neuronen während dem Training auf zufälliger Basis ignoriert wird. Mit einer
erhöhten Dropout Rate kann man bei großen Netzen das Risiko eines Overfittings
reduzieren.
Für Transformer existieren spezielle modellbezogene Hyperparameter, die sich von de-
nen der RNNs unterscheiden:
• Anzahl der Stacks: Die Anzahl der Stacks N gibt an, wie viele Stacks aus Multi-
Head Attention Modulen und FFNN pro Encoder-Decoder verwendet werden.
• Länge des Input Vektors: Der Input Vektor der Länge dmodel wird mit den durch das
Training erlernten Query-, Key- und Value-Matrizen zu den entsprechenden Vektoren
multipliziert.
• Größe von Query, Key und Value: Die Größe der Vektoren von Query q und Key
k sind ausschlaggebend dafür, welche Range das Skalarprodukt betrachtet, um die
Value Vektoren v zu gewichten. Die Größe dieser Vektoren ist abhängig von dmodel
und der Anzahl der Attention Heads h.
40
• Anzahl der Attention Heads: Die Anzahl der Heads h sagt aus, wie viele Attention
Heads pro Attention Layer parallel berechnet werden.
• Dropout Rate: Die Dropout Rate dr gibt an, wie in Kapitel 2.3.3 beschrieben, welcher
Anteil der Neuronen während dem Training auf zufälliger Basis ignoriert wird.
• Positional Encoding Length: Die positional Encoding length peperiod gibt an, wel-
cher Zeitraum beim positional Encoding betrachtet wird. Der Betrachtungszeitraum
ist analog zur Sequenzlänge der RNNs zu sehen.
Tuning
Das Hyperparametertuning der hier erklärten Hyperparameter wird durch einen oder
eine Kombination der folgenden Algorithmen durchgeführt. Dabei ist darauf zu achten,
dass sich einige Hyperparameter gegenseitig beeinflussen, jedoch nicht alle Hyperpa-
rameter gleichzeitig in einem Durchgang optimiert werden können. Der Parameterraum
wächst je Parameter um eine weitere Dimension. Eine zeitgleiche Optimierung aller Pa-
rameter würde zu viel Rechenzeit beanspruchen. Daher werden Hyperparameter, wel-
che wenig Einfluss auf andere haben, primär festgelegt.
• Rastersuche: Die Rastersuche ist eine erschöpfende Suche, die in einem definierten
Parameterraum alle möglichen Kombinationen testet. Für kontinuierliche Parameter
werden Schrittweiten und Grenzen definiert, um sie in eine diskrete endliche Form zu
transferieren. Die Optimierung vieler Parameter stellt ein Problem für die Rastersuche
dar, da die Anzahl der zu untersuchenden Punkte um die Potenz der Dimensionalität
steigt. Ein Lösungsansatz ist, die Suche für unabhängige Parameter parallel laufen
zu lassen. Aufgrund der Diskretisierung kann nicht sichergestellt werden, dass das
Optimum erreicht wird.
41
Pruning-Methode bereitgestellt, die wenig vielversprechende Parameterzweige ab-
bricht [127].
Die Hyperparametersuche für Transformer wurde von Vaswani et al. [111] als eine kas-
kadierte Rastersuche ausgeführt. Dabei werden die einzelnen Parameter in Kaskaden
getuned. Die Ergebnisse der vorhergehenden Kaskade werden für die nachfolgenden
Kaskaden als Information genutzt. Ein Nachteil ist, dass Abhängigkeiten von Parame-
tern nicht erkannt werden, wodurch potentielle Optimierungsminima nicht gefunden wer-
den.
42
3. Daten
In diesem Abschnitt wird zuerst auf die modellierten Batteriepacks, deren Aufbau und
Zelleigenschaften eingegangen. Anschließend wird erläutert, wie die Daten erhoben
wurden und in welchem Umfang diese vorliegen.
In Tabelle 1 sind die Eigenschaften der zwei Batteriepacks gegenübergestellt. Die LFP-
Batterie weist zum einen eine mit 20 Ah deutlich höhere Kapazität im Vergleich zu der
11 Ah Kapazität der LTO-Batterie auf. Zum anderen ist das Spannungsniveau der LFP
um ca. 2 V höher. Des Weiteren zeigt sich das Spannungsverhalten der beiden Batte-
rien sehr unterschiedlich und die Batteriepacks werden in zwei verschiedenen MHEV
Topologien betrieben. Dabei ist die Leistungsfähigkeit der Batterien auf die Anforderung
bezüglich des Bordnetzes abgestimmt.
43
Tabelle 1 Kennwerte der Batteriesamples
LTO LFP
Zellen seriell 20 14
Zellen parallel 1 1
Kapazität 11 Ah 20 Ah
Obere Spannungsgrenze 52 V 52 V
Untere Spannungsgrenze 38 V 38 V
44
3.2. Datengenerierung
3.2.1. CAN-Daten
Die Daten, welche zum Trainieren und Testen genutzt werden, sind aus Testfahrzeug-
messungen bereitgestellt worden. Diese Fahrzeuge wurden unter kundenorientierten
Bedingungen, bezogen auf die Fahrzeuggeschwindigkeit, die Umgebungstemperatur,
die Fahrercharakteristiken und das Nutzungsverhalten bewegt. Die Daten beinhalten die
vom BMS intern gemessenen Größen Strom, Terminalspannung und Temperatur, wel-
che über einen CAN-Bus mit einer Abtastrate von 10 Hz verschickt und aufgezeichnet
werden.
Insgesamt werden Messdaten mit einer Länge von ca. 2.600 h für die LFP und ca. 5.500
h für die LTO-Batterie verarbeitet. Der aufgezeichnete Temperaturbereich liegt dabei zwi-
schen -23°C und 60°C für beide Batterien. Da diese Messdaten reine Aufzeichnungen
realer Fahrprofile sind, erweisen sich die Daten für das Training eines NN in ihrer ur-
sprünglichen Form als nicht geeignet. In den Messdaten ist ein natürlicher Datenbias
vorhanden, welcher während der Datenvorverarbeitung eliminiert werden soll.
Die Rundung der Daten erfolgt bei der Temperatur auf ganze Zahlen in der Einheit °C, bei
der Spannung auf 20 mV und beim Strom auf 25 mA. Ungenauigkeiten in der Messung
und Unterschiede der Batterien in Bezug auf die Alterung, Produktion und Verbindungs-
widerstände etc. würden bei höheren Genauigkeiten zu inkonsistenten Daten führen.
Insgesamt ist die Genauigkeit der Daten für diese Art der Modellierung ausreichend.
3.2.2. HiL-Prüfeinrichtung
Für das Test Set werden Messungen an einem Hardware-in-the-loop Prüfstand durch-
geführt. Ein Vorteil durch diesen Typ der Messung ist, dass Umweltbedingungen, wie die
Temperatur und der Ladezustand, vorkonditioniert werden können. Im ersten Schritt wer-
den die Batterieprüflinge mit einem Paar aus parallelgeschalteten DC-Spannungsquellen
und –senken elektrisch konditioniert. Zunächst wird die Batterie im CC/CV Verfahren mit
einem Strom von 1 C und einem Abschaltstrom von 0,02 A geladen. Die anschließende
Entladung erfolgt bei einem Strom von 1 C, kontrolliert durch ein Ah-Counting. Ist die
elektrische Konditionierung abgeschlossen, werden die Batterieprüflinge in einer Klima-
kammer thermisch konditioniert.
45
4. Datenverarbeitungspipeline
Die Rohdaten müssen zum einen in ein für das Netz kompatible Format gebracht wer-
den. Zum anderen werden die Daten so aufbereitet, dass das Netz möglichst effizient
lernen kann. Dazu werden zuerst die Input- und Output Variablen bestimmt und defi-
niert, um anschließend die Datenvorverarbeitung durchführen zu können. Die generier-
ten Datensets werden anschließend sowohl für das Training als auch für die Validierung
genutzt. Beim Hyperparametertuning wird, je nach dem zu tunenden Parameter, eine
rekursive Schleife zwischen Validierung und Undersampling bzw. Training angesetzt.
46
4.1. Auswahl der Features
In der Literatur werden Batterien auf der Basis von den Variablen Strom I, Spannung U ,
Temperatur T und SOC modelliert. Die drei zuerst genannten Variablen sind rein phy-
sikalisch messbare Größen, daher einfach und genau zu erzeugen. Der SOC ist eine
Hilfsvariable, die selbst auf einem Modell basiert und somit durch den Modellierungsfeh-
ler eine Ungenauigkeit an das Modell weitergibt. Somit ist diese Art der Modellierung von
der Genauigkeit und Verfügbarkeit eines SOC-Modells abhängig. Für Spannungsmodel-
le wird die direkte Information des SOC, die verfügbare Ladungsmenge, nicht benötigt.
Anstatt dessen wird der SOC genutzt, um andere Variablen zu parametrieren sowie um
die Ruhespannung über die OCV Kennlinie zu bestimmen. Neuronale Netze sind dazu
fähig, diese Abhängigkeiten zu erkennen, ohne den SOC explizit als Input zu nutzen.
Bei volatilen Stromprofilen, wie sie in der MHEV-Anwendung vorkommen, ist eine Unter-
scheidung zwischen Überspannung und Ruhespannung anspruchsvoll.
Um dem Netz die Information der Spannungslage zu übergeben, wird eine zusätzliche
Variable eingeführt. Der Spannungstrend Utrend wird als Mittelwert der Spannungen in
der aktuellen Sequenz berechnet. Während des Trainings wird die teacher forcing Me-
thode [128] angewandt, wobei die Ground Truth, die Spannung U , von einem vorange-
gangen Schritt als Eingang für das Modell genutzt wird. In dieser Arbeit wird die Ground
Truth indirekt über den berechneten Spannungstrend Utrend in das Modell eingeführt.
Teacher forcing Algorithmen konvergieren im Allgemeinen schneller, bergen aber das
Problem des Exposure Bias [129]. Das Problem resultiert aus dem Unterschied zwi-
schen dem Input während des Trainings sowie dem Input für die Inferenz. Ein Fehler in
der Prädiktion wirkt sich demnach direkt auf den Modell Input und somit auf die nächste
Prädiktion aus, was zu Instabilitäten in der Inferenz führt. Um diesem Effekt entgegen-
zuwirken, wird der Spannungstrend nicht für jede Sequenz neu berechnet, sondern nur
nach einer konstanten Zeit aktualisiert. Diese Zeitspanne ist länger als die Sequenzlän-
ge zu wählen. Mit diesem Updateprozess ist das Verfahren Scheduled Sampling [130],
bei welchem über eine Wahrscheinlichkeitsverteilung entschieden wird sowie ob die GT
oder die Prädiktion verwendet wird, nicht notwendig.
Gleichung 4.1 beschreibt die Bildung des Umean während der Validierung mit dem Test
Set. Für die ersten 70 s wird der Umean als Durchschnittswert der Spannungen in der ers-
ten Sequenz berechnet. Nach den ersten 70 s eines jeden Test Sets ist der Umean gleich
seinem vorherigen Wert, mit einer Anpassung nach je 60 s an den Durchschnittswert der
aktuellen Sequenz.
47
mean(U (t = 0)) wenn t < 70 s,
Umean(t) = Umean (t = t − 1) wenn t ≥ 70 s, (4.1)
mean(U (t)t−1 ) wenn t ≥ 70 s ∧ t mod 60 = 0.
t−128
Stehen für ein Modell viele Features zur Auswahl kann eine L1 und L2 Regulierung
helfen, um die Features mit dem größten Einfluss zu bestimmen [131]. Da im Fall der
Batteriemodellierung nur wenige Features zur Auswahl stehen, ist eine Reduktion der
Anzahl dieser nicht notwendig.
Neben dem Spannungstrend wird auf weitere generische Features in den Trainingsdaten
verzichtet. Es wird davon ausgegangen, dass das neuronale Netz wichtige Zusammen-
hänge zwischen den Features, wie beispielsweise der Leistung, den Kennzahlen sowie
dem maximalen Strom innerhalb der Sequenz, selbst erkennt und nutzt.
4.2. Datenvorverarbeitung
Das Datenvorverarbeitung stellt sicher, dass die Rohdaten so gefiltert und transformiert
werden, damit ein effizientes Training möglich ist. Die Reihenfolge der durchzuführenden
Methoden ist einzuhalten.
Die Rohdaten liegen nach der Feature-Auswahl in einem Array Xroh ∈ Rs×n mit s Daten-
punkten und n Features vor.
4.2.1. Sequenzialisierung
RNN wie LSTM und GRUs basieren auf zeitlich sequenzierten Daten, die als Input in das
Modell eingegeben werden. Für das Modell müssen dafür die Rohdaten in Sequenzen
abgebildet werden, resultierend in einer Eingangsmatrixdimension von X ∈ Rm×n mit n
Features und der Sequenzlänge m.
48
4.2.2. Split
Nach der Sequenzierung werden die Daten in ein Training, Validation und Test Set aufge-
teilt. Die Messungen vom Prüfstand dienen als Test Set und werden zuerst separiert. Die
Messdaten der Fahrzeugmessungen werden in Trainings- und Validierungsdaten aufge-
teilt.
Um die Generalisierungsgüte des Modells feststellen zu können, ist es wichtig, dass der
Validierungsdatensatz eine ähnliche Verteilung wie die ursprünglichen Rohdaten auf-
weist. Um dies zu gewährleisten, erfolgt die Auswahl der Sequenzen bei großen Daten-
mengen und dem damit verbundenen Gesetz der großen Zahlen für das Validierungsset
zufällig.
Häufig wird ein Splitverhältnis zwischen Training und Validation Set von 80/20 verwen-
det, ist aber bei großen Datensätzen weniger wichtig [132]. Da während dem Under-
und Oversampling Sequenzen aus dem Trainingsdatensatz verworfen bzw. hinzugefügt
werden, ist das endgültige Verhältnis der beiden Datensätze unterschiedlich zu dem
Splitverhältnis.
4.2.3. Balancing
Die Ansätze bezüglich der Änderung der Datenverteilung werden häufig benutzt, da sie
leicht implementierbar und anwendbar, sowie unabhängig von der Wahl des Modells sind
[133]. In der Literatur wird häufig auf die Ungleichverteilung bei Klassifikationsproblemen
eingegangen, meist jedoch nur unter der Berücksichtigung von entweder Over- oder von
Undersampling Methoden [134].
Die Abbildung 14 zeigt schematisch den Effekt des Under- und Oversamplings auf die
Klassenverteilung. Beim Undersampling werden überrepräsentierte Daten eliminiert, um
einen Ausgleich der Daten zu erzeugen. Durch das Oversampling werden Daten in un-
terrepräsentierten Bereichen künstlich erzeugt und dem Set hinzugefügt oder überpro-
portional oft verwendet, um das Netz zu trainieren.
Elhassan et al. [135] zeigen, dass das Undersampling in der Performance Vorteile ge-
49
genüber dem Oversampling hat, eine Kombination beider Methoden jedoch am effizien-
testen ist.
Undersampling
Für das in dieser Arbeit erstellte Regressionsmodell, welches auf der gesamten Feature
Breite eine gute Generalisierung erreichen soll, wurde ein Algorithmus zum mehrdimen-
sionalen Feature Undersampling Multi-Feature-Undersampling (MFU) entwickelt. Dieser
Algorithmus beschränkt sich nicht nur auf Batterieanwendungen, er kann auch auf an-
dere Regressionsdatensätze angewendet werden, die eine ungleiche Datenverteilung
innerhalb der Feature Bereiche aufweisen.
Die Besonderheit des Algorithmus besteht darin, dass nicht nur die Verteilung der Zielva-
50
riable verbessert wird, sondern auch Eingangsvariablen sowie eigens für das Balancing
definierte Variablen optimiert werden. Ein lediglich auf die Zielvariable bezogener RUS-
Algorithmus würde dazu führen, dass Zustände aus dem Training Set, die zur besse-
ren Generalisierbarkeit notwendig sind, möglicherweise entfernt werden. Im Beispiel der
Spannungsprädiktion wäre dies der Fall, wenn häufig auftretende Spannungsbereiche so
minimiert werden, dass beispielsweise die wenigen Daten, die bei tiefen Temperaturen
vorhanden sind, nicht berücksichtigt werden. Das Modell würde hier lediglich auf häufig
vorkommende Temperaturen trainiert werden und somit weiterhin mit einem Datenbias
versehen sein.
Der MFU basiert auf einer Abwandlung des eindimensionalen RUS. Hierbei wird die Mi-
noritätsklasse nicht zwischen zwei Klassen bzw. Features bestimmt, sondern innerhalb
einzelner Feature Bereiche identifiziert, die überrepräsentiert sind. Der Wertebereich
des ausgewählten Features wird in m gleich große Bins unterteilt, die jeweils mit einer
maximalen Anzahl an Datenpunkten, dem Bin Limit binlimit befüllt werden. Die Daten
werden sequenziell den Bins zugeordnet. Wird ein Datenpunkt einem Bin zugeordnet,
das die maximale Anzahl an Datenpunkten erreicht hat, wird dieser Datenpunkt verwor-
fen. Würde das RUS nur auf ein einzelnes Feature angewendet werden, verbessert sich
die Datenverteilung des gewählten Features. Allerdings kann somit kein Rückschluss auf
die Verteilung anderer Features gezogen werden. Dieser Nachteil kann durch das MFU
ausgeglichen werden.
3. Erzeugung eines Arrays A mit mn Elementen (Bins). Die Bingrenzen werden durch
51
die Unterteilung der Featurebereiche aus 2. festgesetzt. Initial hat jedes Bin den
Wert 0.
5. Auffüllen der Bins und Erzeugung des Filtervektors F . Jede Sequenz der Ein-
gangsdaten Datain wird einem entsprechenden Bin, je nach Wert der Features,
zugeordnet.
a. Ist der Wert des Bins größer als das Bin Limit binlimit , dann wird der Filter-
vektor F um ein F alse erweitert und der Wert des Bins bleibt bestehen.
b. Ist der Wert des Bins kleiner oder gleich dem Bin Limit binlimit , dann wird der
Filtervektor F um ein T rue erweitert und der Wert des Bins inkrementiert.
6. Der Filtervektor F wird auf die Eingangsdaten Datain angewendet und somit wer-
den nur die Sequenzen berücksichtigt, welche in einem noch nicht überfüllten Bin
zugeordnet wurden.
52
Der Pseudocode in Algorithmus 1 zeigt die algorithmische Funktionsweise des MFU.
53
Die Auswahl der Parameter für diesen Algorithmus stellt einen Zielkonflikt dar. Zum einen
sollen die Daten möglichst über ein breites Spektrum und alle Features gleichverteilt
sein. Zum anderen braucht das NN möglichst viele Daten, um das Verhalten zu erler-
nen. Die folgenden drei Parameter müssen unter der Berücksichtigung vorangegangener
Punkte gewählt werden:
• Features: Die Balancing Features stammen nicht nur aus den Input- und Output-
Variablen der Daten. Zusätzlich zu diesen können für jede Sequenz weitere Kenn-
zahlen bestimmt werden, welche eine Sequenz charakterisieren. Neben den Durch-
schnittswerten sind auch Minima und Maxima, deren Differenz und möglicherweise
die Varianz einer Größe, von Interesse. Die Balancing Features müssen selektiert
werden. Zu viele ausgewählte Features führen zu dem Effekt, dass zwei Datenpunkte
zum Datenset hinzugefügt werden, obwohl der zusätzliche Informationsgehalt mögli-
cherweise nur gering ist. Dies geschieht, wenn sich zwei Punkte grundsätzlich sehr
ähnlich sind, sich jedoch die Werte eines Features deutlich unterscheiden. Werden zu
wenige oder unwichtige Balancing Features gewählt, ist ein Ungleichgewicht in dem
fehlenden Feature durch das Undersampling nicht ausgleichbar. Aus diesem Grund
sollten die Balancing Features nach Relevanz mit dem Grundsatz „so wenige wie
möglich, so viele wie nötig“ ausgewählt werden. Die Wahl und Anzahl der Features
muss immer in Bezug zu den anderen Parametern getroffen werden.
• Bin Range: Die Bin Range m gibt an, in wie viele Bins der Feature Wertebereich un-
terteilt wird. Die Messgenauigkeit der Feature sollte höher sein als die resultierenden
Teilwertebereiche. Dementsprechend ist das Maximum der Bin Range vorgegeben.
Die minimale Bin Range ist dadurch begrenzt, dass eine kleine Bin Range Ungleich-
heiten weniger fein auflöst. Die Wahl der Bin Range zwischen den beschriebenen
Minima und Maxima ist abhängig von der Wahl der Balancing Features und dem Bin
Limit. Die Bin Range kann sich für jedes Feature unterscheiden, wird aber bei konti-
nuierlichen Features oft gleich gewählt.
• Bin Limit: Das Bin Limit l begrenzt die Anzahl der Sequenzen, die pro Bin abgespei-
chert werden. Wird das Limit zu groß gewählt, bleibt das Ungleichgewicht bestehen.
Wohingegen ein zu kleines Limit wichtige Daten möglicherweise nicht berücksichtigt.
Die Wahl des Bin Limits ist stark abhängig von der Bin Range.
Abbildung 15 stellt mit den grauen Punkten eine exemplarische Datenverteilung vor dem
Undersampling dar, sowie mit den schwarzen Punkten, welche nach dem Undersampling
weiterhin berücksichtigt werden.
54
Abbildung 15 Graphische Darstellung eines exemplarischen Datensatzes vor (grau) und nach (schwarz) dem
Undersampling
Oversampling
Als Ergänzung zum Undersampling wird zusätzlich eine Oversampling Methodik auf den
Trainingsdatensatz angewandt. Ziel des nachgelagerten Oversamplings ist es, die un-
terrepräsentierten Klassen bzw. Feature Bereiche mit synthetischen Datenpunkten auf-
zufüllen. Dadurch kann eine homogenere Datenverteilung sichergestellt werden, ohne
dabei das Datenset unverhältnismäßig stark zu undersamplen.
In der Literatur wurden viele Oversampling Methoden diskutiert. Methoden wie ADASYN
[141] und instance-based learning [142] sind nur auf Klassifikationsprobleme anwend-
bar. Vimalraj et. al. [136] sehen die Synthetic Minority Oversampling Technique (SMO-
TE), initial eingeführt von Chawla et. al. [143], als den performantesten Algorithmus unter
den aktuell in der Literatur diskutierten Algorithmen.
Bei der einfachsten Form des Oversamplings, dem Random Oversampling, werden aus
der Minoritätsklasse zufällig Datenpunkte ausgewählt, die dann in vielfacher Ausfüh-
rung dem Training Set hinzugefügt werden. Durch diese Methode tendiert ein neuronales
Netz zum Overfitting, da bestimmte Datenpunkte häufiger vorkommen, somit wichtiger
erscheinen und dadurch direkt auf den Ausgang abgebildet werden. Eine Weiterentwick-
lung des Random Oversamplings, die SMOTE, vermeidet diese Gefahr. Der SMOTE Al-
gorithmus bestimmt in den vom Anwender definierten Minoritätsklassen für jeden darin
enthaltenen Datenpunkt mit Hilfe des k-Nearest-Neighbor-Algorithmus neue Datenpunk-
te. Ein zufällig ausgewählter Punkt der als nächste Nachbarn klassifizierten Objekte wird
dabei mit einer Zufallszahl zwischen 0 und 1 multipliziert. Torgo et. al. [140] haben den
55
SMOTE Algorithmus auf Regressionsprobleme adaptiert. Die Nachteile dieser Methode
liegen zum einen in den Eigenschaften des k-Nearest-Neighbor-Algorithmus und zum
anderen in der Sensitivität mancher Features auf die Zielvariable. Die Anzahl k der in
Betracht gezogenen Objekte ist nur schwer zu parametrieren und hängt dabei auch vom
Einzelfall ab. Ein zu hoch gewähltes k erweitert die Entfernung der Nachbarn derart,
dass nicht von einer Ähnlichkeit mit dem ursprünglichen Datenpunkt ausgegangen wer-
den kann. Wird andernfalls k zu klein gewählt, kann bei eng zusammenliegenden Punk-
ten die Robustheit des Datensatzes negativ beeinträchtigt werden. Das Problem der
Sensitivität mancher Features resultiert aus dem Berechnungsverfahren des k-Nearest-
Neighbor-Algorithmus. Ein Punkt kann als einer der nächsten Nachbarn gezählt werden,
obwohl die Entfernung der beiden Punkte in einem Feature weit ist. Wenn dieses Feature
stark sensitiv ist, führt das zu einer möglichen Änderung der Zielvariable.
Da SMOTE in der Literatur als vielversprechend gilt, jedoch die oben genannten Nach-
teile mit sich bringt, wurde der Algorithmus auf den Anwendungsfall dieser Arbeit an-
gepasst. Die Minoritätsklassen werden anhand eines Histogramms des Datensets nach
dem Undersampling ausgewählt. Dabei wird vor allem das Feature Temperatur fokus-
siert, da der Wert innerhalb einer Sequenz wenig Volatilität aufweist und für die Robust-
heit des Modells Daten in allen Temperaturbereichen wichtig sind.
56
Algorithmus 2 Mehrschichtiger Oversampling Algorithmus
Input: M inorityClasses ▷ Minoritätsklassen, z.B. [T<5°C, T<-10°C]
Input: stepsize ▷ Schrittweite zur Erzeugung der Rauschvektoren
Input: rangevolt ▷ Spannungsrange des Rauschvektors
Input: rangetemp ▷ Temperaturrange des Rauschvektors
Input: kin ▷ Anzahl der Datenpunkte vor dem Oversampling
Input: kout ▷ Anzahl der Datenpunkte nach dem Oversampling
Ensure: Datain ∈ Rkin ▷ Input Datensatz
Ensure: Dataout ∈ R kout ▷ Output Datensatz
Ensure: Dataos ▷ Durch Oversampling erzeugte Daten
1: tempnoises = −rangetemp : stepsize : +rangetemp
2: voltnoises = −rangetemp : stepsize : rangetemp
3: for M inorityClass in M inorityClasses do
4: for data in Datain do
5: if data ∈ M inorityClass then
6: for tempnoise in tempnoises do
7: for voltnoise in voltnoises do
8: Datanew ← data + tempnoise + voltnoise ▷ Addiere Rauschvektoren
9: Append Datanew to Dataos ▷ Erzeuge Dataos
10: end for
11: end for
12: end if
13: end for
14: end for
15: Dataout ← Datain + Dataos ▷ Füge Dataos zu Datain hinzu
16: return Dataout
57
Die größte Gefahr beim Oversampling besteht darin, dass dem Datenset keine neuen
Informationen hinzugefügt werden und dadurch eine Tendenz zum Overfitting entsteht
[136]. Neben adäquaten Einstellung der Rauschterme, ist es wichtig darauf zu achten,
dass das Oversampling immer in Zusammenhang mit dem Undersampling betrachtet
wird und nur die Gesamtperformance bewertet wird.
Im Rahmen dieser Arbeit wurde in der Regel sowohl die Spannungsrange rangevolt als
auch die Temperaturrange rangetemp auf den gleichen Wert gesetzt. Die Minoritätsklas-
sen M inorityClasses werden ausschließlich über die Temperaturgrenzen definiert. Die
Temperaturgrenze ist so zu verstehen, dass unterhalb dieser ein Oversampling stattfin-
det. Um Datensätze mit verschiedenen Oversampling Parametern vergleichen zu kön-
nen wird folgende Form eingeführt und in Zusammenhang mit den jeweiligen Datensät-
zen angegeben:
range(rangevolt )/step(stepsize)/M C(M inorityClasses)
Ein Oversampling mit einer Temperatur- und Spannungsrange von 2, einer Schrittweite
von 1 und den Minoritätsklassen {−5, 5} wird als range(2)/step(1)/M C(−5/5) angege-
ben.
4.2.4. Normalisierung
Sowohl die absoluten Werte als auch die Range der Features unterscheiden sich deut-
lich. Der dadurch entstehende Bias würde zu einem langsamen Trainingsfortschritt, einer
numerischen Instabilität und einer schlechteren Generalisierung beim Training von neu-
ronalen Netzen führen.
Die Literatur ist sich uneinig über die beste Normalisierungsmethode in Bezug auf Klassi-
fikationsprobleme [144, 145]. Regressionsprobleme werden oft mit dem Min-Max Scaler
normalisiert [146, 147].
Mit dem Min-Max Scaler wird der Wertebereich jedes Features auf den Bereich [0, 1]
skaliert:
Die minimalen und maximalen Werte werden aus dem Trainingsdatenset bestimmt und in
der Normalisierung des Test- und Validierungsdatensets genutzt. Dadurch wird sicherge-
stellt, dass alle Daten mit derselben Berechnungsvorschrift verändert werden und somit
gleiche Feature Werte auf gleiche normalisierte Werte abgebildet werden.
58
5. Training und Hyperparametertuning
Für das Training wird zuerst das Modell mit dem TensorFlow framework initialisiert und
das Trainingsdatenset geladen. Die Gewichte und Bias werden in mehreren Batches
pro Epochen an die eingespeisten Trainingsdaten angepasst. Nach jeder Epoche wird
anhand der Validierungsdaten der Validation Loss berechnet und mit dem Test Set der
MAXE und der MAE ermittelt. Mithilfe dieser Metriken findet das Hyperparametertuning
statt. Dieses optimiert sowohl die trainingsbasierten als auch die modellbezogenen Pa-
rameter dahingehend, dass das Modell möglichst in der gesamten Feature Breite das
reale Verhalten der Batterie darstellt. Die Ergebnisse des Tunings werden mit Metriken
und Fehlerdiagrammen bewertet.
59
men“ ist unabhängig von der zu modellierenden Batterie auf die Anwendung anzupas-
sen. Wohingegen die Prozessschritte „Bestimmung des Balancings“ und „Optimierung“
für jedes Batteriesample einzeln auszuführen sind. Die resultierenden Hyperparameter
können in jedem Fall als Anhaltspunkt für weitere Modellierungen genutzt werden.
60
5.1. Trainingsbasierte Hyperparameter
In erster Instanz werden die trainingsbasierten Hyperparameter getuned. Diese sind un-
tergliedert in Parameter, die unabhängig von anderen Parametern pauschal definiert
werden und in Parameter, die im Tuningalgorithmus berücksichtigt werden müssen. Die-
se Parameter sind unabhängig von der Verwendung des Modelltypen.
Die nachfolgenden Parameter werden aufgrund von Erfahrungswerten und aktuellen Er-
kenntnissen der Wissenschaft pauschal definiert und im Trainingsprozess nicht mehr
verändert.
• Batchgröße: Die Batchgröße hat einen Einfluss auf die Trainingsgeschwindigkeit und
auf den benötigten Arbeitsspeicher. Je kleiner ein Batch ist, desto häufiger müssen
die Gewichte angepasst werden. Die Erfahrungen im Umgang mit der Batchgröße
sowie Erkenntnisse aus der Literatur zeigen, dass auch bei großen Batches keine
Generalisierungslücke auftritt [119]. Aus diesem Grund wird die Batchgröße so groß
gewählt, wie es der Trainingsrechner ermöglicht. In dem vorliegenden Fall einer NVI-
DIA RTX 2080 Ti, ist die maximal mögliche Batchgröße auf 1024 begrenzt.
• Sequenzlänge: Die Sequenzlänge wirkt sich auf den für die Berechnung erforderli-
chen Speicherplatz sowie die Rechengeschwindigkeit direkt aus. In Anbetracht der
Tatsache, dass Batterieeffekte stark zeitabhängig sind, zeigt sich eine große Se-
quenzlänge als vorteilhaft. Die internen Effekte der Diffusion, des Ladungstransfers,
der elektrochemischen Doppelschicht und der Leitfähigkeit haben unterschiedliche
Zeitabhängigkeiten. Für die Modellierung dieser Effekte reichen die Zeitkonstanten
von Millisekunden bis Stunden und sind abhängig vom SOC und der Temperatur. Um
einen Kompromiss zwischen Rechenkosten und Modellgenauigkeit zu finden, wurde
die Sequenzlänge auf 128 Datenpunkte festgelegt. Die Daten wurden mit einer Abta-
strate von 10 Hz aufgezeichnet, was bedeutet, dass jede Sequenz die letzten 12,8 s
der Aufzeichnung darstellt [148, 149].
• Updatezeit: Die Updatezeit für Utrend ist auf 60 s festgelegt. Sie unterliegt dem Ziel-
konflikt, dass sich einerseits eine zu kurze Updatezeit zu einem Prädiktionsdrift ent-
wickeln kann, da sich Schätzfehler kumulieren. Andererseits weisen zu lange Upda-
tezeiten zu große Abweichungen von der aktuellen Spannung auf. 60 s hat sich dabei
als eine funktionierende Zykluslänge gezeigt.
61
• Initialisierungszeit: Mit einer Initialisierungszeit von 70 s wird das Netz auf die aktu-
elle Spannung initialisiert. Dadurch setzt der Updateprozess im ersten Zyklus aus.
• Anzahl der Trials: Die Anzahl der Trials pro Optuna-Lauf wurde an die jeweilige Si-
tuation, in Abhängigkeit von der Anzahl und Fülle der Variablen, angepasst.
Für die folgenden Parameter werden Parameterräume definiert, die dann im Hyperpra-
metertuning untersucht werden. Im Unterschied zu den unabhängigen Hyperparame-
tern, werden diese Parameter in Abhängigkeit von den anderen Hyperparametern getu-
ned.
• Lernrate: Wie in Kapitel 2.3.5 beschrieben, beeinflusst die Lernrate maßgeblich die
Genauigkeit und Geschwindigkeit des Trainings. Laut Kriesel et al. [114] liegen Lern-
raten in der Regel zwischen 0,01 und 0,9, was sich in dieser Arbeit als deutlich zu
groß herausgestellt hat. Die Erfahrung zeigt, dass in unserer Anwendung eine Lern-
rate im Bereich von
zielführend ist.
• Optimierer: Laut Rana et al. [116] wird der Adam Optimierer für Regressionsproble-
me empfohlen. In Abbildung 20 und Abbildung 28 ist eine Vergleichsserie von Trai-
nings mit den Optimierern Adam, AdaGrad, RMSprop und SGD zu sehen. Adam und
RMSprop zeigen sowohl für die LTO-Batterie als auch für die LFP-Batterie Daten ähn-
lich gute Ergebnisse, wobei der Adam Optimierer den RMSprop leicht übertrifft. Aus
diesem Grund wird das Hyperparametertuning mit Adam durchgeführt.
• Anzahl der Epochen: Die Anzahl der Epochen variiert je nach Datenmenge, Netz-
größe und Rechenleistung. Komatsuzaki et al. [152] sprechen sich bezogen auf Trans-
formermodelle für lediglich eine Epoche aus. Fleischer et. al [73] trainieren das AN-
FIS Modell in 30 Epochen, Zhao et al. [75] trainieren 800 Epochen und Vidal [76] bis
62
zu 20.000 Epochen. Im Rahmen der in dieser Arbeit verwendeten neuronalen Netze
und Datenmengen, hat sich ein Training über 100 Epochen als ausreichend heraus-
gestellt. Bei mehr als 100 Epochen stellt sich entweder ein Overfitting ein oder der
Validation Loss stagniert. Letzteres Verhalten zeigt der Verlauf eines beispielhaften
Trainings über 1000 Epochen in Abbildung 24 und Abbildung 32. Aus diesem Grund
wird die Anzahl der Epochen auf 100 begrenzt.
Jeder der modellbezogenen Hyperparameter ist abhängig von den jeweils anderen Hy-
perparametern. Dementsprechend müssen diese in einem zusammenhängenden Opti-
mierungsverfahren getuned werden. Die Parameterräume sollen so groß wie notwendig
und so klein wie möglich gewählt werden, damit die Optimierung mit einer rechenzeit-
verträglichen Anzahl an Iterationen durchgeführt werden kann.
Die elektrochemischen Prozesse in der Batterie weisen eine starke Zeitabhängigkeit auf.
Um eine Zeitreihenprognose zu ermöglichen, sind rekurrente NN notwendig. Wie in Ka-
pitel 2.3.3 bereits erläutert wurde, stoßen simpleRNNs bei größeren Zeitreihen auf das
vanishing gradients Problem. Aus diesem Grund werden ausschließlich die Weiterent-
wicklungen der simpleRNNs, LSTM und GRU in die Optimierung miteinbezogen. Sowohl
mit LSTM Zellen [153, 55] als auch mit GRU Zellen [154, 54] sind erfolgreiche Batterie-
modelle erstellt worden.
Karsoliya et al. [122] haben untersucht, welche Anzahl an hidden Units und hidden Layer
für NN benötigt werden, um zum einen gute Ergebnisse zu liefern und zum anderen den
Rechenaufwand gering zu halten. Die Grundaussage ist, dass es keine allgemeingül-
tige Daumenregel für diese beiden Parameter gibt. Jedoch gehen sie davon aus, dass
der Einsatz von null bis drei hidden Layer sinnvoll ist. Eine größere Menge würde zu
einem zu beträchtlichen Rechenaufwand führen. Die Autoren sind sich darüber einig,
dass die Anzahl der hidden Units sowohl von dem speziellen Anwendungsfall, von der
Datenmenge und -beschaffenheit als auch der Anzahl der Layer abhängt.
Anhand dieser Erkenntnisse sowie den im Rahmen der vorliegenden Arbeit gewonnenen
Erfahrungen wurde die Anzahl der hidden Layer auf einen bis drei begrenzt. Die Anzahl
der hidden Units wird während des Tunings aufgrund der Rechenperformance sowie von
Speichergründen auf 128 begrenzt und in den hidden Layer konstant gehalten. Srivasta-
va et al. [110] sehen eine Dropout Rate im Bereich von
als üblich an, empfehlen jedoch diese stets in Abhängigkeit von der Anzahl der hidden
63
Units festzulegen. Mit bis zu 128 hidden Units sind möglicherweise kleine Dropout Raten
ebenso zielführend, was in dieser Arbeit zu einem Parameterraum von
führt. Das Dropout Layer wird zwischen dem letzten RNN Layer und dem ersten Dense
Layer bzw. dem Output eingefügt.
Ein bis drei Dense Layer sind üblich und bringen einen Performancevorteil [109, 108].
Um die Wirksamkeit zu beweisen und gleichzeitig den Rechenaufwand zu beschränken,
wird der Parameterraum für die Anzahl der Dense Layer auf null bis zwei gesetzt. Zur
Vereinfachung wird in den Dense Layern dieselbe Anzahl an hidden Units verwendet wie
in den RNNs.
64
5.2.2. Transformer
Parameter Parameterraum
N {2, 4, 6, 8}
peperiod {128}
65
5.3. Hyperparametertuning des LTO-Batterie Modells
Im nachfolgenden wird der Prozess und die Ergebnisse des Hyperparametertunings vor-
gestellt.
Zunächst erfolgt die Auswahl der Under- und Oversamplingparameter, anhand derer die
Daten für das Training des Netzes bestimmt werden. Eine vollständige Raster- oder Zu-
fallsoptimierung ist in diesem Zusammenhang nicht praktikabel, da dies einen zu großen
Rechen- und Speicheraufwand bedeuten würde. Erfahrungswerte und augenscheinliche
graphische Betrachtungen führen in diesem Fall in kürzerer Zeit zu guten Ergebnissen.
Der erste Schritt besteht darin die möglichen Undersampling Features zu bewerten und
dementsprechend eine nicht zu große Anzahl an Features auszuwählen.
In Tabelle 3 sind die generischen Undersampling Features beschrieben sowie deren Be-
wertung in Bezug auf den Kontext der Spannungs- und Leistungsprädiktion einer Batterie
formuliert.
66
Tabelle 3 Subjektive Bewertung der Wichtigkeit von generischen Undersampling Features
Tmean M ean(T ) Sehr wichtig Großer Einfluss der Temperatur auf das Verhalten
der Batterie
67
Im ersten Schritt erfolgt die Auswahl der Features:
• Tmean : Viele Messpunkte sind bei Temperaturen > 0°C und insbesondere >15°C auf-
gezeichnet worden, daher ist ein auf die Temperatur bezogenes Undersampling not-
wendig. Der Mittelwert der Temperatur innerhalb einer Sequenz spiegelt den Zustand
der Batterie wieder.
• Imean : Hohe absolute Ströme kommen nur in wenigen Fahrsituationen vor. Um diese
Extremwerte zu repräsentieren ist ein Undersampling auf das arithmetische Mittel
des Stromes sinnvoll. Zudem wird dabei sowohl der Lade- als auch der Entladefall
miteinbezogen.
Die restlichen Features beziehen sich vor allem auf extreme Volatilitäten in der Sequenz
(Imeandev , dI, Umeandev , dU ) oder reduzieren den Informationsgehalt (dIlast , dUlast ) und
werden daher anfänglich nicht berücksichtigt.
In Abbildung 17 sind die Datenverteilungen der einzelnen Eingangsfeatures vor und nach
dem Undersampling dargestellt. Die sehr häufigen Datenpunkte im Strombereich von -5
A bis 20 A und im Bereich um eine Spannung von 44 V sind nach dem MFU deutlich sel-
tener vertreten. Dies hat den Nebeneffekt, dass die seltenen Fälle, wie hohe und niedrige
Ströme, im Verhältnis häufig vorkommen. Das Ziel, eine ausgewogenere Datenverteilung
entlang der Features zu erreichen, ist damit durch den MFU erfüllt worden.
68
Vor dem Balancing Nach dem Balancing
Abbildung 17 LTO-Batterie - Datenverteilung der Features Temperatur, Spannung und Strom vor und nach einem
Undersampling der Daten mit den Undersampling Parametern Imean _Tmean _Umean _50/20
69
Das Undersampling wird für die ausgewählten Features anhand der neun Kombinationen
der beiden Parameter Bin Limit und Bin Range mit den Wertebereichen
und
durchgeführt.
In Abbildung 18 sind die Histogramme der Temperatur für die neun Kombinationen dar-
gestellt. Die Bewertung der Datenverteilungen erfolgt nach den Kriterien „Datenmenge“
und „Gleichverteilung“. Eine zu große Datenmenge verlangsamt das Training. Zu wenige
Daten führen dagegen zu einer schlechteren Generalisierbarkeit. Durch den nachfolgen-
den Schritt des Oversamplings kann nicht abschließend beurteilt werden, welches MFU
am besten geeignet ist.
70
(a) Imean _Tmean _Umean _20/10 (b) Imean _Tmean _Umean _20/20
(c) Imean _Tmean _Umean _20/50 (d) Imean _Tmean _Umean _50/10
(e) Imean _Tmean _Umean _50/20 (f) Imean _Tmean _Umean _50/50
(g) Imean _Tmean _Umean _100/10 (h) Imean _Tmean _Umean _100/20
Abbildung 18 LTO-Batterie - Vergleich der Datenverteilung anhand des Features Temperatur bei unterschiedlichen
Undersampling Parametern
71
Abbildung 19 zeigt die Auswahl der MFU, welche für die weitere Verarbeitung am vielver-
sprechendsten sind. Nach dem MFU besteht die Möglichkeit des Oversamplings, was im
Hinblick auf die stark unterrepräsentierten tiefen Temperaturen zielführend scheint. Im
Undersampling Datensatz Imean _Tmean _Umean _20/10 ist eine Minorität bei Temperatu-
ren < 5°C zu erkennen. Durch ein einstufiges Oversampling in diesem Bereich ergibt sich
ein Datensatz, der über eine ausreichende Menge an Daten verfügt sowie eine niedrige
Varianz der Temperaturverteilung aufzeigt. Die Datensätze Imean _Tmean _Umean _50/20
und Imean _Tmean _Umean _50/50 weisen eine größere Diskrepanz zwischen den niedri-
gen und milden Temperaturen auf. Hierbei wurde ein zweistufiges Oversampling für die
Minoritätsbereich T < 5C und zusätzlich für den Bereich T < −5C angewendet. Die
resultierenden Temperaturhistogramme sind ausgewogen und die Datenmenge ist aus-
reichend.
(a) Imean _Tmean _Umean _50/20 (b) Imean _Tmean _Umean _50/50
range(2)/step(1)/M C(−5/5) range(2)/step(1)/M C(−5/5)
Abbildung 19 LTO-Batterie - Datenverteilungen von verschiedenen Oversampling Parametern für ausgewählte MFU
Datensätze
72
Um die erzeugten Datensätze letztendlich vergleichen zu können, wurden damit die ers-
ten Netze trainiert. In Tabelle 4 sind die Ergebnisse der Trainings dargestellt. Trainiert
wurden in erster Linie ein RNN mit LSTM Zellen. Die modellbezogenen Hyperparame-
ter wurden in einer kurzen Optuna Variante getuned. Am schlechtesten schneidet das
Balancing Nr. 3 ab, was durch die geringe Datenmenge begründet werden kann. Das
Balancing Nr. 1 hat mit einem MAXE von 3,26 V eine bessere Generalisierbarkeit vorzu-
weisen als das Balancing Nr. 2. Zusätzlich zu den LSTMs wurden im Anschluss Trans-
former trainiert. Das Balancing Nr. 3 wurde dabei aufgrund der schlechten Performance
bei den LSTMs nicht berücksichtigt. Die Transformer weisen ebenso bei der Variante mit
Balancing Nr. 1 die besseren Ergebnisse auf.
Tabelle 4 LTO-Batterie - MAXE von RNN und Transformer Modellen für verschiedene Balancing Kombinationen
Im nächsten Schritt werden von dem Balancing Nr. 2 zwei Varianten gebildet. Zum einen
wird das Oversampling reduziert auf ein einstufiges Verfahren (vgl. Tabelle 5 Balancing
Nr. 4) und zum anderen wird die Balancing Feature Kombination (vgl. Tabelle 5 Balan-
cing Nr. 5) geändert. Die Reduktion des Ovesamplings bringt, wie in Tabelle 5 zu se-
hen, im Vergleich zur Basisvariante keine Verbesserung mit sich. Jedoch ist der MAXE
bei der Variante mit dem Undersampling Imean _Tmean _dU _50/20 und dem zweistufigen
Oversampling range(2)/step(1)/M C(−5/5) bei 3,04 V. Die Auswahl des Balancings ist
damit abgeschlossen. Da die einstufige Oversampling Variante schlechter abschneidet
als die zweistufige, wird auf ein Transformer Training mit diesem Datensatz verzichtet.
Der Transformer, der mit dem finalen Datensatz trainiert wurde, erzielt den geringsten
MAXE im Vergleich der aller vorher trainierten Transformer, weist aber eine deutlich hö-
here Fehlerrate als das LSTM-Pendant auf. Da die Performance der Transformer mit
allen Balancing Varianten schlechter als die der RNNs ist, wird im Folgenden der Fokus
auf RNNs gesetzt.
Tabelle 5 LTO-Batterie - MAXE von RNN und Transformer Modellen für weitere Balancing Kombinationen
73
5.3.2. Begründung für Wahl der Hyperparameter
Nach der Wahl des Balancings müssen die Hyperparameter, wie in Kapitel 5.1.2 be-
schrieben, getuned werden. Tabelle 6 zeigt die zu tunenden Parameter mit deren Para-
meterräumen sowie das Ergebnis des Tunings.
Als vorläufig bestes RNN hat ein LSTM mit 100 hidden Layer, ein Dense Layer, zwei hid-
den Units und einer Dropout Rate von 0.19 abgeschnitten. Dieses NN wird im Folgenden
als Basis für die Auswahl der Modellparameter genutzt.
Tabelle 6 LTO-Batterie - Parameterräume für das Hyperparametertuning mit den jeweiligen Ergebnissen des Tunings
Die Wahl des Optimierers ist basierend auf vier Vergleichstrainings getroffen worden.
Vier Trainings und Validierungen wurden für vier gleiche NN mit dem gleichen Daten-
satz mit je einem anderen Optimierer durchgeführt. Wie in Abbildung 20 zu sehen ist,
schneiden im Vergleich zu Adam und RMSprop die Optimierer AdaGrad und SGD so-
wohl in Bezug auf den Loss als auch auf den MAXE schlechter ab. Im Loss sind zwi-
schen RMSprop und Adam kaum Unterschiede zu erkennen. Bezüglich des MAXEs ist
der Adam Optimierer zwar volatiler, jedoch in einigen Epochen mit Abstand am kleins-
ten.
74
Abbildung 20 LTO-Batterie - Vergleich der Trainingsperformance verschiedener Optimierer
75
Die Learningrate (LR) ist in zehn Trials in einem Bereich zwischen 0.0001 und 0.001
getestet worden. Bei keinem dieser LRs ist innerhalb der ersten 100 Epochen ein Over-
fitting festzustellen, wobei weder der Loss noch der Validation Loss in der zweiten Hälfte
des Trainings signifikant abnimmt. Insgesamt ist kein direkter Einfluss der LR auf das
Ergebnis erkennbar. Das Modell mit dem kleinsten MAXE wurde mit einer LR von 0.002
trainiert, somit wird im weiteren Verlauf des Hyperparametertunings die LR auf diesen
Wert festgesetzt.
Durch Vergleichstrainings konnte die Aussage von Li et al. [151] über die Disharmonie
von Batchnormalisierung und Dropout widerlegt werden. In Abbildung 21 sind zwei Trai-
nings von zwei gleichen LSTM Netzen mit einer Dropout Rate von 0,1 dargestellt. Der
Loss wird während des Trainings ohne Batchnormalisierung (BN) schneller kleiner als
mit BN. Jedoch wird in der Validierung ein deutlich kleinerer MAXE erreicht. Somit ist die
BN in diesem Anwendungsfall ein probates Mittel, um den Fehler zu minimieren.
Abbildung 21 LTO-Batterie - Vergleich der Trainingsperformance zweier Modelle mit aktiver und inaktiver
Batchnormalisierung
76
5.3.3. Modellparametertuning
Das finale Tuning der Modellparameter wurde unter der Berücksichtigung der vorher be-
stimmten Hyperparameter sowie der Auswahl des Datensatzes mit Optuna durchgeführt.
Die Parameterräume aus Kapitel 5.2 wurden Optuna als zu tunende Parameter überge-
ben und in 34 Trials getuned. Abbildung 22 zeigt das Ergebnis des Tunings. Ein LSTM
Netzwerk mit 100 hidden Units, in ein RNN Layer und zwei Dense Layern mit einer Dro-
pout Rate von 0.01 erreicht den kleinsten MAXE. Aufgrund der Größe des Datensatzes
konnte in keinem der Trials Overfitting festgestellt werden.
77
Das bis dahin beste Modell wurde mit denselben modellbezogenen Parametern nach
dem Ansatz von Vidal et al. [56] fünf Mal trainiert. Durch die unterschiedlichen Initialisie-
rungen der Gewichte und Biases zwischen den Neuronen ergeben sich unterschiedliche
Trainingsverläufe. In diesem Fall kann der MAXE weiter minimiert werden. Abbildung 23
zeigt den Trainingsprogress mit einem Optimum in Epoche 20.
78
Abbildung 24 zeigt den Loss, Validation Loss und MAXE im Verlauf eines Trainings mit
1000 Epochen. Der über die gesamte Laufzeit sinkende Loss und Validation Loss deu-
tet daraufhin, dass kein Overfitting auftritt. Dagegen erreicht der MAXE sein Minimum
innerhalb der ersten 100 Epochen. Aus diesem Grund ist ein Training über mehr als 100
Epochen in der in dieser Arbeit vorgestellten Anwendung nicht zielführend.
Abbildung 24 LTO-Batterie - Loss, Validation Loss und MAXE im Verlauf eines Trainings mit 1000 Epochen
79
Die Tabelle 7 zeigt die Fehlermetriken des LTO-Modells mit dem geringsten MAXE.
Balancing Konfiguration
Nr. 5
Netzwerk Konfiguration
Netzwerktyp LSTM
MAE 0,47 V
MAXE 2,77 V
80
5.4. Hyperparametertuning des LFP-Batterie Modells
Der erste Schritt, die Auswahl der Balancing Parameter, erfolgt wie bei der LTO-Batterie
unter der Voraussetzung gleicher Annahmen bezüglich der Wichtigkeit der Parameter.
Maßgeblich ist wieder Tabelle 3, mit der Schlussfolgerung, dass die Features Imean ,
Tmean , Umean für die ersten MFU genutzt werden.
Abbildung 25 zeigt die Datenverteilungen der einzelnen Eingangsfeatures vor und nach
dem MFU. Die Temperatur weist eine deutlich bessere Datenverteilung auf. Zu sehen
ist die Reduktion der überproportional häufigen Datenpunkte im Spannungsbereich von
rund 46 V. Zudem ist der Strompeak um 0 A deutlich kleiner. Das Ziel, eine ausgewoge-
nere Datenverteilung entlang der Features zu erreichen, ist auch für diesen Datensatz
durch den MFU erfüllt worden.
81
Vor dem Balancing Nach dem Balancing
Abbildung 25 LFP-Batterie - Datenverteilung der Features Temperatur, Spannung und Strom vor und nach einem
Undersampling der Daten mit den Undersampling Parametern Imean _Tmean _Umean _50/20
82
Das MFU wird, wie bei der LTO-Batterie, für die neun Varianten aus Bin Limits und Bin
Range durchgeführt. Aufgrund der guten Performance bei der LTO-Batterie wird zusätz-
lich ein MFU auf die Balancing Feature Kombination Imean , Tmean , dU angewandt. Die
sich daraus ergebenden acht Histogramme der Datenverteilung der Temperatur sind in
Abbildung 26 zu sehen.
(a) Imean _Tmean _Umean _20/10 (b) Imean _Tmean _Umean _20/20
1 (c) Imean _Tmean _Umean _20/50 (d) Imean _Tmean _Umean _50/10
1 (e) Imean _Tmean _Umean _50/20 (f) Imean _Tmean _Umean _50/50
1 (g) Imean _Tmean _Umean _100/20 (h) Imean _Tmean _dU _50/20
Abbildung 26 LFP-Batterie - Vergleich der Datenverteilung anhand des Features Temperatur bei unterschiedlichen
Undersampling Parametern
83
Die unterrepräsentierten Bereiche werden durch das gezielte Oversampling stärker ge-
wichtet. Die Abbildung 27 zeigt die Datensätze, für welche erste Modelle trainiert und an-
hand der Fehlermetriken bewertet werden. Das Ergebnis des MFU
Imean _Tmean _Umean _20/20 ist eine relativ gleichverteilte Temperaturhäufigkeit. Da bei
diesem Datensatz kein klarer Minoritätsbereich erkennbar ist, wird hier auf das Over-
sampling verzichtet. Das MFU Imean _Tmean _Umean _50/20 hat deutlich mehr Datenpunk-
te, jedoch ist eine Minorität bei Temperaturen < 0°C zu erkennen. Diese Minorität wird
mit einem einstufigen Oversampling aufgewertet. Der Datensatz Imean _Tmean _dU _50/20
wird mit einem zweistufigen Oversampling, jeweils für die Temperaturen zwischen -5°C
und 5°C, versehen.
Abbildung 27 LFP-Batterie - Datenverteilungen von verschiedenen Oversampling Parametern für ausgewählte MFU
Datensätze
84
Der Datensatz, mit der Balancing Konfiguration
Imean _Tmean _dU _50/20 range(2)/step(1)/M C(−5/5), weist im Gegensatz zur Modellie-
rung der LTO-Batterie bei der LFP-Batterie einen deutlich größeren MAXE auf. Vergleich-
bare Datensätze mit einem Imean _Tmean _Umean _50/20 Undersampling zeigen eine bes-
sere Performance, wobei der Datensatz mit einem Undersampling von
Imean _Tmean _Umean _20/20 insgesamt zu wenige Datenpunkte aufweist. Dies ermöglicht
eine Generalisierung nur minderwertig. Die Variante
Imean _Tmean _dU _50/20 range(2)/step(2)/M C(0) hat mit einem maximalen Fehler von
2,76 V das beste Modell trainiert. Wie in Tabelle 8 zu sehen ist, werden infolgedessen
zwei weitere ähnliche Datensätze hinsichtlich eines Verbesserungspotentials untersucht.
Auf ein Training von Transformer wurde in diesem Schritt wegen der schlechten Perfor-
mance bei den LTO-Batterie Datensätzen verzichtet.
Tabelle 8 LFP-Batterie - MAXE von RNN und Transformer Modellen für verschiedene Balancing Kombinationen
Da im ersten Schritt die Modellgüte analog zur Datensatzgröße gestiegen ist, wird im
zweiten Schritt die Datensatzgröße weiter erhöht. Zum einen wird das Bin Limit bei Da-
tensatz Nr. 4 aus Tabelle 9 auf 50 erhöht. Zum anderen wird im Vergleich zu Datensatz
Nr. 2 in Datensatz Nr. 5 die Bin Range auf 100 erhöht und ein einstufige Oversampling
durchgeführt. Beide Datensätze erzeugen bessere Modelle, wobei der Datensatz Nr.
5 mit der Balancing Konfiguration Imean _Tmean _Umean _100/20 range(2)/step(1)/M C(0)
das beste Modell mit einem MAXE von 2,31 V erreicht. Der vielversprechendste Daten-
satz bildet zudem die Grundlage für das Training von Transformern. Wie in Abbildung 9
zu sehen ist, ist das beste Transformer Modell, getuned nach dem in Kapitel 2.3.5 vor-
gestellten Hyperparamtertuning-Algorithmus, auf einen MAXE von 2,66 V validiert und
somit zwar besser als das bisher beste Transformer-Modell, jedoch deutlich schlechter
als das beste RNN.
Tabelle 9 LFP-Batterie - MAXE von RNN und Transformer Modellen für weitere Balancing Kombinationen
85
5.4.2. Begründung für Wahl der Hyperparameter
Anschließend an die Wahl des Balancings müssen die Hyperparameter, wie in Kapitel
5.1.2 beschrieben, getuned werden. Die Tabelle 10 zeigt die zu tunenden Parameter mit
deren Parameterräumen sowie das Ergebnis des Tunings.
Für das weitere Hyperparametertuning wird das vorläufig beste Modell genutzt. In die-
sem Fall stellt das Modell ein LSTM mit fünf hidden Units jeweils in den zwei hidden Layer
und den zwei Dense Layern in Kombination mit einer Dropout Rate von 0.011 dar.
Tabelle 10 LFP-Batterie - Parameterräume für das Hyperparametertuning mit den jeweiligen Ergebnissen des Tunings
86
Abbildung 28 LFP-Batterie - Vergleich der Trainingsperformance verschiedener Optimierer
87
Ähnlich wie bei dem LTO-Batterie Datensatz ergab die Gegenüberstellung der Lernraten
das Ergebnis, dass die Lernrate keinen großen Einfluss auf die Genauigkeit und die
Konvergenz der Modelle hat. Im Bereich zwischen 0.0001 und 0.001 konnte in zehn
Trials kein Overfitting festgestellt werden, jedoch ist eine positive Tendenz hin zu den
kleineren Lernraten erkennbar. Dabei liegt das Optimum zwischen 0.0002 und 0.0003.
Im Folgenden wird, wie bei der LTO, dieselbe Lernrate von 0.0002 verwendet.
Der Einfluss der Batchnormalisierung auf die Güte des Modells ist positiv, wie es bei der
LTO-Batterie ebenso festzustellen war. Abbildung 29 zeigt den Vergleich zwischen einer
aktiven und inaktiven Batchnormalisierung. Das Ergebnis zeigt, dass der Loss bei beiden
Varianten ähnlich ist, jedoch der minimale MAXE bei der aktivierten Batchnormalisierung
deutlich kleiner ist.
Abbildung 29 LFP-Batterie - Vergleich der Trainingsperformance zweier Modelle mit aktiver und inaktiver Batchnorm
88
5.4.3. Modellparametertuning
Das Hyperparametertuning der Modellparameter mit Optuna wird basierend auf den aus-
gewählten Datensets sowie den im vorherigen Kapitel bestimmten Parametern durchge-
führt. Es wurden 15 Trials trainiert. Davon wurden vier Trials vorzeitig abgebrochen, da
der Pruner diese Zweige als nicht aussichtsreich erkannt hat. Ein Overfitting konnte in
keinem der Trials festgestellt werden. Allerdings zeigten sich, wie in Abbildung 30 zu
sehen, deutliche Unterschiede im MAXE. Das Modell mit dem geringsten MAXE, ist ein
LSTM Netz mit fünf hidden Units, zwei RNN Layern sowie zwei Dense Layern mit einer
Dropout Rate von 0,11. Da dieses Modell nur fünf hidden Units hat gibt es wenige mo-
dellinterne Gewichte und Bias die eingestellt werden müssen. Hierdurch stellt sich das
Optimum bereits in Epoche zehn ein.
89
Die randomisierte Initialisierung der Gewichte und Bias im NN führt zu unterschiedlichen
Verläufen im Trainingsprogress, auch wenn gleiche Netze trainiert werden. Dementspre-
chend wurde das beste NN mit fünf verschiedenen Initialisierungen trainiert. Das Ergeb-
nis der fünf Vergleichstrainings ist in Abbildung 31 dargestellt. Eine weitere Optimierung
konnte in diesem Fall jedoch nicht erreicht werden.
90
Abbildung 32 zeigt ein ähnliches Verhalten wie das Training von 1000 Epochen bei der
LTO-Batterie. Es tritt weder Oversampling auf, noch kann der MAXE nach über 100 Epo-
chen verbessert werden, womit auch in diesem Fall ein Training für 100 Epochen ausrei-
chend ist.
Abbildung 32 LFP-Batterie - Loss, Validation Loss und MAXE im Verlauf eines Trainings mit 1000 Epochen
91
Die Tabelle 11 zeigt die Fehlermetriken des LFP-Modells mit dem geringsten MAXE.
Balancing Konfiguration
Nr. 5
Netzwerk Konfiguration
Netzwerktyp LSTM
MAE 0,34 V
MAXE 2,24 V
92
5.5. Zwischenfazit
Tabelle 12 Subjektive Einschätzung bezüglich des Einflusses der Parameter auf die Güte des Modells
Lernrate +
Optimierer ++
Batchnorm +
Netztyp ++
Dropout Rate +
93
In Tabelle 12 sind die Parameter und deren Einfluss auf die Güte des Modells auf-
getragen. Die Datenvorverarbeitung mit den Algorithmen zum Under- und Oversamp-
ling hat den größten Einfluss, sowohl auf die Güte als auch auf die Konvergenz der
zu trainierenden Modelle. Eine generelle Empfehlung zu den Parametern kann dabei
nicht gegeben werden. Es besteht eine große Abhängigkeit von der Datenverteilung und
-größenordnung der Rohdaten. Des Weiteren hat die Wahl des Optimierers einen ge-
wichtigen Einfluss auf das Ergebnis. Wobei die Untersuchungen zeigen, dass der Adam
Algorithmus am geeignetsten ist. Die Hyperparameter Lernrate und Batchnormalisie-
rung haben einen geringeren Einfluss, zeigen aber die besten Ergebnisse mit aktivierter
Batchnormalisierung und einer Lernrate von 0.0002. Der Einfluss der modellbezoge-
nen Parameter kann nicht für jeden Hyperparameter einzeln bewertet werden, da die-
se immer im Zusammenhang getuned werden. Pauschale Aussagen sind aus diesem
Grund nicht zu treffen. Der Modellierungsansatz mit Transformern ist in dieser Anwen-
dung nicht zu empfehlen, da sich die Performance in jedem Vergleich mit RNNs als
schlechter zeigt.
94
6. Verifikation und Validierung
Abbildung 33 Validierung und Verifizierung im Rahmen des V-Modells mit den jeweiligen Entwicklungsstufen
95
6.1. Verifikation
Die Verifikation beginnt mit der Spezifikation des Systems. Das Modell soll das Span-
nungsverhalten der Batterie wiedergeben, auf der Basis von Deep-Learning Algorith-
men aufgebaut werden, nur auf physikalisch messbare Eingangsgrößen zurückgreifen
und aus Rohdaten erstellt werden können.
Der gesamte Systemtest wurde in Kapitel 5 beschrieben, wobei die einzelnen Bestand-
teile der Spezifikation anhand von zwei unterschiedlichen Batterie-Typen verifiziert wer-
den konnten.
Der Systementwurf beinhaltet die Auswahl der Eingangsfeatures in Kapitel 4.1, die Da-
tenvorverarbeitungspipeline in Kapitel 4.2, das Hyperparametertuning in Kapitel 2.3.5
sowie das Training der Transformer Modelle und der RNN Modelle in den Kapiteln 5.3
und 5.4. Dabei wird auf eine manuelle, nicht formale Verifikation durch dynamische Tests
zurückgegriffen.
Teile aus dem Systementwurf wurden im Feinentwurf detaillierter formuliert. Dazu zählt
das Balancing der Datenvorverarbeitungspipeline, insbesondere das in Kapitel 4.2.3 be-
schriebene Oversampling und entworfene MFU. Die implementierten Algorithmen wur-
den während dem Entwicklungsprozess ständig Modultests unterzogen.
6.2. Validierung
Während des Trainings und der Inferenz findet die Vorhersage nur innerhalb einer Se-
quenz statt, wobei die meisten Anwendungen eine Vorhersage über einen längeren Zeit-
raum erfordern. Da in dem vorgeschlagenen Ansatz auf den Teacher-Forcing-Algorithmus
verzichtet wird, untersucht dieser Abschnitt die Genauigkeit der vorhergesagten Span-
nung auf die nächsten Zeitschritte. Kleine Fehler zu Beginn könnten aufgrund der feh-
lenden Korrektur zur Ground Truth, zu einer Instabilität der Vorhersage führen.
Die trainierten Modelle müssen hinsichtlich der Fehlermetriken validiert werden, um eine
Aussage über die Verwendbarkeit dieser Modelle treffen zu können. Mit dieser ergebnis-
bezogenen Validierung wird die Übereinstimmung der Ergebnisse des Modells mit dem
realen Verhalten der Batterie geprüft.
Für die Validierung werden Messungen mit den Batteriesamples an einem Hardware-
in-the-Loop Prüfstand aufgenommen. Ein Vorteil gegenüber den zufällig entstehenden
CAN-Traces aus Versuchsfahrzeugen ist, dass die Umweltbedingungen und Batteriekon-
96
ditionen manuell eingestellt werden können. Somit kann sichergestellt werden, dass die
Validierung in einem breiten Spektrum stattfindet. Die Temperaturniveaus von
97
Abbildung 34 LTO-Batterie - Streudiagramm des Validation Set
98
Die Datenverteilung von Temperatur, Strom und Spannung im Validation Set der LFP-
Batterie ist in Abbildung 35 dargestellt. In Analogie zu der LTO-Batterie ist zu erkennen,
dass die Stromrange aufgrund der temperaturabhängigen Polarisationswiderstände mit
steigender Temperatur zunimmt und die Spannungsrange zugleich abnimmt. Die Tempe-
raturschritte sind auf dieselben Basiswerte aufgeteilt, wobei eine strikte Einhaltung der
Temperatur vernachlässigt wurde. Die Ströme sind begrenzt auf 525 A im Ladefall und
223 A in der Entladung, was einer maximalen C-Rate von 26 C entspricht. Im Validation
Set sind Spannungen aus dem gesamten Betriebsbereich der Batterie enthalten.
99
Das für das Einmessen des Validation Set verwendete Stromprofil ist in Abbildung 36
beispielhaft für die LTO-Batterie bei einem Temperaturniveau von 0°C und einem mitt-
leren Ladezustand dargestellt. Das Basis-Stromprofil stammt aus einer realen, kunden-
orientierten Testfahrzeugmessung unter realen Umweltbedingungen. Das Ur-Profil wird
dann je nach Temperatur und Ladezustand so skaliert, dass die Spannungsgrenzen der
Batterie zwar möglichst erreicht, jedoch nicht überschritten werden. Somit kann in jeder
Kombination der größtmögliche Spannungsbereich abgedeckt werden. Das reale Profil
enthält neben großen, kurzzeitigen Volatilitäten sowohl Konstantstromphasen als auch
Ruhephasen. Das Profil beinhaltet neben Ladephasen (negative Ströme) auch Entlade-
phasen (positive Ströme). Die Länge des Profils ist auf 480 s begrenzt, um einerseits
die Datenmenge gering zu halten und andererseits das Modell über einen ausreichend
langen Zeitraum validieren zu können.
100
6.2.2. Validierungsergebnisse
Validierung LTO-Batterie
Die Spannungsprädiktionen werden für alle zwölf Validierungsmessungen mit den ge-
messenen Spannungen, der GT, verglichen. Dabei wird in erster Linie auf den Error,
der Differenz aus Prädiktion und GT geachtet und zusätzlich der qualitative Verlauf der
beiden Spannungen bewertet.
Abbildung 37 zeigt die Prädiktion auf die Messung bei -18°C und mittlerem SOC. Der
MAXE liegt bei knapp über 1 V und tritt zu einer Phase mit sehr hohen Belastungen
auf. Das exposure Bias Problem, bei welchem die fehlende direkte Rückkopplung der
GT zu einem Drift im Fehler führt, kann in diesem Fall selbst über acht Minuten Prä-
diktionshorizont nicht festgestellt werden. Die Feedback Prozedur der Spannung zum
Eingangsparameter Utrend , als Methode zur Kompensation des nicht einsetzbaren Tea-
cher Forcing Algorithmus, gibt der Prädiktion Stabilität. Der leicht erkennbare Bias nach
ca. 300 s ist nicht auf die Berechnung des Utrend zurückzuführen, sondern auf die in
diesem Profil auftretenden Volatilitäten.
101
Abbildung 37 LTO-Batterie - Validierung des Modells mit dem Profil „Val_LTO_5“ bei mittlerem Ladezustand und einer
Temperatur von durchschnittlich -18°C
102
Wie in Abbildung 38 zu beobachten, tritt im Gegensatz zu der Prädiktion von Profil Val_-
LTO_5 tritt im Profil Val_LTO_2 ein Error-Drift auf, der nicht auf das exposure Bias Pro-
blem zurückzuführen ist. Die Ursache in diesem Fall ist die Änderung des Ladezustands
über die untersuchte Zeitspanne von acht Minuten hinweg. Bei niedrigen Ladezuständen
wurden die Stromprofile so angepasst, dass die Entladeströme herunterskaliert werden,
jedoch die Ladeströme gleichbleiben. Das führt zu einem Nettoenergieeintrag der Batte-
rie und einer damit verbundenen Erhöhung der OCV. Eine Änderung des Ladezustands
erfolgt meist über einen längeren Zeitraum, besonders in hochvolatilen Stromverläufen
mit wenigen hohen Konstantstromphasen im Automotive Energiebordnetz. Somit kann
das NN den Zusammenhang zwischen Ladezustand und OCV bzw. Spannung nicht er-
lernen, weil zu wenige Daten mit signifikanten Ladezustandsänderungen innerhalb der
Sequenzlänge vorliegen. Der Utrend Updateprozess mit der indirekten Rückwirkung von
der OCV auf den Input des Netzes wirkt dem Fehlerdrift entgegen und wird mit einer
Updatezeit von 70 s zu selten durchgeführt, um den Trend umzukehren. Der maximale
absolute Fehler im gesamten Validierungsset ist die Folge dieses Fehlerdrifts in Kombi-
nation mit den hohen Belastungen im Stromprofil.
103
Abbildung 38 LTO-Batterie - Validierung des Modells mit dem Profil „Val_LTO_2“ bei niedrigem Ladezustand und einer
Temperatur von durchschnittlich 1°C
104
Der maximale absolute Fehler von 2,77 V tritt in der Messung bei niedrigem SOC und
-23°C, wie in Abbildung 39 dargestellt, auf. Eine starke Temperaturabhängigkeit im Feh-
ler kann nicht festgestellt werden, da das Validierungsprofil mit dem größten MAXE bei
der gleichen Temperatur wie das Profil mit dem kleinsten MAXE gemessen wurde. Das
Verhalten tritt auf, obwohl tiefe Temperaturen für die Spannungsprädiktion deutlich her-
ausfordernder sind, da hier die Polarisationsüberspannungen deutlich höher liegen.
Abbildung 39 LTO-Batterie - Validierung des Modells mit dem Profil „Val_LTO_1“ bei niedrigem Ladezustand und einer
Temperatur von durchschnittlich -23°C
105
Die Tabelle 13 zeigt die Fehlermetriken der Validierung des LTO-Modells. Über das ge-
samte Validation Set erreicht das LTO-Batterie Modell einen MSE von 0,41 V², einen
MAE von 0,47 V und einen MAXE von 2,77 V. Bezogen auf die Nominalspannung ergibt
sich ein maximaler relativer Fehler von 5,77 % und ein durchschnittlicher relativer Fehler
von 1,00 %.
Spannung Temperatur
106
Validierung LFP-Batterie
Abbildung 40 LFP-Batterie - Validierung des Modells mit dem Profil „Val_LFP_8“ bei mittlerem Ladezustand und einer
Temperatur von durchschnittlich 53°C
107
Der im Validation Set maximale absolute Fehler von 2,24 V ist in einer Messung mit
extremen Bedingungen aufgetreten. Die in Abbildung 41 dargestellte Messung ist mit
einer auf -23°C temperierten und niedrigem Ladezustand konditionierten Batterie durch-
geführt worden. Der maximale Fehler tritt bei Spannungsspitzen in einem Bereich von
über 52 V auf, welcher nur selten im Trainingsdatensatz vorhanden ist. Zudem ist die
Spannungsänderung zwischen OCV und der Spannungsspitze sehr groß. Hohe Ströme
in Kombination mit tiefen Temperaturen stellen schwer vorhersagbare Bedingungen in
der Batteriemodellierung dar. Der hohe MAE von 0,59 V ist auf diese Voraussetzungen
zurückzuführen, kann jedoch aufgrund der großen Spannungsrange zwischen ca. 42 V
und 52 V relativiert werden. Begünstigt durch die flache OCV-Kurve von LFP-Batterien
ist in dieser Prädiktion der Einfluss von Ladezustandsänderungen mit einem Errordrift
nicht festzustellen.
Abbildung 41 LFP-Batterie - Validierung des Modells mit dem Profil „Val_LFP_1“ bei niedrigem Ladezustand und einer
Temperatur von durchschnittlich –23°C
108
Wie in Tabelle 14 zu sehen, erreicht das LFP-Modell über das gesamte Validation Set
einen MSE von 0,21 V², einen MAE von 0,34 V und einen MAXE von 2,24 V. Bezogen
auf die Nominalspannung ergibt sich ein maximaler relativer Fehler von 4,67 % und ein
durchschnittlicher relativer Fehler von 0,71 %.
Spannung Temperatur
109
Erkenntnisse der Validierung
Im Folgenden wird die Interpretation der Validierung in Bezug auf den vorgeschlagenen
Prozess der Modellierung mit NN im Allgemeinen sowie auf die beiden erstellten Modelle
diskutiert. Diese Erkenntnisse sind anhand der Validierung für die Modellierung mit NN
im vorgeschlagenen Prozess abzuleiten:
• Die Modellierung der Spannung ist mit dem vorgeschlagenen Utrend Updateprozess
über längere Zeithorizonte mit akzeptablen Fehlern möglich. Das exposure Bias Pro-
blem tritt bei keiner Validierung auf.
• Aufgrund von Ungleichmäßigkeiten in der Produktion und in der Alterung zeigen un-
terschiedliche Batterien vom selben Typ ein ungleiches Verhalten. Die Trainingsdaten
entstammen vielen verschiedenen Batterien desselben Typs. Die damit verbundenen
Unterschiede machen einerseits das Modell robuster, andererseits können einzelne
Batterien stärkere Abweichungen zur Gesamtheit und damit zum Modell aufweisen.
Der Offset im Fehler am Anfang der Messungen bezieht sich mitunter auch auf diesen
Zusammenhang.
• Trotz der Unterschiede in der Größe der NN, beeinflusst durch die Anzahl der hid-
den Units und hidden Layers, kann von einer pauschalisierten Aussage bezüglich der
Korrelation zwischen Netzgröße und Zellchemie abgesehen werden.
110
In Tabelle 15 sind die Fehlermetriken der beiden Modelle dargestellt, wobei das LFP-
Batterie Modell in allen Metriken besser abschneidet als das LTO-Batterie Modell. Die
Ursache für den Unterschied kann sowohl durch die Anzahl und Verteilung der Daten
als auch durch das elektrochemische Verhalten der Zellchemien begründet werden.
Tabelle 15 Fehlermetriken der finalen Batterie Modelle über das gesamte Validation Set
Das Modell der LTO-Batterie unterscheidet sich von dem LFP-Batterie Modell in zwei
Punkten, welche durch das spezielle elektrochemische Verhalten der Zelle zu erklären
sind.
Das DCR Modell von Zheng et al. [67] ist nur auf sehr kleine Ströme mit bis zu C/3 und
einer Temperatur von mindestens 10°C validiert. In Relation zu den anderen Modellie-
rungsansätzen wird hier deutlich, dass diese Art der Modellierung nur in spezifischen,
einfachen Anwendungen möglich ist. Die Modelle mit einem KF zeigen gute Ergebnisse.
Der DEKF von Pei et al. [70] ist bis zu einer Temperatur von -10°C mit einem MAXE von
4,75 % validiert. Sun et al. [155] haben das extended-KF bei größeren Strömen bis 8C
111
mit einem MAXE von 2 % bei 25°C validiert. Das NN von Haiying et al. [71] hat einen
relativ kleinen MAXE von 1,01 % bei leicht modellierbaren Temperaturen von 25°C. Flei-
scher et al. [73] modellieren mit ANFIS in ähnlicher Genauigkeit wie das Modell mit dem
AEKF, allerdings bei niedrigeren Stromraten. Die GRU Modelle von Zhao et al. [75] und
die LSTM Modelle von Vidal [56] sind bei Temperaturen von mindestens -10°C auf einen
RMSE von unter 1,6 % validiert. Die maximalen Stromraten sind in beiden Fällen ähnlich,
der resultierende RMSE ist jedoch bei den LSTMs etwas niedriger.
Die in dieser Arbeit vorgestellten Modelle werden in der Tabelle 16 mit den Modellen aus
der Literatur verglichen. Dazu sind folgende drei Aspekte zu nennen.
• Die Modelle in der Literatur nutzen ausnahmslos den SOC der Batterie als Input für
das Modell. Sie setzen damit voraus, dass ein valides Ladezustandsmodell existiert.
Die Modelle aus dieser Arbeit benötigen den SOC nicht als Input, sollten aber nicht
weniger gut generalisieren.
• In Bezug auf die untersuchten Temperaturen werden die meisten Modelle minimal
bis -10°C validiert, das LSTM Samsung Modell von Vidal [56] sogar bis auf -20°C.
Diese Temperaturen sind für die meisten Anwendungen ausreichend. Im Automotive
Sektor werden Betriebstemperaturen bis zu -25°C betrachtet. Je tiefer die Temperatur
ist desto höher ist die Nichtlinearität des Spannungsverhaltens der Batterie, wodurch
die Prädiktion erschwert wird.
112
Tabelle 16 Fehermetriken in vergleichbaren Modellen
113
Zusätzlich zum Verzicht auf den SOC als Input verdeutlichen die drei genannten Aspek-
te, dass die in dieser Arbeit vorgestellten Modelle unter erschwerten Bedingungen vali-
diert wurden. Trotz dieser Umstände sind die Fehler mit einem RMSE von 1,30 % und
einem MAXE von 5,60 % beim LSTM Modell der LTO-Batterie kleiner als die der Modelle
von Zhao et al. [75] und ähnlich den Modellen von Vidal [76]. Das vorgeschlagene LSTM
Modell der LFP-Batterie zeigt indes mit einem RMSE von 1,00 % und einem MAXE von
4,80 % bessere Fehlermetriken als die übrigen Modelle.
114
7. Zusammenfassung und Ausblick
7.1. Zusammenfassung
Bisherige Modelle leiden an langen Entwicklungszeiten, bedingt durch den Prozess der
Modellierungs-Methodik. Im Speziellen sind Modelle, die von anderen Modellen abhän-
gen, nicht autark entwickelbar und in der Tendenz fehleranfälliger. Dem aktuellen Stand
der Technik zufolge sind vor allem SOP-Modelle abhängig vom SOC und somit von der
Güte und Entwicklungsgeschwindigkeit des SOC-Modells. In dieser Arbeit wurden die
Input Parameter bewusst auf physikalisch messbare Größen und direkte Berechnungen
aus diesen Größen begrenzt, um die Unabhängigkeit des Modells zu gewährleisten.
Für ein effizientes Training von NN müssen die Rohdaten aufbereitet werden. Under-
sampling und Oversampling Algorithmen werden genutzt, um die Datenverteilung der
einzelnen Features zu optimieren, ohne dabei einen Informationsverlust zu erleiden. Im
Anwendungsfall der Batteriemodellierung wird eine Regressionsanalyse angestellt. Die
Datenverarbeitung wird dadurch, im Gegensatz zu den in der Literatur häufig diskutier-
ten Klassifikationsproblemen, mit neuen Algorithmen durchgeführt. Das für diesen An-
wendungsfall entwickelte MFU adressiert die Herausforderung beim Undersampling von
stetigen Daten mit vielen unausgeglichenen Features. Durch die parallele Verarbeitung
von mehreren Features können selbst große, willkürlich aufgezeichnete Datensätze für
ein effizientes Training optimiert werden. Das entwickelte mehrstufige, auf die Regressi-
onsanalyse angepasste Oversampling ergänzt das MFU, sodass die trainierten NN auch
in Bereichen mit wenigen Datenpunkten eine gute Generalisierung aufweisen.
Nach der Datenvorverarbeitung ist das Hyperparametertuning entscheidend für die end-
gültige Güte eines Modells. Die Anzahl der Hyperparameter ist groß und in Verbindung
mit den oftmals stetigen Parameterräumen ist eine finale Bestimmung des globalen Op-
timums der Hyperparameter nicht möglich. In dieser Arbeit werden für das Hyperpa-
rametertuning Vorschläge für Werte und eingrenzende Parameterräume erarbeitet, die
sich im Laufe des Tunings als zielführend herausgestellt haben. Trotz der Eingrenzun-
gen müssen viele Hyperparameter für den speziellen Anwendungsfall getuned werden.
Die vorgeschlagene Hyperparametertuningpipeline kann den Prozess unterstützen und
beschleunigen.
115
Der gesamte Prozess zur Entwicklung eines Batteriemodells auf Basis von NN ist kom-
plex und interdisziplinär. Die Datenverarbeitungs- und Hyperparametertuningpipeline stel-
len ein Tool dar, welches die Entwicklung solcher Modelle vereinfacht. Um das bestmögli-
che Ergebnis zu erzielen, sollte die Reihenfolge der einzusetzenden Algorithmen befolgt
werden. Anschließend wird diskutiert inwiefern die in Kapitel 1.2 aufgestellten Ziele im
Rahmen dieser Arbeit erreicht wurden.
• Ziel 3: Das Ziel der Verifikation wurde mit der Anwendung der Pipeline und der an-
schließenden Modellierung anhand von zwei Datensätzen zweier unterschiedlicher
Batterien erfüllt. Die Algorithmen für die Datenvorverarbeitung sind funktionsfähig und
effektiv. Die Prädiktion der Spannung erfolgt auch über mehrere Minuten problemlos,
ohne auf den SOC zurückgreifen zu müssen.
• Ziel 4: Die beiden Modelle wurden erfolgreich in einem weiten Temperatur-, Strom-
und Spannungsbereich validiert. Alle möglichen Arbeitspunkte der Batterien sind da-
mit abgedeckt. Die Güte der erarbeiteten Modelle wurde mit Modellen aus der Li-
teratur verglichen, mit dem Ergebnis, dass trotz größerer Validierungsbereiche eine
ähnliche Genauigkeit vorliegt.
116
7.2. Ausblick
Ein weiterer Schritt wäre die Überführung der in dieser Arbeit herausgearbeiteten Bei-
träge in industrielle Anwendungen. Denkbar ist sowohl die Nutzung der neu entwickelten
Algorithmen zur Datenvorverarbeitung als auch die Übernahme der Vorschläge im Be-
reich des Hyperparametertunings. Für neue Anwendungsfälle ist eine Weiterentwicklung
der Algorithmen möglich. Beispielsweise birgt eine Adaption des Modells eines bestimm-
ten Batterietyps auf das einzelne in der Anwendung verbaute Batteriesample großes
Verbesserungspotential. Im Zuge dieser Anpassung ist ein fortlaufendes Training der
Modelle im Betrieb eine Möglichkeit zur Optimierung.
Neben der SOP-Modellierung sind SOC- und SOH-Modelle mit ähnlichen Herangehens-
weisen darstellbar. Die größte Fragestellung bei dieser Art der Modelle ist die Generie-
rung der GT. SOC und SOH sind nicht physikalisch messbar und daher fiktive modellierte
Größen, die für das Training erhoben werden müssen.
117
Literaturverzeichnis
[1] M. Hauck, “Mensch, ärgere dich nicht: 25 jahre ist es her, dass schachweltmeister
garri kasparow erstmals gegen die computersoftware "deep blue" verlor.
mittlerweile haben menschen keine chance mehr gegen die maschinen. hat das
spiel seinen reiz verloren?” 2021. [Online]. Available: https://www.sueddeutsche.
de/digital/schach-deep-blue-kasparow-ibm-1.5200655
[2] C. Witte, “Ki erkennt krebs besser als fachärzte: Diagnose dank artifici-
al intelligence: Bei einem internationalen wettbewerb haben ai-systeme bei
der erkennung von metastasen besser abgeschnitten als erfahrene pa-
thologen.” 2018. [Online]. Available: https://www.hannovermesse.de/de/news/
news-fachartikel/ki-erkennt-krebs-besser-als-fachaerzte
[3] D. S. Cardoso, P. O. Fael, and A. Espírito-Santo, “A review of micro and mild hybrid
systems,” Energy Reports, vol. 6, pp. 385–390, 2020.
118
[10] W.-J. Zhang, “A review of the electrochemical performance of alloy anodes for
lithium-ion batteries,” Journal of Power Sources, vol. 196, no. 1, pp. 13–24, 2011.
[11] John Christensen and John Newman, “Cyclable lithium and capacity loss in li-ion
cells,” Journal of the Electrochemical Society, vol. 152, no. 4, p. A818, 2005.
[14] C. P. Sandhya, B. John, and C. Gouri, “Lithium titanate as anode material for
lithium-ion cells: a review,” Ionics, vol. 20, no. 5, pp. 601–620, 2014.
[15] K. Xu, A. von Cresce, and U. Lee, “Differentiating contributions to "ion transfer"
barrier from interphasial resistance and li+ desolvation at electrolyte/graphite in-
terface,” Langmuir : the ACS journal of surfaces and colloids, vol. 26, no. 13, pp.
11 538–11 543, 2010.
[17] N. Nitta, F. Wu, J. T. Lee, and G. Yushin, “Li-ion battery materials: present and
future,” Materials Today, vol. 18, no. 5, pp. 252–264, 2015.
[18] H. Li, M. Cormier, N. Zhang, J. Inglis, J. Li, and J. R. Dahn, “Is cobalt needed in
ni-rich positive electrode materials for lithium ion batteries?” Journal of the Elec-
trochemical Society, vol. 166, no. 4, pp. A429–A439, 2019.
[20] F. Wu, J. Maier, and Y. Yu, “Guidelines and trends for next-generation rechargea-
ble lithium and lithium-ion batteries,” Chemical Society reviews, vol. 49, no. 5, pp.
1569–1614, 2020.
[21] S.-L. Wu, W. Zhang, X. Song, A. K. Shukla, G. Liu, V. Battaglia, and V. Srinivasan,
119
“High rate capability of li(ni 1/3 mn 1/3 co 1/3 )o 2 electrode for li-ion batteries,”
Journal of the Electrochemical Society, vol. 159, no. 4, pp. A438–A444, 2012.
[22] S.-Y. Chung, J. T. Bloking, and Y.-M. Chiang, “Electronically conductive phospho-
olivines as lithium storage electrodes,” Nature materials, vol. 1, no. 2, pp. 123–128,
2002.
[23] D. Doughty and A. Pesaran, “Vehicle battery safety roadmap guidance,” Ph.D. dis-
sertation, Golden, 2012.
[24] W.-J. Zhang, “Structure and performance of lifepo4 cathode materials: A review,”
Journal of Power Sources, vol. 196, no. 6, pp. 2962–2970, 2011.
[25] X. Han, L. Lu, Y. Zheng, X. Feng, Z. Li, J. Li, and M. Ouyang, “A review on the key
issues of the lithium ion battery degradation among the whole life cycle,” eTrans-
portation, vol. 1, p. 100005, 2019.
[28] N. Ding, K. Prasad, T. T. Lie, and J. Cui, “State of charge estimation of a com-
posite lithium-based battery model based on an improved extended kalman filter
algorithm,” Inventions, vol. 4, no. 4, p. 66, 2019.
[29] S. Peng, C. Chen, H. Shi, and Z. Yao, “State of charge estimation of battery energy
storage systems based on adaptive unscented kalman filter with a noise statistics
estimator,” IEEE Access, vol. 5, pp. 13 202–13 212, 2017.
[30] F. Malmir, B. Xu, and Z. Filipi, “A heuristic supervisory controller for a 48v hybrid
electric vehicle considering fuel economy and battery aging,” in A Heuristic Super-
visory Controller for a 48V Hybrid Electric Vehicle Considering Fuel Economy and
Battery Aging, ser. SAE Technical Paper Series. SAE International400 Common-
wealth Drive, Warrendale, PA, United States, 2019.
120
stellung von energiespeichersystemen,” Dissertation, Technische Universität Mün-
chen, München, 2019.
[33] W.-Y. Chang, “The state of charge estimating methods for battery: A review,” ISRN
Applied Mathematics, vol. 2013, no. 5, pp. 1–7, 2013.
[35] Y.-H. Chiang, W.-Y. Sean, and J.-C. Ke, “Online estimation of internal resistan-
ce and open-circuit voltage of lithium-ion batteries in electric vehicles,” Journal of
Power Sources, vol. 196, no. 8, pp. 3921–3932, 2011.
[37] T. Feng, L. Yang, X. Zhao, H. Zhang, and J. Qiang, “Online identification of lithium-
ion battery parameters based on an improved equivalent-circuit model and its im-
plementation on battery state-of-power prediction,” Journal of Power Sources, vol.
281, pp. 192–203, 2015.
[39] H. Rahimi-Eichi, U. Ojha, F. Baronti, and M.-Y. Chow, “Battery management sys-
tem: An overview of its application in the smart grid and electric vehicles,” IEEE
Industrial Electronics Magazine, vol. 7, no. 2, pp. 4–16, 2013.
[41] Y. Deng, C. Feng, J. E, H. Zhu, J. Chen, M. Wen, and H. Yin, “Effects of different
121
coolants and cooling strategies on the cooling performance of the power lithium
ion battery system: A review,” Applied Thermal Engineering, vol. 142, pp. 10–29,
2018.
[42] YUAN Hao, WANG Li-Fang, WANG Li-Ye, “Battery thermal management system
with liquid cooling and heating in electric vehicles,” Journal of Automotive Safety
and Energy, vol. 3, no. 4, p. 371, 2012.
[46] M.-Y. Kim, J.-H. Kim, and G.-W. Moon, “Center-cell concentration structure of a
cell-to-cell balancing circuit with a reduced number of switches,” IEEE Transactions
on Power Electronics, vol. 29, no. 10, pp. 5285–5297, 2014.
[47] A. M. Imtiaz and F. H. Khan, ““time shared flyback converter” based regenerative
cell balancing technique for series connected li-ion battery strings,” IEEE Transac-
tions on Power Electronics, vol. 28, no. 12, pp. 5960–5975, 2013.
[50] S. Madani, E. Schaltz, and S. Knudsen Kær, “An electrical equivalent circuit model
of a lithium titanate oxide battery,” Batteries, vol. 5, no. 1, p. 31, 2019.
122
[51] A. Farmann, “A comparative study of reduced-order equivalent circuit models for
state-of-available-power prediction of lithium-ion batteries in electric vehicles,” Dis-
sertations, RWTH Aachen University, 2019.
[52] X. Hu, S. E. Li, and Y. Yang, “Advanced machine learning approach for lithium-ion
battery state estimation in electric vehicles,” IEEE Transactions on Transportation
Electrification, vol. 2, no. 2, pp. 140–149, 2016.
[54] F. Yang, W. Li, C. Li, and Q. Miao, “State-of-charge estimation of lithium-ion batte-
ries based on gated recurrent neural network,” Energy, vol. 175, pp. 66–75, 2019.
[56] C. Vidal, P. Malysz, P. Kollmeyer, and A. Emadi, “Machine learning applied to elec-
trified vehicle battery state of charge and state of health estimation: State-of-the-
art,” IEEE Access, vol. 8, pp. 52 796–52 814, 2020.
[57] J. Sihvo, T. Roinila, and D.-I. Stroe, “Soh analysis of li-ion battery based on ecm
parameters and broadband impedance measurements,” in IECON 2020 The 46th
Annual Conference of the IEEE Industrial Electronics Society. IEEE, 10/18/2020
- 10/21/2020, pp. 1923–1928.
[58] M. Gholizadeh and A. Yazdizadeh, “Systematic mixed adaptive observer and ekf
approach to estimate soc and soh of lithium–ion battery,” IET Electrical Systems in
Transportation, vol. 10, no. 2, pp. 135–143, 2020.
[59] M. Zeng, P. Zhang, Y. Yang, C. Xie, and Y. Shi, “Soc and soh joint estimation of the
power batteries based on fuzzy unscented kalman filtering algorithm,” Energies,
vol. 12, no. 16, p. 3122, 2019.
[60] G.-w. You, S. Park, and D. Oh, “Real-time state-of-health estimation for electric
vehicle batteries: A data-driven approach,” Applied Energy, vol. 176, pp. 92–103,
2016.
[61] H. Chaoui and C. C. Ibe-Ekeocha, “State of charge and state of health estima-
123
tion for lithium batteries using recurrent neural networks,” IEEE Transactions on
Vehicular Technology, vol. 66, no. 10, pp. 8773–8783, 2017.
[62] C. Zhang, Y. Zhu, G. Dong, and J. Wei, “Data–driven lithium–ion battery states
estimation using neural networks and particle filtering,” International Journal of
Energy Research, vol. 43, no. 8, p. 3681, 2019.
[64] O. Bohlen, “Impedance based battery monitoring,” Ph.D. dissertation, RWTH Aa-
chen University, 2008.
[65] A. BOEHM and J. WEBER, “Adaptives verfahren zur bestimmung der maximal
abgebaren oder aufnehmbaren leistung einer batterie,” Patent WO/2011/095 368,
03.01.2011. [Online]. Available: https://patentscope.wipo.int/search/de/detail.jsf?
docId=WO2011095368
[66] W. Waag, C. Fleischer, and D. U. Sauer, “Critical review of the methods for mo-
nitoring of lithium-ion batteries in electric and hybrid vehicles,” Journal of Power
Sources, vol. 258, pp. 321–339, 2014.
[67] L. Zheng, J. Zhu, G. Wang, D. D.-C. Lu, P. McLean, and T. He, “Experimental
analysis and modeling of temperature dependence of lithium-ion battery direct
current resistance for power capability prediction,” in 2017 20th International
Conference on Electrical Machines and Systems (ICEMS). IEEE, 2017. [Online].
Available: http://dx.doi.org/10.1109/icems.2017.8056426
[70] L. Pei, C. Zhu, T. Wang, R. Lu, and C. C. Chan, “Online peak power prediction ba-
sed on a parameter and state estimator for lithium-ion batteries in electric vehicles,”
Energy, vol. 66, pp. 766–778, 2014.
124
[71] W. Haiying, H. Zhonghua, H. Yu, and L. Gechen, “Power state prediction
of battery based on bp neural network,” in 2012 7th International Forum
on Strategic Technology (IFOST). IEEE, 2012. [Online]. Available: http:
//dx.doi.org/10.1109/ifost.2012.6357617
[74] ——, “On-line self-learning time forward voltage prognosis for lithium-ion batteries
using adaptive neuro-fuzzy inference system,” vol. 243, pp. 728–749.
[76] C. Vidal, “Deep neural networks for improved terminal voltage and state-of-charge
estimation of lithium-ion batteries for traction applications,” Dissertation, McMaster
University, 2020. [Online]. Available: http://hdl.handle.net/11375/25851
[78] S. Hayslett, K. van Maanen, W. Wenzel, and T. Husain, “The 48-v mild hybrid:
Benefits, motivation, and the future outlook,” IEEE Electrification Magazine, vol. 8,
no. 2, pp. 11–17, 2020.
[79] R. Ellinger, C. Kaup, and T. Pels, “Potenziale und grenzen von 48-v-systemen,”
ATZextra, vol. 22, no. S1, pp. 16–21, 2017.
[81] M. Schudeleit, C. Sieg, and F. Küçükay, “The potential of 48v hev in real driving,”
2015.
125
[82] R. Bao, V. Avila, and J. Baxter, “Effect of 48 v mild hybrid system layout on po-
wertrain system efficiency and its potential of fuel economy improvement,” in SAE
Technical Paper Series, ser. SAE Technical Paper Series. SAE International400
Commonwealth Drive, Warrendale, PA, United States, 2017.
[83] A. Bongards, S. Mohon, D. Semenov, and W. Wenzel, “Comparing 48v mild hybrid
concepts using a hybrid-simulation-toolkit,” in 19. Internationales Stuttgarter Sym-
posium, ser. ATZ live, A. Wagner, M. Bargende, H.-C. Reuss, and J. Wiedemann,
Eds. Wiesbaden and [Heidelberg]: Springer Vieweg, 2019, pp. 1085–1100.
[84] Nahlbach, Körner, Kahnt, “Active engine-off coasting using 48v: Economic reduc-
tion of co2 emissions: Baden-baden, 14. and 15. october 2015 = 17th international
congress eliv 2015,” 17. Internationaler Kongress ELIV 2015, vol. 2249, 2015.
[86] S. Barth, M. Fischer, and J. Böttcher, “Analyse kundenrelevanter vorteile der 48-v-
hybridisierung,” MTZ Motortech Z, vol. 79, no. 12, pp. 52–57, 2018.
[90] C. Suarez and W. Martinez, “Fast and ultra-fast charging for battery electric vehic-
les – a review,” in ECCE 2019. Piscataway, NJ: IEEE, 2019, pp. 569–575.
[91] A. Eftekhari, “Lithium-ion batteries with high rate capabilities,” ACS Sustainable
Chemistry & Engineering, vol. 5, no. 4, pp. 2799–2816, 2017.
126
[92] C. Bergmeir and J. M. Benítez, “On the use of cross-validation for time series
predictor evaluation,” Information Sciences, vol. 191, pp. 192–213, 2012.
[93] A. Lahiani, “Deep learning solutions for cancer drug development in digital patho-
logy,” Ph.D. dissertation, München, 2020.
[97] S. Gessulat, “A deep learning model for the proteome-wide prediction of peptide
tandem mass spectra,” Ph.D. dissertation, München, 2020.
[98] P. J. Werbos, “Backpropagation through time: what it does and how to do it,” Pro-
ceedings of the IEEE, vol. 78, no. 10, pp. 1550–1560, 1990.
[101] M. Madondo and T. Gibbons, Learning and modeling chaos using lstm recurrent
neural networks, 2018. [Online]. Available: http://micsymposium.org/mics2018/
proceedings/mics_2018_paper_26.pdf
[103] Y. Bengio, P. Simard, and P. Frasconi, “Learning long-term dependencies with gra-
dient descent is difficult,” IEEE transactions on neural networks, vol. 5, no. 2, pp.
157–166, 1994.
127
[104] O. Scheel, “Using deep neural networks for scene understanding and behaviour
prediction in autonomous driving,” Ph.D. dissertation, Technische Universität Mün-
chen, München, 2020.
[107] A. M. Javid, S. Das, M. Skoglund, and S. Chatterjee, “A relu dense layer to impro-
ve the performance of neural networks,” in ICASSP 2021 - 2021 IEEE Internatio-
nal Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE,
6/6/2021 - 6/11/2021, pp. 2810–2814.
[108] F. Altche and A. de La Fortelle, “An lstm network for highway trajectory prediction,”
in IEEE ITSC 2017. Piscataway, NJ: IEEE, 2017, pp. 353–359.
[110] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan
Salakhutdinov, “Dropout: A simple way to prevent neural networks from overfitting,”
Journal of Machine Learning Research, vol. 15, no. 56, pp. 1929–1958, 2014.
[Online]. Available: http://jmlr.org/papers/v15/srivastava14a.html
[112] J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, “Bert: Pre-training of deep
bidirectional transformers for language understanding,” 2018. [Online]. Available:
https://arxiv.org/pdf/1810.04805
128
[114] David Kriesel, “Ein kleiner überblick über neuronale netze,” Ph.D. dissertation,
2007. [Online]. Available: erhÃd’ltlichaufhttp://www.dkriesel.com
[116] M. Rana, M. M. Uddin, and M. M. Hoque, “Effects of activation functions and opti-
mizers on stock price prediction using lstm recurrent networks,” in Proceedings of
2019 3rd International Conference on Computer Science and Artificial Intelligence
;, ser. ICPS. New York, New York: The Association for Computing Machinery,
2019, pp. 354–358.
[117] D. P. Kingma and J. Ba, “Adam: A method for stochastic optimization,” Ph.D.
dissertation, University of Amsterdam, Amsterdam, 2014. [Online]. Available:
https://arxiv.org/pdf/1412.6980
[118] X. Qian and D. Klabjan, “The impact of the mini-batch size on the
variance of gradients in stochastic gradient descent,” 2020. [Online]. Available:
https://arxiv.org/pdf/2004.13146
[119] H. Wang, K. Ren, and J. Song, “A closer look at batch size in mini-batch training
of deep auto-encoders,” in 2017 3rd IEEE International Conference on Computer
and Communications (ICCC). Piscataway, NJ: IEEE, 2017, pp. 2756–2761.
[123] J. M. Alvarez and M. Salzmann, “Learning the number of neurons in deep net-
works,” Ph.D. dissertation, 2018/10/11.
129
[125] A. Klein, S. Falkner, S. Bartels, P. Hennig, and F. Hutter, “Fast bayesian
optimization of machine learning hyperparameters on large datasets,” vol. 54, pp.
528–536, 2017. [Online]. Available: http://proceedings.mlr.press/v54/klein17a.html
[127] T. Akiba, S. Sano, T. Yanase, T. Ohta, and M. Koyama, “Optuna,” in KDD’19, A. Te-
redesai, V. Kumar, Y. Li, R. Rosales, E. Terzi, and G. Karypis, Eds. New York, NY:
Association for Computing Machinery, 2019, pp. 2623–2631.
[128] R. J. Williams and D. Zipser, “A learning algorithm for continually running fully
recurrent neural networks,” Neural computation, vol. 1, no. 2, pp. 270–280, 1989.
[129] T. He, J. Zhang, Z. Zhou, and J. Glass, “Quantifying exposure bias for open-ended
language generation,” 2019. [Online]. Available: https://arxiv.org/pdf/1905.10617
[131] O. Demir-Kavuk, M. Kamada, T. Akutsu, and E.-W. Knapp, “Prediction using step-
wise l1, l2 regularization and feature selection for small data sets with large number
of features,” BMC Bioinformatics, vol. 12, no. 1, 2011.
[132] P. S. Crowther and R. J. Cox, “A method for optimal division of data sets for use
in neural networks,” in Knowledge-Based Intelligent Information and Engineering
Systems, R. Khosla, R. J. Howlett, and L. C. Jain, Eds. Berlin, Heidelberg: Sprin-
ger Berlin Heidelberg, 2005, pp. 1–7.
[134] N. Nnamoko and I. Korkontzelos, “Efficient treatment of outliers and class imbalan-
ce for diabetes prediction,” Artificial intelligence in medicine, vol. 104, p. 101815,
2020.
130
[135] Elhassan AT, Aljourf M, Al-Mohanna F, and Shoukri M, Classification of Imbalance
Data using Tomek Link (T-Link) Combined with Random Under-sampling
(RUS) as a Data Reduction Method, 2016, vol. 01. [Online]. Available:
https://www.researchgate.net/profile/mohamed_shoukri/publication/326590590_
classification_of_imbalance_data_using_tomek_link_t-link_combined_with_
random_under-sampling_rus_as_a_data_reduction_method
[137] Yuriko Okazaki, Shinichiro Okazaki, Shingo Asamoto, and Pang-jo Chun,
“Undersampling strategy for machine-learned deterioration regression model in
concrete bridges,” Journal of Advanced Concrete Technology, vol. 18, no. 12, pp.
753–766, 2020. [Online]. Available: https://www.jstage.jst.go.jp/article/jact/18/12/
18_753/_article/-char/ja/
[139] I. Tomek et al., “An experiment with the edited nearest-nieghbor rule,” 1976.
[141] H. He, Y. Bai, E. A. Garcia, and S. Li, “Adasyn: Adaptive synthetic sampling ap-
proach for imbalanced learning,” in IEEE International Joint Conference on Neural
Networks, 2008. Piscataway, NJ: IEEE, 2008, pp. 1322–1328.
[142] H. Dubey and V. Pudi, “Class based weighted k-nearest neighbor over imbalance
dataset,” in Advances in Knowledge Discovery and Data Mining, ser. Lecture Notes
in Computer Science / Lecture Notes in Artificial Intelligence, D. Hutchison, T. Ka-
nade, and J. Kittler, Eds. Berlin/Heidelberg: Springer Berlin Heidelberg, 2013,
vol. 7819, pp. 305–316.
[144] A. Ali and N. Senan, “The effect of normalization in violence video classification
performance,” IOP Conference Series: Materials Science and Engineering, vol.
226, p. 012082, 2017.
131
[145] Gökhan AKSU, Cem Oktay GÜZELLER, and Mehmet Taha ESER, “The
effect of the normalization method used in different sample sizes on the
success of artificial neural network model,” International Journal of Assessment
Tools in Education, vol. 6, no. 2, pp. 170–192, 2019. [Online]. Available:
https://dergipark.org.tr/en/pub/ijate/issue/44255/479404
[147] B. Mu, J. Li, S. Yuan, and X. Luo, “Prediction of north atlantic oscillation index
associated with the sea level pressure using dwt-lstm and dwt-convlstm networks,”
Mathematical Problems in Engineering, vol. 2020, pp. 1–14, 2020.
[149] D. Jerouschek, Ö. Tan, R. Kennel, and A. Taskiran, “Data preparation and trai-
ning methodology for modeling lithium-ion batteries using a long short-term memo-
ry neural network for mild-hybrid vehicle applications,” Applied Sciences, vol. 10,
no. 21, p. 7880, 2020.
[151] X. Li, S. Chen, X. Hu, and J. Yang, “Understanding the disharmony between
dropout and batch normalization by variance shift,” 2018. [Online]. Available:
https://arxiv.org/pdf/1801.05134
[152] A. Komatsuzaki, “One epoch is all you need,” 2019. [Online]. Available:
http://arxiv.org/pdf/1906.06669v1
[153] F. Yang, X. Song, F. Xu, and K.-L. Tsui, “State-of-charge estimation of lithium-ion
batteries via long short-term memory network,” IEEE Access, vol. 7, pp. 53 792–
53 799, 2019.
[154] C. Li, F. Xiao, and Y. Fan, “An approach to state of charge estimation of lithium-ion
132
batteries based on recurrent neural networks with gated recurrent unit,” Energies,
vol. 12, no. 9, p. 1592, 2019.
133