Latex-Dateien der Masterarbeit
You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

grundlagen.tex 89KB

1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768697071727374757677787980818283848586878889909192939495969798991001011021031041051061071081091101111121131141151161171181191201211221231241251261271281291301311321331341351361371381391401411421431441451461471481491501511521531541551561571581591601611621631641651661671681691701711721731741751761771781791801811821831841851861871881891901911921931941951961971981992002012022032042052062072082092102112122132142152162172182192202212222232242252262272282292302312322332342352362372382392402412422432442452462472482492502512522532542552562572582592602612622632642652662672682692702712722732742752762772782792802812822832842852862872882892902912922932942952962972982993003013023033043053063073083093103113123133143153163173183193203213223233243253263273283293303313323333343353363373383393403413423433443453463473483493503513523533543553563573583593603613623633643653663673683693703713723733743753763773783793803813823833843853863873883893903913923933943953963973983994004014024034044054064074084094104114124134144154164174184194204214224234244254264274284294304314324334344354364374384394404414424434444454464474484494504514524534544554564574584594604614624634644654664674684694704714724734744754764774784794804814824834844854864874884894904914924934944954964974984995005015025035045055065075085095105115125135145155165175185195205215225235245255265275285295305315325335345355365375385395405415425435445455465475485495505515525535545555565575585595605615625635645655665675685695705715725735745755765775785795805815825835845855865875885895905915925935945955965975985996006016026036046056066076086096106116126136146156166176186196206216226236246256266276286296306316326336346356366376386396406416426436446456466476486496506516526536546556566576586596606616626636646656666676686696706716726736746756766776786796806816826836846856866876886896906916926936946956966976986997007017027037047057067077087097107117127137147157167177187197207217227237247257267277287297307317327337347357367377387397407417427437447457467477487497507517527537547557567577587597607617627637647657667677687697707717727737747757767777787797807817827837847857867877887897907917927937947957967977987998008018028038048058068078088098108118128138148158168178188198208218228238248258268278288298308318328338348358368378388398408418428438448458468478488498508518528538548558568578588598608618628638648658668678688698708718728738748758768778788798808818828838848858868878888898908918928938948958968978988999009019029039049059069079089099109119129139149159169179189199209219229239249259269279289299309319329339349359369379389399409419429439449459469479489499509519529539549559569579589599609619629639649659669679689699709719729739749759769779789799809819829839849859869879889899909919929939949959969979989991000100110021003100410051006100710081009101010111012101310141015101610171018101910201021102210231024102510261027102810291030103110321033103410351036103710381039104010411042104310441045104610471048104910501051105210531054105510561057105810591060106110621063106410651066106710681069107010711072107310741075107610771078107910801081108210831084108510861087108810891090109110921093109410951096109710981099110011011102110311041105110611071108110911101111111211131114111511161117111811191120112111221123112411251126112711281129113011311132113311341135113611371138113911401141114211431144114511461147114811491150115111521153115411551156115711581159116011611162116311641165116611671168116911701171117211731174117511761177117811791180118111821183118411851186118711881189119011911192119311941195119611971198119912001201120212031204120512061207120812091210
  1. \chapter{Theoretische Grundlagen}
  2. \label{sec:grundlagen}
  3. Dieses Kapitel soll die nötigen Grundlagen für die nachfolgenden Kapitel dieser Arbeit vermitteln. Dazu wird erst auf den Begriff Machine Learning und Deep Learning eingegangen. Anschließend werden die theoretischen Grundlagen von künstlichen neuronalen Netzen und Abwandlungen davon wie \gls{CNN}'s und die Objekterkennung durch neuronale Netze behandelt.
  4. \section{Machine Learning}
  5. Der Begriff Machine Learning beschreibt die Fähigkeit von \gls{KI}-Systemen, aus Rohdaten eigenes Wissen zu erwerben, indem Muster extrahiert werden \cite[3]{Goodfellow.2018}. Aus Daten wie beispielsweise Bildmatrizen Muster zu extrahieren wird später noch eine wichtige Rolle für die Umsetzung der Computer Vision einnehmen. Somit ist Machine Learning ein Teilgebiet der \gls{KI} \cite[1\psqq]{Goodfellow.2018}.\\
  6. Der Begriff Deep Learning beschreibt Machine-Learning-Modelle, die aus vielen verdeckten Schichten aufgebaut sind. Beispiel hierfür ist ein tiefes Feedforward-Netz, auch mehrschichtiges Perzeptron genannt \cite[6\psqq]{Goodfellow.2018}. Im Kapitel \ref{sec:tiefeNetze} wird hier näher auf die Theorie eingegangen, zunächst werden weitere Begrifflichkeiten innerhalb des Machine Learning erläutert.
  7. \subsection{Lernalgorithmen nach Aufgaben}
  8. In diesem Unterkapitel werden nun häufig vorkommende Aufgaben von Lernalgorithmen vorgestellt, die aus Daten lernen.
  9. \subsubsection{Klassifizierung}
  10. Für diese Aufgabe entscheidet der Algorithmus, zu welchen Kategorien die Eingangsdaten gehören. Hierfür wird eine Wahrscheinlichkeitsverteilung über alle Kategorien beziehungsweise Klassen ausgegeben. Die Klasse mit der höchsten Wahrscheinlichkeit zeigt somit das zugehörige Ergebnis an \cite[109]{Goodfellow.2018}. Ein häufig gewähltes Beispiel ist die Klassifizierung von handgeschriebenen Ziffern als Graustufenbilder des MNIST-Datensatz \cite{.332021}. Die Eingabe ist ein Graustufenbild, also ein Bild mit einem Kanal (Channel) mit einer Größe von 28 mal 28 Pixel, das eine handgeschriebene Ziffer von 0 bis 9 darstellt. Die Ausgabe sind 10 Klassen, die die Ziffern von 0 bis 9 repräsentieren. Nun wird eine Wahrscheinlichkeitsverteilung auf alle Klassen angewendet und die Klasse mit der höchsten Wahrscheinlichkeit stellt das Ergebnis der Klassifizierung dar \cite{Tensorflow.8202021}. Die Klassifizierung wird im Laufe dieser Arbeit eine wichtige Rolle für die Umsetzung der Computer Vision darstellen.
  11. \subsubsection{Regression}
  12. Bei der Regression wird aus den Eingangsdaten ein Zahlenwert vorhergesagt. Beispiel hierfür sind Berechnungen von Erwartungswerten wie die Schadenssumme einer versicherten Person oder künftige Kurse von Wertpapieren \cite[110]{Goodfellow.2018}.
  13. \subsubsection{Transkription}
  14. Bei diesem Aufgabengebiet muss der Machine-Learning-Algorithmus unstrukturierte Daten in eine diskrete Textform überführen. Beispiele sind die optische Zeichenerkennung, bei der der Text in einem Bild in eine bearbeitbare Zeichenfolge (ASCII, Unicode) umgewandelt wird. Ein anderes Beispiel ist die Spracherkennung aus Audiowellen \cite[110]{Goodfellow.2018}.
  15. \subsubsection{Maschinelle Übersetzung}
  16. Beispiel hierfür sind die Übersetzung von einer Sprache in eine andere. Meist handelt es sich um natürliche Sprachen wie Deutsch oder Englisch und die Übersetzung zwischen diesen \cite[111]{Goodfellow.2018}.
  17. \subsubsection{Erkennung von Anomalien}
  18. Für diese Aufgabe durchsucht der Lernalgorithmus eine Menge von Ereignissen oder Objekten nach Anomalien. Ein Beispiel hierfür sind die Erkennung von Kreditkartenbetrug anhand von Ungewöhnlichkeiten der Kaufgewohnheiten \cite[112]{Goodfellow.2018}.
  19. \subsection{Lernalgorithmen nach Erfahrung}
  20. Machine-Learning-Algorithmen lassen sich anhand der Art der Erfahrungen während der Lernphase in überwachte und unüberwachte Algorithmen einteilen \cite[115]{Goodfellow.2018}.
  21. \subsubsection{Überwachtes Lernen}
  22. Beim überwachten Lernen arbeitet der Lernalgorithmus mit einem Datensatz, der Merkmale (Features) und Zielwerte (Targets) enthält. Zu jedem Merkmal gehört ein Zielwert. Der Begriff überwachtes Lernen kommt auch von der Tatsache, dass der Zielwert von einem Supervisor oder Lehrer bereitgestellt wird. Somit lernt der Algorithmus das, was er tun soll \cite[115\psq]{Goodfellow.2018}.
  23. \subsubsection{Unüberwachtes Lernen}
  24. Bei diesem Verfahren versucht der Algorithmus nur aus den Merkmalen der Daten zu lernen, um Strukturen und nützliche Eigenschaften sichtbar zu machen. Zielwerte existieren nicht \cite[115\psq]{Goodfellow.2018}.
  25. \subsubsection{Reinforcement Learning}
  26. Algorithmen für das Reinforcement Learning interagieren mit der Umgebung, damit das Lernsystem aus neuen Erfahrungen mittels Feedbackschleife lernt \cite[116\psq]{Goodfellow.2018}. Die Feedbackschleife innerhalb des Algorithmus basiert auf dem Schema eines Agenten, der eine Aktion in der Umgebung ausführt und für diese Aktion eine Belohnung erfährt. Durch diese Schleife wird der Agent immer besser mit der Aktion und Interaktion mit der Umgebung \cite[400\psqq]{Zhou.2021}, (siehe Abbildung \ref{fig:Reinforcement Learning}). Dieses Verfahren wird auch als verstärkendes Lernen bezeichnet \cite[29\psq]{Raschka.2018}.
  27. \begin{figure}[htbp]
  28. \centering
  29. \tikzstyle{block} = [rectangle, draw,
  30. text width=8em, text centered, rounded corners, minimum height=4em]
  31. \tikzstyle{line} = [draw, -latex]
  32. \begin{tikzpicture}[node distance = 6em, auto, thick]
  33. \node [block] (Agent) {Agent};
  34. \node [block, below of=Agent] (Environment) {Environment};
  35. \path [line] (Agent.0) --++ (4em,0em) |- node [near start]{Action $a$} (Environment.0);
  36. \path [line] (Environment.190) --++ (-6em,0em) |- node [near start] {State $x$} (Agent.170);
  37. \path [line] (Environment.170) --++ (-4.25em,0em) |- node [near start, right] {Reward $r$} (Agent.190);
  38. \end{tikzpicture}
  39. \caption{Prinzipielle Darstellung des Reinforcement Learning \cite[400]{Zhou.2021}}
  40. \label{fig:Reinforcement Learning}
  41. \end{figure}
  42. \subsection{Generalisierung}
  43. \label{sec:Generalisierung}
  44. Ein wichtiges Ziel des Machine Learning ist die Generalisierung des trainierten Modells. Die Fähigkeit mit neuen und unbeobachteten Eingangsdaten möglichst genauso gute Resultate zu erzielen wie mit den Trainingsdaten \cite[121]{Goodfellow.2018}. Daher wird ein geringer Generalisierungsfehler (Testfehler) angestrebt. Hierfür wird der Generalisierungsfehler mit einer Testdatenmenge ermittelt. Diese Testdaten müssen unabhängig von der Trainingsdatenmenge sein \cite[121\psq]{Goodfellow.2018}, da diese als neue, bisher unbeobachtete Daten vorliegen müssen. Die Leistung eines Machine-Learning-Algorithmus wird durch seine Fähigkeiten ausgedrückt,
  45. \begin{itemize}
  46. \item den Trainingsfehler gering zu halten und
  47. \item die Differenz zwischen Trainingsfehler und Testfehler gering zu halten \cite[123]{Goodfellow.2018}.
  48. \end{itemize}
  49. Diese beiden Punkte erläutern die Begriffe Unteranpassung und Überanpassung. Bei Unteranpassung ist das Modell nicht in der Lage, einen ausreichend kleinen Fehlerwert anhand der Trainingsdaten zu erzielen. Hier spricht man auch davon, dass das Modell an einem großen Bias leidet, somit hohe Tendenzen zu bestimmten Entscheidungen aufweist \cite[93\psq]{Raschka.2018}. Der Bias ist ein Maß für den systematischen Fehler oder der Verzerrung, der nicht der Zufälligkeit geschuldet ist \cite[94]{Raschka.2018} und \cite[142\psqq]{Goodfellow.2018}. Auf der anderen Seite bedeutet Überanpassung, wenn die Differenz zwischen Trainingsfehler und Testfehler zu groß ist \cite[123]{Goodfellow.2018}. Hier hat das Modell die Trainingsdaten \dq auswendig gelernt\dq{} und ist nicht in der Lage, die Testdaten zu verallgemeinern. Bei Überanpassung spricht man auch davon, dass das Modell an großer Varianz leidet \cite[93]{Raschka.2018} und \cite[142\psqq]{Goodfellow.2018}. Die Varianz ist ein Maß für die Konsistenz (Veränderlichkeit) der Modellvorhersage für bestimmte Eingangsdaten. Hiermit kann man beurteilen, ob das Modell auf die Zufälligkeit der Trainingsdaten empfindlich reagiert \cite[94]{Raschka.2018}. Die Überanpassung wird auch als Overfitting und die Unteranpassung als Underfitting bezeichnet. \\
  50. Die Kapazität eines Machine-Learning-Modells bestimmt maßgeblich, ob ein Modell zur Unteranpassung oder Überanpassung neigt. Die Kapazität eines Modells drückt die Fähigkeit aus, sich einer Vielzahl von Funktionen anzupassen \cite[123]{Goodfellow.2018}, also der Anzahl der lernbaren Parameter. Modelle mit einer niedrigen Kapazität neigen eher zur Unteranpassung, sie haben Probleme mit der Anpassung an die Trainingsdaten \cite[93, 504\psq]{Raschka.2018}. Modelle mit einer hohen Kapazität neigen eher zur Überanpassung, da sie mehr Speicherkapazität aufweisen und so Muster eher auswendiglernen \cite[123]{Goodfellow.2018}, (siehe Abbildung \ref{fig:Generalisierungsfehler}).
  51. \begin{figure}[htbp]
  52. \centering
  53. \begin{tikzpicture}[thick,font=\sffamily,line cap=round,>=stealth,node
  54. distance=1em]
  55. \draw [<->] (0,5) node[below left]{Fehler} |- (7,0) node[below left]{Modellkapazität};
  56. \draw (0.8,5) to[bend right=50] node[pos=0.7,above right] {Trainingsfehler}(6,0.8);
  57. \draw (1.2,5) to[out=-80,in=180] (3,3) to[out=0,in=-155]
  58. node[pos=0.2,below right] {Generalisierungsfehler} (6,4);
  59. \draw[loosely dotted] (3,0) -- (3,5) node[above] (P) {Optimale Kapazität};
  60. \path node[base left=of P] (U) {Unteranpassung}
  61. node[base right=of P] (O) {Überanpassung};
  62. \draw[->] ([yshift=1ex]U.north east) -- ([yshift=1ex]U.north west);
  63. \draw[->] ([yshift=1ex]O.north west) -- ([yshift=1ex]O.north east);
  64. \end{tikzpicture}
  65. \caption{Prinzipielle Darstellung des Generalisierungsfehlers anhand der Modellkomplexität \cite[127]{Goodfellow.2018}}
  66. \label{fig:Generalisierungsfehler}
  67. \end{figure}
  68. Die statistische Lerntheorie zeigt, dass die Diskrepanz zwischen Trainingsfehler und Generalisierungsfehler mit der Modellkapazität wächst, aber sinkt, wenn die Anzahl der Trainingsdaten zunimmt \cite[126]{Goodfellow.2018}. \\
  69. Um Unteranpassung zu vermeiden, wird daher die Modellkapazität erhöht, somit die lernbaren Parameter erhöht \cite[93, 504\psq]{Raschka.2018}. \\
  70. Um Überanpassung zu vermeiden, werden unter anderem Strategien angewendet, die die Modellkapazität verringern. Eine dieser Methoden ist die L2-Regularisierung, auch Weight Decay genannt \cite[131]{Goodfellow.2018}. Die Grundidee ist dabei, zusätzliche Informationen (Bias) als Strafterm einzuführen, um extreme Parameter, also Parameter mit hohen Gewichtungen, zu bestrafen beziehungsweise zu verringern \cite[94]{Raschka.2018}, \cite[131]{Goodfellow.2018}.
  71. \subsection{Hyperparameter und Validierung}
  72. Hyperparameter sind Einstellparameter, die das Verhalten des Lernalgorithmus steuern. Beispiele für Hyperparameter sind die Modellkapazität und der \gls{symb:Lambda}-Wert für den Weight Decay \cite[133]{Goodfellow.2018}. Die Hyperparameter werden nicht vom Lernalgorithmus selbst angepasst. Würden die Hyperparameter anhand der Trainingsdaten erlernt, würde stets die Modellkapazität zunehmen und würde so zur Überanpassung des Modells führen \cite[133]{Goodfellow.2018}. Daher wird zur Einstellung der Hyperparameter ein weiterer Datensatz herangezogen, der die Validierungsdatenmenge enthält \cite[134]{Goodfellow.2018}. Somit gibt es drei Datensätze im Machine Learning:
  73. \begin{itemize}
  74. \item den Trainingsdatensatz zum Einstellen der lernbaren Parameter (Gewichte, Bias)
  75. \item den Validierungsdatensatz zum Einstellen der Hyperparameter und somit der Modellkapazität und zum Schätzen des Generalisierungsfehlers
  76. \item den Testdatensatz zum Schätzen des Generalisierungsfehlers des endgültig fertigtrainierten Modells
  77. \end{itemize}
  78. Es darf kein Beispiel aus der Testdatenmenge in der Validierungsdatenmenge enthalten sein und die Validierungsdatenmenge wird immer aus der Trainingsdatenmenge entnommen \cite[134]{Goodfellow.2018}. Eine mögliche Aufteilung der Daten könnte etwa aus 80 Prozent der Trainingsdaten für das Training und 20 Prozent der Trainingsdaten für die Validierung bestehen \cite[134]{Goodfellow.2018}. \\
  79. Neben einer festen Aufteilung in Trainingsdaten und Testdaten gibt es noch die Kreuzvalidierung, wenn die Testdatenmenge klein ist. Eine kleine Testdatenmenge impliziert eine statistische Unsicherheit für den geschätzten durschschnittlichen Testfehler \cite[135]{Goodfellow.2018}. Um dies zu verbessern, teilt die Kreuzvalidierung die Daten in \textit{k} Teilmengen ohne Überschneidung. Der Testfehler wird dann über \textit{k} Versuche mit der \textit{i}-te Teilmenge als Testdatenmenge geschätzt. Dieses Verfahren entspricht der \textit{k}-fachen Kreuzvalidierung \cite[135]{Goodfellow.2018}, (siehe Abbildung \ref{fig:Kreuzvalidierung}).
  80. \begin{figure}[htbp]
  81. \centering
  82. \begin{tikzpicture}[node distance=0mm,minimum height=1cm,outer sep=3mm,scale=0.5,>=Latex,font=\footnotesize,
  83. indication/.style={minimum height=0cm,outer sep=0mm},
  84. oneblock/.style={transform shape,minimum width=1cm,draw},
  85. fullset/.style={transform shape,minimum width=10cm,draw}]
  86. % left part of picture
  87. \node[fullset,anchor=west] at (0,0) (A) {};
  88. \node[above=of A.north,indication] (ATXT) {TRAINING SET};
  89. \node[oneblock,minimum width=2cm,anchor=west,right=of A,fill=lightgray,outer sep=0mm] (A1) {};
  90. \path (ATXT) -| (A1) node[midway] {TEST SET};
  91. \node[fullset,anchor=west] at (0,-4) (B) {};
  92. \foreach \x in {0,1,...,9}
  93. {
  94. \draw (B.west) +(\x,0) node[oneblock,anchor=west,draw] {};
  95. }
  96. \draw[->] (A) -- (B) node[midway,fill=white,indication] {Aufteilung in 10 gleich große Teilmengen (k=10)};
  97. % right part of picture
  98. \begin{scope}[xshift=15cm,scale=0.4,local bounding box=rightside box]
  99. \foreach \x in {0,1}
  100. {
  101. \foreach \y in {0,1,...,4}
  102. {
  103. \draw (\x*11,0) +(0,-\y*2) node[fullset,anchor=west] {};
  104. \draw (\x*11,0) +(\x*5+\y,-\y*2) node[oneblock,draw,anchor=west,fill=lightgray] {};
  105. }
  106. }
  107. \coordinate (R) at (rightside box.west);
  108. \end{scope}
  109. % connecting arrow
  110. \draw[->] (B.east) -- +(2.5,0) node[below,align=center,indication] {\\\\Training- und Testläufe\\bei 10 unterschiedlichen\\Teilmengen\\des Datensatzes} |- (R);
  111. \end{tikzpicture}
  112. \caption{Prinzipielle Darstellung der k-fach Kreuzvalidierung \cite[135]{Goodfellow.2018} und \cite[207]{Raschka.2018}}
  113. \label{fig:Kreuzvalidierung}
  114. \end{figure}
  115. \FloatBarrier
  116. \subsection{Maximum-Likelihood-Schätzung}
  117. \label{sec:MaximumLikelihood}
  118. Die Maximum-Likelihood-Schätzung dient der Bestimmung der Kostenfunktion eines Machine-Learning-Algorithmus und somit der Ableitung einer Funktion zu einem guten Schätzer \cite[145]{Goodfellow.2018}. Ziel ist es mit der Maximum-Likelihood-Schätzung die Parameter \gls{ParametrisierteGewichte} für die beste beziehungsweise höchste Vorhersagewahrscheinlichkeit zu bestimmen \cite[145]{Goodfellow.2018}, \cite[85]{Raschka.2018}. Für eine bessere Optimierung wird der Logarithmus der Likelihood (Log-Likelihood) für die arg max-Funktion verwendet \cite[145]{Goodfellow.2018}, \cite[85]{Raschka.2018}. Formel \ref{eq:formelMaximumLikelihoodMLLog} zeigt wie der Maximum-Likelihood-Schätzer zum Schätzwert einer bedingten Wahrscheinlichkeit \ensuremath{P(\boldsymbol{y}\mid\boldsymbol{x};\boldsymbol{\theta})} für ein Machine-Learning-Modell genutzt werden kann, um aus \ensuremath{\boldsymbol{x}} die Zielwerte \ensuremath{\boldsymbol{y}} vorherzusagen \cite[147]{Goodfellow.2018}.
  119. \begin{align}
  120. \boldsymbol{\theta}_{\mathrm{ML}}\:{=}\: \underset{\boldsymbol{\theta}}{\mathrm{arg \: max}} \: \sum_{i=1}^{m} \mathrm{log} \: P(\boldsymbol{y}^{(i)}\mid\boldsymbol{x}^{(i)};\boldsymbol{\theta})
  121. \label{eq:formelMaximumLikelihoodMLLog}
  122. \end{align}
  123. Die Maximierung der Log-Likelihood nach Formel \ref{eq:formelMaximumLikelihoodMLLog} bewirkt eine Minimierung der Kostenfunktion eines Machine-Learning-Modells. Zum Beispiel ergibt sich aus Formel \ref{eq:formelMaximumLikelihoodMLLog} für ein Machine-Learning-Modell einer linearen Regression als Kostenfunktion der \gls{MQF} \cite[148]{Goodfellow.2018}. Der \gls{MQF} ist die Kreuzentropie zwischen einer empirischen Verteilung und einer gaußschen Verteilung als Modellverteilung \cite[146]{Goodfellow.2018}. Bei der Klassifikation ergibt sich aus der Maximum Likelihood als Kostenfunktion die Kreuzentropie, die die Unterschiedlichkeit (Divergenz) zweier Wahrscheinlichkeitsverteilungen über dieselben Zufallsvariablen aufzeigt \cite[80]{Goodfellow.2018}, \cite[81\psq]{Goodfellow.2018}. Die Maximum Likelihood versucht die Modellverteilung an die empirische Verteilung, die durch die Trainingsdaten definiert ist, anzugleichen, indem die Divergenz der zwei Wahrscheinlichkeitsverteilungen minimiert wird \cite[146]{Goodfellow.2018}. Somit entspricht die Maximum-Likelihood der Minimierung der Kostenfunktion beziehungsweise Minimierung der Kreuzentropie (negative Log-Likelihood) und es ergibt sich die selbe Stelle des Optimums für die Parameter des Modells \cite[148]{Goodfellow.2018}. \\
  124. Einer der wichtigsten Eigenschaften der Maximum-Likelihood-Schätzung ist, dass bei wachsender Anzahl an Beispielen (Trainingsdaten) sich dieser Ansatz als bester Schätzer in Bezug auf Konvergenz ergibt. Im Fall einer unendlichen Anzahl an Trainingsbeispielen konvergiert der Maximum-Likelihood-Schätzer eines Parameters zum wahren Parameterwert \cite[148]{Goodfellow.2018}.
  125. \subsection{Stochastisches Gradientenabstiegsverfahren}
  126. \label{sec:StochastischesGradientenabstiegsverfahren}
  127. Im vorherigen Unterkapitel \ref{sec:MaximumLikelihood} ging es um die Bestimmung der Kostenfunktion (Verlustfunktion) eines Machine-Learning-Algorithmus. Ziel des Lernalgorithmus ist es nun, diese Verlustfunktion mit der Einstellung der Parameter zu minimieren. Da es sich bei Machine-Learning-Modellen meistens um mehrdimensionale Funktionen handelt, kann nur über die iterative Berechnung von Gradienten auf lokale oder globale Minima der Funktion geschlossen werden. Um diese Extremstellen zu erreichen bewegt sich der Lernalgorithmus dem Gradienten abwärts \cite[168]{Goodfellow.2018} in Richtung der Minima. Formel \ref{eq:formelVerlustNegativeLogLikelihoodML} zeigt den Verlust pro Beispiel aus dem Trainingsdatensatz anhand der negativen Log-Likelihood. Formel \ref{eq:formelLKostenfunktion} zeigt die Kostenfunktion (Verlustfunktion).
  128. \begin{align}
  129. L(\boldsymbol{x},\boldsymbol{y},\boldsymbol{\theta})\:{=}\:-\mathrm{log} \: p(\boldsymbol{y}\mid\boldsymbol{x};\boldsymbol{\theta})
  130. \label{eq:formelVerlustNegativeLogLikelihoodML}
  131. \end{align}
  132. \begin{align}
  133. J(\boldsymbol{\theta})\:{=}\:\frac{1}{m}\sum_{i=1}^{m} L(\boldsymbol{x}^{(i)},\boldsymbol{y}^{(i)},\boldsymbol{\theta})
  134. \label{eq:formelLKostenfunktion}
  135. \end{align}
  136. Der Gradient der Kostenfunktion zeigt Formel \ref{eq:formelGradientML}. Bei Verwendung der Formel \ref{eq:formelGradientML} wird der ganze Trainingsdatensatz als Batch zur Berechnung des Gradientenabstiegs verwendet. Dies führt zu einer unverhältnismäßig langen Berechnung jedes Gradientenschritt \cite[168]{Goodfellow.2018}.
  137. \begin{align}
  138. \nabla_{\boldsymbol{\theta}}J(\boldsymbol{\theta})\:{=}\:\frac{1}{m}\sum_{i=1}^{m} \nabla_{\boldsymbol{\theta}} L(\boldsymbol{x}^{(i)},\boldsymbol{y}^{(i)},\boldsymbol{\theta})
  139. \label{eq:formelGradientML}
  140. \end{align}
  141. Anhand des \gls{SGD} ist der Gradient ein Erwartungswert und kann anhand einer kleinen Teilmenge der Trainingsdaten näherungsweise geschätzt werden. Diese Teilmengen der Trainingsdaten werden als Mini-Batch bezeichnet. Die Mini-batch-Größe \gls{Minibatch} wird relativ klein gewählt für eine schnelle inkrementelle Berechnung des Gradienten \cite[168]{Goodfellow.2018}. Der Schätzwert des Gradienten anhand des Mini-Batch zeigt Formel \ref{eq:formelGradientMiniBatch} \cite[168]{Goodfellow.2018}, \cite[66]{Raschka.2018}.
  142. \begin{align}
  143. \boldsymbol{g}\:{=}\:\frac{1}{m'} \nabla_{\boldsymbol{\theta}} \sum_{i=1}^{m'} L(\boldsymbol{x}^{(i)},\boldsymbol{y}^{(i)},\boldsymbol{\theta})
  144. \label{eq:formelGradientMiniBatch}
  145. \end{align}
  146. Das stochastische Gradientenabstiegsverfahren folgt dann dem geschätzten Gradienten \gls{GeschaetzterGradient} abwärts anhand der Formel \ref{eq:formelGradientStochasticDescent} und der Lernrate \gls{Lernrate} \cite[168]{Goodfellow.2018}. Nach jedem Mini-Batch werden die Parameter (Gewichte, Bias) des Machine Learning-Modells angepasst, damit sich die Kostenfunktion dem globalen Minimum annähert.
  147. \begin{align}
  148. \boldsymbol{\theta} \leftarrow \boldsymbol{\theta} - \varepsilon \boldsymbol{g}
  149. \label{eq:formelGradientStochasticDescent}
  150. \end{align}
  151. Häufig wird eine adaptive Lernrate bevorzugt, die im Laufe der Zeit sinkt \cite[66]{Raschka.2018}, hier wird noch später tiefer darauf eingegangen. Zudem ist es wichtig, dass die Teilmengen der Trainingsbeispiele in zufälliger Reihenfolge bereitgestellt werden \cite[66]{Raschka.2018}. Das stochastische Gradientenabstiegsverfahren erreicht nicht das globale Minimum, kommt ihm aber sehr nahe, vor allem mit dem Einsatz der adaptiven Lernrate \cite[67]{Raschka.2018}.
  152. \section{Künstliche tiefe neuronale Netze}
  153. \label{sec:tiefeNetze}
  154. Dieses Kapitel stellt die Umsetzung der Machine-Learning-Algorithmen als tiefe neuronale Netze für die parametrische Funktionsapproximation \cite[184]{Goodfellow.2018} vor. Am Anfang werden die tiefen Feedforward-Netze vorgestellt, im weiteren Verlauf die \gls{CNN}, sowie fortgeschrittene Verfahren der Regularisierung und Optimierung.
  155. \subsection{Tiefe Feedforward-Netze}
  156. Tiefe Feedforward-Netze werden auch als mehrschichtige Perzeptren (\gls{MLP}) bezeichnet \cite[185]{Goodfellow.2018}. Sie dienen dazu, eine Funktion zu approximieren, in dem sie eine Zuordnung \ensuremath{\boldsymbol{y}\:{=}\: f(\boldsymbol{x};\boldsymbol{\theta})} definiert und den Wert der Parameter
  157. \ensuremath{\boldsymbol{\theta}} für die beste Funktionsapproximation lernt. \ensuremath{\boldsymbol{x}} steht für die Eingaben und \ensuremath{\boldsymbol{y}} für die dazugehörigen Kategorien \cite[185]{Goodfellow.2018}. Der Begriff Feedforward beschreibt, dass in diesen Netzen die Verarbeitungsrichtung der Informationen vom Eingang bis zum Ausgang des Netzes festgelegt ist. Es gibt auch neuronale Netze mit Rückkopplungen. Diese werden als \gls{RNN} bezeichnet und für die Verarbeitung zeitlicher Abfolgen oder der natürlichen Sprache eingesetzt \cite[184]{Goodfellow.2018}, \cite[185]{Goodfellow.2018}. Feedforward-Netze werden als Netze bezeichnet, da sie aus vielen verschiedenen Schichten bestehen. Diese Schichten wiederum bestehen aus mehreren künstlichen Neuronen. Es gibt die Eingabeschicht (Input layer), die verdeckten Schichten (Hidden layer) und die Ausgabeschicht (Output layer) \cite[185-194]{Goodfellow.2018} und \cite[387-392]{Raschka.2018}. In Abbildung \ref{fig:Neuronales Netz} ist ein \gls{MLP} dargestellt. Ein \gls{MLP} kann aus beliebig vielen Schichten bestehen. Besitzt ein Netz mehr als eine verdeckte Schicht, handelt es sich um ein tiefes künstliches neuronales Netz \cite[387]{Raschka.2018}. Ein einzelnes Neuron wird als Perzeptron bezeichnet oder als einschichtiges neuronales Netz \cite[42\psq]{Raschka.2018} und \cite[385\psq]{Raschka.2018} (siehe Abbildung \ref{fig:Neuron}).
  158. \begin{figure}[htbp]
  159. \centering
  160. \begin{tikzpicture}[
  161. init/.style={
  162. draw,
  163. circle,
  164. inner sep=2pt,
  165. font=\Huge,
  166. join = by -latex
  167. },
  168. squa/.style={
  169. draw,
  170. inner sep=2pt,
  171. font=\Large,
  172. join = by -latex
  173. },
  174. start chain=2,node distance=18mm
  175. ]
  176. \node[on chain=2]
  177. (x2) {$x_2$};
  178. \node[on chain=2,join=by o-latex]
  179. {$w_2$};
  180. \node[on chain=2,init] (sigma)
  181. {$\displaystyle\Sigma$};
  182. \node[on chain=2,squa,label=above:{\parbox{2cm}{\centering Aktivierungs-funktion}}]
  183. {$g$};
  184. \node[on chain=2,label=above:Ausgabe,join=by -latex]
  185. {$y$};
  186. \begin{scope}[start chain=1]
  187. \node[on chain=1] at (0,1.5cm)
  188. (x1) {$x_1$};
  189. \node[on chain=1,join=by o-latex]
  190. (w1) {$w_1$};
  191. \end{scope}
  192. \begin{scope}[start chain=3]
  193. \node[on chain=3] at (0,-1.5cm)
  194. (x3) {$x_3$};
  195. \node[on chain=3,join=by o-latex]
  196. (w3) {$w_3$};
  197. \end{scope}
  198. \begin{scope}[start chain=4]
  199. \node[on chain=4] at (0,-2.25) (dots) {$\vdots$} -- (dots);
  200. \end{scope}
  201. \begin{scope}[start chain=5]
  202. \node[on chain=5] at (0,-3.0cm)
  203. (x4) {$x_n$};
  204. \node[on chain=5,label=below:Weights,join=by o-latex]
  205. (w4) {$w_n$};
  206. \end{scope}
  207. \node[label=above:\parbox{2cm}{\centering Bias \\ $b$}] at (sigma|-w1) (b) {};
  208. \draw[-latex] (w1) -- (sigma);
  209. \draw[-latex] (w3) -- (sigma);
  210. \draw[-latex] (w4) -- (sigma);
  211. \draw[o-latex] (b) -- (sigma);
  212. \draw[decorate,decoration={brace,mirror}] (x1.north west) -- node[left=10pt] {Eingaben} (x4.south west);
  213. \end{tikzpicture}
  214. \caption{Prinzipielle Darstellung eines k\"unstlichen Neuron \cite[105]{Zhou.2021}}
  215. \label{fig:Neuron}
  216. \end{figure}
  217. \tikzset{%
  218. every neuron/.style={
  219. circle,
  220. draw,
  221. minimum size=1cm
  222. },
  223. neuron missing/.style={
  224. draw=none,
  225. scale=4,
  226. text height=0.333cm,
  227. execute at begin node=\color{black}$\vdots$
  228. },
  229. every dotH/.style={
  230. draw=none,
  231. scale=4,
  232. execute at begin node=\color{black}$\ldots$
  233. },
  234. }
  235. \begin{figure}[htbp]
  236. \centering
  237. \begin{tikzpicture}[x=1.5cm, y=1.5cm, >=stealth]
  238. \foreach \m/\l [count=\y] in {1,2,3,missing,4}
  239. \node [every neuron/.try, neuron \m/.try] (input-\m) at (0,2.5-\y) {};
  240. \foreach \m [count=\y] in {1,missing,2}
  241. \node [every neuron/.try, neuron \m/.try ] (hidden-\m) at (2,2-\y*1.25) {};
  242. \foreach \m [count=\y] in {1,2,3}
  243. \node [every dotH/.try, dotH \m/.try ] (hidden2-\m) at (4,2-\y*1.25) {};
  244. \node [every dotH/.try, dotH 1/.try ] (hidden3-1) at (4,1.9) {};
  245. \foreach \m [count=\y] in {1,missing,2}
  246. \node [every neuron/.try, neuron \m/.try ] (output-\m) at (6,1.5-\y) {};
  247. \foreach \l [count=\i] in {1,2,3,n}
  248. \draw [<-] (input-\i) -- ++(-1,0)
  249. node [above, midway] {$x_\l$};
  250. \foreach \l [count=\i] in {1,n}
  251. \node [above] at (hidden-\i.north) {$h_\l$};
  252. \foreach \l [count=\i] in {1,n}
  253. \draw [->] (output-\i) -- ++(1,0)
  254. node [above, midway] {$y_\l$};
  255. \foreach \i in {1,...,4}
  256. \foreach \j in {1,...,2}
  257. \draw [->] (input-\i) -- (hidden-\j) node[midway,sloped,above] {$w^1_{i,j}$};
  258. \foreach \i in {1,...,2}
  259. \foreach \j in {1,...,3}
  260. \draw [->] (hidden-\i) -- (hidden2-\j) node[midway,sloped,above] {$w^2_{i,j}$};
  261. \foreach \i in {1,...,3}
  262. \foreach \j in {1,...,2}
  263. \draw [->] (hidden2-\i) -- (output-\j) node[midway,sloped,above] {$w^l_{i,j}$};
  264. \foreach \l [count=\x from 0] in {Eingabe-\\ schicht \\ \ensuremath{1}-te Schicht, Verdeckte-\\ schicht \\ \ensuremath{2}-te Schicht, Verdeckte-\\ schichten, Ausgabe-\\ schicht \\ \ensuremath{l}-te Schicht}
  265. \node [align=center, above] at (\x*2,2) {\l };
  266. \node[circle, draw] (b1) at (1,2) {b};
  267. \draw[->] (b1) -- (hidden-1);
  268. \draw[->] (b1) -- (hidden-2);
  269. \node[circle, draw] (b2) at (3,2) {b};
  270. \draw[->] (b2) -- (hidden2-1);
  271. \draw[->] (b2) -- (hidden2-2);
  272. \draw[->] (b2) -- (hidden2-3);
  273. \node[circle, draw] (b3) at (5,2) {b};
  274. \draw[->] (b3) -- (output-1);
  275. \draw[->] (b3) -- (output-2);
  276. \end{tikzpicture}
  277. \caption{Prinzipielle Darstellung eines \gls{MLP} \cite[191]{Goodfellow.2018}, \cite[387-389]{Raschka.2018}}
  278. \label{fig:Neuronales Netz}
  279. \end{figure}
  280. Wie in Abbildung \ref{fig:Neuron} und \ref{fig:Neuronales Netz} dargestellt ist, werden die Eingaben mit sogenannten Gewichtungen multipliziert und die einzelnen Werte mit einem Bias summiert. Die Summe dient dann als Eingabe für die Aktivierungsfunktion, die letztlich darüber entscheidet, ob und wie ein Neuron seine Ausgabe ausgibt, beziehungsweise wie die Informationen weitergegeben werden. Der Bias wird auch Verzerrung oder Nullgewichtung genannt und hat die Größe des negativen Schwellwert der Aktivierungsfunktion \cite[43]{Raschka.2018}, \cite[105]{Zhou.2021}. Formel \ref{eq:formelNeuron} zeigt die mathematische Formel des Perzeptron \cite[43]{Raschka.2018}, \cite[105]{Zhou.2021}, \cite[192]{Goodfellow.2018}. \gls{Aktivierungsfunktion} steht hier für die Aktivierungsfunktion, \gls{Biassymbol} für den Bias.
  281. \begin{align}
  282. y\:{=}\:g\bigl(\sum_{i=1}^{n} \boldsymbol{x}_i \boldsymbol{w}_i + b\bigl) \: {=}\: g(\boldsymbol{w}^\top \boldsymbol{x} + b)
  283. \label{eq:formelNeuron}
  284. \end{align}
  285. Um ein komplettes Feedforward-Netz mathematisch darzustellen braucht es mehrere Formeln \cite[391\psq]{Raschka.2018}. Zur Illustration wird ein dreischichtiges \gls{MLP} mit \ensuremath{l{=}3} im Folgenden verwendet. \gls{GesamtLayer} steht für die Gesamtanzahl der Schichten des Netzes.
  286. \begin{align}
  287. \boldsymbol{a}^{(l-1)}\:{=}\:g\bigl(\boldsymbol{W}^{\top(l-2)}\boldsymbol{x}+\boldsymbol{b}^{(l-2)}\bigl)
  288. \label{eq:formelMLPInput}
  289. \end{align}
  290. \begin{align}
  291. \boldsymbol{a}^{(l)}\:{=}\:g\bigl(\boldsymbol{W}^{\top(l-1)}\boldsymbol{a}^{(l-1)}+\boldsymbol{b}^{(l-1)}\bigl)
  292. \label{eq:formelMLPHidden}
  293. \end{align}
  294. \begin{align}
  295. \boldsymbol{y}\:{=}\:g\bigl(\boldsymbol{W}^{\top(l)}\boldsymbol{a}^{(l)}+\boldsymbol{b}^{(l)}\bigl)
  296. \label{eq:formelMLPOutput}
  297. \end{align}
  298. In Formel \ref{eq:formelMLPInput} steht \ensuremath{\boldsymbol{x}} für den Eingangsvektor und \ensuremath{\boldsymbol{b}^{(l-2)}} für den Biasvektor der ersten Schicht (Eingangsschicht). \ensuremath{\boldsymbol{W}^{\top(l-2)}} ist die erste Gewichtsmatrix zur Verknüpfung der ersten Schicht (Eingangsschicht) zur zweiten Schicht (erste verdeckte Schicht), bei der die Spalten die Anzahl der Einheiten (Neuronen plus Bias) in der verdeckten Schicht angibt \cite[392]{Raschka.2018}. Grundsätzlich werden die Gewichtsmatrizen als \ensuremath{\boldsymbol{W}^{(l)}_{i, j}} dargestellt \cite[388]{Raschka.2018}. \ensuremath{l} bezeichnet bei dieser Notation die aktuelle Schicht im Netz. \gls{GesamtLayer} steht in dieser Arbeit für die Gesamtzahl der vorhandenen Schichten, inklusive Eingangs- und Ausgangsschicht. Da hier \ensuremath{l=3} gewählt wurde fängt die erste Gewichtsmatrix bei \ensuremath{l-2} an und erhöht sich dann um jeweils +1 bis zur Gesamtzahl der Schichten. \gls{Aktivierungsfunktion} steht für die Aktivierungsfunktion und wird elementweise angewendet \cite[192]{Goodfellow.2018}. Formel \ref{eq:formelMLPInput} berechnet aus der Eingabe mit den Gewichtungen und Bias der ersten Schicht, die Aktivierungen für die zweite Schicht \cite[391]{Raschka.2018}. \\
  299. In Formel \ref{eq:formelMLPHidden} werden dann die Aktivierungen für die Ausgabeschicht berechnet und Formel \ref{eq:formelMLPOutput} berechnet dann die Ausgabe \ensuremath{\boldsymbol{y}} \cite[392]{Raschka.2018}.
  300. \subsection{Aktivierungsfunktionen}
  301. In modernen neuronalen Netzen wird als Aktivierungsfunktion die \gls{ReLU} verwendet \cite[192]{Goodfellow.2018}. Wie in Abbildung \ref{fig:ReLU} und Formel \ref{eq:formelReLU} zu sehen ist, ist die \gls{ReLU}-Funktion eine stückweise lineare Funktion mit zwei linearen Abschnitten und sorgt so für eine nichtlineare Transformation. Im Gegensatz dazu helfen die linearen Abschnitte der Funktion für eine gute Differenzierbarkeit für das Gradientenabstiegsverfahren \cite[192]{Goodfellow.2018}. Die eine Hälfte des Definitionsbereichs ergibt Null. Die andere Hälfte des Definitionsbereichs, sofern aktiv, ergibt bei der 1. Ableitung die Steigung 1 \cite[213]{Goodfellow.2018}.
  302. \begin{align}
  303. {y}\:{=}\:g(x) \: {=}\:\mathrm{max}(0, x)
  304. \label{eq:formelReLU}
  305. \end{align}
  306. \begin{figure}[htbp]
  307. \centering
  308. \begin{tikzpicture}
  309. \begin{axis}[
  310. axis lines=middle,
  311. xmax=6,
  312. xmin=-6,
  313. ymin=-0.05,
  314. ymax=5.05,
  315. xlabel={$x$},
  316. ylabel={$y$}]
  317. \addplot [domain=-5.5:5.5, samples=100, thick, blue] {max(0, x)};
  318. \end{axis}
  319. \end{tikzpicture}
  320. \caption{Plot der \gls{ReLU}-Funktion \cite[192]{Goodfellow.2018}}
  321. \label{fig:ReLU}
  322. \end{figure}
  323. Eine weitere häufig vorkommende Aktivierungsfunktion ist die Sigmoidfunktion, auch logistische Sigmoidfunktion genannt \cite[391]{Raschka.2018}, \cite[215]{Goodfellow.2018}, \cite[74]{Goodfellow.2018}. Diese zeichnet sich durch eine durchgehende Differenzierbarkeit aus. Ein Nachteil ist aber die Sättigung im Großteil des Definitionsbereichs, also in den Bereichen, bei dem die 1. Ableitung gegen Null geht und sich damit als großes Problem für das Lernen auf Gradientenbasis erweist \cite[215]{Goodfellow.2018}. Abbildung \ref{fig:Sigmoid} und Formel \ref{eq:formelSigmoid} zeigen die Sigmoidfunktion \cite[390\psq]{Raschka.2018}, \cite[74]{Goodfellow.2018}. Sigmoidfunktionen werden bei binären Klassifikationen als Ausgabeeinheit, \gls{RNN}'s und vielen probabilistischen Modellen eingesetzt \cite[215\psq]{Goodfellow.2018}. Der Grund hierfür ist, dass die Ausgabe der Sigmoidfunktion eine Bernoulli-Verteilung ist und daher ihr Wertebereich im Intervall [0, 1] liegt \cite[74]{Goodfellow.2018}.
  324. \begin{align}
  325. {y}\:{=}\:g(x) \: {=}\:\frac{1}{1+e^{(-x)}}
  326. \label{eq:formelSigmoid}
  327. \end{align}
  328. \begin{figure}[htbp]
  329. \centering
  330. \begin{tikzpicture}
  331. \begin{axis}[
  332. axis lines=middle,
  333. xmax=10,
  334. xmin=-10,
  335. ymin=-0.05,
  336. ymax=1.05,
  337. xlabel={$x$},
  338. ylabel={$y$}
  339. ]
  340. \addplot [domain=-9.5:9.5, samples=100,
  341. thick, blue] {1/(1+exp(-x)};
  342. \end{axis}
  343. \end{tikzpicture}
  344. \caption{Plot der Sigmoid-Funktion \cite[391]{Raschka.2018}}
  345. \label{fig:Sigmoid}
  346. \end{figure}
  347. Eine weitere wichtige Aktivierungsfunktion für die Ausgabeeinheiten ist die softmax-Funktion. Diese Funktion bietet eine Wahrscheinlichkeitsverteilung über \ensuremath{n} möglichen Werten. Daher werden softmax-Funktionen meist als Ausgabe eines Klassifikators benutzt, um eine Wahrscheinlichkeitsverteilung über \ensuremath{n} Ausgabeneuronen, die die \ensuremath{n} verschiedenen Klassen repräsentieren, darzustellen \cite[203]{Goodfellow.2018}. Dies wird auch als Multinoulli-Verteilung bezeichnet \cite[203]{Goodfellow.2018}. Seltener werden softmax-Funktionen im Modell selbst verwendet \cite[203]{Goodfellow.2018}. Die softmax-Funktion ist stetig und differenzierbar \cite[206]{Goodfellow.2018}. Die Formel \ref{eq:formelSoftmax} zeigt die softmax-Funktion wobei \ensuremath{z_i \:{=}\: \mathrm{log} \:\overset{\sim}{P}(y=i \:\vert \:\boldsymbol{x})} ist \cite[204]{Goodfellow.2018}.
  348. \begin{align}
  349. \mathrm{softmax}(\boldsymbol{z})_i\:{=}\:\frac{e^{(z_i)}}{\sum_je^{(z_j)}}
  350. \label{eq:formelSoftmax}
  351. \end{align}
  352. Es existieren noch viele weitere Aktivierungsfunktionen wie die einfache Sprungfunktion, die auch Heaviside-Funktion genannt wird \cite[43]{Raschka.2018}, die Tangens hyperbolicus-Funktion \cite[215]{Goodfellow.2018} sowie verschiedene Versionen der \gls{ReLU} wie die Softplus-Funktion \cite[217]{Goodfellow.2018} und die ReLU6-Funktion \cite{Sandler}, siehe Abbildung \ref{fig:ReLU6}.
  353. \begin{figure}[htbp]
  354. \centering
  355. \begin{tikzpicture}
  356. \begin{axis}[
  357. axis lines=middle,
  358. xmax=10,
  359. xmin=-6,
  360. ymin=-0.05,
  361. ymax=6.05,
  362. xlabel={$x$},
  363. ylabel={$y$}]
  364. \addplot [domain=-5.5:6, samples=100, thick, blue] {max(0, x)};
  365. \addplot [domain=6:10, samples=100, thick, blue] {6};
  366. \end{axis}
  367. \end{tikzpicture}
  368. \caption{Plot der \gls{ReLU}6-Funktion \cite{Sandler}}
  369. \label{fig:ReLU6}
  370. \end{figure}
  371. \FloatBarrier
  372. \subsection{Backpropagation}
  373. Der Backpropagation-Algorithmus dient der Berechnung des Gradienten der Kostenfunktion von der Kostenseite rückwärts durch das neuronale Netz \cite[225]{Goodfellow.2018}. Der Gradient ist für das stochastische Gradientenabstiegsverfahren während des Trainings notwendig \cite[225]{Goodfellow.2018} (siehe Formel \ref{eq:formelGradientMiniBatch} und \ref{eq:formelGradientStochasticDescent}). Um den Gradienten der Kostenfunktion bezüglich der Parameter (Gewichte und Bias) zu berechnen, werden die partiellen Ableitungen nach der Kettenregel gebildet. Sowie eine rekursive Anwendung der Kettenregel, um die Backpropagation zu erreichen \cite[228\psqq]{Goodfellow.2018}. Eine tiefere Betrachtung der Backpropagation würde den Rahmen dieser Arbeit sprengen. Für Interessierte wird auf die Literaturquelle \cite[225-248]{Goodfellow.2018} und \cite[415-418]{Raschka.2018} verwiesen.
  374. \subsection{Regularisierung}
  375. Ein Machine-Learning-Modell muss häufig regularisiert werden, damit eine Überanpassung (Overfitting) vermieden wird. Dazu wird die Modellkapazität angepasst. Die Regularisierung dient der Abstimmung zwischen Verzerrung und Varianz und kann diese regeln. Im Folgenden werden einige Regularisierungsmethoden vorgestellt.
  376. \subsubsection{Parameter-Norm-Strafterme L2- und L1-Regularisierung}
  377. Parameter-Norm-Strafterme dienen dazu, die Kapazität des Modells anhand der Verringerung großer Gewichte einzuschränken. Ein Parameter-Norm-Strafterm \gls{ParameterNormStrafterm} bestraft nur die Gewichte der einzelnen Schichten, die Verzerrungen (Bias) werden nicht regularisiert \cite[255]{Goodfellow.2018}.
  378. Eine häufige Regularisierung ist die L2-Regularisierung, auch Weight Decay genannt, die die quadrierte Summe der Gewichtungen bildet. Formel \ref{eq:formelL2Regularisierung} zeigt den Regularisierungsterm \cite[256]{Goodfellow.2018}.
  379. \begin{align}
  380. \Omega(\boldsymbol{\theta})\:{=}\:\frac{1}{2}\parallel \boldsymbol{w} \parallel_2^2 \:{=}\: \frac{1}{2} \boldsymbol{w}^\top \boldsymbol{w}
  381. \label{eq:formelL2Regularisierung}
  382. \end{align}
  383. Für die Gesamtzielfunktion wird der Regularisierungsterm, multipliziert mit dem Regularisierungsparameter \gls{symb:Lambda}, zur Kostenfunktion hinzuaddiert, siehe Formel \ref{eq:formelL2RegularisierungGesamtzielfunktion}, \cite[256]{Goodfellow.2018}. Der entsprechende Gradient anhand der Gewichte dazu wird in Formel \ref{eq:formelL2RegularisierungGesamtzielfunktionGradient} gezeigt, \cite[256]{Goodfellow.2018}.
  384. \begin{align}
  385. \overset{\sim}{J}(\boldsymbol{w}, \boldsymbol{b}; \boldsymbol{X}, \boldsymbol{y})\:{=}\:\frac{\lambda}{2} \boldsymbol{w}^\top \boldsymbol{w} + J(\boldsymbol{w}, \boldsymbol{b}; \boldsymbol{X}, \boldsymbol{y})
  386. \label{eq:formelL2RegularisierungGesamtzielfunktion}
  387. \end{align}
  388. \begin{align}
  389. \nabla_{\boldsymbol{w}}\overset{\sim}{J}(\boldsymbol{w}, \boldsymbol{b}; \boldsymbol{X}, \boldsymbol{y})\:{=}\:\ \lambda \boldsymbol{w} + \nabla_{\boldsymbol{w}}J(\boldsymbol{w}, \boldsymbol{b}; \boldsymbol{X}, \boldsymbol{y})
  390. \label{eq:formelL2RegularisierungGesamtzielfunktionGradient}
  391. \end{align}
  392. Für einen einzelnen Gradientenschritt im Gradientenabstiegsverfahren wird Formel \ref{eq:formelL2RegularisierungGesamtzielfunktionGradientenschritt} verwendet \cite[257]{Goodfellow.2018}. Der Gewichtsvektor wird hier bei jedem Schritt multiplikativ um einen konstanten Faktor verringert \cite[257]{Goodfellow.2018}.
  393. \begin{align}
  394. \boldsymbol{w} \leftarrow \boldsymbol{w} - \varepsilon (\lambda \boldsymbol{w} + \nabla_{\boldsymbol{w}}J(\boldsymbol{w}, \boldsymbol{b}; \boldsymbol{X}, \boldsymbol{y}))
  395. \label{eq:formelL2RegularisierungGesamtzielfunktionGradientenschritt}
  396. \end{align}
  397. Eine Abwandlung der L2-Regularisierung ist die L1-Regularisierung, siehe Formel \ref{eq:formelL1Regularisierung}, \cite[260]{Goodfellow.2018}. Die dazugehörige Anwendung an die Kostenfunktion wird in Formel \ref{eq:formelL1RegularisierungGesamtzielfunktion}, der Gradient in Formel \ref{eq:formelL1RegularisierungGesamtzielfunktionGradient} dargestellt, \cite[260]{Goodfellow.2018}. Wobei \ensuremath{\mathrm{sign}(\boldsymbol{w})} das elementweise angewandte Vorzeichen von \gls{Gewichtsvektor} ist \cite[260]{Goodfellow.2018}. Im Vergleich zur L2-Regularisierung ist die Regularisierung bei der L1-Regularisierung nicht mehr linear, sondern eine Konstante mit einem Vorzeichen \cite[260]{Goodfellow.2018}.
  398. \begin{align}
  399. \Omega(\boldsymbol{\theta})\:{=}\:\parallel \boldsymbol{w} \parallel_1 \:{=}\: \sum_i \mid w_i \mid
  400. \label{eq:formelL1Regularisierung}
  401. \end{align}
  402. \begin{align}
  403. \overset{\sim}{J}(\boldsymbol{w}, \boldsymbol{b}; \boldsymbol{X}, \boldsymbol{y})\:{=}\:\lambda \parallel \boldsymbol{w} \parallel_1 + J(\boldsymbol{w}, \boldsymbol{b}; \boldsymbol{X}, \boldsymbol{y})
  404. \label{eq:formelL1RegularisierungGesamtzielfunktion}
  405. \end{align}
  406. \begin{align}
  407. \nabla_{\boldsymbol{w}}\overset{\sim}{J}(\boldsymbol{w}, \boldsymbol{b}; \boldsymbol{X}, \boldsymbol{y})\:{=}\:\ \lambda \mathrm{sign}(\boldsymbol{w}) + \nabla_{\boldsymbol{w}}J(\boldsymbol{w}, \boldsymbol{b}; \boldsymbol{X}, \boldsymbol{y})
  408. \label{eq:formelL1RegularisierungGesamtzielfunktionGradient}
  409. \end{align}
  410. Die L1-Regularisierung führt zu einer Lösung, die dünnbesetzter ist. Dies bedeutet, dass einige Parameter einen optimalen Wert von Null haben \cite[262]{Goodfellow.2018}. Hier können dann bestimmte Gewichtungen Null werden, wodurch die L1-Regularisierung als Merkmalsauswahl fungieren kann \cite[262]{Goodfellow.2018}, \cite[339]{Raschka.2018}.
  411. \subsubsection{Erweitern des Datensatzes / Data Augmentation}
  412. Für eine bessere Generalisierung eines Machine-Learning-Modell ist eine weitere Lösung die Erweiterung des Trainingsdatensatzes \cite[266]{Goodfellow.2018}. Vor allem bei der Bildklassifizierung und der Objekterkennung kann der Datensatz durch Transformation / Augmentation der Bilder erweitert werden. Techniken hierfür sind das Verschieben von Bildern um einige Pixel, Rotieren, Skalieren und Spiegelungen \cite[267]{Goodfellow.2018}. Auch das Einbringen von Rauschen ist eine Art der Datenanreicherung \cite[267]{Goodfellow.2018}.
  413. \subsubsection{Früher Abbruch}
  414. Beim Trainieren eines Machine-Learning-Modells mit einer ausreichenden Kapazität für eine Überanpassung nimmt der Trainingsdatenfehler mit der Zeit stetig ab, während der Validierungsdatenfehler irgendwann wieder ansteigt. Ab diesem Punkt fängt das Modell an zur Überanpassung zu neigen. Hier besteht die Methodik darin, das Training ab diesem Punkt abzubrechen, um ein Modell mit der bestmöglichen Generalisierungsfähigkeit zu erhalten \cite[273]{Goodfellow.2018}. Dieses Verfahren wird auch als früher Abbruch bezeichnet \cite[275]{Goodfellow.2018}.
  415. \subsubsection{Dropout}
  416. Beim Dropout-Verfahren wird während des Trainings eine bestimmte Anzahl von Neuronen in den Eingabe- und verdeckten Schichten zufällig entfernt. Dies geschieht, indem ihre Ausgabewerte mit Null multipliziert werden \cite[288]{Goodfellow.2018}, \cite[505\psq]{Raschka.2018}. Wie viele Neuronen im Netz während des Trainings deaktiviert werden, lässt sich über die Dropout-Wahrscheinlichkeit \gls{Dropoutwahrscheinlichkeit} vorgeben \cite[505\psq]{Raschka.2018}. Eine Eingabeeinheit wird üblicherweise mit einer Dropout-Wahrscheinlichkeit von 0,2 und eine verdeckte Einheit mit einer Dropout-Wahrscheinlichkeit von 0,5 eingestellt, \cite[288]{Goodfellow.2018}. Das Dropout-Verfahren verringert die Kapazität des Modells während der Trainingsphase und zwingt das Netz eine redundante Repräsentierung der Daten zu erlernen. Somit lernt das Modell allgemeinere und robustere Muster in den Daten und verringert die Überanpassung des Netzes \cite[506]{Raschka.2018}. Bei der Vorhersage (Inferenz) sind alle Neuronen aktiviert und tragen zur Voraktivierung der nächsten Schicht bei \cite[506]{Raschka.2018}, \cite[290]{Goodfellow.2018}.
  417. \subsection{Optimierung beim Trainieren neuronaler Netze}
  418. Die Optimierung hat das Ziel, die Parameter eines neuronalen Netzes zu finden, die die Kostenfunktion \gls{KostenfunktionTheta} deutlich minimieren \cite[305]{Goodfellow.2018}. Eine Schwierigkeit die Kostenfunktion zu minimieren besteht darin, dass neuronale Netze viele lokale Minima aufweisen und diese dann zum Problem werden, wenn sie gegenüber dem globalen Minimum einen hohen Aufwand aufweisen \cite[317\psq]{Goodfellow.2018}. Ein weiteres Problem sind Bereiche von Klippen und explodierenden Gradienten, da es bei einer Gradientenaktualisierung zu extremen Parameterverschiebungen kommt \cite[322\psq]{Goodfellow.2018}. Mit der als Gradienten-Clipping bezeichnenden Heuristik kann die Schrittweite in diesen Fällen verringert werden. Klippen in der Kostenfunktion sind bei \gls{RNN}'s am verbreitesten \cite[322\psq]{Goodfellow.2018}. Probleme ergeben sich auch bei Sattelpunkten, Plateaus und anderen flachen Bereichen. Hier kann der Gradient nahe Null gehen und der Gradientenabstieg sich verlangsamen \cite[318\psqq]{Goodfellow.2018}. Als nächstes werden einige Optimierungsalgorithmen für den Gradientenabstieg vorgestellt.
  419. \subsubsection{Stochastisches Gradientenabstiegsverfahren}
  420. Anknüpfend an Kapitel \ref{sec:StochastischesGradientenabstiegsverfahren} ist ein wichtiger Punkt hierbei die Lernrate \gls{Lernrate}, die nach und nach verringert werden muss. Grund hierfür ist, dass der Gradientenschätzer für das \gls{SGD} eine Rauschquelle durch das zufällige Ziehen von Trainingsbeispielen beim Mini-Batch, die auch bei Erreichen des Minimums nicht verschwindet, einbringt \cite[328\psq]{Goodfellow.2018}. Daher wird eine adaptive Lernrate verwendet \cite[342\psq]{Goodfellow.2018}, \cite[66\psq]{Raschka.2018}.
  421. \subsubsection{Momentum}
  422. Manchmal erfolgt das Lernen mit dem Gradientenabstiegsverfahren zäh. Die Momentum-Methode beschleunigt das Lernen, indem der Algorithmus einen exponentiell verringernden gleitenden Mittelwert der bisherigen Gradienten als weitere Bewegungsrichtung des \gls{SGD} berechnet \cite[330\psq]{Goodfellow.2018}. Dies hilft vor allem bei starker Krümmung, kleinen, aber stetigen Gradienten und rauschbehafteten Gradienten \cite[330]{Goodfellow.2018}. Der Momentum-Algorithmus führt hierzu eine Variable \gls{Ausgangsgeschwindigkeit} ein, die dabei Geschwindigkeit und Richtung, mit der die Parameter den Parameterraum durchqueren, repräsentiert \cite[330]{Goodfellow.2018}. Zudem bestimmt der Hyperparameter \gls{MomentumParameter}, wie schnell die Beiträge der bisherigen Gradienten exponentiell abnehmen. Die Formeln \ref{eq:formelMomentum} und \ref{eq:formelGradientStochasticDescentMomentum} zeigen den Update-Prozess \cite[331\psq]{Goodfellow.2018}.
  423. \begin{align}
  424. \boldsymbol{v} \leftarrow \alpha \boldsymbol{v} - \varepsilon \boldsymbol{g}
  425. \label{eq:formelMomentum}
  426. \end{align}
  427. \begin{align}
  428. \boldsymbol{\theta} \leftarrow \boldsymbol{\theta} + \boldsymbol{v}
  429. \label{eq:formelGradientStochasticDescentMomentum}
  430. \end{align}
  431. Je größer der \gls{MomentumParameter} relativ zu \gls{Lernrate} gewählt wird, desto mehr bisherige Gradienten beeinflussen die aktuelle Richtung des \gls{SGD} \cite[331\psq]{Goodfellow.2018}. In der Praxis werden häufig für \gls{MomentumParameter} [0,5; 0,9; 0,99] gewählt. Wie die Lernrate \gls{Lernrate} wird auch der Momentum-Parameter \gls{MomentumParameter} adaptiv während des Trainings eingestellt - zunächst klein und wird erhöht \cite[332]{Goodfellow.2018}. Die Anpassung von \gls{MomentumParameter} ist weniger wichtig als die Verringerung der Lernrate \gls{Lernrate} im Laufe des Trainings \cite[332]{Goodfellow.2018}.
  432. \subsubsection{Adaptive Lernraten}
  433. Die Lernrate ist eine der am schwierigsten einzustellenden Hyperparameter, weil sie die Modellleistung stark beeinflusst \cite[342\psq]{Goodfellow.2018}. Es wurde schon darauf eingegangen, dass die Lernrate während des Trainings verringert werden muss und auch nicht zu hoch eingestellt sein darf \cite[342\psq]{Goodfellow.2018}, \cite[66\psq]{Raschka.2018}, um nicht über ein Minimum hinauszuschießen \cite[63]{Raschka.2018}. Für diese Methoden gibt es verschiedene Algorithmen wie beispielsweise Adam. Der Adam-Algorithmus passt die Lernrate \gls{Lernrate} an das Momentum an \cite[346\psq]{Goodfellow.2018}. Es gibt noch weitere Algorithmen wie AdaGrad, RMSProp und AdaDelta \cite[342-347]{Goodfellow.2018}. Die Object Detection API \cite{GitHub.1062021} von Tensorflow benutzt als adaptive Lernrate eine Warm Up-Phase, in der die Lernrate linear ansteigt und nach dieser Phase in einem Cosine Decay, also einer Kosinuskurve, abfällt. Abbildung \ref{fig:CosineDecay} zeigt die Methodik.
  434. \begin{figure}[htbp]
  435. \centering
  436. \includegraphics[scale=0.4]{img/CosineDecay.pdf}
  437. \caption{Lernrate mit Warm Up und Cosine Decay}
  438. \label{fig:CosineDecay}
  439. \end{figure}
  440. \subsubsection{Anpassung der Merkmale mit Standardisierung und Normierung}
  441. \label{StandardisierungNormierung}
  442. Das Training mit dem Gradientenabstiegsverfahren zeigt ein erheblich besseres Verhalten, wenn die Trainingsdaten / Merkmale von gleicher Größenordnung sind \cite[138]{Raschka.2018}. Dafür werden die Merkmale standardisiert oder normiert. Bei der Normierung nach Formel \ref{eq:Normierung} werden die Daten auf das Intervall [0, 1] abgebildet. Bei der Standardisierung nach Formel \ref{eq:Standardisierung} werden die Daten auf dem Mittelwert 0 zentriert und eine Standardabweichung von 1 gewählt. Somit ergibt sich eine Normalverteilung der Merkmale \cite[138\psq]{Raschka.2018}. \gls{KleinsterWertX} steht für den kleinsten Wert, \gls{GrößterWertX} für den größten Wert der Merkmalsspalte. \gls{MittelwertX} gibt den Mittelwert und \gls{StandardabweichungX} die Standardabweichung einer Merkmalsspalte an.
  443. \begin{align}
  444. x^{(i)}_{norm} \:{=}\: \frac{x^{(i)}-x_{min}}{x_{max}-x_{min}}
  445. \label{eq:Normierung}
  446. \end{align}
  447. \begin{align}
  448. x^{(i)}_{std} \:{=}\: \frac{x^{(i)}-\mu_{x}}{\sigma_{x}}
  449. \label{eq:Standardisierung}
  450. \end{align}
  451. Die Standardisierung ist für das \gls{SGD} praktischer als die Normierung. Die Standardisierung sorgt dafür, dass das neuronale Netz weniger empfindlich auf Ausreißer, also ungewöhnliche Werte reagiert \cite[139]{Raschka.2018}.
  452. \subsubsection{Batch-Normalisierung}
  453. Die Batch-Normalisierung ist ein Verfahren der adaptiven Reparametrisierung, das die Probleme bei einer parallelen Aktualisierung der Parameter in allen Schichten des neuronalen Netzes verhindern soll \cite[354\psq]{Goodfellow.2018}. Der Backpropagation-Algorithmus berechnet den Gradienten der Kostenfunktion in Abhängigkeit aller Parameter des gesamten Netzes. Anschließend beginnt der \gls{SGD} mit dem Update der Parameter. Dies führt dazu, dass das Update Effekte zweiter und dritter Ordnung bis hin zu Effekten \gls{GesamtLayer}-ter Ordnung enthält \cite[355]{Goodfellow.2018}. Somit sind die Effekte eines Updates auf die Parameter einer Schicht sehr stark von allen anderen Schichten abhängig. Der Effekt ist umso stärker, je mehr Schichten das neuronale Netz aufweist \cite[355]{Goodfellow.2018}. Die Batch-Normalisierung normalisiert mit beliebigen Mittelwerten \gls{Mittelwert} und beliebigen Standardabweichungen \gls{Standardabweichung} den transformierten Wert \ensuremath{\boldsymbol{W}^\top \boldsymbol{x}} in den verdeckten Schichten \cite[358]{Goodfellow.2018}. Der Biasterm \gls{BiasV} wird hier weggelassen, da er redundant wird, wenn beliebige Mittelwerte und Standardabweichungen für die Normalisierung verwendet werden \cite[358]{Goodfellow.2018}. Beliebig bedeutet hier Mittelwerte ungleich 0 und Standardabweichungen ungleich 1. Der transformierte Wert leitet sich ab von der Form \ensuremath{g(\boldsymbol{W}^\top \boldsymbol{x} + \boldsymbol{b})}, die in den meisten Schichten neuronaler Netze vorkommen \cite[358]{Goodfellow.2018}.
  454. \subsection{Konvolutionale Neuronale Netze}
  455. Konvolutionale Neuronale Netze (Convolutional Neural Networks, \gls{CNN}) sind eine spezielle Form neuronaler Netze, die zur Verarbeitung von Daten mit rasterähnlichen Strukturen eingesetzt werden. Rasterähnliche Strukturen sind beispielsweise diskrete Zeitreihendaten als 1-D-Raster und vor allem Bilddaten als 2-D-Raster aus Pixeln. Die Bezeichnung Convolutional leitet sich von der mathematischen Faltung ab, da hier in mindestens einer Schicht Faltungen beziehungsweise Filterungen von Merkmalen anstelle von allgemeinen vollständig verknüpften Schichten mit Matrizenmultiplikation eingesetzt werden \cite[369]{Goodfellow.2018}. \\
  456. Unterschiede zwischen konvolutionale Schichten und vollständig verknüpften Schichten sind:
  457. \begin{itemize}
  458. \item Gezielte Verknüfungen / Spärliche Konnektivität \cite[490]{Raschka.2018}, \cite[375]{Goodfellow.2018}
  459. \item Gemeinsame Parameter (Parameter Sharing) \cite[282]{Goodfellow.2018}, \cite[490]{Raschka.2018}
  460. \end{itemize}
  461. Abbildung \ref{fig:CNNLeNet5} zeigt ein \gls{CNN} nach der LeNet-5-Struktur \cite{Zhou.182017}. In der Abbildung \ref{fig:CNNLeNet5} wird zudem sichtbar, dass es zwei Schritte in dem Netz gibt, die sich von einem vollständig verknüpften neuronalen Netz unterscheiden. Diese Schritte sind die Convolution mit einem Kernel und das Max-Pooling. \gls{CNN}'s bestehen üblicherweise aus vielen Convolution- und Pooling-Schichten und können mit vollständig verknüpften Schichten oder Feature Maps enden. Die finale Auswertung einer Klassifikation anhand von Feature Maps oder vollständig verknüpften Schichten erfolgt dann mit einer softmax-Funktion \cite[384]{Goodfellow.2018}, \cite[507]{Raschka.2018}, wobei die ersten Convolution- und Pooling-Schichten des \gls{CNN} die Low-Level-Merkmale herausfiltern \cite[490]{Raschka.2018}. Der Übergang einer Feature Map zu einer vollständig verknüpften Schicht wird Flatten genannt. Hier wird aus einer Matrix ein Vektor umgeformt \cite[507]{HenriqueF.DeArruda.2019}.
  462. \begin{figure}[htbp]
  463. \centering
  464. \includegraphics[scale=0.48]{img/CNN_LeNet5.pdf}
  465. \caption{Darstellung eines CNN nach der LeNet-5-Struktur \cite{Zhou.182017}}
  466. \label{fig:CNNLeNet5}
  467. \end{figure}
  468. Auf die einzelnen Schritte eines \gls{CNN} wird nun tiefer eingegangen.
  469. \subsubsection{Faltungsoperation mittels Kernel / Convolution}
  470. Die Faltungsoperation (Convolution) wird mit der Eingabe und einem Kernel gebildet und entspricht einer diskreten Faltung, bei dem Produkte aufsummiert werden, ohne ein Integral ausrechnen zu müssen. Die Ausgabe davon wird als Merkmalskarte (Feature Map) bezeichnet \cite[371]{Goodfellow.2018}. Häufig werden \gls{CNN} für die Bildklassifikation und Objektdetektion verwendet. Daher sind die Eingabedaten mehrdimensionale Arrays, da ein Bild überlicherweise als RGB-Pixelraster vorliegt. Ein RGB-Bild besteht aus drei Kanälen, einen Kanal für die roten, einen für die grünen und einen weiteren für die blauen Pixel. Hier ergeben sich dann drei Arrays, die als mehrdimensionales Array oder auch Tensor bezeichnet werden \cite[371]{Goodfellow.2018}, \cite[401]{Goodfellow.2018}. Die Faltung wird dann mit einem zweidimensionalen Kernel jeweils einzeln auf die drei Arrays angewendet \cite[371]{Goodfellow.2018}. Formel \ref{eq:ZweidimensionaleFaltung1} zeigt die zweidimensionale Faltung \cite[371]{Goodfellow.2018}. Da die Faltung kommutativ ist, lässt sich der Kernel relativ zur Eingabe drehen (Kernel Flipping). Dadurch nimmt der Index der Eingabe zu, während der Index des Kernels abnimmt. Dies ist auch der einzige Grund für die Drehung des Kernels \cite[372]{Goodfellow.2018}. Formel \ref{eq:ZweidimensionaleFaltungKernelFlipping} zeigt die zweidimensionale Faltung mit gedrehtem Kernel. Alternativ gibt es noch den Einsatz der Kreuzkorrelation, die mit Ausnahme der Kerneldrehung der Faltung entspricht \cite[372]{Goodfellow.2018}, \cite[493]{Raschka.2018}. Formel \ref{eq:ZweidimensionaleFaltungKreuzkorrelation} zeigt die Faltung mittels Kreuzkorrelation \cite[372]{Goodfellow.2018}. \gls{Bildeingabe} steht für die Bildeingabematrix, \gls{Kernel} steht für die Kernelmatrix und \ensuremath{m} / \ensuremath{n} für die Anzahl der Zeilen und Spalten einer Matrix nach \gls{Matrixdimension} einer Matrix.
  471. \begin{align}
  472. \boldsymbol{G}(i,j) \:{=}\: (\boldsymbol{I} \ast \boldsymbol{K})(i,j) \:{=}\: \sum_m \sum_n \boldsymbol{I}(m,n) \boldsymbol{K}(i-m,j-n)
  473. \label{eq:ZweidimensionaleFaltung1}
  474. \end{align}
  475. \begin{align}
  476. \boldsymbol{G}(i,j) \:{=}\: (\boldsymbol{K} \ast \boldsymbol{I})(i,j) \:{=}\: \sum_m \sum_n \boldsymbol{I}(i-m,j-n) \boldsymbol{K}(m,n)
  477. \label{eq:ZweidimensionaleFaltungKernelFlipping}
  478. \end{align}
  479. \begin{align}
  480. \boldsymbol{G}(i,j) \:{=}\: (\boldsymbol{I} \ast \boldsymbol{K})(i,j) \:{=}\: \sum_m \sum_n \boldsymbol{I}(i+m,j+n) \boldsymbol{K}(m,n)
  481. \label{eq:ZweidimensionaleFaltungKreuzkorrelation}
  482. \end{align}
  483. In der Implementierung der Faltung spielt es keine große Rolle, ob der Kernel gedreht ist oder nicht. Der Lernalgorithmus erlernt die passenden Werte des Kernels an den passenden Orten der Kernelmatrix \cite[372]{Goodfellow.2018}. Die Abbildung \ref{fig:Convolution} zeigt die Faltung (Convolution) ohne Kerneldrehung mit Valid-Padding (kein Padding) und einer Schrittweite von 1 des Kernels. Der Kernel kann auch eine größere Schrittweite haben. \\
  484. Wie in der Abbildung \ref{fig:Convolution} auch zu erkennen ist, verringert sich die Dimension der Ergebnismatrix der Faltung mit Valid-Padding (kein Padding). Für gewöhnlich wird das Same-Padding verwendet, wenn die Größe der Ausgabematrix mit der Größe der Eingabematrix übereinstimmen soll. Hierfür werden an den Rändern der Matrix Nullen angehängt in Abhängigkeit der Größe des Kernels \cite[494]{Raschka.2018}. Neben Same-Padding und Valid-Padding gibt es noch das Full-Padding, das jedoch nur selten zum Einsatz kommt. Grund hierfür ist die Dimensionsvergrößerung der Ergebnismatrix \cite[494]{Raschka.2018}.
  485. \begin{figure}[htbp]
  486. \centering
  487. \convoutionpicture 14
  488. \convoutionpicture 41
  489. \convoutionpicture 55
  490. \caption{Darstellung der Convolution mit Valid-Padding und Schrittweite 1 \cite[373]{Goodfellow.2018}}
  491. \label{fig:Convolution}
  492. \end{figure}
  493. Die Faltung entspricht normalerweise einer Multiplikation einer sehr dünnbesetzten Matrix, da hier die meisten Einträge der Matrix Null betragen. Grund dafür ist, dass der Kernel meistens sehr viel kleiner ist als die Eingabematrix \cite[373]{Goodfellow.2018}. Zudem sind viele Matrizeneinträge in den Haupt- und Nebendiagonalen gleich (Parameter Sharing, Toeplitz-Matrix, doppelt zyklische Blockmatrix), wenn die Faltung als Matrizenmultiplikation dargestellt wird \cite[372\psq]{Goodfellow.2018}. Diese spärliche Konnektivität, das Parameter Sharing und äquivariante Repräsentationen (Äquivarianz: Änderung der Eingabe führt zu einer gleichartigen Änderung der Ausgabe) führen dazu, dass konvolutionale neuronale Netze deutlich weniger Parameter aufweisen als neuronale Netze mit vollständig verknüpften Schichten. Dadurch ist auch die Berechnung durch das Netz deutlich schneller \cite[492\psq]{Raschka.2018}, \cite[374-379]{Goodfellow.2018}.
  494. \subsubsection{Pooling / Max-Pooling}
  495. Ein \gls{CNN} führt in der Convolution-Schicht mehrere Faltungen gleichzeitig aus, um eine Reihe linearer Aktivierungen zu erzeugen. Im darauffolgenden Schritt wird auf jede lineare Aktivierung eine nichtlineare Aktivierungsfunktion angewandt \cite[379]{Goodfellow.2018}. Meistens ist dies die schon vorgestellte \gls{ReLU}-Funktion. Die Aktivierung über die Aktivierungsfunktion wird manchmal als Erkennungsphase bezeichnet \cite[379]{Goodfellow.2018}. Die nächste Phase die darauf folgt ist das Pooling, um die Ausgabe der Convolution-Schicht weiter zu modifizieren \cite[379]{Goodfellow.2018}. Das Pooling ersetzt die Ausgabe der Convolution-Schicht an einer bestimmten Stelle durch eine zusammengefasste statistische Größe der nahe gelegenen Werte der Ausgabematrix. Eine sehr häufig eingesetzte Pooling-Funktion ist das Max-Pooling, siehe Abbildung \ref{fig:MaxPooling}. Das Max-Pooling listet den maximalen Wert in einer Matrix auf \cite[379]{Goodfellow.2018}, \cite[500]{Raschka.2018}. Das Mean-Pooling oder Average-Pooling ermittelt den durchschnittlichen Wert in einer Matrix \cite[379]{Goodfellow.2018}, \cite[500]{Raschka.2018}.
  496. \begin{figure}[htbp]
  497. \centering
  498. \definecolor{c1}{HTML}{9ACFC6}
  499. \definecolor{c2}{HTML}{DABBD6}
  500. \definecolor{c3}{HTML}{CBDCB9}
  501. \definecolor{c4}{HTML}{9AC3E1}
  502. \definecolor{c5}{HTML}{DEBBA5}
  503. \definecolor{c6}{HTML}{C4DDE5}
  504. \newcommand*{\xMin}{0}%
  505. \newcommand*{\xMax}{6}%
  506. \newcommand*{\yMin}{0}%
  507. \newcommand*{\yMax}{4}%
  508. \newcommand*{\xMinR}{9.5}%
  509. \newcommand*{\xMaxR}{12.5}%
  510. \newcommand*{\yMinR}{1}%
  511. \newcommand*{\yMaxR}{3}%
  512. \begin{tikzpicture}
  513. \fill [c1] (0, 0) rectangle (2, 2);
  514. \fill [c2] (2, 0) rectangle (4, 2);
  515. \fill [c3] (4, 0) rectangle (6, 2);
  516. \fill [c4] (0, 2) rectangle (2, 4);
  517. \fill [c5] (2, 2) rectangle (4, 4);
  518. \fill [c6] (4, 2) rectangle (6, 4);
  519. \fill [c1] (9.5, 1) rectangle (10.5, 2);
  520. \fill [c2] (10.5, 1) rectangle (11.5, 2);
  521. \fill [c3] (11.5, 1) rectangle (12.5, 2);
  522. \fill [c4] (9.5, 2) rectangle (10.5, 3);
  523. \fill [c5] (10.5, 2) rectangle (11.5, 3);
  524. \fill [c6] (11.5, 2) rectangle (12.5, 3);
  525. \foreach \i in {\xMin,...,\xMax} {
  526. \draw [very thin,gray] (\i,\yMin) -- (\i,\yMax) node [below] at (\i,\yMin) {};
  527. }
  528. \foreach \i in {\yMin,...,\yMax} {
  529. \draw [very thin,gray] (\xMin,\i) -- (\xMax,\i) node [left] at (\xMin,\i) {};
  530. }
  531. \foreach \i in {\xMin,2,...,\xMax} {
  532. \draw [thick,gray] (\i,\yMin) -- (\i,\yMax) node [below] at (\i,\yMin) {};
  533. }
  534. \foreach \i in {\yMin,2,...,\yMax} {
  535. \draw [thick,gray] (\xMin,\i) -- (\xMax,\i) node [left] at (\xMin,\i) {};
  536. }
  537. \node at (0.5, 0.5) {7};
  538. \node at (1.5, 0.5) {9};
  539. \node at (2.5, 0.5) {3};
  540. \node at (3.5, 0.5) {5};
  541. \node at (4.5, 0.5) {9};
  542. \node at (5.5, 0.5) {4};
  543. %
  544. \node at (0.5, 1.5) {0};
  545. \node at (1.5, 1.5) {7};
  546. \node at (2.5, 1.5) {0};
  547. \node at (3.5, 1.5) {0};
  548. \node at (4.5, 1.5) {9};
  549. \node at (5.5, 1.5) {0};
  550. %
  551. \node at (0.5, 2.5) {5};
  552. \node at (1.5, 2.5) {0};
  553. \node at (2.5, 2.5) {9};
  554. \node at (3.5, 2.5) {3};
  555. \node at (4.5, 2.5) {7};
  556. \node at (5.5, 2.5) {5};
  557. %
  558. \node at (0.5, 3.5) {9};
  559. \node at (1.5, 3.5) {2};
  560. \node at (2.5, 3.5) {9};
  561. \node at (3.5, 3.5) {6};
  562. \node at (4.5, 3.5) {4};
  563. \node at (5.5, 3.5) {3};
  564. \draw[draw=black,line width=12pt,-{Latex[length=9mm]}] (6.5, 2) -- (9,2);
  565. \node[font=\footnotesize\bfseries] at (7.7, 2.5) {$\mathbf{2\times 2}$ max pooling};
  566. \foreach \i in {\xMinR,...,\xMaxR} {
  567. \draw [thick,gray] (\i,\yMinR) -- (\i,\yMaxR) node [below] at (\i,\yMinR) {};
  568. }
  569. \foreach \i in {\yMinR,...,\yMaxR} {
  570. \draw [thick,gray] (\xMinR,\i) -- (\xMaxR,\i) node [left] at (\xMinR,\i) {};
  571. }
  572. \node at (10, 1.5) {9};
  573. \node at (11, 1.5) {5};
  574. \node at (12, 1.5) {9};
  575. \node at (10, 2.5) {9};
  576. \node at (11, 2.5) {9};
  577. \node at (12, 2.5) {7};
  578. \draw [decorate,decoration={brace,amplitude=4pt},xshift=-2pt,yshift=0pt]
  579. (0,2) -- (0,4) node [black,midway,xshift=-0.3cm] {\footnotesize $2$};
  580. \draw [decorate,decoration={brace,amplitude=4pt},xshift=0pt,yshift=2pt]
  581. (0,4) -- (2,4) node [black,midway,yshift=+0.3cm] {\footnotesize $2$};
  582. \end{tikzpicture}
  583. \caption{Darstellung des Max-Pooling \cite[500]{Raschka.2018}}
  584. \label{fig:MaxPooling}
  585. \end{figure}
  586. Das Pooling hilft dabei, die Repräsentationen annähernd invariant gegenüber kleinen Verschiebungen der Eingabe zu machen. Dies führt dazu, dass geringfügige Verschiebungen der Eingabe die Werte der meisten zusammengefassten Ausgaben nicht verändern \cite[379\psq]{Goodfellow.2018}, \cite[500]{Raschka.2018}. Das Pooling steigert die statistische Effizienz des Netzes, reduziert die Anzahl der Merkmale und ermöglicht somit schnellere Berechnungen \cite[380]{Goodfellow.2018}, \cite[501]{Raschka.2018}.
  587. \section{Objekterkennung mittels neuronaler Netze}
  588. Für die Navigation des Roboters wird als Aufgabe für die Zielerkennung die Objektdetektion verwendet. Bei der Objektdetektion wird nicht nur eine Klassifizierung durchgeführt, sondern auch die Lokalisation der Klassifizierung anhand einer rechteckigen Bounding Box (Begrenzungsrahmen) aufgezeigt \cite{Liu.2015}. Nachfolgend wird auf die verwendeten Parameter und Netzarchitekturen für Klassifikation und Detektion eingegangen, die alle auf \gls{CNN}'s basieren. Abschließend wird noch die verwendtete Evaluierungmethode der Objektdetektion erläutert.
  589. \subsection{Parameter zur Objektidentifikation}
  590. Zur Objektidentifikation werden folgende Parameter verwendet \cite{Liu.2015}:
  591. \begin{itemize}
  592. \item x-Koordinate des Zentrums der Bounding Box
  593. \item y-Koordinate des Zentrums der Bounding Box
  594. \item Breite der Bounding Box
  595. \item Höhe der Bounding Box
  596. \item Name der Klasse
  597. \item Confidence (Vorhersage-Wahrscheinlichkeit) der erkannten Klasse durch das Netz
  598. \end{itemize}
  599. \subsection{Netzarchitekturen}
  600. Es existieren eine Vielzahl von Netzarchitekturen für die Objektdetektion. Im Folgenden wird der \gls{SSD} tiefer betrachtet, da dieser Detektor für die Zielerkennung des Roboters zum Einsatz kam. Neben dem \gls{SSD} gibt es noch weitere Architekturen wie YOLO \cite{Redmon.2015}, R-CNN \cite{Girshick.2013} und Faster R-CNN \cite{Ren.2015}.
  601. \subsubsection{Single Shot MultiBox Detector}
  602. Die Architektur des \gls{SSD} besteht aus einem Basisnetzwerk, auch Backbone-Netz genannt, das einer abgekürzten \gls{CNN}-Architektur ohne Klassifizierungsschichten entspricht, und zusätzlichen Convolution-Schichten mit abschließender \gls{NMS}. Das Backbone-Netz dient hier zur Merkmalsextraktion und die zusätzlichen Schichten zur Generierung der Bounding Boxen mit dazugehöriger Klassifizierung \cite{Liu.2015}.
  603. \begin{figure}[htbp]
  604. \centering
  605. \includegraphics[scale=0.4]{img/ArchitekturSSD.png}
  606. \caption{Architektur des \gls{SSD} mit VGG-16 als Basisnetz \cite{Liu.2015}}
  607. \label{fig:SSD}
  608. \end{figure}
  609. Abbildung \ref{fig:SSD} zeigt die Architektur mit einem VGG-16-Netz als Basisnetz (Backbone-Netz). Die Schichten für eine Klassifizierung werden abgeschnitten und stattdessen 6 Convolution-Schichten an das Basisnetz gehängt. Diese zusätzlichen Faltungsschichten generieren dann die Bounding Boxen für die detektierten Klassen \cite{Liu.2015}.
  610. \begin{figure}[htbp]
  611. \centering
  612. \includegraphics[scale=0.3]{img/DefaultBoxenSSD.png}
  613. \caption{Ground Truth Boxen und Standardboxen des \gls{SSD} in den 8x8 und 4x4 Feature Maps \cite{Liu.2015}}
  614. \label{fig:SSDDefaultBoxen}
  615. \end{figure}
  616. Abbildung \ref{fig:SSDDefaultBoxen} zeigt die Standardboxen, die in jeder Feature Map bei extrahierten Merkmalen enthalten sind. Es kommen immer 4 oder 6 Standardboxen in unterschiedlichen Seitenverhältnissen vor \cite{Liu.2015}. Während des Trainings wird die Standardbox regressiert, die die beste Übereinstimmung mit der gelabelten Ground Truth Box aufweist. Danach wird über den Lernalgorithmus beziehungsweise über die Localization-Loss-Funktion, die Übereinstimmung zwischen vorhergesagter Bounding Box und Ground Truth Bounding Box über Berechnung der Offsets zu den x-, y-Koordinaten des Zentrums und der Breite und Höhe der Standardboxen über die \gls{IoU} weiter angenähert \cite{Liu.2015}. Neben der Regression durch die Localization-Loss-Funktion, wird auch die Confidence (Vorhersage-Wahrscheinlichkeit) für jede Klasse über den Lernalgorithmus beziehungsweise der Classification-Loss-Funktion mitbestimmt. Die Lernalgorithmen- / Loss-Funktionen sind die Kostenfunktionen, die über das Gradientenabstiegsverfahren minimiert werden. Der Localization Loss basiert auf den Smooth L1 Loss. Der Confidence Loss basiert wiederum auf einen Softmax Loss \cite{Liu.2015}. Die \gls{NMS} verhindert zum Schluss die Mehrfachdetektion (Duplikate von Detektionen) eines Objekts an gleicher Stelle \cite{Hosang.2017}. Wie in Abbildung \ref{fig:SSD} noch zu sehen ist, werden die Feature Maps immer weiter verkleinert, um eine gute Skalierbarkeit der Größe der vorhergesagten Bounding Boxen zu gewährleisten \cite{Liu.2015}. Einer der größten Unterschiede zwischen \gls{SSD} und YOLO \cite{Redmon.2015} besteht darin, dass YOLO das Eingabebild schon am Anfang in sogenannte Grids aufteilt, die wiederum Bounding Boxen nach Confidence-Wert enthalten \cite{Redmon.2015}. Jedoch haben sowohl der \gls{SSD} als auch YOLO gemeinsam, dass sie nur ein Bild für die Objektdetektion brauchen, auch wenn das Bild mehrere Objekte enthält \cite{Liu.2015}, \cite{Redmon.2015}.
  617. \subsubsection{Mobilenet V1 / V2 als Basisnetz zum \gls{SSD}}
  618. Für die Objektdetektion mittels \gls{SSD} kann als Basisnetz das MobileNet verwendet werden \cite{Howard.2017}. Ein großer Vorteil des MobileNet ist die besondere Architektur der Depthwise Separable Convolution Schichten. Diese Schichten teilen die normale Convolution in eine Depthwise Convolution und eine Pointwise Convolution und reduzieren somit drastisch den Berechnungsaufwand und die Größe des Netzes \cite{Howard.2017}. Die Depthwise Convolution übernimmt hier den Schritt der Filterung der Eingabebild-Matrizen (3 Kanäle bei RGB) mit einem Kernel und die Pointwise Convolution die Zusammenführung dieser Filterungen mit den Filterungen aus \ensuremath{1 \times 1} Kernels für die Anzahl der Feature Maps, die für die weitere Schicht benötigt werden \cite{Howard.2017}. Formel \ref{eq:ordinaryConvolution} zeigt die gewöhnliche Convolution mit Same-Padding und Schrittweite (Stride) 1 \cite{Howard.2017}:
  619. \begin{align}
  620. \boldsymbol{G}_{k,l,n} \:{=}\: \sum_{i,j,m} \boldsymbol{K}_{i,j,m,n} \cdot \boldsymbol{F}_{k+i-1,l+j-1,m}
  621. \label{eq:ordinaryConvolution}
  622. \end{align}
  623. Formel \ref{eq:ordinaryComputationalCost} zeigt die dazugehörige Computational Cost (Berechnungsaufwand) \cite{Howard.2017}:
  624. \begin{align}
  625. D_K \cdot D_K \cdot M \cdot N \cdot D_F \cdot D_F
  626. \label{eq:ordinaryComputationalCost}
  627. \end{align}
  628. Die Bildeingabe \gls{Bildeingabe} / Feature Map \gls{FeatureMap} hat die Dimension \gls{FeatureMapDimension}, der Kernel \gls{Kernel} die Dimension \gls{KernelDimension}, \gls{AnzahlChannels} steht für die Anzahl der Kanäle (Channels) der Feature Map und \gls{AnzahlFilter} steht für die Anzahl der Kernel und entspricht der Anzahl der Kanäle der erzeugten Feature Map \gls{NewFeatureMap} nach der Convolution \cite{Howard.2017}. \\
  629. Die Depthwise Convolution wendet nun eine Kernelmatrix mit einem Filter (Kanal) pro Kanal der Feature Map an, siehe Formel \ref{eq:DepthwiseConvolution}, \cite{Howard.2017}:
  630. \begin{align}
  631. \hat{\boldsymbol{G}}_{k,l,m} \:{=}\: \sum_{i,j} \hat{\boldsymbol{K}}_{i,j,m} \cdot \boldsymbol{F}_{k+i-1,l+j-1,m}
  632. \label{eq:DepthwiseConvolution}
  633. \end{align}
  634. Formel \ref{eq:DepthwiseComputationalCost} zeigt die Computational Cost der Depthwise Convolution an:
  635. \begin{align}
  636. D_K \cdot D_K \cdot M \cdot D_F \cdot D_F
  637. \label{eq:DepthwiseComputationalCost}
  638. \end{align}
  639. Nach der Depthwise Convolution erzeugt die Pointwise Convolution mittels \ensuremath{1 \times 1} Faltung und Anzahl der Filter die erforderliche Anzahl an Kanälen für die neue Feature Map \cite{Howard.2017}. Die erste Depthwise Separable Convolution findet nach einer normalen Convolution statt und wird dann im MobileNet mehrmals hintereinander angewendet \cite{Howard.2017}. Formel \ref{eq:DepthwiseSeparabelComputationalCost} zeigt die gesamte Computational Cost für die Depthwise Separable Convolution \cite{Howard.2017}:
  640. \begin{align}
  641. D_K \cdot D_K \cdot M \cdot D_F \cdot D_F + M \cdot N \cdot D_F \cdot D_F
  642. \label{eq:DepthwiseSeparabelComputationalCost}
  643. \end{align}
  644. Das Verhältnis in Formel \ref{eq:ComputationalCostQuotient} zeigt die drastische Reduzierung der Computational Cost vom Faktor 8 bis 9 bei einer Kernelgröße von \ensuremath{3 \times 3} mittels Depthwise Separable Convolution \cite{Howard.2017}:
  645. \begin{align}
  646. \frac{D_K \cdot D_K \cdot M \cdot D_F \cdot D_F + M \cdot N \cdot D_F \cdot D_F}{D_K \cdot D_K \cdot M \cdot N \cdot D_F \cdot D_F} \:{=}\: \frac{1}{N} + \frac{1}{D^2_K}
  647. \label{eq:ComputationalCostQuotient}
  648. \end{align}
  649. Sowohl die Depthwise Convolution als auch die Pointwise Convolution werden mit einer Batch-Normalisierung und einer \gls{ReLU}-Aktivierung abgeschlossen \cite{Howard.2017}. \\
  650. Zusätzlich führt die MobileNet-Architektur zwei Hyperparameter (Wertebereich [0,1]) ein, um eine noch schlankere Netzarchitektur zu erhalten \cite{Howard.2017}:
  651. \begin{itemize}
  652. \item Width Multiplier: ein Vorfaktor für \gls{AnzahlChannels} und \gls{AnzahlFilter}, um die Anzahl der Kanäle zu begrenzen
  653. \item Resolution Multiplier: ein Vorfaktor für \gls{FeatureMapDimension}, um die Auflösung der Feature Maps zu verkleinern
  654. \end{itemize}
  655. Neben dem Basis-MobileNet existiert auch der Nachfolger, das MobileNetV2 \cite{Sandler}. Diese Architektur führt die Depthwise Separable Convolution weiter zu Inverted Residuals and Linear Bottlenecks, auch Bottleneck Depth-Separable Convolution with residuals genannt \cite{Sandler}. Zum Vergleich zeigt Abbildung \ref{fig:MobilenetV1} den Depthwise Separable Convolution Block.
  656. \begin{figure}[htbp]
  657. \centering
  658. \begin{tikzpicture}[thick,
  659. Block/.style= {
  660. draw, scale=0.85,
  661. minimum size=0.1cm}]
  662. % Block
  663. \node [Block,fill=cyan!20] (a) {Input};
  664. % Block
  665. \node [Block,fill=cyan!20,] (b) [right= of a] {Dwise 3x3, stride=s, ReLU6};
  666. % Block
  667. \node [Block,fill=cyan!20] (c) [right =of b] {conv 1x1, ReLU6};
  668. % Arrows
  669. \draw[->] (a) -- (b);
  670. \draw[->] (b) -- (c);
  671. % Labels
  672. \node[below=0.8cm, scale=0.7] at (b){Depthwise Convolution};
  673. \node[below=0.8cm, scale=0.7] at (c){Pointwise Convolution};
  674. \end{tikzpicture}
  675. \caption{Depthwise Separable Convolution Block \cite{Sandler}}
  676. \label{fig:MobilenetV1}
  677. \end{figure}
  678. Abbildung \ref{fig:MobilenetV2} zeigt den Bottleneck Depth-Separable Convolution with residuals Block. Diese Architektur verfolgt den Ansatz, die Anzahl der Kanäle der Feature Map am Ende des Blocks zu begrenzen, ohne großen Informationsverlust dabei zu verursachen. Hierzu wird als Erstes der Input mittels Pointwise Convolution und einem Expansion-Faktor \gls{Expansionfaktor} in eine höhrere Dimensionalität, daher eine Feature Map mit mehr Kanälen umgeformt. Somit kommt es mit der \gls{ReLU}-Aktivierungsfunktion zu keinem Informationsverlust. Danach findet eine Depthwise Convolution statt. Die Pointwise Convolution nach der Depthwise Convolution reduziert die Dimensionalität, reduziert daher die Anzahl der Kanäle. Damit es nun zu keinem Informationsverlust kommt, wird nun \textbf{keine nichtlineare Aktivierungsfunktion} verwendet wie die \gls{ReLU}6-Funktion, sondern eine \textbf{lineare Aktivierung} gewählt \cite{Sandler}. Anschließend wird bei einer Schrittweite (Stride) von 1 und bei gleicher Anzahl der Kanäle des Inputs und Outputs der Input mit dem Output addiert, ansonsten nicht, siehe Abbildung \ref{fig:MobilenetV2}, \cite{Sandler}. \gls{Width} steht für die Breite, \gls{Height} für die Höhe, \gls{AnzahlKanaele} für die Anzahl der Kanäle der Feature Map. \gls{Stride} steht für die Schrittweite (Stride) der Convolution. \\
  679. Sowohl Input als auch Output weisen wenige Kanäle auf. Zusätzlich sind beide Punkte bei gleicher Dimensionalität miteinander verbunden. Daher sind die Feature Maps mit den geringsten Kanälen miteinander verbunden. Deswegen wird der Begriff Inverted Residuals und Bottleneck verwendet \cite{Sandler}. Der Begriff Linear leitet sich dementsprechend von dem Verzicht auf nichtlineare Aktivierungsfunktionen ab, da diese einen Informationsverlust bei kleiner Dimensionalität verursachen \cite{Sandler}. Im MobileNetV2 werden anstatt der normalen \gls{ReLU}-Funktion, die \gls{ReLU}6-Funktion verwendet, um die Werte aus der Aktivierung auf den maximalen Wert von 6 zu begrenzen \cite{Sandler}.
  680. \begin{figure}[htbp]
  681. \centering
  682. \begin{tikzpicture}[thick,
  683. Block/.style= {
  684. draw, scale=0.85,
  685. minimum size=0.3cm}]
  686. % Block
  687. \node [Block,fill=cyan!20] (a) {Input};
  688. % Block
  689. \node [Block,fill=cyan!20,] (b) [right= of a] {Conv 1x1, ReLU6};
  690. % Block
  691. \node [Block,fill=cyan!20] (c) [right =of b] {Dwise 3x3, ReLU6};
  692. % Block
  693. \node [Block,fill=cyan!20] (d) [right =of c] {conv 1x1, Linear};
  694. % Block
  695. \node [Block,fill=cyan!20] (e) [right =of d] {+};
  696. % Arrows
  697. \draw[->] (a) -- (b) coordinate[midway] (start);
  698. \draw[->] (b) -- (c);
  699. \draw[->] (c) -- (d);
  700. \draw[->] (d) -- (e);
  701. \coordinate (x) at ([yshift=-1cm]e.south);
  702. \coordinate (y) at (start |- x);
  703. \draw (start) -- (y) (x) edge[->] (e.south) (x) edge[-] (y);
  704. % Labels
  705. \node[below=0.8cm, scale=0.75] at (a){Stride=1 Block};
  706. \node[above=0.8cm] at (a){\ensuremath{h \times w \times d}};
  707. \node[below=0.8cm, scale=0.75] at (b){Pointwise Convolution};
  708. \node[above=0.8cm] at (b){\ensuremath{h \times w \times (td)}};
  709. \node[below=0.8cm, scale=0.75] at (c){Depthwise Convolution};
  710. \node[above=0.8cm] at (c){\ensuremath{h \times w \times (td)}};
  711. \node[below=0.8cm, scale=0.75] at (d){Pointwise Convolution};
  712. \node[above=0.8cm] at (d){\ensuremath{h \times w\times d'}};
  713. \end{tikzpicture}\hspace{1cm}
  714. \begin{tikzpicture}[thick,
  715. Block/.style= {
  716. draw, scale=0.85,
  717. minimum size=0.3cm}]
  718. % Block
  719. \node [Block,fill=cyan!20] (a) {Input};
  720. % Block
  721. \node [Block,fill=cyan!20,] (b) [right= of a] {Conv 1x1, ReLU6};
  722. % Block
  723. \node [Block,fill=cyan!20] (c) [right =of b] {Dwise 3x3, stride=2, ReLU6};
  724. % Block
  725. \node [Block,fill=cyan!20] (d) [right =of c] {conv 1x1, Linear};
  726. % Arrows
  727. \draw[->] (a) -- (b);
  728. \draw[->] (b) -- (c);
  729. \draw[->] (c) -- (d);
  730. % Labels
  731. \node[below=0.8cm, scale=0.75] at (a){Stride=s Block};
  732. \node[above=0.8cm] at (a){\ensuremath{h \times w \times d}};
  733. \node[below=0.8cm, scale=0.75] at (b){Pointwise Convolution};
  734. \node[above=0.8cm] at (b){\ensuremath{h \times w \times (td)}};
  735. \node[below=0.8cm, scale=0.75] at (c){Depthwise Convolution};
  736. \node[above=0.8cm, scale=1.2] at (c){\ensuremath{\frac{h}{s} \times \frac{w}{s} \times (td)}};
  737. \node[below=0.8cm, scale=0.7] at (d){Pointwise Convolution};
  738. \node[above=0.8cm, scale=1.2] at (d){\ensuremath{\frac{h}{s} \times \frac{w}{s}\times d'}};
  739. \end{tikzpicture}
  740. \caption{Bottleneck Depth-Separable Convolution with residuals Block \cite{Sandler}}
  741. \label{fig:MobilenetV2}
  742. \end{figure}
  743. \subsubsection{\gls{SSD}Lite}
  744. Mit der Verwendung der Depthwise Separable Convolution statt der gewöhnlichen Convolution lässt sich auch die Parameteranzahl und somit die Modellgröße und Inferenzzeit des \gls{SSD} drastisch verringern \cite{Sandler}. Diese Version des \gls{SSD} wird dann als \gls{SSD}Lite bezeichnet \cite{Sandler}.
  745. \subsubsection{ResNet-50 als Basisnetz zum \gls{SSD}}
  746. Neben den MobileNets lassen sich eine Vielzahl von Netzarchitekturen als Basisnetz für den \gls{SSD} einsetzen. Eine sehr bekannte Netzarchitektur ist das ResNet \cite{He.2015}. Abbildung \ref{fig:ResNet} zeigt die Architektur des Residual Blocks \cite{He.2015}. Hierbei wird der Input als Referenz auf den Ausgang vor der \gls{ReLU}-Aktivierungsfunktion zusammengeführt, vorausgesetzt es handelt sich um die gleiche Dimensionalität \cite{He.2015}. Diese Methode verbessert das Training des Netzes und dessen Vorhersagegenauigkeit (Accuracy) \cite{He.2015}. Die Bezeichnung ResNet-50 bezieht sich auf die Anzahl der Schichten des ResNet \cite{He.2015}.
  747. \begin{figure}[htbp]
  748. \centering
  749. \begin{tikzpicture}[thick,
  750. Block/.style= {
  751. draw, scale=0.85,
  752. minimum size=0.3cm}]
  753. % Block
  754. \node [Block,fill=cyan!20] (a) {Input};
  755. % Block
  756. \node [Block,fill=cyan!20,] (b) [right= of a] {Conv 3x3, ReLU};
  757. % Block
  758. \node [Block,fill=cyan!20] (c) [right =of b] {Conv 3x3};
  759. % Block
  760. \node [Block,fill=cyan!20] (d) [right =of c] {+};
  761. % Arrows
  762. \draw[->] (a) -- (b) coordinate[midway] (start);
  763. \draw[->] (b) -- (c);
  764. \draw[->] (c) -- (d);
  765. \draw[->] (d) -- (0:10);
  766. \coordinate (x) at ([yshift=-1cm]d.south);
  767. \coordinate (y) at (start |- x);
  768. \draw (start) -- (y) (x) edge[->] (d.south) (x) edge[-] (y);
  769. \node[below=0.3cm, scale=0.75] at (0:10){ReLU};
  770. \end{tikzpicture}\hspace{1cm}
  771. \caption{Convolution mit Residual Block \cite{He.2015}}
  772. \label{fig:ResNet}
  773. \end{figure}
  774. \subsubsection{Feature Pyramid Network}
  775. Die Architekturen lassen sich weiter verbessern mit Methoden, die die Auflösung der Feature Maps in den einzelnen Schichten skalieren. Das \gls{FPN} skaliert die Auflösung der Feature Maps mit niedriger Auflösung nach oben für eine bessere Merkmalsextraktion \cite{Lin.1292016}. Abbildung \ref{fig:FPN} zeigt die Methode mit Bottom-up Pathway des Basisnetz und Top-down Pathway für die Hochskalierung \cite{Lin.1292016}. Vor allem werden die High-Level Merkmale, die in niedriger Auflösung, also in den hinteren Schichten eines \gls{CNN}, in kleinen Feature Maps vorliegen, in der Auflösung hochskaliert. Dies verbessert erheblich die Genauigkeit von Objektdetektoren wie dem \gls{SSD}. Für die Hochskalierung der aktuellen Feature Map wird die Feature Map der vorhergehenden Schicht herangezogen, siehe Abbildung \ref{fig:FPN}, \cite{Lin.1292016}.
  776. \begin{figure}[htbp]
  777. \centering
  778. \includegraphics[scale=0.5]{img/FeaturePyramidNetwork.png}
  779. \caption{Prinzipdarsellung des Feature Pyramid Network links mit Bottom-up und rechts mit Top-down Pathway \cite{Lin.1292016}}
  780. \label{fig:FPN}
  781. \end{figure}
  782. \FloatBarrier
  783. \subsection{Evaluierung der Objekterkennung}
  784. Für die Evaluierung der Objekterkennung werden mehrere Metriken verwendet. Nachfolgend werden die wichtigsten Metriken vorgestellt.
  785. \subsubsection{Konfusionsmatrix}
  786. Die Konfusionsmatrix teilt jeden Datenpunkt aus einem Vorhersagemodell in vier Kategorien ein, siehe auch Tabelle \ref{tab:Konfusionmatrix}, \cite[156]{Grus.2020}:
  787. \begin{itemize}
  788. \item Richtig positiv (\gls{TP}): Objekt wurde erkannt
  789. \item Falsch positiv (\gls{FP}): Es wurde ein Objekt erkannt, das nicht da ist
  790. \item Falsch negativ (\gls{FN}): Objekt wurde nicht erkannt, obwohl es vorhanden ist
  791. \item Richtig negativ (\gls{TN}): Es wurde kein Objekt erkannt
  792. \end{itemize}
  793. \begin{table}[htbp]
  794. \centering
  795. \noindent
  796. \renewcommand\arraystretch{1.5}
  797. \setlength\tabcolsep{0pt}
  798. \begin{tabular}{c >{\bfseries}r @{\hspace{0.7em}}c @{\hspace{0.4em}}c @{\hspace{0.7em}}l}
  799. \multirow{10}{*}{\parbox{1.1cm}{\bfseries\raggedleft Realität}} &
  800. & \multicolumn{2}{c}{\bfseries Vorhersage} & \\
  801. & & \bfseries p & \bfseries n & \\
  802. & p$'$ & \MyBox{True}{Positive} & \MyBox{False}{Negative} & P$'$ \\[2.4em]
  803. & n$'$ & \MyBox{False}{Positive} & \MyBox{True}{Negative} & N$'$ \\
  804. & & P & N &
  805. \end{tabular}
  806. \caption{Darstellung der Konfusionmatrix}
  807. \label{tab:Konfusionmatrix}
  808. \end{table}
  809. Aus diesen vier Kategorien lassen sich nun verschiedene Statistiken zur Vorhersagegüte bestimmen, die nun in den nächsten Abschnitten vorgestellt werden \cite[156]{Grus.2020}.
  810. \FloatBarrier
  811. \subsubsection{Accuracy}
  812. Die Accuracy (Treffergenauigkeit) wird als Quotient aus den korrekten Vorhersagen und allen Vorhersagen berechnet, siehe Formel \ref{eq:Accuracy}, \cite[156\psq]{Grus.2020}.
  813. \begin{align}
  814. Accuracy \:{=}\: \frac{TP + TN}{TP + FP + FN + TN}
  815. \label{eq:Accuracy}
  816. \end{align}
  817. \subsubsection{Precision und Recall}
  818. \label{PrecisionRecall}
  819. Für die Evaluierung der Objektdetektion wird eine Kombination aus Genauigkeit (Precision) und Sensitivität (Recall) herangezogen. Formel \ref{eq:Precision} zeigt die Berechnung der Precision, die die Genauigkeit misst, wie präzise positive Vorhersagen waren \cite[157]{Grus.2020}. Formel \ref{eq:Recall} zeigt die Berechnung des Recall, der den Anteil der identifizierten Positiven misst \cite[157]{Grus.2020}.
  820. \begin{align}
  821. Precision \:{=}\: \frac{TP}{TP + FP}
  822. \label{eq:Precision}
  823. \end{align}
  824. \begin{align}
  825. Recall \:{=}\: \frac{TP}{TP + FN}
  826. \label{eq:Recall}
  827. \end{align}
  828. Oft muss ein Kompromiss zwischen Genauigkeit und Sensitivität gefunden werden. Ein Modell, das eine hohe Sensitivität aufweist, wird beim kleinsten Anzeichen eine positive Vorhersage liefern. Dies wird zu mehr falsch Positiven (\gls{FP}) führen. Im Gegenzug wird ein Modell, das eine hohe Genauigkeit aufweist, nur positive Vorhersagen liefern, wenn es sich absolut sicher ist. Dies führt zu mehr falsch Negativen (\gls{FN}) \cite[157]{Grus.2020}.
  829. \subsubsection{Intersection over Union}
  830. Die \gls{IoU} gibt die Genauigkeit der Überlappung zwischen vorhergesagter Bounding Box und Ground Truth Bounding Box an und entscheidet darüber, ob eine Detektion eines Objekts als \gls{TP}, \gls{FP}, \gls{FN} oder \gls{TN} eingeteilt wird \cite[314]{Everingham.2010}. Formel \ref{eq:IoU} und Abbildung \ref{fig:IoU} zeigen die Definition und Berechnung der \gls{IoU} \cite{Rezatofighi.2252019}, \cite[5]{Arulprakash.2021}, \cite[314]{Everingham.2010}.
  831. \begin{align}
  832. IoU \:{=}\: \frac{\vert A \cap B \vert}{\vert A \cup B \vert}
  833. \label{eq:IoU}
  834. \end{align}
  835. \begin{figure}[htbp]
  836. \centering
  837. \def\firstcircle{(0,0) circle (1cm)}
  838. \def\secondcircle{(0:1.5cm) circle (1cm)}
  839. \colorlet{circle edge}{blue!50}
  840. \colorlet{circle area}{blue!20}
  841. \tikzset{
  842. filled/.style = {fill=circle area, draw=circle edge, thick},
  843. outline/.style = {draw=circle edge, thick},
  844. F/.style = {draw, inner sep=7mm, fit=(current bounding box),
  845. node contents={}}
  846. }
  847. \subfloat[Area of union
  848. \label{fig:ven-1a}]{
  849. \begin{tikzpicture}
  850. \draw[filled] \firstcircle node {$A$}
  851. \secondcircle node {$B$};
  852. \node (a) [F];
  853. \node[below left] at (a.north east) {$A \cup B$};
  854. \end{tikzpicture}
  855. }% end of subfloat
  856. \hfil
  857. \subfloat[Area of intersection
  858. \label{fig:ven-1b}]{
  859. \begin{tikzpicture}
  860. \begin{scope}
  861. \clip \firstcircle;
  862. \fill[filled] \secondcircle;
  863. \end{scope}
  864. \draw[outline] \firstcircle node {$A$};
  865. \draw[outline] \secondcircle node {$B$};
  866. \node (a) [F];
  867. \node[below left] at (a.north east) {$A \cap B$};
  868. \end{tikzpicture}
  869. }% end of subfloat
  870. \caption{Darstellung der Area of union / intersection \cite[5]{Arulprakash.2021}}
  871. \label{fig:IoU}
  872. \end{figure}
  873. Meistens wird ein \gls{IoU}-Schwellwert von 0,5 für eine erfolgreiche Detektion, also ein \gls{TP} festgelegt \cite[314]{Everingham.2010}, \cite[104]{Everingham.2015}, wenn die resultierende \gls{IoU} über den Schwellwert von 0,5 liegt, wird die Detektion als korrekt eingestuft \cite[314]{Everingham.2010}, \cite[104]{Everingham.2015}.
  874. \subsubsection{Mean Average Precision / Average Precision / Average Recall}
  875. Die folgenden Erklärungen beziehen sich auf die PascalVOC- und COCO-Metrik \cite{Everingham.2010}, \cite{Everingham.2015}, \cite{cocoEval.8252021}. Die Precision- und Recall-Werte aus Kapitel \ref{PrecisionRecall} lassen sich in einer Precision-Recall-Kurve darstellen. Die \gls{AP} ist der Wert der Fläche unter dieser Kurve und lässt sich allgemein als Integralrechnung darstellen, siehe Formel \ref{eq:APGeneral}, \cite[104]{Everingham.2015}, \cite[12]{EveringhamDevelopmentKit.2012}. Für Formel \ref{eq:APGeneral} muss berücksichtigt werden, dass in der Praxis diskrete Werte von Precision und Recall vorkommen und man sicher gehen muss, dass die Kurve monoton abfällt. Deshalb wird für jeden Recall-Wert geprüft, ob bei einen der nachfolgenden Recall-Werte die Precision größer wird. Falls das zutrifft, wird der maximale Precision-Wert für den nächsten Recall-Wert für die Flächenberechnung verwendet, siehe Formel \ref{eq:PrecisionInterpol} und \ref{eq:APSum}, \cite[12]{EveringhamDevelopmentKit.2012}, \cite[104]{Everingham.2015}.
  876. \begin{align}
  877. AP \:{=}\: \int\limits_{0}^{1} Precision(Recall) \cdot \mathrm{d} Recall
  878. \label{eq:APGeneral}
  879. \end{align}
  880. \begin{align}
  881. Precision_{interp}(Recall) \:{=}\: \max_{Recall'\geq Recall} Precision(Recall')
  882. \label{eq:PrecisionInterpol}
  883. \end{align}
  884. \begin{align}
  885. AP \:{=}\: \sum_{i} (Recall_i - Recall_{i-1}) \cdot Precision_{interp}(Recall_i)
  886. \label{eq:APSum}
  887. \end{align}
  888. Die \gls{AP}'s über mehrere Objektklassen lassen sich zur \gls{mAP} zusammenrechnen \cite{cocoEval.8252021}. Wobei die COCO-Metrik nicht zwischen \gls{AP} und \gls{mAP} unterscheidet \cite{cocoEval.8252021}. Hier beinhaltet die \gls{AP} die berechneten Werte der Fläche unter der Precision-Recall-Kurve über alle Objektklassen hinweg und zusätzlich noch bei verschiedenen \gls{IoU}-Schwellwerten von 0,5 bis 0,95 über eine Schrittweite von 0,05 \cite{cocoEval.8252021}. Neben der Precision-Recall-Kurve gibt es auch eine Recall-\gls{IoU}-Kurve. Hier ist der Recall von der \gls{IoU} abhängig und es lässt sich über alle Objektklassen hinweg ein \gls{AR} definieren \cite{cocoEval.8252021}. Für die Evaluierung der trainierten Netze in dieser Arbeit wurde die COCO-Metrik \cite{cocoEval.8252021} verwendet.
  889. \section{Depth Estimation mittels neuronaler Netze}
  890. \label{DepthEstimation}
  891. Neben der Klassifikation und Objektdetektion können \gls{CNN}'s auch als Depth Estimation eingesetzt werden. Hierbei extrahiert das trainierte \gls{CNN} Tiefeninformation aus RGB-Bildern. Interessant sind diese Netze für eine Hindernisvermeidung (Obstacle avoidance), weshalb zwei Netze zur Depth Estimation auch für die vorliegende Masterarbeit eingesetzt wurden. Im Folgenden werden diese näher vorgestellt.
  892. \subsection{MiDaS}
  893. MiDaS \cite{GitHub.1062021b} ist ein ResNet-basiertes \gls{CNN} aus der Arbeit \cite{Xian_2018_CVPR}, \cite{Ranftl.2019}, \cite{Ranftl.3242021}. Dieses extrahiert immer kleinere Feature Maps, die dann wieder mit der Information der jeweils vorherigen Feature Map für eine Tiefenkarte (Disparity Map / Depth Map) hochskaliert werden, siehe Abbildung \ref{fig:DepthEstimationCNNXian}, \cite{Xian_2018_CVPR}.
  894. \begin{figure}[htbp]
  895. \centering
  896. \includegraphics[scale=0.4]{img/DepthEstimationXian.png}
  897. \caption{Basisarchitektur des MiDaS \cite{Xian_2018_CVPR}}
  898. \label{fig:DepthEstimationCNNXian}
  899. \end{figure}
  900. Dieses Prinzip der Merkmalsextraktion und des anschließenden Hochskalierens dieser Merkmalskarten (Feature Maps) in \gls{CNN}'s wird auch als Encoder-Decoder-Netzwerk bezeichnet, siehe Abbildung \ref{fig:EncoderDecoder}, \cite{EncoderDecoder7803544}.
  901. \begin{figure}[htbp]
  902. \centering
  903. \includegraphics[scale=0.4]{img/Encoder_Decoder.png}
  904. \caption{Encoder und Decoder in einem CNN \cite{EncoderDecoder7803544}}
  905. \label{fig:EncoderDecoder}
  906. \end{figure}
  907. Das MiDaS-Netz wurde mit einer Vielzahl an Datensätzen trainiert, unter anderem mit Trainingsdaten basierend auf 3D-Filmen \cite{Ranftl.2019}. Die Daten bestehen aus RGB-Bildern und den gelabelten Gegenstücken als Tiefenbilder, basierend aus Stereokameras, RGB-D-Kameras, Time-Of-Flight-Sensoren, Laser, \gls{SfM} und synthetischen Daten und enthalten sowohl Indoor- als auch Outdoor-Szenen \cite{Ranftl.2019}. Abbildung \ref{fig:DepthEstimationResults} zeigt einige Resulte des Netzes.
  908. \begin{figure}[htbp]
  909. \centering
  910. \includegraphics[scale=0.3]{img/DepthResultsMiDaS.png}
  911. \caption{Resultate des MiDaS \cite{Ranftl.2019}}
  912. \label{fig:DepthEstimationResults}
  913. \end{figure}
  914. \FloatBarrier
  915. \subsection{PyDnet}
  916. PyDnet \cite{GitHub.1062021c} ist ein ähnliches Netz wie das MiDaS. Es basiert auch auf einem \gls{CNN}, das immer kleinere Feature Maps extrahiert und dann wieder für eine Tiefenkarte hochskaliert \cite{Poggi.2018}, siehe Abbildung \ref{fig:PyDnet}. Das Netz wurde auch mit einer Vielzahl an Datensätzen trainiert, die aus RGB-Bildern und dazugehörigen Tiefenbilder als gelabelten Daten bestehen \cite{Aleotti.2020}.
  917. \begin{figure}[htbp]
  918. \centering
  919. \includegraphics[scale=0.35]{img/PyDNet.png}
  920. \caption{Architektur des PyDNet \cite{Poggi.2018}}
  921. \label{fig:PyDnet}
  922. \end{figure}