Aktivierungsfunktion:
Binary → f(x) = 1, falls x > 0 | f(x) = 0 sonst
ReLU → f(x) = max(0, x)
Sigmoid → f(x) = 1 / (1 + e^(-x))
Keine → f(x) = x
Nächster Schritt
Neuronenwerte zurücksetzen
Anzahl Input Neuronen
-
1
+
Anzahl Output Neuronen
-
1
+
Anzahl Hidden Layer
-
1
+
Neuronen pro Hidden Layer
-
1
+