Performanzvergleich verschiedener SVMs und CNNs

Disclaimer: Dieser Thread wurde aus dem alten Forum importiert. Daher werden eventuell nicht alle Formatierungen richtig angezeigt. Der ursprüngliche Thread beginnt im zweiten Post dieses Threads.

Performanzvergleich verschiedener SVMs und CNNs
Hallo,
ich habe verschiedene SVMs und CNNs in Python programmiert und versuche diese anhand eines Datensatzes zu vergleichen. Für die CNNs wurde Keras und Google Colab mit GPU verwendet und für die SVMs Scikit-Learn.

Mein bisheriger Plan für den Vergleich wäre jedes Modell mehrmals zu trainieren und jeweils mit dem Testdatensatz zu testen und anschließend für den Vergleich die Mittelwerte und Standardabweichungen aus den Ergebnissen zu verwenden.
Bisher habe ich versucht durch setzen von verschiedenen “seeds” für den/die Zufallsgenerator/en die verschiedenen Modelle reproduzierbar zu machen. Dies gelingt mir bei den SVMs, aber nicht bei den CNNs (vermutlich wegen der GPU-Unterstützung).

Ich bin mir ziemlich unsicher ob dies wirklich der richtige Weg ist oder ob es nicht besser wäre alle
Modelle ohne setzen von seeds zu trainieren. Auch frage ich mich wie oft ich jedes Modell trainieren sollte?

Hat jemand von Euch Erfahrung damit? Wie würdet Ihr vorgehen?