Eine vielleicht etwas abwägige Idee, aber ich möchte sie dennoch gerne teilen:

Das Problem ist bekannt: Small Data führt oft zu Overfitting und daraus resultieren oft ungenaue Ergebnisse. Ein möglicher Lösungsansatz bzw. ein Mittel um dem gegenzuwirken ist die sogenannte Data-Augmentation, also die künsliche Erweiterung der Bilddaten nach gewissen Vorgaben. Dabei werden vorhandene Trainingsbilder gedreht, gezoomt, verkleinert etc:

Beispiel Data-Augmentation: Links das originale Bild, daneben verschiedene Abwandlungen (Für Quelle aufs Bild klicken!)

Hier setzt mein Gedanke an: Durch einen Autoencoder können neben der klassischen Data-Augmentation auch Daten durch neuronale Netze erstellt werden. Selbstverständlich ersetzen diese Daten keine neuen Trainingsdaten, können aber bestimmt dabei helfen neben Data-Augmentation Small Data zu einer höheren Genauigkeit zu verhelfen.

Autoencoder sind dabei mit Input & Output verknüpfte neuronale Netze. Genaueres findet sich im Internet, daher hier nurnoch einmal ein Beispiel für Daten, welche mit Hilfe eines Auto-Encoders erstellt wurden:

Die obere Zeile zeigt die originalen MNIST Fashion Bilder, die Zeile darunter beinhaltet die Bilder, die mit Hilfe eeines Autoencoders erstellt wurden.
Für die Quelle aufs Bild klicken

Abschließend möchte ich gerne noch erwähnen, dass Autoendcoder meiner Meinung nach in Zukunft eine große Rolle in der Welt der Small Data spielen könnten, da durch Sie auch im Hinblick für erklärbare KI (explainable AI) auch für den Menschen sichtbar gemacht werden kann, wie neuronale Netze Dinge und die Wichtigkeit von Merkmalen wahrnehmen, da sie diese in Autoencodern genau so wiedergeben.

Es bleibt spannend, bleibt neugierig, euer

Consti