Technik und Alles, um dein nächstes Projekt zu starten
Technik
Gleich zu Beginn der AccsoCon 2019 zum Thema Artificial Intelligence konnten meine Kollegen und ich abtauchen in die wunderbare Welt der KI-Technik. Uwe Friedrichsen ließ uns eintauchen in Perceptrons, Neuronen, Sigmoide, Gradient descents, Transfer-Learning, LSTM und Integrale. Das Alles ist noch recht abstrakt, verfolgte aber das Ziel, die Begriffe in einem so großen Forschungsfeld etwas einordnen zu können. Gut wiedergeben kann man die Inhalte in der Kürze leider nicht, ich empfehle, lieber einfach mit einem Deep Learning Projekt loszulegen – dann kommt der Rest von ganz allein. Nicht ohne Seitenhieb in Richtung der Mathematiker, von denen man mit schwierigen Formeln und überkomplizierten Begriffen “ins Bockshorn gejagt” wird, hat Uwe Friedrichsen uns bekräftigt, mutig an die Materie heranzutreten.

Dein nächstes Deep Learning–Projekt
Da stellt sich für Alle, die noch nicht “deep” in Deep Learning eingestiegen sind, die Frage: “Wie fange ich damit an?” Shirin Glander gibt uns vier Schritte vor. Ich würde es – frei interpretiert – so codieren:
- pick(project);
- choose(frameworks);
- repeat project.apply(frameworks); until finished
- return project;
Ich bin fest überzeugt, dass Lernen an motivierenden Kleinprojekten der Königsweg zur Aneignung von neuen IT-Kenntnissen ist. Also sollte man sich ein Projekt suchen, das man gerne bearbeiten möchte und einfach loslegen. “Pick a project!”.

Ein guter Einstieg kann hier auch das Online-Portal kaggle sein. Hier finden sich enorm viele gut aufbereitete Aufgaben, bei denen man mit anderen Deep-Learning-Enthusiasten weltweit um die beste Lösung wettstreiten kann. Insbesondere ist kaggle eine fast endlose Quelle an Test- und Trainingsdaten, die nun einmal für die Arbeit mit Big Data-Verfahren notwendig sind.
Hat man ein Projekt gewählt, muss man sich ein Framework für die Umsetzung suchen. “Choose a framework!” Für Einsteiger empfiehlt Shirin Glander die Frameworks Keras und Tensorflow. Wo Tensorflow vielseitig aber schwierig ist, punktet Keras mit deskriptiven und fast schon konfigurativen Schnittstellen, die einen einfachen Einstieg ermöglichen. Man zaubert sich mit wenigen Zeilen Code ein rudimentäres künstliches neuronales Netz. Wer im ersten Schritt noch weniger Code und noch mehr schnelle Ergebnisse sehen möchte, dem seien OpenAI Gym und Tensorflow Playground ans Herz gelegt.
Ist Keras und Tensorflow einmal am Laufen ist man ab hier eigentlich nur noch durch seine Rechenleistung limitiert.
“Get bigger & Get better!”. Wo CPUs und GPUs schon nicht mehr ausreichen, setzt man zunehmend auf Tensor Processing Units (TPU), die noch genauer auf die Verarbeitung dieser elementaren Elemente der neural networks optimiert sind. Mit dem nötigen Kleingeld findet man schon Vieles davon – beliebig skalierbar – in der Cloud seiner Wahl (TensorFlow on AWS, Google Cloud TPU). Shirin Glander schließt ihren Vortrag mit einem wichtigen Appell:
“Gebt der Community zurück, was ihr gelernt habt!”. “Give back and share!“
Autor