259 – Maschinelles Lernen und Neuronale Netze
Rate/Vote |
Gäste: Christian Osendorfer, Justin Bayer Host: Markus Völter Shownoter: Fabian Zeisberger
Maschinelles Lernen und Neuronale Netze sind im Kontext von Big Data und “Algorithmen” in aller Munde. In dieser Episode versuchen wir die Grundlagen zu erklären. Wie sprechen dabei über den generellen Ansatz, die Umsetzung in Google’s Tensor Flow, Anwendungsszenarien, aber auch das eine oder andere Risiko das mit der Technologie verbunden ist.
Begrüßung, Einführung, Überblick
00:02:34Christian Osendorfer (LinkedIn) | Christian Osendorfer (TUM) | Justin Bayer | Machine Learning | Neuronale Netze | Deep Learning | Artificial General Intelligence (Englisch) | Reinforcement Learning | Jürgen Schmidhuber | Array | Logistische Regression | Random Forest | AlphaGo | SIFT | Feature Extraction (Englisch) | Matrix | Geoffrey Hinton | Yoshua Bengio | Yann LeCun | LSTM | Apriorisches Wissen | RNN's
Programieren eines neuronalen Netzes
01:14:43TensorFlow | Backpropagation | Supervised Learning | Unsupervised Learning | Meta Learning (Englisch)
Oh sehr spannendes Thema. Gerade am herunterladen. Habe kürzlich in diesem Zusammenhang das Buch von Kai Schlieter “Herrschaftsformel” gelesen, der KI und selbstregulierende Algorithmen in den historischen und politischen Kontext setzt. Sehr lesenswert.
Hallo Markus,
hatte viel Spaß beim Hören der Episode – und eine Menge gelernt auch noch :-)
Eine Anregung zur Durchführung bei “Heimspiel”-Themen… Etwas mehr Zeit am Anfang, um das Thema Top-Down aufzuspannen wäre aus meiner Sicht hilfreich. Dann kannst Du später noch besser “deep down the rabbit hole” gehen.
Grüßle Jens
Die Erklärungen am Anfang fand ich recht kompliziert, wenn man nicht schon ein gewisses Grundverständnis von Neuronalen Netzen/Machine-Learning hat, dürfte es schwierig sein, der Einführung zu folgen, weil Fachwörter und Abkürzungen nicht so recht erklärt wurden.
Den zweiten Teil des Podcasts fand ich sehr gut und ich würde mich freuen, wenn die Aspekte des autonomen Fahrens noch mal in einer eigenen Episode behandelt würden.
Was man noch etwas mehr hätte herausarbeiten können (auch wenn es genannt wurde) ist, dass nicht nur die KI das gestellte Problem korrekt lösen muss, sondern vor allem der Mensch zunächst die richtige Frage stellen muss. Auf der SHA gab es dazu einen sehr interessanten Vortrag (siehe
https://media.ccc.de/v/SHA2017-323-the_security_and_privacy_implications_of_ai_and_machine_learning ), in dem jemand KI-Algorithmen an alten C64-Spielen ausprobiert hat. Beim “Road Runner”-Spiel hat die KI z.B. gelernt, dass sie den Kojoten regelmäßig sterben lassen muss, da das Spiel dann im ersten Level bleibt, der Schwierigkeitsgrad entsprechend niedrig ist und die KI so am einfachsten einen Highscore erreicht.
Dem Thema wird mit überaus strapazierten Mitteln versucht ein harmloses und kontrollierbares Antlitz zu geben, doch erschließt sich für einen berühmten mit Krückstoss, dass die notwendige und nur logische Schlussfolgerung für eine künstliche Intelligenz immer das Austauschen der Menschheit oder deren strikte Überwachung und Kontrolle sein muß und daß bei jeder lernfähigen Form von KI diese Gefahr miteinhergeht. So sehr wir uns den Götterstatus als für uns angemessen erachten, so wenig ist er unsere Zukunft. Ganz realistisch betrachtet, sind dem Menschen wohl nur noch wenige Jahrzehnte vergönnt, alles andere Annehmen entbehrt jeglicher Logik.
Wenn Du uns Verharmlosung vorwirfst, dass frage Dich doch mal, ob Du nicht das Gegenteil, also Panikmache, betreibst. “Austauschen der Menschheit” klingt irgendwie so!
die Zweite Folge, die ich überhaupt gehört habe, und ich fand sie sehr, sehr gut. Werde wohl zum Stammhörer, obwohl ich so lange Podcasts in der Regel nicht höre. Weiter so! :)
Das freut uns :-)
Pingback: Aufholjagd hat begonnen: Apple erzielt Achtungserfolg bei Machine-Learning-Konferenz
Weil’s grad dazupasst: https://www.fastcompany.com/40459339/google-perspective-fighting-hate-and-trolls-with-a-mindless-ai
Pingback: Neues Terrain 08 – Raumklang – TERRAIN
Hey! Tensoren sind ja was ganz anderes! Ich bin empoert!
Grollender Gruss,
der Mathematiker
PS: Kurz davor wird gesagt, TensorFlow sei ein DSL. Was ist das? Nach dem Begriff googlen ist nicht so hilfreich :(