Das KI-Netzwerk PlaNet (Deep Planning Network) wurde von Google Open Source auf GitHub freigegeben. Es verwendet Modell-basiertes Reinforcement Learning, um anhand von Bildern vorauszuplanen, was unter anderem die Bewegung und Geschwindigkeit von dargestellten Objekten angeht.
PlaNet: Model-based RL
PlaNet wurde von Google und DeepMind, einem KI-Unternehmen, das 2014 von Google Inc. übernommen wurde, entwickelt. Es ist laut Googles AI-Team dazu in der Lage, eine Vielzahl grafikbasierter Kontrollaufgaben auszuführen und mit fortgeschrittenen Model-free Agents zu konkurrieren. PlaNet basiert auf dem Ansatz des Reinforcement Learning (RL). Bei Reinforcement Learning oder verstärkendem Lernen handelt es sich um einen der drei großen Teilbereiche des Machine Learning neben Supervised und Unsupervised Learning.
Das PlaNet zugrunde liegende Modell ist das Latent Dynamics Model. Es soll dem KI-Agenten ermöglichen, automatisch abstraktere Repräsentationen zu lernen, wie Positionen und Geschwindigkeiten von Objekten. Die Details zur Funktionsweise von PlaNet lassen sich dem Research Paper entnehmen.
Googles AI-Team zufolge handelt es sich bei PlaNet um eines der ersten Beispiele, in denen die Planung durch ein Learned Model in grafikbasierten Aufgaben bessere Ergebnisse erzielen kann als Modell-freie Methoden. In Zukunft könnten auch schwierigere Inhalte trainiert werden, darunter 3D-Umgebungen und Real-World-Robotikaufgaben.
Auf Googles AI-Blog sind die aus Bildsequenzen trainierten Animationen und weitere Details zu PlaNet zu finden. Als Open Source ist PlaNet auf GitHub verfügbar.