Schnelleres Training für Dopamine-Agenten

Reinforcement Learning: Dopamine 2.0 erschienen
Keine Kommentare

Dopamine 2.0 ist da. Die neue Version des Frameworks für Reinforcement Learning bietet schnelleres Training von Dopamine-Agenten. Support für mehr Kontrollumgebungen ist ebenfalls in der neuen Version enthalten.

Google hat Version 2.0 des Reinforcement Learning Frameworks Dopamine veröffentlicht. Die neue Version soll mit mehr Kontrollumgebungen kompatibel und daher flexibler einsetzbar sein. Dopamine konzentriert sich auf Reinforcement Learning mit dem Atari 2600 Framework, welches auf dem Arcade Learning Environment aufbaut.

In Dopamine 2.0 wird der Kern des Frameworks nicht verändert. Die vorgenommenen Änderungen sollen jedoch, laut Blogpost zum Release von Dopamine 2.0, für ein allgemeineres Interface zur Interaktion mit der jeweiligen Umgebung sorgen.

Schnelleres Agenten-Training in Dopamine 2.0

In Version 2.0 sind Standardkonfigurationen für die Umgebungen CartPole und Acrobot enthalten. Wie Pablo Samuel Castro und Marc G. Bellemare vom Dopamine-Team im bereits genannten Blogpost mitteilen, soll ein Dopamine-Agent mit diesen Umgebungen in Minuten trainierbar sein. Demnach können neue Ideen und Algorithmen schnell ausprobiert werden, bevor man sie im Atari 2600 Framework testet. Nach ihren Ausführungen benötigt eine Standard-GPU für vergleichbares Training eines Agenten etwa fünf Tage, bevor der Agent in einem Atari 2600 Spiel eingesetzt werden kann.

Um Rückwärtskompatibilität für Anwender des Frameworks sicherzustellen, bleibt Dopamine 1.0 weiterhin zum Download verfügbar. Im State of the Octoverse Report 2018 (wir berichteten) wurde Dopamine als „Cool new Open Source project of 2018“ ausgezeichnet. Weitere Informationen zu Dopamine 2.0 sind im Repository auf GitHub zu finden.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu:
X
- Gib Deinen Standort ein -
- or -