Sahil Dua auf der ML Conference 2017

Sprache auswerten mit TensorFlow und Long Short-Term Memory
Keine Kommentare

Mehr aus TensorFlow heraus holen: Wer natürliche Sprache mit TensorFlow auswerten möchte, sollte mal einen Blick auf das Konzept des Long Short-Term Memory werfen, das die Leistung bei solchen Aufgaben signifikant verbessern kann.

Long Short-Term Memory (LSTM) ist eine Recurrent-Neural-Network-Architektur (RNN), die Sequenzen betrachtet und deren Werte über lange Zeiträume speichert. LSTMs unterstützen eine hohe Leistung bei der Sequenzklassifizierung und können mit TensorFlow angewendet werden.

In seiner Session von der ML Conference 2017 betrachtet Sahil Dua, wie man natürlich Sprache mit TensorFlow und LSTM besser analysieren kann. Was steht mathematisch dahinter und wie implementiert man das LSTM-Modell? Das zeigt der Speaker ganz praktisch im Vortrag, der jetzt vollständig im oben eingebundenen Video angesehen werden kann.

Der Speaker: Sahil Dua

Sahil is a Software Developer at Booking.com. His current adventure involves leveraging machine learning techniques to improve user experience. Previously, he helped the team at Booking.com in building the production pipeline for deploying deep learning models.

Unsere Redaktion empfiehlt:

Relevante Beiträge

X
- Gib Deinen Standort ein -
- or -