Interview mit Christoph Henkelmann

Enterprise Tensorflow mit Java: Wie Machine Learning im Enterprise-Umfeld realisiert wird
Keine Kommentare

Christoph Henkelmann im Interview: Auf der ML Conference 2017 sprach Christoph Henkelmann über Tensorflow in Enterprise-Umgebungen. Wir haben ihn im Interview gefragt, warum man dabei mit Java arbeiten sollte und welche Tools er persönlich für das Machine Learning einsetzt.

Tensorflow war ein zentrales Thema auf der ML Conference 2017 in Berlin: Aus verschiedenen Blickwinkeln wurde das Machine Learning Tool betrachtet und dargestellt. Christoph Henkelmann wählte die Enterprise-Perspektive und sprach über die Nutzung von Tensorflow in Java-Umgebungen. Das ist nicht die klassische Sprachen-Wahl, hat für die Arbeit im Enterprise-Umfeld jedoch Vorteile, wie der Speaker auch im Interview erklärt. Neben der Gretchenfrage nach der richtigen Sprache für die Arbeit mit Machine Learning haben wir ihn außerdem nach seinen persönlichen Tipps für das richtige Tooling und den aktuellen Trends in Sachen ML gefragt.

Der Speaker: Christoph Henkelmann

Christoph Henkelmann holds a degree in Computer Science from the University of Bonn. After years of experience in the field of server development and mobile apps, among others at the FUJIFILM Group and as an independent consultant, he founded the successful Cologne mobile agency TheAppGuys in 2012. He is currently working as an IT consultant for software architecture and machine learning and is preparing to launch an AI startup.

Die Session: Enterprise Tensorflow: Running Tensorflow Models in a Java Environment

In many real world scenarios running inference of a trained model in a third party cloud service is not desirable. Especially in an enterprise setting, the customer often wishes more control over the server infrastructure. The project requirements may include custom cloud or other traditional server infrastructure in which an ML solution is to be integrated. Java is still the most widespread platform for enterprise server systems. Adding a new language or framework in such projects is cumbersome and increases risk and cost. In this talk the possibilities to run inference of trained Tensorflow Models in a Java Enterprise Server environment are discussed, together with real world examples of integration into popular server frameworks like Spring and Apache CXF. Different possibilities for deployment and version control of trained models are explored.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Benachrichtige mich bei
Inline Feedbacks
View all comments
- Gib Deinen Standort ein -
- or -