Passwort vergessen?

ALL YOU CAN READ!

Der One-Stop-Shop für mehr als 420 Magazine, Bücher und Ausgaben der Digitalbuchreihe shortcuts!

Finden Sie Ihr Thema direkt in unserem großen Archiv!


Von Machine Learning bis Domain Driven Design. Jetzt registrieren und sofort über 100 Seiten Expertenwissen erhalten.

Lesen Sie mit unserem neuen Premiumservice mehr als 420 Magazine, Bücher und shortcuts online. Mit dem entwickler.kiosk-Abonnement greifen Sie ab 9,90 Euro im Monat auf das gesamte Sortiment im entwickler.kiosk zu. Bestehende Abonnenten lesen in unserem entwickler.kiosk ihre abonnierten Magazine kostenfrei.

Registrierung

  • Mit Absenden der Registrierung bestätigen Sie unsere AGB und Datenschutzbestimmungen.

Direkt bestellen

DIREKT BESTELLEN

Bestehendes Abonnement zum entwickler.kiosk-Zugang erweitern

Bitte wählen Sie Ihr bestehendes Abonnement:

Volltextsuche

Ihre Suchergebnisse für:

Entwickler Magazin 1.19

Windows Developer 1.19

SharePoint Kompendiu...

Java Magazin 1.19

ML & Python Summit 2018

01. bis 2. Oktober 2018
Am Friedrichshain 17 Victor’s Residenz-Hotel Berlin
10407 , Berlin - Deutschland

Monday - 01. October 2018

10:00 bis 13:00
Eine Einführung in Deep Learning mit DL4J

Dieser Workshop bietet Ihnen einen Einführung in Deep Learning mit Java mittels DL4J. Die Arbeit erfolgt gemeinsam an einem Beispielprojekt, der Workshop ist schrittweise organisiert. Jeder Schritt beginnt mit einem Kurzvortrag (ca. 10 Minuten), der das Wie und Warum des nächsten Schrittes erklärt. Dann werden wir diesen Schritt gemeinsam implementieren. Die Arbeit umfasst folgende Schritte: * Datenorganisation, -vorbereitung und Preprocessing * Projektaufbau und -struktur, Logging, Dependency Management und Build * Die Nutzung der DL4J API und Model-Persistenz am Beispiel eines einfachen linearen Modells * Parameter-Tuning und Überwachung des Trainings mit der DL4J UI * Erweiterung des linearen Modells auf ein Multilayer-Modell Für jeden Schritt wird es ein fertig vorbereitetes Git Repo geben. Sollten Sie bei einem der Schritte „abgehängt“ werden, finden Sie durch einfaches clonen des nächsten Repos wieder Anschluss. Hardware und Software Voraussetzungen: * Ein Windows, Linux oder Mac Laptop. Wir werden ein relativ kleines Datenset benutzen, daher wird nicht viel Rechenleistung benötigt, ein normaler Entwicklerrechner reicht. * Installierte Software: Maven 3 oder höher, JDK 1.8 oder höher, ein Text Editor oder eine IDE Ihrer Wahl (Eclipse, IntelliJ etc.) Weiterhin sollten Sie solide Java Kenntnisse mitbringen. ML-Vorwissen ist nicht notwendig, alle notwendigen Grundkenntnisse für das Beispielprojekt werden während des Workshops vermittelt.  

Machine Learning auch für Dein Projekt!

Machine Learning ist im Begriff, viele Bereiche des Arbeitslebens zu transformieren. Dabei gibt es viele unrealistische Versprechen und Befürchtungen, aber auch ebenso viele - zum Teil weniger offensichtliche und bahnbrechende - Anwendungen, in denen Machine Learning eine große Hilfe sein kann. Im ersten Teil des Workshops wird erklärt, welche Arten von Machine Learning es gibt und wie insbesondere Supervised Machine Learning funktioniert. Dabei wird schon klar, dass du ohne passende Daten kein Machine Learning betreiben kannst. Im zweiten Teil bekommst du Anregungen zu Anwendungsbereichen von Machine Learning und eine Anleitung, wie du eigene Anwendungsgebiete in deinem Arbeitsbereich finden kannst. Hier bekommst du auch die Möglichkeiten, eigene Ansätze zu entwickeln und daran zu arbeiten.

Advanced Flow Control in Python

The workshop is divided into 3 parts. The first part is occupied with the most fundamental element of data processing. Applying a function to a list of elements,iterating over streams, generating lazy processors. We take a dive into Python's iterables, iterators and generators.   The seconds part, expands generators to Python's Co-routines, Futures and AsyncIO as a methods to gathers data from multiple slow sources in a single. We than process data concurrently.   In the third and last part we shift from concurrency to parallel task processing, and take a look at distributed and parallel processing of large data sets with Celery.  

Building and Operating an Open Source Data Science Platform

There are many great tutorials for training your deep learning models using TensorFlow, Keras, Spark or one of the many other frameworks. But training is only a small part in the overall deep learning pipeline. This workshop gives an overview into building a complete automated deep learning pipeline starting with exploratory analysis, over training, model storage, model serving, and monitoring and answer questions such as: How can we enable data scientists to exploratively develop models? How to automatize distributed Training, Model Optimization and serving using CI/CD? How can we easily deploy these distributed deep learning frameworks on any public or private infrastructure? How can we manage multiple different deep learning frameworks on a single cluster, especially considering heterogeneous resources such as GPU? How can we store and serve models at scale? How can we monitor the entire pipeline and track performance of the deployed models?   The participants will build an end-to-end data analytics pipeline including: Data preparation using Apache Spark JupyterLab self-service for data scientists Data storage using HDFS* Distributed training Automation & CI/CD using Jenkins Resource sharing (including GPUs) between multiple user/jobs Model and metadata storage Model serving and monitoring

14:00 bis 17:30
Entwicklung und produktiver Einsatz von Machine Learning mit Python

Dieser Workshop zeigt Ihnen die Herausforderungen bei der Entwicklung von Machine Learning Systemen und wie sich diese durch Python Frameworks wie scikit-learn und Palladium abbilden lassen.​Erfahren Sie welche Geheimnisse hinter einer ​erfolgreichen Machine Learning Anwendung s​tecken​: - wenig Boilerplate, viel Produktivitaet - ein moeglichst nahtloser Uebergang aus der Entwicklung in die   Produktion - Traningsdaten, Validierung, Testset - die optimale Nutzung von Systemressourcen

Keine Slides vorhanden
Quickly and easily build, train, and deploy machine learning models at any scale

The machine learning process often feels a lot harder than it should be to most developers because the process to build and train models, and then deploy them into production is too complicated and too slow. First, you need to collect and prepare your training data. Then, you need to select which algorithm and framework you’ll use. After deciding on your approach, you need to teach the model how to make predictions by training, which requires a lot of compute. Then, you need to tune the model so it delivers the best possible predictions, which is often a tedious and manual effort. After you’ve developed a fully trained model, you need to integrate the model with your application and deploy this application on infrastructure that will scale. It's not a surprise that the whole thing feels out of reach for most developers. This workshop starts with a brief review of the machine learning process, followed by an introduction and deep dive into the individual components of Amazon SageMaker. Amazon SageMaker removes the complexity that holds back developer success with each of the steps mentioned above. As part of the workshop we will train artificial neural networks, get insight into some of the built-in machine learning algorithms of SageMaker that you can use for a variety of problem types, and after successfully training a model, look at options on how to deploy and scale a model as a service. This workshop is aimed at developers that are new to machine learning, as well as data scientists that continue to be challenged by the operational challenges of the machine learning process. Bring your own laptop with Python and Jupyter Notebook, and (ideally) your own activated AWS account to follow through the examples.

Einführung in Deep Learning mit TensorFlow und Keras, NNs, CNNs, RNNs, LSTMS/GRUs

Man erzählt sich tolle Dinge von Deep Learning und auch TensorFlow. Die spannendsten Neuerungen basieren auf diesem Ansatz und dieser Software. Dazu passend lernst du im ersten Teil dieses Workshops wie Neuronale Netzwerke funktionieren und was du mit ihnen machen kannst. Wir werden dabei eigene Netzwerke für ein Klassifikationsproblem aufbauen und trainieren. Im zweiten Teil beschäftigen wir uns mit den besonderen Netzwerkarten für Bilderkennung (CNNs) und Textklassifikation/Sequenzen (RNNs). Dieser Teil wird durch Notebooks mit TensorFlow und Keras Code unterstützt. Vorausgesetzt wird grundlegendes Wissen über Machine Learning wie du es z.B. beim Workshop 'Machine Learning auch für Dein Projekt' erwerben kannst. Du musst nichts auf deinem Rechner installieren, es reicht ein Laptop mit einem aktuellen Browser, am besten Chrome.

Verstärkendes Lernen (Reinforcement Learning)

Dieser praxisorientierte Workshop hat das Ziel, dass die Teilnehmer die Funktionsweise des Verstärkenden Lernens verstehen und die Möglichkeiten und Grenzen einschätzen können. Nach einer Erläuterung der wesentlichen Konzepte wird an konkreten Beispielen gezeigt, wie ein lernender Agent modelliert wird, was dabei zu beachten ist und welche Varianten es gibt. Mit Hilfe von bereit gestellter Simulationssoftware kann der Prozess des verstärkenden Lernens schrittweise nachvollzogen werden. Hierfür werden Laptops benötigt, auf denen eine Java-Laufzeitumgebung vorinstalliert ist. Im Hauptteil des Workshops werden die Teilnehmer dann in kleinen Gruppen ein eigenes Modell für eine selbst gewählte Anwendung entwickeln. Dies geschieht als Konzept auf Papier. Die Entwicklung wird dahingehend unterstützt, dass erklärt wird, ob die Modellierungsentscheidungen erfolgversprechend sind oder welche Probleme zu erwarten wären.

Tuesday - 02. October 2018

09:00 bis 09:45
Keynote: Wie kann Machine Learning einen Geschäftsbereich transformieren?

Machine Learning hat das Potential, die Art und Weise wie Software funktioniert oder die Art wie Entscheidungen getroffen werden, zu revolutionieren. Daten von guter Qualität und Quantität sind dabei der Schlüssel zum Erfolg: Sitzt du vielleicht sogar auf einer Goldgrube, ohne es zu ahnen?

10:00 bis 13:00
Daten analysieren und transformieren mit Python

Zur Analyse von Daten bietet Python eine breite Palette von Tools zur Visualisierung und Manipulation von Daten (v.a. Pandas und Matplotlib). Jupyter als interaktive Entwicklungsumgebung bietet eine Möglichkeit, die verschiedenen Tools zusammenzuführen, Vorgänge auf explorative Weise zu reproduzieren und zu visualisieren. - Einführung in die Funktion von Jupyter - Basics zur Ausführung von Pythoncode - NumPy zur  array- und vektororientierten Berechnung - Indexhandling - Mathematische Funktionen auf Arrays - Speichern und Laden der Daten im Text- bzw. Binärformat - Mathplot - Standarddiagramme - Pandas - Basics - Indexhandling - Laden von Daten aus unterschiedlichen Quellen (SQL, CSV, JSON, etc.) - Datenmanipulation, Aggregation - Timeseries ?    

Bildklassifikation leicht gemacht - mit Keras und TensorFlow

Lange Zeit galt die automatische Erkennung von Objekten, Menschen und Szenen auf Bildern durch Computer als unmöglich. Die Komplexität schien schlicht zu groß, um sie einem Algorithmus programmatisch beibringen zu können. Doch Neuronale Netze haben dies drastisch verändert! Inzwischen ist Bilderkennung ist ein weit verbreitetes Anwendungsgebiet von Maschinellem Lernen. Häufig werden dafür sogenannte “Convolutional Neuronal Networks”, oder “ConvNets” verwendet. In diesem Workshop werde ich zeigen, wie einfach es ist, solch ein Neuronales Netz selber zu bauen. Dafür werden wir Keras und TensorFlow verwenden. Wir werden zunächst ein komplettes Netz selber trainieren: vom Einlesen der Bilder, über das Definieren des Netzes, hin zum Evaluieren auf Testbildern. Anschließend gucken wir uns an, wie man mit Transfer Learning und vortrainierten Netzen auch mit wenigen eigenen Bildern schnell Erfolge sehen kann. Im letzten Teil des Workshops soll es dann darum gehen, wie wir diese Bilderkennungsmodelle besser verstehen können - zum Beispiel indem wir die Knoten in Zwischenschichten visualisieren; so können wir Muster und für die Klassifikation wichtige Bildbereiche finden und die Klassifikation durch das Modell nachvollziehen. Installationshinweise: Wir werden mit Python3 in Google Collaboratory arbeiten.

Text Analytics für Manager und Fachexperten – Use Cases und technische Lösungen verstehen und selbst einschätzen lernen

Ob E-Mails, Produkt-Rezensionen oder Vertragstexte – viele Informationen liegen in Form unstrukturierter Texte vor. Dies weckt bei vielen Unternehmen den Wunsch nach einer automatisierten Auswertung („Schatzsuche“), wie sie bei strukturierten Informationen, beispielsweise in Data Warehouses, selbstverständlich ist.Im Moment gibt es viele unterschiedliche Stoßrichtungen bei den KI-Technologien für automatisierte Verarbeitung von Textmengen, z.B. NLP, Clustering, Embeddings. Fachanwender fühlen sich oft durch Fachtermini verwirrt und können nicht verstehen, wie alles ineinandergreift. Die angestoßenen Individual-Projekte sind oft teuer, unnötig experimentell und wenig standardisiert. Die beiden Referenten Stephanie und Christian zeigen Lösungsmöglichkeiten für das oben beschriebene Problem. Sie konzipieren und entwickeln mit ihrem Startup einen automatisierten Ende-zu-Ende-Textanalyseservice – von den Rohtexten bis zur visuellen Darstellung. In diesem Workshop geben sie Einblicke in ihre Erfahrungen. Sie spannen den Bogen von der fachlichen Fragestellung bis zur technischen Lösungsskizze. Die Teilnehmer lernen alle Stufen eines Text-Analytics Projekts kennen.Nach diesem Workshop wissen alle Teilnehmer •welche Potenziale Text Analytics für das eigene Geschäft bietet •wie man als Manager/Fachanwender selbst kompetent über das Thema Text Analytics sprechen kann  •welche essenziellen Weichen sie für ein erfolgreiches Projekt stellen können  Die Referenten beleuchten die gebräuchlichsten Technologien aus einer fachlichen Perspektive und zeigen Alternativen zu den Cloud-Modellen der amerikanischen Internet-Konzerne.

14:00 bis 17:15
Webbasierte interaktive Datenvisualisierung mit Bokeh

Python hat sich in den letzten Jahren zum Defacto-Standard entwickelt um (wissenschaftliche) Daten zu verarbeiten. Industrie, Universitäten, Forschungseinrichtungen und Wetterdienste sind dabei von proprietären Lösungen wie IDL, Matlab, SPSS auf Python umzusteigen. Neben der schnellen komfortablen Verarbeitung der Daten durch Pandas/Numerical Python/Cython tritt dabei immer stärker der Aspekt der Interaktiven Nutzung der Daten in Webanwendungen eine Rolle. Dabei kann Python aber nicht direkt eingesetzt werden - hier wird maßgeschneidertes HTML/Javascript benötigt. Mit JS-Programmierung wollen sich aber wenige (und sicher kein Wissenschaftler/Ingenieur) gerne auseinandersetzen. Auf der anderen Seite sind klassische Webagenturen die sich gut mit JS auskennen mit dem wissenschaftlich/technischen Kontext der Daten heillos überfordert. Diese Lücke zwischen Python und HTML/JS überbrückt das Bokeh Projekt. Bokeh ermöglicht es interaktive Webanwendungen im Browser allein über Python Code zu programmieren. Unser Workshop beginnt mit der Erstellung einer Python Umgebung für Bokeh. Er zeigt wie Daten in Python (z.B. mit Pandas) vorbereitet werden um problemlos mit Bokeh visualisiert zu werden. Das Erstellen einer kompletten Web-Visualisierungs-Anwendung mit Interaktion mehrerer graphischer Elemente wird das Ziel des Workshops sein. Weiterhin wird es einen Ausblick auf die Verwendung des Bokeh-Servers geben, welcher in der Lage ist mit beliebig großen Datenmengen umzugehen.

Deep Learning: Grundlagen und Anwendungen

Fortschritte bei Algorithmen und Hardware haben neuronalen Netzen in den vergangenen Jahren neue Einsatzfelder eröffnet. Dieser Workshop richtet sich an Architekten, die einen Überblick über die Grundlagen, Einsatzmöglichkeiten und Frameworks für die Implementierung maschinellen Lernens mit neuronalen Netzen erhalten möchten. Es werden Anwendugsbeispiele aus den Bereichen Bilderkennung, Zeitreihenanalyse und Spachverarbeitung vorgestellt. Der Teilnehmer erhält eine Einführung in verbreitete ML-Frameworks TensorFlow, PyTorch und Caffe.

Deep Learning für NLP mit Pytorch

Ich werde eine Hands-On Tutorial für die Anwendung von Deep Learning Methoden in Natural Language Processing (NLP) geben. Nach einer grundlegenden Einführung in Python, Numpy und Pytorch werde ich einen Überblick über Word Embeddings and Recurrent Neural Networks (RNN) geben. Unter meiner Anleitung werden die Teilnehmer zwei typische NLP-Anwendungen mithilfe vorbereiteter Jupyter-Notebooks entwickeln: Named Entity Recognition mit einem Bidirectional RNN und ein Language Translation Modell auf Basis von Attention. Die Jupyter-Notebooks laufen auch unter Google Colab mit GPU Support. Sie können also über Google Drive kopiert werden und in Google Colab von jedem Teilnehmer gestartet werden. Notwendig dafür ist nur ein Google Account.

X
- Gib Deinen Standort ein -
- or -