Willkommen im „Workshop of Intelligence“, dem Ort, an dem Code zu Denken wird. In diesem Live-Event tauchst du tief in die Welt der Large Language Models (LLMs) und KI-Agenten ein. Erfahre, wie diese Technologien wirklich funktionieren, welche Fortschritte über den Hype hinaus bestehen und wie du sie gezielt für deine Projekte einsetzen kannst. Von den Grundlagen der Tokenisierung und Attention Heads bis zu modernen Deep-Learning-Modellen, dieses Live-Event vermittelt dir das Wissen, das du brauchst, um KI greifbar und anwendbar zu machen.
In drei praxisnahen Sessions lernst du, LLMs zu zerlegen, ihre Funktionsweise zu verstehen und ihre Stärken sowie Grenzen zu erkennen. Du erhältst einen Einblick in spannende alternative Modelle jenseits klassischer LLMs und entdeckst, wie du AI Agents von Grund auf selbst entwickelst, komplett ohne Frameworks, nur mit Code. Schritt für Schritt erfährst du, wie du Memory, Kontext, Tool-Einsatz und einfache Reasoning-Loops implementierst und typische Fallstricke vermeidest. So wirst du am Ende des Workshops in der Lage sein, KI-Systeme praktisch einzusetzen und eigene Agenten für reale Aufgaben zu bauen.
Der Hype um LLM scheint nicht aufzuhalten zu sein und ehrlich gesagt hat er auch viel Substanz. Dennoch kann und sollte man nicht jedes Problem mit einem LLM lösen, selbst wenn es multimodal ist. Daher ist es wichtig, sich auch andere aktuelle technische Fortschritte und Modelle anzusehen, die vielleicht genau das sind, was du brauchst, um dein Projekt zum Erfolg zu führen. Wirf mit Christoph Henkelmann einen Blick auf eine Reihe nützlicher oder einfach nur interessanter Modelle, Entwicklungen und Artikel, um deinen Horizont zu erweitern und zu sehen, was es sonst noch im Ökosystem des maschinellen Lernens und Deep Learning gibt.
KI gibt es schon seit vielen Jahren, wir nutzen Text-to-Speech und Speech-to-Text seit über einem Jahrzehnt; Siri, Alexa usw., Kameras konnten schon vor einem Jahrzehnt Gesichtern folgen. Die größte Veränderung gab es jedoch erst vor zwei Jahren, als generative vortrainierte Transformer für die öffentliche Nutzung auf den Markt kamen, ja, GPT. Dabei handelt es sich um große Sprachmodelle (LLMs), aber nur für uns Geeks sind es Open-Source-LLMs wie Phi 3.5, Qwen 2.5, Llama 3.2 und Mistral, die sich so schnell weiterentwickeln, dass sogar diese Zusammenfassung schon bald veraltet sein könnte.
John wird diese LLMs auseinandernehmen, um ihre interne Funktionsweise zu zeigen, einige coole Funktionen demonstrieren und Ihnen helfen, besser zu verstehen, wie sie funktionieren, was sie gut können und was nicht und warum. Von Vokabular, Tokenisierung und Embedding bis hin zu Attention Heads, Quantisierung und Leistung. Wir werden alles lokal ausführen und auch einige deutsche Begriffe in den LLMs ausprobieren. Einfacher Code, aber faszinierende Ergebnisse. Wenn du die Möglichkeit hast, „ollama“ (.com) und eines oder mehrere der oben genannten Modelle auf deinem Laptop herunterzuladen, bereite diese bitte entsprechend vor.
Diese Session bietet eine praktische Schritt-für-Schritt-Anleitung zum Erstellen von KI-Agenten, wobei ausschließlich Python und eine LLM-API zum Einsatz kommen. Ausgehend von einem einfachen API-Aufruf werden wir nach und nach weitere Funktionen hinzufügen: Prompt Engineering für konsistente Ausgaben, Implementierung von Speicher- und Kontextmanagement, Hinzufügen von Werkzeugnutzung und Funktionsaufrufen, Behandlung von Fehlern und Wiederholungsversuchen sowie Implementierung grundlegender Schlussfolgerungsschleifen. Dabei werden wir häufige Fallstricke identifizieren, darunter Einschränkungen des Kontextfensters, Halluzinationen bei der Werkzeugnutzung, Endlosschleifen und Fehlerkaskaden. Jede Implementierungsentscheidung wird anhand von funktionierenden Code-Beispielen erläutert. Am Ende wirst du die Kernkomponenten von KI-Agenten verstehen und wissen, wie du deine eigenen Agenten für reale Aufgaben erstellst, ohne auf Frameworks oder Abstraktionen angewiesen zu sein.
Machine Learning Engineers, die LLMs tiefer verstehen und ihre eigenen AI-Agenten entwickeln möchten.
Data Scientists, die praktische Anwendungen von KI und Deep Learning in Projekten testen und erweitern wollen.
Softwareentwickler:innen mit Interesse an LLMs und generativer KI, die den Hype in echte Lösungen umsetzen möchten.
wie Large Language Models funktionieren, von Tokenisierung bis Attention Heads.
welche neuen Deep-Learning-Modelle über LLMs hinaus relevant sind.
wie du AI Agents Schritt für Schritt selbst entwickelst, ohne Frameworks, nur mit Code.
wie typische Fallstricke bei Kontextmanagement, Halluzinationen und Fehlern vermieden werden.
Christoph Henkelmann
DIVISIO
Experte für Deep Learning, Transformer-Modelle, KI-Anwendungen in Unternehmen und strategische KI-Beratung.
John Davies
Experte für Softwarearchitektur, Java-Entwicklung, FinTech-Systeme und AI-Startup-Innovationen.
Incept5
Paul Dubs
Experte für KI, maschinelles Lernen, Natural Language Processing und die Entwicklung groß angelegter KI-Agenten.
Xpress AI
*Preis pro Nutzer zzgl. MwSt.
Du bist bereits ein Fullstack Member? Dann logge dich auf entwickler.de ein und nimm direkt am Live-Event teil. Zum Event
+100 € Rabatt auf drei Buchung von Konferenz und Trainings-Events
im Jahr zzgl. MwSt
+150 € Rabatt auf jede Buchung von Konferenz und Trainings-Events
im Jahr zzgl. MwSt.
+200 € Rabatt auf jede Buchung von Konferenz und Trainings-Events
im Jahr zzgl. MwSt.
+250 € Rabatt auf jede Buchung von Konferenz und Trainings-Events
im Jahr zzgl. MwSt.
+300 € Rabatt auf jede Buchung von Konferenz und Trainings-Events
im Jahr zzgl. MwSt.
entwickler Elevate - Blended Learning Lösung für Unternehmen