Zukunftsgestaltung für Unternehmen
Die Data Science Business Akademie bietet passgenaue Lösungen, einzigartige Services, eine individuelle Qualifizierung sowie höchste Beratungskompetenz in den Bereichen Predictive Analytics, Artificial Intelligence und Big Data – wir begleiten Sie auf dem Weg zum Data Science Expert.
Data Science Seminare
Verwenden Sie genau die Werkzeuge, die Sie in Ihrem Unternehmen benötigen.
Mit unseren aktuellen Angeboten rund um Predictive Analytics, Artificial Intelligence und Big Data qualifizieren und unterstützen wir Sie auf Ihrem Weg durch die digitale Transformation.
Stellen Sie sich aus einer Reihe von Seminaren Ihren individuellen Weiterbildungsplan zusammen.
- Funktionale Programmierung
- Grundlagen der Skriptsprache R
- Entwicklungsumgebung Rstudio
- Grundlegende statistische Verfahren
- Umsetzung exemplarischer Data-Science-Prozesse in R
- Visualisierung und Vorverarbeitung der Daten
- Modellbildung mit aktuellen Machine-Learning-Algorithmen
- Erstellung und Bewertung von Prognosen für typische Anwendungsfälle
- Grundlagen der beschreibenden Statistik
- Stichprobe versus Gesamtheit
- statistische Skalen: nominal, ordinal, metrisch
- relative Häufigkeiten und kumulierte relative Häufigkeiten, empirische Verteilungsfunktion
- Histogramm für klassierte Daten
- Lagemaße: arithmetisches Mittel, Median, Quantile
- Box-Whisker-Plot
- Streuungsmaße: Varianz und Standardabweichung
- zweidimensionale Datensätze, Streudiagramm
- Zusammenhangsmaße: Korrelation
- Lineare Regression
- Grundlagen der schließenden Statistik
- Schließen von der Stichprobe auf die Gesamtheit
- Wahrscheinlichkeit versus relative Häufigkeit
- diskrete und stetige Zufallsvariablen
- Gaußkurve, Normalverteilung
- Vertrauensbereich, Konfidenzintervalle
- Grundlagen der Hypothesentests (Nullhypothese, Alternativhypothese, Signifikanzniveau)
- Hypothesentest-Typen (Mittelwerttest, Anteilstest, Unabhängigkeitstest, F-Test als Gesamtmodell-Test, t-Test) und Anwendungsbereiche
- Ausblick: einfaktorielle Varianzanalyse
- Diskussion spezifischer Fragestellungen aus der beruflichen Praxis
- Vorstellung des Tools und seiner Varianten
- Anbindung von Datenquellen
- Unterschiede Extrakt- und Live-Datenquellen
- Optional: Erstellung von Serverdatenquellen zur gemeinsamen Nutzung
- Ebenen der Datenfilterung
- Erstellung von Visualisierungen
- Zeitliche und geographischen Datenanalyse
- Unterschied diskrete und fortlaufende Dimensionen
- Formelerstellung und Berechnungen
- Berechnungskontexte: Level-of-Detail-Ausdrücke
- Erstellung von Gruppen und Sets
- Erstellung von Dashboards
- Erstellung von Stories
- Verknüpfung unterschiedlicher Datenquellen: Join und Blending
- Excel: Statistik mit den Analyse-Funktionen
- Excel: Statistik mit den Formeln
- Excel: Statistik mit den Diagrammen
- Fallstudie, Berechnung von statistischen Kennzahlen
- Fallstudie, Darstellung von statistischen Diagrammen
- Unterschiede in den verschiedenen Excel-Versionen
- Diskussion spezifischer Fragestellungen aus der beruflichen Praxis
- Daten und Informationen
- Welchen Unterschied gibt es zwischen Daten und Informationen?
- Kontext und Codierung
- Sie lernen, wie aus Daten Zeichen und Symbole und dadurch Informationen werden und welche Rolle dabei Computer haben
- Dateiformate und Datenquellen
- In Gruppen lernen Sie unterschiedliche Daten- und Dateiformate kennen (Ton-Format, Text-Format, Bildformat) und welche Informationen daraus gewonnen werden können. Sie lernen den Unterschied zwischen strukturierten und unstrukturierten Daten
- Datenvisualisierung
- Nach einer kurzen Einführung in die Visualisierung können Sie verschiedene Visualisierungstypen (wie Balkendiagramme, Liniendiagramme) ausprobieren und lernen die Grundlagen, um den richtigen Typ auszuwählen.
- Big Data
- Big Data ist seit Jahren ein Hype. Sie lernen die Grundlagen von Big Data und die Anwendungsgebiete ohne Buzzword-Bingo.
- Daten abfragen
- SQL gilt seit jeher als die Standardsprache um Daten abzufragen. In einfachen Übungen lernen Sie die Grundzüge von SQL kennen.
- Wissen aus Daten generieren
- Mit Hilfe Algortihmen aus dem Bereich der Künstlicher Intelligenz können Informationen und selbständig Wissen aus Daten erstellt werden. Sie lernen in einfachen interaktiven Gruppenübungen ohne Programmierung ein paar dieser Algorithmen kennen.
- Daten in Unternehmen
- Welche Daten gibt es im Unternehmen und wie können Unternehmen von Daten profitieren?
- Karrieren im Datenumfeld
- Data Scientist, Data Enginer, Data Analyst etc.
- Wie lernen Neuronale Netze?
- Variablen, Modelle und Zusammenhänge
- Künstliche Neuronen und neuronale Netze
- Mathematische Grundlagen des Anlernprozesses: Backpropagation, Loss und Gradient Descent
- Neuronale Netze mit Keras aufbauen und trainieren
- Graphen mit Tensorflow erstellen
- Ein einfaches Netz mit Keras und Tensorflow aufbauen und anlernen
- Welches Modell ist das richtige? Evaluation und Anpassung angelernter Modelle.
- Einsatz angelernter Modelle zur Klassifzierung und Schätzung
- Modelle speichern und laden
- Overfitting mit Dropout-Layern verhindern
- Überwachung des Anlernprozesses mit TensorBoard
- Maschinelles Sehen: Konvolutionale neuronale Netze (CNN)
- Bilddateien als mehrdimensionale Matrizen
- Details sehen und Formen abstrahieren: Konvolutionale Netze (CNN)
- Konvolutionale Layer mit Keras aufbauen und anlernen
- Vortrainierte Layer einsetzen
- Mit Sequenzdaten arbeiten: Rekurrente neuronale Netze (RNN)
- Zeitreihendaten und Textsequenzen: Eigenschaften und Eigenheiten
- Neuronale Netze mit Gedächtnis (Feedforward vs. RNN)
- Sequenzdaten mit LSTM (Long Short-Term Memory) aufbauen
- Textdaten mit Embedding-Layers interpretieren
- Feature Extraction: Numerische Daten, Bild und Text-Daten vorbereiten
- Datenrepräsentation: Skalare, Vektoren & Matrizen in Numpy
- Daten einlesen und vorbereiten mit Pandas, Scikit-learn und Keras
- Qualitativer Variablen und Dummy-Sets
- Standardisierung von Daten
- Dimensionsreduktion mit PCA
- Bilddateien transformieren
- Mit Textdaten arbeiten: Zerlegen, tokenizieren, vektorisieren und einbetten.
- Daten und Informationen
- Welchen Unterschied gibt es zwischen Daten und Informationen?
- Kontext und Codierung
- Sie lernen, wie aus Daten Zeichen und Symbole und dadurch Informationen werden und welche Rolle dabei Computer haben
- Dateiformate und Datenquellen
- In Gruppen lernen Sie unterschiedliche Daten- und Dateiformate kennen (Ton-Format, Text-Format, Bildformat) und welche Informationen daraus gewonnen werden können. Sie lernen den Unterschied zwischen strukturierten und unstrukturierten Daten
- Datenvisualisierung
- Nach einer kurzen Einführung in die Visualisierung können Sie verschiedene Visualisierungstypen (wie Balkendiagramme, Liniendiagramme) ausprobieren und lernen die Grundlagen, um den richtigen Typ auszuwählen.
- Big Data
- Big Data ist seit Jahren ein Hype. Sie lernen die Grundlagen von Big Data und die Anwendungsgebiete ohne Buzzword-Bingo.
- Daten abfragen
- SQL gilt seit jeher als die Standardsprache um Daten abzufragen. In einfachen Übungen lernen Sie die Grundzüge von SQL kennen.
- Wissen aus Daten generieren
- Mit Hilfe Algortihmen aus dem Bereich der Künstlicher Intelligenz können Informationen und selbständig Wissen aus Daten erstellt werden. Sie lernen in einfachen interaktiven Gruppenübungen ohne Programmierung ein paar dieser Algorithmen kennen.
- Daten in Unternehmen
- Welche Daten gibt es im Unternehmen und wie können Unternehmen von Daten profitieren?
- Karrieren im Datenumfeld
- Data Scientist, Data Enginer, Data Analyst etc.
- Machine Learning
- Viele Algorithmen, die im Bereich der Künstlichen Intelligenz eingesetzt werden stammen aus dem Bereich des maschinellen Lernens. In kleinen Gruppen befassen Sie sich mit einzelnen Kernelementen, ganz ohne die Mathematik.
- Deep Learning
- Neuronale Netzwerke und Deep Learning Algorithmen haben in den letzten Jahren zu einem großen Anstieg von KI-Projekten geführt. Wir sehen uns diese Algorithmen an und Sie lernen die Anwendungsgebiete und Grenzen kennen.
- Anwendungsgebiete
- Welche Projekte wurden mit Hilfe von KI durchgeführt? Wie hat KI Unternehmen beeinflusst? Welche Algorithmen verwenden Amazon, Facebook und Co? Sie lernen die verschiedensten Gebiete von Künstlicher Intelligenz kennen.
- KI - Grenzen
- Liest man aktuelle Zeitungsartikel scheint der Künstlichen Intelligenz keine Grenzen gesetzt werden. Wir werden mit verschiedenen Mythen aufräumen und Ansätze diskutierern.
- KI-Projekt
- Entwicklung eines KI-Projekts.
- Daten und Informationen
- Welchen Unterschied gibt es zwischen Daten und Informationen?
- Kontext und Codierung
- Sie lernen, wie aus Daten Zeichen und Symbole und dadurch Informationen werden und welche Rolle dabei Computer haben
- Dateiformate und Datenquellen
- In Gruppen lernen Sie unterschiedliche Daten- und Dateiformate kennen (Ton-Format, Text-Format, Bildformat) und welche Informationen daraus gewonnen werden können. Sie lernen den Unterschied zwischen strukturierten und unstrukturierten Daten.
- Datenvisualisierung
- Nach einer kurzen Einführung in die Visualisierung können Sie verschiedene Visualisierungstypen (wie Balkendiagramme, Liniendiagramme) ausprobieren und lernen die Grundlagen, um den richtigen Typ auszuwählen.
- Machine Learning
- Viele Algorithmen, die im Bereich der Künstlichen Intelligenz eingesetzt werden stammen aus dem Bereich des maschinellen Lernens. In kleinen Gruppen befassen Sie sich mit einzelnen Kernelementen, ganz ohne die Mathematik.
- Deep Learning
- Neuronale Netzwerke und Deep Learning Algorithmen haben in den letzten Jahren zu einem großen Anstieg von KI-Projekten geführt. Wir sehen uns diese Algorithmen an und Sie lernen die Anwendungsgebiete und Grenzen kennen.
- Anwendungsgebiete
- Welche Projekte wurden mit Hilfe von KI durchgeführt? Wie hat KI Unternehmen beeinflusst? Welche Algorithmen verwenden Amazon, Facebook und Co? Sie lernen die verschiedensten Gebiete von Künstlicher Intelligenz kennen.
- KI - Grenzen
- Liest man aktuelle Zeitungsartikel scheint der Künstlichen Intelligenz keine Grenzen gesetzt werden. Wir werden mit verschiedenen Mythen aufräumen und Ansätze diskutierern.
- KI-Projekt
- Entwicklung eines KI-Projekts.
- Organisation von Python-Code bei umfangreichen Projekten
- Packages
- import
- list, tuple, dict (Zusammenfassung aus "Python-Einführung"
- list, tuple dict, set (advanced features):
- List Comprehensions
- Generator-Ausdrücke
- Iteratoren
- Mengen (sets)
- dict: update, get, setdefault, pop, items
- Funktionsparameter
- Parameter-Defaults
- Funktionen mit beliebig langen Parameterlisten
- Packen und Entpacken von Listen, Tupeln und Dictionaries
- als Sequenzen von Funktionsparametern
- Typumwandlungen der Grunddatentypen
- int, float, str, dict, list, tuple, set
- Verschachtelte Collections
- Result sets, list of dictionaries
- Dateien, Objektserialisierung und Objektbanken
- file
- shelf als Beispiel von pickle-Anwendung
- Python-Klassen (Python-Typen)
- object methods
- static methods
- class methods
- get/set methods (Vergleich mit JavaBeans)
- properties
- filigrane Zugriffsrechte auf Objektattribute
- (Vergleich mit Java-Zugriffsrechten)
- Operatorenüberladung
- list-like objects
- dictionary-like objects
- callable objects
- Vererbung
- Exceptions
- Eigene Fehlerklassen modellieren
- Eigene Fehlerobjekte in Methoden einbauen
- Das Dokumentationssystem von Python
- das Objektattribut __doc__ (docstring)
- reStructuredText als Syntax von docstring
- automatische Generierung von Dokumentation (epydoc)
- Python UnitTests (eine kurze Einführung)
- der Zusammenhang von UnitTests und docstrings
- der Python-Interpreter als Betriebssystem
- die Module os, sys, shutils
- Graphische Benutzeroberfläche (GUI) (eine kurze Einführung)
- SQL-Datenbankanbindung mit Python (kurze Beispiele)
- Threads (eine kurze Einführung)
- Python SQLite
- neue Tabellen anlegen
- Daten in die Tabelle einfügen
- Daten abfragen
- update
- Datentypen in SQLite
- Adapter und Konvertierer
- Die Einheitliche Python-DB-API
- Python und MySQL (MySQLdb)
- Python und Oracle
- Python und ODBC
- ZODB als selbständige Datenbank installieren (ohne Zope)
- Die Erfüllung von Datenbank-Standards (ACID) durch die ZODB
- Atomicity
- Consistency
- Isolation
- Durability
- Die hierarchische Objektstruktur der ZODB
- Persistenzregeln beim Update von Veränderungen an ZODB-Objekten
- Persistente Objektreferenzen in der ZODB
- Hinweis auf advanced features: mounting, distributing
- Eine einfache Anwendung als Beispiel
- SQLAlchemy als Brücke zwischen ZODB und SQL-Datenbanken
- Begrüßung und Vorstellung der Agenda
- Begriffsklärung
- Was ist Künstliche Intelligenz?
- Was ist Business Analytics?
- Wozu dient es?
- Wozu ist es in der Lage und wozu nicht?
- Chancen und Risiken von KI und Business Analytics
- Wo betrifft es uns im Alltag, im Arbeitsleben und als Unternehmen?
- Welche Beispiele zeigen auf, welche Chancen und Risiken sich durch den Wandel ergeben können?
- Daten als Grundlage von KI und Analytics
- Was ist der Unterschied zwischen Daten, Information und Wissen?
- Sie werden verstehen, wie KI und Analytics funktioniert und klarkommt mit dem riesigen Datenvolumen (Big Data...), der Vielfalt der Datenformate (strukturiert, unstrukturiert, teilstrukturiert), unterschiedlicher Datenqualität und wie aus Daten in Abhängigkeit vom Kontext (die Situation des Einzelnen bzw. der Organisation) Mehrwert entsteht.
- Aus welchen Quellen stammen die Daten?
- Wie werden die Daten sinnvoll aufbereitet, bevor man mit KI und Analytics effizient und zeitnah den Mehrwert maximieren kann?
- Datenvisualisierung
- Visualisierung erleichtert das intuitive Verständnis von Zusammenhängen besser als eine tabellarische Darstellung.
- Informationsvisualisierung kombiniert die Stärken der interaktiven Datenanalyse mit der menschlichen Fähigkeit des intuitiven Verständnisses von Zusammenhängen.
- Sie lernen in Übungen ansprechende Abbildungen wie Column-, Pie-, Spark-, Plot-, Scatter- , Stock-, Radar-Chart, 3-D Karten und individuelle Karten zu erstellen und diese in einem Dashboard zusammenzuführen.
- Übungen können individuell oder in Gruppen erfolgen.
- Anwendungsbereiche von KI und Business Analytics
- Wie und wo lassen sich KI und Business Analytics real nutzen, um aus der Vergangenheit zu lernen, in der Gegenwart richtig zu handeln und sich für die Zukunft vorzubereiten?
- Anhand zahlreicher Beispiele wird dies vorgestellt. Die Fallstudien behandeln u.a. Unternehmen wie Amazon, Flixbus, Daimler und Anwendungsbereiche wie Kreditwürdigkeitsprüfung, Performance Management, Früherkennung von Trends basierend auf Daten aus sozialen Netzwerken wie Twitter und Facebook, Identifikation von Cross-Selling Möglichkeiten, Gestaltung von Prognosen und Planung.
- Methoden der Künstlichen Intelligenz und des Maschinellen Lernens
- Wie funktioniert Künstliche Intelligenz?
- Wie funktioniert das überwachte, teilüberwachte und unüberwachte Maschinelle Lernen (Lineare Modellierung, Neuronale Netze, Klassifikation, Entscheidungsbäume).
- Was ist Data Mining?
- Wie kann man aus Texten, u.a. aus dem Internet und ganz aktuell, wertvolle Erkenntnisse gewinnen mit Hilfe von Text Mining, Natural Language Processing und Sentimentanalyse (positive oder negative Stimmung von Textbeiträgen).
- Technologien und Anwendungen
- Welche Technologien stehen zur Nutzung von Künstlicher Intelligenz und Business Analytics zur Verfügung und welche davon sind besonders bedeutend?
- Sie werden hier die Möglichkeit erhalten, selbst mit Daten zu arbeiten und KI und Business Analytics praktisch zu erlernen.
- Für die Übungen wird u.a. mit dem kostenlosen Open-Source-Produkt R gearbeitet.
- Was Sie hier lernen, das können Sie, da R keine Lizenz erfordert, hinterher gleich in Ihrer eigenen Organisation auch praktisch zum Einsatz bringen.
- Herausforderungen bei der Einführung
- Was ist bei der Einführung zu berücksichtigen?
- Was sind mögliche Stolperfallen?
- Was sind bewährte Vorgehensweisen und Erfolgsfaktoren für die Umsetzung?
- Karriere machen mit Kompetenz
- Wie sieht der Arbeitsmarkt für Personen mit Kompetenz in KI und Business Analytics aus?
- Welche Profile sind besonders gefragt?
- Einführung in Python
- Python: Unterschied zu Java / C#.NET / C++ / PHP
- Kurzübersicht über die Editoren
- Die Entwicklungsumgebung
- Einrichten eines Python-Projekts
- Grundsätzlicher Aufbau eines Python-Programms
- Syntax von Python
- Die Help-Funktion
- Kommentare
- Allgemeine Datentypen
- int, float, Decimal, bool, string
- Konvertierungen zwischen Datentypen
- Logische und arithmetische Operatoren
- Formatierte Ausgaben mit format()
- Funktionen, Parameterübergabe
- Die pass-Anweisung
- Lambda-Expressions
- Übungen zur Programmlogik
- Viele ausgewählte Übungen
- Schleifen: for und while
- Die range-Funktion
- Bedingungen: if, elif, else
- Übungen zu verbesserter Performance
- Objektorientierte Programmierung
- Einstieg in objektorientierte Programmierung
- Datenkapselung, Vererbung, Polymorphie
- Klassen und Objekte
- Die Klasse Object
- Mehrfachvererbung
- Überschreiben von Methoden der Basisklasse
- Viele Übungen: eigene Klassen schreiben
- Exceptionhandling in Python
- Die Klasse Exception
- try / except / finally
- Erstellen einer eigenen Fehlerklasse
- Weitere optionale Themen
- Dateien lesen und schreiben
- Operatorüberladung
- Reguläre Ausdrücke
- Einführung und Einbindung von Data Science in einen betriebswirtschaftlichen Rahmen
- Vorgehensmodelle und Zieldefinitionen für Data-Science-Projekte
- Data-Science-Methoden (insbesondere Machine Learning) und Werkzeuge
- Praktische Umsetzung eines Data-Science- Prozesses in einem Tool
- Tipps, Tricks und Kniffe für ein gutes Data-Science-Produkt
- Organisation von Python-Code bei umfangreichen Projekten
- Packages
- import
- list, tuple, dict (Zusammenfassung aus "Python-Einführung"
- list, tuple dict, set (advanced features):
- List Comprehensions
- Generator-Ausdrücke
- Iteratoren
- Mengen (sets)
- dict: update, get, setdefault, pop, items
- Funktionsparameter
- Parameter-Defaults
- Funktionen mit beliebig langen Parameterlisten
- Packen und Entpacken von Listen, Tupeln und Dictionaries
- als Sequenzen von Funktionsparametern
- Typumwandlungen der Grunddatentypen
- int, float, str, dict, list, tuple, set
- Verschachtelte Collections
- Result sets, list of dictionaries
- Dateien, Objektserialisierung und Objektbanken
- file
- shelf als Beispiel von pickle-Anwendung
- Python-Klassen (Python-Typen)
- object methods
- static methods
- class methods
- get/set methods (Vergleich mit JavaBeans)
- properties
- filigrane Zugriffsrechte auf Objektattribute
- (Vergleich mit Java-Zugriffsrechten)
- Operatorenüberladung
- list-like objects
- dictionary-like objects
- callable objects
- Vererbung
- Exceptions
- Eigene Fehlerklassen modellieren
- Eigene Fehlerobjekte in Methoden einbauen
- Das Dokumentationssystem von Python
- das Objektattribut __doc__ (docstring)
- reStructuredText als Syntax von docstring
- automatische Generierung von Dokumentation (epydoc)
- Python UnitTests (eine kurze Einführung)
- der Zusammenhang von UnitTests und docstrings
- der Python-Interpreter als Betriebssystem
- die Module os, sys, shutils
- Graphische Benutzeroberfläche (GUI) (eine kurze Einführung)
- SQL-Datenbankanbindung mit Python (kurze Beispiele)
- Threads (eine kurze Einführung)
- Python SQLite
- neue Tabellen anlegen
- Daten in die Tabelle einfügen
- Daten abfragen
- update
- Datentypen in SQLite
- Adapter und Konvertierer
- Die Einheitliche Python-DB-API
- Python und MySQL (MySQLdb)
- Python und Oracle
- Python und ODBC
- ZODB als selbständige Datenbank installieren (ohne Zope)
- Die Erfüllung von Datenbank-Standards (ACID) durch die ZODB
- Atomicity
- Consistency
- Isolation
- Durability
- Die hierarchische Objektstruktur der ZODB
- Persistenzregeln beim Update von Veränderungen an ZODB-Objekten
- Persistente Objektreferenzen in der ZODB
- Hinweis auf advanced features: mounting, distributing
- Eine einfache Anwendung als Beispiel
- SQLAlchemy als Brücke zwischen ZODB und SQL-Datenbanken
Inhalt
- Einsatz von maschinellem Lernen für Geschäftszwecke
- Churn Prediction
- Prevention
- Ad Click Predictions
- Recommender Systems
- Image Recognition
- Fraud and Risk Detection
- Dynamic Pricing Calculations
- Sports Analytics
- Engagement Increase
- Predictive Demand
- Neue Kreditvergabemodelle
- Von wirtschaftlichen Fragestellungen zum Model
- Praxis: Arbeit mit Daten
- Datensäuberung
- Behandlung fehlender Werte
- Ausreißer
- Verteilungen
- Datentransformation
- Selektion von Merkmalen
- Dimensionsreduzierung (Principal Component Analysis, PCA)
- Erste Modellierung mit ausgewähltem Klassifikator
- Überblick über Modellierungsalgorithmen
- Klassifizierung
- Clustering
- Regression
- Praxis: Auswertung der Performance verschiedener Algorithmen mit den
- Daten vom ersten Tag
- Deep Learning
- Auswertung der Metriken und welche Metrik für welche Probleme eingesetzt werden sollte
- Accuracy (Genauigkeit)
- ROC (Receiver-Operating-Characteristic-Kurve bzw.
- Grenzwertoptimierungskurve)
- AUC (Area under the curve)
- Precision
- Recall
- Confusion Matrix (Wahrheitsmatrix)
- Cross Validation (Kreuzvalidierungsverfahren)
- Feature Engineering
- Praxis: Mit Daten vom ersten Tag wählen wir die am besten geeignete Metrik für das Problem aus, suchen das am besten passende Model aus und nutzen Cross Validation für die finale Modellierung. Damit lässt sich die Frage beantworten, was die maximal-beste Performance des Modells ist, das erzielt werden konnte.
- Diskussion
- Einführung und Kontext
- Überblick Data Science, Data Analytics und Co.
- Chancen und Risiken der Data Science
- Tools für das interaktive Reporting
- Ergebniskommunikation und Reporting
- Tools zur Datenanalyse
- Extract, Transform, Load (ETL) mit KNIME
- Einführung in KNIME
- Datenimport von einfachen Formaten
- Datenprüfung
- Zusammenführen von Daten
- Datenbereinigung
- Datenformate
- Arbeitsdokumentation
- Workfloworganisation
- Weiterbearbeitung von Daten
- Datenvisualisierung
- Datenexport
- KNIME - Erweiterte Möglichkeiten und Anwendungen
- Datenimport aus Datenbanken lokal und remote
- Data Streaming
- Zeit- und Datumsformate
- Logik und Mathematische Operationen
- Grundlagen der Statistik
- Looping in KNIME
- Datenexport in lokalen und remote Datenbanken
- automatisierte Prozesse
- Emailversand
- Vorstellung weiterer Datatools
- Business Analysis & Reporting (BAR) mit Tableau
- Einführung in Tableau
- Datenimport in Tableau aus verschiedenen Quellen
- Datenvorbereitung
- Einführung in das Erstellen von Ansichten
- Datenauswahl
- Konzepte Datenaggregation und Datenhierarchie in Tableau
- Filtern nach Datendimensionen
- Quickinfos erstellen und nutzen
- Erstellen von Dashboards
- Tableau - Erweiterte Möglichkeiten und Anwendungen
- Arbeiten mit Ansichten
- Räumliche Darstellung
- Parametererstellung
- Erstellung von Sätzen
- Einführung und Nutzung von Trendlinien
- Datenexport
- Veröffentlichung von Reports
- Rechtemanagement
- Vorstellung weiterer interaktiver Reportingtools
- Data Science - Überblick
- Einführung in die Data Science und ihre Ursprünge
- Die Stufen der Analyse (nach Gartner)
- Grundkonzepte der Statistik
- Beschreibende Statistik und Dateneigenschaften
- Regression, Overfitting, TreeMethoden, Bagging und Boosting
- Methoden zur Klassifizierung
- Cross Correlation
- Unüberwachtes Lernen
- Weitere Tools der Data Science
- Informationssysteme und Kennzahlen
- Data-Warehouse-Systeme
- Relationale Datenmodelle
- Entity-Relationship-Modell
- Normalformen & Historisierung
- Dimensionale Datenmodelle
- Agile dimensionale Modellierung
- Star- und Snowflake-Schema
- Modellierung mit ADAPT
- Data-Vault-Datenmodelle
- Modellierung von Fachlogik
- NoSQL-Datenmodelle
- Einführung
- Kurzer Hintergrund zu Python und Anaconda
- Installieren von neuen Paketen
- Die Entwicklungsumgebung (IDE) Spyder
- Aspekte von Python, die anders als in anderen Programmiersprachen sind
- Datenstrukturen in Python
- Unterschied Funktionen vs. Methoden
- Datenstrukturen in Python (number, tuple, list, dictionary, string)
- Überblick und wichtige Methoden zu den Datenstrukturen
- Unterschied list vs. tuple
- Die Besonderheit des Wertes NaN
- Wann benutze ich welche Klammer [], (), {}?
- List comprehension
- Einführung in das Data Science Paket pandas
- Elemente eines pandas data.frame
- Eine Zeile ansprechen, hinzufügen, löschen und verändern
- Eine Spalte ansprechen, hinzufügen, löschen und verändern
- Boolean indexing
- Ein leeres data.frame erstellen
- Überblick über Methoden, ein data.frame anzupassen (Spaltennamen ändern, Werte ersetzen, ein data.frame sortieren, ein data.frame nach einer kategorischen Variable gruppieren, randomisiert Zeilen aus einem data.frame auswählen)
- Grundlegende Statistiken mit pandas
- Überblick über Statistiken, die ich mit einem data.frame berechnen kann (Anzahl an gültigen Beobachtungen, Summe, Mittelwert, Median, Minimum, Maximum, Varianz,...)
- Eine Kreuztabelle (Kontingenztafel) berechnen
- Fehlende Werte ergänzen
- Logische Operatoren
- Daten einlesen
- Das Arbeitsverzeichnis in Python setzen
- Ein CSV einlesen und schreiben und Überblick über die nützlichsten Parameter hierfür
- Python's pickle modul zum Speichern von Python Objekten
- Verschiedene Datentypen konvertieren (integer, unsigned integer, float, string)
- Visualisierung mit matplotlib und seaborn
- Die Hauptelemente beim Plotten mit matplotlib
- Einen Plot anpassen (x- und y-Achse ändern, Beschriftungen, Legende und Titel ändern) und speichern
- Auswahl von Farben
- Subplots erstellen
- Erstellen von Scatterplot, Linienplot, Barplot, (gruppiertes) Histogram, Boxplot
- Control Flows
- Die range() Funktion
- Eine eigene Funktion schreiben
- Default Parameter in einer Funktion setzen
- For Schleifen
- If-Else Bedingungen
- While Schleife
- Logische Vergleichsoperatoren
- Zuweisungsoperatoren
- Überblick über Machine Learning
- Was ist Machine Learning
- Die Einteilung von Algorithmen im Machine Learning (supervised Learning - unsupervised learning - reinforcement learning)
- Overfitting, Train-Test-Split und cross-validation (Kreuzvalidierung)
- Machine Learning Algorithmen (Theorie und Praxis)
- Einführung in den Algorithmus (Lineare Regression, Entscheidungsbaum, Logistische)
- Train-Test Split der Daten
- Umsetzung des Algorithmus in Python
- Validieren der Ergebnisse (u.a. confusion matrix, sensitivity, accuracy)
- Cross-validation (Kreuzvalidierung)
- Weitere Machine Learning Algorithmen in Python
- Erklärung von (SVM), Random Forest und K-means
- Umsetzung dieser Algorithmen in Python
- Validieren der Ergebnisse
- Cross-validation (Kreuzvalidierung)
- Daten ziehen und aufbereiten
- Dateien im Verzeichnis ansteuern
- Standardverfahren zum Lesen/Schreiben von Text- und CSV-Dateien
- SQL-Datenbanken ansteuern
- Arbeiten mit Datenmatrizen: Einführung in Numpy & Pandas
- Daten inspizieren und beschreiben
- Fehlende Werte behandeln
- Machine Learning Grundlagen
- Grundlagen, Varianten und Techniken des Machine Learnings.
- Arbeiten mit der Machine Learning Bibliothek scikit-learn.
- Einfache Zusammenhänge zwischen stetigen Variablen modellieren: Lineare Regression
- Klassifizieren mit Logistic Regression, Softmax und Support Vector Machine.
- Modellen evaluieren: Accuracy, Precision, Recall & Confusion matrix
- Unterteilen der Daten in Trainings- und Testdaten
- Feature-Extraction
- Kategoriale Daten vorbereiten: One-Hot Codierung
- Standardisierung von Daten
- Dimensionsreduktion mit PCA (Principle Component Analysis)
- Aufbereitung von Textdaten: Tokenizer und Bag-of-words.
- Machine Learning Workflow
- Daten aufarbeiten und zusammenführen (DataMapper)
- Pipelines einrichten
- Speichern und laden trainierter Klassifizierer
- Data-Warehouse-Architekturen
- Datenmodelle
- Data-Warehouse-Prozesse
- Reporting und Analyse
- Moderne Datenhaltungskonzepte
- Big-Data-Architekturen
- Data Lake und Big Data Warehouse
- Intelligente Agenten
- Struktur von Agenten, Agentenprogramm, Agentenfunktion
- Agenten-Grundtypen
- Modellbasierter Reflexagent
- Lernender Agent
- Maschinelles Lernen
- Lernformen: nicht überwachtes Lernen, verstärkendes Lernen, überwachtes Lernen
- Lernen aus Beispielen
- Trainingsmenge versus Testmenge
- Generalisierungsfähigkeit der gelernten Abbildung
- Problem der Überanpassung
- Neuronale Netze, Multi Layer Perceptrons
- Vom biologischen zum technischen Neuron
- Perceptron
- Nichtlineare Aktivierungsfunktionen
- Multi-Layer-Perceptrons (mehrschichtige neuronale Netze)
- Lernalgorithmus "Backpropagation of Error"
- Beispiele zu Regression und Klassifikation mit Multi Layer Perceptrons
- praktische Tipps
- deep learning
- Beispiele und Demos zu deep learning
- Neuronale Netze, Convolutional Neural Networks (CNN)
- Grundidee und Topologie CNN
- Beispiele und Demos zu Convolutional Neural Networks / Deep Learning
- Neuronale Netze, Recurrent Neural Networks (RNN, LSTM)
- Grundidee und Topologie RNN
- Lernalgorithmus "Backpropagation Through Time"
- Long Short-Term Memory Networks (LSTM)
- Beispiele und Demos zu RNN und LSTM
- Support-Vektor-Maschinen
- Grundidee und Unterschied zu Neuronalen Netzen
- Kernel-Trick zur Garantie der Linearen Separierbarkeit in höheren Dimensionen
- Beispiele und Demos zu Support Vector Machines
- Praktische Tipps
- Hinweise zu Tools, Internet-Quellen und Literatur
- Diskussion spezifischer Fragestellungen aus der beruflichen Praxis
- Intelligente Agenten
- Struktur von Agenten, Agentenprogramm, Agentenfunktion
- Agenten-Grundtypen
- Modellbasierter Reflexagent
- Lernender Agent
- Maschinelles Lernen
- Lernformen: nicht überwachtes Lernen, verstärkendes Lernen, überwachtes Lernen
- Lernen aus Beispielen
- Trainingsmenge versus Testmenge
- Generalisierungsfähigkeit der gelernten Abbildung
- Problem der Überanpassung
- Neuronale Netze, Multi Layer Perceptrons
- Vom biologischen zum technischen Neuron
- Perceptron
- Nichtlineare Aktivierungsfunktionen
- Multi-Layer-Perceptrons (mehrschichtige neuronale Netze)
- Lernalgorithmus "Backpropagation of Error"
- Beispiele zu Regression und Klassifikation mit Multi Layer Perceptrons
- praktische Tipps
- deep learning
- Beispiele und Demos zu deep learning
- Neuronale Netze, Convolutional Neural Networks (CNN)
- Grundidee und Topologie CNN
- Beispiele und Demos zu Convolutional Neural Networks / Deep Learning
- Neuronale Netze, Recurrent Neural Networks (RNN, LSTM)
- Grundidee und Topologie RNN
- Lernalgorithmus "Backpropagation Through Time"
- Long Short-Term Memory Networks (LSTM)
- Beispiele und Demos zu RNN und LSTM
- Support-Vektor-Maschinen
- Grundidee und Unterschied zu Neuronalen Netzen
- Kernel-Trick zur Garantie der Linearen Separierbarkeit in höheren Dimensionen
- Beispiele und Demos zu Support Vector Machines
- Praktische Tipps
- Hinweise zu Tools, Internet-Quellen und Literatur
- Diskussion spezifischer Fragestellungen aus der beruflichen Praxis
- Einführung, Überblick
- iPython und Jupyter
- JupyterHub
- nbconvert und nbviewer
- Kernels
- Notebooks erweitern
- Widgets
- nbextensions
- Dashboards
- Notebooks einbetten
- Praxis mit Jupyter
- Reproduzierbare Notebooks
- Parametrisierung
- Zeitplanung
- Refactoring
- Daten und Informationen
- Welchen Unterschied gibt es zwischen Daten und Informationen?
- Kontext und Codierung
- Sie lernen, wie aus Daten Zeichen und Symbole und dadurch Informationen werden und welche Rolle dabei Computer haben
- Dateiformate und Datenquellen
- In Gruppen lernen Sie unterschiedliche Daten- und Dateiformate kennen (Ton-Format, Text-Format, Bildformat) und welche Informationen daraus gewonnen werden können. Sie lernen den Unterschied zwischen strukturierten und unstrukturierten Daten
- Datenvisualisierung
- Nach einer kurzen Einführung in die Visualisierung können Sie verschiedene Visualisierungstypen (wie Balkendiagramme, Liniendiagramme) ausprobieren und lernen die Grundlagen, um den richtigen Typ auszuwählen.
- Big Data
- Big Data ist seit Jahren ein Hype. Sie lernen die Grundlagen von Big Data und die Anwendungsgebiete ohne Buzzword-Bingo.
- Daten abfragen
- SQL gilt seit jeher als die Standardsprache um Daten abzufragen. In einfachen Übungen lernen Sie die Grundzüge von SQL kennen.
- Wissen aus Daten generieren
- Mit Hilfe Algortihmen aus dem Bereich der Künstlicher Intelligenz können Informationen und selbständig Wissen aus Daten erstellt werden. Sie lernen in einfachen interaktiven Gruppenübungen ohne Programmierung ein paar dieser Algorithmen kennen.
- Daten in Unternehmen
- Welche Daten gibt es im Unternehmen und wie können Unternehmen von Daten profitieren?
- Karrieren im Datenumfeld
- Data Scientist, Data Enginer, Data Analyst etc.
- Machine Learning
- Viele Algorithmen, die im Bereich der Künstlichen Intelligenz eingesetzt werden stammen aus dem Bereich des maschinellen Lernens. In kleinen Gruppen befassen Sie sich mit einzelnen Kernelementen, ganz ohne die Mathematik.
- Deep Learning
- Neuronale Netzwerke und Deep Learning Algorithmen haben in den letzten Jahren zu einem großen Anstieg von KI-Projekten geführt. Wir sehen uns diese Algorithmen an und Sie lernen die Anwendungsgebiete und Grenzen kennen.
- Anwendungsgebiete
- Welche Projekte wurden mit Hilfe von KI durchgeführt? Wie hat KI Unternehmen beeinflusst? Welche Algorithmen verwenden Amazon, Facebook und Co? Sie lernen die verschiedensten Gebiete von Künstlicher Intelligenz kennen.
- KI - Grenzen
- Liest man aktuelle Zeitungsartikel scheint der Künstlichen Intelligenz keine Grenzen gesetzt werden. Wir werden mit verschiedenen Mythen aufräumen und Ansätze diskutierern.
- KI-Projekt
- Entwicklung eines KI-Projekts.
- Pandas im Überblick
- Datenaufbereitung
- Datenaggregation
- Datenvisualisierung
- Einführung in Pandas
- Aggregatfunktionen
- Zeitreihen
- Geodaten
- Best Practices
- Daten und Informationen
- Welchen Unterschied gibt es zwischen Daten und Informationen?
- Kontext und Codierung
- Sie lernen, wie aus Daten Zeichen und Symbole und dadurch Informationen werden und welche Rolle dabei Computer haben
- Dateiformate und Datenquellen
- In Gruppen lernen Sie unterschiedliche Daten- und Dateiformate kennen (Ton-Format, Text-Format, Bildformat) und welche Informationen daraus gewonnen werden können. Sie lernen den Unterschied zwischen strukturierten und unstrukturierten Daten.
- Datenvisualisierung
- Nach einer kurzen Einführung in die Visualisierung können Sie verschiedene Visualisierungstypen (wie Balkendiagramme, Liniendiagramme) ausprobieren und lernen die Grundlagen, um den richtigen Typ auszuwählen.
- Machine Learning
- Viele Algorithmen, die im Bereich der Künstlichen Intelligenz eingesetzt werden stammen aus dem Bereich des maschinellen Lernens. In kleinen Gruppen befassen Sie sich mit einzelnen Kernelementen, ganz ohne die Mathematik.
- Deep Learning
- Neuronale Netzwerke und Deep Learning Algorithmen haben in den letzten Jahren zu einem großen Anstieg von KI-Projekten geführt. Wir sehen uns diese Algorithmen an und Sie lernen die Anwendungsgebiete und Grenzen kennen.
- Anwendungsgebiete
- Welche Projekte wurden mit Hilfe von KI durchgeführt? Wie hat KI Unternehmen beeinflusst? Welche Algorithmen verwenden Amazon, Facebook und Co? Sie lernen die verschiedensten Gebiete von Künstlicher Intelligenz kennen.
- KI - Grenzen
- Liest man aktuelle Zeitungsartikel scheint der Künstlichen Intelligenz keine Grenzen gesetzt werden. Wir werden mit verschiedenen Mythen aufräumen und Ansätze diskutierern.
- KI-Projekt
- Entwicklung eines KI-Projekts.
Inhalt
- Einsatz von maschinellem Lernen für Geschäftszwecke
- Churn Prediction
- Prevention
- Ad Click Predictions
- Recommender Systems
- Image Recognition
- Fraud and Risk Detection
- Dynamic Pricing Calculations
- Sports Analytics
- Engagement Increase
- Predictive Demand
- Neue Kreditvergabemodelle
- Von wirtschaftlichen Fragestellungen zum Model
- Praxis: Arbeit mit Daten
- Datensäuberung
- Behandlung fehlender Werte
- Ausreißer
- Verteilungen
- Datentransformation
- Selektion von Merkmalen
- Dimensionsreduzierung (Principal Component Analysis, PCA)
- Erste Modellierung mit ausgewähltem Klassifikator
- Überblick über Modellierungsalgorithmen
- Klassifizierung
- Clustering
- Regression
- Praxis: Auswertung der Performance verschiedener Algorithmen mit den
- Daten vom ersten Tag
- Deep Learning
- Auswertung der Metriken und welche Metrik für welche Probleme eingesetzt werden sollte
- Accuracy (Genauigkeit)
- ROC (Receiver-Operating-Characteristic-Kurve bzw.
- Grenzwertoptimierungskurve)
- AUC (Area under the curve)
- Precision
- Recall
- Confusion Matrix (Wahrheitsmatrix)
- Cross Validation (Kreuzvalidierungsverfahren)
- Feature Engineering
- Praxis: Mit Daten vom ersten Tag wählen wir die am besten geeignete Metrik für das Problem aus, suchen das am besten passende Model aus und nutzen Cross Validation für die finale Modellierung. Damit lässt sich die Frage beantworten, was die maximal-beste Performance des Modells ist, das erzielt werden konnte.
- Diskussion
- Einführung
- Kurzer Hintergrund zu Python und Anaconda
- Installieren von neuen Paketen
- Die Entwicklungsumgebung (IDE) Spyder
- Aspekte von Python, die anders als in anderen Programmiersprachen sind
- Datenstrukturen in Python
- Unterschied Funktionen vs. Methoden
- Datenstrukturen in Python (number, tuple, list, dictionary, string)
- Überblick und wichtige Methoden zu den Datenstrukturen
- Unterschied list vs. tuple
- Die Besonderheit des Wertes NaN
- Wann benutze ich welche Klammer [], (), {}?
- List comprehension
- Einführung in das Data Science Paket pandas
- Elemente eines pandas data.frame
- Eine Zeile ansprechen, hinzufügen, löschen und verändern
- Eine Spalte ansprechen, hinzufügen, löschen und verändern
- Boolean indexing
- Ein leeres data.frame erstellen
- Überblick über Methoden, ein data.frame anzupassen (Spaltennamen ändern, Werte ersetzen, ein data.frame sortieren, ein data.frame nach einer kategorischen Variable gruppieren, randomisiert Zeilen aus einem data.frame auswählen)
- Grundlegende Statistiken mit pandas
- Überblick über Statistiken, die ich mit einem data.frame berechnen kann (Anzahl an gültigen Beobachtungen, Summe, Mittelwert, Median, Minimum, Maximum, Varianz,...)
- Eine Kreuztabelle (Kontingenztafel) berechnen
- Fehlende Werte ergänzen
- Logische Operatoren
- Daten einlesen
- Das Arbeitsverzeichnis in Python setzen
- Ein CSV einlesen und schreiben und Überblick über die nützlichsten Parameter hierfür
- Python's pickle modul zum Speichern von Python Objekten
- Verschiedene Datentypen konvertieren (integer, unsigned integer, float, string)
- Visualisierung mit matplotlib und seaborn
- Die Hauptelemente beim Plotten mit matplotlib
- Einen Plot anpassen (x- und y-Achse ändern, Beschriftungen, Legende und Titel ändern) und speichern
- Auswahl von Farben
- Subplots erstellen
- Erstellen von Scatterplot, Linienplot, Barplot, (gruppiertes) Histogram, Boxplot
- Control Flows
- Die range() Funktion
- Eine eigene Funktion schreiben
- Default Parameter in einer Funktion setzen
- For Schleifen
- If-Else Bedingungen
- While Schleife
- Logische Vergleichsoperatoren
- Zuweisungsoperatoren
- Überblick über Machine Learning
- Was ist Machine Learning
- Die Einteilung von Algorithmen im Machine Learning (supervised Learning - unsupervised learning - reinforcement learning)
- Overfitting, Train-Test-Split und cross-validation (Kreuzvalidierung)
- Machine Learning Algorithmen (Theorie und Praxis)
- Einführung in den Algorithmus (Lineare Regression, Entscheidungsbaum, Logistische)
- Train-Test Split der Daten
- Umsetzung des Algorithmus in Python
- Validieren der Ergebnisse (u.a. confusion matrix, sensitivity, accuracy)
- Cross-validation (Kreuzvalidierung)
- Weitere Machine Learning Algorithmen in Python
- Erklärung von (SVM), Random Forest und K-means
- Umsetzung dieser Algorithmen in Python
- Validieren der Ergebnisse
- Cross-validation (Kreuzvalidierung)
- Data-Warehouse-Architekturen
- Datenmodelle
- Data-Warehouse-Prozesse
- Reporting und Analyse
- Moderne Datenhaltungskonzepte
- Big-Data-Architekturen
- Data Lake und Big Data Warehouse
- Einführung
- Kurzer Hintergrund zu Python und Anaconda
- Installieren von neuen Paketen
- Die Entwicklungsumgebung (IDE) Spyder
- Aspekte von Python, die anders als in anderen Programmiersprachen sind
- Datenstrukturen in Python
- Unterschied Funktionen vs. Methoden
- Datenstrukturen in Python (number, tuple, list, dictionary, string)
- Überblick und wichtige Methoden zu den Datenstrukturen
- Unterschied list vs. tuple
- Die Besonderheit des Wertes NaN
- Wann benutze ich welche Klammer [], (), {}?
- List comprehension
- Einführung in das Data Science Paket pandas
- Elemente eines pandas data.frame
- Eine Zeile ansprechen, hinzufügen, löschen und verändern
- Eine Spalte ansprechen, hinzufügen, löschen und verändern
- Boolean indexing
- Ein leeres data.frame erstellen
- Überblick über Methoden, ein data.frame anzupassen (Spaltennamen ändern, Werte ersetzen, ein data.frame sortieren, ein data.frame nach einer kategorischen Variable gruppieren, randomisiert Zeilen aus einem data.frame auswählen)
- Grundlegende Statistiken mit pandas
- Überblick über Statistiken, die ich mit einem data.frame berechnen kann (Anzahl an gültigen Beobachtungen, Summe, Mittelwert, Median, Minimum, Maximum, Varianz,...)
- Eine Kreuztabelle (Kontingenztafel) berechnen
- Fehlende Werte ergänzen
- Logische Operatoren
- Daten einlesen
- Das Arbeitsverzeichnis in Python setzen
- Ein CSV einlesen und schreiben und Überblick über die nützlichsten Parameter hierfür
- Python's pickle modul zum Speichern von Python Objekten
- Verschiedene Datentypen konvertieren (integer, unsigned integer, float, string)
- Visualisierung mit matplotlib und seaborn
- Die Hauptelemente beim Plotten mit matplotlib
- Einen Plot anpassen (x- und y-Achse ändern, Beschriftungen, Legende und Titel ändern) und speichern
- Auswahl von Farben
- Subplots erstellen
- Erstellen von Scatterplot, Linienplot, Barplot, (gruppiertes) Histogram, Boxplot
- Control Flows
- Die range() Funktion
- Eine eigene Funktion schreiben
- Default Parameter in einer Funktion setzen
- For Schleifen
- If-Else Bedingungen
- While Schleife
- Logische Vergleichsoperatoren
- Zuweisungsoperatoren
- Überblick über Machine Learning
- Was ist Machine Learning
- Die Einteilung von Algorithmen im Machine Learning (supervised Learning - unsupervised learning - reinforcement learning)
- Overfitting, Train-Test-Split und cross-validation (Kreuzvalidierung)
- Machine Learning Algorithmen (Theorie und Praxis)
- Einführung in den Algorithmus (Lineare Regression, Entscheidungsbaum, Logistische)
- Train-Test Split der Daten
- Umsetzung des Algorithmus in Python
- Validieren der Ergebnisse (u.a. confusion matrix, sensitivity, accuracy)
- Cross-validation (Kreuzvalidierung)
- Weitere Machine Learning Algorithmen in Python
- Erklärung von (SVM), Random Forest und K-means
- Umsetzung dieser Algorithmen in Python
- Validieren der Ergebnisse
- Cross-validation (Kreuzvalidierung)
- Einführung und Einbindung von Data Science in einen betriebswirtschaftlichen Rahmen
- Vorgehensmodelle und Zieldefinitionen für Data-Science-Projekte
- Data-Science-Methoden (insbesondere Machine Learning) und Werkzeuge
- Praktische Umsetzung eines Data-Science- Prozesses in einem Tool
- Tipps, Tricks und Kniffe für ein gutes Data-Science-Produkt
Die Data Science Business Akademie ist eine Initiative des Instituts für Angewandte Informatik der Knowledge Foundation @ Reutlingen University und der GFU Cyrus AG mit dem Ziel, Unternehmen in ihrem Bestreben der Weiterbildung im Bereich Predictive Analytics, Artificial Intelligence und Big Data zu bündeln und qualitativ auszubauen.
Dabei bieten wir Ihnen eine langfristige, vertrauensvolle und partnerschaftliche Zusammenarbeit.
Unsere Referenten
Über 20 Referenten, Dozenten und Trainer sind für die Data Science Business Akademie tätig.
Sie alle verfügen über einen umfangreichen Erfahrungshorizont, methodische Kompetenz und langjährige Praxiserfahrung in ihrem jeweiligen Fachgebiet. Ein Auszug:

Dr. Thomas Wörmann
Artificial Intelligence und Business Analytics

Dr. Thorben Jensen
Business Analytics und Data Science

Dr. Michael Hoschek
Machine Learning und Business Analytics

Tobias Rippel
Machine Learning und Prognosemodelle

Ulrich Zellbeck
Data Science, Machine Learning, Data Warehouse, Big Data, Business Intelligence

Prof. Dr. Heike Trautmann
Data Science, Social Media Analytics

Dr. Pascal Kerschke
Machine Learning und Data Science

Dr. Mike Preuß
Data Science und Machine Learning

Dr. Thomas Frontzek
Statistische Analysen und Neuronale Netze

Jan Mathias Köhler
Data Science, Data Mining, Deep Learning
IHRE VORTEILE MIT DER DATA SCIENCE BUSINESS AKADEMIE
Die Data Science Business Akademie bietet eine Auswahl von mehr als zwanzig „Hands-on“-Workshops auf drei verschiedenen Niveaus. Vom Einsteiger zum Experten. Das modulare System lässt eine flexible Themen- und Terminwahl zu und bleibt dabei jederzeit praxisnah.
Anwendungsorientiert
Die Data Science Business Akademie verbindet theoretische Grundlagen mit wirtschaftlichen Fragestellungen und anwendungsorientierten Projekten.
Praxisnah
Die Referenten der Data Science Business Akademie vermitteln ihr Fachwissen in praktischen, direkt anwendbaren Übungen.
Ausführlich
Die Data Science Business Akademie vermittelt fachkundige Einblicke und ist dabei ausführlicher als vergleichbare Angebote.
Unterlagen und Technik sehr gut. Erwartungen mehr als erfüllt. Qualität bestens!
Horst K.
Gute Kombination aus Theorie und Anwendung. Meiner Erwartungen an Data Science und R wurden erfüllt.
(ohne Angabe)
Die Kombination von perfekt organisierter Schulung mit sehr interessantem Themenbereich ist unschlagbar.
Sabine B.
Gute Strukturierung, Angeregte Diskussionen zum Thema, fachlich gute Erläuterungen und Beispiele
Thomas R.
Hat sich echt gelohnt
Heike Thomas,
TUI InfoTec GmbH
Die Schulung hat Spaß gemacht, war anschaulich und vor allem wegen des großen Praxisanteils sehr hilfreich
Andreas Ochs
Rundum top
Stephan Frenzel,
Kybeidos GmbH
Sehr professionelle Schulung, immer wieder gerne.

Stefanie de Buhr,
Erste Abwicklungsanstalt
Unser Standort

Data Science Seminare in Köln
Sie können alle Seminare der Data Science Business Akademie als Präsenz-Seminar oder Online-Seminar buchen. Die Präsenz-Seminare am Standort Köln finden in ausgesprochen netter und persönlicher Atmosphäre in den Räumen der GFU statt – zentral gelegen und äußerst verkehrsgünstig. Das erleichtert die Anreise und erhöht so die Nettoseminarzeit erheblich.
Unsere Partner
Zwei starke Partner bilden das Fundament für die Data Science Business Akademie: sie garantieren praxisnahes Lernen, berufsbegleitende Weiterbildung und ein professionelles Weiterbildungsmanagement.
Das Institut für Angewandte Informatik (IAI) gehört zur Knowledge Foundation @ Reutlingen University. Die Professoren sind renommierte Wissenschaftler mit langjähriger Erfahrung.
Die GFU ist mit mehr als 1.350 Seminarthemen, 100 Dozenten Ihr Partner für IT in der D-A-CH-Region. Die GFU übernimmt das Weiterbildungsmanagement und die Durchführung der Seminare.
Köln
Am Grauen Stein 27
51105 Köln
Telefon +49 221 828090
E-Mail info@gfu.net