Data Science

Überraschend. Solide. Individuell.

MACHINE LEARNING, KÜNSTLICHE INTELLIGENZ, AI?

Ohne is' wie kalter Kaffee

Data Science ist vergleichbar mit gutem Espresso: eine Wissenschaft für sich, bei der Mahlgrad, Temperatur, Sortenauswahl & Co. fein aufeinander abgestimmt werden müssen. Achtung, Spoiler: Wenn Sie das einmal richtig justieren, dann wollen Sie nicht mehr ohne!

Bei elbformat verstehen wir Data Science als Teil unseres Gesamtpaketes. Ob dabei tatsächlich Machine Learning, speziell Deep Learning, klassische Statistik oder Transformationen wie Natural Language Processing, Voice Recognition, Computer Vision und ähnliche Methoden vorkommen, hängt vom Projekt ab. Wir verfolgen das Ziel, dass sich unsere Lösung unsichtbar in Ihre Prozesse integriert. 

Besser entscheiden

Data Science heißt Wissen.

Data liefert auf jeder Geschäftsebene wertvolle Informationen. Ob Einzelentscheidung oder Alltagsgeschäft: gemeinsam identifizieren wir, welche Analysen für Sie im Hinblick auf Automatisierung und Entscheidungsfindung sinnvoll sind. Data Science ermöglicht völlig neue Einsichten, die Ihr Business produktiver und gleichzeitig operativ angenehmer gestalten.

Gemäß Ihrer Bedürfnisse entscheiden wir, ob effiziente Mittel der klassischen Statistik, Machine Learning Skills oder ganze Data Science Pipelines zum gewünschten Erfolg führen. Dabei haben wir im Blick, welcher Weg spezifisch die schnellste, passendste und beste Lösung für Sie darstellt.

Wertschöpfung
durch Data Mining.

Wie fügt sich Data Science ein?

Teil eines Ganzen

Data Science wird oft als disruptive Technologie gehyped, dabei gerät ganz wesentlich aus dem Blick, dass Data alle klassischen Entwicklungsaufgaben berühren und verbessern kann. Wir verstehen Data Science als Teil unseres Technologie-Angebots, gleichberechtigt, und im Zusammenspiel mit Disziplinen wie UX Design, Frontend- und Backendentwicklung oder auch redaktioneller Arbeit.

"You can have data without information, but you cannot have information without data."

 Daniel Keys Moran

Data ist strategisch

Den Plan haben

Für Problemlösungen, die Klärung tiefgreifender Entscheidungsfragen und das Entdecken von Innovationspotenzialen liefert Data zahlreichen strategischen Input, den wir visuell und verständlich aufbereiten. Wir erfinden dabei nicht das Rad neu, sondern befragen die Daten nach dem individuell besten Vorgehen und Tempo.  

Gerne liefern wir Ihnen Tools, mit denen Sie eigenständig tätig werden können. Die Identifikation ihrer wichtigsten Kund:innen, eine automatisierte Priorisierung sowie Umsatz- und Gewinnvorhersagen können beispielsweise Ihre ersten wirksamen Schritte auf dem Weg zu einer großen Data-Vision sein.

Gute Fragen liefern die Grundlage für klare Ziele und wertvolle Antworten:

  • Navigationsanalyse

    • Welche Themen decken wir ab?
    • Welche Themencluster haben wir?
    • Welche Themen interessieren die Nutzer:innen?
    • Welche Themen interessieren Nutzer:innen und brauchen mehr Content?


    Ist der redaktionelle Inhalt über Jahre gewachsen und von verschiedenen Redakteur:innen gepflegt worden, kann eine Analyse des Contents latentes Wissen in den Daten sichtbar machen.

  • Optimierung von Marketingbudget

    • Welche Verteilung von Marketing Budget ist effizient für uns?
    • Kommen unsere besten Nutzer:innen von Google, Facebook, oder aus anderen Quellen?
    • Können wir den Umsatz geworbener Nutzer:innen gegen die Marketingkosten rechnen?
    • Was sind die optimalen Marketingkosten und damit Nutzer:innenvolumen pro Quelle?


    Adaptive Marketing-Budgets erlauben Unternehmen, Umsatz- und damit Gewinnmaximierung auf die Qualität der Marketingkanäle anzupassen.

     

  • Automatische Verschlagwortung

    • Welche Schlagworte grenzen unsere Texte am klarsten ab?
    • Welche Worte sind selten, aber häufig genug in unseren Daten, dass sie beschreibend für einen ganzen Artikel stehen können?
    • Welche Struktur haben unsere Schlagworte insgesamt? Gibt es klar abgegrenzte Gruppen oder fließende Themenübergänge?
    • Gibt es typische Wege der Nutzer:innen durch die Schlagworte? Lässt sich das nutzen?


    Eine größere Contentsammlung von Artikeln wie eine Knowledge Base, Firmen-Wiki, Sammlungen wissenschaftlicher Artikel oder ein Katalog mit ausführlichen Produktbeschreibung lässt sich Menschen-verstehbar machen, wenn signifikante Schlagworte datengetrieben definiert werden.

     

  • Funneloptimierung

    • Wie laufen User durch unser Produkt? Geht das angenehmer?
    • Haben wir Content, der Besucher:innen signifikant zum Kauf oder einer Registrierung ermutigt?
    • Haben wir Wege durch den Content, die Besucher:innen von uns abschrecken?
    • Welche Wege durch den Content sollten wir verkürzen?


    Hat die Seite ein rein funktionales Nutzer:innentracking, können wir Übergänge von einer Seite zur nächsten beobachten, und dabei DSGVO-konform bleiben. Mit transparenten statistischen Methoden lassen sich die besten Wege durch ihr Produkt den Nutzer:innen angenehm gestalten. Hierbei ist die Bewertung als "bester Weg" nur von Ihrem speziellen Nutzen abhängig.  

     

  • Zielgruppensegmentierung

    • Welche Gruppen von Nutzer:innen haben wir?
    • Welche verschiedenen Motivationen haben die Nutzer:innengruppen?
    • Gibt es einfach zu gewinnende Nutzer:innen?
    • Gibt es wertvolle Nutzer:innen, die viel Aufwand rechtfertigen?
    • Spricht unser Shop Gelegenheitskäufer:innen, Schnäppchenjäger:innen und überzeugte Kund:innen verschieden an?

     

    Interessieren sich für unsere Seite einerseits Menschen, die die Seite als ausführliche Referenz verstehen, und andere, die sie wie ein Buch tief lesen? Gibt es Kund:innencluster, die mehr Wert für uns haben als andere?

     

  • Individualisierte Empfehlungen

    • Wie können wir Nutzer:innen individuelle Vorschläge machen?
    • Gegeben die Käufe der anderen Nutzer:innen, können wir dieser Nutzerin passendere Produkte anbieten?
    • Gegeben dieselben Produkte, will diese Nutzerin andere Bilder sehen als dieser Nutzer?
    • Sehen wir einen Drift? Brauchen wir geschicktere Vorschläge, besseres Marketing, bessere Produkte?


    Ein prominenter Data Erfolg der letzten Jahrzehnte sind Empfehlungssysteme, sogenannte Recommendation Engines. Das kann bedeuten, für Nutzer:innen die "Das könnte Sie auch interessieren..." Artikel statistisch filigran anzupassen, das Produktbild auf die Nutzerin zu optimieren, oder die Verkaufswahrscheinlichkeit und erwarteten Umsatz pro Kundin passend abzumessen.

     

  • Produktsegmente

    • Gibt es für uns geschicktere Produktgruppen als Warentyp? 
    • Welche Produkte werden oft zusammen gekauft?
    • Sehen wir verschiedene Produkttypen, die getrennte Werbetypen brauchen?
    • Welche Produkte sollten wir Neukund:innen vorschlagen?


    Abhängig von den vorliegenden Daten, sei es ein Produktkatalog mit Beschreibungstexten, sehr vielen Messdaten, oder anders die Wege der Nutzer:innen durch den Produktkatalog, lassen sich auf vielen Wegen Produktgruppen bilden, die spezifisch für Ihr Geschäft passen.

     

Gewusst wie

Potenziale entdecken und heben

Die Welt ist voller Daten und Analyse-Methoden. Vielleicht liegen bei Ihnen einfach Daten rum, und niemand hat Zeit, sie anzusehen. Unserer Erfahrung nach lohnt sich ein blick, denn manchmal verbergen sich wahre Schätze in Ihren Datenbergen. 

Gerne sprechen wir mit Ihnen über Ihre individuelle Herausforderung, vereinfachen sie mathematisch und schaffen gemeinsam Klarheit, damit Ihnen mehr Zeit für die wichtigen Dinge und Ihre Kernexpertise bleibt.

 

Unsere Data Science Expert:innen

DR. MARC LANGE

Marc hat breites Data-Erfahrungswissen aus seiner Startup-Biographie und soliden mathematischen Hintergrund durch seine Forschungsarbeit für den Doktor. Zusammen mit dem nötigen empathischen Geschick als Lehrender, Vortragender und interdisziplinärer Kollege kann Marc mit seiner Innovationskraft vor Ideen übersprudeln. Mit seinen Strukturskills plant und vermittelt er damit kompetent ad hoc Analysen, Masterarbeiten und Business-Data-Projekte gleichermaßen souverän. > Xing  > LinkedIn

Damit arbeiten wir

Ein kleiner Exkurs für die Techies unter uns...

Modelle und Methoden
(Lineare / Logistische) Regression, Klassifikation, Visualisierung, Dimensionsreduktion, Clustering, Topologische Datenanalyse (TDA), Support Vector Machines (SVM), Entscheidungsbäume, Random Forest, Ensemble Learning, xgboost / Gradient Boosted Trees, (Artificial neural nets = ANN) Neuronale Netze, Faltungsnetze (CNN = convolutional neural nets), Rekurrente Neuronale Netze (RNN), Transformer, Generative Adversarial Networks (GANs), Recommendation Engines, Microservices
Software im Einsatz
Python, R, Excel, Spark, Scala, Hadoop, sklearn, java smile, Zeppelin Notebooks, Jupyter Notebooks, Pandas, Numpy, Matplotlib, Seaborn, Dash, Flask, Docker, AutoML, AWS Sagemaker, Matlab / Octave, SQL, MySQL, PostgreSQL, SQLite, AWS Redshift, Google BigQuery, ElasticSearch, Solr, Lucene, MongoDB, GraphQL, neo4j, ..