Auf dieser Seite

Digitale Architektur & Infrastruktur Data Engineering BI & Data Analytics Machine Learning & K.I.

Data und Analytics

Data Science ist eine Frage der Perspektive – wir haben sie.

Digitale Architektur und Infrastruktur

Automatisierung von Anfang an mitdenken

Um relevante Daten zu erzeugen, ist eine moderne digitale Infrastruktur empfehlenswert. So können Sie die für Ihren Geschäftserfolg wichtigen Analysen automatisieren und müssen nicht in regelmäßigen Abständen das Rad neu erfinden. Learnings können so mit geringem Aufwand routiniert ergänzt werden, um zu immer exakteren Ergebnissen zu gelangen. 

Kurzum: 
Nutzen Sie Ihren Wettbewerbsvorteil, befragen Sie Ihre Daten.

  • Kostenlose Erstberatung

    Gerne beraten wir Sie individuell in einem kostenlosen Erstgespräch.

  • Welche meiner Daten kann ich nutzen?

    Das hängt natürlich stark vom Anwendungsfall ab – grundsätzlich kann man Daten in zwei Gruppen aufteilen: Unser Ziel und die Beobachtungen. Das Ziel kann beispielsweise der Umsatz sein, die Beobachtungen sind dann alle anderen Daten, die mit dem Umsatz im Zusammenhang stehen bzw. ihn beeinflussen könnten. Ein guter Data Scientist erkennt die relevanten Variablen in Ihren Daten und hilft Ihnen, Mehrwert daraus zu ziehen.

  • Bin ich technisch auf dem besten Stand?

    Der beste Stand ist relativ. Auch State-of-the-Art Methoden scheitern kläglich, wenn sie im falschen Kontext angewandt werden. Ziel ist es nicht, die besten Methoden, sondern die für Ihr Problem individuell passendsten zu verwenden. Unsere Data Scientists können dabei helfen, Ihre Software, Hardware und Personal auf den technisch passendsten Stand zu bringen.

  • Welche Vorteile hat ein digitales Portal?

    Mit Self-Service B2B Portalen liefern Sie Distributoren, Resellern, Lieferanten, Partnern und Kunden die Möglichkeit zur Selbstorganisation. Sie verringern den Arbeitsaufwand signifikant und füttern Ihren Datenpool für Auswertungen und Optimierungen. Heutzutage müssen Sie nicht raten, was Ihre Zielgruppe anspricht – Sie können es messen, auswerten und Ihre Ansprache fokussieren. Die Nutzer des Portals können somit unabhängig agieren, beispielsweise Bestellungen eigenständig ausüben. Kurzum: Durch die Optimierung Ihres automatisierten Portals können Sie die gewonnene Zeit für den nachhaltigen Erfolg Ihres Kerngeschäftes einsetzen. 

Läuft.

Durch das Nutzen von Daten

Data Engineering

Ein solides Fundament schaffen

Meist liegen Daten in einer unstrukturierten Form vor und stammen aus vielen verschiedenen Quellen. Für Analysezwecke müssen sie unter Berücksichtigung von Datensicherheit und Datenschutz aufbereitet und zusammengeführt werden. Ist die Struktur geschaffen, kann die Arbeit mit Big Data erst so richtig losgehen.

  • Wozu benötige ich ETL-Prozesse?

    Die Implementierung von ETL-Prozessen ist immer dann empfehlenswert, wenn Sie Zugriff auf Daten aus verschiedenen Quellen benötigen. Meist sind digitale Landschaften nach und nach gewachsen. Um fundierte Entscheidungen treffen zu können, benötigen Sie Informationen aus allen relevanten Datenquellen. Gerne unterstützen wir Sie darin zu definieren, welche Daten entscheidend sind um den besten Überblick über Ihr Geschäft zu gewinnen. 

  • Kann ich meine Daten auch selbst strukturieren?

    Aufgrund der Komplexität von Daten und -quellen ist es empfehlenswert, zumindest zu Beginn, die Beratung eine/r Expert*in in Anspruch zu nehmen. Unser Team verfügt über einen ausgiebigen Erfahrungsschatz in diesem Bereich und weiß, worauf es zu achten gilt und welche Kniffe den langfristigen Erfolg sichern. Haben wir einige Prozesse für Sie eingerichtet, so stehen Ihnen die Ergebnisse selbstverständlich auch im Anschluss unserer Arbeit zur Verfügung.

  • Wie komme ich an automatische Auswertungen heran?

    Die Faustregel ist: Je statischer ein Prozess, desto leichter kann man diesen automatisieren. Soll beispielsweise ein Wöchentlicher Newsletter mit den aktuellen Unternehmenskennzahlen veröffentlicht werden, ist der Prozess wöchentlich identisch: Die Kennzahlen laden, auswerten, visualisieren und anschließend verschicken. Dieser Prozess kann als Pipeline aufgesetzt und vollkommen automatisiert werden. Natürlich ist dies auch für andere Abfolgen möglich – sprechen Sie uns einfach an.

  • Was ist ein Data Warehouse & wozu brauche ich es?

    Ein Data Warehouse ist im Grunde vergleichbar mit einem Knotenpunkt, der Daten aus verschiedenen Quellen extrahiert, sammelt, sichert und an nachgelagerte Systeme weiterleitet. Simpel gesagt, macht ein Data Warehouse Ihre Daten für alle nachfolgenden Prozesse einfach abrufbar. Mithilfe dieser Datenverwaltung können Analysen und Auswertungen erstellt werden, die Aufschluss über unterschiedlichste Geschäftsbereiche geben.

talend, Apache Airflow, Keboola, Stitch & Co.

Ob AWS, Google oder Azure... wir entscheiden gemeinsam, welche Rahmenbedingungen für Ihr Data Warehouse sinnvoll sind.

Cloud & Pipelines
Ad hoc Anfragen & geplante Berichte

Um Trends zu bestimmen und Entscheidungsgrundlagen zu liefern ist ein Data Warehouse mit relevanten und korrekten Daten wichtig. Wir clustern Ihre Informationen so, dass Sie solide planen können.

Data Warehouse

Business Intelligence und Data Analytics

Reports, Dashboards, Plotgrafiken

Durch die Visualisierung von Daten werden Entscheidungswege offensichtlich und überprüfbar. Sie erhalten eine Übersicht zu relevanten KPIs und können die Ergebnisse nutzen um Ihre Kund*innenzufriedenheit zu erhöhen sowie die Selbstwirksamkeit des eigenen Teams stärken.

  • Ich nutze bereits ein anderes BI-Tool. Und nun?

    Viele Wege führen nach Rom. Am Ende des Tages hat jedes BI-Tool seine Vorzüge gegenüber den anderen. Es geht darum, die Anforderungen des Unternehmens ohne Kompromisse abzudecken und dabei ein angemessenes Kosten-Nutzen Verhältnis zu schaffen. Gerne beraten wir Sie dazu, mit welchem BI-Tool sie den größten Mehrwert für Ihr Unternehmen schaffen können oder zeigen Ihnen ein paar Kniffe für Ihr aktuelles Tool.

  • Woher weiß ich, ob meine Ergebnisse richtig sind?

    Arbeit mit Daten ist hochkomplex. Faktisch sind Daten nie falsch, aber manchmal beantworten Sie eine andere Frage als wir gestellt haben. Um sicherzugehen, dass unsere Ergebnisse abbilden, was wir wissen wollten, braucht es Experten. Data Scientists kennen die üblichen Fallen, in die man laufen kann und umgehen Sie mit ihrem Fachwissen in Statistik.

    ALTERNATIV:
    Es gibt zahlreiche Fallen und Fehler, in die man bei der Arbeit mit Daten tappen kann. Misst man wirklich das, was man messen möchte? Sind die Daten, auf denen wir unsere Prognosen aufbauen, korrekt? Solche Fragen kann eigentlich nur ein Data Scientist beantworten. Das tiefgehende Verständnis für Statistik, Computer Science und Branchenwissen sind nötig, um einen Analyseprozess zu überprüfen.

  • Ist Visualisierung nicht einfach nur Spielkram?

    In manchen Fällen sicherlich, in vielen anderen nicht. Visualisierungen erfüllen mehrere Zwecke: Sie können uns Dinge zeigen, die wir in rohen Zahlen nicht erkannt hätten. Häufig stechen Muster und Besonderheiten erst hervor, wenn sie visualisiert werden. Zum anderen ist die visuelle Aufnahme von Daten viel schneller. Wollen Sie Ihre Daten schnell und prägnant darstellen, sind Visualisierungen unverzichtbar.

  • Kann ich den ROI eines BI-Tool Einsatzes messen?

    Teilweise ja. Prinzipiell kann man die Auswirkung auf eine bestimmte Kennzahl messen. Beispielsweise "Wie sehr ist unser Umsatz durch die Einführung eines BI-Tools gestiegen?". Es kann jedoch auch sein, dass manche subtile Effekte sich darin nicht widerspiegeln. Zum Beispiel der Anstieg in der Laune des Praktikanten, der bislang immer die Excel-Grafiken anfertigen musste.

Ein Schwerpunkt bei uns

Im Finanzsektor kennen wir uns aus. Sei es mit der Arbeit auf alten Systemen, der Migration und Weiterentwicklung von Services oder Finanzinnovationen.

Finance & Fintech

Machine Learning und K.I.

alles Data Science?

Machine Learning untersucht in bestimmten Turnussen riesige Datenmengen und zeigt Muster und Gesetzmäßigkeiten auf. Durch diesen iterativen Prozess lernt das Programm und generiert künstliches Wissen, mit dem Lösungen, Vorhersagen und Entscheidungswege entstehen. Dieser Teil des Data Science Prozesses ist der kreativste mit dem größten Erkenntnispotential.

  • Macht KI für unser Unternehmen Sinn?

    Das hängt vom individuellen Fall ab. Für einen kleinen Kiosk eher weniger, für datengetriebene Unternehmen definitiv. Überall wo viele oder komplexe Daten entstehen, kann KI helfen, Muster in diesen Daten zu erkennen und somit bessere Prognosen oder Rückschlüsse zu treffen.

  • Ist das ganze Thema nicht eher ein Hype?

    Ja und nein. Für den Begriff der Künstlichen Intelligenz gibt es derzeit noch keine gängige und eindeutige Definition, dafür allerdings einige Mutmaßungen, Erwartungen und Ideen, was sich dahinter verbergen könnte. Wir sprechen bei elbformat lieber von Machine Learning oder zu deutsch Maschinellem Lernen. ML erkennt Muster und Gesetzmäßigkeiten und leitet entsprechende Lösungen ab. Als Grundlage werden Datensätze genutzt, anhand derer diese Muster erst erkannt werden können. Derzeit ist diese Technologie noch stark davon abhängig, wie sie vom Menschen programmiert wird. Mit zunehmendem Wissen auf technischer und menschlicher Seite steigt die Chance auf einen Quantensprung in der Entwicklung.

  • Wie pflegeintensiv sind ML-Modelle?

    Wenn sich etwas im zugrundeliegenden Prozess ändert, kann es sein, dass auch Änderungen am ML-Modell anfallen. Das ist jedoch auch eine Frage der Implementation. Unser Machine Learning Operations Team versucht eine ML Pipeline so zu entwerfen, dass kleinere Änderungen im Prozess sie nicht aus der Bahn werfen. Im besten Fall benötigt ein Modell nach der Implementation keine weiteren Eingriffe.

  • Woher weiß ich, dass meine Daten valide sind?

    Arbeit mit Daten ist hochkomplex. Faktisch sind Daten nie falsch, aber manchmal beantworten Sie eine andere Frage als wir gestellt haben. Um sicherzugehen, dass unsere Ergebnisse abbilden, was wir wissen wollten, braucht es Experten. Data Scientists kennen die üblichen Fallen, in die man laufen kann und umgehen Sie mit ihrem Fachwissen in Statistik.

    ALTERNATIV:
    Es gibt zahlreiche Fallen und Fehler, in die man bei der Arbeit mit Daten tappen kann. Misst man wirklich das, was man messen möchte? Sind die Daten, auf denen wir unsere Prognosen aufbauen, korrekt? Solche Fragen kann eigentlich nur ein Data Scientist beantworten. Das tiefgehende Verständnis für Statistik, Computer Science und Branchenwissen sind nötig, um einen Analyseprozess zu überprüfen.

ML-Ops

Momentan kommen 80% aller KI-Modelle nicht zum Einsatz. Wir ändern das.

Machine Learning Operations

Inspiriert vom menschlichen Gehirn nutzt Deep Learning Trainingsmethoden in neuronalen Netzen, die auf große Datenmengen zugreifen und diese analysieren.

Maschinelles Lernen & Deep Learning
Lernen Sie uns kennen

Unser Team berät Sie gerne

Matthias Neißendorfer 
Seit über 20 Jahren ist Matthias Neißendorfer in der Anwendungsentwicklung im Bankenumfeld tätig. Er betreut unsere Projekte als Projektleiter von der Analyse-, Design-, Implementierungs- und Testphase bis hin zur Einführung der Anwendung in die Produktion. Fachlich zählt die Optimierung von ETL-Prozessen zu seinen Kernkompetenzen.