MS Fabric Data Factory

Die MS Fabric Data Factory ist ein cloudbasierter Dienst zur Integration, Transformation und Orchestrierung von Daten. Im Data Engineering setzen wir sie ein, um Datenquellen strukturiert anzubinden, Datenflüsse zu automatisieren und ETL/ELT-Prozesse nachvollziehbar zu betreiben.

Der Fokus liegt auf einer stabilen Datenintegration – von der Extraktion über die Transformation bis zur Bereitstellung in analytischen Zielsystemen.

Comeli vor Wabenstruktur – Symbol für MS Fabric Data Factory und skalierbare Datenarchitektur

Daten-Integration

Visualisierung verteilter Systeme mit verbundenen Datenbanken – Symbol für Datenintegration und Pipeline-Orchestrierung in MS Fabric

Verbindung zu mehreren Datenquellen

Wir erstellen Pipelines, um Daten aus verschiedenen Quellen zu extrahieren, sowohl On-Premises als auch in der Cloud. Dazu gehören SQL-Datenbanken, NoSQL-Datenbanken, APIs, Dateispeicher wie Azure Blob Storage oder Drittanbieterquellen wie Amazon S3.

Hybride Datenverarbeitung

Mit der Integration Runtime ermöglichen wir die Verarbeitung von Daten, unabhängig davon, ob sie lokal oder in der Cloud gespeichert sind.

ETL- und ELT

Darstellung von Datenquellen, Transformation und Zielsystemen – ETL- und ELT-Prozesse in der MS Fabric Data Factory

Datenextraktion (Extract)

Wir extrahieren Daten aus Quellsystemen und bereiten sie für die Weiterverarbeitung vor. Dies kann regelmäßig oder ereignisgesteuert erfolgen.

Datenumwandlung (Transform)

Wir transformieren die Rohdaten, indem wir Berechnungen durchführen, Daten validieren, bereinigen, aggregieren und für die Analyse vorbereiten. Dies erfolgt oft über Mapping Data Flows in Data Factory.

Datenladen (Load)

Die transformierten Daten laden wir in Zielsysteme wie Data Warehouses, Data Lakes (z. B. Azure Data Lake) oder Reporting-Systeme.

Automatisierung

Pipeline-Konfiguration mit Zugriffskontrolle und Prozessschritten – Data Governance und Sicherheit in MS Fabric

Erstellung von Daten-Pipelines

Wir erstellen und verwalten Pipelines, die Datenflüsse zwischen verschiedenen Prozessen orchestrieren. Dabei konfigurieren wir Aktivitäten, bedingte Ausführungen und Verzweigungen in den Pipelines.

Automatisierung von Workflows

Durch die Verwendung von Triggern automatisieren wir Pipelines, sodass sie zeitgesteuert oder ereignisabhängig ausgeführt werden.

Fehler-Behandlung

Wir implementieren Mechanismen zur Fehlerbehandlung, um sicherzustellen, dass Prozesse bei Problemen sicher gestoppt oder wiederhergestellt werden können.

Daten-Migration

YAML-Konfigurationsdatei einer Azure Pipeline – Beispiel für Datenmigration und Deployment in MS Fabric

Migration von On-Premises zu Cloud

Wir unterstützen bei der sicheren und effizienten Migration von Daten aus lokalen Systemen in die Cloud, indem wir MS Fabric Data Factory für die Übertragung und Transformation verwenden.

Datenverschiebung zwischen Cloud-Diensten

Mithilfe von Azure Data Factory verschieben wir Daten zwischen verschiedenen Cloud-Diensten z.B. von Amazon S3 zu Azure Blob Storage oder zwischen verschiedenen Azure-Diensten.

Daten-Aufbereitung für Machine Learning

Mapping Data Flow in MS Fabric Data Factory – visuelle Transformation und Datenaufbereitung für Machine Learning

Vorverarbeitung von Daten für ML

Wir bereiten Daten für Machine-Learning-Modelle vor, indem wir sie bereinigen, formatieren und aggregieren, oft in Kombination mit MS Fabric Machine Learning.

Automatisierung von ML-Daten-Pipelines

Wir automatisieren Datenpipelines, um kontinuierlich aktualisierte Daten für Machine Learning bereitzustellen.

Data Governance und Sicherheit

Konfiguration eines Data Flows in MS Fabric – Data Governance und kontrollierte Datenverarbeitung

Kontrolle des Datenzugriffs

Wir implementieren Sicherheitsrichtlinien, um den Zugriff auf sensible Daten zu kontrollieren und sicherzustellen, dass nur autorisierte Personen auf bestimmte Datenpipelines und -quellen zugreifen können.

Compliance und Auditing

Wir stellen sicher, dass alle gesetzlichen Vorschriften eingehalten werden, indem wir Protokolle über Datenbewegungen und -transformationen bereitstellen.

Features

Die Microsoft Fabric Data Factory ist ein cloudbasierter Dienst zur Integration von Daten, der es Unternehmen ermöglicht, Daten aus verschiedenen Quellen zu verbinden, zu transformieren und zu verwalten.

Comeli mit Laptop – Symbol für Daten-Orchestrierung und Automatisierung in der MS Fabric Data Factory

Datenintegration

MS Fabric Data Factory ermöglicht das Sammeln und Integrieren von Daten aus verschiedenen Quellen, wie Datenbanken, APIs, Dateisystemen oder Cloud-Diensten (z. B. Azure Blob Storage, SQL Server, Salesforce, Amazon S3)

ETL/ELT-Prozesse

MS Fabric Data Factory bietet Tools für ETL (Extract, Transform, Load) und ELT (Extract, Load, Transform)-Prozesse.

Es ermöglicht das Extrahieren von Daten aus verschiedenen Quellen, deren Transformation (z. B. Datenbereinigung, Berechnungen) und das Laden in Ziele wie Data Warehouses oder Data Lakes.

Daten-Orchestrierung

MS Fabric bietet eine visuelle Oberfläche, mit der Benutzer Datenpipelines erstellen können. Pipelines bestehen aus Aktivitäten und Verknüpfungen, die Daten extrahieren, transformieren und laden.

Data Flow und Transformationen

Mit Mapping Data Flows in Fabric können komplexe Transformationen ohne manuelles Schreiben von Code erstellt werden. Es bietet eine drag-and-drop-Oberfläche zum Entwerfen von Datenflussprozessen.

Skalierbarkeit und Leistungsfähigkeit

Data Factory kann große Datenmengen effizient verarbeiten und ist skalierbar, um sich dynamisch an wechselnde Datenanforderungen anzupassen. Es nutzt die Leistung der Fabric Cloud für die parallele Datenverarbeitung.

Automatisierung und Zeitplanung

Pipelines können automatisiert werden, um in geplanten Intervallen oder als Reaktion auf bestimmte Ereignisse ausgeführt zu werden.

Häufig gestellte Fragen zu MS Fabric Data Factory

In dieser FAQ finden Sie die Themen, die in Beratung und Trainings am häufigsten aufkommen. Jede Antwort ist kurz gehalten und verweist bei Bedarf auf weiterführende Inhalte. Ihre Frage fehlt? Nehmen Sie gerne Kontakt mit uns auf.

Comeli lehnt sich an ein ‚FAQ‘-Schild und beantwortet Fragen zu MS Fabric Data Factory.

Es können relationale und nicht-relationale Datenbanken, APIs, Dateispeicher, Cloud-Dienste sowie On-Premises-Systeme integriert werden.

Ja. Über die Integration Runtime können Daten sowohl aus lokalen Systemen als auch aus Cloud-Umgebungen verarbeitet werden.

Transformationen erfolgen unter anderem über Mapping Data Flows, mit denen Daten validiert, bereinigt, aggregiert und strukturell angepasst werden.

Ja. Sie kann zur strukturierten Übertragung und Transformation von Daten zwischen On-Premises- und Cloud-Umgebungen sowie zwischen verschiedenen Cloud-Diensten verwendet werden.