Inhaltsverzeichnis
Cloud Connector ist die Art und Weise, wie Procore Daten, Informationen und Analysen mit seinen Kunden teilt. Dies kann direkt an Reporting-Tools wie Power BI oder Tableau weitergegeben werden. Sie können auch für Data Warehouses, Stores, Lakes oder andere Anwendungen der Kunden freigegeben werden. Kunden können sogar programmgesteuerten Zugriff auf ihre Daten mit Cloud Connector erstellen, um eine echte Automatisierung zu erzielen. Cloud Connector basiert auf dem offenen Freigabeprotokoll von Delta Share.
Delta Sharing ist das branchenweit erste offene Protokoll für den sicheren Datenaustausch, das den Datenaustausch mit anderen Unternehmen vereinfacht, unabhängig davon, welche Computerplattformen sie verwenden. Viele Anwendungen können mit Delta Share auf Daten zugreifen. Um das Kundenerlebnis jedoch weiter zu verbessern, hat Procore Konnektoren, vorgefertigten Code und Leitfäden für die folgenden Plattformen hinzugefügt, um die Einrichtungszeit und Komplexität zu reduzieren und eine nahtlose, sofort einsatzbereite Verbindung zu ermöglichen.
Weitere Datenkonnektoren folgen in Kürze!
Umfassende Dokumentationen und Codebeispiele sind im Produkt Procore Analytics direkt in der Procore-Webanwendung verfügbar, auf die Ihre Procore-Administratoren zugreifen können. Diese Ressourcen enthalten Schritt-für-Schritt-Anleitungen, Codeausschnitte und bewährte Praktiken, die Sie bei der Einrichtung und Verwaltung Ihrer Datenintegration unterstützen.
Fahren Sie mit dem nächsten Abschnitt dieser Anleitung fort, um mit dem Einrichtungsprozess zu beginnen.
Wenn Sie weitere Fragen oder Unterstützung benötigen, wenden Sie sich bitte an Ihren Kundenbetreuer oder unser Support-Team.
Sie müssen sicherstellen, dass die entsprechenden Berechtigungen zum Generieren eines Zugriffstokens zugewiesen sind, damit Sie Ihre Procore-Daten mit Ihrer BI-Lösung verbinden können. Der Zugriff auf Procore Analytics ist mit Ihrem Procore-Anmelde Anmeldedaten verknüpft, mit dem Sie ein einziges Zugriffstoken generieren können. Das Zugriffstoken ist eine Ziffernfolge, die Sie in Ihrem BI-System eingeben, um auf Daten zuzugreifen.
In der Regel handelt es sich bei Benutzern, die Zugriffstoken benötigen, um Dateningenieure oder Power BI-Entwickler. Wenn Sie Zugriff auf Procore Analytics in mehreren Unternehmen haben, können Sie mit Ihrem Token Daten von allen Unternehmen abrufen. Der Token ist an Sie gebunden, nicht an ein bestimmtes Unternehmen, sodass er für alle Unternehmen, auf die Sie Zugriff haben, gleich bleibt.
Unternehmens- und Projektadministratoren erhalten standardmäßig eine Administratorrolle. Die folgenden Benutzerzugriffsebenen sind für das Procore Analytics Tool zulässig:
Der Zugriff auf bestimmte Tool- und Projektdaten im Procore Analytics Tool wird widerrufen, wenn dem Benutzer die entsprechenden Tool- und Projektberechtigungen entzogen werden. Wenn der Kontaktdatensatz eines Benutzers inaktiv wird, verliert der Benutzer den Zugriff auf Procore Analytics Daten.
Um mit dem Zugriff auf Ihre Procore-Daten zu beginnen, gibt es zwei Optionen zum Generieren Ihrer Anmeldedaten für den Datenzugriff: die direkte Databricks-Verbindungsmethode oder die Delta-Freigabetokenmethode. Das Zugriffstoken ist eine Ziffernfolge, die Sie in den entsprechenden Datenkonnektor eingeben, um auf Daten zuzugreifen.
Das Procore Analytics Cloud Connect Access Tool ist eine Befehlszeilenschnittstelle (CLI), mit der Sie Datenübertragungen von Procore zu MS SQL Server konfigurieren und verwalten können. Es besteht aus zwei Hauptkomponenten:
Dies wird Ihnen bei der Einrichtung helfen:
Nach der Konfiguration haben Sie zwei Möglichkeiten, die Datensynchronisierung auszuführen:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx
}
Sie müssen die folgenden MS SQL Server-Details angeben:
Dieser Leitfaden enthält detaillierte Anweisungen zur Einrichtung und Verwendung des Delta Sharing-Integrationspakets auf einem Windows-Betriebssystem , um Daten nahtlos in Ihre Workflows mit Procore Analytics zu integrieren. Das Paket unterstützt mehrere Ausführungsoptionen, so dass Sie die gewünschte Konfiguration und Integrationsmethode auswählen können.
Stellen Sie sicher, dass Sie über Folgendes verfügen, bevor Sie fortfahren:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx
}
Sie können die Zeitplanung auch überprüfen, indem Sie den folgenden Befehl im Terminal ausführen:
Für Linux und MacOs:
Bearbeiten/Löschen - Bearbeiten Sie den Terminplanungs-Cron mit:
'''Bash
EDITOR=nano crontab -e
```
Für Windows:
Frage zur sofortigen Ausführung:
Häufige Probleme und Lösungen
Unterstützen
Für weitere Hilfe:
Hinweise
Dieser Leitfaden enthält detaillierte Anweisungen zur Einrichtung und Verwendung des Delta Sharing-Integrationspakets auf einem Windows-Betriebssystem , um Daten nahtlos in Ihre Workflows mit Procore Analytics zu integrieren. Das Paket unterstützt mehrere Ausführungsoptionen, so dass Sie die gewünschte Konfiguration und Integrationsmethode auswählen können.
Stellen Sie sicher, dass Sie über Folgendes verfügen, bevor Sie fortfahren:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx
}
Sie können die Zeitplanung auch überprüfen, indem Sie den folgenden Befehl im Terminal ausführen:
Für Linux und MacOs:
Bearbeiten/Löschen - Bearbeiten Sie den Terminplanungs-Cron mit:
'''Bash
EDITOR=nano crontab -e
```
Für Windows:
Frage zur sofortigen Ausführung:
Häufige Probleme und Lösungen
Unterstützen
Für weitere Hilfe:
Hinweise
Dieser Leitfaden führt Sie durch das Einrichten und Bereitstellen einer Azure-Funktion für die Integration von Delta Sharing-Daten in Procore Analytics. Die Azure-Funktion ermöglicht effiziente Datenverarbeitungs- und Freigabeworkflows mit Delta Sharing-Profilen.
Gehe zu
Hier finden Sie Anweisungen zum Installieren von Azure Functions Kerntools.
Dieser Leitfaden enthält detaillierte Anweisungen zur Einrichtung und Verwendung des Delta Sharing-Integrationspakets auf einem Windows-Betriebssystem , um Daten nahtlos in Ihre Workflows mit Procore Analytics zu integrieren. Das Paket unterstützt mehrere Ausführungsoptionen, so dass Sie die gewünschte Konfiguration und Integrationsmethode auswählen können.
Stellen Sie sicher, dass Sie über Folgendes verfügen, bevor Sie fortfahren:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx
}
Sie können die Zeitplanung auch überprüfen, indem Sie den folgenden Befehl im Terminal ausführen:
Für Linux und MacOs:
Bearbeiten/Löschen - Bearbeiten Sie den Terminplanungs-Cron mit:
'''Bash
EDITOR=nano crontab -e
```
Für Windows:
Frage zur sofortigen Ausführung:
Häufige Probleme und Lösungen
Unterstützen
Für weitere Hilfe:
Hinweise
Dieser Leitfaden enthält detaillierte Anweisungen zur Einrichtung und Verwendung des Delta Sharing-Integrationspakets auf einem Windows-Betriebssystem , um Daten nahtlos in Ihre Workflows mit Procore Analytics zu integrieren. Das Paket unterstützt mehrere Ausführungsoptionen, so dass Sie die gewünschte Konfiguration und Integrationsmethode auswählen können.
Stellen Sie sicher, dass Sie über Folgendes verfügen, bevor Sie fortfahren:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx
}
Sie können die Zeitplanung auch überprüfen, indem Sie den folgenden Befehl im Terminal ausführen:
Für Linux und MacOs:
Bearbeiten/Löschen - Bearbeiten Sie den Terminplanungs-Cron mit:
'''Bash
EDITOR=nano crontab -e
```
Für Windows:
Frage zur sofortigen Ausführung:
Häufige Probleme und Lösungen
Unterstützen
Für weitere Hilfe:
Hinweise
Die Integration der Delta-Freigabe in Microsoft Fabric Data Factory ermöglicht den nahtlosen Zugriff auf und die Verarbeitung freigegebener Delta-Tabellen für Ihre Analyse-Workflows mit Procore Analytics 2.0. Delta Sharing, ein offenes Protokoll für die sichere Datenzusammenarbeit, stellt sicher, dass Unternehmen Daten ohne Duplizierung austauschen können.
Nachdem Sie den Datenfluss konfiguriert haben, können Sie nun Transformationen auf die freigegebenen Delta-Daten anwenden. Wählen Sie Ihre Option für die Delta-Freigabe von Daten aus der folgenden Liste aus:
Testen Sie Ihre Datenpipelines und -flüsse, um eine reibungslose Ausführung zu gewährleisten. Verwenden von Überwachungstools in Daten
Factory, um den Fortschritt und die Protokolle für jede Aktivität zu verfolgen.
Die Verwendung von Data Factory in Microsoft Fabric mit Delta Sharing ermöglicht die nahtlose Integration und Verarbeitung freigegebener Delta-Tabellen als Teil Ihrer Analyse-Workflows mit Procore Analytics 2.0. Delta Sharing ist ein offenes Protokoll für den sicheren Datenaustausch, das die Zusammenarbeit zwischen Unternehmen ohne Duplizierung von Daten ermöglicht.
Dieser Leitfaden führt Sie durch die Schritte zum Einrichten und Verwenden von Data Factory in Fabric mit Delta Sharing, wobei Notebooks zum Verarbeiten und Exportieren von Daten in ein Lakehouse verwendet werden.
3. Kopieren Sie den Code der ds_to_lakehouse.py und fügen Sie ihn in das Notebook-Fenster ein (Pyspark Python):
Der nächste Schritt besteht darin, Ihre eigenen config.yaml und config.share in den Ordner Resources des Lakehouse hochzuladen. Sie können Ihr eigenes Verzeichnis erstellen oder ein eingebautes Verzeichnis verwenden (das bereits von Lakehouse für Ressourcen erstellt wurde):
Das folgende Beispiel zeigt ein integriertes Standardverzeichnis für eine config.yaml-Datei.
Hinweis: Stellen Sie sicher, dass Sie beide Dateien auf derselben Ebene und für die Eigenschaft config_path hochladen:
4. Überprüfen Sie den Code des Notizbuchs, Zeilen 170-175.
Das folgende Beispiel zeigt die notwendigen Zeilenänderungen:
config_path = "./env/config.yaml"
An
config_path = "./builtin/config.yaml"
Da sich die Dateien in einem eingebauten Ordner und nicht in einer benutzerdefinierten Umgebung befinden, sollten Sie Ihre eigene Struktur der Dateien überwachen. Sie können sie in verschiedene Ordner hochladen, aber in solchen Fällen aktualisieren Sie den Code des Notebooks, um die Datei config.yaml richtig zu finden.
5. Klicken Sie auf Zelle ausführen:
Dieser Leitfaden führt Sie durch das Einrichten und Bereitstellen einer Azure-Funktion für die Integration von Delta Sharing-Daten in Procore Analytics. Die Azure-Funktion ermöglicht effiziente Datenverarbeitungs- und Freigabeworkflows mit Delta Sharing-Profilen.
Gehe zu
Hier finden Sie Anweisungen zum Installieren von Azure Functions Kerntools.Dieses Dokument enthält Schritt-für-Schritt-Anleitungen zum Einrichten einer Datenpipeline in Microsoft Fabric zum Übertragen von Daten von Delta Share in ein SQL-Warehouse. Diese Konfiguration ermöglicht eine nahtlose Datenintegration zwischen Delta Lake-Quellen und SQL-Zielen.
Häufige Probleme und Lösungen:
Die Verwendung von Data Factory in Microsoft Fabric mit Delta Sharing ermöglicht die nahtlose Integration und Verarbeitung freigegebener Delta-Tabellen als Teil Ihrer Analyse-Workflows mit Procore Analytics 2.0. Delta Sharing ist ein offenes Protokoll für den sicheren Datenaustausch, das die Zusammenarbeit zwischen Unternehmen ohne Duplizierung von Daten ermöglicht.
Dieser Leitfaden führt Sie durch die Schritte zum Einrichten und Verwenden von Data Factory in Fabric mit Delta Sharing, wobei Notebooks zum Verarbeiten und Exportieren von Daten in ein Lakehouse verwendet werden.
3. Kopieren Sie den Code der ds_to_lakehouse.py und fügen Sie ihn in das Notebook-Fenster ein (Pyspark Python):
Der nächste Schritt besteht darin, Ihre eigenen config.yaml und config.share in den Ordner Resources des Lakehouse hochzuladen. Sie können Ihr eigenes Verzeichnis erstellen oder ein eingebautes Verzeichnis verwenden (das bereits von Lakehouse für Ressourcen erstellt wurde):
Das folgende Beispiel zeigt ein integriertes Standardverzeichnis für eine config.yaml-Datei.
Hinweis: Stellen Sie sicher, dass Sie beide Dateien auf derselben Ebene und für die Eigenschaft config_path hochladen:
4. Überprüfen Sie den Code des Notizbuchs, Zeilen 170-175.
Das folgende Beispiel zeigt die notwendigen Zeilenänderungen:
config_path = "./env/config.yaml"
An
config_path = "./builtin/config.yaml"
Da sich die Dateien in einem eingebauten Ordner und nicht in einer benutzerdefinierten Umgebung befinden, sollten Sie Ihre eigene Struktur der Dateien überwachen. Sie können sie in verschiedene Ordner hochladen, aber in solchen Fällen aktualisieren Sie den Code des Notebooks, um die Datei config.yaml richtig zu finden.
5. Klicken Sie auf Zelle ausführen:
Bitte wenden Sie sich an den Procore Support, wenn Sie Fragen haben oder Hilfe benötigen.
Das Procore Analytics Cloud Connect Access Tool ist eine Befehlszeilenschnittstelle (CLI), mit der Sie Datenübertragungen von Procore zu Snowflake konfigurieren und verwalten können.
Es besteht aus zwei Hauptkomponenten:
Führen Sie das Konfigurationsdienstprogramm mit Python user_exp.py aus.
Nach der Konfiguration haben Sie zwei Möglichkeiten, die Datensynchronisierung auszuführen:
Für Linux und MacOS:
'''Bash
EDITOR=nano crontab -e
```
2 * * * *
/Benutzer/your_user/snowflake/venv/bin/python
/Benutzer/your_user/Schneeflocke/sql_server_python/connection_config.py
2>&1 | während der gelesenen Zeile; do echo "$(date) - $line"; Fertig>>
/Benutzer/your_user/Schneeflocke/sql_server_python/procore_scheduling.log # Procore-Daten-Import
Für Windows:
```
PowerShell (PowerShell)
schtasks /query /tn "ProcoreDeltaShareScheduling" /fo LIST /v
```
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx
}
Sie müssen die folgenden Snowflake-Details angeben:
Das Tool bietet die Möglichkeit, eine automatische Datensynchronisierung zu planen.
Unset
├── requirements.txt # Abhängigkeiten
├── user_exp.py # Konfigurations-Dienstprogramm
├── ds_to_snowflake.py # Skript zur Datensynchronisierung
├── config.yaml # Generierte Konfiguration
├── config.share # Delta-Share-Konfigurationsdatei
├── procore_scheduling.log # Protokoll der Terminierungsläufe
Anmerkung: Denken Sie daran, Ihre Konfiguration immer zu sichern, bevor Sie Änderungen vornehmen, und neue Konfigurationen zuerst in einer Nicht-Produktionsumgebung zu testen.
Das Procore Analytics Cloud Connect Access Tool ist eine Befehlszeilenschnittstelle (CLI), mit der Sie Datenübertragungen von Procore zu Amazon S3 mit Procore Analytics 2.0 konfigurieren und verwalten können.
Es besteht aus zwei Hauptkomponenten:
Führen Sie das Konfigurationsdienstprogramm mit python user_exp.py aus.
Dies wird Ihnen bei der Einrichtung helfen:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxxxx",
"Endpunkt": "xxxxxx"
}
Sie müssen die folgenden S3-Details angeben:
Das Tool bietet die Möglichkeit, eine automatische Datensynchronisierung zu planen.
Sie können die Zeitplanung auch überprüfen, indem Sie den Befehl in terminal ausführen
Für Linux und MacOs:
Bearbeiten/Löschen - Bearbeiten Sie den Terminplanungs-Cron mit:
'''Bash
EDITOR=nano crontab -e
```
Für Windows:
Unset
├── requirements.txt # Abhängigkeiten
├── user_exp.py # Konfigurations-Dienstprogramm
├── delta_share_to_s3.py # Skript zur Datensynchronisierung
├── config.yaml # Generierte Konfiguration
├── config.share # Delta-Share-Konfigurationsdatei
├── procore_scheduling.log # Protokoll der Terminierungsläufe
Häufige Probleme und Lösungen:
Hinweise:
Delta Sharing ist ein offenes Protokoll für den sicheren Datenaustausch in Echtzeit, das es Unternehmen ermöglicht, Daten über verschiedene Computerplattformen hinweg gemeinsam zu nutzen. Dieser Leitfaden führt Sie durch den Prozess der Verbindung mit und des Zugriffs auf Daten über Delta Sharing.
Der Delta Sharing Python Connector ist eine Python-Bibliothek, die das Delta Sharing Protocol implementiert, um Tabellen von einem Delta Sharing-Server zu lesen. Sie können freigegebene Tabellen als Pandas-DataFrame oder als Apache Spark-DataFrame laden, wenn sie in PySpark mit installiertem Apache Spark Connector ausgeführt werden.
Unset
pip3 Delta-Sharing installieren
Der Connector greift auf freigegebene Tabellen basierend auf Profildateien zu, bei denen es sich um JSON-Dateien handelt, die die Anmeldedaten eines Benutzers für den Zugriff auf einen Delta Sharing-Server enthalten. Wir haben mehrere Möglichkeiten, um loszulegen:
Nachdem Sie die Profildatei gespeichert haben, können Sie sie im Connector verwenden, um auf freigegebene Tabellen zuzugreifen.
delta_sharing importieren
Der Apache Spark Connector implementiert das Delta Sharing Protocol , um freigegebene Tabellen von einem Delta Sharing Server zu lesen. Es kann in SQL, Python, Java, Scala und R verwendet werden.
Der Konnektor lädt BenutzerAnmeldedaten aus Profildateien.
Sie können Apache Spark so einrichten, dass der Delta Sharing-Connector in den folgenden beiden Fällen geladen wird
Wege:
Wenn Sie Databricks Runtime verwenden, können Sie diesen Abschnitt überspringen und der Dokumentation zu den Databricks-Bibliotheken folgen, um den Connector in Ihren Clustern zu installieren.
Um den Delta Sharing-Connector interaktiv in der Scala/Python-Shell von Spark zu verwenden, können Sie die Shells wie folgt starten.
PySpark-Hülle
Unset
pyspark --packages io.delta:delta-sharing-spark_2.12:3.1.0
Scala-Shell
Unset
bin/spark-shell --pakete
io.delta:delta-sharing-spark_2.12:3.1.0
Wenn Sie ein Java/Scala-Projekt mit dem Delta Sharing Connector aus dem Maven Central Repository erstellen möchten, können Sie die folgenden Maven-Koordinaten verwenden.
Sie schließen den Delta Sharing Connector in Ihr Maven-Projekt ein, indem Sie ihn als Abhängigkeit in Ihrer POM-Datei hinzufügen. Der Delta Sharing Connector wurde mit Scala 2.12 kompiliert.
<dependency><Abhängigkeit>
<groupId>io.delta</groupId>
<artifactId>delta-sharing-spark_2.12</artifactId>
<version>3.1.0</version>
</dependency></Abhängigkeit>