Skip to end of metadata
Go to start of metadata

You are viewing an old version of this page. View the current version.

Compare with Current View Page History

« Previous Version 42 Next »

Datastore

In Datastores kann man Daten tabellarisch speichern, ähnlich wie in Excel-Tabellen. Die verfügbaren Spalten können werden durch sog. Schemas frei definiert. Die Daten können entweder einzeln per Hand eingetragen werden oder als Datei importiert werden. Der Import kann manuell im Browser oder automatisiert durch einen Flow gestartet werden. Sobald die Daten importiert sind können sie durch die umfangreichen Such- und Filtermöglichkeiten durchsucht werden. 

Datastores unterstützen auch die Speicherung hierarchisch strukturierter Daten in Form von Master-Child und Parent-Variant Relationen. Damit lassen sich z.B. Relationen wie Artikel mit Artikelvarianten oder Aufträge mit Auftragspositionen abbilden.

Importierte Daten lassen sich auch wieder exportieren. Dies kann wie beim Import entweder manuell oder automatisiert per Flow erfolgen. Beide Exportmöglichkeiten erlauben eine umfangreiche Umwandlung und Anpassung durch Transformy, was im manuellen Export integriert ist und innerhalb von Flows in Form des SpreadsheetMapper Steps zur Verfügung steht. 

 

Woher weiß ich wann ich Datastores brauche?

Immer dann wenn Sie Daten in Synesty Studio zwischen speichern wollen oder müssen, kommen Datastores zum Einsatz. Ob und wann sie Daten zwischen speichern müssen hängt von verschiedenen Faktoren ab. In der Praxis werden Datastores häufig dann genutzt, wenn neue Daten mit vorhandenen Daten abgeglichen werden sollen.


Wann brauche ich Datastores nicht?

Es gibt viele Szenarien, wo sie keine Datastores benötigen.
Zum Beispiel, wenn sie einfach nur einen Flow erstellen der eine CSV-Datei geringfügig umwandelt und diese dann auf einen FTP-Server kopiert - mit anderen Worten "die Daten nur durchschleift". In diesem Fall müssen die Daten in der Regel nicht zwischen gespeichert werden. Theoretisch könnte man das - aber man muss es nicht. 


Wann ist ein Datastore sinnvoll?
 

Angenommen Sie haben ein Szenario, wo sie von mehreren Lieferanten Produktdaten bekommen. Man könnte diese verschiedenen Daten erstmal in einem Datastore konsolidieren. D.h. man importiert der Reihe nach alle Daten in den Datastore. Dabei könnte man auch schon Spalten bereinigen, umbennen oder anreichern. D.h. am Ende liegen die Daten dann einheitlich im Datastore. Sie können die Daten in Ruhe sichten, evtl. manuell bearbeiten oder filtern. Anschließend könnten die Daten aus dem Datastore mit Hilfe von Flows weiterverarbeitet oder exportiert werden. 

Weitere Anwendungsbeispiele:

  • Markierung und Speicherung von Zuständen z.B. Bearbeitungsstatus 
    • angenommen sie wollen Datensätze als "exportiert" oder "noch nicht exportiert" markieren. Dann können sie diese Markierung am Datensatz speichern und damit verhindern dass Datensätze doppelt exportiert werden. 
    • sie könnten z.B. "verbotene" Datensätze markieren, die einem Eintrag in einer Blacklist oder White list entsprechen (siehe Blacklist Filter)
  • Konsolidierung verschiedener Datenquellen in ein einheitliches Format. Das einheitliche Format stellt der Datastores dar
  • Anreicherung von Daten über Querverweise
    • angenommen Sie wollen eine CSV-Datei eines Lieferanten, die nur eine Artikelnummer enthält um weitere Spalten wie Artikelname und Bild-URL aus ihrem eigenen Produktkatalog erweitern. Dann ist ein Datastore sehr sinnvoll, da man über den Querverweis auf die Artikelnummer auf alle Spalten ihrer Artikel zugreifen kann, um damit die CSV-Datei zu erweitern
  • Abgleich von neuen und vorhandenen Daten

 


Was kostet die Speicherung in Datastores?

Immer wenn Sie Daten in einem Datastore speichern, benötigen Sie auch den notwendigen Speicherplatz dafür.
In Synesty Studio wird das pro Datensatz gemessen. D.h. sie müssen die notwendige Anzahl an Datensätzen gebucht haben, um entsprechend viele Datensätze speichern zu können.

Sie können ein Paket erwerben, um die Datensatz-Limits zu erhöhen. Das Dashboard zeigt ihnen immer den aktuellen Verbrauch ihrer Datensätze an.
 

 

Schema

Schemas beschreiben die Spalten, deren Inhalt, Datentyp und werden benötigt, um einen Datastore zu erstellen. Ein Schema kann auch zur Erstellung mehrerer Datastores genutzt werden. Sie können ein eigenes Schema erstellen oder auf fertige Schemas zurückgreifen.

Ein neues Schema können Sie z.B. über den  Button unter Datastores -> Schema  erstellen.

 

Um ein vordefiniertes Schema zu nutzen, wählen Sie in der entsprechenden Auswahl das gewünschte Schema aus und klicken anschließend auf den "Erstellen" Button. Ein solches Schema kann nicht verändert werden 

Einige Steps benötigen einen Datastore mit einem fest definierten Schema. Beachten Sie dazu die Hinweise in der jeweiligen Step Beschreibung.

Schema automatisch erstellen

Alternativ zur manuellen Erstellung, kann man einen neuen Datastore auch durch einen Import erzeugen. Dabei wird das Schema automatisch erstellt. Das ist praktisch wenn das benötigte Schema sehr viele Spalten hat, deren manuelle Erstellung sehr zeitaufwendig wäre. Erstellen Sie dazu einfach den Datastore durch einen Import einer CSV-Datei (manuell oder per Flow) und es wird eine Schema mit allen Spalten der CSV-Datei angelegt.

 

Einen neuen Datastore erstellen

Um einen neue Datastore zu erstellen zu können, wird immer ein Datastore-Schema benötigt. Wenn ein entsprechendes noch nicht vorhanden ist, sollten sie mit der Erstellung des Schemas beginnen.

Einen neuen Datastore können Sie über den Menüpunkt Datastores ->  "Neuer Datastore" Button anlegen.

Der Name des Datastore kann beliebig gewählt werden. Wählen Sie anschließen den Typ und das Schema des neuen Datastores aus.

Wenn Sie einen Child Datastore erstellen, muss zusätzlich ein vorhandener Master Datastore ausgewählt werden (siehe Master-Child). Erstellen Sie deshalb immer zuerst den Master Datastore.  

Mapping Set

Ebenfalls im Navigationspunkt Datastores finden sie den Reiter Mapping Set.
Ein Mapping Set ist eine Art Übersetzungstabelle, womit sie einen Quellwert in einen Zielwert übersetzen - auch genannt "mappen" - können. 

Im Screenshot sehen ein Beispiel wie Mapping Sets dazu genutzt werden können z.B. Attribute verschiedener Systeme anzugleichen bzw. synonym zu verweden. 

Wo werden Mapping Sets angewendet?

Mapping Sets können als Spaltenfunktion innerhalb unseres Transformy Tools angewendet werden, sowie unter Distinct Values in der Datastore Suche.  Das betrifft folgende Bereiche und Aktionen:

  • Datastore Import
  • Datastore Export
  • Datastore Spaltenfunktionen
  • SpreadSheetMapper Step

 

 

Hierarchische Daten

Synesty Studio unterscheidet zwischen zwei Arten von hierarchischen Daten:

  • Master-Child
  • Parent-Variant

Im Grunde beschreiben beide die gleiche Relation einer typischen Eltern-Kind Beziehung, mit dem Unterschied, dass Master-Child sich auf zwei verschiedene Datastores bezieht und Parent-Variant sich innerhalb des gleichen Datastores und Folders abspielt.

Master-Child

Die Master-Child Relation ist eine Beziehung von Datensätzen in zwei unterschiedlichen Datastores, mit unterschiedlichem Schema. Diese Relationsart ist sinnvoll wenn beide Objekte unterschiedliche Spalten haben, was die Verwendung zwei Datastores mit unterschiedlichem Schema notwendig macht. Das ist z.B. bei Auftragsdaten mit Auftragspositionen der Fall. Ein Auftrag hat Felder wie Name, Anschrift des Käufers und die Auftragspositionen hingegen Felder wie Artikelnummer, Menge und Preis.

Synesty Studio bietet dazu zwei Arten von Datastores:

  • Master
  • Child

Ein Child-Datastore ist mit einem Master-Datastore verknüpft und dem Master untergeordnet. Das ermöglicht die Speicherung von einfachen hierarchischen Daten wie z.B. Produkte und Varianten. Produkte (Titel, Beschreibung, Bild) würden dabei in einem Master-Datastore und Varianten (Ausprägung mit  Farbe, Größe, Preis und Lagerbestand) in einem Child-Datastore gespeichert werden. 

 

 

Parent-Variant

Haben beide Objekte die gleichen Felder, dann wird dies als Parent-Variant Beziehung bezeichnet und spielt sich innerhalb des gleichen Datastores und innerhalb des gleichen Folders ab. 

Interne Spalten

Jeder Datensatz (Datastore Record) hat einige feste, interne Spalten, die immer vorhanden sind. Diese spielen vor allem beim Import und Export eine Rolle. Diese Spalten kann man in Identifier- und Status-Spalten unterscheiden. 


Identifier-Spalten

Die Identifier-Spalten dienen der eindeutigen Zuordnung von Datensätzen und deren Beziehungen zu anderen Datensätze (Master-Child und Parent-Variant). Alle Pflichtfelder müssen bei Imports oder Updates gefüllt werden, damit die Datensätze identifiziert werden können. Die optionalen Spalten dienen hauptsächlich der Verknüpfung von Datensätzen mit anderen Datensätzen.    

NameBeschreibung

datastorename

(Pflichtfeld)

Name des Datastores in den importiert werden soll.

folder

(Pflichtfeld)

Bezeichnung für eine Ordner, zur Gruppierung. Der folder ist Teil des Primärschlüssels eines Datensatzes.

Default-Wert (wenn leer oder nicht vorhanden): default

identifier

(Pflichtfeld)

Eindeutiger Bezeichner des Datensatzes. z.B. Artikelnummer, SKU. Muss zusammen mit folder in einem Datastore eindeutig sein.
z.B.

eindeutig pro Datastore:

folder: meinordner1
identifier: 123 

folder: meinordner2
identifier: 123

Nicht eindeutig in einem Datastore:
folder: meinordner1
identifier: 123

folder: meinordner1
identifier: 123

identifier2

(Optional)

Optionaler Identifier der für weitere Schlüssel (z.B. Lieferanten Artikel Nummer) verwendet werden kann. Der identifier2 kann beispielsweise in der Querverweis Funktion verwendet werden, um einen Datensatz zu identifizieren.

Default-Wert: <leer> 

parent_identifier

(Optional)

Der identifier des referenzierten Parent Datensatzes im gleichen Datastore und Folder. Wenn gesetzt, dann wird dieser Datensatz mit dem Parent verknüpft und bildet einen Datensatz vom Typ "Variant".

Default-Wert: <leer>

master_datastore

(Optional)

Nur für Child-Datastores.
Name des referenzierten Master-Datastores.

(master_datastore, master_folder und master_identifer müssen zusammen den referenzierten Master-Datensatz beschreiben.)

master_folder

(Optional)

Nur für Child-Datastores.
Bezeichnung für den Ordner des referenzierten Master-Datensatzes.

(master_datastore, master_folder und master_identifer müssen zusammen den referenzierten Master-Datensatz beschreiben.)

master_identifier

(Optional)

Nur für Child-Datastores.
identifier des referenzierten Master-Datasatzes im Master-Datastore.

(master_datastore, master_folder und master_identifer müssen zusammen den referenzierten Master-Datensatz beschreiben.)

Status-Spalten

Die Status-Spalten dienen der Anzeige im Datastore und können zur Filterung genutzt werden. 

 

NameBeschreibung

Created

Erstellungsdatum dieses Datensatzes

 

Updated

Datum des letzten Updates

(muss nicht zwingend eine Änderung des Inhalts bedeuten, wenn der gleiche Datensatz importiert wurde)

LastContentChanged

 

Datum der letzten Änderung des Inhalts

(Spalte des Schemas, nicht interne-Spalte)

 

Processing Status

Diese Spalte gibt den Verarbeitungsstatus eines Datensatzes an. Mögliche Werte sind:

UNPROCESSED, INPROCESS, PROCESSED_ERROR, PROCESSED_SUCCESS

Diese Werte werden meist von Steps gesetzt, die Datensätze eines Datastores direkt verarbeiten, z.B. PlentyAddOrders oder GreyhoundAddContact

ProcessedDatum der Verarbeitung (wann wurde PROCESSED_ERROR oder PROCESSED_SUCCESS gesetzt)


Datenimport im Datastore

Datastores verfügen über eine Importfunktion für CSV- oder Exceldateien. Um eine Datei zu Importieren gehen Sie in den gewünschten Datastore und wählen im Dropdown Menü des "Neuer Datensatz" Buttons die Option "Datei importieren" .

Wählen Sie anschließen die Datei aus und klicken den "Upload und Vorschau" Button. Nachdem die Datei verarbeitet wurden gelangen Sie in die Transformy Ansicht, mit allen Spalten des Datastores. Sie können nun die Quell-Spalten aus der Datei den entsprechenden Spalten des Datastores zuordnen. Über den Button starten Sie den Import der Datensätze.

Datenexport über die Suche

Alle Daten eines Datastores können über den  Button als CSV oder XLS exportiert werden. Dabei können die Spalten des Exports flexibel über Transformy konfiguriert werden, um Spalten zu bearbeiten oder zu entfernen.

Die Exportfunktion exportiert alle markierten Suchergebnisse oder alle Suchergebnisse, wenn keines markiert ist.  

 

Datenexport mit Flow

Der Datenexport über Flows ist ein ganz essentieller Bestandteil der Automatisierung eines Datenintegrationsprojektes. Um Daten eines Datastores automatisiert als CSV-Datei zu exportieren z.B. auf einen FTP-Server benötigen Sie einen Flow mit folgenden Steps. 

  • SearchMasterDatastore (bietet die gleichen Suchoptionen wie die Datastore Suche)
  • SpreadsheetMapper (Konfiguration der Export-Spalten mit Transformy)
  • SpreadsheetCSVWriter (erzeugt CSV-Datei aus dem zuvor konfigurierten Spreadsheet)
  • z.B. FTPUpload (lädt die Datei auf einen FTP-Server)

Lesen Sie mehr über die Einrichtung von Flows.

Datenimport über Flow

Um Daten in einem Flow in einen Datastore zu schreiben benötigen Sie den Step SpreadsheetDatastoreWriter

Ein Flow der etwas importiert könnte folgenden beispielhaften Aufbau haben:

  • FTPSingleFileDownload (herunterladen der zu importieren Daten z.B. in einer CSV-Datei)
  • SpreadsheetCSVReader (Einlesen der CSV-Datei)
  • SpreadsheetMapper (Konfiguration der Spalten für den Import)
  • SpreadsheetDatastoreWriter (Import des zuvor konfigurierten Spreadsheets in einen Datastore)

Die Einrichtung des Imports einer CSV-Datei wird in diesem Beispiel ausführlich erklärt.

 

Suche

Die Suche ist der zentrale Anlaufpunkt für jegliche Interaktion mit einem Datastore. Sie erlaubt neben der klassischen Suche über einen Suchbegriff die Anwendung verschiedenster Filter, um Daten zu finden und zu selektieren. 

Suchformular

Suchfilter

Suchbegriff

Durchsucht den Datastore nach Datensätzen, die in einem Feld die eingegebenen Zeichenfolge (den Suchbegriff) enthalten. 

Folder

Grenzt die Suche auf einen oder mehrere Folder ein.

Die Liste der Folder wird aus Geschwindigkeitsgründen zwischengespeichert (Cache). Das kann dazu führen das nicht alle Folder oder nicht mehr vorhandene Folder angezeigt werden. Sie können die Folder Liste über den Button explizit aktualisieren.

Child Filter

Zeigt Datensätze abhängig davon ob sie Child-Datensätze in einem Child-Datastore besitzen oder nicht. 

  • All - keine Einschränkung
  • items with children - Datensätze mit Children
  • items without children - Datensätze ohne Children

Child-Datastore, Child-Folder

Findet Datensätze, zu denen es Datensätze im gewählten Child-Datastore gibt. Dieser Filter ist nur bei Master-Datastores sinnvoll, zu denen es Datensätze in Child-Datastores gibt. 

Sobald ein Child-Datastore ausgewählt wurde, kann die Suche optional auch noch auf einen folder innerhalb des Child-Datastores eingeschränkt werden. 

Beispiel nur Child-Datastore: "finde alle Aufträge mit Referenzen auf Datensätze im Datastore Position"

Beispiel + Child-Folder: "finde alle Aufträge mit Referenzen auf Datensätze im Datastore Position im Folder=default"

Only selected child folders - diese Checkbox in Kombination mit der Checkbox "Show Children" zeigt nur Child-Datensätze, der ausgewählten Child-Folder. Wenn diese Option nicht aktiviert ist, werden auch Child-Datensätze anderer Child-Folder angezeigt.

 

 

Level (Parent/Variant Level)

Zeigt Datensätze abhängig von ihrer Positionen in der Parent-Variant Hierarchie.  

 

  • Both - keine Einschränkung
  • Parents only - zeigt nur Parent Datensätze, also der 1. Ebene
  • Variants or Parents w/o (without) variants - zeigt nur die unterste Hierarchieebene, d.h. entweder Varianten oder Parents die keine Varianten haben. 
  • Variants only - zeigt nur Varianten. D.h. ausschließlich Varianten, die einen Parent haben, nicht aber Parents, die keine Varianten haben. 

 

Level Filter (Parent/Variant Status)

Findet Datensätze in Abhängigkeit davon, ob es Variant-Items gibt oder nicht. 

 

  • All - keine Einschränkung
  • Parents with Variants - findet alle Datensätze, die auch Varianten haben (Varianten haben den Identifier des Parents als parent_id)
  • Parents without Variants - findet alle Datensätze, die keine Varianten haben

Validation Status

Findet Datensätz angängig vom Validierungsstatus. Der Validierungsstatus wird beim Speichern (Import, Anlegen und Update) eines Datesatzes anhand der im Schema hinterlegten Informationen ermittelt. Wenn im Schema z.B. ein Feld als Pflichtfeld definiert wurde, aber beim Import leer ist dann wird der ganze Datensatz als ungültig (Invalid) markiert. Bei der Suche erscheinen die invaliden Felder rot hinterlegt. 

  • All - ignoriert den Validation Status
  • Valid - findet nur Datensätze ohne Validierungsfehler
  • Invalid - findet nur Datensätze bei denen es beim speichern Validierungsfehler gab

 

Processing Status

Findet Datensätze mit einem bestimmten PROCESSING-Status. 

  • All - keine Einschränkung
  • UNPROCESSED - nur unverarbeitete Datensätze
  • INPROCESS - nur Datensätze, die in Bearbeitung sind
  • PROCESSED SUCCESS - erfolgreich bearbeitete Datensätze
  • PROCESSED ERROR - fehlerhaft bearbeitete Datensätze

Der Processing Status kann folgendermaßen gesetzt werden: 

  • Datastore Suche / Actions / Reset Processing Status
  • SpreadsheetDatastoreWriter Step
  • einige andere Steps, die direkt auf Datastores arbeiten (z.B. Plentymarkets AddOrders Step)


Date Filter

Findet nur Datensätze, bei denen die gewählte Datumsspalte in einem bestimmten Zeitraum liegt. 

  • Insert Date - Erstelldatum
  • Update Date - Datum der letzten Änderung
  • Processed Date - Datum der letzten Verarbeitung
  • Last Content Change Date - Datum der letzten inhaltlichen Änderung. Diese Datum wird nur aktualisiert, wenn sich wirklich eines der Felder durch ein Update verändert hat. 

Filter

Hier kann ein Freemarker (siehe Scripting) Ausdruck zur Filterung der Datensätze verwendet werden.

Beispiel: stock == "2" 

Der Beispielfilter zeigt nur Datensätze an die in der Spalte stock einen Wert von "2" besitzen.

Über das "+" Zeichen erhalten Sie eine kleine Auswahl vorgefertigter Filter.

 

Flow-Run-ID Filter

Findet Datensätze, die durch einen bestimmten Flow-Run im Rahmen eines ausgeführten Flows  "angefasst" wurden. Angenommen ein Datenimport Flow hat ein Feld eines Datensatzes geändert, dann wird am Datensatz die ID des Flow-Runs gespeichert, im Rahmen dessen die Änderung gemacht wurde.
In der Datensatz Detailansicht wird dies durch Importiert durch Flowrun gekennzeichnet. 

Nützlich ist diese Funktion, um alle Datensätze zu identifizieren, die durch einen bestimmten Flow-Run aktualisiert wurden. 

In vielen Fällen noch wichtiger ist alle Datensätze zu identifizieren, die NICHT durch einen bestimmten Flow-Run "angefasst" wurden. Diese Datensätze sind bei oft Datenleichen, also Datensätze, die z.B. von einem externen System NICHT MEHR mitgeschickt werden (z.B. ausgelaufene Artikel). Diese Datensätze will man in der Regel finden und löschen bzw. als inaktiv markieren oder Bestand null setzen. 

 

Sorting

Sortiert die Ergebnisliste nach folgenden Spalten, wahlweise in absteigender oder aufsteigender Richtung: 

  • Created Date - nach Erstelldatum
  • Update Date - nach Datum der letzten Änderung
  • Last Content Change Date - nach Datum der letzten inhaltlichen Änderung
  • Processing Date - nach Verarbeitungsdatum
  • Identifier - nach Identifier
  • Folder - nach Folder

 

Show Children

Zeigt zusätzlich zu den Datensätzen des derzeit aktuellen Datastores auch die Child - Datensätze an. 

 

 

Aktionen

Aktionen werden auch als Massen - Update oder Gruppenfunktionen bezeichnet und stellen Funktionen im Datastore bereit, die auf mehrere Datensätze gleichzeitig angewendet werden können. 
Dabei lassen sich die Aktionen nur auf selektierte Datensätze oder auf das gesamte Suchergebnis anwenden. Letzteres bedeutet, dass auch Datensätze von der Aktion erfasst werden, die nicht auf der aktuellen Suchergebnisseite angezeigt werden. Bei solchen Aktionen darf kein Datensatz selektiert sein. 

Exportieren

  • Als Datei - Öffnet die Transformy Export-Konfiguration mit der Möglichkeit die Daten herunter zu laden.
  • Export-Flow erstellen - Erstellt einen neuen Flow der die gewählten Filtereinstellungen übernimmt.

 

Bearbeiten

Die Bearbeiten Funktion ermöglicht die Änderung von Werten selektierter Datensätze (Massen Update). Wählen Sie eine oder mehrere Spalten aus in denen Werte geändert werden sollen. Anschließen gelangen sie in die Transformy Ansicht und können hier Änderungen der Werte vornehmen.

Bestätigen Sie die Änderungen durch drücken des Start Update Buttons.

Kopiere nach

Kopiert die selektierten Daten in einen anderen Datastore. Dabei kann man durch Konfiguration beeinflussen, wie die neuen Datensätze erzeugt werden.

 Durch Klick auf Next gelangt man wieder in die Transformy Spalten-Konfiguration, wo man optional noch weiteren Einfluss auf die zu kopierenden Daten nehmen kann. 

Löschen

Entfernt die selektierten Datensätze.

Die Löschen Aktion kann nur auf selektierte Datensätze angewendet werden.
Achtung: Das Löschen kann nicht rückgängig gemacht werden.  

Folder Löschen

Entfernt alle Datensätze eines Folders.

Datastore leeren

Entfernt alle Datensätze dieses Datastores. 


Erweitert

Verarbeitungsstatus ändern

Aktualisiert den PROCESSING STATUS der selektierten Items. Das kann z.B. nützlich sein, um einen Datenexport erneut anzutriggern,  wenn dieser z.B. den betroffenen Datensatz nach fehlgeschlagenem Export auf PROCESSED_ERROR gestellt hat. In diesem Fal würde man vermutlich den Datensatz wieder auf UNPROCESSED zurücksetzen. 

Suchfilter speichern

Ein einmal erstellter Suchfilter aus allen oben genannten Möglichkeiten kann mit  unter einem frei wählbaren Namen gespeichert werden, um ihn später mit einem Klick wieder aufzurufen.

 

Schnellsuche Vorlagen

Die Schnellsuche bietet auch einige vorgefertigte und häufig genutzte Suchfilter unter Vorlagen.

Spalten-Funktionen 

Eindeutige Werte

Oft möchte man wissen, wieviele eindeutige Werte eine bestimmte Spalte hat. Das spielt immer dann eine Rolle, wenn man diese Werte z.B. für Zuordnungstabellen (Mappingsets in Synesty Studio) braucht.

Beispiel: "Wieviele eindeutige Kategorien habe ich?"
D.h. angenommen man hat einen Katalog mit 20000 Artikeln, die sich auf 105 verschiedene Kategorien aufteilen. Wenn man nun eine Liste genau dieser 105 eindeutigen Kategoriepfade wissen möchte, dann kann man diese Funktion benutzen. 

Das Eindeutige Werte Feature entspricht der aus SQL-Datenbanken bekannten DISTINCT() Funktion und dient dazu die eindeutigen / unterschiedlichen Werte eine gewählten Spalte über alle Datensätze zu ermitteln.

Der Screenshot zeigt, dass es 11 Datensätze mit leerer Kategorie, 7 in Sessel & Sofas und 2 in Bürostühle gibt. 

  • No labels