Algorithmen gültig. Die von Analytic Server verwendeten Algorithmen sind einfach
nur neuer. Da Baumalgorithmen zahlreiche heuristische Regeln aufweisen, ist der Un-
terschied zwischen den beiden Komponenten normal.
Modellscoring
Alle für die Modellierung unterstützten Modelle werden auch für das Scoring unterstützt. Außer-
dem werden lokal erstellte Modellnuggets für die folgenden Knoten für das Scoring unterstützt:
C&RT, Quest, CHAID, Linear, Neuronales Netz (unabhängig davon, ob es ein Standard-, Boos-
ting- oder Bagging-Modell oder ein Modell für sehr umfangreiche Datasets ist), Regression, C5.0,
Logistisch, Genlin, GLMM, Cox, SVM, Bayes-Netz, TwoStep, KNN, Entscheidungsliste, Diskri-
minanzanalyse, Selbstlernfunktion, Anomalieerkennung, Apriori, Carma, K-Means, Kohonen, R
und Textmining.
v Raw Propensity und Adjusted Propensity werden nicht gescort. Als Problemumgehung können
Sie denselben Effekt erzielen, indem Sie die Raw Propensity mithilfe eines Ableitungsknotens
mit dem folgenden Ausdruck berechnen: if 'predicted-value' == 'value-of-interest' then 'prob-of-
that-value' else 1-'prob-of-that-value' endif
R
Die R-Syntax im Nugget sollte aus Operationen bestehen, die jeweils nur für einen Daten-
satz ausgeführt werden.
Ausgabe
Die Knoten Matrix, Analyse, Data Audit, Transformieren, Globalwerte, Statistik, Mittelwert
und Tabelle werden unterstützt. Weitere Hinweise zur Funktionalität von unterstützten Knoten
folgen.
Data Audit
Der Knoten Data Audit kann den Modus für stetige Felder nicht erzeugen.
Mittelwert
Der Knoten Mittelwert kann zu einem Standardfehler oder einem 95%-Konfidenzintervall
führen.
Tabelle
Der Knoten Tabelle wird unterstützt, indem eine temporäre Analytic Server-Datenquelle
geschrieben wird, die die Ergebnisse der vorgeordneten Operationen enthält. Der Knoten
Tabelle blättert dann durch den Inhalt der Datenquelle.
Export Ein Datenstrom kann mit einem Analytic Server-Quellenknoten beginnen und mit einem anderen
Exportknoten als dem Analytic Server-Exportknoten enden, die Daten werden jedoch von HDFS
in SPSS Modeler Server und schließlich an die Exportposition verschoben.
Bewährte Verfahren
Pushback in HCatalog/Hive
Beim Arbeiten mit Daten in einer partitionierten Hive-Tabelle können Sie Ihren Modeler-Datenstrom so
konfigurieren, dass für die Auswahl der gewünschten Partitionen ein Pushback an Hive durchgeführt
wird.
1. Beginnen Sie Ihren Datenstrom mit einem Analytic Server-Quellenknoten, der die HCatalog/Hive-
Datenquelle referenziert.
2. Stellen Sie eine Verbindung zu einem Auswahlknoten her, der Datensätze NUR für Felder auswählt,
die in der Hive-Tabelle als Partitionsfelder verwendet werden. Wenn im Ausdruck in diesem Aus-
wahlknoten Felder referenziert werden, die nicht als Partitionsfelder verwendet werden, wird für die-
sen Datenstrom kein Pushback an HCatalog/Hive durchgeführt.
3. Stellen Sie wie gehabt Verbindungen zu anderen Knoten her.
Kapitel 2. SPSS Modeler-Integration
29