Sie müssen einen externen Liberty-Server mit Machine Learning für z/OS und
Operational Decision
Manager konfigurieren, um die beiden Produkte zusammen verwenden zu können.
Vorbereitende Schritte
Installieren Sie vor Ausführung dieser Aufgabe Operational Decision
Manager in einem externen Liberty-Server (siehe
Topologie 6 konfigurieren: Operational Decision Manager
im Liberty-Server). Während der folgenden Schritte werden Sie
die folgende JCL übergeben:
HBRWLPC
, um die XML-Dateien für Liberty zu konfigurieren
HBRWLPD
, um die XML-Dateien in Ihr Liberty-Benutzerverzeichnis zu stellen
Informationen zu diesem Vorgang
In dieser Aufgabe werden Sie den Beschreibungen in der Dokumentation zu Operational Decision
Manager
und Machine Learning für z/OS folgen, um die Produkte in einem externen Liberty-Server zu installieren.
Vorgehensweise
- Führen Sie die folgenden Schritte aus, um sicherzustellen, dass Sie eine funktionierende Liberty-Umgebung mit WOLA haben:
- Übergeben Sie
HBRDPLOY
in der Liberty-Arbeitsdatei
*.WLP.SHBRJCL(HBRDPLOY)
, um die RuleApp für das miniloan-Beispiel zu implementieren.
- Übergeben Sie
HBRMINW
in der Liberty-Arbeitsdatei
*.WLP.SHBRJCL(HBRMINW)
, um die Beispiel-RuleApp auszuführen.
- Vergewissern Sie sich, dass die Ausgabe des Beispiels korrekt ist.
-
Bearbeiten Sie die Dateien db2Type2.xml und db2Type4.xml von Liberty Profile Server. Ändern Sie in beiden Dateien
<feature>jdbc-4.0</feature> in
<feature>jdbc-4.1</feature>.
-
Gehen Sie gemäß der Beschreibung in der Dokumentation zu Machine Learning für z/OS vor, um MLz
in einem Liberty-Server zu installieren, in dem bereits
Operational Decision
Manager installiert wurde.
Lesen Sie dazu
Configuring
machine learning scoring services on z/OS.
Tipp: Verwenden Sie Option 3, um den Scoring-Service von Machine Learning in einen externen WLP-Server zu integrieren.
So wird eine Installation in Ihrem Liberty-Server durchgeführt, bei der die ODM-Anwendung erhalten bleibt.
-
Wenn Ihre Liberty-XML-Konfigurationsdateien Definitionen für Ihre HTTP-Serverports (und optional HTTPS-Serverports) enthalten,
entfernen Sie diese Zeilen.
Der Konfigurationsprozess für Machine Learning für z/OS fügt
Porteinstellungen zur Liberty-Datei server.xml hinzu.
<httpEndpoint httpsPort="-1" httpPort="-1" id="defaultHttpEndpoint"/>
<httpEndpoint httpsPort="-1" httpPort="-1" sslOptionsRef="MLzScoringSSLOptions" host="*" id="MLZAdminHttpEndpoint"/>
<httpEndpoint httpsPort="-1" httpPort="24018" sslOptionsRef="MLzScoringSSLOptions" host="*" id="MLZHttpEndpoint"/>
-
Wenn die Anwendung für die Rule-Execution-Server-Konsole in Ihrer Umgebung vom Liberty-Server bereitgestellt werden muss, um sie beispielsweise zusammen mit dem Decision Runner zu verwenden,
ist eine Konfigurationsänderung erforderlich. Diese Änderung wird vorgenommen, damit angepasste Features anstelle der
Standardfeatures in der Konfiguration von Machine Learning für z/OS verwendet werden.
-
Entfernen Sie aus Ihrer Datei server.xml die Zeile
<feature>webProfile-7.0</feature>.
-
Fügen Sie in der Datei server.xml nach der Zeile
</featureManager> die folgende Zeile am Anfang der
include-Listen ein: <include location="MlzContent.xml" />
-
Starten Sie Ihren Liberty-Server neu und warten Sie, bis Machine Learning für z/OS gestartet wird.
Dies kann bis zu 30 Minuten dauern.
- Verbinden Sie Ihre MLz-Installation mit dem Verwaltungsdashboard und installieren Sie das Churn-Beispiel:
-
Definieren Sie Ihren Liberty-Server für das Administrationsdashboard von Machine Learning für z/OS als Scoring-Service.
- Erstellen Sie eine Implementierung des Churn-Beispiels. Dadurch wird dieses Modell an den Scoring-Service Ihres Liberty-Servers gesendet.
-
Testen Sie Ihr Modell im Verwaltungsdashboard von Machine Learning für z/OS,
indem Sie im Menü AKTIONEN Test-API für die Implementierung auswählen.
-
Stellen Sie durch erneute Übergabe von
HBRMINW
sicher, dass Operational Decision
Manager weiterhin funktioniert.
Ergebnisse
Sie haben jetzt Operational Decision
Manager und MLz so in einem einzelnen Liberty-Server installiert, dass beide Produkte zusammenarbeiten können.