Crawler PAM, Asset Management und Order
Der OFFICE ASSET Crawler wurde von unseren Entwicklern exakt für die Anforderungen von OFFICE ASSET programmiert, für eine sichere und regelmäßige Datenübertragung. Der Crawler sammelt Daten über SCCM oder MS Graph im Kunden-Netzwerk und übergibt diese an OFFICE ASSET, ohne eine dauerhafte Schnittstelle in das firmeneigene Netzwerk.
Der Crawler kann modulübergreifend für weitere Module verwendet werden:
- PAM – Er durchsucht voll automatisiert ihr Netzwerk nach vorhandenen Druckern und fügt diese zu OFFICE ASSET hinzu. Zudem liest er regelmäßig alle relevanten Daten der Drucker aus (z. B. gedruckte Seiten, Füllstände des Verbrauchsmaterials, Fehlermeldungen und Alarmzustände). Auf Basis dieser Daten können weitere Prozesse, z.B. die voll automatisierbare Bestellung von benötigtem Verbrauchsmaterial, in OFFICE ASSET angestoßen werden.
- Asset Management – über SCCM oder die MS Graph API werden bestehende Assets des Unternehmens ermittelt und deren Inventardaten in OFFICE ASSET importiert.
- Order – Für das Modul Order kann der Crawler PowerShell Scripte im Kunden-Netzwerk auslösen. Diese ermöglichen z.B. eine voll automatisierte Anlage von Berechtigungen oder die Installation von Software, die zuvor von einem Mitarbeiter über den eigenen eShop beauftragt wurde.
Crawler-Downloads
Crawler-Version: 18.0
OFFICE ASSET – Version: ab 9.0
Downloads für ältere Versionen
CrawlE
Der Crawler für‘s Home-Office: Der CrawlE wurde speziell für den Einsatz in Heimarbeitsplätzen entwickelt, um die Druck-Daten der extern eingesetzte Firmendrucker auszulesen.
Er bietet folgende Vorteile:
- Auslesen einzelner Drucker mittels IP oder Hostname
- Vollständig vorkonfiguriert
- Schnell und einfach einsatzbereit
Informationen für Systemadministratoren:
Damit der Anwender die bereits vorkonfigurierte Version des CrawlE in OFFICE ASSET herunterladen kann, muss dieser zuvor von einem Systemadministrator installiert worden sein.
Hier kann die aktuelle CrawlE Version heruntergeladen werden.
Auslaufversionen
Crawler- Version | Anmerkung | Ende der Unterstützung |
bis Version 7 | Aktualisierung erforderlich | kein Support mehr möglich |
Version 7 – 9 | Aktualisierung empfohlen | Support endet 2022 |
VersionenZusammenfassung der wichtigsten Änderungen
Version 18
18.0
- Die GUI zeigt nun die URL an, unter der der Crawler erreichbar ist.
- Bugfix: Paramater vom Frontend wurden nicht escaped. Es war bspw. nicht möglich ein + in einem Passwort zu verwenden, da es sonst zu Verbindungsfehlern kam.
- Bugfix: In einem Docker Container war es nicht möglich sich mit HTTPS auf den Crawler Service zu verbinden.
Version 17
17.0
- Änderung in der Ermittlung der lokalen IP.
- Der Crawler gibt jetzt auch die Datenquelle aus, die seine Engine identifiziert.
- Feinere Unterscheidung im OID-Test.
- Der Crawler kann nun SNMPV3 Tests durchführen.
- Bugfix: HP Drucker können jetzt auch über V3 ausgelesen werden, wenn sie über die Web-Oberfläche des Druckers konfiguriert wurden.
- Der CrawlE durchsucht nun zusätzlich das Netzwerk per SNMP um Drucker aufzulisten.
- Bugfix: Der CrawlE hatte Synchronisierungsprobleme der GUI mit den Druckern.
- Der CrawlE wartet jetzt innerhalb eines Crawls auf nicht erreichbare Drucker.
Version 16
16.0
- Bugfix: Wenn ein Proxy verwendet wurde, konnte dieser nicht mehr entfernt werden.
- Die Konfigurationsseite des Crawlers ist jetzt auch per HTTPS erreichbar.
- Der Verbindungstest des Crawlers aktualisiert jetzt auch das URL-Feld.
- Bugfix: Der SNMP-Test des Crawlers konnte mit Sonderzeichen im Community-String nicht umgehen.
Version 15
15.2
- Bugfix: Bei Änderungen an der Crawler-Oberfläche wird die H2 Datenbank zurückgesetzt.
- Bugfix: Der Crawler kann nun mit Artikelskripten umgehen, die Sonderzeichen in Parametern bekommen.
- Die Installationsdatei des CrawlE ist nun kleiner.
15.1
- Ist die Systemsprache dem CrawlE nicht bekannt, wird Englisch als Standard verwendet.
- Die CrawlE GUI kann nun refreshed werden, um Informationen über die identifizierten Drucker auszugeben.
- Mit Anforderung des LOG File wird nun auch die LOG File der GUI und der Drucker mitgeliefert.
15.0
- Nun auch IPv6 Scans möglich
- Der CrawlE läuft in einem Dienst
- Der CrawlE hat nun eine benutzerfreundliche Bedienoberfläche für die Auswahl der Drucker
- Das GUI des CrawlE hat eine eigene LOG Datei
- Dependencies liegen nun neben der *.jar Datei und sind nicht mehr darin entpackt.
Version 13
13.0
- Für den Crawler kann nun ein Docker Image erstellt werden.
- Wenn ein SSL Handshake nicht funktioniert, wird nun für den Kunden ein Lösungsvorschlag in die Log geschrieben.
Version 12
12.1
- SNMP Test zeigt das Ergebnis nun als Information an.
- Loging verbessert (weniger unnötige Stack Traces)
- In den Logs wird nun ~ jede Stunde ein Eintrag geschrieben, damit klar ist wann der Crawler gestartet war und wann nicht.
12.0
- Kontakt führt nun direkt zur SiBit Homepage.
Version 11
11.3
- Java Änderungen für Linux Crawler.
11.2
- Sprache der GUI wird nun auch über das Setup vorgegeben.
11.1
- Kleinere Fehlerbehebungen an dem GUI.
11.0
- Der Crawler hat nun eine Web-Oberfläche. Dies ermöglicht den Dienst auch von anderen Rechnern zu bedienen.
- Das alte GUI wurde entfernt.
Version 10
10.1
- Die MS Graph Schnittstelle liefert nun bei den Assets die E-Mail Adresse des Systembesitzers mit, damit die zugehörige Person hierdurch (alternativ) identifiziert werden kann.
10.0
- Erste Version des CrawlE.
- Keine Änderungen am Crawler.
Version 9
9.3
- Beinhaltet und verwendet nun Java 11.0.8+10 (Zulu 11.41.23) von Azul Systems.
- Der Crawler kann nun PowerShell Skripte ausführen, welche über die OA Oberfläche eingestellt werden.
9.2
- Der Crawler sendet nun die lokale IP und den Hostname des Rechners auf dem er installiert ist.
9.1.1
- Bugfix: Wenn die Zone im Support Tab geändert wird, werden alle zonenspezifischen Informationen aus der Crawler H2 Datenbank entfernt (Crawl Konfigurationen, Scan Konfigurationen etc.).
9.1
- Der manuelle Start des Crawl-Zeitgebers wurde entfernt.
- Der Crawl-Zeitgeber wird nun nach einer Beendigung automatisch erneut gestartet.
- Diverse kleinere Verbesserungen bei den Java Deamons.
9.0
- Der Crawler kann nun mit der Microsoft Graph API kommunizieren.
Archive
Version 8
8.0
- Der Crawler kann nun SCCM Abfragen durchführen.
- Known Issue: Die Übersetzungen des Crawlers funktionieren nicht richtig. In Version 9.0 behoben.
Version 7
7.6
- Kleinere Fehlerbehebungen.
7.5.1
- Die Passwortabfrage für den Support Tab des Crawlers funktioniert nun auch auf MAC OS.
7.5
- Bugfix: Ein Scan konnte in der H2 Datenbank nicht gespeichert werden, wenn der Ergebniswert mehr als 255 Zeichen hatte. maximale Zeichen wurden auf 2500 erhöht und eine Log geschrieben, falls dieser Fall erneut eintreten sollte.
7.4
- Der REST Server hört nun default auf localhost, jedoch einstellbar über die Einstellung „networkInterface“ in der Konfigurationsdatei.
7.3
- Es wird nun auch ein Crawl ausgeführt, wenn keine Crawl Konfiguration vorhanden ist. Dies wird benötigt um ggf. Ergebnisse von lokalen Druckern zu übertragen.
7.2
- Gibt nun Meldungen für OS aus, welche kein GUI haben, falls für die .sh Skripte root Rechte fehlen.
- Diverse Code Anpassungen an Konventionen.
7.1
- Unterstützung- und Setup für Linux Betriebssysteme.
- Bugfix: Einige Rechtschreibfehler in den Übersetzungen behoben.
- Bugfix: Die Bedienoberfläche versucht nun 10 Sekunden lang das Passwort für die REST Kommunikation mit dem Service zu laden. Danach wird davon ausgegangen, dass der Service nicht gestartet ist. (Nur für den ersten Start des Crawlers relevant).
- Bugfix: Die Terminal Bedienoberfläche (für bspw. Linux BS) gibt nun unbekannte Fehler aus.
7.0
- RMI durch REST (Jersey V 2.25.1) ausgetauscht (Kommunikation GUI <-> Service).
- REST verwendet eine Basic Authentifizierung mit Passwort (siehe Client.config) und einen optionalen Benutzername.
- Crawler kann nun Ergebnisse von einem lokalen USBPrintReader annehmen (ebenfalls über REST) und sendet diese im Crawl-Intervall an das OA.
- GUI und Service dependency management auf Maven umgestellt.
- Hibernate Update von 4.1.9 auf 4.3.11.Final (kein Major Update).
- H2 Treiber Update von 1.3.176 auf 1.4.196 (1.4.197 enthält kritische Bugs).
- Der Crawler leert nun seine Crawl Konfigurationen, wenn das OA keine mehr bereitstellt.
- Ob der PamService läuft wird nun ebenfalls über REST geprüft und nicht mehr über ein VB-Skript.
- Die Unterscheidung ob der Dienst nicht erreichbar ist oder gar nicht erst läuft, ist hierdurch entfernt worden.
- Dient vor allem als Vorbereitung für den Unix Crawler.
- Bugfix: Das Löschen und neu erstellen der Ergebnistabellen wurde nie getriggert.
3.x – 7.0 Diese Version wird eingestellt und nicht mehr unterstützt!
Wir raten dringend von der Verwendung dieser Version ab. Sicherheitsmechanismen reichen nach heutigen Maßstäben nicht aus.