Craw­ler PAM, Asset Mana­gement und Order

Der OFFICE ASSET Craw­ler wur­de von unse­ren Ent­wick­lern exakt für die Anfor­de­run­gen von OFFICE ASSET pro­gram­miert, für eine siche­re und regel­mä­ßi­ge Daten­über­tra­gung. Der Craw­ler sam­melt Daten über SCCM oder MS Graph im Kun­den-Netz­werk und über­gibt die­se an OFFICE ASSET, ohne eine dau­er­haf­te Schnitt­stel­le in das fir­men­ei­ge­ne Netzwerk.

Der Craw­ler kann modul­über­grei­fend für wei­te­re Modu­le ver­wen­det werden:

  • PAM – Er durch­sucht voll auto­ma­ti­siert ihr Netz­werk nach vor­han­de­nen Dru­ckern und fügt die­se zu OFFICE ASSET hin­zu. Zudem liest er regel­mä­ßig alle rele­van­ten Daten der Dru­cker aus (z. B. gedruck­te Sei­ten, Füll­stän­de des Ver­brauchs­ma­te­ri­als, Feh­ler­mel­dun­gen und Alarm­zu­stän­de). Auf Basis die­ser Daten kön­nen wei­te­re Pro­zes­se, z.B. die voll auto­ma­ti­sier­ba­re Bestel­lung von benö­tig­tem Ver­brauchs­ma­te­ri­al, in OFFICE ASSET ange­sto­ßen werden.
  • Asset Manage­ment – über SCCM oder die MS Graph API wer­den bestehen­de Assets des Unter­neh­mens ermit­telt und deren Inven­tar­da­ten in OFFICE ASSET importiert.
  • Order – Für das Modul Order kann der Craw­ler Power­Shell Scrip­te im Kun­den-Netz­werk aus­lö­sen. Die­se ermög­li­chen z.B. eine voll auto­ma­ti­sier­te Anla­ge von Berech­ti­gun­gen oder die Instal­la­ti­on von Soft­ware, die zuvor von einem Mit­ar­bei­ter über den eige­nen eShop beauf­tragt wurde.

Craw­ler-Down­loads

Craw­ler-Ver­si­on: 18.0
OFFICE ASSET – Ver­si­on: ab 9.0

     Der aktu­el­le Craw­ler als Docker

Down­loads für älte­re Versionen

 

 

Craw­lE

Der Craw­ler für‘s Home-Office: Der Craw­lE wur­de spe­zi­ell für den Ein­satz in Heim­ar­beits­plät­zen ent­wi­ckelt, um die Druck-Daten der extern ein­ge­setz­te Fir­men­dru­cker aus­zu­le­sen.
Er bie­tet fol­gen­de Vorteile:

  • Aus­le­sen ein­zel­ner Dru­cker mit­tels IP oder Hostname
  • Voll­stän­dig vorkonfiguriert
  • Schnell und ein­fach einsatzbereit

Infor­ma­tio­nen für Sys­tem­ad­mi­nis­tra­to­ren:
Damit der Anwen­der die bereits vor­kon­fi­gu­rier­te Ver­si­on des Craw­lE in OFFICE ASSET her­un­ter­la­den kann, muss die­ser zuvor von einem Sys­tem­ad­mi­nis­tra­tor instal­liert wor­den sein.
Hier kann die aktu­el­le Craw­lE Ver­si­on her­un­ter­ge­la­den werden.

Aus­lauf­ver­sio­nen

 

Craw­ler-
Ver­si­on
Anmer­kungEnde der Unterstützung
bis Ver­si­on 7Aktua­li­sie­rung erforderlichkein Sup­port mehr möglich
Ver­si­on 7 – 9Aktua­li­sie­rung empfohlenSup­port endet 2022

Ver­sio­nenZusam­men­fas­sung der wichtigsten Änder­ungen

Ver­si­on 18

18.0

  • Die GUI zeigt nun die URL an, unter der der Craw­ler erreich­bar ist.
  • Bug­fix: Para­ma­ter vom Front­end wur­den nicht escaped. Es war bspw. nicht mög­lich ein + in einem Pass­wort zu ver­wen­den, da es sonst zu Ver­bin­dungs­feh­lern kam.
  • Bug­fix: In einem Docker Con­tai­ner war es nicht mög­lich sich mit HTTPS auf den Craw­ler Ser­vice zu verbinden.

Ver­si­on 17

17.0

  • Ände­rung in der Ermitt­lung der loka­len IP.
  • Der Craw­ler gibt jetzt auch die Daten­quel­le aus, die sei­ne Engi­ne identifiziert.
  • Fei­ne­re Unter­schei­dung im OID-Test.
  • Der Craw­ler kann nun SNMPV3 Tests durchführen.
  • Bug­fix: HP Dru­cker kön­nen jetzt auch über V3 aus­ge­le­sen wer­den, wenn sie über die Web-Ober­flä­che des Dru­ckers kon­fi­gu­riert wurden.
  • Der Craw­lE durch­sucht nun zusätz­lich das Netz­werk per SNMP um Dru­cker aufzulisten.
  • Bug­fix: Der Craw­lE hat­te Syn­chro­ni­sie­rungs­pro­ble­me der GUI mit den Druckern.
  • Der Craw­lE war­tet jetzt inner­halb eines Crawls auf nicht erreich­ba­re Drucker.

Ver­si­on 16

16.0

  • Bug­fix: Wenn ein Pro­xy ver­wen­det wur­de, konn­te die­ser nicht mehr ent­fernt werden.
  • Die Kon­fi­gu­ra­ti­ons­sei­te des Craw­lers ist jetzt auch per HTTPS erreich­bar.
  • Der Ver­bin­dungs­test des Craw­lers aktua­li­siert jetzt auch das URL-Feld.
  • Bug­fix: Der SNMP-Test des Craw­lers konn­te mit Son­der­zei­chen im Com­mu­ni­ty-String nicht umgehen.

Ver­si­on 15

15.2

  • Bug­fix: Bei Ände­run­gen an der Craw­ler-Ober­flä­che wird die H2 Daten­bank zurückgesetzt.
  • Bug­fix: Der Craw­ler kann nun mit Arti­kel­skrip­ten umge­hen, die Son­der­zei­chen in Para­me­tern bekommen.
  • Die Instal­la­ti­ons­da­tei des Craw­lE ist nun kleiner.

15.1

  • Ist die Sys­tem­spra­che dem Craw­lE nicht bekannt, wird Eng­lisch als Stan­dard verwendet.
  • Die Craw­lE GUI kann nun refres­hed wer­den, um Infor­ma­tio­nen über die iden­ti­fi­zier­ten Dru­cker auszugeben.
  • Mit Anfor­de­rung des LOG File wird nun auch die LOG File der GUI und der Dru­cker mitgeliefert.

15.0

  • Nun auch IPv6 Scans möglich
  • Der Craw­lE läuft in einem Dienst
  • Der Craw­lE hat nun eine benut­zer­freund­li­che Bedien­ober­flä­che für die Aus­wahl der Drucker
  • Das GUI des Craw­lE hat eine eige­ne LOG Datei
  • Depen­den­ci­es lie­gen nun neben der *.jar Datei und sind nicht mehr dar­in entpackt.

Ver­si­on 13

13.0

  • Für den Craw­ler kann nun ein Docker Image erstellt werden.
  • Wenn ein SSL Hand­shake nicht funk­tio­niert, wird nun für den Kun­den ein Lösungs­vor­schlag in die Log geschrieben.

Ver­si­on 12

12.1

  • SNMP Test zeigt das Ergeb­nis nun als Infor­ma­ti­on an.
  • Log­ing ver­bes­sert (weni­ger unnö­ti­ge Stack Traces)
  • In den Logs wird nun ~ jede Stun­de ein Ein­trag geschrie­ben, damit klar ist wann der Craw­ler gestar­tet war und wann nicht.

12.0

  • Kon­takt führt nun direkt zur SiBit Homepage.

Ver­si­on 11

11.3

  • Java Ände­run­gen für Linux Crawler.

11.2

  • Spra­che der GUI wird nun auch über das Set­up vorgegeben.

11.1

  • Klei­ne­re Feh­ler­be­he­bun­gen an dem GUI.

11.0

  • Der Craw­ler hat nun eine Web-Ober­flä­che. Dies ermög­licht den Dienst auch von ande­ren Rech­nern zu bedienen.
  • Das alte GUI wur­de entfernt.

Ver­si­on 10

10.1

  • Die MS Graph Schnitt­stel­le lie­fert nun bei den Assets die E-Mail Adres­se des Sys­tem­be­sit­zers mit, damit die zuge­hö­ri­ge Per­son hier­durch (alter­na­tiv) iden­ti­fi­ziert wer­den kann.

10.0

  • Ers­te Ver­si­on des CrawlE.
  • Kei­ne Ände­run­gen am Crawler.

    Ver­si­on 9

    9.3

    • Beinhal­tet und ver­wen­det nun Java 11.0.8+10 (Zulu 11.41.23) von Azul Systems.
    • Der Craw­ler kann nun Power­Shell Skrip­te aus­füh­ren, wel­che über die OA Ober­flä­che ein­ge­stellt werden.

    9.2

    • Der Craw­ler sen­det nun die loka­le IP und den Host­na­me des Rech­ners auf dem er instal­liert ist.

    9.1.1

    • Bug­fix: Wenn die Zone im Sup­port Tab geän­dert wird, wer­den alle zonen­spe­zi­fi­schen Infor­ma­tio­nen aus der Craw­ler H2 Daten­bank ent­fernt (Crawl Kon­fi­gu­ra­tio­nen, Scan Kon­fi­gu­ra­tio­nen etc.).

    9.1

    • Der manu­el­le Start des Crawl-Zeit­ge­bers wur­de entfernt.
    • Der Crawl-Zeit­ge­ber wird nun nach einer Been­di­gung auto­ma­tisch erneut gestartet.
    • Diver­se klei­ne­re Ver­bes­se­run­gen bei den Java Deamons.

    9.0

    • Der Craw­ler kann nun mit der Micro­soft Graph API kommunizieren.

    Archi­ve

    Ver­si­on 8

    8.0
    • Der Craw­ler kann nun SCCM Abfra­gen durchführen.
    • Known Issue: Die Über­set­zun­gen des Craw­lers funk­tio­nie­ren nicht rich­tig. In Ver­si­on 9.0 behoben.

    Ver­si­on 7

    7.6
    • Klei­ne­re Fehlerbehebungen.
    7.5.1
    • Die Pass­wort­ab­fra­ge für den Sup­port Tab des Craw­lers funk­tio­niert nun auch auf MAC OS.
    7.5
    • Bug­fix: Ein Scan konn­te in der H2 Daten­bank nicht gespei­chert wer­den, wenn der Ergeb­nis­wert mehr als 255 Zei­chen hat­te. maxi­ma­le Zei­chen wur­den auf 2500 erhöht und eine Log geschrie­ben, falls die­ser Fall erneut ein­tre­ten sollte.
    7.4
    • Der REST Ser­ver hört nun default auf local­host, jedoch ein­stell­bar über die Ein­stel­lung „net­work­In­ter­face“ in der Konfigurationsdatei.
    7.3
    • Es wird nun auch ein Crawl aus­ge­führt, wenn kei­ne Crawl Kon­fi­gu­ra­ti­on vor­han­den ist. Dies wird benö­tigt um ggf. Ergeb­nis­se von loka­len Dru­ckern zu übertragen.
    7.2
    • Gibt nun Mel­dun­gen für OS aus, wel­che kein GUI haben, falls für die .sh Skrip­te root Rech­te fehlen.
    • Diver­se Code Anpas­sun­gen an Konventionen.
    7.1
    • Unter­stüt­zung- und Set­up für Linux Betriebssysteme.
    • Bug­fix: Eini­ge Recht­schreib­feh­ler in den Über­set­zun­gen behoben.
    • Bug­fix: Die Bedien­ober­flä­che ver­sucht nun 10 Sekun­den lang das Pass­wort für die REST Kom­mu­ni­ka­ti­on mit dem Ser­vice zu laden. Danach wird davon aus­ge­gan­gen, dass der Ser­vice nicht gestar­tet ist. (Nur für den ers­ten Start des Craw­lers relevant).
    • Bug­fix: Die Ter­mi­nal Bedien­ober­flä­che (für bspw. Linux BS) gibt nun unbe­kann­te Feh­ler aus.
    7.0
    • RMI durch REST (Jer­sey V 2.25.1) aus­ge­tauscht (Kom­mu­ni­ka­ti­on GUI <-> Service).
    • REST ver­wen­det eine Basic Authen­ti­fi­zie­rung mit Pass­wort (sie­he Client.config) und einen optio­na­len Benutzername.
    • Craw­ler kann nun Ergeb­nis­se von einem loka­len USBPrint­Rea­der anneh­men (eben­falls über REST) und sen­det die­se im Crawl-Inter­vall an das OA.
    • GUI und Ser­vice depen­den­cy manage­ment auf Maven umgestellt.
    • Hiber­na­te Update von 4.1.9 auf 4.3.11.Final (kein Major Update).
    • H2 Trei­ber Update von 1.3.176 auf 1.4.196 (1.4.197 ent­hält kri­ti­sche Bugs).
    •  Der Craw­ler leert nun sei­ne Crawl Kon­fi­gu­ra­tio­nen, wenn das OA kei­ne mehr bereitstellt.
    • Ob der Pam­Ser­vice läuft wird nun eben­falls über REST geprüft und nicht mehr über ein VB-Skript.
    • Die Unter­schei­dung ob der Dienst nicht erreich­bar ist oder gar nicht erst läuft, ist hier­durch ent­fernt worden.
    • Dient vor allem als Vor­be­rei­tung für den Unix Crawler.
    • Bug­fix: Das Löschen und neu erstel­len der Ergeb­nis­ta­bel­len wur­de nie getriggert.

     

    3.x – 7.0 Die­se Ver­si­on wird ein­ge­stellt und nicht mehr unterstützt!

    Wir raten drin­gend von der Ver­wen­dung die­ser Ver­si­on ab. Sicher­heits­me­cha­nis­men rei­chen nach heu­ti­gen Maß­stä­ben nicht aus.

     

     

    Logo-Jobs
    Logo-Newsletter
    Mitglied im Händlerbund fair-commerce
    Icon-LinkedIn Icon-Xing Icon-Instagramm Icon-Facebook Icon-YouTube