Daten-Crawler "Octopus"
Ein Daten-Crawler ist eine automatisierte Software, die das Internet durchsucht, um Informationen von Websites zu sammeln. Es folgt Links, extrahiert Daten und indexiert sie für spätere Verwendung.
In der dritten Generation ist das Octopus System fortschrittlicher denn je. Eine komplett neue Architektur erlaubt neue Dimensionen der Skalierung und Geschwindigkeit in der Datenbeschaffung. Octopus 3.0 ist das Kernsystem, um automatisch einmalig oder wiederkehrend Informationen über das Internet zu akquirieren, auszulesen und strukturiert in großen Mengen zu speichern. Daten sind danach im Rohformat oder für die weitere Veredelung mit dem AutoValue-System verfügbar. Dabei stellen nicht-öffentliche Informationen, die bspw. nur mit Benutzernamen und Passwort erreichbar sind, kein Hindernis dar. Neben Webseiten ist Octopus 3.0 in der Lage Dateien herunterzuladen, RSS Feeds auszulesen oder beliebige APIs zu konnektieren. Dateiinhalte von bspw. Microsoft Office Dokumenten oder PDFs können in einem weiteren Schritt durch das AutoValue-System extrahiert und zur Verfügung gestellt werden. Generell sind der Datenakquise keine Grenzen gesetzt sofern Informationen über das Internet erreichbar sind und rechtlich unstrittig genutzt werden dürfen. Ob für Ihr Geschäft relevante Ausschreibungen, Preisentwicklungen beim Wettbewerb oder Ihr Unternehmen in der Presse – Octopus 3.0 bietet vielfältige Anwendungsmöglichkeiten, um vollautomatisch wichtige Informationsvorsprünge nutzen zu können. Durch Trigger können Sie sich automatisch über definierte Veränderungen per Email unterrichten lassen.