tricoma.ai Connector - Verfügbar ab 04.12. Mehr Infos
search.1.svg

DataCrawler - Data Scraping Software - Produktdatenauswertung

Produktdatenpflege automatisieren

DataCrawler Schnittstelle

Die Produktdatenpflege nimmt viel Zeit in Anspruch. Wenn Ihre Produkte nicht ausreichend oder sogar falsch gepflegt sind, haben Sie mit Kaufrückgängen, einer hohen Retourenquote und unzufriedenen Kunden zu kämpfen. Das muss nicht sein! Nahezu jeder Hersteller oder Lieferant stellt die Daten seiner Produkte bereit. Wozu sollen Sie dann Ihre Arbeitszeit aufwenden, um Artikeldaten manuell einzupflegen? Mit dem DataCrawler von tricoma können die Daten von Lieferantenshops automatisch ausgelesen werden und Sie können Ihren Onlineshop innerhalb kürzester Zeit mit frischen Daten füllen. Sparen Sie Zeit und profitieren Sie von der hohen Datenqualität, um Ihren Umsatz zu steigern und Ihre Kunden zu Fans zu machen.

Daten einfach auslesen

Data Scraping über den DataCrawler

Der DataCrawler schaut sich die Seiten, die gecrawlt werden sollen, an und bereitet die Daten auf. Wie das Ganze funktioniert? Mithilfe des Data Scraping. Beim Data Scraping werden die Informationen ausgelesen und in strukturierter Form für Sie aufbereitet. Der Crawler extrahiert die Daten, die Sie benötigen, um eine saubere Produktdatenpflege zu betreiben. Manuelles Auslesen von Daten? Schnee von gestern.

Data Scraping über den DataCrawler
Einfaches Crawlen von Lieferanten- oder Herstellerwebseiten

Lieferantendaten

Einfaches Crawlen von Lieferanten- oder Herstellerwebseiten

Bei der Produktdatenpflege ist es oftmals der Fall, dass die erforderlichen Daten vom Lieferanten nur unzureichend mitgeschickt werden. Fragen Sie deshalb Ihren Lieferanten oder Hersteller vorab, ob er ein Crawlen seiner Website erlaubt. Wenn Sie grünes Licht erhalten, steht einem automatischen Auslesen nichts mehr im Wege und Sie erhalten auf einfache Art und Weise die benötigten Produktdaten..

Produkte auslesen

Produkte werden aus der Webseite extrahiert und aufbereitet

Bevor Sie den DataCrawler verwenden können, müssen Sie die App entsprechend konfigurieren. Hierbei definieren Sie die gewünschte Website und nehmen Grundeinstellungen vor, damit Sie die Daten in der richtigen Formatierung erhalten. Der Crawler zieht sich die Daten von der Hersteller- oder Lieferantenseite und extrahiert diese. Die erhaltenen Informationen können Sie umstandslos in einer Schattendatenbank direkt in Ihrem tricoma anschauen.

Produkte auslesen
Einfache Produktanlage

Neue Produkte? In nur einem Klick!

Einfache Produktanlage aus gecrawlten Produkten

Haben Sie neue Produkte bei Ihrem Lieferanten bestellt oder wechseln Sie das Sortiment? Jetzt müssen die Artikel nur noch eingepflegt werden. In der Übersicht können Sie die Artikel gebündelt auswählen und sind nur einen Klick von der Produktanlage entfernt. Profitieren Sie von der enormen Zeitersparnis und launchen Sie einfach neue Produkte.

Eigene Produktpreislisten

Erweiterung der gecrawlten Daten mit Produktpreislisten

Die Preise des Herstellers unterscheiden sich von der Preisliste des Lieferanten? Kein Problem! Sie können die durchsuchten Daten mit der Händlerpreisliste im CSV-Format ergänzen. Das ist ein perfektes Zusammenspiel!

Eigene Produktpreislisten
Eigene Datenbereiche

Eigene Datenbereiche

Anlage von Regeln für das Data Scraping

Damit sich die Daten ideal auslesen lassen, empfehlen wir, Ihnen Regeln zu definieren. Warum? Es gibt nicht sichtbare Bereiche einer Website und somit können auf Anhieb nicht alle Daten automatisch gecrawlt werden. Jedoch sind im Hintergrund der Seite die Daten bereits aufbereitet. Sie können bis zu 200 Regeln konfigurieren. Anhand dieser Regeln weiß der Bot, wie er suchen muss, und liefert Ihnen die passenden Daten mitsamt Attributen.

Regeln für aufbereitete Daten

Daten nach dem Crawlen aufbereiten

Der Shop wurde gecrawlt und die Daten liegen nun vor. Jedoch fehlen einige Attribute in unserer Schattendatenbank, die auf der Herstellerseite verfügbar sind. Auch das lässt sich mit dem DataCrawler einfach lösen. Anhand des Seitenquelltextes der Website können Sie die Bedingungen auslesen und diese in den Einstellungen entsprechend definieren. Die eigenen Regeln ähneln der Import / Export App. Erstellen Sie Ihr eigenes Regelsystem, um spezielle Inhalte auszulesen.

Regeln für aufbereitete Daten
Optimiertes Crawlen

Optimiertes Crawlen

Sessionmanagement, um Überlastungen zu vermeiden

Sie haben die Auslastung des Crawlers über das Monitoring jederzeit im Blick. Während der Bot die URLs durchkämmt wird mit sog. Sessions gearbeitet. Der Zielserver kann ein Limit setzen und durch das Sessionmanagement kann eine Überlastung vermieden werden. So haben Sie stets aktive Sessions im Visier und seien Sie informiert, was gerade im Hintergrund läuft.

Loginmaske umgehen

Eigene Loginklasse möglich

Sie haben die Möglichkeit, über die Verarbeitungsklassen ein wiederholendes Login zu vermeiden. Über die Loginklasse können Sie sich einmalig vor Aufruf der gewünschten URL auf der Website einloggen. Dieser Anmeldevorgang wird gespeichert. Ihr Vorteil? So müssen sich nicht bei jedem erneuten Aufruf der Website anmelden, was Sperrungen aufgrund zu vieler Logins vorbeugt.

Loginmaske umgehen
Eigene PHP Klasse

Entwickler?

Eigene PHP Klasse für Product Data Scraping

Für die Nutzung des DataCrawler ist ein gewisses technisches Grundwissen nötig. Falls Sie leidenschaftlich gerne entwickeln oder Entwickler im Haus haben, ist da natürlich noch besser! Die Skriptsprache für unseren Crawler ist PHP. Somit können Sie einfach eigenen Klassen bauen und das Product Data Scraping beliebig erweitern.

Verborgene Adressen

Nutzung der Suche, um Produkt URLs zu erhalten

Der DataCrawler arbeitet beim Data Scraping so, dass er jeden Link „anklickt“, der über die URL erreichbar ist. Manche Produkte sind im Shop aber nur über die Suche erreichbar, z.B. bei Produkten mit mehreren Farben. Diese Artikel werden teilweise nur über JavaScript nachgeladen. Über die Tools können Sie Suchanfragen einstellen und nach Artikelnummern aus der Lieferantenpreisliste suchen. Nutzen Sie die Suche, um alle relevanten Inhalte zu erhalten!

Verborgene Adressen
Auswertung der sitemap.xml

Arbeiten wie eine Suchmaschine

Auswertung der sitemap.xml

Der DataCrawler ist ein außerordentliches Tool, mit dem Sie die Möglichkeit erhalten, Ihr Unternehmen extrem zu automatisieren. Mit der Option, jederzeit manuell das Crawlen zu starten, können Sie einfach die sitemap.xml einer Seite einzureichen. Somit können Sie diese einfach Auswerten und Suchmaschinen Konkurrenz machen. Behalten Sie hierbei immer die rechtlichen Vorgaben im Blick.

Automatische Prozesse

Automatischer ReCrawl der Produkt URLs

Sie können für die Datenspinne ganz einfach Automatismen einstellen. In den Einstellungen haben Sie jederzeit die Möglichkeit die Website automatisch zu Crawlen. Unabhängig davon, können Sie auch URLs mit Daten erneut Crawlen lassen. Mit dem DataCrawler ist ein automatischer ReCrawl für bis zu 30 Tage möglich.

Automatische Prozesse
Kompatibel mit dem Product Workflow

Farbe, Größe, Form, Gewicht...

Kompatibel mit dem Product Workflow: Attribute können in Produktdatenfelder übergeben werden

Die strukturierten Daten werden in der Schattendatenbank aufbereitet und mit bereits vorhandenen Produkten verknüpft. Für eine produktive Produktdatenpflege empfehlen wir eine Nutzung mit der App Product Workflow und dem Data Mapping. Die Daten werden als Vorschlag zur Übernahme an den Product Workflow übergeben. Sie können sich Arbeit erleichtern und über den Massendatenabgleich Artikel auf Knopfdruck aktualisieren und mit Produktdaten neu befüllen. Profitieren Sie von der dazu gewonnenen Flexibilität in der Produktdatenpflege.

Bilder vergleichen

Gecrawlte Bilder erweitern Ihre Produktbildbibliothek

Der DataCrawler übergibt neben Attributen auch Bilder in das Data Mapping der App Product Workflow. Hierbei findet ein Bildvergleich statt, sodass neue Bilder zur Übernahme vorgeschlagen werden. Der Crawler prüft, ob das oder ein ähnliches Bild bereits vorhanden ist. Sparen Sie sich die Zeit, neue Produktbilder zu erstellen, und erweitern Sie auf einfache Art und Weise Ihre Bibliothek mit visuellen Blickfängen.

Bitte beachten Sie: Diese Option befindet sich aktuell noch in der BETA-Phase.

Gecrawlte Bilder erweitern Ihre Produktbildbibliothek
 

Hersteller dieser App

tricoma AG

Mehr zu diesem Hersteller: hier
 

Top Funktionen einfach erklärt

DataCrawler Schnittstelle

Einfaches Crawlen von Lieferanten- oder Herstellerwebseiten
Einfaches Crawlen von Lieferanten- oder Herstellerwebseiten
Produkte werden aus der Webseite extrahiert und aufbereitet
Produkte werden aus der Webseite extrahiert und aufbereitet
Erweiterung der gecrawlten Daten mit Produktpreislisten
Erweiterung der gecrawlten Daten mit Produktpreislisten
Regeln für aufbereitete Daten
Regeln für aufbereitete Daten
Sessionmanagement um Überlastungen zu vermeiden
Sessionmanagement um Überlastungen zu vermeiden
Eigene Loginklasse möglich
Eigene Loginklasse möglich
Nutzung der Suche um ProduktURLs zu erhalten
Nutzung der Suche um ProduktURLs zu erhalten
Auswertung der sitemap.xml
Auswertung der sitemap.xml
Automatischer ReCrawl der Produkt URLs
Automatischer ReCrawl der Produkt URLs
Gecrawlte Bilder erweitern Ihre Produktbildbibliothek
Gecrawlte Bilder erweitern Ihre Produktbildbibliothek
Anlage von Regeln für das Data Scrapping
Anlage von Regeln für das Data Scrapping
Einfache Produktanlage aus gecrawlten Produkten
Einfache Produktanlage aus gecrawlten Produkten
Eigene Klasse für Produktverarbeitungen
Eigene Klasse für Produktverarbeitungen
Kompatibel mit dem Product Workflow: Attribute können in Produktdatenfelder übergeben werden
Kompatibel mit dem Product Workflow: Attribute können in Produktdatenfelder übergeben werden
Lagerbestand vom Lieferanten auslesen und in das Produkt übertragen
Lagerbestand vom Lieferanten auslesen und in das Produkt übertragen

DataCrawler Schnittstelle: Weitere Funktionen

  • Kompatibilität mit gz komprimierten Sitemap URLs
  • Performanceoptimierung der Produktübersicht durch einen Lazy Loader
  • Statistik nach URLs je Webseite
  • Herstellernamen vorne am Produkttitel automatisch anfügen können
  • Data Scraping über den DataCrawler

Passende Videos

DataCrawler Schnittstelle

Top Video von DataCrawler Schnittstelle

 

Warum tricoma?

Darum werden Sie tricoma lieben:

  • Zeit und Geld sparen durch automatisierte Abläufe
  • Umsatzsteigerung durch Anbindungen an Verkaufsplattformen
  • Geringer Einstiegspreis, dank monatlicher Gebühr
  • Gemeinsame Systemeinrichtung und 24/7 Support
  • Skalierbares und modular aufgebautes Baukastensystem
  • eCommerce Grundsystem und über 200 leistungsstarke Apps und Module
  • Hohe Systemverfügbarkeit durch mehrstufigem Backup System
  • Umfassende Erfahrung und Kompetenz durch eigenen Onlinehandel

Gemeinsam sind wir stark.

Unsere Partner im Überblick

Fangen Sie noch heute an
Ihr Unternehmen zu revolutionieren!

Testen Sie tricoma kostenlos und unverbindlich.


Mit der Eingabe der Daten erklären Sie sich mit den Datenschutzvereinbarungen von tricoma einverstanden.

Cookie und Tracking
Diese Webseite verwendet Cookies
Cookies werden zur Verbesserung der Benutzerführung verwendet und helfen dabei, diese Webseite besser zu machen.