Die Produktdatenpflege nimmt viel Zeit in Anspruch. Wenn Ihre Produkte nicht ausreichend oder sogar falsch gepflegt sind, haben Sie mit Kaufrückgängen, einer hohen Retourenquote und unzufriedenen Kunden zu kämpfen. Das muss nicht sein! Nahezu jeder Hersteller oder Lieferant stellt die Daten seiner Produkte bereit. Wozu sollen Sie dann Ihre Arbeitszeit aufwenden, um Artikeldaten manuell einzupflegen? Mit dem DataCrawler von tricoma können die Daten von Lieferantenshops automatisch ausgelesen werden und Sie können Ihren Onlineshop innerhalb kürzester Zeit mit frischen Daten füllen. Sparen Sie Zeit und profitieren Sie von der hohen Datenqualität, um Ihren Umsatz zu steigern und Ihre Kunden zu Fans zu machen.
799,00 € / monatlich
* zzgl. MehrwertsteuerDer DataCrawler schaut sich die Seiten, die gecrawlt werden sollen, an und bereitet die Daten auf. Wie das Ganze funktioniert? Mithilfe des Data Scraping. Beim Data Scraping werden die Informationen ausgelesen und in strukturierter Form für Sie aufbereitet. Der Crawler extrahiert die Daten, die Sie benötigen, um eine saubere Produktdatenpflege zu betreiben. Manuelles Auslesen von Daten? Schnee von gestern.
Bei der Produktdatenpflege ist es oftmals der Fall, dass die erforderlichen Daten vom Lieferanten nur unzureichend mitgeschickt werden. Fragen Sie deshalb Ihren Lieferanten oder Hersteller vorab, ob er ein Crawlen seiner Website erlaubt. Wenn Sie grünes Licht erhalten, steht einem automatischen Auslesen nichts mehr im Wege und Sie erhalten auf einfache Art und Weise die benötigten Produktdaten..
Bevor Sie den DataCrawler verwenden können, müssen Sie die App entsprechend konfigurieren. Hierbei definieren Sie die gewünschte Website und nehmen Grundeinstellungen vor, damit Sie die Daten in der richtigen Formatierung erhalten. Der Crawler zieht sich die Daten von der Hersteller- oder Lieferantenseite und extrahiert diese. Die erhaltenen Informationen können Sie umstandslos in einer Schattendatenbank direkt in Ihrem tricoma anschauen.
Haben Sie neue Produkte bei Ihrem Lieferanten bestellt oder wechseln Sie das Sortiment? Jetzt müssen die Artikel nur noch eingepflegt werden. In der Übersicht können Sie die Artikel gebündelt auswählen und sind nur einen Klick von der Produktanlage entfernt. Profitieren Sie von der enormen Zeitersparnis und launchen Sie einfach neue Produkte.
Die Preise des Herstellers unterscheiden sich von der Preisliste des Lieferanten? Kein Problem! Sie können die durchsuchten Daten mit der Händlerpreisliste im CSV-Format ergänzen. Das ist ein perfektes Zusammenspiel!
Damit sich die Daten ideal auslesen lassen, empfehlen wir, Ihnen Regeln zu definieren. Warum? Es gibt nicht sichtbare Bereiche einer Website und somit können auf Anhieb nicht alle Daten automatisch gecrawlt werden. Jedoch sind im Hintergrund der Seite die Daten bereits aufbereitet. Sie können bis zu 200 Regeln konfigurieren. Anhand dieser Regeln weiß der Bot, wie er suchen muss, und liefert Ihnen die passenden Daten mitsamt Attributen.
Der Shop wurde gecrawlt und die Daten liegen nun vor. Jedoch fehlen einige Attribute in unserer Schattendatenbank, die auf der Herstellerseite verfügbar sind. Auch das lässt sich mit dem DataCrawler einfach lösen. Anhand des Seitenquelltextes der Website können Sie die Bedingungen auslesen und diese in den Einstellungen entsprechend definieren. Die eigenen Regeln ähneln der Import / Export App. Erstellen Sie Ihr eigenes Regelsystem, um spezielle Inhalte auszulesen.
Sie haben die Auslastung des Crawlers über das Monitoring jederzeit im Blick. Während der Bot die URLs durchkämmt wird mit sog. Sessions gearbeitet. Der Zielserver kann ein Limit setzen und durch das Sessionmanagement kann eine Überlastung vermieden werden. So haben Sie stets aktive Sessions im Visier und seien Sie informiert, was gerade im Hintergrund läuft.
Sie haben die Möglichkeit, über die Verarbeitungsklassen ein wiederholendes Login zu vermeiden. Über die Loginklasse können Sie sich einmalig vor Aufruf der gewünschten URL auf der Website einloggen. Dieser Anmeldevorgang wird gespeichert. Ihr Vorteil? So müssen sich nicht bei jedem erneuten Aufruf der Website anmelden, was Sperrungen aufgrund zu vieler Logins vorbeugt.
Für die Nutzung des DataCrawler ist ein gewisses technisches Grundwissen nötig. Falls Sie leidenschaftlich gerne entwickeln oder Entwickler im Haus haben, ist da natürlich noch besser! Die Skriptsprache für unseren Crawler ist PHP. Somit können Sie einfach eigenen Klassen bauen und das Product Data Scraping beliebig erweitern.
Der DataCrawler arbeitet beim Data Scraping so, dass er jeden Link „anklickt“, der über die URL erreichbar ist. Manche Produkte sind im Shop aber nur über die Suche erreichbar, z.B. bei Produkten mit mehreren Farben. Diese Artikel werden teilweise nur über JavaScript nachgeladen. Über die Tools können Sie Suchanfragen einstellen und nach Artikelnummern aus der Lieferantenpreisliste suchen. Nutzen Sie die Suche, um alle relevanten Inhalte zu erhalten!
Der DataCrawler ist ein außerordentliches Tool, mit dem Sie die Möglichkeit erhalten, Ihr Unternehmen extrem zu automatisieren. Mit der Option, jederzeit manuell das Crawlen zu starten, können Sie einfach die sitemap.xml einer Seite einzureichen. Somit können Sie diese einfach Auswerten und Suchmaschinen Konkurrenz machen. Behalten Sie hierbei immer die rechtlichen Vorgaben im Blick.
Sie können für die Datenspinne ganz einfach Automatismen einstellen. In den Einstellungen haben Sie jederzeit die Möglichkeit die Website automatisch zu Crawlen. Unabhängig davon, können Sie auch URLs mit Daten erneut Crawlen lassen. Mit dem DataCrawler ist ein automatischer ReCrawl für bis zu 30 Tage möglich.
Die strukturierten Daten werden in der Schattendatenbank aufbereitet und mit bereits vorhandenen Produkten verknüpft. Für eine produktive Produktdatenpflege empfehlen wir eine Nutzung mit der App Product Workflow und dem Data Mapping. Die Daten werden als Vorschlag zur Übernahme an den Product Workflow übergeben. Sie können sich Arbeit erleichtern und über den Massendatenabgleich Artikel auf Knopfdruck aktualisieren und mit Produktdaten neu befüllen. Profitieren Sie von der dazu gewonnenen Flexibilität in der Produktdatenpflege.
Der DataCrawler übergibt neben Attributen auch Bilder in das Data Mapping der App Product Workflow. Hierbei findet ein Bildvergleich statt, sodass neue Bilder zur Übernahme vorgeschlagen werden. Der Crawler prüft, ob das oder ein ähnliches Bild bereits vorhanden ist. Sparen Sie sich die Zeit, neue Produktbilder zu erstellen, und erweitern Sie auf einfache Art und Weise Ihre Bibliothek mit visuellen Blickfängen.
Bitte beachten Sie: Diese Option befindet sich aktuell noch in der BETA-Phase.
Teste tricoma unverbindlich für 30 Tage.