{"id":41901,"date":"2026-03-23T16:42:42","date_gmt":"2026-03-23T16:42:42","guid":{"rendered":"https:\/\/floppydata.com\/nicht-kategorisiert\/skalieren-und-automatisieren-von-web-scraping\/"},"modified":"2026-03-23T16:42:42","modified_gmt":"2026-03-23T16:42:42","slug":"how-to-scale-and-automate-web-scraping","status":"publish","type":"post","link":"https:\/\/floppydata.com\/de\/blog\/how-to-scale-and-automate-web-scraping\/","title":{"rendered":"Skalieren und Automatisieren von Web Scraping"},"content":{"rendered":"<p>Im Jahr 2026 ist es nicht einfach, Web-Scraping-Automatisierungen durchzuf\u00fchren. Da viele KI-Unternehmen versuchen, so viele Daten wie m\u00f6glich aus dem Internet abzusch\u00f6pfen, um Modelle zu trainieren, setzen Plattformen wie Reddit, Meta, X und andere KI-gest\u00fctzte Erkennungssysteme ein, um zu verhindern, dass Web Scraper \u00f6ffentliche Nutzerdaten in die Finger bekommen. In diesem Leitfaden erfahren Sie, wie Sie das Web Scraping im Jahr 2026 skalieren und automatisieren k\u00f6nnen.  <\/p>\n<h2>Warum wird Web Scraping immer schwieriger?<\/h2>\n<p><img fetchpriority=\"high\" decoding=\"async\" class=\"alignnone size-full wp-image-41790\" src=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image6-3.png\" alt=\"Web Scraping wird schwieriger\" width=\"1536\" height=\"1024\" srcset=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image6-3.png 1536w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image6-3-300x200.png 300w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image6-3-1024x683.png 1024w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image6-3-768x512.png 768w\" sizes=\"(max-width: 1536px) 100vw, 1536px\" \/><\/p>\n<p>Hier sind einige Gr\u00fcnde, warum Unternehmen Web-Scraping-Automatisierungen aktiv erkennen und blockieren.<\/p>\n<ol>\n<li>Web Scraper belasten die Server unn\u00f6tig, da sie Hunderte oder sogar Tausende von gleichzeitigen automatischen Anfragen senden.<\/li>\n<li>Werbetreibende m\u00f6gen keine Bots, weil einem Bot, der Daten von einer Seite ausliest, Anzeigen gezeigt werden und die Werbeausgaben verpuffen.<\/li>\n<li>Die meisten Unternehmen verkaufen ihre Daten lieber an andere KI-Unternehmen oder trainieren ihre eigenen Modelle. Deshalb wollen sie nicht, dass Scraper kostenlos Daten von ihrer Plattform extrahieren. <\/li>\n<\/ol>\n<p>Nichtsdestotrotz gibt es auch im Jahr 2026 noch einige effektive Methoden zum Daten-Scraping, die nicht nur sicher sind, sondern auch skalierbar, einfach zu automatisieren und f\u00fcr alle Websites geeignet. Da Anti-Bot-Systeme mit Hilfe von KI immer intelligenter werden, holen auch Web Scraper auf, indem sie CAPTCHAs automatisch l\u00f6sen, Mausbewegungen und Klicks nach dem Zufallsprinzip sortieren, IPs rotieren, Browser-Fingerabdr\u00fccke nach dem Zufallsprinzip sortieren und vieles mehr. <\/p>\n<h2>Wie skaliert man Web Scraping?<br \/>\n<img decoding=\"async\" class=\"alignnone size-full wp-image-41799\" src=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image2-3.png\" alt=\"Web Scraping skalieren\" width=\"1536\" height=\"1024\" srcset=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image2-3.png 1536w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image2-3-300x200.png 300w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image2-3-1024x683.png 1024w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image2-3-768x512.png 768w\" sizes=\"(max-width: 1536px) 100vw, 1536px\" \/><\/h2>\n<p>Das Scraping von ein oder zwei Webseiten ist nicht das Problem, aber wie sollen wir innerhalb weniger Stunden oder Tage Tausende von Webseiten scrapen? Wir k\u00f6nnen auf unserem Ger\u00e4t nicht so viele Registerkarten \u00f6ffnen, da der Arbeitsspeicher und die Verarbeitungsgeschwindigkeit begrenzt sind, und wenn unsere IP in den ersten Minuten gesperrt wird, m\u00fcssen wir auf ein anderes Ger\u00e4t wechseln. <\/p>\n<p>Die Skalierung von Web Scraping erfordert Verst\u00e4ndnis und Planung. Lassen Sie uns zun\u00e4chst die Herausforderungen beim Web Scraping verstehen. <\/p>\n<h3>Herausforderungen beim Web Scraping<\/h3>\n<p>Websites sind nicht mehr nur statische HTML-Seiten. Anti-Bot-Systeme verfolgen st\u00e4ndig die Benutzeraktivit\u00e4ten und die Qualit\u00e4t des Datenverkehrs, um sicherzustellen, dass nur echte Benutzer auf Websites zugreifen und Scraper sofort blockiert werden. Hier sind die Herausforderungen, mit denen ich konfrontiert wurde, als ich mit Web Scraping begann:  <\/p>\n<ul>\n<li><strong><strong>IP-Rate-Limitierung: <\/strong>Die Plattformen verfolgen die Anzahl der Anfragen pro IP-Adresse jede Minute und Stunde. Wenn eine IP-Adresse versucht, das Limit zu \u00fcberschreiten, wird das Konto gesperrt oder wegen Spam-Aktivit\u00e4ten vor\u00fcbergehend deaktiviert. <\/strong><\/li>\n<\/ul>\n<ul>\n<li><strong>Javascript-Rendering: <\/strong>Viele Websites laden Inhalte jetzt dynamisch. Wenn ein Scraper versucht, HTML-Inhalte abzurufen, erh\u00e4lt er fehlende Felder, weil einige Teile der Seite nicht geladen wurden. <\/li>\n<\/ul>\n<ul>\n<li><strong>CAPTCHAs: <\/strong>Meine Web-Scraping-Skripte hatten Schwierigkeiten, CAPTCHAs zu l\u00f6sen und sperrten mich immer wieder aus. Facebook sperrte sogar meine IP und ich konnte nicht mehr \u00fcber dieselbe IP darauf zugreifen. <\/li>\n<\/ul>\n<ul>\n<li><strong>Erkennung von Verhaltensweisen: <\/strong>Websites verfolgen Ihr Verhalten wie Scroll-Aktivit\u00e4ten, Mausbewegungen, zuf\u00e4llige Klicks usw., um festzustellen, ob Sie ein Bot oder eine echte Person sind.<\/li>\n<\/ul>\n<ul>\n<li><strong>Fingerabdruck-Verfolgung: <\/strong>Plattformen speichern und verfolgen Ihren Browser-Fingerabdruck, um festzustellen, welche Ger\u00e4te dieses Konto verwenden. Wenn ein Versto\u00df gegen die Nutzungsbedingungen festgestellt wird, k\u00f6nnen sie den Fingerabdruck sperren und verhindern, dass Ihr Browser auf die Plattform zugreifen kann. <\/li>\n<\/ul>\n<ul>\n<li><strong>Verwaltung von Cookies: <\/strong>Ich habe versucht, Proxys und mehrere Browserprofile zu verwenden, aber ich hatte immer wieder Probleme mit der Kreuzkontamination von Cookies. Da alle Profile Cookies meiner Anmeldesitzungen speichern, konnten die Plattformen erkennen, dass ich von demselben Ger\u00e4t aus andere Konten angemeldet habe und Web Scraping betreibe. <\/li>\n<\/ul>\n<h3>Aufbau einer skalierbaren Web Scraping Strategie<\/h3>\n<p>Es gibt einige hervorragende <a href=\"https:\/\/floppydata.com\/web-scraping\/\">Web-Scraping-Dienste<\/a>, mit denen Sie ein skalierbares Web-Scraping-System aufbauen k\u00f6nnen, ohne sich um all die oben beschriebenen Probleme k\u00fcmmern zu m\u00fcssen. Diese Web-Scraping-Tools verwenden einen Pool von Proxies und zuf\u00e4llige Browser-Fingerabdr\u00fccke, lassen alle Scraping-Sitzungen in der Cloud laufen, um Ihren Rechner nicht zu belasten, l\u00f6sen CAPTCHAs automatisch, isolieren Cookies und \u00fcbernehmen das Rendering von Javascript. <\/p>\n<p>Web-Scraping-Dienste wie Floppydata l\u00f6sen das Problem der Skalierbarkeit durch:<\/p>\n<ul>\n<li>Parallele Browser-Sitzungen in der Cloud ausf\u00fchren<\/li>\n<li>Mit rotierenden IPs aus seinem Pool von 90 Millionen Proxys<\/li>\n<li>Automatischer Umgang mit CAPTCHAs und JS-Rendering<\/li>\n<li>Skalierung nach Bedarf, ohne dass eine zus\u00e4tzliche Infrastruktur eingerichtet werden muss<\/li>\n<\/ul>\n<h2>Wie automatisiert man Web Scraping?<br \/>\n<img decoding=\"async\" class=\"alignnone size-full wp-image-41808\" src=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image3-3.png\" alt=\"Automatisieren Sie Web Scraping\" width=\"1536\" height=\"1024\" srcset=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image3-3.png 1536w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image3-3-300x200.png 300w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image3-3-1024x683.png 1024w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image3-3-768x512.png 768w\" sizes=\"(max-width: 1536px) 100vw, 1536px\" \/><\/h2>\n<p>Wenn Sie eine skalierbare Infrastruktur haben, m\u00fcssen Sie ein automatisiertes System zur Verwaltung von Proxys, Extraktionen, Links, Datenformatierung usw. einrichten. Auch wenn Scraping-Dienste Ihnen eine skalierbare Infrastruktur zur Verf\u00fcgung stellen, mit der Sie Tausende von Anfragen pro Stunde bearbeiten k\u00f6nnen, k\u00f6nnen Sie dies nicht manuell tun. Hier kommen Automatisierungsskripte f\u00fcr Scraping ins Spiel.  <\/p>\n<p>Einige Web-Scraping-Dienste bieten <strong>vorkonfigurierte Vorlagen<\/strong> f\u00fcr bekannte Plattformen wie <a href=\"https:\/\/floppydata.com\/web-scraping\/social-media-scraper\/reddit-scraping\/\">Reddit<\/a>, Meta, <a href=\"https:\/\/floppydata.com\/web-scraping\/social-media-scraper\/instagram\/\">Instagram<\/a>, X. usw. Sie k\u00f6nnen eine Vorlage ausw\u00e4hlen, sie f\u00fcr Ihren Anwendungsfall konfigurieren und mit dem Scraping beginnen. <\/p>\n<p>Eine andere Methode zur Automatisierung von Web Scraping, die auch sehr beliebt ist, sind <strong>API-Schl\u00fcssel.<\/strong> Web-Scraping-Dienste wie Floppydata bieten ihre API-Schl\u00fcssel an, mit denen Sie Web-Scraping-Anfragen an ihren Cloud-Server senden und im Gegenzug die extrahierten Inhalte erhalten. Wenn Sie eine API verwenden, sind die M\u00f6glichkeiten endlos. Sie definieren Ihr eigenes Format f\u00fcr die Datenextraktion, Ihre Regeln f\u00fcr die Proxy-Rotation, welche Seiten extrahiert werden sollen, welche Felder extrahiert werden sollen, wie sie gespeichert werden sollen, wie viel Verz\u00f6gerung zwischen den einzelnen Anfragen eingef\u00fcgt werden soll, wie viele gleichzeitige Anfragen gesendet werden sollen und vieles mehr.  <\/p>\n<p>Sie k\u00f6nnen diesen API-Schl\u00fcssel verwenden, um Scraping-Tools zu erstellen oder ihn in Ihr bestehendes Unternehmenssystem zu integrieren. Alles, was Sie brauchen, ist ein API-Schl\u00fcssel, und Dienste wie Floppydata k\u00fcmmern sich um den Rest und liefern Ihnen die endg\u00fcltigen Ergebnisse. <\/p>\n<h2>Schritt-f\u00fcr-Schritt-Anleitung f\u00fcr skaliertes und automatisiertes Web Scraping<\/h2>\n<p>Hier finden Sie eine Schritt-f\u00fcr-Schritt-Anleitung zur Erstellung einer Web-Scraping-Automatisierung mit Floppydata API.<\/p>\n<h3>Schritt #1: Erstellen Sie ein Floppydata-Konto<\/h3>\n<p>Melden Sie sich bei Floppydata an und \u00f6ffnen Sie das Dashboard. Hier k\u00f6nnen Sie Ihre Proxys und Tools wie den Web Unlocker verwalten. <\/p>\n<h3><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-41817\" src=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image1-4.png\" alt=\"Floppydata Konto\" width=\"1919\" height=\"1079\" srcset=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image1-4.png 1919w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image1-4-300x169.png 300w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image1-4-1024x576.png 1024w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image1-4-768x432.png 768w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image1-4-1536x864.png 1536w\" sizes=\"(max-width: 1919px) 100vw, 1919px\" \/><\/h3>\n<h3>Schritt #2: Analysieren Sie die Ziel-URL<br \/>\n<img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-41826\" src=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image5-2.png\" alt=\"  Analysieren Sie die Ziel-URL  \" width=\"1919\" height=\"1079\" srcset=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image5-2.png 1919w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image5-2-300x169.png 300w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image5-2-1024x576.png 1024w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image5-2-768x432.png 768w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image5-2-1536x864.png 1536w\" sizes=\"(max-width: 1919px) 100vw, 1919px\" \/><\/h3>\n<p>F\u00fcgen Sie Ihre URL in das angezeigte Feld ein und klicken Sie auf scrapen. Sie erhalten den HTML-Inhalt dieser Seite zusammen mit einem Codeschnipsel, den Sie zu Ihrer Browser-Automatisierung hinzuf\u00fcgen k\u00f6nnen. Wenn Sie eine Automatisierung zum Abrufen von Produktpreisen von einer Website erstellen, k\u00f6nnen Sie diese Analysefunktion verwenden, um zu ermitteln, welches HTML-Tag Preise enth\u00e4lt. Sie k\u00f6nnen dann Ihr Automatisierungsskript so schreiben, dass es speziell die folgenden Tags extrahiert und sie in Ihrer Excel\/csv-Datei speichert.   <\/p>\n<h3>Schritt #3: API-Schl\u00fcssel f\u00fcr die Automatisierung erstellen<\/h3>\n<p>Sie k\u00f6nnen \u00fcber Ihre Kontoeinstellungen API-Schl\u00fcssel erstellen. Diese API-Schl\u00fcssel werden in Ihrem Skript zur Browser-Automatisierung verwendet, um Proxys zu drehen, Websites freizuschalten und Daten zu scrapen. Floppydata Web Unlocker sch\u00f6pft Daten ab und sendet sie \u00fcber diese API an Ihr Skript.  <\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-41835\" src=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image4-3.png\" alt=\"API-Schl\u00fcssel f\u00fcr Automatisierung  \" width=\"1919\" height=\"943\" srcset=\"https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image4-3.png 1919w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image4-3-300x147.png 300w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image4-3-1024x503.png 1024w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image4-3-768x377.png 768w, https:\/\/floppydata.com\/wp-content\/uploads\/2026\/03\/image4-3-1536x755.png 1536w\" sizes=\"(max-width: 1919px) 100vw, 1919px\" \/><\/p>\n<h3>Schritt #4: Web Scraping Automation schreiben und ausf\u00fchren<\/h3>\n<p>Jetzt, da Sie den API-Schl\u00fcssel und die Proxys haben, k\u00f6nnen Sie ein Web-Scraping-Skript in Python, Javascript, C# oder GO erstellen. F\u00fcgen Sie Ihren API-Schl\u00fcssel zusammen mit den URLs in den Codeausschnitt ein, der auf der Webfreigabeseite angezeigt wird. Hier ist ein kurzes Beispiel f\u00fcr ein Python-Skript, das ich in einem Python-Interpreter ausf\u00fchren kann, um Daten aus einem <a href=\"https:\/\/www.reddit.com\/r\/automation\/comments\/1ntu327\/top_5_antidetect_browsers_comparison_2025\/\" target=\"_blank\" rel=\"noopener\">Reddit-Diskussionsforum<\/a> zu extrahieren:  <\/p>\n<p>httpx.post(<br \/>\n&#8222;https:\/\/client-api.floppy.host\/v1\/webUnlocker&#8220;,<br \/>\nheaders={<br \/>\n&#8222;Content-Type&#8220;: &#8222;application\/json&#8220;,<br \/>\n&#8222;X-Api-Key&#8220;: &#8222;YOUR_SECRET_TOKEN&#8220;<br \/>\n},<br \/>\njson={<br \/>\n&#8222;url&#8220;:<br \/>\n&#8222;https:\/\/www.reddit.com\/r\/automation\/comments\/1ntu327\/top_5_antidetect_browsers_comparison_2025\/&#8220;,<br \/>\n&#8222;country&#8220;: &#8222;US&#8220;,<br \/>\n&#8222;city&#8220;: &#8222;New York&#8220;,<br \/>\n&#8222;difficulty&#8220;: &#8222;low&#8220;,<br \/>\n&#8222;expiration&#8220;: 0<br \/>\n}<br \/>\n)<\/p>\n<p>Sie k\u00f6nnen das Land, die Stadt und die URL \u00e4ndern, um Proxy- und Ziellinks zu \u00e4ndern. Dies ist nur ein Dummy-Codefragment. Mit Claude Code oder ChatGPT k\u00f6nnen Sie komplexe Automatisierungen erstellen, die dynamisch Ihre gesamte Liste der Ziel-URLs untersuchen und n\u00fctzliche Inhalte in dem Format Ihrer Wahl extrahieren.  <\/p>\n<h2>Bew\u00e4hrte Praktiken und Tipps f\u00fcr die Automatisierung von Web Scraping<\/h2>\n<p>Bei der Erstellung automatisierter Web-Scraping-Workflows ist es wichtig, die Ausfallsicherheit und die Leistung \u00fcber die Geschwindigkeit zu stellen. Ihr Workflow muss eine hohe Genauigkeit aufweisen. Wenn 40 % Ihrer Scraping-Anfragen fehlschlagen, verlieren Sie 40 % Ihres Budgets und k\u00f6nnen keine Ergebnisse vorweisen. W\u00e4hrend Floppydata Ihnen nur erfolgreiche Seitenextraktionen in Rechnung stellt, berechnen andere Dienste pro 1.000 Anfragen, selbst wenn diese alle fehlschlagen.   <\/p>\n<p>Um eine Automatisierung zu erstellen, die wochen- oder monatelang Teil Ihres Arbeitsablaufs sein wird, m\u00fcssen Sie ein paar wichtige Dinge beachten:<\/p>\n<ul>\n<li>IPs pro Arbeiter oder Sitzung rotieren<\/li>\n<li>Skalieren Sie Scraping mit parallelen Sitzungen, nicht durch Erh\u00f6hung der Geschwindigkeit oder Reduzierung der Wartezeiten<\/li>\n<li>Verwenden Sie Web Unlockers f\u00fcr blocklastige Websites<\/li>\n<li>Bevorzugen Sie APIs, wenn verf\u00fcgbar<\/li>\n<li>Browser-Fingerabdr\u00fccke isolieren<\/li>\n<li>Fehler protokollieren und intelligent neu versuchen<\/li>\n<li>Testen Sie klein, bevor Sie gro\u00df skalieren<\/li>\n<li>Kaufen Sie saubere Proxys von einem vertrauensw\u00fcrdigen Anbieter<\/li>\n<\/ul>\n<p>Sie m\u00fcssen sich keine Gedanken \u00fcber Proxies machen, wenn Sie ein Web Unlocker Tool von einem Proxy-Anbieter wie Floppydata, BrightData, Oxylabs usw. verwenden, da diese saubere IPs f\u00fcr ihr Tool bereitstellen k\u00f6nnen.<\/p>\n<h2>Wichtigste Erkenntnisse<\/h2>\n<p>Die Skalierung und Automatisierung von Web Scraping ist auch im Jahr 2026 noch m\u00f6glich und kann sehr effektiv sein, wenn Sie alles richtig machen. Wenn Sie die Strategien befolgen, die ich in diesem Blog erl\u00e4utert habe, und der Ausfallsicherheit Vorrang vor der Geschwindigkeit einr\u00e4umen, k\u00f6nnen Sie eine wiederholbare Automatisierung erstellen, die monatelang funktioniert, bevor Sie irgendwelche \u00c4nderungen vornehmen m\u00fcssen. Mit der richtigen Infrastruktur m\u00fcssen Sie sich keine Gedanken \u00fcber ein Anti-Bot-System machen.  <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Im Jahr 2026 ist es nicht einfach, Web-Scraping-Automatisierungen durchzuf\u00fchren. Da viele KI-Unternehmen versuchen, so viele Daten wie m\u00f6glich aus dem Internet abzusch\u00f6pfen, um Modelle zu trainieren, setzen Plattformen wie Reddit, Meta, X und andere KI-gest\u00fctzte Erkennungssysteme ein, um zu verhindern, dass Web Scraper \u00f6ffentliche Nutzerdaten in die Finger bekommen. In diesem Leitfaden erfahren Sie, wie [&hellip;]<\/p>\n","protected":false},"author":20,"featured_media":41847,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[440,562],"tags":[],"class_list":["post-41901","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog","category-scraping"],"acf":[],"_links":{"self":[{"href":"https:\/\/floppydata.com\/de\/wp-json\/wp\/v2\/posts\/41901","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/floppydata.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/floppydata.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/floppydata.com\/de\/wp-json\/wp\/v2\/users\/20"}],"replies":[{"embeddable":true,"href":"https:\/\/floppydata.com\/de\/wp-json\/wp\/v2\/comments?post=41901"}],"version-history":[{"count":0,"href":"https:\/\/floppydata.com\/de\/wp-json\/wp\/v2\/posts\/41901\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/floppydata.com\/de\/wp-json\/wp\/v2\/media\/41847"}],"wp:attachment":[{"href":"https:\/\/floppydata.com\/de\/wp-json\/wp\/v2\/media?parent=41901"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/floppydata.com\/de\/wp-json\/wp\/v2\/categories?post=41901"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/floppydata.com\/de\/wp-json\/wp\/v2\/tags?post=41901"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}