Crawl4AI: Der Einstieg in effizientes Web-Crawling

Crawl4AI: Der Einstieg in effizientes Web-Crawling

Datenextraktion leicht gemacht: So nutzen Sie Crawl4AI effektiv

Abstract

Eine umfassende Einführung in Crawl4AI, die leistungsstarke Python-Bibliothek für effizientes Web-Crawling, Datenextraktion und Markdown-Generierung.
  • #Crawl4AI
  • #Web-Crawling
  • #Datenextraktion
  • #Python-Bibliothek
  • #Markdown-Generierung

Web-Crawling mit Crawl4AI: Konzepte und Möglichkeiten

In der heutigen datengetriebenen Welt ist die Fähigkeit, Webinhalte effizient zu crawlen und strukturierte Daten zu extrahieren, von unschätzbarem Wert. Crawl4AI hat sich als leistungsstarke Open-Source-Bibliothek etabliert, die genau diesen Prozess vereinfacht und optimiert. In diesem Artikel erkunden wir die vielseitigen Funktionen von Crawl4AI und wie Sie diese für Ihre Projekte nutzen können.

Was ist Crawl4AI?

Crawl4AI ist eine Python-Bibliothek, die für hocheffizientes Web-Crawling entwickelt wurde. Die Bibliothek zeichnet sich besonders durch ihre Geschwindigkeit, Flexibilität und intelligente Datenextraktionsfunktionen aus. Sie ermöglicht nicht nur das einfache Crawlen von Webseiten, sondern bietet auch fortschrittliche Funktionen wie paralleles Crawling, Markdown-Generierung, strukturierte Datenextraktion mit und ohne LLM (Large Language Models) sowie JavaScript-Interaktionen.

Warum Crawl4AI verwenden?

  • Geschwindigkeit: Optimiert für maximale Performance beim Crawlen mehrerer Seiten gleichzeitig
  • Intelligente Extraktion: Fokussiert auf relevante Inhalte und filtert Rauschen heraus
  • Flexibilität: Unterstützt verschiedene Extraktionsstrategien (mit und ohne LLM)
  • JavaScript-Unterstützung: Ermöglicht Interaktionen mit dynamischen Webseiten
  • Effizienter Ressourceneinsatz: Reduziert den Bedarf an GPU-Ressourcen durch optimierte Verarbeitung

Grundlagen des Web-Crawlings mit Crawl4AI

Installation und erste Schritte

Um mit Crawl4AI zu beginnen, muss zunächst die Bibliothek installiert werden. Der Einstieg ist denkbar einfach:

from crawl4ai import AsyncWebCrawler

async with AsyncWebCrawler() as crawler:
    results = await crawler.arun("https://news.ycombinator.com/")

    # Überprüfen des Erfolgs
    if results[0].success:
        print(f"Markdown-Länge: {len(results[0].markdown)}")
        print(f"Erste 100 Zeichen: {results[0].markdown[:100]}")

Diese wenigen Zeilen Code ermöglichen bereits das Crawlen einer Webseite und die Extraktion ihres Inhalts als Markdown. Der AsyncWebCrawler verwendet einen Kontext-Manager, der automatisch den Browser öffnet und nach Abschluss des Crawling-Prozesses wieder schließt.

Der Kontext-Manager: Effiziente Ressourcenverwaltung

Ein wichtiger Aspekt von Crawl4AI ist die Verwendung des Kontext-Managers (async with). Dieser sorgt dafür, dass:

  1. Der Browser nur einmal geöffnet wird
  2. Alle Crawling-Operationen innerhalb desselben Browser-Kontexts stattfinden
  3. Ressourcen ordnungsgemäß freigegeben werden, wenn der Kontext verlassen wird

Dies ist besonders wichtig für die Effizienz, denn das wiederholte Öffnen und Schließen von Browsern verbraucht erheblich mehr Systemressourcen.

Paralleles Crawling: Geschwindigkeit maximieren

Eine der Stärken von Crawl4AI ist die Fähigkeit, mehrere Webseiten gleichzeitig zu crawlen. Dies wird mit der arun_many Funktion erreicht:

urls = ["https://news.ycombinator.com/", "https://github.com/", "https://python.org/"]
results = await crawler.arun_many(urls)

for result in results:
    print(f"URL: {result.url}, Erfolg: {result.success}")

Der integrierte Dispatcher analysiert automatisch die verfügbaren Systemressourcen und verteilt die Crawling-Aufgaben optimal, um die Geschwindigkeit zu maximieren, ohne das System zu überlasten.

Fit Markdown: Intelligente Inhaltsextraktion

Problematik herkömmlicher HTML-zu-Markdown-Konverter

Bei herkömmlichen HTML-zu-Markdown-Konvertern wird oft der gesamte HTML-Inhalt einer Seite konvertiert, einschließlich Werbung, Navigation, Footer und anderer irrelevanter Elemente. Dies führt zu "verrauschtem" Markdown mit vielen unnötigen Inhalten.

Die Fit-Markdown-Lösung von Crawl4AI

Crawl4AI bietet mit seinem "Fit Markdown" eine Lösung für dieses Problem:

from crawl4ai import AsyncWebCrawler, CrawlerRunConfig, DefaultMarkdownGenerator

config = CrawlerRunConfig(
    markdown_generator=DefaultMarkdownGenerator(
        content_filter="pruning"  # Verwendet den Pruning-Content-Filter
    )
)

async with AsyncWebCrawler() as crawler:
    results = await crawler.arun("https://en.wikipedia.org/wiki/Python_(programming_language)", config)

    raw_markdown_length = len(results[0].markdown)
    fit_markdown_length = len(results[0].fit_markdown)

    print(f"Rohes Markdown: {raw_markdown_length} Zeichen")
    print(f"Fit Markdown: {fit_markdown_length} Zeichen")
    print(f"Reduktion: {(raw_markdown_length - fit_markdown_length) / raw_markdown_length * 100:.2f}%")

Im Beispiel reduziert sich die Markdown-Größe bei einer Wikipedia-Seite von 31.000 auf 21.000 Zeichen – eine Reduktion um 30%. Bei Seiten mit mehr "Rauschen" wie Werbung kann die Reduktion sogar bis zu 60% betragen.

Extraktion strukturierter Daten

Methode 1: Extraktion mit Large Language Models

Crawl4AI ermöglicht die Extraktion strukturierter Daten mit Hilfe von Large Language Models:

from crawl4ai import AsyncWebCrawler, CrawlerRunConfig, LLMExtractionStrategy

llm_strategy = LLMExtractionStrategy(
    llm_config={"model": "groq/llama3-70b-8192", "api_token": "API_TOKEN"},
    instructions="Extrahiere alle Nachrichten mit Titel, Quelle, URL und Anzahl der Kommentare",
    schema={
        "title": "string",
        "url": "string",
        "comments": "int"
    }
)

config = CrawlerRunConfig(extraction_strategy=llm_strategy)

async with AsyncWebCrawler() as crawler:
    results = await crawler.arun("https://news.ycombinator.com/", config)

    import json
    extracted_content = json.loads(results[0].extracted_content)
    print(json.dumps(extracted_content, indent=2))

Methode 2: Extraktion ohne LLM für wiederholte Muster

Für Seiten mit sich wiederholenden Mustern bietet Crawl4AI eine effizientere Alternative:

from crawl4ai import AsyncWebCrawler, JSONCSSExtractionStrategy

# Beispiel-HTML eines wiederkehrenden Elements
sample_html = """
<div class="body-post">
  <a class="home-title">Titel des Artikels</a>
  <div class="description">Artikelbeschreibung...</div>
  ...
</div>
"""

# Schema mit LLM generieren (einmalig)
schema = JSONCSSExtractionStrategy.generate_schema(
    sample_html,
    "Generiere ein Schema für dieses News-Div mit Titel, Datum und Beschreibung"
)

# Schema für zukünftige Verwendung speichern
with open("news_schema.json", "w") as f:
    json.dump(schema, f)

# In Zukunft: Schema laden und verwenden
with open("news_schema.json", "r") as f:
    schema = json.load(f)

extraction_strategy = JSONCSSExtractionStrategy(schema=schema)
config = CrawlerRunConfig(extraction_strategy=extraction_strategy)

async with AsyncWebCrawler() as crawler:
    results = await crawler.arun("https://thehackernews.com/", config)

    extracted_content = json.loads(results[0].extracted_content)
    print(json.dumps(extracted_content, indent=2))

Dieser Ansatz ist besonders wertvoll, wenn Sie regelmäßig ähnliche Seiten crawlen müssen, da er:

  1. LLM nur einmal verwendet, um das Schema zu erstellen
  2. Anschließend ohne LLM arbeitet, was Zeit und Ressourcen spart
  3. Konsistente Ergebnisse liefert, unabhängig von LLM-Variationen

Medien und Links extrahieren

Neben Textinhalten kann Crawl4AI auch Medienelemente und Links extrahieren:

async with AsyncWebCrawler() as crawler:
    results = await crawler.arun("https://beispiel.de")

    # Bilder extrahieren
    images = results[0].media["images"]
    print(f"Gefundene Bilder: {len(images)}")

    # Links extrahieren
    internal_links = results[0].links["internal"]
    external_links = results[0].links["external"]
    print(f"Interne Links: {len(internal_links)}, Externe Links: {len(external_links)}")

Für jedes Bild werden nicht nur der Pfad, sondern auch Alt-Text und Beschreibungen extrahiert. Dies ist besonders nützlich für die Integration mit Vision-Modellen oder für SEO-Analysen.

Screenshot- und PDF-Erstellung

Crawl4AI kann vollständige Screenshots und PDFs von Webseiten erstellen:

config = CrawlerRunConfig(
    screenshot=True,
    pdf=True
)

async with AsyncWebCrawler() as crawler:
    results = await crawler.arun("https://en.wikipedia.org/wiki/Giant_in_the_playground", config)

    # Screenshot speichern
    import base64
    with open("screenshot.png", "wb") as f:
        f.write(base64.b64decode(results[0].screenshot))

    # PDF speichern
    with open("page.pdf", "wb") as f:
        f.write(base64.b64decode(results[0].pdf))

Diese Funktion ist besonders nützlich für die Archivierung von Webseiten oder für die Erstellung von Berichten.

JavaScript-Interaktionen: Dynamische Inhalte erschließen

Eine der fortschrittlichsten Funktionen von Crawl4AI ist die Fähigkeit, mit JavaScript-basierten Webseiten zu interagieren:

# Erstellen eines einfachen Schemas für Nachrichten
news_schema = {
    "name": "news",
    "base_selector": "tr.athing",
    "fields": {
        "title": {"selector": "span.titleline"}
    }
}

# Erste Crawling-Operation
config = CrawlerRunConfig(
    extraction_strategy=JSONCSSExtractionStrategy(schema=news_schema),
    session_id="hacker_news_session"  # Sitzungs-ID für Fortsetzung
)

async with AsyncWebCrawler(browser_config={"headless": False}) as crawler:
    results = await crawler.arun("https://news.ycombinator.com/", config)

    # Extrahierte Nachrichten speichern
    news_list = json.loads(results[0].extracted_content)

    # Auf "More" klicken, um weitere Nachrichten zu laden
    js_config = CrawlerRunConfig(
        js_code="document.querySelector('a.morelink').click()",
        js_only=True,  # Nur JavaScript ausführen, keine neue Seite laden
        session_id="hacker_news_session",  # Dieselbe Sitzung verwenden
        extraction_strategy=JSONCSSExtractionStrategy(schema=news_schema)
    )

    # Zweite Crawling-Operation in derselben Sitzung
    more_results = await crawler.arun("https://news.ycombinator.com/", js_config)

    # Weitere Nachrichten hinzufügen
    more_news = json.loads(more_results[0].extracted_content)
    news_list.extend(more_news)

    print(f"Gesamtzahl der geladenen Nachrichten: {len(news_list)}")

Dieser Ansatz ermöglicht es:

  1. In einer Sitzung zu bleiben und den Zustand zwischen Crawling-Operationen zu erhalten
  2. JavaScript-Code auszuführen, um mit der Seite zu interagieren (Klicken, Scrollen, Formularausfüllen)
  3. Dynamisch geladene Inhalte zu extrahieren, die erst nach JavaScript-Interaktionen sichtbar werden

Deep Crawling: Mehrere Ebenen erschließen

Für komplexere Crawling-Aufgaben bietet Crawl4AI Deep-Crawling-Funktionen:

from crawl4ai import AsyncWebCrawler, CrawlerRunConfig, BFSDeepCrawlStrategy

# BFS-Strategie (Breadth-First Search) mit Beschränkungen
strategy = BFSDeepCrawlStrategy(
    max_depth=2,  # Maximal 2 Ebenen tief
    max_pages=5,  # Maximal 5 Seiten crawlen
    filters=[
        {"type": "domain", "pattern": "docs\\.crawl4ai\\.com"}  # Nur bestimmte Domain crawlen
    ]
)

config = CrawlerRunConfig(deep_crawl_strategy=strategy)

async with AsyncWebCrawler() as crawler:
    results = await crawler.arun("https://docs.crawl4ai.com/", config)

    for result in results:
        print(f"URL: {result.url}, Tiefe: {result.metadata['depth']}")

Mit dem Deep Crawling können Sie:

  1. Systematisch durch Websites navigieren
  2. Nur relevante Seiten basierend auf Filtern crawlen
  3. Die Tiefe und Breite des Crawlings kontrollieren

Crawling aus Raw-HTML oder Dateien

Crawl4AI ermöglicht auch das Crawlen aus bereits gespeichertem HTML oder Dateien:

# Aus Raw-HTML
raw_html = "<html><body><h1>Mein Titel</h1><p>Inhalt</p></body></html>"
results = await crawler.arun("raw:" + raw_html)

# Aus einer Datei
results = await crawler.arun("file:///pfad/zur/datei.html")

Diese Funktion ist besonders nützlich für Zwei-Phasen-Crawling:

  1. Massive Crawling-Phase: Speichern von HTML-Inhalten ohne Verarbeitung
  2. Verarbeitungsphase: Anwenden von Extraktionsstrategien auf die gespeicherten Inhalte

Proxy-Rotation für skalierbare Crawling-Operationen

Für größere Crawling-Projekte bietet Crawl4AI Proxy-Rotation-Funktionen:

from crawl4ai import AsyncWebCrawler, ProxyConfig, RoundRobinProxyStrategy

# Liste von Proxies erstellen
proxies = [
    ProxyConfig(server="http://proxy1.beispiel.de:8080"),
    ProxyConfig(server="http://proxy2.beispiel.de:8080"),
    ProxyConfig(server="http://proxy3.beispiel.de:8080")
]

# Round-Robin-Strategie für gleichmäßige Verteilung
proxy_strategy = RoundRobinProxyStrategy(proxies)

async with AsyncWebCrawler(proxy_rotation_strategy=proxy_strategy) as crawler:
    # Crawling-Operationen verwenden automatisch rotierende Proxies
    results = await crawler.arun_many(urls)

Die Proxy-Rotation stellt sicher, dass:

  1. Keine IP-Adresse übermäßig belastet wird
  2. Blockierungen durch Websites vermieden werden
  3. Die Last gleichmäßig auf alle verfügbaren Proxies verteilt wird

Warum Effizienz bei der Verwendung von LLMs wichtig ist

Ein zentrales Thema in diesem Artikel ist die effiziente Nutzung von Large Language Models (LLMs). Der Entwickler betont wiederholt, wie wichtig es ist, LLMs nur dort einzusetzen, wo sie tatsächlich benötigt werden.

Vorteile der effizienten LLM-Nutzung:

  • Kosteneinsparungen: Reduzierte Abhängigkeit von GPU-Ressourcen
  • Schnellere Verarbeitung: CPU-basierte Extraktion ist oft schneller als LLM-Anfragen
  • Skalierbarkeit: Effizienzsteigerungen wirken sich exponentiell aus, wenn Ihr Projekt wächst
  • Zuverlässigkeit: Weniger Abhängigkeit von externen Diensten bedeutet weniger potenzielle Ausfallpunkte

Der von Crawl4AI vorgeschlagene Ansatz – LLMs für die Erstellung von Extraktionsschemata zu verwenden und dann CPU-basierte Extraktion für wiederholte Aufgaben einzusetzen – bietet einen optimalen Kompromiss zwischen Flexibilität und Effizienz.

Fazit: Die Zukunft des intelligenten Web-Crawlings

Crawl4AI repräsentiert einen bedeutenden Fortschritt im Bereich des Web-Crawlings. Durch die Kombination traditioneller Crawling-Techniken mit modernen KI-Ansätzen ermöglicht die Bibliothek sowohl effiziente als auch intelligente Datenextraktion.

Die Community rund um Crawl4AI wächst stetig, und die Entwickler sind aktiv auf Discord, wo sie Unterstützung und Hilfestellung bieten. Mit regelmäßigen Updates und neuen Funktionen bleibt die Bibliothek an der Spitze der Web-Crawling-Technologie.

Ob Sie ein erfahrener Datenanalyst sind oder gerade erst mit Web-Crawling beginnen – Crawl4AI bietet die Werkzeuge, um Ihre Datenextraktionsprojekte auf die nächste Stufe zu heben. Durch die Fokussierung auf Effizienz, Intelligenz und Skalierbarkeit ist Crawl4AI die ideale Lösung für moderne Datenextraktionsanforderungen.

FAQ

Benötige ich fortgeschrittene Python-Kenntnisse, um Crawl4AI zu nutzen?

Grundlegende Python-Kenntnisse sind ausreichend, um mit Crawl4AI zu beginnen. Die Bibliothek ist benutzerfreundlich gestaltet und die Hauptfunktionen können mit wenigen Zeilen Code genutzt werden. Für fortgeschrittenere Funktionen wie benutzerdefinierte Extraktionsstrategien oder komplexe JavaScript-Interaktionen sind tiefere Kenntnisse hilfreich, aber nicht zwingend erforderlich.

Wie verhält sich Crawl4AI bei Websites mit Zugangsbeschränkungen?

Crawl4AI unterstützt verschiedene Authentifizierungsmechanismen, einschließlich Cookie-basierter Authentifizierung und Formular-Login. Für Websites mit strengeren Zugangsbeschränkungen bietet die Bibliothek Funktionen wie User-Agent-Rotation, Proxy-Rotation und Verzögerungen zwischen Anfragen, um Blockierungen zu vermeiden. Es liegt jedoch in der Verantwortung des Nutzers, die Nutzungsbedingungen der Websites zu respektieren.

Kann Crawl4AI auch für große Crawling-Projekte eingesetzt werden?

Absolut! Crawl4AI wurde für Skalierbarkeit entwickelt und eignet sich hervorragend für große Crawling-Projekte. Mit Funktionen wie parallelem Crawling, Proxy-Rotation und intelligenter Ressourcenverwaltung kann die Bibliothek effizient Tausende von Seiten crawlen. Für besonders große Projekte empfiehlt sich die Verwendung des Docker-Containers, der in der Dokumentation ausführlich beschrieben wird.

  • Technologien
  • Programmiersprachen
  • Tools

Weitere Blog-Artikel

Die fünf häufigsten Fehler bei Mikroservice-Architekturen – Lektionen aus der Praxis

Erfahren Sie, welche kritischen Fehler die Implementierung von Mikroservice-Architekturen zum Scheitern bringen und wie Sie diese vermeiden können.

mehr erfahren

Mobile App-Entwicklung: Der ultimative Entscheidungsbaum für die richtige Strategie

Ein umfassender Vergleich verschiedener mobiler Entwicklungsansätze mit praktischen Entscheidungshilfen für die Wahl der optimalen Strategie für Ihr Projekt.

mehr erfahren

NoSQL Datenbanken: Flexibilität und Skalierbarkeit für moderne Anwendungen

Entdecken Sie, wie NoSQL-Datenbanken mit ihrer Flexibilität und Skalierbarkeit moderne Anwendungen revolutionieren und komplexe Datenstrukturen effizienter verwalten.

mehr erfahren

Programmierfehler mit fatalen Folgen: Die teuersten Bugs der Softwaregeschichte

Ein Blick auf die folgenschwersten Fehler in der Geschichte der Softwareentwicklung und was wir daraus lernen können.

mehr erfahren

Excel-Funktionen effektiv nutzen: Von Grundlagen bis zu fortgeschrittenen Techniken

Entdecken Sie die wichtigsten Excel-Formeln und Funktionen, die Ihren Arbeitsalltag revolutionieren werden. Vom Anfänger zum Experten in einem umfassenden Überblick.

mehr erfahren

Crawl4AI: Der Einstieg in effizientes Web-Crawling

Eine umfassende Einführung in Crawl4AI, die leistungsstarke Python-Bibliothek für effizientes Web-Crawling, Datenextraktion und Markdown-Generierung.

mehr erfahren

Die Zukunft von Java: Wie Project Amber und Valhalla die Sprache revolutionieren

Ein umfassender Einblick in die Zukunft von Java durch Project Amber und Valhalla: Wie Records, Sealed Classes, Pattern Matching und Value Classes die Sprache modernisieren und für datenorientierte Programmierung optimieren.

mehr erfahren

Die Erfolgsgeheimnisse herausragender Programmierer: Eigenschaften, die den Unterschied machen

Entdecken Sie die entscheidenden Eigenschaften und Praktiken, die herausragende Programmierer von durchschnittlichen unterscheiden und wie Sie diese selbst entwickeln können.

mehr erfahren

Git richtig nutzen: Profi-Tipps jenseits der Standardbefehle

Entdecken Sie versteckte Git-Funktionen und fortgeschrittene Techniken, die Ihre Produktivität als Entwickler steigern und Ihren Workflow verbessern.

mehr erfahren

Sichere React-Anwendungen entwickeln: Wie Prompt Engineering die Code-Qualität revolutioniert

Wie moderne KI-Technologien mit gezieltem Prompt Engineering die Sicherheit von React-Anwendungen revolutionieren und Entwicklern helfen, häufige Sicherheitslücken zu vermeiden.

mehr erfahren

Kosteneffiziente KI: Wie Ollama lokale LLM-Nutzung revolutioniert

Entdecke, wie du mit Ollama leistungsstarke KI-Modelle lokal auf deinem eigenen Computer betreiben kannst - ohne Cloud-Dienste, mit mehr Datenschutz und geringeren Kosten.

mehr erfahren

Frontend-Architektur der Zukunft: Alles über Micro Frontends in 2025

Eine umfassende Analyse der Micro Frontend-Architektur – vom Konzept über Implementierungsmethoden bis zu Tools und Best Practices für moderne Webanwendungen.

mehr erfahren

Vibe Coding: Wie KI-gestützte Programmierung die Softwareentwicklung revolutioniert

Entdecken Sie Vibe Coding - den revolutionären KI-gestützten Programmieransatz, der das Entwickeln von Software grundlegend verändert.

mehr erfahren

Frontend-Frameworks im Unternehmenseinsatz: Angular, React, Vue und Svelte im Vergleich 2025

Ein umfassender Vergleich der führenden Frontend-Frameworks Angular, React, Vue und Svelte für den strategischen Einsatz in Unternehmen – von Performance über Ökosystem bis zu Zukunftsperspektiven.

mehr erfahren

Green Coding: Wie energieeffiziente Programmierung unsere digitale Zukunft nachhaltig gestaltet

Entdecken Sie, wie Green Coding hilft, den ökologischen Fußabdruck von Software zu minimieren und gleichzeitig Performance und Effizienz zu steigern.

mehr erfahren

Die 5 besten Code-Editoren im Vergleich: Welcher passt zu deinem Workflow?

Welcher Code-Editor ist der Beste für dich? In diesem ultimativen Vergleich nehmen wir Cursor, Neovim, VS Code, WebStorm und Zed genau unter die Lupe. Wir bewerten Performance, Erweiterbarkeit, Benutzerfreundlichkeit, KI-Funktionen und Sprachsupport – damit du den perfekten Editor für deinen Workflow findest. Egal, ob du Webentwickler, KI-Entwickler oder Fullstack-Profi bist: Hier erfährst du, welcher Editor deine Produktivität wirklich steigert!

mehr erfahren

Die wichtigsten Software-Architekturmuster für moderne Entwickler

Ein umfassender Überblick über die wichtigsten Software-Architekturmuster, ihre Vor- und Nachteile sowie praktische Anwendungsfälle für moderne Entwickler, Software-Architekten und alle die es Wissen sollten.

mehr erfahren

TypeScript nicht nur für Java-Entwickler

Ein umfassender Überblick über TypeScript: Funktionsweise, Ausführungsmethoden und Vorteile gegenüber JavaScript für Entwickler verschiedener Programmiersprachen.

mehr erfahren

API-Sicherheit: Die 7 kritischsten Schwachstellen und deren Lösungen

Eine umfassende Analyse der sieben kritischsten API-Sicherheitsschwachstellen und praktische Lösungsansätze für Entwickler und Sicherheitsexperten.

mehr erfahren

Crew AI Tools in der Praxis: Methodische Anleitung zur API-Integration

Eine detaillierte Anleitung zur Entwicklung eigener Tools mit Crew AI zur Verbindung von KI-Assistenten mit externen Diensten wie Trello zur Automatisierung komplexer Aufgaben.

mehr erfahren

Was dürfen wir für Sie tun?

So sind wir zu erreichen: