AWS Bedrock: native RAG-Funktionen
AWS erweitert Bedrock um native RAG-Funktionen: verbesserte Knowledge Bases, RAG Agents und nahtlose S3-Integration.
AWS stärkt sein RAG-Enterprise-Angebot
Amazon Web Services kündigt bedeutende Verbesserungen der RAG-Fähigkeiten von Bedrock an. Die Knowledge Bases werden leistungsfähiger, die Agenten ausgefeilter, und die Integration in das AWS-Ökosystem reibungsloser.
„Unternehmen wollen RAG, das production-ready ist, ohne die Komplexität“, erklärt Swami Sivasubramanian, VP AI/ML bei AWS. „Bedrock Knowledge Bases v2 erfüllt diese Nachfrage.“
Neue Funktionen
Knowledge Bases v2
Die Knowledge Bases entwickeln sich erheblich weiter:
| Fonctionnalite | v1 | v2 |
|---|---|---|
| Sources supportees | S3, Web | S3, Web, Confluence, SharePoint, DB |
| Taille max dataset | 10GB | 100GB |
| Chunking | Fixe | Semantique, Hierarchique |
| Embeddings | Titan | Titan, Cohere, Custom |
| Vector DB | OpenSearch | OpenSearch, Pinecone, Qdrant |
| Sync temps reel | Non | Oui |
Vereinfachte Konfiguration :
DEVELOPERpythonimport boto3 bedrock = boto3.client('bedrock-agent') # Erstelle eine Knowledge Base response = bedrock.create_knowledge_base( name="company-docs", description="Documentation interne", roleArn="arn:aws:iam::123456789:role/BedrockKBRole", knowledgeBaseConfiguration={ "type": "VECTOR", "vectorKnowledgeBaseConfiguration": { "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/cohere.embed-multilingual-v3" } }, storageConfiguration={ "type": "OPENSEARCH_SERVERLESS", "opensearchServerlessConfiguration": { "collectionArn": "arn:aws:aoss:us-east-1:123456789:collection/kb-collection" } } ) # Füge eine Datenquelle hinzu bedrock.create_data_source( knowledgeBaseId=response['knowledgeBase']['knowledgeBaseId'], name="confluence-docs", dataSourceConfiguration={ "type": "CONFLUENCE", "confluenceConfiguration": { "sourceConfiguration": { "hostUrl": "https://company.atlassian.net", "hostType": "CLOUD" } } } )
Die chunking-Strategien sind jetzt direkt konfigurierbar.
Verbesserte RAG-Agenten
Die Bedrock-Agenten unterstützen jetzt komplexe Workflows:
1. Multi-Knowledge Base
DEVELOPERpythonagent = bedrock.create_agent( agentName="support-agent", foundationModel="anthropic.claude-3-opus-20240229-v1:0", instruction="Tu es un agent support utilisant plusieurs bases de connaissances.", agentResourceRoleArn="...", knowledgeBases=[ {"knowledgeBaseId": "kb-products", "description": "Catalogue produits"}, {"knowledgeBaseId": "kb-support", "description": "FAQ et procedures"}, {"knowledgeBaseId": "kb-internal", "description": "Documentation interne"} ] )
2. Personalisierte Aktionen
Die Agenten können Lambda-Funktionen aufrufen:
DEVELOPERpythonbedrock.create_agent_action_group( agentId=agent_id, agentVersion="DRAFT", actionGroupName="order-management", actionGroupExecutor={ "lambda": "arn:aws:lambda:us-east-1:123456789:function:OrderManagement" }, apiSchema={ "s3": { "s3BucketName": "api-schemas", "s3ObjectKey": "order-api.json" } } )
3. Persistenter Speicher
Konversationen werden automatisch persistiert:
DEVELOPERpythonresponse = bedrock.invoke_agent( agentId="agent-123", agentAliasId="alias-456", sessionId="session-789", # Persistente Unterhaltung inputText="Quel est le statut de ma commande ?" )
Diese Funktionen stimmen mit unserem Guide zu Agentic-RAG überein.
Verbesserte S3-Integration
Die Synchronisierung mit S3 wird in Echtzeit möglich:
DEVELOPERpython# Echtzeit-Synchronisierung aktivieren bedrock.update_data_source( knowledgeBaseId="kb-123", dataSourceId="ds-456", dataSourceConfiguration={ "type": "S3", "s3Configuration": { "bucketArn": "arn:aws:s3:::my-bucket", "inclusionPrefixes": ["documents/"], "syncMode": "REAL_TIME" # Neu } } )
EventBridge löst automatisch die Reindexierung bei Änderungen aus.
RAG-Guardrails
Neue, RAG-spezifische Guardrails:
DEVELOPERpythonbedrock.create_guardrail( name="rag-guardrails", description="Guardrails pour applications RAG", contentPolicyConfig={ "filtersConfig": [ {"type": "SEXUAL", "inputStrength": "HIGH", "outputStrength": "HIGH"}, {"type": "HATE", "inputStrength": "HIGH", "outputStrength": "HIGH"} ] }, contextualGroundingPolicyConfig={ # Neu "filtersConfig": [ {"type": "GROUNDING", "threshold": 0.8}, {"type": "RELEVANCE", "threshold": 0.7} ] } )
Siehe unseren Guide zu den RAG-Guardrails.
Architektur und Leistung
Empfohlene Architektur
S3 / Confluence / SharePoint
↓
[Data Sources]
↓
[Knowledge Base]
↓
OpenSearch Serverless
↓
[Bedrock Agent]
↓
Claude / Titan / Llama
↓
[Application]
Benchmarks
AWS veröffentlicht Benchmarks für Standard-RAG-Workloads:
| Metrique | KB v1 | KB v2 |
|---|---|---|
| Latence P50 | 1.8s | 1.1s |
| Latence P99 | 4.2s | 2.8s |
| Recall@5 | 72% | 84% |
| Throughput | 100 req/s | 500 req/s |
Beschränkungen
| Limite | Valeur |
|---|---|
| Knowledge Bases par compte | 50 |
| Sources par KB | 20 |
| Taille max par document | 50MB |
| Documents par sync | 10,000 |
| Requetes par seconde | 500 |
Preisgestaltung
Neues Preismodell
| Composant | Prix |
|---|---|
| Stockage KB (GB/mois) | $0.23 |
| Indexation (1K docs) | $0.05 |
| Requetes (1K) | $0.02 |
| Agents (1K invocations) | $0.10 |
Vergleich
| Solution | Cout mensuel estime* |
|---|---|
| Bedrock KB + Claude | $400-800 |
| OpenAI Assistants | $300-600 |
| Qdrant Cloud + Claude | $250-500 |
| Ailog | $50-200 |
*Für 100K Anfragen/Monat, 10GB Daten
Siehe unseren Guide zur Optimierung der RAG-Kosten.
Anwendungsfälle
Wann Bedrock KB verwenden
Ideal für :
- Unternehmen, die bereits auf AWS sind
- Bedarf an nativer Integration (S3, Lambda, etc.)
- Große Datenvolumen
- AWS-Compliance erforderlich
Weniger geeignet für :
- Multi-Cloud-Strategien
- Startups/KMU (Kosten)
- Bedarf an Open-Source-Modellen
Vollständiges Beispiel
DEVELOPERpythonimport boto3 # 1. Erstelle die KB bedrock = boto3.client('bedrock-agent') kb = bedrock.create_knowledge_base( name="support-kb", knowledgeBaseConfiguration={...}, storageConfiguration={...} ) # 2. Dokumente hinzufügen bedrock.create_data_source( knowledgeBaseId=kb['knowledgeBase']['knowledgeBaseId'], name="docs", dataSourceConfiguration={ "type": "S3", "s3Configuration": { "bucketArn": "arn:aws:s3:::my-docs" } } ) # 3. Synchronisieren bedrock.start_ingestion_job( knowledgeBaseId=kb['knowledgeBase']['knowledgeBaseId'], dataSourceId=ds['dataSource']['dataSourceId'] ) # 4. Abfragen runtime = boto3.client('bedrock-agent-runtime') response = runtime.retrieve_and_generate( input={"text": "Comment configurer le produit X ?"}, retrieveAndGenerateConfiguration={ "type": "KNOWLEDGE_BASE", "knowledgeBaseConfiguration": { "knowledgeBaseId": kb['knowledgeBase']['knowledgeBaseId'], "modelArn": "arn:aws:bedrock:us-east-1::foundation-model/anthropic.claude-3-opus-20240229-v1:0" } } )
Unsere Einschätzung
Bedrock KB v2 stellt eine wichtige Weiterentwicklung dar:
Points forts :
- Native AWS-Integration
- Fortschrittliche Guardrails
- Verbesserte Performance
- Mehrere Datenquellen
Points d'attention :
- AWS-Lock‑in
- Hohe Kosten
- Komplexität der Konfiguration
- Begrenzte Regionen
Für AWS‑first-Unternehmen wird Bedrock KB zu einer ernstzunehmenden Option. Für andere gibt es agnostischere Alternativen.
Plattformen wie Ailog bieten eine vom Cloud‑Provider unabhängige Alternative mit französischem Hosting und vereinfachtem Setup.
Siehe unseren Vergleich der besten RAG-Plattformen.
FAQ
Tags
Verwandte Artikel
LlamaIndex Enterprise: Angebot für große Unternehmen
LlamaIndex bringt sein Enterprise-Angebot mit dediziertem Support, garantierten SLAs und erweiterten Funktionen für groß angelegte Deployments.
Pinecone Serverless: Neuerungen und Preisgestaltung
Pinecone kündigt wesentliche Neuerungen seines Serverless-Angebots an: neue Funktionen, Preissenkungen und verbesserte Leistung.
Beratungsunternehmen: Interner Chatbot für 200+ Berater
Wie ein Beratungsunternehmen die Wiederverwendung der Deliverables um 40% gesteigert hat dank eines RAG-Chatbots, der Methoden und Erfahrungsberichte automatisch indexiert.