Vector Database (bază de date vectorială)
Bază de date specializată în stocarea și căutarea vectorilor numerici (embeddings) - esențială pentru RAG, recomandări AI, căutare semantică.
Ce face un vector database
Diferit de bazele de date clasice (SQL care caută după ID, MongoDB care caută după chei), un vector database e optimizat pentru căutare după similaritate semantică. Stochează vectori numerici (embeddings) cu sute sau mii de dimensiuni și răspunde rapid la query-uri "găsește cele mai apropiate 10 înregistrări de acest vector".
De ce ai nevoie de el
Embeddings sunt reprezentări numerice ale conținutului (text, imagini, audio) care capturează sensul. Două propoziții sinonime au vectori apropiați. Asta îți permite căutare semantică ("aspirator" găsește și "vacuum cleaner" și "robot de aspirat") - ceva imposibil cu SQL clasic.
Opțiuni populare în 2026
- Pinecone: cel mai popular cloud, scalabil, scump la volum mare ($70-1000+/lună).
- Qdrant: open-source, self-hostable, performanță excelentă, free.
- Supabase pgvector: built-in Postgres extension, perfect pentru proiecte care deja au Supabase. Free tier generos.
- Weaviate: cloud + self-hosted, hybrid search avansat.
- Milvus: enterprise-grade, scalabil pentru miliarde de vectori.
Aplicații concrete
- RAG pentru chatbot AI - cea mai comună utilizare
- Recomandări produse pe e-commerce ("clienți ca tine au mai cumpărat...")
- Căutare semantică în documentație internă
- Detectare de fraude și anomalii
- Image similarity search (găsește imagini similare)
- Recomandare conținut (videoclipuri, articole)
Costuri tipice
Pentru SMB: Supabase pgvector free tier acoperă până la 100k-500k vectori. Peste asta: Pinecone $70/lună starter sau Qdrant self-hosted pe Hetzner $10/lună. Pentru enterprise (1M+ vectori): $200-2000/lună.
Întrebări frecvente
Ce embedding model să folosesc?
+
Pinecone vs Qdrant?
+
Pot folosi Postgres ca vector DB?
+
Vectorii dimensiuni - 384, 1024, 1536? Ce diferență?
+
Termeni înrudiți
RAG (Retrieval Augmented Generation)
Tehnică prin care un chatbot AI răspunde din documentele TALE (catalog, FAQ, politici), nu doar din ce a învățat modelul. Asta îl face precis și actualizabil fără reantrenare.
LLM (Large Language Model)
Model de inteligență artificială antrenat pe miliarde de cuvinte care înțelege și generează limbaj natural. Exemple în 2026: GPT-5, Claude 4.7, Gemini 2.5 Pro.