Docker introduceert GenAI Stack
Op het DockerCon 2023 event heeft Docker met partners Neo4j, LangChain en Ollama, een nieuwe GenAI Stack aangekondigd.
"We hebben de beste technologieën op het gebied van generatieve kunstmatige intelligentie (GenAI) samengebracht om een oplossing te bouwen waarmee ontwikkelaars met slechts een paar klikken een volledige GenAI-stack kunnen implementeren", zo meldt Docker op zijn website.
Dit is wat er in de nieuwe GenAI Stack zit:
1. Vooraf geconfigureerde LLM's : We bieden vooraf geconfigureerde Large Language Models (LLM's), zoals Llama2, GPT-3.5 en GPT-4, om uw AI-projecten een vliegende start te geven.
2. Ollama-beheer : Ollama vereenvoudigt het lokale beheer van open source LLM's, waardoor uw AI-ontwikkelingsproces soepeler verloopt.
3. Neo4j als de standaarddatabase : Neo4j fungeert als de standaarddatabase en biedt mogelijkheden voor het zoeken naar grafieken en native vectoren. Dit helpt datapatronen en relaties bloot te leggen, waardoor uiteindelijk de snelheid en nauwkeurigheid van AI/ML-modellen wordt verbeterd. Neo4j dient ook als langetermijngeheugen voor deze modellen.
4. Neo4j-kennisgrafieken : Neo4j-kennisgrafieken om LLM's te aarden voor nauwkeurigere GenAI-voorspellingen en -resultaten.
5. LangChain-orkestratie : LangChain vergemakkelijkt de communicatie tussen de LLM, uw applicatie en de database, samen met een robuuste vectorindex. LangChain dient als raamwerk voor het ontwikkelen van applicaties die mogelijk worden gemaakt door LLM's. Dit omvat LangSmith, een opwindende nieuwe manier om uw LLM-applicaties te debuggen, testen, evalueren en monitoren.
6. Uitgebreide ondersteuning : om uw GenAI-traject te ondersteunen, bieden we een reeks nuttige tools, codesjablonen, handleidingen en best practices van GenAI. Deze hulpmiddelen zorgen ervoor dat u de begeleiding krijgt die u nodig heeft.