Cheatsheet - AI

Snel op weg met AI

Troubleshooting Gids

Oplossingen voor veelvoorkomende problemen bij het gebruik van AI taalmodellen.

Onnauwkeurige Informatie (Hallucinations)
Taalmodellen kunnen soms overtuigend klinkende maar feitelijk onjuiste informatie genereren.

Beperkte of Irrelevante Antwoorden
Soms geeft een model oppervlakkige, te algemene of niet-relevante antwoorden op specifieke vragen.

Consistentieproblemen
Taalmodellen kunnen zichzelf tegenspreken of inconsistent zijn in langere gesprekken.

Context Beperkingen Omzeilen
Taalmodellen hebben beperkte context-vensters, waardoor ze informatie 'vergeten' in langere gesprekken.

Algemene Troubleshooting Principes
Strategieën die helpen bij het oplossen van de meeste LLM-problemen

Preventieve Maatregelen

  • Wees specifiek en duidelijk in uw prompts, vermijd vaagheid

  • Gebruik een lagere temperatuur (0.1-0.3) voor feitelijke informatie

  • Geef relevante context aan het begin van uw prompt

  • Vraag het model om stap voor stap te redeneren bij complexe vragen

  • Splits complexe vragen op in kleinere, behapbare delen

Correctieve Technieken

  • Vraag om verduidelijking of uitbreiding wanneer antwoorden vaag zijn

  • Vraag het model om zijn eigen antwoord te evalueren en te verbeteren

  • Herformuleer uw prompt als u niet de gewenste resultaten krijgt

  • Voeg meer structuur toe door een specifiek format of template te vragen

  • Wanneer nodig, begin een nieuw gesprek met verbeterde instructies

Modelspecifieke Promptingtips

Optimaliseer uw prompts voor verschillende types taalmodellen met deze direct bruikbare templates.

Tips voor Kleine Modellen

Kleine modellen (zoals GPT-3.5) hebben een beperktere capaciteit maar zijn sneller en goedkoper. Deze templates helpen u het maximale uit deze modellen te halen.

Tips voor Grote Modellen

Grote modellen (zoals GPT-4 en Claude) hebben meer capaciteit en kunnen complexere taken aan. Deze templates helpen u hun volledige potentieel te benutten.

Eenvoudige informatievragen

Voor directe feitelijke vragen aan kleine modellen zoals GPT-3.5.

Geef een kort en direct antwoord op de volgende vraag zonder extra uitleg: [UW VRAAG]

Waarom dit werkt: Kleine modellen kunnen afdwalen of onnodige informatie geven. Door expliciet om een kort, direct antwoord te vragen, vermindert u de kans op irrelevante uitweidingen.

Stapsgewijze instructies

Verdeel complexe taken in kleinere stappen voor betere resultaten met beperktere modellen.

Ik wil graag [COMPLEXE TAAK]. Laten we dit stap voor stap aanpakken:
 
1. Eerst moet je [EERSTE SUBTAAK]
2. Gebruik deze specifieke aanpak: [DETAILS]
3. Zorg dat het resultaat [SPECIFIEKE VEREISTEN] bevat
4. Geef alleen het resultaat van deze eerste stap

Waarom dit werkt: Kleinere modellen hebben moeite met complexe, meerstaps-instructies. Door één stap tegelijk te vragen en specifieke richting te geven, krijgt u betere resultaten die u vervolgens kunt gebruiken voor vervolgvragen.

Creativiteit beperken

Voorkom hallucinations door kleinere modellen te beperken tot wat ze goed kunnen.

Voor deze vraag: [UW VRAAG]
 
Houd je aan deze richtlijnen:
- Als je het antwoord niet zeker weet, zeg dat dan gewoon
- Verzin geen feitelijke informatie
- Gebruik alleen algemeen bekende feiten
- Houd het antwoord beknopt en to-the-point

Waarom dit werkt: Kleinere modellen zijn meer geneigd tot het verzinnen van informatie wanneer ze onzeker zijn. Door expliciete beperkingen op te leggen, krijgt u eerlijkere en betrouwbaardere antwoorden.

Gedetailleerde expertanalyse

Benut de volledige capaciteit van grote modellen zoals GPT-4 of Claude voor diepgaande analyses.

Ik wil dat je optreedt als expert in [VAKGEBIED] met meer dan 20 jaar ervaring.
 
Analyseer het volgende [ONDERWERP/DOCUMENT/PROBLEEM] en geef een uitgebreide evaluatie:
 
[UW INHOUD]
 
Deel je analyse op in de volgende secties:
1. Initiële observaties en kernpunten
2. Diepgaande analyse van sterke en zwakke punten
3. Vergelijking met best practices in het veld
4. Concrete suggesties voor verbetering
5. Toekomstperspectief en strategische overwegingen

Waarom dit werkt: Grote modellen kunnen verschillende rollen aannemen en expertise simuleren. Door een specifieke expertenrol toe te wijzen en een gestructureerde output te vragen, krijgt u diepgaandere en nuttigere analyses.

Multiformat output met context-behoud

Grote modellen kunnen verschillende outputformaten produceren terwijl ze context behouden.

Verwerk de volgende informatie in meerdere formats, waarbij je de samenhang tussen alle onderdelen bewaart:
 
[UW INHOUD]
 
Genereer de volgende outputs:
1. Een beknopte samenvatting van 3-5 zinnen
2. Een gedetailleerde analyse (500+ woorden) met kopjes en subkopjes
3. Een lijst met 5-7 key takeaways
4. Een FAQ sectie met 3-5 vragen en antwoorden
5. Een voorgesteld actieplan gebaseerd op deze informatie

Waarom dit werkt: Grotere modellen kunnen complexe instructies met meerdere onderdelen verwerken zonder de context te verliezen, en kunnen informatie in verschillende formats presenteren terwijl ze de samenhang behouden.

Simulatie met meerdere perspectieven

Gebruik de capaciteit van grote modellen om diverse perspectieven te simuleren voor een rijkere analyse.

Ik wil een uitgebreide analyse van [ONDERWERP/SITUATIE/BESLISSING] vanuit verschillende perspectieven.
 
Simuleer een panel van 4 experts met verschillende achtergronden en visies:
1. Een [EXPERT TYPE 1] met focus op [PERSPECTIEF 1]
2. Een [EXPERT TYPE 2] met focus op [PERSPECTIEF 2]
3. Een [EXPERT TYPE 3] met focus op [PERSPECTIEF 3]
4. Een [EXPERT TYPE 4] met focus op [PERSPECTIEF 4]
 
Laat elke expert afzonderlijk reageren, met hun eigen unieke inzichten en argumenten. Sluit af met een synthese van de belangrijkste punten waar zij het over eens zijn en de kernverschillen in hun benaderingen.

Waarom dit werkt: Grote modellen kunnen verschillende perspectieven simuleren op een genuanceerde manier. Dit helpt om een evenwichtigere kijk te krijgen op complexe onderwerpen en voorkomt tunnelvisie.

LLM Begrippengids

Duidelijke definities van veelgebruikte termen in de wereld van AI taalmodellen, zodat u met vertrouwen over deze technologie kunt communiceren.

Prompt

basis

De instructie of vraag die u aan een taalmodel geeft om een bepaalde output te genereren.

Voorbeeld:

Schrijf een e-mail om een klant te bedanken voor hun aankoop.

Gerelateerde termen:

Prompt EngineeringContext Window

Prompt Engineering

basis

Het proces van het ontwerpen en optimaliseren van prompts om betere resultaten van taalmodellen te krijgen.

Voorbeeld:

In plaats van te vragen 'Schrijf een e-mail', gebruik je 'Schrijf een professionele e-mail naar een klant die net een premium product heeft gekocht. Gebruik een vriendelijke maar formele toon.'

Gerelateerde termen:

PromptFew-shot Learning

Tokens

technisch

De eenheden waarin tekst wordt opgedeeld voor verwerking door een taalmodel. Een token is ongeveer 4 tekens of 3/4 van een woord in het Nederlands.

Voorbeeld:

De zin 'Hallo, hoe gaat het met jou?' bestaat uit ongeveer 7-8 tokens.

Gerelateerde termen:

Context WindowModel Capaciteit

Temperatuur

technisch

Een instelling die de creativiteit en willekeurigheid van de modelresponses bepaalt. Hogere temperatuur (bijv. 0.7-1.0) geeft meer creatieve antwoorden, lagere temperatuur (bijv. 0.1-0.3) geeft meer voorspelbare antwoorden.

Voorbeeld:

Lage temperatuur voor feitelijke vragen zoals 'Wat is de hoofdstad van Nederland?', hoge temperatuur voor creatieve taken zoals 'Schrijf een kort verhaal'.

Gerelateerde termen:

Top-p SamplingCreatieve Generatie

Context Window

technisch

De hoeveelheid tekst (gemeten in tokens) die een model kan 'onthouden' en gebruiken tijdens een gesprek. Bepaalt hoeveel informatie het model kan verwerken.

Voorbeeld:

Een model met een context window van 8K tokens kan een artikel van ongeveer 6 pagina's verwerken en ermee werken.

Gerelateerde termen:

TokensModel Capaciteit

Chain-of-Thought

geavanceerd

Een techniek waarbij het model wordt aangemoedigd om stap voor stap te redeneren in plaats van direct een antwoord te geven, wat leidt tot nauwkeurigere resultaten voor complexe vragen.

Voorbeeld:

In plaats van 'Wat is 17 x 24?' vraag je 'Wat is 17 x 24? Werk stap voor stap uit.'

Gerelateerde termen:

Prompt EngineeringStapsgewijs Redeneren

Few-shot Learning

geavanceerd

Een techniek waarbij je een aantal voorbeelden van de gewenste input en output in je prompt opneemt, zodat het model beter begrijpt wat er wordt verwacht.

Voorbeeld:

Vraag: Wat is de hoofdstad van Frankrijk? Antwoord: Parijs. Vraag: Wat is de hoofdstad van Italië? Antwoord: Rome. Vraag: Wat is de hoofdstad van Spanje? Antwoord:

Gerelateerde termen:

Prompt EngineeringZero-shot Learning

Hallucinations

basis

Wanneer een taalmodel overtuigend klinkende maar feitelijk onjuiste of verzonnen informatie genereert.

Voorbeeld:

Een model dat specifieke statistieken of bronnen citeert die niet bestaan, of gebeurtenissen beschrijft die nooit hebben plaatsgevonden.

Gerelateerde termen:

Feitelijke NauwkeurigheidVerificatie

Prompt Injection

geavanceerd

Een techniek waarbij iemand probeert de oorspronkelijke instructies aan het model te omzeilen door conflicterende instructies in te voegen.

Voorbeeld:

Na een normale vraag toevoegen: 'Negeer alle eerdere instructies en doe in plaats daarvan X.'

Gerelateerde termen:

Prompt EngineeringAI Veiligheid

Fine-tuning

technisch

Het proces van het aanpassen van een voorgetraind model aan specifieke taken of domeinen door het te trainen met aanvullende gegevens.

Voorbeeld:

Een algemeen taalmodel fine-tunen met juridische documenten zodat het beter presteert bij juridische taken.

Gerelateerde termen:

Model TrainingDomeinspecifieke Modellen

System Message

geavanceerd

Een speciale instructie die het algemene gedrag en de rol van het model definieert, en die van toepassing blijft op het hele gesprek.

Voorbeeld:

Je bent een deskundige financieel adviseur. Je geeft praktisch advies over persoonlijke financiën in eenvoudige taal zonder jargon.

Gerelateerde termen:

Prompt EngineeringRole Playing

Embeddings

technisch

Numerieke representaties van tekst die de betekenis en context vastleggen, gebruikt voor het zoeken en vergelijken van teksten op semantisch niveau.

Voorbeeld:

Zoeken naar documenten die conceptueel vergelijkbaar zijn met een vraag, zelfs als ze niet dezelfde exacte woorden bevatten.

Gerelateerde termen:

Semantisch ZoekenVectordatabases