Under “Settings” → “Model” kan man sende særlige instruktioner til AI-modellen/LLM’en, som genererer svarerne på brugerens beskeder. De to vigtigste instruktioner, man kan justere på er Persona og Rules. De gennemgås særskilt her:
Lav en PersonaOpsæt reglerYderligere tilpasningsmuligheder i Model
Udover “Persona” og “Rules” er der en række indstillinger, som kan tilpasses under”Model”:
Udskift LLM
I toppen ved siden af Model, har man mulighed for at ændre, hvilken LLM, der genererer svar. Standardindstillingen er altid den anbefalede indstilling, men man har mulighed for at skifte mellem forskellige LLMs. Udover LLMs kan man også justere på, hvor den valgte LLM hostes. Promte kan både benyttes med LLMs hosted af Azure (på servere i EU) eller hosted af OpenAI (på servere i USA). Derudover kan du også skifte til din egen hostede LLM. Se mere her:
Include sources in answers
Som udgangspunkt angives kilder til svarerne med links. Dette kan slås fra.
Generate Search Query
Som standardindstilling er dette slået fra. Denne indstilling justerer på, hvilke beskeder fra brugeren, som chatten søger på, når den skal finde relevante kilder i træningsmaterialet til at svare med.
- Slået fra (standard): Der søges udelukkende på brugerens seneste besked, når der skal findes relevant information. Fungerer godt og sikrer at modellen ikke blander forskellige emner i samtalen sammen. Hvis modellen f.eks. under “Persona” er sat til at stille opfølgende spørgsmål, kan søgningen blive dårlig, fordi der udelukkende søges på den seneste besked.
- Som eksempel vil denne samtale resultere i en dårlig søgning:
- Her vil søgningen med Generate Search Query slået fra være på “Ja, det er det, jeg tænker på.”, hvilket ikke vil give gode resultater. Hvis man forventer sådanne samtaler, bør man slå Generate Search Query til.
- Slået til: En AI-model læser hele samtalen mellem brugeren og AI igennem og generer en søgning på baggrund af samtalen, som der søges blandt de indlæste træningsmaterialer i.
Bruger: “Hvordan ændrer man indstillingerne i Promte?”
AI: “Tænker du på at ændre Persona eller andre indstillinger?”
Bruger: “Ja, det er det, jeg tænker på.”
Temperature
Denne indstilling justerer på, hvor meget tilfældighed, der benyttes, når LLM’en skal generere svaret. Meget forsimplet fungerer en LLM ved at estimere det mest sandsynlige næste ord et ad gangen. For at kunne fungere, skal der en lille smule tilfældighed til, så den ikke hver gang vælger det mest sandsynlige ord, men ind i mellem kan vælge mindre sandsynlige ord. LLM’en er dårlig til at generere god tekst helt uden tilfældighed. Omvendt vil man når man bygger en chatbot nødigt have en helt tilfældig chatbot.
- Erfaring viser generelt at den bedste temperature ligger på 0,7. Dvs. at den skal ligge lidt over midten hen mod “Creative” på Promte.
- Man er nødt til at eksperimentere med forskellige indstillinger for at finde den bedste indstilling til ens use-case på Promte. Men det er stort set aldrig en god idé at sætte indstilling til fuld “Conservative” eller fuld “Creative”, men i stedet et sted midt i mellem.
Simple Mode vs Advanced Mode
Udover de almindelige indstillinger, der er gennemgået ovenfor, har man mulighed for at skifte indstillingerne fra “Simple Mode” til “Advanced Mode”, der giver yderligere mulighed for tilpasning. Mulighederne med “Advanced Mode” gennemgås her:
Indhold
Produktopdateringer på Promte
Produktopdateringer & nye features