Closed-Loop Prompt Optimization for Enhanced Accuracy in Extractive Question Answering
Stora språkmodeller (LLM) har uppvisat anmärkningsvärda förmågor inom en rad olika uppgifter inom naturlig språkbehandling (NLP). Deras prestanda är dock mycket känslig för den inledande prompt som används för att fråga dem. Manuell promptkonstruktion, även om den är effektiv, är ofta tidskrävande och kräver betydande expertis. Denna avhandling undersöker promptoptimering, med fokus på en automatiLarge Language Models (LLMs) have demonstrated remarkable capabilities across various Natural Language Processing (NLP) tasks. However, their performance is highly sensitive to the input prompt used to query them. Manual prompt engineering, while effective, is often time-consuming and requires significant expertise. This thesis investigates Prompt Optimization, focusing on a closed-loop, automated
