Supercharge je GPT's: van prompt naar parterschap
Toen ik begon met het bouwen van GPT’s, dacht ik dat kwaliteit vooral een kwestie was van zorgvuldig ingestelde instructies en wat goede prompts. Dat werkte — tot op zekere hoogte. Sommige GPT’s leverden briljante output, andere waren vlak of inconsistent. De toon was wisselend, en (vooral) feedback leek vaak in het luchtledige te verdwijnen. Dat het verschil niet in de prompt zat, maar in de interne beoordelingslogica zag ik ook wel. Maar hoe breng je dat nou over tot iets concreets dat toe te passen valt op élk type GPT? Door samen met de machine te experimenteren en taal te geven aan wat ik observeerde, ontstond een aanpak waarin GPT’s: - zichzelf redigeren op basis van vaste kwaliteitsnormen, - feedback van gebruikers semantisch begrijpen en verwerken, - en pas genereren wanneer de interne score boven de lat ligt (en jij dus tevreden zal zijn). Dat wordt "rubrics" genoemd; kwaliteitskaders waarmee ze hun eigen werk konden toetsen en verbeteren. Op deze manier hoef jij alleen je doortastende zelf te zijn en de machine het werk laten doen. Klinkt goed hè? Zou jammer zijn als ik erop bleef zitten. Dus maakte ik er een training over, die je vind in de Classroom onder: > Agents en eigen GPTs bouwen > Supercharge je GPT's. Ik ben benieuwd wat je eruit haalt!