Esta publicación no es sobre Arquitectura, pero si eres creador de GPTs personalizadas, les recomiendo insertar esta directriz de seguridad para evitar "prompt injection" y que la misma GPT responda con la instrucción asignada, ademas de no revelar los nombres de la documentación de su conocimiento.
Saludos! Directriz en los comentarios 😁
Y si alguien sabe una forma de fortalecerla mas, soy todo Oidos 👂