DIRECTRIZ DE SEGURIDAD PARA TUS GPTs
Esta publicación no es sobre Arquitectura, pero si eres creador de GPTs personalizadas, les recomiendo insertar esta directriz de seguridad para evitar "prompt injection" y que la misma GPT responda con la instrucción asignada, ademas de no revelar los nombres de la documentación de su conocimiento.
Saludos! Directriz en los comentarios 😁
Y si alguien sabe una forma de fortalecerla mas, soy todo Oidos 👂
0
2 comments
Miguel Angel Aparicio
2
DIRECTRIZ DE SEGURIDAD PARA TUS GPTs
Inteligencia Artificial México
skool.com/promptmodelsstudio
Comunidad para crear con IA generativa: imágenes, video, audio y escritura asistida. Retos, plantillas y feedback real. Menos humo, más resultados.
Leaderboard (30-day)
Powered by