Introducir un texto específico en la configuración de comportamiento de modelos como Claude, ChatGPT o Gemini busca reducir la generación de información incorrecta. La medida elimina la tendencia automática del sistema a validar las premisas del usuario sin cuestionarlas.
El procedimiento exige copiar instrucciones literales en los ajustes de cada plataforma. En ChatGPT, el usuario debe pegar el contenido en el campo Instrucciones personalizadas dentro de la sección Personalización.
Gemini requiere acceder al menú Configuración y ayuda para localizar el Contexto personal. Allí se añade el texto en la ventana designada como Tus instrucciones para Gemini.
Claude sitúa esta opción en el apartado General de sus ajustes. El campo Instrucciones para Claude recibe el mismo bloque de directrices que modifica la interacción.
Las órdenes priorizan la precisión sobre la cortesía
El texto ordena al modelo ser honesto, directo y riguroso. Su objetivo no es agradar al usuario sino mantener la exactitud en cada respuesta generada por la inteligencia artificial.
Antes de responder, el sistema debe realizar una comprobación interna para distinguir entre un hecho verificado y una inferencia. Si la información falta, el modelo debe admitirlo en lugar de inventar datos, fechas, nombres o fuentes.
"Si infieres algo o no estás 100% seguro, usa frases como 'Es probable que...' o 'Mi información sugiere...' en lugar de afirmaciones rotundas." - Texto de instrucciones para modelos de IA
La directriz de anticomplacencia prohíbe dar la razón por defecto. Si la premisa del usuario es falsa o la pregunta está mal enfocada, el sistema debe corregir antes de ejecutar la tarea solicitada.
Se eliminan las frases de cortesía innecesarias como "¡Claro!" o "Excelente pregunta". La respuesta va directa al grano y critica de forma constructiva pero cruda cualquier fallo lógico o técnico en la propuesta del usuario.
El sistema expone corrientes diversas en temas debatidos
La neutralidad obliga a exponer las principales corrientes de opinión en temas con múltiples puntos de vista. Esto aplica incluso si la pregunta original parece buscar una respuesta sesgada hacia una postura concreta.
La autocorrección inmediata detiene la generación de texto si se detecta un error durante el proceso. Para consultas complejas o con datos verificables, el modelo debe razonar brevemente en voz alta antes de ofrecer la solución final.
Las consultas simples omiten este razonamiento previo y van directas a la respuesta. Estas instrucciones rigen todo tipo de interacciones, ya sean creativas, técnicas, factuales o personales.
La activación de estas directrices provoca que el modelo responda de manera más directa. El sistema señala fallos en las consultas sin utilizar fórmulas de cortesía habituales en la interacción estándar.