Una guía para crear prompts efectivos
La IA Generativa y los prompts son la clave para hacer posible la creación de imágenes, generar contenido y hacer ciento de cosas.
Si aún no sabes de qué se trata, no te preocupes, ¡estás en el lugar correcto! En este blog te explicaremos todo sobre los prompts y cómo están revolucionando el mundo de la tecnología y de muchos profesionales.
¿Qué es un Prompt?
Imagina que un prompt es la forma en que los humanos podemos hablar con las IA. Es una forma de decirle a la Inteligencia Artificial qué queremos y cómo lo queremos a través del lenguaje natural, si… solo debes expresar lo que deseas.
Imagínate que quieres crear una imagen con Inteligencia Artificial y no puedes “mostrarle” a tu computador lo que quieres, así que deberás usar las palabras para intentar describir lo que quieres. Esto es muy importante, ya que lo usaras en tecnología de IA conversacional como ChatGPT
Estructura del Prompt
Para dar un ejemplo practico vamos a hacer uso del siguiente Prompt
Actúa como un experto en finanzas (Contexto), dame un ejemplo practico
(Instrucción) de los 10 principales indicadores para analizar
estados de resultados (Entrada) y entregalos en una tabla. (Salida)
- Contexto: puede implicar información externa o contexto adicional que pueda dirigir el modelo hacia mejores respuestas
"Actúa como un experto en finanzas"
- Instrucción: Es la tarea o instrucción específica que desea que el modelo realice.
"dame un ejemplo practico"
- Datos de entrada: Son aquellas especificaciones o ejemplos adicionales o esenciales sobre la tarea a realizar.
"10 principales indicadores para analizar estados de resultados"
- Indicador de salida: Es la forma en que queremos que la respuesta indicando el tipo o el formato de la salida, ya sea un ensayo, un resumen, un copy, una tabla, un guión, numerales o como se te ocurra.
"entregalos en una tabla"
Recuerda, no todos los componentes son necesarios y el formato depende de la tarea en cuestión, pero la instrucción es esencial, puesto que es lo que realmente quiero que haga la IA.
Observa como los siguientes ejemplos no tienen los componentes necesarios pero conserva la instrucción:
Describe brevemente la trama (Instrucción)
la pelicula "Interstellar (2014)" (Entrada)
Calcula el tiempo que tarda en recorrer (Instrucción)
20 Km con una velocidad promedio de 80 Km/h (Entrada)
y dame la repuesta en minutos. (Salida)
Eres un experto en nutrición (Contexto)
Enumera 5 alimentos ricos en proteina (Instrucción)
Para una dieta vegetariana (Entrada)
Tips para mejorar un Prompt
- Comienza simple:
Es recomendable comenzar con indicaciones simples para validar que el modelo sea capaz de generar lo que necesito, y poco a poco ir agregando elementos y contexto para ir obteniendo un resultado cada vez más preciso. Esto es útil cuando se tiene una tarea grande que se puede dividir en subtareas más simples. - Especificidad:
Ser muy específico en la instrucción que se le pide al modelo: cuanto más detalle se otorgue, se generarán mejores resultados. Los detalles deben ser relevantes y contribuir a la tarea en cuestión, siempre teniendo en cuenta la limitación de la cantidad de texto de entrada. - Evitar imprecisiones:
Es importante no caer en ambigüedades al redactar los prompts. Hay elementos que pueden ser subjetivos entre lo que considero que significan y lo que el modelo puede considerar que significa (por ejemplo, utilizar “breve/extenso”, “poco/mucho”). Es mejor especificar al máximo (por ejemplo con valores numéricos) a qué nos referimos con estos elementos. - Reafirma:
Resulta útil, al final de los prompts, preguntarle al modelo si entendió lo que debe realizar para obligarle a comenzar su respuesta con la confirmación textual de lo que debe realizar. Así nos aseguramos que esté haciendo lo que le pedimos y podremos detectar si necesitamos añadir mayor precisión. - Audiencia objetivo:
En los casos en los que sea posible, podemos indicar una audiencia objetivo para garantizar mayor precisión en la manera en que el resultado debe ser generado (por ejemplo: para explicarle a un niño, a un estudiante universitario, a un experto en el tema). - Proporcionar ejemplos:
Proporcionar ejemplos en el prompt sobre cómo queremos que sea el resultado, es muy efectivo para obtener respuestas muy ajustadas a formatos específicos.
Limitaciones y uso ético
Los modelos de (PNL) Procesamiento de Lenguaje Natural utilizan algoritmos que trabajan con grandes cantidades de datos para aprender patrones y regularidades en el lenguaje, y así poder generar respuestas y realizar tareas como la traducción automática o la generación de texto, de acuerdo a la probabilidad de que una palabra continúe después de otra, según un contexto específico.
ㅤ
Esto lleva a ciertas limitaciones importantes que no pueden ser fácilmente resueltas con el uso de probabilidades y patrones matemáticos:
- Comprensión profunda: Aunque pueden detectar algunas señales, NO poseen comprensión directa de sentimientos, consciencia, emociones o sentidos.
- Respuestas incorrectas: La probabilidad no es absoluta. Las respuestas son las más cercanas estadísticamente a lo que se espera generar, pero existe un margen de error en el que se pueden generar respuestas incorrectas hasta llegar el punto a alucinar los resultados.
- Sesgo: Los modelos son entrenados con datos existentes de internet. Esto implica que los datos de entrenamiento pueden contener sesgos (raciales, étnicos, religiosos, de género, entre otros), y el texto generado por el modelo puede ser susceptible a este sesgo. (Bias)
- Manipulación: Aunque los modelos se entrenan con ciertos filtros de moderación de contenido, existen técnicas que permiten saltarse estos filtros y generar contenido ilegal, malicioso o peligroso.
- Respuestas largas y redundantes: Generalmente otorga respuestas extensas en las que puede ser redundante y repetir las mismas palabras continuamente (overfitting).
- Mantener el contexto: Se puede perder el contexto a través de la conversación al sobrepasar la memoria disponible.
- Actualización: Los modelos no están entrenados con datos hasta la fecha actual. Por ejemplo, GPT-4 contiene datos hasta septiembre de 2021 y GPT-3 hasta octubre de 2019.
- Tokens: Existe limitación entre la cantidad de texto que puede recibir y puede generar en cada petición, en el caso de la Versión 4 tiene un limitante de 8.192 Tokens.
Precauciones
No compartas información personal que vulnere tu privacidad e identificación.
No compartas información medica, financiera y desconfía cuando te solicite contraseñas o información sensible.
Conoce mi camino profesional: aquí 💚