Mundo
Joven de 15 años asesinó a un compañero dentro de su colegio: dejó carta aterradora
Tú navegador no es compatible para reproducir este audio
El 30 de noviembre de 2022 pasó a la historia como el día en el que la humanidad conoció los grandes modelos de lenguaje o LLM por sus siglas en inglés.
En ese día, la compañía OpenAI realizó el lanzamiento abierto a todo el mundo de su chatbot basado en inteligencia artificial llamado ChatGPT. No tardó mucho en hacerse eco; era la primera vez que un modelo de inteligencia artificial tenía tanta capacidad para entender y generar lenguaje humano. Su capacidad para realizar análisis de sentimientos, escribir ensayos y resumir textos fueron las primeras características que impresionaron a los usuarios.
(Vea también: El arte de ganar con trucos: los atajos y desafíos en videojuegos)
Desde ese momento, el desarrollo de modelos de lenguaje no se ha detenido. Empresas como Microsoft, Meta y X se han unido a la carrera y, a día de hoy, ChatGPT no es el único modelo de lenguaje con el cual podemos dialogar. Así, surge la necesidad de aprender a “conversar” con estas inteligencias artificiales, ya que muestran capacidades poderosas, pero no saber cómo usarlas de manera efectiva y eficiente a menudo conduce a rendimientos deficientes.
A la disciplina que investiga cómo potenciar las respuestas de los LLM se le llama **prompt engineering**, y su objeto de estudio más importante es el **prompt**, el cual se entiende como la orden o instrucción que el usuario envía al LLM para así guiar la respuesta del mismo. Diferentes prompts pueden generar resultados diferentes, por lo que es útil experimentar y ajustar los prompts para obtener los resultados deseados.
Para sacar el máximo provecho de los modelos de lenguaje, es crucial ser específico y claro en las instrucciones. Proporcionar instrucciones detalladas sobre lo que quieres que el modelo haga puede marcar la diferencia entre una respuesta útil y una que no lo es. Por ejemplo, en lugar de solicitar “Escribe un resumen de este artículo”, sería más efectivo decir “Escribe un resumen de no más de 100 palabras, destacando los puntos principales y conclusiones del artículo”. Un ‘prompt’ vago o ambiguo puede generar respuestas poco útiles, mientras que ser preciso ayuda al modelo a comprender exactamente lo que se espera.
Además, el uso de ejemplos es una estrategia poderosa. Incluir uno o varios ejemplos de la salida deseada ayuda al modelo a comprender mejor lo que se espera de él. Por ejemplo, si necesitas que el modelo genere un correo electrónico formal, proporcionar un ejemplo de un correo similar puede guiar al modelo a replicar el tono, la estructura y el contenido deseado.
Para tareas más complejas, es útil estructurar la tarea descomponiéndola en subtareas más manejables y proporcionando instrucciones claras para cada una. Por ejemplo, si estás utilizando el modelo para crear un informe detallado, podrías dividir el prompt en secciones específicas como introducción, desarrollo y conclusión, detallando lo que debería incluirse en cada parte. Esta estrategia no solo facilita la comprensión del modelo, sino que también mejora la calidad y coherencia del resultado final.
Por otro lado, establecer restricciones puede ser igualmente crucial. Si hay ciertos requisitos o restricciones, inclúyelos en el ‘prompt’ para guiar al modelo. Por ejemplo, si necesitas que el modelo escriba un artículo con un máximo de 500 palabras, especifica esa limitación en el ‘prompt’. Esto asegurará que el resultado cumpla con los criterios establecidos, evitando respuestas que no se ajusten a las necesidades específicas.
Finalmente, la clave para dominar el ‘prompt engineering’ es la iteración y refinamiento. No dudes en reformular el ‘prompt’ si las primeras respuestas no son satisfactorias. La iteración es clave para mejorar continuamente las interacciones con el modelo. Por ejemplo, si un ‘prompt’ inicial no produce la calidad deseada, ajustar la redacción, incluir más detalles o proporcionar ejemplos adicionales puede resultar en una mejora significativa.
En conclusión, el ‘prompt engineering’ se ha convertido en una habilidad esencial en la era de los modelos de lenguaje avanzados. Ser específico y claro, usar ejemplos, estructurar tareas y establecer restricciones son prácticas que pueden transformar la interacción con los LLM, maximizando su potencial y eficacia. Con la iteración constante y el refinamiento de los ‘prompts’, podemos seguir avanzando en la utilización de estas poderosas herramientas, logrando resultados cada vez más precisos y valiosos.
Joven de 15 años asesinó a un compañero dentro de su colegio: dejó carta aterradora
Famoso cantante argentino confesó que tiene VIH: "No sé a quién contagié"
Nuevo golpe de Trump a Colombia: EE. UU. hizo advertencia para quienes viajen hacia acá
Karina, sin pijama, y Altafulla, sin pantalón: videos delataron caliente noche en la cama
Colombianos que vivan en Estados Unidos estarían en problemas; todo por un documento
Caso de Valentina Trespalacios y Poulos da giro por nuevo hallazgo: "Tenían nube juntos"
Colombiana fue hallada muerta en Miami y su hija de 3 años dio pista clave del asesino
Petro se montó a tren y le cobró plata a Sarmiento Angulo: “Le pertenecen al pueblo”
Sigue leyendo