📄️ 🟢 Cadena de pensamiento
El Encadenamiento de pensamiento (CoT, por sus siglas en inglés "Chain of Thought") (@wei2022chain) es un método de indicaciones que se desarrolló recientemente y que alienta al LLM a explicar su razonamiento. La imagen a continuación (@wei2022chain) muestra una indicación estándar de "pocos ejemplos" (izquierda) en comparación con una indicación de encadenamiento de pensamiento (derecha).
📄️ 🟢 Zero Shot Chain of Thought
La cadena de pensamiento sin entrenamiento previo (Zero Shot Chain of Thought, Zero-shot-CoT) (@kojima2022large) es una continuación de la iniciativa de cadena de pensamiento (CoT prompting) (@wei2022chain), que introduce una simple frase inicial sin entrenamiento previo. Encuentran que al agregar las palabras "Pensemos paso a paso." al final de una pregunta, las LM (lenguajes modelo) son capaces de generar una cadena de pensamiento que responde la pregunta. A partir de esta cadena de pensamiento, pueden extraer respuestas más precisas.
📄️ 🟡 Autoconsistencia
La autoconsistencia(@wang2022selfconsistency) (Self-consistency en ingles) es un seguimiento de la iniciativa CoT que genera múltiples cadenas de pensamiento en lugar de solo una, y luego toma la respuesta mayoritaria como respuesta final.
📄️ 🟡 Generated Knowledge
El enfoque de conocimiento generado (@liu2021generated) pide al LLM que genere información
📄️ 🟡 Least to Most Prompting
Least to Most prompting (LtM)(@zhou2022leasttomost) takes %%CoT prompting|CoT prompting%% a step further by first breaking a problem into sub problems then solving each one. It is a technique inspired by real-world educational strategies for children.
📄️ 🟢 ¿Qué es una Promoción?
Hemos pasado por algunas estrategias de promoción diferentes en las páginas anteriores. Esta página ofrecerá algunos consejos generales sobre lo que realmente es importante en una promoción.