1.1. O que é um prompt e como ele funciona nos LLMs 1.2. Diferença entre prompt engineering, fine-tuning e embeddings 1.3. Conhecendo os principais modelos (GPT, Claude, Gemini, Mistral etc.) 1.4. Limitações e potencial dos LLMs
2.1. Tipos de prompts: simples, compostos, estruturados 2.2. Boas práticas de escrita de prompts 2.3. Estratégias: cadeia de pensamento (chain of thought), zero-shot, few-shot, instruções aninhadas 2.4. Prompt como programação natural: princípios de clareza, contexto e objetivo
3.1. Atendimento ao cliente (FAQ, suporte técnico, triagem) 3.2. Geração de conteúdo (marketing, landing pages, email, SEO) 3.3. Análise de dados e BI com LLMs 3.4. Automação de processos com IA (ex: geração de relatórios, resumos, traduções técnicas) 3.5. Integração com sistemas legados, APIs e RPA
4.1. OpenAI API (ChatGPT, Assistants, GPTs) 4.2. LangChain, Semantic Kernel, LlamaIndex 4.3. Automação com n8n, Zapier e Make 4.4. Noções de uso via código (Python/JavaScript) e via plataformas low-code
5.1. Testes A/B de prompts 5.2. Métricas: precisão, relevância, consistência, custo (tokens) 5.3. Técnicas de refinamento: refatoração e versionamento 5.4. Uso de feedback humano e automático
6.1. Criação de um repositório de prompts reutilizáveis 6.2. Projetos open-source e cases públicos 6.3. Portfólio voltado para empresas de tecnologia (B2B) 6.4. Como apresentar um prompt como uma solução corporativa (documentação + resultado)
7.1. Prompts para SaaS e produtos digitais 7.2. Prompts para times de produto e desenvolvimento 7.3. Prompts para automação de suporte e vendas 7.4. Prompts para engenharia de software e devops
8.1. Alucinações e vieses em LLMs 8.2. Como proteger dados sensíveis em prompts 8.3. Governança e rastreabilidade de interações com IA 8.4. Legislação e compliance em IA aplicada aos negócios
Renée Maksoud - junho de 2025