- A sugestão de cadeia de pensamento orienta os modelos de IA para raciocinarem passo a passo, ajudando-os a resolver tarefas complexas com mais precisão do que a simples previsão da palavra seguinte.
- É melhor utilizado para problemas de várias etapas, como matemática, puzzles lógicos ou tarefas processuais, mas não é necessário para consultas simples de factos ou de uma única etapa.
- O encadeamento de instruções difere do encadeamento de ideias porque divide uma tarefa em várias instruções separadas, enquanto o encadeamento de ideias se mantém num único fluxo de instruções-respostas.
Se já utilizou um chatbotGPT como ChatGPT, provavelmente já reparou na qualidade variada dos resultados.
Por vezes, dá-nos exatamente aquilo de que precisamos. Outras vezes, suspeitamos que a "inteligência" da IA é uma farsa.
Pode melhorar o seu ChatGPT aprimorando a forma como o induz. A indução por cadeia de pensamento incentiva os agentes LLM a raciocinar passo a passo sobre uma tarefa antes de gerar uma resposta.
Os modelos e funcionalidades de IA mais recentes estão a começar a incorporar diretamente o raciocínio em cadeia, de modo a que os seus modelos raciocinem automaticamente sobre o problema sem qualquer estímulo adicional.
O que é o estímulo da cadeia de pensamento?
A sugestão de cadeia de pensamento é uma técnica de engenharia de sugestões em IA que instrui os modelos a decomporem tarefas complexas, raciocinando em cada passo antes de responderem.
Poderá também ouvir o termo "raciocínio em cadeia". Esta expressão refere-se ao processo passo a passo que o modelo adopta para raciocinar sobre a tarefa em questão.
Os modelosOpenAI o1 não requerem a ativação da cadeia de raciocínio, porque já têm o raciocínio da cadeia de raciocínio incorporado. Mas pode utilizar o raciocínio em cadeia em qualquer chatbot alimentado por LLM.
Como é que o raciocínio em cadeia funciona?
O raciocínio em cadeia implica a decomposição de um problema em passos mais pequenos e lógicos para o chatbot de IA resolver em sequência.
Primeiro, a IA identifica as partes principais do problema. Depois, processa cada parte em sequência, considerando como um passo leva ao seguinte. Cada passo baseia-se no anterior, permitindo que a IA avance metodicamente para uma conclusão lógica.
Exemplos de incitação à cadeia de pensamento
O famoso "morango" pronto
ChatGPT e outros LLMs têm pontos fracos bem documentados. Uma delas é a sua incapacidade de identificar corretamente quantos "R" existem na palavra "strawberry" (provavelmente a famosa limitação por detrás do nome de código dos modelos o1: Strawberry).
ChatGPT-O -4o não utiliza o raciocínio em cadeia. Em vez disso, faz referência aos seus dados de treino e gera uma resposta com base na probabilidade de cada palavra seguir a anterior. Embora possa parecer correto na maior parte do tempo, só está a gerar para imitar a linguagem humana - não para raciocinar ou conduzir investigação.
Quando se faz a famosa pergunta do morango ao ChatGPT-4o, este não consegue dar a resposta correta:

No entanto, é possível utilizar uma técnica de sugestão de cadeia de pensamento para ajudar o chatbot com LLM a chegar à resposta correta:

A última iteração de ChatGPT, alimentada por OpenAI o1-preview, é a primeira grande LLM a utilizar o raciocínio de cadeia de pensamento sem qualquer pedido adicional.
A resposta é dada à primeira tentativa, porque foi instruída a seguir automaticamente o mesmo processo da segunda pergunta ChatGPT-4o acima. A única diferença é que ele faz esse processo sem instruções adicionais.

Matemática
Se fizesse a uma versão mais antiga do ChatGPT uma pergunta de matemática retirada de um manual do ensino básico, ele nem sempre acertaria.
Os problemas de matemática em várias etapas requerem raciocínio, o que não estava presente em LLMs. Podia-se decompor cada passo do problema, mas se não se soubessem os passos corretos, um LLM não poderia ajudar.
ChatGPT-4o é capaz de raciocinar a resposta à pergunta, decompondo a série de passos do problema:

Agentes de IA ligados ao Hubspot
Para uma aplicação no mundo real, vamos pegar num agente de IA LLM que foi integrado no Hubspot. Uma equipa de vendas utiliza este agente de IA para processar novas oportunidades à medida que estas são recolhidas nos canais.
Cenário
Umvendedor envia um novo contacto para o agente de IA e pede-lhe que o registe no Hubspot e envie um primeiro e-mail de contacto, mas que não o preencha se o contacto trabalhar numa empresa que já é um potencial cliente.

LLM sem raciocínio em cadeia
O agente de IALLM regista o lead e envia o e-mail sem verificar se a empresa já é um potencial cliente, faltando a condição chave.
LLM com raciocínio em cadeia
Oagente de IA alimentado por LLM verifica se a empresa já é um potencial cliente antes de agir. Se for um potencial cliente, salta o registo e o envio do e-mail; se não for, regista o potencial cliente e envia o e-mail, seguindo rigorosamente as instruções do vendedor.
Quando é que devo utilizar o estímulo da cadeia de pensamento?
O estímulo da cadeia de pensamento é melhor utilizado em cenários que exigem um raciocínio passo a passo.
Os principais candidatos são as tarefas que envolvem deduções lógicas, problemas matemáticos, tarefas processuais ou qualquer situação que exija respostas em várias etapas.
Mas espera: o raciocínio parece ótimo - porque é que eu não o usaria sempre?
Boa pergunta. Nem todas as perguntas exigem raciocínio. Por exemplo:
- Perguntas factuais simples, como "Qual é a capital do Canadá?".
- Problemas de etapa única, como "Quanto é 145 + 37?
- Tarefas de criação de conteúdos, como "Escrever um e-mail educado de 3 frases que pergunte ao meu colega se já terminou o seu projeto".
Inquérito de mudança vs. inquérito de cadeia de pensamento
Apesar de semelhantes no nome, o encadeamento de mensagens e o encadeamento de ideias são estratégias diferentes para melhorar os resultados da IA generativa.
Incitação à cadeia de pensamento
Com a sugestão de cadeia de pensamento, um utilizador orienta a IA para explicar o raciocínio subjacente à sua resposta numa única resposta. Isto leva a IA a percorrer cada passo do processo de resolução de problemas, mas é conseguido através de um único pedido e resposta.
Por exemplo, um prompt de cadeia de pensamento pode ser realizado numa única mensagem:
"Uma equipa de RH precisa de rever 5 avaliações de desempenho dos trabalhadores. Cada uma demora 30 minutos e são necessários 15 minutos de preparação prévia. As avaliações dos seniores requerem mais 10 minutos cada. Quanto tempo demorará a concluir 5 avaliações de seniores e 25 avaliações de juniores? Explique o seu raciocínio passo a passo.
Encadeamento de pedidos
Com o encadeamento de avisos, a tarefa é dividida em passos separados com vários avisos, cada um baseado no resultado anterior. Isto ajuda a estruturar e a guiar a IA através de uma tarefa complexa que provavelmente envolve raciocínio.
O primeiro prompt pode ter o seguinte aspeto:
Sugestão 1: Identificar os principais desafios que uma empresa pode enfrentar aquando da transição para o trabalho remoto.
Saída:
- Lacunas de comunicação
- Manter a produtividade
- Infra-estruturas tecnológicas
- Envolvimento dos trabalhadores
As próximas perguntas podem aprofundar estes conceitos. Por exemplo:
Sugestão 2: Diga-me como é que uma empresa pode encontrar soluções para as falhas de comunicação aquando da transição para o trabalho à distância.
Após a próxima ronda de saída, o próximo elo da cadeia pode ser:
Sugestão 3: Quais são os desafios comuns que as empresas enfrentam quando adoptam estas soluções?
Assim, embora os dois sejam semelhantes, adoptam abordagens diferentes para extrair o conteúdo mais aprofundado e relevante das ferramentas de IA generativa.
Cadeia de pensamento em movimento Botpress
Botpress os utilizadores já estão familiarizados com uma funcionalidade que utiliza o raciocínio em cadeia.
O Nó Autónomo foi lançado em julho de 2024 em Botpress, uma plataforma para a criação de agentes de IA. O Nó Autónomo é capaz de automatizar fluxos de trabalho com várias etapas e tomar decisões de forma autónoma.
Um Nó Autónomo pode ser criado e solicitado com uma simples linha de texto, como "O seu objetivo é gerar leads qualificados. Crie leads no Salesforce quando um utilizador indicar intenção de compra".
O agente de IA que construir utilizando este Nó Autónomo tomará uma variedade de acções para atingir o seu objetivo, independentemente dos fluxos de trabalho concebidos por humanos. Também pode alternar entre diferentes LLMs conforme necessário, tomando a decisão de dar prioridade à velocidade ou à potência.
Criar um agente autónomo personalizado
Botpress é a única plataforma de agentes de IA que lhe permite criar agentes verdadeiramente autónomos.
O Botpress Studio, aberto e flexível, permite infinitos casos de utilização em todos os sectores, desde os RH à geração de leads. A nossa biblioteca de integração pré-construída e os tutoriais extensivos permitem aos utilizadores criar facilmente agentes de IA a partir do zero.
Comece a construir hoje. É grátis.
Ou contacte a nossa equipa de vendas.
FAQs
1. A sugestão de cadeia de pensamento é útil apenas para modelos de IA ou reflecte também a resolução de problemas humanos?
A sugestão de cadeia de pensamento é útil tanto para os modelos de IA como para refletir a resolução de problemas humanos, uma vez que imita a forma como as pessoas lidam naturalmente com problemas complexos, raciocinando passo a passo.
2. Em que é que o raciocínio em cadeia é diferente de "pensar passo a passo"?
Embora "pensar passo a passo" seja uma abordagem geral, o raciocínio em cadeia é mais estruturado e deliberado, incentivando um modelo de IA a articular explicitamente os passos de raciocínio intermédios em vez de tirar conclusões precipitadas.
3. Porque é que alguns LLMs não utilizam o raciocínio em cadeia por defeito?
Alguns LLMs, especialmente os modelos mais antigos ou mais pequenos, não utilizam o raciocínio em cadeia por defeito, porque não foram afinados para produzir resultados em várias etapas e, em vez disso, concentram-se na previsão de respostas prováveis com base em padrões de dados de treino.
4. A sugestão de cadeia de pensamento é uma forma de "treinar" o modelo durante a inferência?
Não, a sugestão de cadeia de raciocínio não é uma forma de treinamento; ela não altera os pesos ou o conhecimento do modelo. Em vez disso, orienta o comportamento de saída do modelo durante a inferência, incentivando o raciocínio estruturado através do prompt.
5. O estímulo da cadeia de pensamento melhora sempre a precisão?
O estímulo da cadeia de raciocínio nem sempre melhora a precisão. Tende a ajudar em tarefas que requerem um raciocínio em várias etapas, mas em tarefas simples pode acrescentar uma complexidade desnecessária e até reduzir o desempenho.