API OpenAI Chat Completions
A API OpenAI Chat Completions possibilita interações de chat com Grandes Modelos de Linguagem (Large Language Models - LLMs) da OpenAI. Ela pode ser utilizada em sistemas que precisem integrar chatbots ou outras interações de linguagem baseadas em Inteligência Artificial e oferece alto grau de customização e controle sobre o comportamento do modelo.
Além disso, para auxiliar na estruturação e no monitoramento das requisições e respostas, a API traz em seu fluxo os seguintes interceptores já configurados:
-
Header: adiciona ou ajusta cabeçalhos.
-
Log: há duas instâncias desse interceptor configuradas, uma no fluxo da requisição e outra no fluxo da resposta. Sua função é a de gerar logs para permitir a visualização da requisição e da resposta.
-
JSON Schema Validation: valida o conteúdo presente no corpo da requisição (payload) de acordo com o padrão aceito pela API.
-
Rate Limit AI Tokens: permite controlar o consumo de tokens em aplicações que consomem LLMs.
Importando a API
Para utilizar a API OpenAI Chat Completions, primeiramente você deve importá-la em sua Plataforma seguindo os passos abaixo:
-
Faça o download da documentação da API.
-
Descomprima a pasta
OpenAI_Chat_Completions_API.zip. -
Importe o arquivo
OpenAI_Chat_Completions_API.yamlpara a Plataforma por meio da funcionalidade Import/Export. -
Implante a API em algum ambiente.
| Para autenticação, você deverá inserir no header da requisição a chave (API key) recebida da OpenAI. |
Referência da API
Descrição Geral
-
Título: OpenAI Chat Completions API
-
Propósito: Permitir a interação com modelos de linguagem para gerar respostas baseadas em mensagens enviadas por usuários.
-
Base Path:
/v1 -
Método Principal:
POSTno endpoint/chat/completions -
Segurança: Utiliza autenticação via Bearer Token no cabeçalho da requisição.
Funcionalidade Principal
O endpoint /chat/completions permite gerar uma interação de chat.
Ele:
-
Recebe uma lista de mensagens no formato JSON.
-
Usa essas mensagens para interagir com um modelo de linguagem escolhido pelo cliente.
-
Retorna as respostas geradas pelo modelo.
Entrada (Payload)
Formato: JSON
Campos principais:
-
model(string, obrigatório): Define qual modelo de linguagem será utilizado (ex.:gpt-4o`). -
messages(array, obrigatório): Lista de mensagens da conversa, em que cada mensagem contém:-
role(string): Papel do autor da mensagem, comouser,systemouassistant. -
content(string): Conteúdo textual da mensagem.
-
-
max_tokens(integer, opcional): Limita o número de tokens gerados na resposta. -
temperature(number, opcional): Controla a criatividade da resposta (valores menores geram respostas mais determinísticas). -
top_p(number, opcional): Nucleus sampling para limitar a probabilidade acumulada de palavras geradas. -
n(integer, opcional): Quantidade de respostas que devem ser geradas. -
stop(array, opcional): Define sequências que encerram a geração de texto. -
presence_penaltyefrequency_penalty(números, opcionais): Penalizam repetições e incentivam a originalidade. -
logit_bias(objeto, opcional): Ajusta a probabilidade de palavras específicas. -
user(string, opcional): Identificador único para rastrear a interação de um usuário.
Resposta
Códigos de status:
-
200 OK: Resposta gerada com sucesso. Retorna:
-
id(string): Identificador único da resposta. -
choices(array): Lista das respostas geradas, cada uma com:-
message: Mensagem gerada pelo modelo, comroleecontent. -
finish_reason: Razão para a finalização da geração (ex.: stop).
-
-
usage: Métricas de uso de tokens (prompt, completion, total).
-
-
400 Bad Request: Requisição inválida.
-
500 Internal Server Error: Erro interno do servidor ou serviço.
Share your suggestions with us!
Click here and then [+ Submit idea]