Class CompletionCreateRequest

Classe CompletionCreateRequest

Rappresenta una richiesta per l’endpoint Create Chat Completion.

public class CompletionCreateRequest

Costruttori

NomeDescrizione
CompletionCreateRequest()Il costruttore predefinito.

Proprietà

NomeDescrizione
FrequencyPenalty { get; set; }Ottiene o imposta un numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro frequenza esistente nel testo finora, diminuendo la probabilità del modello di ripetere la stessa riga parola per parola.
LogitBias { get; set; }Ottiene o imposta la probabilità che i token specificati appaiano nella completamento. Accetta un oggetto JSON che mappa i token (specificati dal loro ID nel tokenizer) a un valore di bias associato da -100 a 100.
Logprobs { get; set; }Ottiene o imposta se restituire o meno le probabilità logaritmiche dei token di output. Se vero, restituisce le probabilità logaritmiche di ciascun token di output restituito nel contenuto del messaggio.
MaxTokens { get; set; }Ottiene o imposta il numero massimo di token da generare nella completamento.
Messages { get; set; }Ottiene o imposta un elenco di messaggi che compongono la conversazione finora.
Model { get; set; }Ottiene o imposta l’ID del modello da utilizzare.
NumberOfChoices { get; set; }Ottiene o imposta quante scelte di completamento della chat generare per ciascun messaggio di input. Nota che ti verrà addebitato in base al numero di token generati in tutte le scelte. Mantieni n come 1 per ridurre i costi.
PresencePenalty { get; set; }Ottiene o imposta un numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che appaiano o meno nel testo finora, aumentando la probabilità del modello di parlare di nuovi argomenti.
ResponseFormat { get; set; }Ottiene o imposta un oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106. Impostare su { “type”: “json_object” } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia un JSON valido.
Seed { get; set; }Ottiene o imposta il valore Seed. Questa funzionalità è in Beta. Se specificato, il nostro sistema farà del suo meglio per campionare in modo deterministico, in modo che richieste ripetute con lo stesso seed e parametri dovrebbero restituire lo stesso risultato. La determinismo non è garantita e dovresti fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel backend.
Stop { get; set; }Ottiene o imposta fino a 4 sequenze in cui l’API smetterà di generare ulteriori token.
Stream { get; set; }Ottiene o imposta se utilizzare lo streaming. Se impostato, i delta dei messaggi parziali verranno inviati, come in ChatGPT. I token verranno inviati come eventi server-sent solo dati man mano che diventano disponibili, con lo stream terminato da un messaggio data: [DONE].
Temperature { get; set; }Ottiene o imposta quale temperatura di campionamento utilizzare, tra 0 e 2. Valori più alti come 0.8 renderanno l’output più casuale, mentre valori più bassi come 0.2 lo renderanno più focalizzato e deterministico.
ToolChoice { get; set; }Ottiene o imposta un oggetto che controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non chiamerà alcuno strumento e genererà invece un messaggio. auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {“type”: “function”, “function”: {“name”: “my_function”}} costringe il modello a chiamare quello strumento. none è il predefinito quando non sono presenti strumenti. auto è il predefinito se sono presenti strumenti.
Tools { get; set; }Ottiene o imposta un elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usa questo per fornire un elenco di funzioni per le quali il modello può generare input JSON. Un massimo di 128 funzioni sono supportate.
TopP { get; set; }Ottiene o imposta un’alternativa al campionamento con temperatura, chiamata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0.1 significa che vengono considerati solo i token che compongono il 10% superiore della massa di probabilità.
User { get; set; }Ottiene o imposta un identificatore unico che rappresenta il tuo utente finale, che può aiutare OpenAI a monitorare e rilevare abusi.

Vedi anche