Przejdź do treści
Intum
Aktualizacja: Wyświetleń: 103 1 min czytania

Prompty AI — API

Autoryzacja: Authorization: Bearer TOKEN
Content-Type: application/json

Endpoints

Metoda Ścieżka Opis
GET /noe/prompts.json Lista promptów
GET /noe/prompts/:id.json Szczegóły prompta
POST /noe/prompts.json Tworzenie prompta
PATCH /noe/prompts/:id.json Aktualizacja prompta
DELETE /noe/prompts/:id.json Usunięcie prompta
GET /noe/prompt/:code Pobranie prompta po kodzie (resolved — uwzględnia kaskadę)
GET /noe/prompts/system/:code Pobranie systemowego prompta

Pola

Pole Typ Wymagane Opis
name string tak Nazwa prompta
code string tak Kod unikalny (per scope)
kind string tak Rodzaj: chat, agent
content text tak Treść prompta (markdown)
scope string nie Zakres: user, team, department, account
scope_id integer nie ID obiektu zakresu

Kaskadowe wyszukiwanie

Endpoint /noe/prompt/:code szuka prompta w kolejności:

  1. Użytkownik (scope: user)
  2. Zespół (scope: team)
  3. Departament (scope: department)
  4. Konto (scope: account)
  5. Plik systemowy (app/src/noe/prompts/:code.md)

POST — Tworzenie prompta

POST /noe/prompts.json

{
  "prompt": {
    "name": "Redaktor treści",
    "code": "content_editor",
    "kind": "agent",
    "scope": "account",
    "content": "Jesteś doświadczonym redaktorem. Poprawiaj styl i gramatykę."
  }
}

Zmienne Liquid

Prompty obsługują zmienne {{ zmienna }} wypełniane kontekstem:

  • {{ api_token }} — token API
  • {{ host }} — adres hosta
  • {{ desk_name }}, {{ desk_id }} — kontekstowe zmienne
  • {{ "code" \| prompt_url }} — URL do innego prompta