OpenAI a Python: úvod do programovania AI modelov

1. 10. 2025
Doba čtení: 15 minut

Sdílet

Robot, symbolizující umělou inteligenci, v prostředí displejů
Autor: Root.cz s využitím Zoner AI
V tomto článku sa dozviete, ako programovať veľké jazykové modely v Pythone s knižnicou OpenAI. Ukážeme si základnú komunikáciu s AI modelmi a tvorbu jednoduchých programov.

Budeme potrebovať mať nainštalovaný Python, VS Code a účet na platforme OpenRouter a/alebo priamo na platforme niektorého z tvorcov modelov, ako je napr. Anthropic, DeepSeek, OpenAI alebo xAI. Všetky príklady sa budú dať spustiť buď bezplatne, alebo s minimálnymi nákladmi.

Veľké jazykové modely

Veľké jazykové modely sú najpokročilejšie systémy umelej inteligencie súčasnosti, trénované na masívnych množstvách textových dát z internetu, kníh, článkov a ďalších zdrojov. Tieto modely majú typicky stovky miliárd až bilióny parametrov, čo im umožňuje rozumieť kontextu, generovať koherentný text, odpovedať na komplexné otázky a vykonávať špecializované úlohy ako programovanie, prekladanie, sumarizáciu alebo kreatívne písanie.

Veľké jazykové modely sú dostupné prostredníctvom rôznych API a cloudových služieb, čo umožňuje vývojárom jednoducho integrovať ich schopnosti do aplikácií bez potreby vlastniť alebo prevádzkovať tieto výpočtovo náročné systémy. Každý model má svoje špecifické silné a slabé stránky – niektoré sú lepšie v kreatívnom písaní, iné v analytických úlohách alebo programovaní. Preto je dôležité vybrať si správny model pre konkrétnu úlohu.

Nižšie je prehľad niektorých z najpopulárnejších LLM modelov dostupných v súčasnosti:

LLM názov Spoločnosť Krajina pôvodu
ChatGPT OpenAI Spojené štáty
DeepSeek DeepSeek Čína
Grok xAI Spojené štáty
Qwen Alibaba Cloud Čína
Claude Anthropic Spojené štáty
Gemini Google Spojené štáty
Llama Meta Spojené štáty
Mistral Mistral AI Francúzsko

Pri výbere modelu pre konkrétny projekt je dôležité zvážiť niekoľko faktorov: náklady na API volania, jazykovú podporu, špecializáciu na určité úlohy, rýchlosť odpovedí a dostupnosť. Platforma OpenRouter umožňuje jednoducho testovať rôzne modely a porovnávať ich výkony pred konečným rozhodnutím. S rozvojom technológií sa neustále objavujú nové modely s vylepšenými schopnosťami, čo vytvára dynamické a konkurenčné prostredie v oblasti AI.

Komunikujeme s modelom cez REST API

Modely bežne poskytujú prístup cez REST API, čo umožňuje posielať požiadavky a prijímať odpovede pomocou HTTP.

import requests
import os

# pip instal requests

# API key from environment
api_key = os.environ.get("OPENROUTER_API_KEY")
if not api_key:
    raise ValueError("OPENROUTER_API_KEY not set")

# OpenRouter API endpoint
url = "https://openrouter.ai/api/v1/chat/completions"

# Headers
headers = {
    "Authorization": f"Bearer {api_key}",
    "Content-Type": "application/json"
}

# Request payload
data = {
    "model": "anthropic/claude-3-haiku",
    "messages": [
        {"role": "user", "content": "Is Pluto a planet?"}
    ]
}

# Make the POST request
response = requests.post(url, headers=headers, json=data)

# Handle the response
if response.status_code == 200:
    result = response.json()
    print(result['choices'][0]['message']['content'])
else:
    print(f"Error: {response.status_code} - {response.text}")

Tento príklad demonštruje základnú komunikáciu s veľkým jazykovým modelom cez REST API pomocou knižnice requests. Kód najprv načíta API kľúč z prostredia, nastaví potrebné hlavičky vrátane autorizácie a typu obsahu, a potom odošle POST požiadavku na OpenRouter API s modelom Claude 3 Haiku. Po prijatí odpovede skontroluje stavový kód a buď vypíše obsah správy asistenta, alebo chybovú hlášku.

Claude 3 Haiku je model od spoločnosti Anthropic, ktorý je známy svojou schopnosťou generovať kreatívny a umelecký text, často v podobe haiku básní. No možno ho využiť aj na bežné otázky.

OpenAI knižnica pre Python

OpenAI knižnica pre Python je oficiálne SDK (Software Development Kit), ktoré zjednodušuje prístup k REST API od OpenAI a ďalších kompatibilných poskytovateľov veľkých jazykových modelov. Táto knižnica je navrhnutá tak, aby poskytovala jednotné a konzistentné rozhranie pre prácu s rôznymi AI modelmi, bez ohľadu na to, či sa nachádzajú na serveroch OpenAI, alebo u iných poskytovateľov ako DeepSeek, OpenRouter, alebo sa jedná o lokálne hostované modely.

Hlavnou výhodou tejto knižnice je jej flexibilita a všestrannosť. Umožňuje vývojárom jednoducho integrovať pokročilé AI schopnosti do svojich aplikácií vrátane generovania textu, konverzačných rozhraní, spracovania prirodzeného jazyka, analýzy obrázkov a volania funkcií. Knižnica abstrahuje zložitosť HTTP komunikácie a spracovania JSON odpovedí, čo vývojárom umožňuje sústrediť sa na logiku aplikácie namiesto nízkoúrovňových technických detailov.

OpenAI knižnicu nainštalujeme pomocou správcu balíkov pip.

$ pip install openai

OpenAI je postavená na niekoľkých kľúčových konceptoch:

  • Client – hlavný objekt, ktorý spravuje komunikáciu s API
  • Messages – pole správ, ktoré tvoria konverzáciu s modelom
  • Models – identifikátory špecifických AI modelov
  • Completions – odpovede generované modelmi
  • Functions/Tools – externé funkcie, ktoré model môže nechať volať

Pred použitím knižnice je potrebné vytvoriť inštanciu klienta OpenAI. Klient sa konfiguruje pomocou API kľúča a voliteľne aj bázovej URL, ak používame iného poskytovateľa ako OpenAI.

from openai import OpenAI

# For OpenAI API
client = OpenAI(
    api_key="your-api-key-here"
)

# For OpenRouter
client = OpenAI(
    base_url="https://openrouter.ai/api/v1",
    api_key="your-api-key-here"
)

# For DeepSeek
client = OpenAI(
    base_url="https://api.deepseek.com",
    api_key="your-api-key-here"
)

API kľúče sú citlivé údaje, ktoré by nikdy nemali byť súčasťou zdrojového kódu. Najlepšou praxou je ukladať ich v premenných prostredia alebo v bezpečnom konfiguračnom súbore. Knižnica podporuje automatické načítanie API kľúča z premennej prostredia OPENAI_API_KEY.

import os
from openai import OpenAI

# Automatic loading from environment variable
client = OpenAI()

# Explicit setting from environment variable
client = OpenAI(
    api_key=os.getenv("OPENAI_API_KEY")
)

OpenAI podporuje rôzne typy interakcií s modelmi, každá navrhnutá pre špecifický účel:

  • Chat Completions – konverzačné rozhrania s pamäťou kontextu
  • Completions – jednoduché generovanie textu bez kontextu
  • Embeddings – vektorové reprezentácie textu pre podobnostné vyhľadávanie
  • Moderation – detekcia nevhodného obsahu
  • Files – správa súborov pre fine-tuning modelov
  • Fine-tuning – prispôsobenie modelov špecifickým dátam

Chat completions sú najčastejšie používanou a najvšestrannejšou funkciou OpenAI knižnice. Umožňujú vytvárať prirodzené konverzácie s AI modelmi, ktoré si zachovávajú kontext a históriu predchádzajúcich správ. Na rozdiel od jednoduchých textových generátorov, chat completions fungujú ako skutočný rozhovor, kde model rozumie predchádzajúcim otázkam a odpovediam. Táto funkcia je ideálna pre chatboty, virtuálnych asistentov a akékoľvek aplikácie, ktoré vyžadujú kontinuitu v komunikácii. Model dostáva pole správ obsahujúce históriu konverzácie a generuje relevantnú odpoveď, ktorá zohľadňuje celý kontext rozhovoru.

Completions (alebo text completions) sú základnou formou textovej generácie, kde model vytvára text na základe jedinej vstupnej výzvy bez potreby udržiavať kontext predchádzajúcich interakcií. Táto metóda je vhodná pre jednoduché úlohy ako generovanie popisov, sumarizácia textu, alebo dokončovanie čiastočných viet. Na rozdiel od chat completions, completions nevytvárajú konverzačný tok, ale slúžia na jednorazové generovanie obsahu. Sú efektívne pre scenáre, kde nepotrebujete zachovávať históriu rozhovoru a stačí vám jediná, cielená odpoveď na konkrétnu výzvu.

Embeddings transformujú text na vektorové reprezentácie v multidimenzionálnom priestore, kde podobné texty majú podobné vektorové hodnoty. Táto technológia je základom moderných systémov podobnostného vyhľadávania, klasifikácie textu a odporúčacích systémov. Embeddings umožňujú kvantitatívne porovnávať sémantickú podobnosť medzi textami – napríklad môžete nájsť dokumenty podobné k určitému článku, alebo zoskupiť podobné otázky od zákazníkov. V praxi sa embeddings používajú v systémoch vyhľadávania, chatbotoch s kontextovým porozumením, alebo pri analýze veľkých množín textových dát.

Moderation API je určené na automatickú detekciu obsahu, ktorý môže byť nevhodný, škodlivý alebo porušovať pravidlá. Táto funkcia je kritická pre aplikácie, ktoré pracujú s užívateľsky generovaným obsahom, ako sú sociálne platformy, fóra, alebo systémy spätnej väzby. Moderation model analyzuje text a priradí mu skóre pravdepodobnosti pre rôzne kategórie nevhodného obsahu, vrátane toxicity, hrozieb, nenávisti, sexuálneho obsahu, alebo násilia. Vývojári môžu tieto skóre použiť na automatické filtrovanie obsahu, upozorňovanie moderátorov, alebo implementáciu bezpečnostných opatrení v ich aplikáciách.

Files API poskytuje nástroje na správu súborov, ktoré sú potrebné pri procese fine-tuningu modelov. Fine-tuning vyžaduje špecificky štruktúrované trénovacie dáta vo formáte JSON Lines, kde každý riadok obsahuje dvojicu prompt/completion. Files API umožňuje nahrávať tieto trénovacie súbory do OpenAI systému, sledovať ich stav a spravovať ich životný cyklus. Okrem trénovacích dát je možné nahrávať aj validačné súbory, ktoré sa používajú na monitorovanie kvality fine-tuning procesu. Táto funkcionalita je kľúčová pre vývojárov, ktorí chcú prispôsobiť všeobecné modely špecifickým doménam alebo úlohám.

Fine-tuning je proces ďalšieho trénovania predtrénovaných modelov na špecifických dátových súboroch, čím sa zlepšuje ich výkon pre konkrétne úlohy alebo domény. Na rozdiel od základného trénovania, fine-tuning vyžaduje oveľa menšie množstvo dát a je výrazne efektívnejší z hľadiska výpočtových zdrojov. Výsledkom je model, ktorý lepšie rozumie špecifickému kontextu, terminológii a štýlu vašej domény. Fine-tuning je obzvlášť užitočný pre aplikácie v špecializovaných oblastiach ako medicína, právo, technické dokumentácie, alebo firemné komunikačné štýly.

OpenAI ponúka rôzne parametre na optimalizáciu výkonu a kvality odpovedí:

  • temperature – kontroluje náhodnosť odpovedí (0.0–2.0)
  • max_tokens – maximálny počet tokenov v odpovedi
  • top_p – určuje rozsah pravdepodobnostného výberu tokenov (0.0–1.0)
  • presence_penalty – penalizuje opakovanie tém
  • frequency_penalty – penalizuje opakovanie konkrétnych slov
  • stop – sekvencie, pri ktorých sa má generovanie zastaviť

Nasledujúca tabuľka zhŕňa bežne používané kombinácie parametrov pri generovaní textu pomocou jazykových modelov. Každý riadok predstavuje inú konfiguráciu podľa cieľa výstupu.

Účel generovania temperature top_p presence_penalty frequency_penalty
Kreatívne písanie 1.0–1.5 0.9 0.5 0.3
Technický opis 0.2–0.5 0.8 0.0 0.2
Konverzačný štýl 0.7–1.0 0.95 0.6 0.4
Faktická odpoveď 0.0–0.3 0.7 0.0 0.0
Brainstorming nápadov 1.2–1.7 0.95 0.8 0.5
Zhrnutie textu 0.3–0.6 0.85 0.2 0.1

Táto tabuľka nám pomôže rýchlo sa zorientovať v tom, ako nastaviť parametre podľa typu požadovaného výstupu. Kreatívne úlohy zvyčajne vyžadujú vyššiu náhodnosť a penalizáciu opakovania, zatiaľ čo faktické odpovede preferujú konzervatívne nastavenia pre presnosť a konzistenciu.

OpenRouter

OpenRouter je ekosystém v oblasti umelej inteligencie, ktorý funguje ako centralizovaná platforma pre prístup k desiatkam rôznych modelov od viacerých poskytovateľov. To to niečo ako „App Store“ pre AI modely – miesto, kde môžete jednoducho objavovať, testovať a používať najnovšie a najlepšie modely z celého AI trhu, všetko cez jednotné a konzistentné API. OpenRouter rieši jeden z najväčších problémov v AI ekosystéme: fragmentáciu a nekompatibilitu medzi rôznymi poskytovateľmi modelov.

Jednou z najväčších výhod je prístup k modelom, ktoré nie sú verejne dostupné nikde inde. Často sa tu objavujú tzv. „stealth“ alebo testovacie modely, ktoré sú k dispozícii len na obmedzený čas a často bezplatne. Tieto modely môžu ponúkať špičkový výkon alebo špecializované schopnosti, ktoré ešte nie sú súčasťou hlavného prúdu.

Zaregistrovať sa na openrouter.ai môžeme cez Google, GitHub alebo e-mailom. Po registrácii si vytvoríme API kľúč, ktorý môžeme hneď začať používať.

Tu je jednoduchý príklad:

from openai import OpenAI
import os

# Client initialization with OpenRouter API
client = OpenAI(
    base_url="https://openrouter.ai/api/v1",
    api_key=os.environ.get("OPENROUTER_API_KEY"),
)

# First API call
completion = client.chat.completions.create(
    model="anthropic/claude-3-haiku",  # Model from Anthropic via OpenRouter
    messages=[
        {"role": "user", "content": "Is Pluto a planet?"}
    ]
)

print(completion.choices[0].message.content)

Tento kód inicializuje klienta OpenAI s OpenRouter base URL a API kľúčom, potom vytvorí jednoduchú chatovú požiadavku na model Claude 3 Haiku. Odpoveď modelu je vypísaná na konzolu.

Príklad s DeepSeek API

Knižnica OpenAI umožňuje zmeniť base_url na pripojenie k iným kompatibilným API, ako je napríklad DeepSeek. Týmto spôsobom môžete využívať rôzne modely od rôznych poskytovateľov s rovnakým kódom.

from openai import OpenAI
import os

client = OpenAI(
    base_url="https://api.deepseek.com",
    api_key=os.environ.get("DEEPSEEK_API_KEY"),
)

response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "system", "content": "You are a helpful assistant"},
        {"role": "user", "content": "Is Pluto a planet?"},
    ],
    stream=False
)

print(response.choices[0].message.content)

V tomto príklade meníme base_url na adresu API od DeepSeek a api_key na kľúč od tohto poskytovateľa. Zvyšok kódu zostáva prakticky nezmenený. Všimnite si, že v poli messages sme pridali aj správu s rolou system. Systémová správa slúži na usmernenie modelu a nastavenie jeho správania. V tomto prípade mu hovoríme, že má byť „užitočným asistentom“. Týmto spôsobom môžeme modelu dať kontext a inštrukcie, ako sa má správať počas konverzácie.

Okrem systémovej správy posielame aj správu od používateľa ( role: "user"). Výber modelu ( model="deepseek-chat") je špecifický pre daného poskytovateľa.

Spotreba tokenov

Tokeny sú základnou jednotkou, ktorou sa meria spotreba pri práci s modelmi. Každý text, ktorý pošlete modelu alebo ktorý model vygeneruje, sa rozdelí na tokeny. Pochopenie tokenov je kľúčové pre optimalizáciu nákladov a efektívne využitie API.

Tokeny sú textové jednotky, ktoré môžu byť slová, časti slov, znaky alebo dokonca len medzery. Napríklad slovo „programovanie“ sa môže rozdeliť na viac tokenov, zatiaľ čo krátke slová ako „a“ alebo „na“ sú často jeden token. Rôzne modely používajú rôzne tokenizéry, takže rovnaký text môže mať rôzny počet tokenov v závislosti od použitého modelu.

Sledovanie spotreby tokenov je dôležité z niekoľkých dôvodov:

  • Náklady – API volania sa účtujú na základe počtu tokenov
  • Limity – každý model má maximálny počet tokenov na požiadavku
  • Výkon – dlhšie sekvencie tokenov môžu spomaliť odpovede
  • Optimalizácia – sledovanie tokenov pomáha optimalizovať aplikácie

V nasledujúcom príklade si ukážeme, ako sledovať spotrebu tokenov pri API volaní:

from openai import OpenAI
import os

client = OpenAI(
    base_url="https://api.deepseek.com",
    api_key=os.environ.get("DEEPSEEK_API_KEY"),
)

response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "system", "content": "You are a helpful assistant"},
        {"role": "user", "content": "Is Pluto a planet?"},
    ],
    stream=False
)

# Print the assistant's reply
print("Assistant:", response.choices[0].message.content)

# Print token usage details
print("\nToken Usage:")
print("Prompt tokens:", response.usage.prompt_tokens)
print("Completion tokens:", response.usage.completion_tokens)
print("Total tokens:", response.usage.total_tokens)

V tomto príklade po vytvorení chat completion vypíšeme nielen odpoveď asistenta, ale aj podrobnosti o spotrebe tokenov. Objekt response.usage obsahuje informácie o počte tokenov použitých vo výzve (prompt), v odpovedi (completion) a celkovo.

Faktory ovplyvňujúce spotrebu tokenov:

  • Dĺžka textu – dlhšie správy spotrebujú viac tokenov
  • Jazyk – niektoré jazyky používajú menej tokenov ako iné
  • Špecializované termíny – technické výrazy môžu byť rozdelené na viac tokenov
  • Kontext – dlhšia história konverzácie zvyšuje počet prompt tokenov
  • Teplota – vyššia teplota môže viesť k dlhším odpovediam

Completions

Najbežnejšou interakciou s modelom je forma otázka a odpoveď alebo jednoduchý chat. Pre bežné otázky bez potreby kontextu alebo histórie konverzácie je často efektívnejšie použiť completions namiesto chat.completions. Completions sú navrhnuté pre priame generovanie textu na základe jedinej výzvy, čo je ideálne pre jednoduché otázky, sumarizáciu textu alebo generovanie obsahu.

Kedy použiť completions vs. chat.completions:

  • completions  – pre jednoduché otázky, generovanie textu, sumarizáciu
  • chat.completions  – pre konverzácie s históriou, viacotázkové interakcie

V tomto príklade použijeme completions, pretože ide o jednoduchú otázku bez potreby zachovávať kontext predchádzajúcich správ.

from openai import OpenAI
import os

client = OpenAI(
    base_url="https://openrouter.ai/api/v1",
    api_key=os.environ.get("OPENROUTER_API_KEY"),
)

# Using completions for a simple question
completion = client.completions.create(
    model="z-ai/glm-4.5-air:free",
    prompt="Is Pluto a planet?",
    max_tokens=150,
    temperature=0.7
)

print(completion.choices[0].text.strip())

Tu používame metódu client.completions.create namiesto client.chat.completions.create. Hlavné rozdiely spočívajú v tom, že parameter prompt je jednoduchý textový reťazec namiesto poľa správ, nie je potrebné špecifikovať roly ako user alebo assistant, odpoveď sa nachádza priamo v completion.choices[0].text  a celý proces má nižšie nároky na spracovanie.

Konfigurácia parametrov:

  • model  – špecifikuje, ktorý model sa má použiť
  • prompt  – vstupný text, na ktorý má model reagovať
  • max_tokens  – maximálny počet tokenov v odpovedi
  • temperature  – kontroluje náhodnosť odpovede (0.0–2.0)

Completions sú ideálne pre scenáre, kde potrebujeme jednoduchú, priamu odpoveď na konkrétnu otázku bez potreby kontextu alebo histórie.

Chat completions

Chat completions sú najčastejšie používanou funkciou knižnice OpenAI, pretože umožňujú vytvárať prirodzené, kontextovo bohaté konverzácie s AI modelmi. Na rozdiel od jednoduchých completions chat completions zachovávajú históriu konverzácie a umožňujú modelu rozumieť predchádzajúcim správam, čo vedie k oveľa relevantnejším a koherentnejším odpovediam.

Najnovšie verzie OpenAI prechádzajú na novšie Responses API, ale keďže tie nie sú ostatnými poskytovateľmi zatiaľ podporované, v tomto návode používame stále staršie Completions API.

Chat completions sú ideálne pre scenáre, kde potrebujeme interaktívne rozhovory, zachovanie kontextu alebo použitie systémových promptov na definovanie správania modelu. Je to správna voľba pre chatboty, virtuálnych asistentov alebo akékoľvek aplikácie vyžadujúce kontinuitu v komunikácii.

Každé volanie chat completions API pozostáva z poľa správ ( messages), kde každá správa má špecifickú rolu a obsah. Existujú tri hlavné typy rolí:

  • system – definuje správanie a kontext pre model (voliteľné, ale odporúčané)
  • user – správy od používateľa
  • assistant – odpovede generované modelom

Nasledujúci praktický príklad vytvára interaktívneho chat asistenta:

from openai import OpenAI
import os

# Initialize the client with OpenRouter
client = OpenAI(
    base_url="https://openrouter.ai/api/v1",
    api_key=os.environ.get("OPENROUTER_API_KEY")
)

def chat_conversation():

    system_prompt = """You are a helpful assistant who supports Python programming.
        Provide clear, understandable explanations with practical code examples.
        If you're unsure, remind the user to verify the information."""

    # Initialize conversation history with a system prompt
    messages = [
        {
            "role": "system",
            "content": system_prompt
        }
    ]

    print("=== Chat with AI Assistant ===")
    print("Type 'end' to end the conversation.")
    print("Type 'new' to start a new conversation.\n")

    while True:
        # Get user input
        user_input = input("You: ").strip()

        if user_input.lower() == 'end':
            print("Goodbye!")
            break
        elif user_input.lower() == 'new':
            # Reset conversation history
            messages = [messages[0]]  # Keep only the system prompt
            print("New conversation started.\n")
            continue
        elif not user_input:
            print("Please enter a question.\n")
            continue

        # Add user message to history
        messages.append({
            "role": "user",
            "content": user_input
        })

        try:
            # Call Chat Completions API
            response = client.chat.completions.create(
                model="anthropic/claude-3-haiku",  # Fast and efficient model
                messages=messages,
                max_tokens=1000,       # Enough space for detailed answers
                temperature=0.7,       # Balanced creativity and consistency
                top_p=0.9,             # Core sampling for better quality
                presence_penalty=0.1,  # Slight penalty for repeating topics
                frequency_penalty=0.1  # Slight penalty for repeating words
            )

            # Get response from model
            ai_response = response.choices[0].message.content

            # Add AI response to history
            messages.append({
                "role": "assistant",
                "content": ai_response
            })

            print(f"AI: {ai_response}\n")

        except Exception as e:
            print(f"Error: {e}\n")

if __name__ == "__main__":
    chat_conversation()

Tento kód spúšťa interaktívnu konverzáciu s AI asistentom. Používateľ môže klásť otázky, začať novú konverzáciu alebo ukončiť rozhovor. História správ sa udržiava v zozname messages, ktorý sa posiela pri každom volaní API. Model generuje odpovede na základe celej histórie konverzácie, čo umožňuje koherentné a relevantné interakcie.

Systémový prompt určuje rolu a správanie modelu a ako prvý prvok v poli správ ovplyvňuje celú komunikáciu. Slúži ako globálna inštrukcia, ktorá ovplyvňuje celé správanie modelu počas celej konverzácie. Môžeme ju použiť na definovanie tónu odpovedí, špecializácie na určitú oblasť, alebo na nastavenie konkrétnych pravidiel, ktorých sa má model držať. Táto správa zostáva v histórii počas celej konverzácie a model sa ňou riadi pri generovaní každej odpovede.

Špeciálne príkazy ako end a new umožňujú používateľovi riadiť priebeh interakcie. Nastavenie parametrov API, ako sú teplota, počet tokenov či penalizácia, má vplyv na štýl a kvalitu generovaných odpovedí.

Všetky príklady z článku a mnohé ďalšie sú dostupné na GitHub repozitári github.com/janbodnar/Python-AI-Skolenie. V ďalšom prokračovaní si povieme viac o promptoch, práci s obrázkami, a streamovaní odpovedí.

Seriál: OpenAI a Python
Neutrální ikona do widgetu na odběr článků ze seriálů

Zajímá vás toto téma? Chcete se o něm dozvědět víc?

Objednejte si upozornění na nově vydané články do vašeho mailu. Žádný článek vám tak neuteče.


Autor článku

Od roku 2006 sa venujem písaniu o počítačových technológiách, predovšetkých programovacím jazykom, grafickému užívateľskému rozhraniu a databázam.