🤖 Automazione Workflow via API
Passare dalla conversazione all’integrazione programmatica.
::: info L’uso delle API (Application Programming Interface) permette di collegare i modelli linguistici (LLM) ai nostri script, database e flussi di lavoro, automatizzando task ripetitivi che richiederebbero ore di lavoro manuale. :::
🌍 I Principali Endpoint
Per integrare l’AI nei tuoi progetti, i provider principali offrono SDK robusti:
- OpenAI (GPT-4o): Il più documentato e standardizzato.
- Anthropic (Claude 3.5 Sonnet): Eccellente per analisi di codice e ragionamento complesso.
- Google Gemini (Pro/Flash): Ideale per finestre di contesto enormi e integrazione con l’ecosistema Google.
🐍 Implementazione Tecnica (Python)
Per un Software Engineer, l’approccio migliore è incapsulare le chiamate API in funzioni riutilizzabili e asincrone.
Esempio base con OpenAI SDK:
import openai
import os
from typing import Optional
def ask_ai(prompt: str, model: str = "gpt-4o") -> Optional[str]:
"""
Invia una richiesta all'API di OpenAI e restituisce la risposta.
"""
client = openai.OpenAI(api_key=os.getenv("OPENAI_API_KEY"))
try:
response = client.chat.completions.create(
model=model,
messages=[{"role": "user", "content": prompt}],
temperature=0.3
)
return response.choices[0].message.content
except Exception as e:
print(f"Error calling AI API: {e}")
return None