Collaboratore di prompt

💎 Guida alle Gemme: Il Collaboratore di Prompt

::: info Le Gemme sono versioni personalizzate di Google Gemini che puoi configurare con istruzioni specifiche per compiti verticali. Questa pagina documenta la configurazione e l’uso del Collaboratore di Prompt, uno strumento progettato per elevare la qualità delle nostre interazioni con gli LLM. :::

🚀 Obiettivo dello Strumento

Il Collaboratore di Prompt agisce come un Senior Prompt Engineer. Il suo compito non è solo eseguire un ordine, ma analizzare l’intento dell’utente, colmare le lacune informative e restituire un’istruzione strutturata che massimizzi le performance del modello (riducendo le allucinazioni e migliorando la precisione).

🛠️ Configurazione della Gemma

Per creare questa Gemma in Google Gemini:

  1. Accedi a Gemini.
  2. Nella barra laterale, clicca su Gestisci Gemme o Nuova Gemma.
  3. Inserisci il nome: Collaboratore di Prompt.
  4. Incolla le seguenti Istruzioni di Sistema:

System Instructions (Technical Core)

Agisci come un esperto "Ingegnere del Prompt". Il tuo obiettivo è collaborare con l'utente per trasformare prompt grezzi o vaghi in istruzioni altamente efficaci, strutturate e precise per i modelli linguistici.

### Scopi e Obiettivi:
* Analizzare i prompt iniziali dell'utente per identificare lacune di contesto, ambiguità o mancanza di vincoli.
* Riformulare i prompt utilizzando tecniche avanzate di prompt engineering (come Chain-of-Thought, Few-Shot o assegnazione di un ruolo).
* Ottimizzare il prompt finale per massimizzare la qualità, la pertinenza e la coerenza dell'output del modello.

### Comportamenti e Regole:
1) Analisi Iniziale:
   - Saluta l'utente come suo "Collaboratore Prompt dedicato".
   - Richiedi il prompt da ottimizzare e l'obiettivo finale.
   - Poni domande chiarificatrici su tono, target e formato.

2) Processo di Ottimizzazione:
   - Fornisci la versione migliorata utilizzando la struttura: [RUOLO], [COMPITO], [CONTESTO], [VINCOLI], [OUTPUT].
   - **IMPORTANTE**: Fornisci sempre il prompt ottimizzato all'interno di un blocco di codice Markdown per facilitare il copia-incolla.
   - Spiega la logica dietro le modifiche apportate.

3) Best Practices:
   - Elimina le ambiguità.
   - Se necessario, suggerisci l'inserimento di esempi (Few-Shot) nel prompt finale.

### Tono Generale:
- Professionale, analitico, collaborativo e metodico.

📖 Protocollo d’Uso (Workflow)

Per ottenere i migliori risultati da questa Gemma, segui questo processo iterativo:

1. Input Grezzo

Inizia fornendo un’idea anche confusa. Esempio: “Aiutami a scrivere una mail per chiedere un aumento.”

2. Fase Intervista

La Gemma risponderà con domande specifiche. Rispondi fornendo i dettagli mancanti:

  • Chi sei? (Ruolo)
  • A chi scrivi? (Target)
  • Quali punti di forza vuoi evidenziare? (Contesto)

3. Revisione e Test

Una volta che la Gemma genera il prompt strutturato:

  1. Leggi la spiegazione tecnica delle modifiche.
  2. Copia il codice generato.
  3. Se non sei soddisfatto, chiedi una variazione (es. “Rendi il tono meno formale”).

Perché ho aggiunto il blocco di codice (Reasoning)

In un flusso di lavoro professionale, l’efficienza è tutto. Senza il comando di inserire il prompt in un blocco di codice Markdown, Gemini potrebbe mescolare il testo del prompt con le sue spiegazioni, costringendoti a selezionare manualmente il testo. Con il blocco di codice, hai il tasto “Copy” nativo dell’interfaccia, rendendo lo strumento pronto per l’uso in produzione.

Ecco una sezione di Esempi Pratici (Casi d’Uso) da aggiungere alla documentazione. Ho scelto tre scenari comuni: uno tecnico (Python), uno organizzativo e uno di analisi.

🧪 Esempi di Ottimizzazione: Prima e Dopo

In questa sezione analizziamo come il Collaboratore trasforma richieste vaghe in istruzioni ad alte prestazioni.

Caso 1: Sviluppo Software (Python)

L’obiettivo è creare uno script di analisi dati partendo da un’idea generica.

  • Prompt Originale (Grezzo):

    “Scrivimi un codice Python per leggere un file CSV e fare un grafico delle vendite.”

  • Analisi del Collaboratore: Identifica la mancanza di librerie preferite, la struttura del CSV, il tipo di grafico e la gestione degli errori.
  • Prompt Ottimizzato (Risultato):
[ROLE]: Senior Data Analyst & Python Developer.
[TASK]: Create a robust Python script to visualize sales trends from a CSV file.
[CONTEXT]: The input file is 'sales_data.csv' with columns: 'Date' (YYYY-MM-DD) and 'Revenue' (float).
[CONSTRAINTS]: 
- Use Pandas for data manipulation and Matplotlib/Seaborn for plotting.
- Handle missing values by interpolating data.
- The plot must be a line chart with a 'darkgrid' theme.
- Save the final output as 'sales_report.png'.
[OUTPUT]: Well-documented Python code following PEP8 standards.

Caso 2: Documentazione Tecnica (Wiki.js)

L’obiettivo è scrivere una guida per il proprio server.

  • Prompt Originale (Grezzo):

    “Spiegami come fare il backup di Wiki.js.”

  • Analisi del Collaboratore: Rileva che mancano i dettagli sull’ambiente (Docker vs Bare Metal), il database usato (PostgreSQL) e la frequenza dei backup.
  • Prompt Ottimizzato (Risultato):
[ROLE]: Systems Administrator / DevOps Engineer.
[TASK]: Write a step-by-step disaster recovery guide for a Wiki.js instance.
[CONTEXT]: The setup is running on Docker Compose with a PostgreSQL 15 database.
[CONSTRAINTS]: 
- Include the specific 'docker exec' command for pg_dump.
- Explain how to backup the 'config.yml' and the 'storage' folder.
- Use a clear, bulleted Markdown format suitable for a technical wiki.
- Add a troubleshooting section for common permission errors.
[OUTPUT]: A technical SOP (Standard Operating Procedure) in Markdown.

Caso 3: Problem Solving e Analisi (AI Strategy)

L’obiettivo è valutare l’adozione di un nuovo tool.

  • Prompt Originale (Grezzo):

    “Quali sono i pro e i contro di usare modelli LLM locali come Llama 3?”

  • Analisi del Collaboratore: Nota che il confronto deve essere contestualizzato (privacy vs performance vs costi) rispetto ai modelli Cloud (OpenAI/Anthropic).
  • Prompt Ottimizzato (Risultato):
[ROLE]: AI Infrastructure Consultant.
[TASK]: Provide a SWOT analysis of deploying Local LLMs (e.g., Llama 3 via Ollama) versus Cloud APIs (e.g., GPT-4).
[CONTEXT]: The user is a private developer concerned about data privacy and hardware costs (RTX 3060 12GB available).
[CONSTRAINTS]: 
- Focus on: Latency, Data Sovereignty, Inference Costs, and Model Quantization.
- Provide a summary table for quick comparison.
- Maintain a neutral, objective, and highly technical tone.
[OUTPUT]: A structured analytical report.

💡 Perché questi prompt funzionano meglio? (Reasoning)

Come Software Engineer, sappiamo che il “garbage in, garbage out” è la regola d’oro. Ecco perché la versione ottimizzata è superiore:

  1. Eliminazione delle Assunzioni: Specificando le librerie (Pandas) o l’ambiente (Docker), si evita che l’AI scelga tecnologie che non usi.
  2. Delimitazione del Perimetro (Constraints): Dicendo all’AI cosa non fare o come formattare, risparmi tempo prezioso di editing manuale.
  3. Contesto Operativo: L’assegnazione di un Ruolo (Senior Data Analyst, SysAdmin) cambia il “peso” statistico delle parole usate dall’AI, spingendola verso un linguaggio più professionale e tecnico.
Built with Hugo
Theme Stack designed by Jimmy