Servizio
AI applicata
Integrazioni LLM che risolvono problemi reali, non demo per fiere.
Cosa intendo per "AI applicata"
La differenza fra un progetto AI che funziona e uno che muore in produzione sta quasi sempre nei dati: come si preparano, come si indicizzano, come si recuperano al momento giusto. Il modello LLM è l'ultimo tassello, non il primo.
Su cosa lavoro
- Sistemi RAG su dati proprietari. L'utente interroga documenti aziendali, procedure, knowledge base storiche, e ottiene risposte citate con fonti.
- Assistenti che "ragionano come te". Partendo da contenuti approvati dal cliente, costruisco assistenti AI che mantengono coerenza di pensiero su decisioni ricorrenti.
- Automazioni documentali. Estrazione strutturata da PDF, classificazione, generazione automatica di bozze documento.
- Classificazione e enrichment. Trigger che etichettano automaticamente ticket, lead, transazioni.
- Copiloti per back-office. Suggerimenti contestuali dentro i pannelli amministrativi, con human-in-the-loop.
Stack AI
OpenAI, Anthropic, Ollama per provider LLM. pgvector o Pinecone come vector store. Pipeline di ingestion custom in Laravel/Python. Sempre con valutazioni automatiche della qualità (golden dataset, eval pipeline) perché in produzione un LLM che allucina costa reputazione.
Casi di studio
UltraMind è un sistema RAG personalizzato dove il cliente valida contenuti e l'assistente mantiene coerenza con il suo modo di pensare. Exsafe usa LLM per analisi di rischio nel mondo assicurativo.