
Modelli AI locali: quando usarli e quando non usarli (ancora)
Local LLMs vs cloud: pro e contro tra costi, dati e tooling MCP. Con esempi e demo, scopri quando scegliere locale, cloud o entrambi.
09 ottobre, ore 18:30
L'evento inizierà alle 18:30 e si terrà presso Impact Hub Firenze, in 16 Via Panciatichi 50141 Firenze Italy
👉I modelli linguistici locali (Local LLMs) stanno guadagnando sempre più attenzione tra gli sviluppatori che realizzano applicazioni GenAI e assistenti di coding — ma portano con sé compromessi importanti.
In questo intervento, Francesco Corti (Principal PM per l’AI in Docker) condividerà esperienze concrete maturate nell’uso di LLM sia locali sia cloud-based, come ChatGPT e Claude. Scoprirai i punti di forza dei modelli locali — dal controllo dei dati alla gestione dei costi — e i loro limiti, con un focus approfondito sul tooling MCP, oggi al centro di grande interesse.
Attraverso esempi pratici e demo dal vivo, la sessione ti aiuterà a capire quando conviene puntare sul locale, quando sul cloud e come combinare entrambi per sviluppare in modo efficace applicazioni GenAI.
Programma dell'evento
Per la partecipazione è obbligatoria l'iscrizione.
I posti sono limitati, affrettati a prendere il tuo biglietto gratuito
18:30 - 18:45
Accoglienza e sistemazione
18:45 - 19:00
Opening by firenze.dev
19:00 - 20:00
Talk: Modelli AI locali: quando usarli e quando non usarli (ancora)
20:00 - 20:15
Q&A e chisura
20:15
Networking e aperitivo
Se hai qualsiasi domanda, dubbio, proposta o feedback siamo lieti di ascoltarti, puoi inviarci una mail a hello@firenze.dev, scriverci sul canale discord oppure organizzare una call. O anche tutti e tre, ci fa molto piacere sentirti e risponderti.