Menu
firenze.dev logo
firenze.dev
Modelli AI locali: quando usarli e quando non usarli (ancora)

Modelli AI locali: quando usarli e quando non usarli (ancora)

Local LLMs vs cloud: pro e contro tra costi, dati e tooling MCP. Con esempi e demo, scopri quando scegliere locale, cloud o entrambi.

09 ottobre, ore 18:30

L'evento inizierà alle 18:30 e si terrà presso Impact Hub Firenze, in 16 Via Panciatichi 50141 Firenze Italy


👉I modelli linguistici locali (Local LLMs) stanno guadagnando sempre più attenzione tra gli sviluppatori che realizzano applicazioni GenAI e assistenti di coding — ma portano con sé compromessi importanti.

In questo intervento, Francesco Corti (Principal PM per l’AI in Docker) condividerà esperienze concrete maturate nell’uso di LLM sia locali sia cloud-based, come ChatGPT e Claude. Scoprirai i punti di forza dei modelli locali — dal controllo dei dati alla gestione dei costi — e i loro limiti, con un focus approfondito sul tooling MCP, oggi al centro di grande interesse.

Attraverso esempi pratici e demo dal vivo, la sessione ti aiuterà a capire quando conviene puntare sul locale, quando sul cloud e come combinare entrambi per sviluppare in modo efficace applicazioni GenAI.


Programma dell'evento

Per la partecipazione è obbligatoria l'iscrizione.

I posti sono limitati, affrettati a prendere il tuo biglietto gratuito

18:30 - 18:45

Accoglienza e sistemazione

18:45 - 19:00

Opening by firenze.dev

19:00 - 20:00

Talk: Modelli AI locali: quando usarli e quando non usarli (ancora)

20:00 - 20:15

Q&A e chisura

20:15

Networking e aperitivo


Se hai qualsiasi domanda, dubbio, proposta o feedback siamo lieti di ascoltarti, puoi inviarci una mail a hello@firenze.dev, scriverci sul canale discord oppure organizzare una call. O anche tutti e tre, ci fa molto piacere sentirti e risponderti.

Partners

CodemotionGruspDjango Girls