Presentazione di Omni Suite: la mia piattaforma AI per la casa connessa

Presentazione di Omni Suite: la mia piattaforma AI per la casa connessa

Negli ultimi anni, la domotica ha fatto enormi passi avanti. Abbiamo assistenti vocali ovunque, dispositivi sempre più connessi, automazioni intelligenti. Ma c'è un punto che mi ha sempre lasciato insoddisfatto: il controllo e la privacy.
Troppe soluzioni dipendono dal cloud, dai server di aziende terze, da piattaforme chiuse che decidono cosa puoi fare e quando. Come sviluppatore e appassionato di tecnologia, questo limite non mi andava più bene. Così è nato Omni Suite.


L’esigenza: libertà, privacy, efficienza

Il punto di partenza è stato molto semplice: volevo un sistema di automazione domestica veramente locale, intelligente e soprattutto personalizzabile.
Un assistente vocale capace di capire i miei comandi in linguaggio naturale, senza inviare nulla online.
Un sistema che potesse rispondere in modo contestuale, agire in base alla stanza in cui mi trovo, anticipare esigenze, ma anche integrarsi perfettamente con il mio ecosistema basato su Home Assistant, che oggi gestisce oltre 200 dispositivi in casa mia.


Lo scopo: creare un ecosistema modulare, potente e 100% mio

Omni Suite non è solo un assistente vocale. È un insieme di componenti che cooperano per creare un'esperienza domestica fluida e su misura:

  • Omni AI: l’assistente vocale centrale, addestrato per comprendere l’intento dietro a comandi vocali in italiano, e agire di conseguenza.
  • Nodi d’ascolto distribuiti: dispositivi realizzati su misura, dotati di microfoni multi-array, in grado di captare comandi vocali in vari punti della casa e inoltrarli a Omni SST per la trascrizione locale.
  • Agent classificatore: dopo la trascrizione, ogni comando passa attraverso un agente che ne analizza l’intento e decide il tipo di azione da intraprendere — eseguire un comando domotico, rispondere a una richiesta informativa, oppure attivare una conversazione contestuale.
  • Integrazione con Home Assistant: solo i comandi pertinenti alla domotica vengono trasformati in azioni o automazioni tramite API.
  • Inferenza locale: ogni fase — dall’ascolto alla decisione finale — avviene interamente in locale, su hardware dedicato (GPU RTX 5060 ti 16GB), senza mai dipendere da servizi cloud.

La progettazione: dall’idea alla prima architettura

Per progettare Omni Suite sono partito da un’analisi pratica dei miei bisogni quotidiani: accendere le luci senza specificare quale stanza, ricevere avvisi intelligenti (“avvisami quando Giulia è quasi a casa”), oppure attivare scenari con comandi naturali (“sto uscendo”).
Da qui ho definito tre pilastri:

  1. Comprensione del linguaggio naturale (Generative AI specializzata in domotica)
  2. Comunicazione vocale locale (Whisper + TTS + intent recognition offline)
  3. Integrazione domotica profonda (Home Assistant come cuore operativo)

Ho iniziato creando una pipeline di riconoscimento vocale basata su Whisper, affiancata da un parser NLP addestrato con esempi reali dei miei comandi quotidiani. A valle, un motore che traduce il tutto in automazioni Home Assistant tramite API.
Tutto gira su un Server dedicato formato mini-itx(con CPU Ryzen, 32GB RAM e GPU RTX 5060 ti 16GB), alimentato dal mio impianto fotovoltaico, così da non gravare sui consumi della casa.


E ora?

Omni Suite è ancora in evoluzione. Sto testando nuovi modelli più leggeri per l’inferenza vocale distribuita e sviluppando un’interfaccia utente più amichevole.
Ma la direzione è chiara: riportare l’intelligenza in casa, senza dipendere da server esterni, e costruire un ecosistema che sia davvero mio.

Se sei curioso di saperne di più o vuoi creare qualcosa di simile, scrivimi. Omni Suite non è solo un progetto personale: è un modo di pensare diverso la tecnologia in casa.