Negli ultimi anni, i digital twin hanno rivoluzionato il settore dell’ingegneria meccanica, permettendo simulazioni avanzate per l’analisi delle prestazioni e la manutenzione predittiva.
Tuttavia, per garantire l’affidabilità dei risultati ottenuti, è essenziale implementare un rigoroso framework di verifica e validazione (V&V). Questo articolo esplora le metodologie di V&V applicate ai digital twin per le trasmissioni meccaniche, basandosi sugli standard ASME V&V 10, V&V 20 (figura 1).
Definizione di Verifica e Validazione
La verifica e la validazione sono due processi distinti ma complementari:
- Verifica: accerta che il modello computazionale sia implementato correttamente e che i calcoli siano eseguiti con accuratezza numerica (ASME V&V 10-2019).
- Validazione: confronta i risultati della simulazione con dati sperimentali per determinare se il modello rappresenta adeguatamente il fenomeno fisico reale (ASME V&V 10-2019).
La quantificazione dell’incertezza (Uncertainty Quantification, UQ) gioca un ruolo chiave nell’assicurare che le previsioni del modello siano affidabili e utilizzabili per la progettazione e la manutenzione delle trasmissioni meccaniche (figura 2).

Applicazione della V&V nei Digital Twin
Le trasmissioni meccaniche, che comprendono ingranaggi, cuscinetti e alberi, sono soggette a fenomeni complessi (ad esempio, usura, attrito e vibrazioni). L’uso di digital twin permette di analizzare queste dinamiche in dettaglio, ma richiede un processo rigoroso di Verifica e Validazione per garantire la fedeltà della simulazione.
Verifica del Modello Computazionale
Il processo di verifica si articola in:
- Verifica del codice: test dell’accuratezza numerica e della coerenza degli algoritmi utilizzati nel software di simulazione.
- Verifica della soluzione: analisi della convergenza del modello e sensibilità ai parametri di input.
Validazione del Modello
La validazione avviene attraverso il confronto tra i risultati del modello digitale e i dati sperimentali, ottenuti da test fisici sulle trasmissioni meccaniche. I metodi principali includono:
- Esperimenti controllati: test su componenti reali per raccogliere dati su deformazioni, vibrazioni e usura
- Analisi di incertezza: quantificazione delle incertezze sperimentali e computazionali per valutare l’affidabilità del modello (figura 3).

Metodi di quantificazione dell’incertezza
L’incertezza nei digital twin può essere di due tipi:
- Aleatoria: deriva da variabili casuali nei dati di input (ad es. variazioni nei materiali o nelle condizioni operative)
- Epistemica: dovuta alla mancanza di conoscenza su determinati parametri del modello
Gli strumenti utilizzati per la quantificazione dell’incertezza includono:
- Metodi di sensibilità: valutano l’impatto delle variazioni dei parametri di input sui risultati del modello.
- Tecniche Monte Carlo: eseguono simulazioni ripetute con parametri casualizzati per stimare la distribuzione dell’incertezza (ASME VVUQ 10-2021, Sezione 3.2).
- Metodi Bayesiani: aggiornano la fiducia nei risultati del modello sulla base di nuovi dati sperimentali.
Come illustrato nella tabella 1, le fonti di incertezza ed errore in un digital twin possono provenire sia dal modello computazionale, sia dall’asset fisico e dal setup sperimentale utilizzato per la validazione. Di seguito riportiamo alcuni esempi delle tipologie di errore e incertezza che possono influenzare l’accuratezza delle simulazioni.
Fonte | Errore / Incertezza | Tipo | Esempi |
Modello | Errore | Numerico | Errori associati alla discretizzazione, mancanza di convergenza della mesh, passi temporali, integrazione/differenziazione numerica, algoritmi di contatto, controlli di hourglass, ecc. |
Parametrico | Asserzione errata di parametri | ||
Forma del modello | Errori dovuti a rappresentazioni idealizzate della fisica reale; semplificazioni geometriche (ad es. idealizzazione piana di sforzi/deformazioni 2D); ignorare aspetti fisici reali (effetti termici) | ||
Incertezza | Epistemica | Condizioni di carico o modi di guasto non riconosciuti; uso di modelli di probabilità approssimati; assunzione di modelli di probabilità; campione di dimensioni ridotte | |
Aleatoria | Distribuzioni di probabilità per i parametri del modello | ||
Setup sperimentale | Errore | Setup | Pianificazione o esecuzione sperimentale errata o incompleta |
Strumentazione | Superamento dei limiti fisici degli strumenti sperimentali; calibrazione inadeguata | ||
Umano | Posizionamento errato di sensori/strumenti; letture o trascrizioni sbagliate | ||
Incertezza | Epistemica | Conoscenza imperfetta di carichi/eccitazioni e/o condizioni ambientali; bias di misura; numero insufficiente di repliche sperimentali | |
Aleatoria | Variabilità nelle proprietà dei materiali, nei carichi/eccitazioni, nelle condizioni ambientali e nelle misure | ||
As built test article | Errore | Progettazione | Errata specifica dei requisiti di progetto |
Costruzione | Materiali scadenti o non conformi; deviazioni dalle specifiche di progetto (com’è costruito vs. com’è progettato); coppia di serraggio dei bulloni variabile durante l’assemblaggio | ||
Incertezza | Epistemica | Tolleranze di progetto sconosciute; mancanza di conoscenza sulla connettività tra componenti, sul metodo di costruzione o sulle condizioni al contorno; proprietà dei materiali sconosciute | |
Aleatoria | Carichi/eccitazioni, condizioni ambientali e misurazioni con variabilità imprevedibile |
Il Predictive Capability Maturity Model di Sandia Labs
Uno strumento per valutare la credibilità delle simulazioni numeriche e la robustezza dell’intero processo di Verifica, Validazione e Quantificazione dell’Incertezza è il Predictive Capability Maturity Model (PCMM) proposto dai Sandia National Laboratories (SAND2007-5948), tabella 2. Questo modello definisce sette componenti (ad esempio: fedeltà geometrica, modelli fisici e dei materiali, verifica del codice, verifica della soluzione, validazione, UQ e documentazione) e quattro livelli di maturità (da 0 a 3), che rappresentano in modo crescente quanto il modello sia stato:
- Sviluppato e testato in diverse condizioni e con diversi metodi.
- Supportato da adeguate evidenze sperimentali e da una documentazione completa.
- Affidabile come base decisionale in contesti via via più critici.

Tabella 2 – Schema riassuntivo dei livelli di maturità (0–3) per le principali componenti del PCMM di Sandia Labs (da SAND2007-5948)
L’obiettivo principale è fornire una mappa chiara di quali attività siano effettivamente svolte (o necessarie) per incrementare la fiducia nelle previsioni del digital twin. In particolare, quando il digital twin viene utilizzato per prendere decisioni ad alto impatto (ad es. certificazione o progettazione in settori safety-critical), occorre che i suoi elementi (codice, fisiche, validazione, ecc.) raggiungano almeno il livello 2 o 3 di maturità.
Conclusioni
La Verifica e Validazione (V&V), affiancata da un’adeguata Quantificazione dell’Incertezza, rappresenta un fattore cruciale per garantire la credibilità e l’utilità dei digital twin. L’accuratezza dei modelli numerici, la solidità dei dati sperimentali di riferimento e la corretta interpretazione dei risultati consentono infatti di:
- Ridurre i rischi legati a decisioni ingegneristiche basate su simulazioni inaffidabili.
- Identificare in anticipo aree di incertezza elevata, per pianificare test e studi di approfondimento.
- Ottimizzare progetti e strategie di manutenzione sulla base di scenari simulativi più vicini alla realtà.
In particolare, l’applicazione di strumenti come il Predictive Capability Maturity Model (PCMM) di Sandia Labs permette di mappare in modo sistematico lo stato di avanzamento di un digital twin, valutandone il livello di maturità in funzione di criteri quali la fedeltà geometrica, la robustezza dei modelli fisici, la verifica del codice e la validazione sperimentale. Grazie a questo approccio, i team di progettazione e manutenzione possono indirizzare meglio gli investimenti in prove sperimentali, migliorare i propri algoritmi di simulazione e, in ultima analisi, massimizzare il ritorno sulle tecnologie di digital twin.
Per i settori in cui la sicurezza e l’affidabilità costituiscono priorità assolute, un livello di maturità elevato (2 o 3) diventa essenziale per fare affidamento sulle previsioni numeriche come fonte principale di supporto decisionale.