Ottimizzare l’affidabilità dei Digital Twin: il ruolo chiave di Verifica e Validazione

Davide Marano

Condividi

Negli ultimi anni, i digital twin hanno rivoluzionato il settore dell’ingegneria meccanica, permettendo simulazioni avanzate per l’analisi delle prestazioni e la manutenzione predittiva.

Ottimizzare l’affidabilità dei Digital Twin: il ruolo chiave di Verifica e Validazione
Figura 1 – Processo di Verifica, Validazione, e Quantificazione dell’incertezza (ASME VVUQ 10)

Tuttavia, per garantire l’affidabilità dei risultati ottenuti, è essenziale implementare un rigoroso framework di verifica e validazione (V&V). Questo articolo esplora le metodologie di V&V applicate ai digital twin per le trasmissioni meccaniche, basandosi sugli standard ASME V&V 10, V&V 20 (figura 1).

Definizione di Verifica e Validazione

La verifica e la validazione sono due processi distinti ma complementari:

  • Verifica: accerta che il modello computazionale sia implementato correttamente e che i calcoli siano eseguiti con accuratezza numerica (ASME V&V 10-2019).
  • Validazione: confronta i risultati della simulazione con dati sperimentali per determinare se il modello rappresenta adeguatamente il fenomeno fisico reale (ASME V&V 10-2019).

La quantificazione dell’incertezza (Uncertainty Quantification, UQ) gioca un ruolo chiave nell’assicurare che le previsioni del modello siano affidabili e utilizzabili per la progettazione e la manutenzione delle trasmissioni meccaniche (figura 2).

Figura 2 – Schema  dell’ “area di validazione” (Validation Space), definita dalla distribuzione di più punti di validazione (i cerchi in nero) nello spazio dei parametri di ingresso (Input Parameter 1 e 2). L’area rettangolare (Intended Use Domain) rappresenta il dominio operativo per cui si desidera utilizzare effettivamente il modello. Ogni punto di validazione, con la relativa “nuvola” di incertezza, delimita la porzione di spazio dove il comportamento del sistema fisico è stato sperimentalmente verificato; di conseguenza, allontanarsi da questa regione validata comporta un aumento dell’incertezza nelle previsioni

Applicazione della V&V nei Digital Twin

Le trasmissioni meccaniche, che comprendono ingranaggi, cuscinetti e alberi, sono soggette a fenomeni complessi (ad esempio, usura, attrito e vibrazioni). L’uso di digital twin permette di analizzare queste dinamiche in dettaglio, ma richiede un processo rigoroso di Verifica e Validazione per garantire la fedeltà della simulazione.

Verifica del Modello Computazionale

Il processo di verifica si articola in:

  • Verifica del codice: test dell’accuratezza numerica e della coerenza degli algoritmi utilizzati nel software di simulazione.
  • Verifica della soluzione: analisi della convergenza del modello e sensibilità ai parametri di input.

Validazione del Modello

La validazione avviene attraverso il confronto tra i risultati del modello digitale e i dati sperimentali, ottenuti da test fisici sulle trasmissioni meccaniche. I metodi principali includono:

  • Esperimenti controllati: test su componenti reali per raccogliere dati su deformazioni, vibrazioni e usura
  • Analisi di incertezza: quantificazione delle incertezze sperimentali e computazionali per valutare l’affidabilità del modello (figura 3).
Figura 3 – Raffigurazione di come l’incertezza della risposta del modello (linea continua) tenda ad aumentare allontanandosi dai punti di validazione (i cerchi neri) verso condizioni di input non coperte sperimentalmente. La linea tratteggiata indica la “realtà” fisica, evidenziando che lo scostamento tra previsione e comportamento reale diventa maggiore quando si opera fuori dal dominio di validazione. (ASME VVUQ 10)

Metodi di quantificazione dell’incertezza

L’incertezza nei digital twin può essere di due tipi:

  • Aleatoria: deriva da variabili casuali nei dati di input (ad es. variazioni nei materiali o nelle condizioni operative)
  • Epistemica: dovuta alla mancanza di conoscenza su determinati parametri del modello

Gli strumenti utilizzati per la quantificazione dell’incertezza includono:

  • Metodi di sensibilità: valutano l’impatto delle variazioni dei parametri di input sui risultati del modello.
  • Tecniche Monte Carlo: eseguono simulazioni ripetute con parametri casualizzati per stimare la distribuzione dell’incertezza (ASME VVUQ 10-2021, Sezione 3.2).
  • Metodi Bayesiani: aggiornano la fiducia nei risultati del modello sulla base di nuovi dati sperimentali.

Come illustrato nella tabella 1, le fonti di incertezza ed errore in un digital twin possono provenire sia dal modello computazionale, sia dall’asset fisico e dal setup sperimentale utilizzato per la validazione. Di seguito riportiamo alcuni esempi delle tipologie di errore e incertezza che possono influenzare l’accuratezza delle simulazioni.

FonteErrore / IncertezzaTipoEsempi
ModelloErroreNumericoErrori associati alla discretizzazione, mancanza di convergenza della mesh, passi temporali, integrazione/differenziazione numerica, algoritmi di contatto, controlli di hourglass, ecc.
ParametricoAsserzione errata di parametri
Forma del modelloErrori dovuti a rappresentazioni idealizzate della fisica reale; semplificazioni geometriche (ad es. idealizzazione piana di sforzi/deformazioni 2D); ignorare aspetti fisici reali (effetti termici)
IncertezzaEpistemicaCondizioni di carico o modi di guasto non riconosciuti; uso di modelli di probabilità approssimati; assunzione di modelli di probabilità; campione di dimensioni ridotte
AleatoriaDistribuzioni di probabilità per i parametri del modello
Setup sperimentaleErroreSetupPianificazione o esecuzione sperimentale errata o incompleta
StrumentazioneSuperamento dei limiti fisici degli strumenti sperimentali; calibrazione inadeguata
UmanoPosizionamento errato di sensori/strumenti; letture o trascrizioni sbagliate
IncertezzaEpistemicaConoscenza imperfetta di carichi/eccitazioni e/o condizioni ambientali; bias di misura; numero insufficiente di repliche sperimentali
AleatoriaVariabilità nelle proprietà dei materiali, nei carichi/eccitazioni, nelle condizioni ambientali e nelle misure
As built test articleErroreProgettazioneErrata specifica dei requisiti di progetto
CostruzioneMateriali scadenti o non conformi; deviazioni dalle specifiche di progetto (com’è costruito vs. com’è progettato); coppia di serraggio dei bulloni variabile durante l’assemblaggio
IncertezzaEpistemicaTolleranze di progetto sconosciute; mancanza di conoscenza sulla connettività tra componenti, sul metodo di costruzione o sulle condizioni al contorno; proprietà dei materiali sconosciute
AleatoriaCarichi/eccitazioni, condizioni ambientali e misurazioni con variabilità imprevedibile
Tabella 1 – Esempi di fonti di errore e incertezza (ASME VVUQ10)

Il Predictive Capability Maturity Model di Sandia Labs

Uno strumento per valutare la credibilità delle simulazioni numeriche e la robustezza dell’intero processo di Verifica, Validazione e Quantificazione dell’Incertezza è il Predictive Capability Maturity Model (PCMM) proposto dai Sandia National Laboratories (SAND2007-5948), tabella 2. Questo modello definisce sette componenti (ad esempio: fedeltà geometrica, modelli fisici e dei materiali, verifica del codice, verifica della soluzione, validazione, UQ e documentazione) e quattro livelli di maturità (da 0 a 3), che rappresentano in modo crescente quanto il modello sia stato:

  1. Sviluppato e testato in diverse condizioni e con diversi metodi.
  2. Supportato da adeguate evidenze sperimentali e da una documentazione completa.
  3. Affidabile come base decisionale in contesti via via più critici.
Ottimizzare l’affidabilità dei Digital Twin: il ruolo chiave di V&V

Tabella 2 – Schema riassuntivo dei livelli di maturità (0–3) per le principali componenti del PCMM di Sandia Labs (da SAND2007-5948)

L’obiettivo principale è fornire una mappa chiara di quali attività siano effettivamente svolte (o necessarie) per incrementare la fiducia nelle previsioni del digital twin. In particolare, quando il digital twin viene utilizzato per prendere decisioni ad alto impatto (ad es. certificazione o progettazione in settori safety-critical), occorre che i suoi elementi (codice, fisiche, validazione, ecc.) raggiungano almeno il livello 2 o 3 di maturità.

Conclusioni

La Verifica e Validazione (V&V), affiancata da un’adeguata Quantificazione dell’Incertezza, rappresenta un fattore cruciale per garantire la credibilità e l’utilità dei digital twin. L’accuratezza dei modelli numerici, la solidità dei dati sperimentali di riferimento e la corretta interpretazione dei risultati consentono infatti di:

  • Ridurre i rischi legati a decisioni ingegneristiche basate su simulazioni inaffidabili.
  • Identificare in anticipo aree di incertezza elevata, per pianificare test e studi di approfondimento.
  • Ottimizzare progetti e strategie di manutenzione sulla base di scenari simulativi più vicini alla realtà.

In particolare, l’applicazione di strumenti come il Predictive Capability Maturity Model (PCMM) di Sandia Labs permette di mappare in modo sistematico lo stato di avanzamento di un digital twin, valutandone il livello di maturità in funzione di criteri quali la fedeltà geometrica, la robustezza dei modelli fisici, la verifica del codice e la validazione sperimentale. Grazie a questo approccio, i team di progettazione e manutenzione possono indirizzare meglio gli investimenti in prove sperimentali, migliorare i propri algoritmi di simulazione e, in ultima analisi, massimizzare il ritorno sulle tecnologie di digital twin.

Per i settori in cui la sicurezza e l’affidabilità costituiscono priorità assolute, un livello di maturità elevato (2 o 3) diventa essenziale per fare affidamento sulle previsioni numeriche come fonte principale di supporto decisionale.

Articoli correlati

Nonostante gli aerei siano tutto sommato responsabili soltanto di una minima parte delle emissioni di CO₂ che minacciano la salute […]

Make data Make Sense è lo slogan che Hexagon Live 2024 ha voluto coniare per raccontare, attraverso sessioni plenarie e […]

Il concetto di Industria 5.0 rappresenta il nuovo paradigma produttivo e si pone come completamento del processo evolutivo dell’Industria 4.0, […]

I progressi dell’intelligenza artificiale, dell’Internet of Things e dell’elaborazione cloud, nonchè la relativa robustezza di queste tecnologie, hanno prodotto una […]