L’intelligenza artificiale nel machining

Condividi

La pianificazione e la preparazione del processo di lavorazione hanno un ruolo chiave nella lavorazione in quanto parte importante della produzione industriale. Ora i nuovi sistemi di intelligenza artificiale possono contribuire e supportare la pianificazione del processo per ridurre i tempi e ottenere risultati ottimali.

L’intelligenza artificiale, o IA, è una tecnologia che consente ai computer e alle macchine di simulare l’intelligenza umana e le capacità di risoluzione dei problemi. Assistenti digitali, guida GPS, veicoli autonomi e strumenti di IA generativa (come ChatGPT di Open AI) sono solo alcuni esempi di IA utile nella nostra vita quotidiana.

Come campo della scienza informatica, l’intelligenza artificiale comprende (ed è spesso menzionata insieme a) machine learning (apprendimento automatico) e deep learning (apprendimento profondo). Queste discipline coinvolgono lo sviluppo di algoritmi di IA, modellati sui processi decisionali del cervello umano, che possono “imparare” dai dati disponibili e fare classificazioni o previsioni sempre più accurate nel tempo.

L’intelligenza artificiale ha attraversato molti cicli di hype, ma anche per i più scettici, il rilascio di ChatGPT sembra segnare un punto di svolta. L’ultima volta che l’IA generativa si è imposta così tanto, i progressi erano nella visione artificiale, ma ora il balzo in avanti è nel Natural Language Processing (NLP). Oggi, l’IA generativa può apprendere e sintetizzare non solo il linguaggio umano ma anche altri tipi di dati, tra cui immagini, video, codice software e persino strutture molecolari (1). Mentre l’interesse intorno all’uso degli strumenti di IA nelle imprese si intensifica, le questioni relative ai problemi di responsabilità legati all’intelligenza artificiale diventano sempre più attuali (ad esempio, la guida autonoma).

Breve storia dell’intelligenza artificiale e definizioni principali

La moderna IA ha avuto inizio negli anni ‘50 con l’obiettivo di risolvere problemi matematici complessi e sviluppare “macchine pensanti” (2). Fin dall’inizio, c’erano due approcci competitivi. Uno utilizzava regole formali per manipolare simboli, un approccio basato sulla logica e non sulla biologia. Questo divenne noto come “good old fashioned artificial intelligence” (“intelligenza artificiale vecchio stile“: GOFAI). L’altro campo prendeva ispirazione dal funzionamento del cervello e produceva “artificial neural networks” (“reti neurali artificiali“, ANN) liberamente ispirate ai nostri cervelli. Queste dovevano comunque essere addestrate utilizzando determinate procedure per risolvere problemi. Nelle ANN, vi sono diversi strati e in ogni strato dei nodi che si attivano solo se l’informazione da scambiare (tra i diversi livelli) supera una certa soglia (3). Nel 1959, Il pioniere dell’IA, Arthur Samuel, introdusse il machine learning (ML), spiegando come i computer potessero imparare senza essere esplicitamente programmati. Ciò significherebbe scrivere un algoritmo che potrebbe un giorno estrarre pattern dai dataset e utilizzare quei pattern per prevedere e prendere decisioni in tempo reale automaticamente. Ci sono voluti molti anni perché la realtà raggiungesse l’idea di Samuel, ma oggi il machine learning è un motore principale della crescita dell’IA (4). Nei primi 20 anni, comunque, GOFAI fu l’approccio vincente, portando a molto hype e a significativi finanziamenti governativi. Ma nei contesti reali, GOFAI non raggiunse i suoi obiettivi. Anche le artificial neural network ebbero difficoltà e negli anni ‘70 i finanziamenti si prosciugarono, la ricerca rallentò e la comunità dell’IA si ridusse. Negli anni ‘80, furono apportati miglioramenti sia ai sistemi basati su regole GOFAI che alle reti neurali biologicamente ispirate. Problemi precedentemente difficili diventarono raggiungibili e l’IA sembrò promettente ancora una volta. Tuttavia, la speranza e l’hype superarono la realtà, e negli anni ‘90 la ricerca sull’IA diminuì nuovamente. Date importanti per l’IA sono state il 1997, anno in cui Deep Blue di IBM battè il campione mondiale di scacchi Garry Kasparov, in una partita di scacchi (e nella rivincita) e il 2011, in cui IBM Watson battè i campioni Ken Jennings e Brad Rutter a Jeopardy! L’ultimo aumento di interesse deriva dalla potenza del deep learning, un tipo di rete neurale biologicamente ispirata che sfrutta le enormi quantità di dati ora disponibili, e dalla massiccia potenza computazionale e velocità dei computer odierni. Il deep learning può essere visto come un ANN con più di tre livelli. L’algoritmo di Google Search utilizza ANN. Mentre tipicamente il machine learning è limitato al supervised learning, cioè i dati devono essere strutturati o etichettati da esperti umani per consentire all’algoritmo di estrarre caratteristiche dai dati, gli strati multipli del deep learning consentono l’unsupervised learning: automatizzano l’estrazione di caratteristiche da insiemi di dati ampi, non etichettati e non strutturati. Poiché non richiede intervento umano, il deep learning consente essenzialmente il machine learning su larga scala (1). Nel 2015, il supercomputer Minwa di Baidu utilizza un tipo speciale di deep neural network chiamata convolutional neural network (rete neurale convoluzionale, CNN) per identificare e categorizzare immagini con una maggiore accuratezza rispetto alla media umana. Nelle CNN (una delle tecniche di deep learning), ci sono diversi strati (anche a seconda di quanto sono complesse le immagini su cui deve lavorare), ognuno caratterizzato da un compito e da una certa complessità (5). Le CNN sono utilizzate proficuamente per il riconoscimento di anomalie nelle immagini mediche, di prodotti difettosi in una linea di produzione, delle malattie sulle colture (4).

Con enormi set di dati, le moderne reti neurali di IA possono spesso superare le prestazioni umane in molte attività, inclusa la pattern recognition e i giochi come il Go, precedentemente molto difficile per l’IA. È importante notare che questi sistemi possono imparare dall’esperienza, a differenza di GOFAI.

Articoli correlati

Comune ma non banale: il caso della foratura

Geometria, materiale, qualità superficiale, precisione, cadenza produttiva… quante attenzioni dietro un “semplice” foro. Fori piccoli. Fori grandi. Fori ciechi. Fori