Intelligenza artificiale nell’industria delle materie plastiche

Condividi

Che l’introduzione dell’intelligenza artificiale (IA) nell’ambito manifatturiero sia in progressivo aumento è un dato di fatto, importante e strategico, che potrà modificare il paradigma del lavoro. Per dimostrare le potenzialità di questa tecnologia riportiamo un caso studio relativo all’analisi dimensionale automatica di tubi flessibili.

L’intelligenza artificiale (IA) sta rivoluzionando il modo in cui viviamo, lavoriamo e interagiamo con la tecnologia.

Negli ultimi anni, l’IA ha fatto passi da gigante, diventando sempre più presente nella vita quotidiana e trovando una vasta gamma di applicazioni in diversi settori, affermandosi come una tecnologia dirompente e offrendo soluzioni innovative che consentono un elevato livello di automazione.

Uno degli ambiti in cui l’IA trova maggiore utilità consiste ad esempio nel Natural Language Processing (NLP), tradotto letteralmente “elaborazione del linguaggio naturale”, ovvero il campo dell’intelligenza artificiale che si occupa dell’interazione tra il linguaggio umano e i computer.

Si pensi agli assistenti virtuali e ai chatbot: i primi, come Siri, Alexa e Google Assistant, utilizzano il NLP per comprendere e rispondere ai comandi vocali mentre i chatbot interagiscono con gli utenti in modo conversazionale, fornendo informazioni, assistenza e supporto in vari contesti, come il customer service, il settore bancario e nell’e-commerce.

Oppure traduttori automatici, che consentono di tradurre testi da una lingua all’altra in modo rapido ed efficiente, o ancora ai sistemi di riconoscimento vocale “speech-to-text”, che trovano impiego in contesti quali il controllo vocale dei dispositivi elettronici, la trascrizione automatica di registrazioni audio e l’assistenza per le persone con disabilità.

Il NLP risulta fondamentale per l’analisi dei social media, ove vengono estratte informazioni rilevanti dai post, commenti e conversazioni degli utenti, consentendo sia l’identificazione dei trend, e di potenziali influencer, ma anche l’elaborazione dei dati per scopi di business e marketing.

Un altro ambito ove l’impiego dell’intelligenza artificiale ha poi trovato terreno fertile è quello relativo alle tecniche di elaborazione delle immagini, e tra le applicazioni più diffuse troviamo il riconoscimento e la classificazione di oggetti: l’IA può essere utilizzata per riconoscere e classificare oggetti in immagini o video, ed essere quindi impiegata nei sistemi di sorveglianza, nei veicoli autonomi e nelle applicazioni di ricerca di immagini.

Ogni giorno utilizziamo il riconoscimento facciale, anch’esso basato sull’IA, per sbloccare i nostri smartphone e PC o accedere a luoghi dotati di sistemi di sorveglianza, mentre notevoli progressi sono stati recentemente conseguiti nell’ambito della guida autonoma, ove sistemi di visione supportati dall’IA consentono al veicolo di rilevare e analizzare l’ambiente circostante, riconoscere segnali stradali, pedoni e altri veicoli, e prendere decisioni di guida in tempo reale.

In ambito medicale la segmentazione di immagini tramite algoritmi di IA per il monitoraggio dei pazienti aiuta i medici a individuare anomalie e fornire cure più accurate, così come è essenziale nella creazione di esperienze immersive di realtà aumentata e virtuale, consentendo interazioni dinamiche tra l’utente e l’ambiente virtuale.

A prescindere dal fatto che gli algoritmi, basati sull’intelligenza artificiale, vengano impiegati nell’ambito dell’assistenza sanitaria, piuttosto che in campo finanziario o nella logistica, vi sono alcuni elementi comuni che hanno contribuito alla diffusione e all’applicazione di tali tecnologie sia nel settore B2B che in quello B2C.

Tra questi troviamo sicuramente il potenziamento dei sistemi hardware e della relativa capacità di calcolo: architetture hardware quali le GPU accelerano le operazioni matematiche coinvolte nell’elaborazione di complessi algoritmi di machine learning, consentendone l’addestramento in tempi ragionevoli.

Secondo una stima del noto studio di consulenza di Taiwan TrendForce, ad esempio, la corretta operatività del ben noto chatbot ChatGPT richiederebbe circa 30.000 NVIDIA A100 GPU, il cui prezzo varia tra i 15.000 e i 20.000 $.

Al contempo gli algoritmi stessi di apprendimento sono diventati più sofisticati: si pensi al deep learning e alle complesse strutture delle reti neurali, che hanno dimostrato di essere molto efficaci nel risolvere problemi già citati quali l’elaborazione di immagini o l’interpretazione del linguaggio.

Ancora, l’aumento dell’accessibilità degli strumenti per lo sviluppo di tali soluzioni quali framework e librerie open-source (come TensorFlow e PyTorch), ha reso la tecnologia facilmente disponibile agli sviluppatori e semplificato l’implementazione e l’uso di modelli di intelligenza artificiale.

Tuttavia, l’elemento chiave che ha consentito di sfruttare appieno le potenzialità dell’IA è l’accesso ai dati.

L’era digitale ha portato alla generazione e all’archiviazione di enormi quantità di dati, primi fra tutti quelli relativi alla navigazione web e social media.

Le nostre ricerche online, i siti web visitati, le pagine salvate nei preferiti, le interazioni sui social media, i “mi piace” e i commenti, forniscono informazioni sulle nostre preferenze, interessi e comportamenti.

Gli smartphone e altri dispositivi mobili sono dotati di sensori di localizzazione che tracciano la nostra posizione e i nostri spostamenti nel tempo, le applicazioni per la salute e il fitness raccolgono dati sulla nostra attività fisica, il battito cardiaco, il sonno, la pressione sanguigna e altro ancora.

Questi dati possono essere utilizzati per monitorare la salute, fornire consigli personalizzati per il fitness e contribuire alla ricerca medica e alla prevenzione delle malattie.

Quando poi effettuiamo acquisti online o in negozi fisici, generiamo dati relativi alle nostre preferenze di prodotto e alle nostre abitudini di spesa, che vengono utilizzati per creare profili di consumo, personalizzare le pubblicità di determinati prodotti e migliorare le strategie di marketing.

È importante notare che tale disponibilità di informazioni è resa possibile proprio dallo svolgimento da parte di miliardi di singoli individui di attività quotidiane comuni a tutti, i cui dettagli sono condivisi grazie all’utilizzo degli smartphone e altri dispositivi mobili.

Le potenzialità della computer vision nell’ambito manifatturiero

Nel settore manifatturiero, al contrario, l’eterogeneità dei dati dovuta all’elevato grado di diversificazione del business di ciascuna azienda, ha costituito un’importante barriera all’applicazione dell’intelligenza artificiale nel settore B2B rispetto al B2C.

In quest’ambito esistono spesso dati sensibili riguardanti i processi produttivi e segreti commerciali, il che rende le aziende riluttanti nel condividere tali informazioni.

La struttura stessa delle informazioni, spesso eterogenee e raccolte in diversi sistemi e formati, e la mancanza di standardizzazione rendono difficile l’aggregazione e l’organizzazione dei dati in un formato adatto per l’addestramento dei modelli di IA.

Nel campo del computer vision è immediato concretizzare tali riflessioni considerando ad esempio l’ambito della guida autonoma.

Per citare un brand noto ai più, Tesla raccoglie una vasta gamma di dati relativi all’esperienza di guida dei singoli veicoli in tempo reale mediante telecamere, radar e sistemi a ultrasuoni, che sono poi condivisi e utilizzati per addestrare sistema di guida autonoma della casa madre, noto come Tesla Autopilot.

Considerando che nel solo 2022 i veicoli Tesla consegnati si attestano intorno agli 1,3 milioni, è facile immaginare la quantità di informazioni che può essere impiegata per il training dei suddetti modelli.

Benché nel settore manifatturiero sia ben più raro individuare casistiche analoghe, anche qui l’utilizzo di “telecamere intelligenti” sta prendendo sempre più piede grazie all’integrazione dei sistemi di visione con algoritmi di AI.

Fig. 1 – Esempio di un tipico tubo flessibile.

Alcuni esempi di applicazione di tali tecnologie sono riportati di seguito. 

1. Sistemi di ispezione visiva: questi sistemi utilizzano algoritmi di IA per l’ispezione visiva automatica dei prodotti durante il processo di produzione, rilevando difetti o deviazioni dalle specifiche di qualità.

2. Robot assistiti da IA: questi robot sono dotati di telecamere che catturano immagini dell’ambiente circostante e, avvalendosi di algoritmi di intelligenza artificiale, le analizzano per identificare gli oggetti e la relativa posizione e orientamento, e per guidare di conseguenza i movimenti del robot, consentendo di automatizzare le operazioni di picking, packing e assemblaggio.

3. Monitoraggio della produzione in tempo reale: I sistemi di monitoraggio della produzione in tempo reale utilizzano il computer vision e l’AI per raccogliere e analizzare dati sulle attività e sulle performance dei macchinari e dei lavoratori in tempo reale.

4. Ottimizzazione del layout di fabbrica: i sistemi di computer vision e IA possono essere integrati per ottimizzare il layout delle fabbriche. Utilizzando immagini e dati di layout esistenti, questi sistemi analizzano i flussi di materiali e di persone per identificare potenziali miglioramenti, come la riduzione delle distanze di trasporto, l’ottimizzazione degli spazi di lavoro e la pianificazione delle posizioni delle attrezzature.

È evidente quindi come una progressiva introduzione dell’intelligenza artificiale sia in atto anche nell’ambito manifatturiero, e tale trend sembra essere destinato a crescere.

In accordo con quanto riportato, è già possibile individuare nel mercato alcune soluzioni proposte da grandi gruppi del settore.

ABB ha per esempio presentato all’ultima edizione di LogiMAT 2023, importante fiera del settore logistico, l’implementazione nei propri robot antropomorfi di sistemi di visione integrati che consentano di svolgere in maniera più rapida e accurata le tipiche funzioni di pick-and-place.

Keyence e Omron hanno introdotto nelle proprie “telecamere intelligenti” (IV2 Series e FH-Series rispettivamente) algoritmi basati sulle reti neurali per l’individuazione dei difetti di componenti meccanici anche in condizioni “critiche” per i tradizionali sistemi di analisi dell’immagine.

Cognex Corp., leader nella fabbricazione di sistemi di visione per l’industria, nel 2019 ha acquisito l’azienda coreana Sualab, esperti nello sviluppo di software basati sull’analisi delle immagini e deep learning, proprio per integrare tali tecnologie nei propri prodotti.

Basler ha proposto invece un kit di sviluppo (AI Vision Solution Kit) per la prototipazione di sistemi di visione basati sull’IA, in grado di integrare l’utilizzo di telecamere con funzioni quali l’addestramento e l’impiego di modelli di deep learning grazie alla connettività a internet.

Inoltre, poiché tali algoritmi necessitano di una grande quantità di dati affinché le loro performance siano sufficienti a soddisfare gli stringenti requisiti di qualità industriali, aziende come Siemens hanno sviluppato applicazioni in grado di semplificare la generazione di dati sintetici per l’addestramento (Siemens SynthAI).

La raccolta dei dati può essere infatti molto laboriosa e dispendiosa in termini di tempo, nonché complessa se le immagini devono essere scattate durante la produzione vera e propria; diventa quindi utile poter ampliare i dataset di training con immagini ottenute da ambienti virtuali avvalendosi di tecniche quali, ad esempio, il rendering.

Un ulteriore passo in avanti per semplificare l’adozione di tali tecnologie da parte delle PMI è stato invece fatto da Neurala.

L’azienda di Boston, che nel 2021 ha aperto una sede anche in Italia a Trieste, ha infatti puntato sullo sviluppo di soluzioni che risultino di facile implementazione anche per operatori meno esperti nel campo dell’intelligenza artificiale: bastano infatti poche decine di foto per addestrare un algoritmo che consenta di effettuare l’ispezione visiva dei componenti specifici del singolo produttore, così come risulta intuitivo l’utilizzo del software proposto per la preparazione e gestione del dataset.

Il caso studio FITT: analisi dimensionale automatica di tubi flessibili

Per dimostrare le potenzialità dell’intelligenza artificiale e della computer vision applicate al settore delle materie plastiche, descriveremo nel seguito un caso studio sviluppato in collaborazione con FITT S.p.A. FITT è un gruppo leader nella produzione di soluzioni finalizzate al passaggio di fluidi per uso domestico, professionale e industriale.

Il gruppo è attualmente coinvolto nel progetto Twin Factory, che ha lo scopo di promuovere una progressiva digitalizzazione dei processi produttivi anche attraverso l’introduzione di tecnologie basate sull’IA.

In particolare, il caso di studio in oggetto consiste nello sviluppo di un sistema di visione basato sull’intelligenza artificiale che consenta di misurare in maniera automatica i parametri geometrici più importanti di un tubo in PVC flessibile per il settore garden, la cui produzione avviene presso la sede di Sandrigo (VI), headquarter del gruppo.

intelligenza artificiale
Fig. 2 – Esempio di applicazione dell’algoritmo di clustering.

Un esempio di un tipico tubo flessibile è riportato in figura 1.

La conformità del prodotto finito dipende dal peso al metro del tubo dal diametro interno ed esterno. Sebbene le tipologie di tubo prodotte siano molteplici, la tipica configurazione comprende uno strato più interno detto sotto-strato e uno più esterno detto copertura, oltre alla presenza di bande laterali.

Mentre nella prima parte della linea è possibile monitorare le dimensioni del diametro interno ed esterno del sotto-strato, a monte, per rispettare le specifiche richieste dal cliente, è possibile intervenire agendo solamente sulla copertura.

Ciò fa sì che spesso per ottenere un tubo conforme il prodotto finale contenga una quantità di materiale di copertura maggiore rispetto a quello stimato, causando un aumento ingiustificato dei costi e un esaurimento anticipato delle scorte.

Oltretutto, il diametro interno del tubo viene misurato con un tampone graduato in acciaio, che, deformando il tubo flessibile, altera la misura stessa.

Per ovviare a questo problema e al fatto che per misurare lo spessore reale della copertura sarebbe necessario tagliare il tubo, si è proposto di sviluppare un sistema di visione che renda possibile la verifica a bordo linea delle reali dimensioni dei diametri di ciascuno strato.

In termini pratici quest’obiettivo può essere tradotto in un problema di image segmentation in quanto, una volta acquisita un’immagine della sezione del tubo, è necessario distinguere sia il tubo dallo sfondo, sia individuare le aree che ne delimitano i diversi strati.

A tale scopo sono state dapprima considerate alcune tecniche tradizionali di analisi delle immagini, tra cui algoritmi di thresholding ed edge detection, i quali sono basati sulla valutazione dell’intensità, e del suo gradiente, dei pixel dell’immagine convertita in scala di grigi.

Tali metodi sono però risultati inefficaci nell’individuare in maniera accurata e sistematica i contorni degli strati del tubo.  

Considerando la figura 2, ad esempio, ove è stato applicato un algoritmo di clustering (tecnica che consiste nel raggruppare i pixel in base alla loro somiglianza), è possibile notare che nel caso del primo tubo le regioni appartenenti al sotto-strato e alla copertura sono state delineate con discreta precisione (fig. 2 a, b), mentre applicando nuovamente l’algoritmo al secondo tubo gran parte dei pixel dello sfondo sono stati classificati in maniera scorretta.

I metodi tradizionali come il clustering soffrono infatti di un’elevata sensibilità a fattori esterni quali la luminosità ambientale, e richiederebbero un continuo aggiustamento dei parametri per ottenere risultati soddisfacenti.

Al contrario, gli algoritmi basati sull’IA quali le reti neurali, sono in grado di individuare in maniera automatica i pattern e le feature più salienti e descrittive delle immagini utilizzate per l’addestramento, garantendo performance migliori in fase di utilizzo.

60 immagini di tubi di diversa dimensione, configurazione (diverso numero di strati e bande) e colore sono quindi state ottenute con uno smartphone per costruire il dataset di partenza.

Tali immagini sono poi state “annotate”: per addestrare l’algoritmo è infatti necessario associare all’immagine di ciascun tubo un file contente le coordinate dei punti appartenenti ai bordi dei singoli strati.

Il modello di image segmentation scelto è YOLO v8, un modello open-source basato su una rete neurale pre-addestrata su un dataset chiamato COCO, contente più di 330.000 immagini; in tal modo il modello non dovrà essere allenato da zero, ma solo affinato sul dataset oggetto di studio.

Attraverso la piattaforma Google Colab il modello è stato quindi addestrato utilizzando 55 delle immagini raccolte, mentre le restanti 5 sono servite per la validazione.

Una volta salvati i parametri del modello, è stato possibile testarlo su nuove immagini di tubi, non contenute nel precedente dataset.

Come è possibile osservare dalla figura 3, il modello riceve in input un’immagine a colori e restituisce in output delle immagini in bianco e nero dette “maschere”, ciascuna corrispondente a uno strato specifico del tubo.

A questo punto, tramite semplici operazioni di analisi dell’immagine condotte con la libreria OpenCV di Python, sono stati individuati i contorni di ciascuna maschera e approssimati con una circonferenza, ottenendo così i diametri interno ed esterno del tubo e quello interno della copertura. 

intelligenza artificiale
Fig. 3 – Il modello riceve in input un’immagine a colori e restituisce in output delle immagini in bianco e nero dette “maschere”, ciascuna corrispondente a uno strato specifico del tubo.

Inoltre, definito un centro univoco per le tre circonferenze, è possibile valutare la dimensione in pixel dei diametri al variare dell’angolo tra 0 e 360°, e dunque stimare l’ovalizzazione del tubo e l’andamento degli spessori degli strati.

Includendo nell’inquadratura un riferimento dimensionale, è infine possibile definire una costante di conversione pixel-mm.

Conclusioni

Il caso studio ha messo in luce come, nell’affrontare un problema apparentemente semplice quale la misura dei diametri di tubi in PVC, le limitazioni delle tecniche di analisi delle immagini tradizionali possano essere superate grazie all’utilizzo del deep learning.

Grazie all’impiego di un modello pre-addestrato (YOLO v8), è stato possibile infatti ottenere risultati molto accurati pur utilizzando un dataset di sole 60 immagini.

È bene infine rimarcare che tutte le fasi del progetto sono state condotte con strumenti open source (YOLO v8, OpenCV), e che le immagini stesse sono state acquisite con un comune smartphone: ciò rende evidente l’enorme potenziale di queste tecniche di computer vision basate sull’IA.

*Enrico Bovo, Università degli Studi Padova


Sfoglia la rivista

  • n.3 - Aprile 2024
  • n.2 - Marzo 2024
  • n.1 - Febbraio 2024


RSS Notizie da Meccanicanews


RSS Notizie da Il Progettista Industriale


Ti potrebbero interessare

Il packaging accessibile

Apertura facilitata, ergonomia d’uso, chiarezza e trasparenza delle informazioni riportate sulla confezione e molto altro: le declinazioni del concetto di accessibilità sono molteplici e la