La visione artificiale trova sempre maggiori applicazioni nell’ambito dei sistemi di produzione industriali come conseguenza della ormai diffusa necessità di certificare la qualità di ogni singola parte prodotta. Parallelamente, nell’intento di aumentare globalmente l’affidabilità e la flessibilità di tali sistemi, si sta diffondendo la tecnica di affiancare alla tradizionale visione bidimensionale soluzioni che comportino l’utilizzo di tecniche di visione tridimensionale.
di Remo Sala
La visione gioca oggi un ruolo fondamentale negli impianti di produzione automatica in quanto rappresenta la soluzione di gran lunga più utilizzata per eseguire operazioni di verifica di conformità sulle parti che vengono prodotte. In effetti, il settore dei mezzi di produzione ha conosciuto negli ultimi decenni una rivoluzione che ha sconvolto il paradigma produttivo iniziale, che prevedeva come unico parametro di valutazione dell’impianto la sua produttività. Questo ha stimolato i costruttori a passare da un impianto fondamentalmente di tipo elettromeccanico/meccatronico, la cui unica missione era quella di produrre, a mezzi di produzione più complessi, dove la sensoristica dedicata al controllo qualità assume un’importanza sempre più rilevante. Tale sensoristica, e in particolare il software, che implementa le funzionalità di verifica di conformità, finisce oggi per rappresentare la parte più innovativa e strategica della macchina dove i costruttori si giocano il posizionamento sul mercato e buona parte del valore aggiunto.
VISIONI INDUSTRIALI
La tendenza più evidente nella visione industriale è il progressivo sdoganamento delle soluzioni che utilizzano un approccio tridimensionale che, dopo avere abbandonato i laboratori di ricerca e le dimostrazioni da fiera, iniziano ad essere utilizzate con successo nel mondo industriale. La differenza rispetto alle più comuni soluzioni bidimensionali è importante, anche se concettualmente non enorme; infatti, entrambi i sistemi ragionano a partire da una matrice bidimensionale che suddivide il campo inquadrato dalla telecamera in tanti quadratini, singolarmente chiamati pixel. Ad ogni singolo pixel i sistemi di visione bidimensionali associano un valore proporzionale alla luminosità della scena in quel punto, mentre quelli tridimensionali associano un valore proporzionale alla distanza di quel punto dalla telecamera. Questo significa che i sistemi bidimensionali baseranno tutto sull’analisi delle variazioni di luminosità presenti nella scena inquadrata, mentre i sistemi tridimensionali si baseranno sull’analisi della variazione delle distanze, e quindi della geometria. Sarà sufficiente un esempio per chiarire: si immagini di inquadrare con una telecamera 2D una porzione di un piano perpendicolare all’asse ottico dipinto per metà di bianco e per metà di nero: il sistema 2D rileverà la variazione d’intensità luminosa della superficie, mentre quello 3D vedrà un’immagine perfettamente uniforme, in quanto la distanza del piano dalla telecamera risulterà essere costante. Tale caratteristica dei sistemi di visione 3D può sembrare uno svantaggio, ma nella realtà chi ha avuto esperienza nella realizzazione e nell’utilizzo di tali sistemi sa bene quanti malfunzionamenti sono semplicemente dovuti alle ombre piuttosto che a variazioni di riflettività delle superfici degli oggetti osservati. Dal momento che sia le ombre che i riflessi non sono altro che variazioni di luminosità, questo significa che sono in grado d’ingannare i sistemi di visione 2D, ma che non hanno alcuna influenza sui sistemi 3D.
Questo premesso, si può concludere che l’introduzione dei sistemi 3D va nella direzione di garantire una maggiore affidabilità nei risultati dell’elaborazione, soprattutto in presenza di variazioni significative della luminosità ambientale piuttosto che delle caratteristiche superficiali delle parti. Tale indiscutibile vantaggio ha permesso la realizzazione di sistemi di visione particolarmente affidabili in grado di implementare funzionalità di guida robot particolarmente sofisticate, come quelle necessarie per l’esecuzione di presa di parti alla rinfusa all’interno di un cassone, applicazione comunemente nota sotto il nome di “bin picking”.
La stretta parentela evidenziata tra una immagine a livelli di luminosità e una immagine tridimensionale fa sì che in molte applicazioni gli algoritmi utilizzati nel bidimensionale possano essere mutuati anche nel mondo dell’elaborazione di immagini tridimensionali. Tuttavia cambia completamente il senso fisico del valore che viene associato a ogni singolo pixel, e in particolare, quando si parla di distanza, la classica suddivisione su 256 livelli, con cui viene universalmente discretizzata la luminosità, risulta ampiamente insufficiente per ottenere un’accurata mappatura tridimensionale della scene riprese. Tale limitazione viene superata utilizzando risoluzioni superiori che discretizzano la distanza solitamente in 8.192 diversi possibili valori.
L’EVOLUZIONE DELL’HARDWARE
Dal punto di vista dell’hardware, alcuni fornitori propongono le prime telecamere 3D che sono in grado, in modo del tutto simile a quelle bidimensionali, di acquisire direttamente immagini tridimensionali della scena sfruttando una matrice di sensori di distanza integrati in un unico componente. Tali telecamere, nate in ambito automobilistico per controllare l’assenza di veicoli nell’angolo buio, durante i sorpassi, non hanno tuttavia ancora raggiunto la completa maturità tecnologica e si presentano con una risoluzione spaziale ancora insufficiente per essere applicati nei sofisticati sistemi di visione richiesti dalle industrie. È tuttavia ragionevole ritenere che, grazie al progresso tecnologico, queste telecamere potranno presto raggiungere prestazioni tali da permetterne un impiego proficuo almeno nelle applicazioni in cui non si richiedono risoluzioni spaziali particolarmente elevate.
La soluzione generalmente utilizzata in ambito industriale è costituita dalla triangolazione attiva dove una telecamera tradizionale bidimensionale guarda la scena illuminata da un piano di luce, solitamente laser; tale telecamera, opportunamente calibrata, riesce a ricostruire la forma tridimensionale del profilo generato dalla intersezione tra il piano di luce laser e la scena. Movimentando il piano di luce in modo che copra tutta l’area di cui si vuole acquisire la forma tridimensionale, è possibile ricostruirne completamente il 3D. La necessità di movimentare il piano di luce limita il sistema all’acquisizione di scene completamente statiche, in quanto l’acquisizione del modello tridimensionale della scena comporta l’esecuzione di un numero elevato di acquisizioni in sequenza; al fine di limitare il tempo necessario per eseguire tutte le acquisizioni, sono state realizzate delle telecamere che estraggono le coordinate del profilo, tramite un hardware integrato molto veloce che permette di acquisire anche parecchie migliaia di profili al secondo.
Altre soluzioni, quali la stereoscopia, non hanno ancora conosciuto una vera diffusione in ambito industriale in quanto soffrono di limitazioni tecnologiche non ancora completamente superate, che ne limitano l’ambito applicativo a settori specifici. Il grande vantaggio della stereoscopia è la possibilità di ricostruire, a partire da due o più immagini (che possono essere acquisite contemporaneamente da più telecamere) una completa rappresentazione tridimensionale della scena, superando le classiche problematiche dei profilometri sopra citati, che devono effettuare un numero elevato di acquisizioni sequenziali. Tuttavia, la stereoscopia passiva, che si limita a riprendere la scena con una telecamera da due, o meglio tre punti di vista, e a ricostruire la tridimensionalità per triangolazione, presenta delle importanti criticità dal punto di vista operativo, quando le scene che vengono riprese non contengono un numero sufficiente di particolari facilmente identificabili nelle immagini riprese da diverse angolazioni. Sicuramente più robusta dal punto di vista operativo risulta la stereoscopia attiva che proietta della luce strutturata sulla scena per semplificare la ricerca dei punti omologhi nelle diverse immagini.
Entrambe le tecniche stereoscopiche scontano comunque un carico computazionale importante rispetto alla soluzione basata sulla triangolazione attiva. Inoltre, la stereoscopia attiva, non ha conosciuto ampia diffusione in ambito industriale in quanto la luce proiettata non aveva caratteristiche di immunità ai disturbi tali da permetterne un affidabile utilizzo negli impianti produttivi. In effetti, ad oggi, la stereoscopia attiva viene impiegata prevalentemente in sistemi di acquisizione tridimensionali molto accurati, ma di possibile utilizzo solo in ambienti strutturati e con debole illuminazione ambiente, attualmente molto diffusi nell’ambito della metrologia applicata al reverse engineering. Molto probabilmente, l’introduzione di proiettori laser e di hardware dedicati permetteranno nel medio periodo di superare entrambe le problematiche sopra evidenziate; allo scopo si cita il controllore della famosa consolle di gioco di Microsoft, denominato Kinect, che rileva i movimenti dei giocatori, utilizzando un proiettore laser e una telecamera integrati in un dispositivo consumer molto compatto ed economico che funziona praticamente in tutti gli ambienti interni.
In conclusione, l’avvento di sistemi di visione tridimensionali, semplici e affidabili, costituisce sicuramente la novità di maggior rilievo, dal punto di vista tecnologico, nell’ambito della visione industriale. Tale tecnica permette infatti di migliorare drasticamente l’affidabilità di tali sistemi, anche in presenza di ambienti scarsamente strutturati dal punto di vista dell’illuminazione quali le linee di produzione industriali.
PROGRAMMABILE DALL’UTENTE
Image S presenta Xcelera™-CL VX4 e Sapera™ APF di Teledyne DALSA: vision processor di ultima generazione con una piattaforma di sviluppo grafica per FPGA (field-programmable gate array). La tecnologia FPGA adottata, programmabile dall’utente, consente agli utilizzatori di utilizzare questi processori per diverse applicazioni di elaborazione delle immagini ad alta velocità, in tempo reale. Il vision processor Xcelera-CL VX4 è l’ultimo arrivato della linea di prodotti Xcelera e si basa sull’interfaccia PCI Express (PCIe) x4. È caratterizzato da un’architettura di elaborazione incorporata potente e programmabile dall’utente, per applicazioni di machine vision ad alte prestazioni e in tempo reale. Xcelera-CL VX4 combina l’acquisizione di immagini con funzionalità di elaborazione incorporate. Le schede Xcelera-CL VX4 supportano un’ampia gamma di telecamere, comprese quelle multi-tap matriciali e lineari, i modelli a colori e monocromatici, incluse le configurazioni 10-tap a 8 bit, e sono compatibili con lo standard Camera Link® base, medium o full. Sapera APF è un ambiente di sviluppo grafico integrato per FPGA. Sapera APF semplifica lo sviluppo in ambiente FPGA, combinando un’interfaccia grafica di semplice utilizzo con librerie di elaborazione di immagini basate su FPGA. Sapera APF è dotato di un sistema per una rapida simulazione funzionale, ma genera anche automaticamente l’infrastruttura necessaria per richiamare le funzioni utente, utilizzando Sapera SDK. Questo ambiente di sviluppo FPGA, potente, ma di facile utilizzo, consente agli utenti di creare, eseguire il debug e installare il codice FPGA all’interno della GUI (interfaccia utente grafica) di sviluppo. “Con Xcelera-CL VX4 abbiamo incanalato la potenza dei gate array programmabili sul campo e li abbiamo resi accessibili a coloro che non sono esperti di FPGA”, afferma Ghislain Beaupre, Vice Presidente del reparto Ricerca e Sviluppo presso Teledyne DALSA. “L’OEM non solo trae vantaggio dalle funzionalità di esecuzione in tempo reale della FPGA, ma anche dalla conservazione degli IP, da cicli di sviluppo più brevi e da piattaforme di elaborazione standard come Xcelera-CL VX4 Full”.
(Luigi Ortese)
ISPEZIONI DA RECORD
Cognex Corporation propone In-Sight® 500, un sistema di visione industriale che, sulla base di quanto afferma il produttore, grazie alla velocità di acquisizione decisamente superiore rispetto a qualsiasi altro prodotto, è in grado di realizzare ispezioni accurate anche su linee di produzione estremamente veloci. Si tratta di un sistema visivo fisso, dalle prestazioni elevate, racchiuso in un robusto involucro, con grado di protezione IP65, basato su un chip di visione con tecnologia proprietaria, denominata Cognex VSoC™ (Vision System on a Chip), che consente al sistema di elaborare immagini fino a 500 fps con acquisizione all’interno di una finestra. Oltre alle caratteristiche come interfaccia di programmazione In-Sight standard – serie completa di strumenti e protocolli di comunicazione – i sistemi visivi In-Sight 500 raggiungono velocità pari a 100 fps alla risoluzione massima di 1.024 x 768 pixel e di 200 fps a 640 x 480. Inoltre, In-Sight 500 ha la capacità di isolare l'immagine acquisita all'interno di una finestra e arrivare così fino a 500 fps. “In-Sight 500 è caratterizzato da velocità e semplicità uniche sul mercato; rappresenta pertanto un grande passo avanti per la tecnologia di ispezione visiva”, afferma Bhaskar Banerjee, Business Unit Manager di Cognex Vision Systems. “Grazie a questo sistema visivo a elevata velocità, i produttori possono oggi portare a termine le operazioni di ispezione in modo molto più veloce e produttivo. In-Sight 500 è ideale per gli utenti che hanno bisogno di un tempo di ciclo inferiore a sette millisecondi. Gli utenti che richiedono ispezioni semplici, utilizzando blob, bordi e istogrammi per eseguire applicazioni di visione, dispongono ora di un sistema in grado di raggiungere una velocità di acquisizione decisamente superiore rispetto a qualsiasi altro sistema visivo”.
(Eleonora Dolce)
Foto Cognex.
IL SENSORE “PICK AND PLACE”
Omron presenta un nuovo sensore di visione appositamente sviluppato per soddisfare le esigenze delle applicazioni pick and place. Estremamente compatto e dotato di una velocità di elaborazione pari a 5.000 pezzi/min, anche con una rotazione completa a 360°, il sensore FQ-M è dotato di porte Ethernet ed EtherCAT per una facile integrazione in qualsiasi ambiente, e include un encoder incrementale per semplificare il tracciamento e la calibrazione. FQ-M è dotato di una telecamera intelligente per soddisfare tutte le esigenze delle applicazioni di riconoscimento e tracciamento degli oggetti. Combinando una telecamera, le funzionalità di elaborazione delle immagini e le opzioni di comunicazioni flessibili in un unico pacchetto compatto, questo sensore di visione garantisce un rilevamento stabile e robusto anche in condizioni ambientali variabili, ed è stato progettato per l’ispezione di un’ampia gamma di oggetti. Il sensore di visione FQ-M è l’ultimo nato della piattaforma d’automazione Sysmac di Omron, che integra perfettamente i componenti d’automazione con una rete comune e un’unica interfaccia di programmazione e configurazione. FQ-M comunica con gli altri dispositivi mediante EtherCAT, la rete scelta da Omron per la piattaforma d’automazione Sysmac, o tramite Ethernet standard o una loro combinazione. Ad esempio, potrebbe essere collegato in rete a un controller della serie NJ per il tracciamento degli oggetti, e al robot stesso e alla console TouchFinder su Ethernet standard. Molto compatto – misura solo 110 x 75 x 50 mm –, il sensore FQ-M impiega per il rilevamento degli oggetti un algoritmo di ricerca di nuova generazione, basato sui contorni, che garantisce la massima affidabilità, indipendentemente dalle condizioni d’illuminazione, riflessione e inclinazione degli oggetti. Per saperne di più www.tecnelab.it, sezione News/Tecnologie.
(Alviana Trudu)
Foto Omron Electronics.
UNA SERIE INFINITA
La serie Inspector di Sick è composta da sensori di visione semplici, compatti e affidabili, dotati d’illuminazione integrata, potenti strumenti di analisi dell’immagine e interfaccia Ethernet. I dispositivi sono stati progettati per risolvere un’ampia gamma di applicazioni. Sono in grado di ispezionare gli oggetti che si presentano con variazioni di posizione e orientamento, con tempi di elaborazione veloci e ripetibili. Il design robusto è adatto per le applicazioni negli ambienti più gravosi; inoltre, le veloci funzioni di elaborazione permettono a Inspector di tenere il ritmo delle linee di produzione ad alta velocità. L’entry level della gamma Inspector è costituito dal modello I10: un sensore di visione economico, caratterizzato da un’ottica fissa, la possibilità di effettuare una localizzazione dell’oggetto da ispezionare e fino a 32 ispezioni di conteggio di pixel o di bordo. I10 dispone di ingressi digitali per il trigger e la selezione dei programmi, mentre è dotato di tre uscite digitali per i risultati di “Buono”, “Scarto” od “oggetto non trovato”. Questa versione, pur essendo il modello base della gamma, non ha compromessi nella velocità di esecuzione, potendo ispezionare oggetti non orientati a più di 10 parti al secondo. Il sensore di visione Inspector I10 è adatto a risolvere applicazioni come il controllo assemblaggio in ambito automotive, la verifica livello di riempimento e chiusura del tappo nell’imbottigliamento, la verifica presenza data di scadenza nel packaging. Ultima novità della gamma Inspector è, invece, quella rappresentata dai modelli con illuminazione integrata all’infrarosso. Gli Inspector I20-IR, I40-IR e PI50-IR hanno funzionalità equivalenti dei rispettivi modelli a luce bianca, ma prevedono un’illuminazione a LED IR che permette di ridurre le differenze nell’immagine di oggetti di diversi colori, utile per gestire formati di diversi colori, senza cambiare le impostazioni. Per conoscere gli altri componenti della “famiglia” Inspector e approfondire le tematiche inerenti i modelli all’infrarosso è possibile visitare www.tecnelab.it, sezione News/Tecnologie.
(Luigi Ortese)
Foto Sick.
VEDERE PER CREDERE
Il nuovo Integrated Vision Unit (IVU) di GF AgieCharmilles è un dispositivo che consente l’accesso ottico a particolari non raggiungibili da un tastatore 3D. Il nuovo sistema ottico permette di visualizzare e misurare i pezzi direttamente sull’utensile e di correggere iterativamente gli errori di lavorazione. In questo modo, IVU assicura una lavorazione magistrale di tutti quei pezzi che richiedono un’assoluta precisione dei dettagli, quali strumenti per microchirurgia, componenti per orologi di lusso e utensili per la produzione in serie di componenti elettronici. “Vedere per credere”, è, non a caso, il motto del nuovo dispositivo. GF AgieCharmilles, apprezzata da tempo per le sue innovazioni d’avanguardia nel settore EDM, definisce con IVU un nuovo standard per tutte quelle microapplicazioni che richiedono assoluta precisione abbinata a velocità e produttività. La Integrated Vision Unit (IVU) offre in una sola unità un sistema integrato di misura senza contatto, un sistema integrato di ispezione visiva e una semplice e precisa funzionalità di ricalibrazione del pezzo. Concepito per integrare perfettamente la CUT 1000 di GF AgieCharmilles, il sistema IVU consente un’impostazione ancora più rapida e accurata della lavorazione di pezzi particolarmente piccoli e complessi; per l’allineamento e il centraggio del pezzo sono disponibili cicli di misura con una precisione nell’ordine del micron. La videocamera integrata (charged-coupled device CCD), in dotazione al sistema IVU, fornisce immagini perfettamente nitide anche in condizioni di luce non ideali. Fissata sulla testa superiore della macchina, e supportata da un dispositivo di retroilluminazione fissato a quella inferiore, la videocamera mette a fuoco l’immagine automaticamente e la invia per l’analisi a un apposito software, che fornisce le informazioni metrologiche richieste. Per saperne di più www.tecnelab.it, sezione News/Tecnologie.
(Eleonora Dolce)
Foto Agie Charmilles.