Classificazione automatica di differenti prodotti alimentari mediante visione computerizzata
Ad oggi, la maggior parte dei sistemi di valutazione della qualità degli alimenti si basa sull’utilizzo di metodi fisici, distruttivi o non distruttivi. Tuttavia, anche nel caso di questi ultimi, la qualità dei prodotti può essere alterata (dal momento che, generalmente, la struttura degli alimenti è delicata) e le analisi richiedo tempistiche non immediate. In questo contesto, in uno studio recente, effettuato da un gruppo di ricercatori messicani (Calvo et al., 2016), viene sviluppato e proposto un sistema basato sull’utilizzo della visione computerizzata, in grado di garantire la classificazione degli alimenti in modo completamente automatico. Tale sistema è stato testato su tre differenti tipi di prodotto (avocado, mango e tortillas di mais), caratterizzati da volumi di produzione significativi. Gli autori evidenziano il fatto che ognuno di questi alimenti presenta caratteristiche fisiche diverse che richiedono specifiche modalità di ispezione della qualità. Il metodo proposto si è dimostrato in grado di classificare in modo corretto il 93% dei campioni di tortillas, il 100% dei campioni di avocado e l’80% dei campioni di mango. Questi valori corrispondono ad una corretta classificazione globale del 91%. Secondo gli autori, la performance del sistema è da considerarsi accettabile dal momento che in alcuni casi le classi della qualità dei prodotti non sono separabili al 100% neanche in modo manuale (con operatori addestrati). Infine, la classificazione si basa sull’utilizzo di sole 4 caratteristiche fisiche dei prodotti, un numero decisamente inferiore a quello di metodi analoghi disponibili in letteratura (da un minimo di 16 ad un massimo di 64). Attraverso un’analisi specifica, è possibile, inoltre, identificare quali sono le caratteristiche più importanti per ogni singolo alimento. Ulteriori approfondimenti sono, comunque, necessari per migliorare l’hardware su cui implementare il sistema proposto, per una classificazione dei prodotti in modo completamente automatico.
Progressi nello sviluppo e nell’implementazione di sistemi robotici per la manipolazione degli alimenti
Nelle ultime due decadi i progressi tecnologici nel campo della robotica sono stati decisamente significativi, rendendo possibile l’automazione di operazioni complesse come quelle coinvolte nella manipolazione degli alimenti. In questo contesto, in uno studio recente, effettuato da un gruppo di ricercatori indiani (Premkumar et al., 2016), viene presentato un nuovo sistema composto da un braccio meccanico dotato sia di un meccanismo di presa, sia di una ventosa a vuoto. Per la fabbricazione, sono stati impiegati materiali di facile reperibilità ed a basso costo (ossia: acciaio dolce, per il corpo, plastica, per la presa, e gomma, per la ventosa). Nel caso del prototipo realizzato, il meccanismo di presa viene alimentato da un semplice motore a batteria, mentre la ventosa è controllata da un sistema di generazione del vuoto. Il sistema si è dimostrato in grado di manipolare (i.e., pick and place) in modo efficiente oggetti di forma sia piatta, sia irregolare. Gli autori evidenziano, inoltre, che l’eventuale implementazione del prototipo a livello industriale garantirebbe un significativo aumento dei profitti a fronte di un modesto costo di investimento. Ciò in conseguenza dei costi operativi decisamente limitati, della simultanea diminuzione della manodopera e della riduzione dei tempi di inattività durante i processi produttivi. Concludendo, gli autori sostengono, però, che essendo il sistema ancora a livello di prototipo, ulteriori sviluppi sono necessari prima di ottenere un prodotto finito, pronto per essere implementato su scala industriale. In particolare, è necessario ridurre l’intensità del rumore durante l’operatività ed aumentare il numero dei sensori per migliorare il riconoscimento della forma degli oggetti da manipolare.
Riferimenti bibliografici
Calvo et al., Neurocomputing, 175, 2016, 911-923
Premkumar et al., International Journal of Engineering Trends and Technology (IJETT), 33, 2016, 164-166