Sicurezza alimentare: nuovo algoritmo semplifica le procedure di controllo

06 Maggio 2021

Semplificare il sistema dei controlli per garantire che sulle tavole dei consumatori finiscano cibi che corrispondono, per qualità e origine, a quanto indicato in etichetta. Questo è quanto possibile grazie a un algoritmo messo a punto da Francesca Greselin e Andrea Cappozzo, ricercatori del dipartimento di Statistica e metodi quantitativi dell’Università di Milano-Bicocca, insieme ai colleghi Ludovic Duponchel dell’Università di Lille, in Francia, e Brendan Murphy dell’University College di Dublino.

I promettenti risultati dell’analisi condotta sono stati descritti in uno studio pubblicato da Analytica Chimica Acta, prestigiosa rivista nell’ambito della chimica analitica e della spettroscopia.

Tutto ruota intorno a moderne tecniche di spettroscopia e machine learning che consentono di riconoscere alimenti adulterati.

“L’utilizzo della spettroscopia negli studi di food authenticity, negli ultimi decenni, ha consentito di analizzare le sostanze senza danneggiare il campione sottoposto a verifica” si legge in una nota dell’Università Milano-Bicocca. “Grazie all’utilizzo di sistemi di machine learning, poi, è stato possibile semplificare l’analisi della grande mole di dati raccolti. Un ulteriore passo in avanti è quello frutto di questa nuova ricerca che ha testato la metodologia su tre diverse tipologie di prodotti: lieviti, carne e olio. La tecnica messa a punto, infatti, consente di ridurre dall’ordine delle migliaia a quello delle decine il numero di misurazioni da acquisire dal segnale spettrometrico per un’accurata verifica che escluda adulterazioni delle sostanze. Tutto ciò con evidenti vantaggi sia in ordine di tempo che di costo delle operazioni di controllo”.

Così commentano Francesca Greselin e Andrea Cappozzo: “Metodi di apprendimento standard diventano inefficaci quando il numero di variabili supera il numero delle osservazioni, come spesso accade nell’analisi di dati spettrometrici. È pertanto necessario individuare solo quel sottoinsieme di variabili che meglio discriminano le classi di alimenti analizzate, ed eliminare l’informazione ridondante.  In aggiunta, per alcune applicazioni delicate come la food authenticity, nei dati di training potrebbero essere presenti campioni con etichette errate e/o valori anomali, che causano effetti drammatici sullo sviluppo del modello e nella conseguente accuratezza della previsione. Nel cercare di risolvere congiuntamente queste due criticità, la nostra metodologia propone un algoritmo robusto di selezione delle variabili. Tre applicazioni su lieviti, carni e olio hanno dimostrato l’efficacia della nostra proposta. In particolare, nelle situazioni in cui i dataset presentano contaminazioni, il modello riesce non solo a ridurre la dimensionalità senza risultare distorto dai valori anomali, ma presenta risultati di classificazione superiori a moderni metodi di machine learning come Support vector machine e Partial least squares. In conclusione, il metodo aggiunge valore alle procedure già esistenti in quanto propone una selezione delle variabili robusta e un accurato rilevamento degli outlier mantenendo un elevato potere predittivo”.

Nicola Miglino

Top
Questo sito utilizza i cookies, che consentono di ottimizzarne le prestazioni e di offrire una migliore esperienza all'utente. More details…