Avvelenamento dei dati

Gli algoritmi di machine learning hanno la notevole capacità di individuare correlazioni fra i dati e, tramite una fase di apprendimento continuo, riuscire a riconoscere ricorrenze che condurrebbero a decisioni e reazioni automatiche. Sia le più tecnologiche automobili a conduzione autonoma che le vetture commerciali di recente fabbricazione dispongono di sistemi di riconoscimento della segnaletica stradale e, attraverso un comportamento teoricamente intelligente, compiono le appropriate azioni o le suggeriscono al conducente stesso.

La capacità di trovare correlazioni può portare a risultati non soddisfacenti poiché il machine learning, differentemente dal comportamento degli esseri umani, non riesce ad integrare ed arricchire i risultati con relazioni logiche o principi di causalità. Per fare un esempio, immaginiamo di voler addestrare un algoritmo di machine learning a identificare un frutto, la mela, fra quelli esposti in un supermercato di generi alimentari. Fra gli scaffali l’algoritmo riconoscerebbe le mele confezionate con cellophane e vassoio di supporto, ma potrebbe concludere che ogni immagine riconosciuta con la confezione di mele sia la mela stessa, ignorando che la vera mela è quella che non comprende le parti non commestibili.

Questo errato comportamento nel riconoscimento è la vera debolezza che potrebbe essere sfruttata contro la stessa intelligenza artificiale. Le tecniche di inquinamento dei dati sono volte a mettere in difficoltà gli algoritmi, compromettendone il lavoro per gli scopi più svariati, dai furti alle violazioni di identità fino agli attacchi terroristici.

Stiamo trattando quindi del cosiddetto “data poisoning”, cioè avvelenamento o inquinamento dei dati, già compiuto volontariamente da hacker esperti in intelligenza artificiale. Un’attività fraudolenta di questo genere richiede notevole capacità ed esperienza in quanto occorre violare i programmi costruiti per assicurare l’addestramento dei sistemi di intelligenza artificiale e danneggiare la base dei dati che sul quale si base il meccanismo e i modelli di machine learning. Nella sostanza si cerca di confondere i meccanismi che inducono in confusione i sistemi di riconoscimento.

La tecnologia che sfrutta le potenti capacità del machine learning è sempre più utilizzata, anche in settori molto importanti e delicati. Ci turba l’idea che hacker esperti possano riuscire ad alterarne il funzionamento per ottenere risultati falsati e la questione solleva molteplici preoccupazioni. La sfida dei prossimi anni sarà quella di provare a rendere i meccanismi di machine learning più robusti rispetto all’avvelenamento dei dati. Il compito non sarà semplice e forse si risolverà completamente solo quando l’intelligenza artificiale diventerà una vera intelligenza ma a quel punto ci troveremo costretti a risolvere altri generi di problemi.

 

Blogs network

Iscrizione alla newsletter

I agree with the Privacy e Termini di Utilizzo
Con l'iscrizione riceverai news sul mondo dell'IT e Big Data.
Back to Top