l’apprendimento automatico

L’apprendimento automatico (ML) è un tipo di intelligenza artificiale (AI) che permette alle applicazioni software di diventare più accurate nel prevedere i risultati senza essere esplicitamente programmate per farlo. Gli algoritmi di apprendimento automatico utilizzano i dati storici come input per prevedere nuovi valori di output.

I motori di raccomandazione sono un caso d’uso comune per l’apprendimento automatico. Altri usi popolari includono il rilevamento delle frodi, il filtraggio dello spam, il rilevamento delle minacce malware, l’automazione dei processi aziendali (BPA) e la manutenzione predittiva.

Tipi di apprendimento automatico

L’apprendimento automatico classico è spesso classificato in base a come un algoritmo impara a diventare più preciso nelle sue previsioni. Ci sono quattro approcci di base: apprendimento supervisionato, apprendimento non supervisionato, apprendimento semi-supervisionato e apprendimento per rinforzo. Il tipo di algoritmo che un data scientist sceglie di usare dipende dal tipo di dati che vuole prevedere.

  • Apprendimento supervisionato. In questo tipo di apprendimento automatico, gli scienziati dei dati forniscono agli algoritmi dati di allenamento etichettati e definiscono le variabili che vogliono che l’algoritmo valuti le correlazioni. Sia l’input che l’output dell’algoritmo sono specificati.
  • Apprendimento non supervisionato. Questo tipo di apprendimento automatico coinvolge algoritmi che si allenano su dati non etichettati. L’algoritmo esamina le serie di dati alla ricerca di qualsiasi connessione significativa. Sia i dati su cui gli algoritmi si allenano che le previsioni o le raccomandazioni che producono sono predeterminate.
  • Apprendimento semi-supervisionato. Questo approccio all’apprendimento automatico comporta un mix dei due tipi precedenti. Gli scienziati dei dati possono alimentare un algoritmo con dati di addestramento per lo più etichettati, ma il modello è libero di esplorare i dati per conto suo e sviluppare la propria comprensione del set di dati.
  • Apprendimento di rinforzo. L’apprendimento per rinforzo è tipicamente usato per insegnare ad una macchina a completare un processo multi-fase per il quale ci sono regole chiaramente definite. Gli scienziati dei dati programmano un algoritmo per completare un compito e gli danno spunti positivi o negativi man mano che esso capisce come completare un compito. Ma per la maggior parte, l’algoritmo decide da solo quali passi fare lungo il percorso.

Come funziona l’apprendimento automatico supervisionato

L’apprendimento automatico supervisionato richiede che il data scientist addestri l’algoritmo con entrambi gli input etichettati e gli output desiderati. Gli algoritmi di apprendimento supervisionato sono buoni per i seguenti compiti:

  • Classificazione binaria. Dividere i dati in due categorie.
  • Classificazione multiclasse. Scegliere tra più di due tipi di risposte.
  • Modellazione di regressione. Predire valori continui.
  • Ensembling. Combinando le previsioni di più modelli di apprendimento automatico per produrre una previsione accurata.

Come funziona l’apprendimento automatico non supervisionato

Gli algoritmi di apprendimento automatico non supervisionato non richiedono che i dati siano etichettati. Passano al setaccio i dati non etichettati per cercare modelli che possono essere utilizzati per raggruppare i punti dei dati in sottoinsiemi. La maggior parte dei tipi di apprendimento profondo, comprese le reti neurali, sono algoritmi non supervisionati. Gli algoritmi di apprendimento non supervisionato sono buoni per i seguenti compiti:

  • Clustering. Suddividere l’insieme dei dati in gruppi basati sulla somiglianza.
  • Rilevamento delle anomalie. Identificazione di punti insoliti in una serie di dati.
  • Association mining. Identificazione di insiemi di elementi in un set di dati che si verificano frequentemente insieme.
  • Riduzione della dimensionalità. Ridurre il numero di variabili in un set di dati.

Come funziona l’apprendimento semi-supervisionato

L’apprendimento semi-supervisionato funziona con gli scienziati dei dati che forniscono una piccola quantità di dati di allenamento etichettati ad un algoritmo. Da questo, l’algoritmo impara le dimensioni del set di dati, che può poi applicare a nuovi dati non etichettati. Le prestazioni degli algoritmi in genere migliorano quando si allenano su serie di dati etichettati. Ma l’etichettatura dei dati può richiedere tempo e denaro. L’apprendimento semi-supervisionato è una via di mezzo tra le prestazioni dell’apprendimento supervisionato e l’efficienza dell’apprendimento non supervisionato. Alcune aree in cui l’apprendimento semi-supervisionato è usato includono:

  • Traduzione automatica. Insegnare agli algoritmi a tradurre la lingua basandosi su meno di un dizionario completo di parole.
  • Rilevamento delle frodi. Identificare casi di frode quando si hanno solo pochi esempi positivi.
  • Etichettare i dati. Gli algoritmi addestrati su piccole serie di dati possono imparare ad applicare automaticamente le etichette dei dati a serie più grandi.

Come funziona l’apprendimento per rinforzo

L’apprendimento per rinforzo funziona programmando un algoritmo con un obiettivo distinto e un insieme prescritto di regole per realizzare tale obiettivo. Gli scienziati dei dati programmano anche l’algoritmo per cercare ricompense positive – che riceve quando esegue un’azione che è vantaggiosa verso l’obiettivo finale – ed evitare punizioni – che riceve quando esegue un’azione che lo allontana dal suo obiettivo finale. L’apprendimento per rinforzo è spesso usato in aree come:

  • Robotica. I robot possono imparare a svolgere compiti nel mondo fisico usando questa tecnica.
  • Video gameplay. L’apprendimento per rinforzo è stato usato per insegnare ai bot a giocare ad una serie di videogiochi.
  • Gestione delle risorse. Date risorse finite e un obiettivo definito, il reinforcement learning può aiutare le imprese a pianificare come allocare le risorse.
Il machine learning è come la statistica sotto steroidi.

Usi del machine learning

Oggi il machine learning è usato in una vasta gamma di applicazioni. Forse uno degli esempi più noti di machine learning in azione è il motore di raccomandazione che alimenta il News Feed di Facebook.

Facebook usa il machine learning per personalizzare il modo in cui il feed di ogni membro viene consegnato. Se un membro si ferma spesso a leggere i post di un particolare gruppo, il motore di raccomandazione inizierà a mostrare più attività di quel gruppo prima nel feed.

Dietro le quinte, il motore sta cercando di rafforzare i modelli noti nel comportamento online del membro. Se il membro dovesse cambiare schema e non leggere i post di quel gruppo nelle prossime settimane, il News Feed si regolerà di conseguenza.

Oltre ai motori di raccomandazione, altri usi del machine learning includono i seguenti:

Gestione delle relazioni con i clienti — Il software CRM può usare modelli di machine learning per analizzare le email e spingere i membri del team di vendita a rispondere prima ai messaggi più importanti. I sistemi più avanzati possono anche raccomandare risposte potenzialmente efficaci.

Business intelligence — I venditori di BI e di analisi usano il machine learning nel loro software per identificare punti di dati potenzialmente importanti, modelli di punti di dati e anomalie.

Sistemi di informazione delle risorse umane — I sistemi HRIS possono usare modelli di machine learning per filtrare le domande e identificare i migliori candidati per una posizione aperta.

Automobili a guida autonoma — Gli algoritmi di machine learning possono persino rendere possibile per un’auto semi-autonoma riconoscere un oggetto parzialmente visibile e avvisare il guidatore.

Assistenti virtuali — Gli assistenti intelligenti tipicamente combinano modelli di machine learning supervisionati e non supervisionati per interpretare il discorso naturale e fornire il contesto.

Avantaggi e svantaggi

Il machine learning ha visto potenti casi d’uso che vanno dalla previsione del comportamento dei clienti alla costituzione del sistema operativo per le auto a guida autonoma. Ma solo perché alcune industrie hanno visto dei benefici, non significa che il machine learning sia senza i suoi lati negativi.

Quando si tratta di vantaggi, il machine learning può aiutare le imprese a capire i loro clienti a un livello più profondo. Raccogliendo i dati dei clienti e mettendoli in relazione con i comportamenti nel tempo, gli algoritmi di apprendimento automatico possono imparare le associazioni e aiutare i team ad adattare lo sviluppo dei prodotti e le iniziative di marketing alla domanda dei clienti.

Alcune aziende internet usano l’apprendimento automatico come un driver primario nei loro modelli di business. Uber, per esempio, usa algoritmi per abbinare gli autisti ai passeggeri. Google usa il machine learning per far apparire le pubblicità giuste nelle ricerche.

Ma il machine learning ha degli svantaggi. Prima di tutto, può essere costoso. I progetti di apprendimento automatico sono tipicamente guidati da scienziati di dati, che comandano stipendi elevati. Questi progetti richiedono anche un’infrastruttura software che può essere ad alto costo.

C’è anche il problema del bias del machine learning. Gli algoritmi addestrati su set di dati che escludono certe popolazioni o contengono errori possono portare a modelli imprecisi del mondo che, nel migliore dei casi, falliscono e, nel peggiore, sono discriminatori. Quando un’azienda basa i processi di core business su modelli distorti, può incorrere in danni normativi e di reputazione.

Scegliere il giusto modello di machine learning

Il processo di scelta del giusto modello di machine learning per risolvere un problema può richiedere molto tempo se non viene affrontato in modo strategico.

Step 1: Allineare il problema con i potenziali input di dati che dovrebbero essere considerati per la soluzione. Questo passo richiede l’aiuto di data scientist ed esperti che hanno una profonda comprensione del problema.

Step 2: Raccogliere i dati, formattarli ed etichettarli se necessario. Questo passo è tipicamente condotto dai data scientist, con l’aiuto dei data wranglers.

Step 3: Scegliere quale algoritmo(i) usare e testarlo per vedere come si comporta. Questo passo viene solitamente eseguito dai data scientist.

Step 4: Continuare a mettere a punto i risultati fino a raggiungere un livello accettabile di accuratezza. Questa fase viene solitamente eseguita dai data scientist con il feedback di esperti che hanno una profonda comprensione del problema.

Importanza del machine learning interpretabile dall’uomo

Spiegare come funziona uno specifico modello di ML può essere impegnativo quando il modello è complesso. Ci sono alcune industrie verticali in cui i data scientist devono usare modelli di machine learning semplici perché è importante per il business spiegare come è stata presa ogni singola decisione. Questo è particolarmente vero nei settori con pesanti oneri di conformità come le banche e le assicurazioni.

I modelli complessi possono fare previsioni accurate, ma spiegare a un profano come è stato determinato un output può essere difficile.

Il futuro dell’apprendimento automatico

Mentre gli algoritmi di apprendimento automatico esistono da decenni, hanno raggiunto una nuova popolarità con la crescita dell’intelligenza artificiale (AI). I modelli di apprendimento profondo, in particolare, alimentano le applicazioni AI più avanzate di oggi.

Le piattaforme di apprendimento automatico sono tra i regni più competitivi della tecnologia aziendale, con la maggior parte dei principali fornitori, tra cui Amazon, Google, Microsoft, IBM e altri, che fanno a gara per iscrivere i clienti a servizi di piattaforma che coprono lo spettro delle attività di apprendimento automatico, tra cui la raccolta dei dati, la preparazione dei dati, la classificazione dei dati, la costruzione di modelli, l’addestramento e la distribuzione delle applicazioni.

Come l’apprendimento automatico continua ad aumentare di importanza per le operazioni di business e l’IA diventa sempre più pratica in ambito aziendale, la guerra delle piattaforme di apprendimento automatico non potrà che intensificarsi.

L’apprendimento profondo funziona in modi molto diversi dall’apprendimento automatico tradizionale.

La continua ricerca sull’apprendimento profondo e sull’IA è sempre più focalizzata sullo sviluppo di applicazioni più generali. I modelli di IA di oggi richiedono un ampio addestramento per produrre un algoritmo che è altamente ottimizzato per eseguire un compito. Ma alcuni ricercatori stanno esplorando modi per rendere i modelli più flessibili e stanno cercando tecniche che permettano a una macchina di applicare il contesto appreso da un compito a compiti futuri e diversi.

Storia dell’apprendimento automatico

1642 – Blaise Pascal inventa una macchina meccanica che può aggiungere, sottrarre, moltiplicare e dividere.

1679 – Gottfried Wilhelm Leibniz inventa il sistema del codice binario.

1834 – Charles Babbage concepisce l’idea di un dispositivo generale multiuso che potrebbe essere programmato con schede perforate.

1842 – Ada Lovelace descrive una sequenza di operazioni per risolvere problemi matematici usando la teorica macchina a schede perforate di Charles Babbage e diventa il primo programmatore.

1847 – George Boole crea la logica booleana, una forma di algebra in cui tutti i valori possono essere ridotti ai valori binari di vero o falso.

1936 – Il logico e criptanalista inglese Alan Turing propone una macchina universale che possa decifrare ed eseguire un insieme di istruzioni. La sua prova pubblicata è considerata la base dell’informatica.

1952 – Arthur Samuel crea un programma per aiutare un computer IBM a migliorare a dama più gioca.

1959 – MADALINE diventa la prima rete neurale artificiale applicata a un problema del mondo reale: rimuovere l’eco dalle linee telefoniche.

1985 – La rete neurale artificiale di Terry Sejnowski e Charles Rosenberg insegna a pronunciare correttamente 20.000 parole in una settimana.

1997 – Deep Blue di IBM batte il gran maestro di scacchi Garry Kasparov.

1999 – Un prototipo di workstation intelligente CAD esamina 22.000 mammografie e rileva il cancro il 52% più accuratamente dei radiologi.

2006 – L’informatico Geoffrey Hinton inventa il termine deep learning per descrivere la ricerca sulle reti neurali.

2012 – Una rete neurale non supervisionata creata da Google impara a riconoscere i gatti nei video di YouTube con una precisione del 74,8%.

2014 – Un chatbot supera il test di Turing convincendo il 33% dei giudici umani che si tratta di un adolescente ucraino di nome Eugene Goostman.

2014 – Google’s AlphaGo defeats the human champion in Go, the most difficult board game in the world.

2016 – LipNet, DeepMind’s artificial-intelligence system, identifies lip-read words in video with an accuracy of 93.4%.

2019 – Amazon controls 70% of the market share for virtual assistants in the U.S.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *