Storia dell'intelligenza Artificiale
La storia dell'intelligenza artificiale risale all'antichità, quando i filosofi contemplavano il concetto di esseri artificiali, uomini meccanici e altri automi che potevano esistere o potenzialmente venire in esistenza.
La creazione di macchine intelligenti ha affascinato l'umanità per secoli e la sua evoluzione è stata nulla meno che notevole. Dai primi ragionamenti teorici ai moderni progressi nell'apprendimento automatico e nella robotica, la ricerca per la creazione di macchine intelligenti è stata una forza trainante nel mondo della tecnologia.
Grazie ai primi pensatori, l'intelligenza artificiale è diventata sempre più tangibile nel corso del XVIII secolo e oltre. I filosofi hanno contemplato come il pensiero umano potesse essere meccanizzato e manipolato da macchine intelligenti non umane.
I processi di pensiero che hanno alimentato l'interesse per l'AI sono nati quando i filosofi classici, i matematici e i logici hanno considerato la manipolazione dei simboli (meccanicamente), portando infine alla creazione del computer digitale programmabile, l'Atanasoff Berry Computer (ABC) negli anni '40.
Questa specifica invenzione ha ispirato gli scienziati a procedere con l'idea di creare un "cervello elettronico", ovvero un essere artificialmente intelligente.
Sono trascorsi quasi dieci anni prima che l'AI si trovasse in un campo come quello odierno.
Alan Turing, matematico tra le altre cose, ha proposto un test che misura la capacità di una macchina di replicare le azioni umane in modo indistinguibile. Più tardi in quel decennio, il campo della ricerca sull'AI è stato fondato durante una conferenza estiva al Dartmouth College nella metà degli anni '50, dove John McCarthy, informatico e scienziato cognitivo, ha coniato il termine "intelligenza artificiale".
Dagli anni '50 ad oggi, un'infinità di scienziati, programmatori, logici e teorici hanno contribuito a consolidare la nostra moderna comprensione dell'intelligenza artificiale.
Ogni decennio ha visto innovazioni e scoperte rivoluzionarie che hanno cambiato radicalmente il nostro modo di concepire l'AI, trasformandola da fantasia lontana in una realtà tangibile per le generazioni presenti e future.
In particolare andando in ordine l'evoluzione delle teorie dell'intelligenza artificiale è proseguita cosi:
La Nascita dell'Intelligenza Artificiale Teorica (dal 1940)
Il periodo tra il 1940 e il 1960 è stato fortemente segnato dalla congiunzione di sviluppi tecnologici (di cui la Seconda Guerra Mondiale è stata un acceleratore) e dal desiderio di capire come unire il funzionamento delle macchine e degli esseri organici.
Per Norbert Wiener, pioniere della cibernetica, l'obiettivo era unificare la teoria matematica, l'elettronica e l'automazione come "una teoria complessiva di controllo e comunicazione, sia negli animali che nelle macchine".
Poco prima, un primo modello matematico e informatico del neurone biologico (neurone formale) era stato sviluppato da Warren McCulloch e Walter Pitts già nel 1943.
All'inizio del 1950, John Von Neumann e Alan Turing furono i padri fondatori della tecnologia che l'ha resa possibile. Essi hanno effettuato la transizione dai computer con la logica decimale del XIX secolo (che gestiva valori da 0 a 9) alla logica binaria delle macchine (che si basa sull'algebra di Boolean, gestendo di 0 o 1).
I due ricercatori hanno così formalizzato l'architettura dei nostri computer contemporanei e dimostrato che si trattava di una macchina universale, capace di eseguire ciò che è programmato. Turing, d'altra parte, ha sollevato per la prima volta la questione della possibile intelligenza di una macchina nel suo celebre articolo del 1950 "Computing Machinery and Intelligence" e ha descritto un "gioco di imitazione", in cui un essere umano dovrebbe essere in grado di distinguere in un dialogo telepatico se sta parlando con un uomo o con una macchina.
Nonostante la controversia che circonda questo articolo (questo "test di Turing" non sembra qualificarsi per molti esperti), esso viene spesso citato come la fonte del dibattito sulla distinzione tra l'essere umano e la macchina.
L'acronimo "AI" è stato coniato da John McCarthy del MIT (Massachusetts Institute of Technology). Marvin Minsky dell'Università Carnegie-Mellon in particolare la definisce come "la creazione di programmi informatici che svolgono compiti attualmente eseguiti in modo più soddisfacente dagli esseri umani, poiché richiedono processi mentali di alto livello come: apprendimento percettivo, organizzazione della memoria e ragionamento critico".
La conferenza estiva del 1956 al Dartmouth College è considerata la fondatrice della disciplina. Merita di essere notato il grande successo di quello che non è stato una conferenza, ma piuttosto un workshop. Solo sei persone, tra cui McCarthy e Minsky, sono rimaste costantemente presenti durante questo lavoro (che si basava essenzialmente su sviluppi basati sulla logica formale).
Nonostante la tecnologia fosse ancora affascinante e promettente, la popolarità calò all'inizio degli anni '60. Le macchine avevano una memoria molto limitata, rendendo difficile l'utilizzo di un linguaggio informatico.
Nel lontano 1957, il celebre economista e sociologo Herbert Simon profetizzò che l'Intelligenza Artificiale sarebbe riuscita a battere un essere umano a scacchi entro i successivi 10 anni.
Tuttavia, l'AI cadde in un lungo inverno e Simon dovette attendere ben 30 anni prima che la sua visione si avverasse.
L'Intelligenza Artificiale diventa realtà (dal 1970)
Nel 1968 Stanley Kubrick dirigeva il film "2001 Odissea nello Spazio" dove un computer - HAL 9000 riassumeva in sé l'intera somma delle questioni etiche poste dall'AI: rappresenterà un alto livello di sofisticazione, un bene per l'umanità o un pericolo?
L'impatto del film non sarà naturalmente scientifico, ma contribuirà a popolarizzare il tema, così come l'autore di fantascienza Philip K. Dick, che non cesserà mai di chiedersi se, un giorno, le macchine esperimenteranno emozioni.
È stato con l'avvento dei primi microprocessori alla fine degli anni '70 che l'AI è decollata di nuovo ed è entrata nell'età dell'oro dei sistemi esperti.
Il percorso è stato aperto effettivamente al MIT nel 1965 con DENDRAL (sistema esperto specializzato in chimica molecolare) e all'Università di Stanford nel 1972 con MYCIN (sistema specializzato nella diagnosi di malattie del sangue e prescrizione di farmaci). Questi sistemi erano basati su un "motore inferenziale", programmato per essere uno specchio logico del ragionamento umano. Inserendo i dati, il motore forniva risposte di alto livello di competenza.
Le promesse prevedevano un massiccio sviluppo ma la frenesia cadrà di nuovo alla fine degli anni '80, primi anni '90. La programmazione di tale conoscenza richiedeva infatti molto sforzo e da 200 a 300 regole, c'era un effetto "scatola nera" in cui non era chiaro come la macchina ragionasse.
Lo sviluppo e la manutenzione divennero quindi estremamente problematici e - soprattutto - erano possibili modi più veloci e in molti altri modi meno complessi e meno costosi. Va ricordato che negli anni '90, il termine intelligenza artificiale era quasi diventato tabù e venivano utilizzate variazioni più modeste, come "calcolo avanzato".
Il successo nel maggio 1997 di Deep Blue (sistema esperto di IBM) al gioco degli scacchi contro Garry Kasparov ha realizzato la profezia di Herbert Simon del 1957 trent'anni dopo, ma non ha sostenuto il finanziamento e lo sviluppo di questa forma di AI.
Il funzionamento di Deep Blue si basava su un algoritmo di forza bruta sistematico, in cui tutte le mosse possibili venivano valutate e ponderate.
La sconfitta dell'essere umano è rimasta molto simbolica nella storia, ma Deep Blue era riuscito in realtà a trattare un perimetro molto limitato, molto lontano dalla capacità di modellare la complessità del mondo.
L'intelligenza Artificiale e il suo splendore nel Terzo Millennio (dal 2000)
Il nuovo entusiasmante boom della disciplina è stato spiegato da due fattori chiave che hanno dato slancio al settore intorno al 2010.
In primo luogo, l'accesso a volumi massicci di dati. In passato, per utilizzare algoritmi per la classificazione e il riconoscimento delle immagini, era necessario effettuare campionamenti manuali. Oggi, una semplice ricerca su Google può trovare milioni di dati in pochi secondi.
L'efficienza straordinaria delle schede grafiche dei computer nel velocizzare il calcolo degli algoritmi di apprendimento ha rappresentato una vera svolta. Prima del 2010, l'elaborazione dell'intero campione richiedeva settimane, a causa dell'iteratività del processo.
Grazie alla potenza di calcolo di queste schede (in grado di effettuare oltre mille miliardi di transazioni al secondo), si è compiuto un notevole progresso a un costo finanziario contenuto.
La recente attrezzatura tecnologica ha permesso di ottenere successi pubblici significativi e di aumentare i finanziamenti: nel 2011, Watson, l'AI di IBM, ha vinto contro due campioni di Jeopardy! Nel 2012, Google X (il laboratorio di ricerca di Google) è stato in grado di far riconoscere ai suoi algoritmi una immagine di un gatto su un video. Per questo compito sono stati utilizzati oltre 16.000 processori, ma il potenziale è straordinario: una macchina apprende a distinguere qualcosa.
Nel 2016, AlphaGO (l'AI di Google specializzata nel gioco del Go) ha sconfitto il campione europeo (Fan Hui) e il campione del mondo (Lee Sedol), per poi superare se stessa con AlphaGo Zero. Va sottolineato che il gioco del Go ha una combinatoria molto più complessa degli scacchi (superiore al numero di particelle nell'universo) e che non è possibile ottenere risultati così significativi in termini di potenza bruta (come accaduto con Deep Blue nel 1997).
Da dove è nato questo miracolo? Una rivoluzione completa del paradigma degli expert system.
L'approccio è diventato induttivo: non si tratta più di codificare regole come per gli expert system, ma di permettere ai computer di scoprirle autonomamente tramite correlazione e classificazione, sulla base di una grande quantità di dati.
Tra le tecniche di apprendimento automatico, il deep learning sembra il più promettente per numerose applicazioni, tra cui il riconoscimento vocale o delle immagini. Nel 2003, Geoffrey Hinton dell'Università di Toronto, Yoshua Bengio dell'Università di Montreal e Yann LeCun dell'Università di New York hanno deciso di avviare un programma di ricerca per aggiornare le reti neurali.
Incredibili risultati sono stati raggiunti grazie agli esperimenti condotti simultaneamente da Microsoft, Google e IBM. Grazie al deep learning, i tassi di errore per il riconoscimento vocale sono stati ridotti della metà.
In futuro
La ricerca incessante di progresso in questo campo ha portato a una profonda trasformazione della nostra coscienza collettiva, e continuiamo a assistere a un cambiamento di paradigma nel modo in cui interagiamo con la tecnologia.
Guardando al futuro, le possibilità per l'AI sembrano infinite e possiamo solo immaginare gli incredibili progressi che ci aspettano.
(Clicca qui per leggere la nostra guida completa sull'intelligenza artificiale per le aziende)