INTELLIGENZA ARTIFICIALE – COSA SERVE PER CAPIRLA? MAGARI SAPERE COS’È UN PERCETTRONE
VUOI RICEVERE VIA E-MAIL I PROSSIMI CONTENUTI DI RADIO IT?
Iscriviti alla nostra newsletter
Questo podcast è il quarto della serie che stiamo dedicando all’Intelligenza Artificiale per tutti:
oggi ti raccontiamo cos’è un percettrone.
In realtà ti raccontiamo anche un sacco di altre cose, perché qui a Radio IT pensiamo che se conosci il passato capisci un po’ di più il presente in cui ti è capitato di vivere. Insomma, per fare i fighi e dirla con Cicerone, pensiamo che la Storia sia un po’ magistra vitae, maestra di vita. E allora, oggi torniamo alle origini dell’Intelligenza Artificiale.
Perché, insomma, adesso di Intelligenza Artificiale sembra si occupino tutti coloro che hanno a che fare con la tecnologia. Ma se chiedete a chi se ne occupava dieci, vent’anni fa, vi risponderà più o meno così: “Sa, oggi dico AI e chiunque comincia a parlarmene come della cosa più scontata del mondo; allora, dicevo AI e mi guardavano come se venissi da Giove”. E quindi la prima cosa da dire è che l’Intelligenza Artificiale è una disciplina certamente giovane se rapportata alla storia del sapere umano, ma non certo recentissima.
Intelligenza artificiale: i primi passi
Il fermento attuale è figlio della maturità tecnologica raggiunta nel calcolo computazionale e nella capacità di analisi in tempo reale di sterminati volumi di dati e di qualsiasi forma. Ma quando queste condizioni non esistevano, esisteva già un iniziale interesse della comunità scientifica. Dobbiamo quindi andare al 1943 per ritrovare il primo vero progetto di Artificial Intelligence (da cui l’acronimo AI): due ricercatori, Warren McCulloch e Walter Pitts propongono al mondo scientifico il primo neurone artificiale.
Più precisamente, scrivono un articolo fondamentale intitolato A Logical Calculus of Ideas Immanent in Nervous Activity, in cui è contenuto il primo modello matematico di una rete neurale. L’unità di base di questo modello di rete è la rappresentazione formale di un singolo neurone, tuttora riferimento standard nel campo delle reti neurali. Spesso ne sentiamo parlare come del neurone di McCulloch–Pitts.
Intelligenza artificiale: le reti neurali
A questo articolo segue nel 1949 il libro L’organizzazione del comportamento, di Donald Olding Hebb, psicologo canadese cui si deve l’analisi dettagliata dei collegamenti tra i neuroni artificiali ed i modelli complessi del cervello umano. Si apre così la strada per arrivare, alla fine degli anni ‘50, ai primi prototipi funzionanti di reti neurali.
Ma cos’è una rete neurale? E’ un modello matematico/informatico sviluppato per riprodurre il funzionamento dei neuroni biologici, quelli del nostro cervello, con uno scopo: risolvere problemi legati alla capacità di una macchina di compiere azioni e come la mente umana. E’ quello il periodo in cui comincia a svilupparsi un certo interesse diffuso, che esce timidamente dalle aule delle università e dai laboratori. Il suo “portavoce”, se possiamo dire così, è Alan Turing, il giovane matematico che già nel 1950 cerca di spiegare i meccanismi grazie ai quali un computer può comportarsi come un essere umano.
Apriamo una parentesi: se volete conoscere la storia di Turing, del suo contributo alla causa britannica per decrittare, durante la Seconda Guerra Mondiale, i messaggi segreti che i nazisti codificavano con la macchina Enigma, e anche la storia dell’emarginazione che ha subito per la sua omosessualità, vi consigliamo di guardare il film The Imitation Game o di leggere la biografia Alan Turing: The Enigma.
Intelligenza artificiale: il percettrone
Bene, torniamo all’Intelligenza Artificiale. E chiediamoci: ma da dove arriva questo termine? Non dall’articolo di McCulloch e Pitts, né al libro di Webb e nemmeno agli studi di Turing. Il termine Artificial Intelligence in realtà è attribuito “ufficialmente” al matematico statunitense John McCarthy a partire dal 1956. Insieme ad esso, vengono lanciati i primi linguaggi di programmazione specifici per l’AI: Lisp nel 1958 e Prolog qualche anno più tardi, nel 1973.
Ma rimaniamo al 1958, perché è quello l’anno in cui lo psicologo e computer scientist Frank Rosenblatt propone un modello di rete neurale che chiama “percettrone”. E’ una rete tutto sommato semplice: c’è uno strato di ingresso, uno di uscita e una regola intermedia di apprendimento. Questa regola si basa sull’algoritmo “error back-propagation” (cioè minimizzazione degli errori). Secondo una corrente di pensiero, il percettrone di Rosenblatt è ciò che fa nascere la cibernetica e l’Intelligenza Artificiale. Per altri, invece, no.
In particolare, due matematici – Marvin Minsky e Seymour Papert – dimostrano i limiti di quel modello neurale. Dicono – e qui andiamo nel tecnicismo – che il percettrone era in grado di riconoscere, dopo un opportuno “addestramento”, solo funzioni linearmente separabili. E dicono che le capacità computazionali di un singolo percettrone sono limitate e le prestazioni fortemente dipendenti sia dalla scelta degli input sia dalla scelta degli algoritmi attraverso i quali ‘modificare’ le sinapsi e quindi gli output. Insomma,in buona sostanza dicono che il percettrone deve essere molto istruito prima di apprendere ed elaborare conclusioni.
C’è da dire, però, che Minsky e Papert intuiscono le potenzialità del percettrone. In particolare, intuiscono che costruire una rete a più livelli di percettroni avrebbe potuto risolvere problemi più complessi. C’è però un problema: in quegli anni alla crescente complessità computazionale richiesta dall’addestramento delle reti per mezzo degli algoritmi non corrisponde un’infrastruttura adeguata. Cioè: non esistono hardware che reggano operazioni di quella portata.
E infatti comincia da lì un periodo, diciamo così, altalenante dello sviluppo dell’intelligenza artificiale. Gli alti sono nei modelli matematici, che come abbiamo appena detto diventano sempre più sofisticati, modellati per “imitare” alcune funzionalità cerebrali: per esempio, il riconoscimento di pattern specifici. I bassi sono invece nella ricerca sull’hardware e sulle reti neurali, che procede lentamente e senza svolte significative fino agli anni Novanta.
Intelligenza artificiale: arrivano le Gpu
E’ in questo decennio, infatti, che c’è quella svolta tecnologica cui si deve l’accelerazione nella potenza e nella velocità dei computer. Arrivano infatti sul mercato cosiddetto “allargato” (cioè consumer) le Gpu, cioè le graphics processing unit. Sono chip che elaborano i dati molto più velocemente delle tradizionali Cpu: provengono dal mondo del gaming e sono in grado di supportare processi complessi operando a frequenze più basse e consumando meno energia.
All’ondata delle Gpu è seguita poi, nel decennio che sta per concludersi, quella dei cosiddetti “chip neuromorfici”, ossia microchip che integrano in un unico micro componente l’elaborazione dati e lo storage, con l’obiettivo di emulare le funzioni sensoriali e cognitive del cervello umano. Gpu prima e chip neuromorfici dopo sono, di fatto, il punto di partenza di quell’ambito della Intelligenza Artificiale che oggi conosciamo come deep learning.
E di cui parleremo nei prossimi episodi.
Vuoi rimanere aggiornato via e-mail?
Cliccando su “Invia” dichiari di aver letto e accettato l’Informativa Privacy.
0 Comments