sabato 13 febbraio 2016

Theano.

No, non Teano, il luogo dell'incontro fra Vittorio Emanuele II e Garibaldi, ma Theano, con la "h".
Theano è una libreria Python che consente di effettuare operazioni su matrici multidimensionali in maniera efficiente: ha una integrazione molto forte con NumPy ed è compilata per essere eseguita sia su CPU che su GPU.
E' un progetto open-source sviluppato dal MILA, il gruppo di Machine Learning dell'Università di Montreal.
Io sto iniziando a studiarlo: sul mio repository github, i pochi, purtroppo per ora, esempi, realizzati seguendo i tutorials di deeplearning.net.

domenica 31 gennaio 2016

Studiosi del mondo AI: Geoffrey E. Hinton

Geoffrey Hinton è uno degli studiosi più eminenti nel campo dell'AI e del Machine Learning.
Inglese, laureato a Cambridge insegna all'Università di Toronto (ne riparleremo) ed è "Ricercatore Emerito" presso Google.
Laureato in psicologia, successivamente ha studiato Intelligenza Artificiale.
E' discendente di Boole, il famoso studioso inglese di logica e matematica.
Ha co-sviluppato le macchine di Boltzmann e ha elaborato un metodo per la back-propagation di layered neural networks.
Le sue lezioni sulle reti neurali su Coursera sono una grande opportunità di apprendimento: potrete gustare anche il suo divertentissimo accento inglese.

AI HYPE.

Nel corso degli ultimi anni, si sente parlare sempre più spesso di AI e di Machine Learning.
Nella scorsa settimana, su Nature è stato pubblicato un articolo a proposito del fatto che Deep Mind, una azienda acquisita da Google, ha sviluppato un algoritmo, AlphaGo, che ha battuto il campione europeo di go, un antico gioco cinese di strategia, il cui spazio di soluzioni è molto più ampio del gioco degli scacchi.
Siamo quindi ad una svolta nel mondo dell'AI? Sembrerebbe di no, anche perché come scrive Nature, il sistema sviluppato da Deep Mind e basato su deep neural networks, pur pianificando delle strategie, non è in grado di trasferire "quanto appreso" ad altri task.
A proposito di state of the art dell'AI, in settimana la Mit Tech Review ha pubblicato una interessantissima intervista a Yoshua Bengio, uno dei più grandi studiosi nel mondo AI.
Nell'intervista, Bengio puntualizza che deve essere fatto ancora tanto lavoro, che negli ultimi anni sono stati fatti tanti progressi, ma ci sono stati anni in cui tali progressi sono stati pochi e che non c'è nessuno in un garage che sta scoprendo una tecnologia che cambierà il mondo, come i media a volte vogliono farci credere. 
Insomma,  nessuno ancora ha costruito dei synths come nella serie "Humans", anche perché il problema dell'unsupervised learning è lungi dall'essere risolto: ciò vuol dire che ancora "dobbiamo dire" alle macchine cosa è una immagine e, come dice Bengio nell'intervista non è quello il modo in cui gli animali apprendono. Bengio aggiunge, inoltre, che siamo lontani da capire tutti i meccanismi del nostro cervello e che gli AI scientists dovranno sempre più prestare attenzione alle neuroscienze.

What about the idea, central to these concerns, that AI could somehow start improving itself and then become difficult to control?
It’s not how AI is built these days. Machine learning means you have a painstaking, slow process of acquiring information through millions of examples. A machine improves itself, yes, but very, very slowly, and in very specialized ways. And the kind of algorithms we play with are not at all like little virus things that are self-programming. That’s not what we’re doing.

martedì 19 gennaio 2016

Yann LeCun: face detection.

Una delle applicazioni più diffuse delle ConvNets è il riconoscimento facciale.
In questo video, una demo del sistema di riconoscimento facciale elaborato da LeCun e dal suo team nel 2003.


lunedì 18 gennaio 2016

Yann LeCun: demo di una ConvNet

In uno dei post precedenti, abbiamo parlato del professore Yann LeCun e del suo lavoro con le ConvNets. In questo video del 1993, una demo di un sistema basato su ConvNets che riconosce caratteri.


domenica 17 gennaio 2016

DeepFace

Il riconoscimento facciale, dicevamo.
Una delle applicazioni più attese nel prossimo futuro è DeepFace, il sistema elaborato dal gruppo di ricerca AI di Facebook.
Come spiegato in questo articolo, DeepFace, a differenza dei sistemi tradizionali di riconoscimento facciale, grazie ad una modellazione 3D dei volti ottenuta mediante una rete neurale a nove livelli, riesce non solo ad individuare un volto in una foto (cosa che i sistemi fanno già da 20 anni), ma ad identificare il soggetto nella foto.
Facebook è riuscito a fare questo grazie alla disponibilità di tanti dati per effettuare training, vale a dire l'immensa mole di foto personali presenti sul social network.
Alcuni hanno espresso delle perplessità in merito alla privacy; Facebook sostiene che è uno strumento per difenderla, in quanto potrà inviare un alert ad un utente che compare in una foto caricata da un altro utente.
La difficoltà dell'identificazione della persona nella foto, è che la faccia cambia nel tempo, che assume forme differenti in base alle emozioni e che anche un diverso taglio di capelli rende l'aspetto diverso.
Nonostante queste difficoltà, DeepFace riesce nel compito con una percentuale del 97.35, mentre gli umani riescono con una percentuale del 98%. Un sistema dell'FBI ha una percentuale del 85%.
Il sistema è adoperato negli Stati Uniti; non in Europa, per motivi relativi alla privacy.



martedì 12 gennaio 2016

Le figure di primo piano del Machine Learning: Yann LeCun

Così come in ogni ambito del sapere, anche nell'ambito del Machine Learning sono presenti delle figure autorevoli e di primo piano.
Tra di essi, Yann LeCun: direttore del Dipartimento AI di Facebook, è anche professore presso la New York University.
Negli anni '80 ha sviluppato il modello delle ConvNets mentre era presso AT&T: grazie ad esso, è riuscito a sviluppare il primo sistema automatico in grado di riconoscere gli assegni.
E' francese, è molto informale e, come si può vedere nei molti video in rete, è un grande comunicatore e divulgatore: a me colpisce molto il fatto che nei suoi vari interventi, come in questa intervista al NYT, ridimensiona in maniera molto sensata e profonda l'hype che si è creato intorno al Machine Learning.