Forum pubblico/privato: Pubblico
Permessi di scrittura: Utenti registrati
Giorno: 26/05/2018, 10:43:39
Tutto bene, ma forse, come mi ricorda il mio amico Luca De Biase, «la premessa della deficienza artificiale è la deficienza umana». Condivido. (Albitex)

Buon giorno Albitex,
ho frainteso come altri utenti che fosse allineato e approvasse una puttanata del suo "amico De Biase".Bravo e complimenti, le fa onore tenersi fuori da un nonsense idiota.

Quanto nel mio intervento "fumoso", devo precisare che è il compendio di un pensiero che appartiene ahimè ad altro.
Ho riportato una parte del pensiero, già più articolato nella dialettica, di un mio amico che frequento da tanti anni e che si chiama Emanuele.

Emanuele, a cui piace che lo si inviti a cantare (" Cant immanuel, cant, cant!" Lo esortano altri amici che frequentano come lui l'accademia "il Liceo"), ha dato un non modesto contributo al gioco degli scacchi e in particolare alla "critica" sulla metodologia degli scacchi posizionali.

E' diventato un mio cruccio non aver semplificato la dialettica ( ammetto, molto astratta) di Emanuele magari con un concetto riepilogativo meno contorto e, comunque, più leggero per il comprendonio.
Penso a una critica diversa e più pratica ma non ho voluto offendere Emanuele, perchè assente dalle puttanate di certi aspiranti visionari.....

Mi faccio soccorrere dal suo commento, e mi accomodo:
Questa volta penso che @myCARtoM non abbia tutti i torti, il suo commento inquadra bene....
Mi aiuta ad assorbire, magari aggiungendo e amplificandoli, altri concetti, a corollario, al commento inquadra bene...., che se opportuno riferirei a Emanuele?
Ah se lei potesse contribuire a che io possa fare una bella figura verso Emanuele! ....E' da tanto che gli chiedo di donarmi la xilografia del '700 che ha sulla scrivania

Cordialità

PS: nel suo ultimo commento ha riportato virgolettato il pensiero di uno che ha palesato gravi problemi esistenziali e imputabile, insieme ad altri tre o quattro nello stesso stato, del "grave disagio giovanile" della generazione del loro tempo
"Chiunque desideri diventare un fuoriclasse deve affinare le sue capacità nell'analisi scacchistica" (M. Botvinnik)
Giorno: 23/02/2019, 22:55:09
Link sponsorizzati
Giorno: 11/07/2018, 15:07:40
Rete neurale DNA
Creata Una Rete Neurale A DNA Che Funziona Come Un’intelligenza Artificiale Biologica

Articolo di Massimo Zito 10 Luglio 2018


Il futuro dell’Intelligenza Artificiale potrebbe sembrare un po' meno "I Robot " e un po’ più "Blade Runner".

I ricercatori del Caltech hanno costruito una rete neurale artificiale fatta esclusivamente da materia organica artificiale. Un giorno, una versione più avanzata della rete, potrebbe potenzialmente diagnosticare malattie, prendere decisioni e persino forgiare i propri ricordi. Per ora, è in grado di categorizzare i numeri scritti a mano, come mostrato in uno studio pubblicato sulla rivista Nature .

Come tutte le reti neurali, imita i processi che avvengono naturalmente nel cervello umano.

“Gli esseri umani hanno oltre 80 miliardi di neuroni nel cervello, con cui prendono decisioni altamente sofisticate: animali più piccoli come i nematodi possono prendere decisioni più semplici usando solo poche centinaia di neuroni“, ha spiegato Lulu Qian, assistente professore di bioingegneria al Caltech:
“In questo lavoro, abbiamo progettato e creato circuiti biochimici che funzionano come una piccola rete di neuroni per classificare informazioni molecolari sostanzialmente più complesse di quanto fosse possibile in precedenza.”

A differenza della stragrande maggioranza delle reti neurali, questa è stata sviluppata in una provetta ed stata realizzata con DNA sintetico. In sostanza si tratta di un brodo organico “intelligente“.

Perché il DNA? I singoli filamenti di DNA sono costituiti sempre dalle stesse quattro molecole (o nucleotidi) – A, T, C e G (Adenina, Timina, Citosina e Guanina). Ciò rende le loro reazioni estremamente facili da prevedere, indipendentemente dal fatto che si siano evolute in modo naturale o siano state costruite in un laboratorio.

Per dimostrare che l’intelligenza artificiale può essere “programmata” in circuiti biomolecolari sintetici, il team ha sottoposto la rete neurale a DNA appena creata alla cosiddetta sfida della scrittura a mano, un test molto più difficile di quanto appaia perchè la scrittura umana presenta infinite variabili individuali.

Invece di usare “scrittura visiva“, il team ha usato una tecnica chiamata “scrittura a mano molecolare“. Ciò significa che la scrittura non ha la forma di un numero o di una lettera. Piuttosto, ogni singolo numero molecolare è composto da 20 filamenti di DNA unici, ciascuno selezionato da 100 molecole che rappresentano diversi pixel in qualsiasi modello 10-per-10, che sono stati mescolati insieme in una provetta. La rete neurale è stata in grado di identificare ogni numero molecolare come una delle cifre tra 1 e 9.

Il primo test cui è stata sottoposta La rete neurale a DNA sintetico, era un modello semplice che richiedeva solo di separare due cifre, 6 e 7: usando il cosiddetto approccio “il vincitore prende tutto” e un tipo di molecola di DNA soprannominato “the annihilator”, l’AI ha identificato correttamente tutti e 36 i numeri scritti a mano che le sono stati sottoposti.

“The annihilator agisce formando un complesso con una molecola di un concorrente e con una molecola di un altro concorrente e reagisce con esse per formare specie inerti e non reattive”, ha spiegato il primo autore e dottorando Kevin Cherry.

“The annihilator elimina rapidamente tutte le molecole concorrenti fino a quando rimane una sola specie competitiva, il concorrente vincente viene quindi ripristinato ad alta concentrazione e produce un segnale fluorescente che indica la decisione della rete“.

Successivamente, è stato provato un test più avanzato che richiede di mettere in ordine nove cifre comprese tra 1 e 9. Di nuovo, la rete neurale lo ha eseguito con successo.

Probabilmente passerà parecchio tempo prima che potremo vedere qualcosa che somiglia anche solo vagamente alle intelligenze artificiali visionarie di Blade Runner ma questo nuovo approccio potrebbe aprire la strada a un futuro in cui l’intelligenza artificiale sarà più organica che meccanica.

“Sebbene gli scienziati abbiano appena iniziato a esplorare la creazione di intelligenza artificiale in macchine molecolari, il suo potenziale è già innegabile“, ha aggiunto Qian.

“Nello stesso modo in cui i computer elettronici e gli smartphone hanno reso gli esseri umani più capaci di cento anni fa, le macchine molecolari artificiali potrebbero rendere tutte le cose fatte di molecole, per esempio vernici e bende, più capaci e più reattivi all’ambiente accrescendone l’efficacia e le funzionalità. È quanto scopriremo entro i prossimi cento anni“.

Questa scoperta potrebbe essere il prologo ad un modo completamente diverso di intendere l’intelligenza artificiale e potrebbe aprire la strada, in un futuro non vicinissimo, alla creazione di esseri viventi sintetici. Insomma, un futuro non di robot ma di androidi.

Blade Runner, appunto.

Fonti: Nature, iflscience
Giorno: 05/08/2018, 14:27:06
image 1683

<< Una rete neurale artificiale non è una struttura, ma un programma o algoritmo di computer che organizza i miliardi di transistor in un computer per funzionare come se fossero neuroni interconnessi in un cervello umano.>>

- Akrain/iStock -
Forbes / Intel rivista digitale su A.I.


- Forbes articolo inglese -
Giorno: 05/10/2018, 12:04:21
Fuffa sull'A.I.
La fuffa intorno all’intelligenza artificiale

Una trovata pubblicitaria di Burger King dimostra quanto siamo ancora confusi e quanto poco sappiamo delle tecnologie che cambieranno il mondo (forse).


(Articolo da il post.it)

*

Burger King, una delle più grandi catene di fast food al mondo, ha preparato una serie di nuovi spot televisivi da trasmettere in prima serata negli Stati Uniti, sostenendo di averli prodotti utilizzando sistemi di intelligenza artificiale (AI).
Per stessa ammissione di Burger King, in realtà gli spot sono stati pensati e realizzati da pubblicitari in carne e ossa, allo scopo di prendere in giro le grandi aspettative e attenzioni di cui godono le AI negli ultimi tempi, con risultati a volte discutibili.

Gli spot di Burger King, ingannevoli e apparentemente innocui, colgono un aspetto centrale nel nostro rapporto con le nuove tecnologie complicate e dai contorni ancora molto sfumati, sulle quali è difficile farsi un’idea.
In questo senso l’AI è un caso esemplare: se ne parla di continuo ed è ciò su cui si stanno concentrando i più grandi investimenti nella Silicon Valley e in Cina, eppure c’è ancora una grande differenza tra ciò che leggiamo nei comunicati che celebrano i grandi progressi raggiunti dai sistemi di intelligenza artificiale e le nostre esperienze quotidiane.
Ci sono AI che riescono a battere il campione mondiale del complicatissimo gioco cinese GO, altre che gestiscono i sistemi di guida automatica delle automobili, ma al tempo stesso abbiamo in tasca assistenti virtuali come Siri che ci vengono venduti come intelligenze artificiali, anche se di intelligente hanno ben poco e sono quasi totalmente inutili.
Le percezioni ambivalenti che abbiamo intorno alle AI, e su cui giocano gli spot di Burger King, derivano proprio da una difficoltà di fondo: definire in modo univoco e chiaro l’intelligenza artificiale. Dietro queste due parole si è affastellata una grande quantità di argomenti che vanno dalla pura informatica alla neurologia, passando per gli studi su come funziona cognitivamente il nostro cervello. Generalizzando molto, possiamo dire che: l’intelligenza artificiale è la scienza che si occupa di come creare macchine intelligenti, e che ha trovato nelle possibilità offerte dall’informatica la via più pratica e probabile per poterlo fare.

Il concetto di AI è profondamente intrecciato alla domanda delle domande: come funziona l’intelligenza umana?
Le scoperte sui meccanismi che governano il modo in cui pensiamo, infatti, potrebbero portarci a sviluppare la migliore AI possibile; secondo altri ricercatori potrebbe avvenire esattamente il contrario: svilupperemo una AI molto potente senza comprendere di preciso come funzioni, e questa ci aiuterà a capire come funzionano cervello e conoscenza. Del resto già oggi ci sono moltissime cose che sfuggono alla nostra comprensione, in ambito scientifico, e che però riusciamo a sfruttare perfettamente per ottenere risultati concreti.

Spesso per motivi di marketing, e magari attirare l’attenzione di qualche investitore, ricercatori e aziende promuovono come “intelligenze artificiali” sistemi che a ben guardare non hanno molto di “intelligente”. Lo fanno sfruttando la definizione di AI per sua stessa natura molto sfumata, applicandola come meglio credono ai loro prodotti. Lontani dai loro responsabili marketing e dalle orecchie dei potenziali investitori, praticamente tutti quelli che lavorano nel settore ammettono la stessa cosa: allo stato attuale, l’intelligenza artificiale è stupida. Ma questo non significa che sia inutile.
Ci sono persone molto stupide che eccellono nel loro lavoro.
Qualcosa di analogo avviene con le AI: non possiamo dire che abbiano un’intelligenza generale e articolata come la nostra, ma hanno indiscutibili abilità. Possono per esempio analizzare gigantesche quantità di dati che possono fare da base per l’apprendimento: attraverso l’analisi è la stessa macchina a farsi un’idea delle regole, che sia un gioco in scatola o come si attraversa la strada, e a metterle poi in pratica. Queste e altre soluzioni fanno parte di campi di ricerca e sviluppo molto esplorati in questi anni, e che riguardano deep learning, machine learning e reti neurali. Sono cose diverse tra loro, ma che possono essere utilizzate insieme per ottenere sistemi più o meno raffinati di intelligenza artificiale.

I progressi informatici, con processori e computer sempre più potenti, insieme ai maggiori investimenti hanno portato in questi anni a una notevole accelerazione nella ricerca delle AI. I risultati ottenuti finora sono molto circoscritti, ma fanno ben sperare per gli sviluppi e le innovazioni che potranno portare in futuro. Annunci, articoli di giornale e campagne di marketing hanno portato fuori fase le aspettative: sono diventate molto più alte in breve tempo rispetto a quanto sia concretamente ottenibile dalle intelligenze artificiali. Anche per questo motivo Siri, un cane robot o un’auto che si guida da sola ci appaiono molto più stupidi e banali di quanto in realtà lo siano le tecnologie che li fanno funzionare.
Nel saggio “La farsa dell’automazione”, Astra Taylor si interroga sulle esagerazioni intorno ai progressi raggiunti con robot e intelligenze artificiali.

Nella sua analisi introduce il concetto di “fasullomazione” (“fauxtomation”), ovvero la tendenza delle aziende a promuovere le capacità tecnologiche dei loro prodotti lodandole in modo esagerato.
Un forno a microonde viene definito “intelligente” per il semplice fatto di essere in grado di regolare i minuti di cottura, dopo avere letto il codice a barre del prodotto che sta per cuocere e averlo cercato online. È un modo per vendere più microonde ed è piuttosto innocuo, ma contribuisce a creare un’idea distorta di cosa intendiamo per “intelligente” e dove si sta muovendo la tecnologia.
L’automazione, prosegue Taylor, non è neutrale ed equidistante come si potrebbe immaginare. In diversi settori lavorativi è utilizzata per giustificare condizioni svantaggiose per gli impiegati o per lasciare le cose come stanno. Il concetto di AI viene sempre più usato come minaccia verso i lavoratori che chiedono miglioramenti del loro trattamento, per esempio prospettando loro la possibilità che a breve possa essere una macchina a svolgere il loro lavoro, a costi molto più bassi. È un aspetto molto più pericoloso della “fasullomazione”, che incide sulla qualità della vita delle persone molto di più di un microonde venduto come intelligente, anche se rimane piuttosto stupido.

Il rischio è che in questa fase di transizione verso vere e proprie AI, che secondo gli osservatori sarà piuttosto lunga (almeno un decennio), l’idea fuori dalla realtà di intelligenza artificiale promossa da chi la sviluppa a fini commerciali possa influire sulle decisioni dei politici, e sulle stesse scelte dell’opinione pubblica.
Altri potrebbero utilizzare la “fasullomazione” al contrario, per esempio per dipingere scenari futuri dove le AI sono necessariamente una rovina, allo scopo di trarne benefici nel breve periodo alle elezioni. Un’idea distorta sulle effettive capacità di una tecnologia può portare a scelte sbagliate e costose per tutti. Una nuova tecnologia non è di per sé buona o cattiva, ma può esserlo l’uso che se ne fa.
Giorno: 22/10/2018, 16:52:15
Scacchi e computer - storia
image 1695


(Adolivio Capece)
Nel 1968 Edimburgo in Scozia ospitò la prima conferenza internazionale sull’intelligenza artificiale. In quell’occasione due dei promotori, John McCarthy e Donald Michie, affermarono che entro dieci anni un programma di scacchi su computer sarebbe stato in grado di diventare campione del mondo.

Ma la loro affermazione fu contestata dal maestro internazionale David Levy che scosse l’ambiente con una singolare scommessa: scommise infatti 250 sterline, somma che poi venne aumentata a 1250 sterline per l’intervento di altri scommettitori, che nei successivi dieci anni nessun programma sarebbe riuscito a batterlo in un match con partite di gioco da torneo, ovvero con il tempo di riflessione che si usava all’epoca: 40 mosse in due ore e mezza e 16 mosse in ogni ora successiva.

Erano i tempi in cui l’intelligenza artificiale faceva i primi passi.

Il seme era stato gettato da Charles Babbage, matematico inglese (1792 – 1841) che dedicò trentasette anni di vita allo studio delle macchine calcolatrici. Nel 1840, dopo aver progettato il “motore analitico”, decise di dimostrare che esso era capace di ‘cose intelligenti’ scegliendo per test gli scacchi e indicando le regole che la macchina automatica avrebbe dovuto seguire per giocare la partita.

La scommessa fatta da Levy incuriosì e smosse l’ambiente. In particolare la sfida fu raccolta da Dave Slate, Keith Gorlen e Larry Atkin, che si prepararono per l’incontro creando il programma ‘Chess’.

Ma di scacchi su computer si parlò anche in Italia. Ricordo per esempio le prime conferenze sull’argomento fatte a Milano, organizzate da Nicola Palladino con il prof. Marco Somalvico e la allora sua giovane assistente Barbara Pernici (vincitrice di 5 campionati italiani femminili tra il 1974 e il 1981 e poi protagonista di una importante carriera universitaria al Politecnico di Milano) e ricordo la simpatica sfida che vide protagonista nell’ottobre 1975 il nostro mitico Sergio Mariotti che sconfisse nettamente il programma ‘Snark’ realizzato dal maltese Michael Saliba in occasione del congresso della Associazione di Calcolo Automatico di Pisa; fu una vittoria così netta che ricordo che il mio articolo di commento su ‘Il Giornale’ lo intitolai “Il calcolatore pollacchione”.


Charles Babbage, matematico e filosofo londinese
Ma torniamo a David Levy e alla sua scommessa, ricordando che, in attesa di una partita ufficiale, nel 1974 lo stesso Levy organizzò il primo campionato mondiale per programmi su computer.

Arriviamo così all’aprile 1977, quando un primo incontro con Levy, con in palio il denaro della scommessa, venne giocato da Chess 4.5 (ovvero la quinta versione del programma) alla Carnegie-Mellon University di Pittsburgh. Era previsto sulla distanza di due partite, ma dopo la facile vittoria di Levy nella prima venne interrotto. Nei mesi successivi Levy venne sfidato senza successo dal programma russo Kaissa e poi dal programma MacHack.

Arriviamo finalmente alla fine di agosto 1978, ovvero praticamente alla scadenza dei dieci anni della scommessa. Si gioca a Toronto, sulla distanza di 6 partite. Il programma ‘Chess’ è stato migliorato, tanto che l’anno precedente, con la versione Chess 4.6 si era imposto nel campionato del mondo per elaboratori.

Levy affrontò la nuova versione del programma, Chess 4.7. Dopo una vittoria di Levy, la seconda partita finì in parità, sebbene ‘Chess’ si fosse portato in vantaggio con un abile sacrificio di Cavallo: ma poi sciupò tutto giocando molto male il finale. La terza partita fu vinta facilmente da Levy, mentre la quarta venne vinta dal programma, che controbatté efficacemente il Gambetto Lèttone scelto come apertura dall’avversario. Levy vinse poi la quinta partita, chiudendo il match sul punteggio di 3.5 a 1.5, ma ammise che i programmatori avevano fatto passi da gigante e che a quel punto tutto era possibile…
Giorno: 31/12/2018, 01:05:54
AlphaZero funzionamento
Kasparov oggi consiglia un nuovo articolo su AlphaZero pubblicato dal giornale The New Yorker.

L'articolo spiega bene i principi di funzionamento su cui si basa AlphaZero e le principali differenze con i motori classici come Stockfish. È dedicato ampio spazio anche a Leela.
@Luigi probabilmente non gradirà molto come viene descritto il funzionamento e la scrittura del codice di Stockfish biggrin.gif, spero di non avergli reso un po' amaro l'inizio dell'anno, chiedo pegno.

*

Come il programma di Intelligenza Artificiale AlphaZero ha dominato le sue partite
James Somers 28 Dicembre 2018

<<
Nel 2016, un programma di Google ha sconfitto pesantemente Lee Sedol, il miglior giocatore Go del mondo, in una partita vista da più di cento milioni di persone.

Alcune settimane fa, un gruppo di ricercatori di un azienda del settore intelligenza artificiale di Google, DeepMind, ha pubblicato un articolo sulla rivista Science che descriveva un A.I. per giocare. Sebbene il loro sistema sia abbastanza generale da funzionare per molti giochi a due, i ricercatori lo hanno adattato specificamente per Go, scacchi e shogi ("scacchi giapponesi"); non è stata data alcuna conoscenza al software oltre alle regole base di ogni gioco. All'inizio ha fatto delle mosse casuali. Poi ha iniziato a imparare attraverso il gioco personale. Nel corso di nove ore, la versione di scacchi del programma ha giocato quarantaquattro milioni di partite di auto apprendimento contro se stesso su un enorme cluster di hardware specializzato di Google. Dopo due ore, ha iniziato a esibirsi meglio dei giocatori umani; dopo quattro ore, stava battendo il miglior motore di scacchi del mondo.

Il programma, chiamato AlphaZero, discende da AlphaGo, un A.I. che è diventato noto per aver sconfitto Lee Sedol, il miglior giocatore del mondo di Go, nel marzo del 2016. La sconfitta di Sedol è stata una sorpresa sconvolgente. In "AlphaGo", un documentario pubblicato all'inizio di quest'anno su Netflix, i filmmaker seguono sia la squadra che ha sviluppato l'A.I. e i suoi avversari umani, che hanno dedicato la vita al gioco.
Guardiamo mentre questi umani sperimentano le fasi di un nuovo tipo di dolore. All'inizio, non vedono come possono perdere con una macchina: "Credo che l'intuizione umana sia ancora troppo avanzata per quello che l'A.I. ha raggiunto ", dice Sedol, il giorno prima della suo match di cinque partite con AlphaGo. Poi, quando la macchina inizia a vincere, inizia una specie di panico. In un momento particolarmente toccante, Sedol, sotto pressione dopo aver perso la sua prima partita, si alza dal tavolo e, lasciando scorrere l'orologio, esce per una sigaretta. Si affaccia sui tetti di Seoul. (Su Internet, più di cinquanta milioni di persone stavano guardando la partita.) Nel frattempo, l'A.I., ignaro che il suo avversario è andato da un'altra parte, gioca una mossa che i commentatori chiamano creativa, sorprendente e bella. Alla fine, Sedol ha perso, 1-4. Prima che potesse esserci l'accettazione, c'era la depressione. "Voglio scusarmi per essere stato così impotente", ha detto in una conferenza stampa. Alla fine, Sedol, insieme al resto della comunità di Go, è arrivato ad apprezzare la macchina. "Penso che questo porterà un nuovo paradigma a Go", ha detto. Fan Hui, il campione europeo, ha consentito. "Forse può mostrare agli umani qualcosa che non abbiamo mai scoperto. Forse è bellissimo. "

AlphaGo è stato un trionfo per i suoi creatori, ma ancora insoddisfacente, perché è dipeso molto dalle competenze umane di Go. L' A.I. ha imparato quali mosse dovrebbe fare, in parte, cercando di imitare i giocatori di livello mondiale. Ha anche utilizzato una serie di euristiche codificate a mano per evitare i peggiori errori quando si guarda avanti nei giochi. Ai ricercatori che costruivano AlphaGo, questa conoscenza sembrava una stampella. Hanno deciso di costruire una nuova versione della A.I. che ha imparato da sola, come una "tabula rasa".

Il risultato fu AlphaGo Zero, descritto in modo dettagliato in un documento pubblicato nell'ottobre del 2017, era così chiamato (AlphaGo Zero) perché non conosceva il gioco del Go oltre le regole. Questo nuovo programma era molto meno conosciuto. Ma in un certo senso era il risultato più notevole, che non aveva più molto a che fare solo con il Go. Infatti, meno di due mesi più tardi, DeepMind ha pubblicato una pre-stampa di un terzo articolo, dimostrando che l'algoritmo dietro Alpha Zero poteva essere generalizzato a qualsiasi gioco a due persone a somma zero di informazioni perfette (cioè, un gioco in cui non ci sono elementi nascosti, come le carte a faccia in giù nel poker). DeepMind ha abbandonato il "Go" dal nome e battezzato il suo nuovo sistema AlphaZero. Al suo centro c'era un algoritmo così potente che potevi dargli le regole dei giochi più ricchi e studiati dell'umanità e, poco dopo quel giorno, sarebbe diventato il miglior giocatore che ci sia mai stato. Forse la più sorprendente, questa iterazione del sistema è stata di gran lunga la più semplice.

Un tipico motore di scacchi è un miscuglio di ritocchi e reinscrizioni realizzati in decenni di tentativi ed errori.
Il miglior motore del mondo, Stockfish, è open source, e migliora con una specie di selezione darwiniana: qualcuno suggerisce un'idea; decine di migliaia di partite sono giocate tra la versione con l'idea e la versione senza di essa; la versione migliore vince. Di conseguenza, non è un programma particolarmente elegante e può essere difficile da comprendere per i programmatori. Molti dei cambiamenti che i programmatori fanno a Stockfish sono formulati al meglio in termini di scacchi, non di informatica, e riguardano come valutare una determinata situazione sulla scacchiera: un Cavallo dovrebbe valere 2.1 punti o 2.2? Cosa succede se è alla terza traversa e l'avversario ha un Alfiere di colore opposto? Per illustrare questo punto, David Silver, capo della ricerca di DeepMind, ha elencato una volta le parti 'mosse' in Stockfish. Ce ne sono più di una cinquantina, ognuna delle quali richiede una quantità significativa di codice, ciascuna con un po' di cultura scacchistica conquistata a fatica: la contromossa euristica; database di finali noti; moduli di valutazione per pedoni raddoppiati, pezzi intrappolati, Torre su (semi) colonne aperte e così via; strategie per cercare l'albero di possibili mosse, come "finestre di aspirazione" e "approfondimento iterativo".

AlphaZero, al contrario, ha solo due parti: una rete neurale e un algoritmo chiamato Monte Carlo Tree Search.
L'idea alla base di M.C.T.S., come è spesso chiamato l'algoritmo, è che un gioco come gli scacchi è davvero un albero di possibilità. Se muovo la Torre a d8, puoi catturarla o lasciarla, a quel punto potrei spingere un pedone o spostare il mio Alfiere o proteggere la mia Donna. . . . Il guaio è che questo albero diventa incredibilmente grande in modo incredibilmente veloce. Nessuna quantità di potenza di calcolo sarebbe sufficiente per una ricerca esaustiva. Un esperto giocatore umano è un esperto proprio perché la sua mente identifica automaticamente le parti essenziali dell'albero e focalizza la sua attenzione lì. I computer, se devono competere, devono in qualche modo fare lo stesso.

I commentatori di scacchi hanno elogiato AlphaZero, dichiarando che il motore "gioca come uno scacchista umano tosto".
È qui che entra in gioco la rete neurale. La rete neurale di AlphaZero riceve, come input, il layout della scacchiera per le ultime mosse del gioco. Come output, stima quanto è probabile che il giocatore sia in grado di vincere e prevede quale delle mosse attualmente disponibili possa funzionare meglio. L'algoritmo M.C.T.S utilizza queste previsioni per decidere dove concentrarsi nell'albero delle mosse. Se la rete indovina che "il Cavaliere cattura l'Alfiere" è probabile che sia una buona mossa, per esempio, allora il M.C.T.S. dedicherà molto del suo tempo ad esplorare le conseguenze di quella mossa. Ma bilancia questo "sfruttamento" di mosse promettenti con un po’ di "esplorazione": a volte prende mosse che a suo avviso sono improbabili da dare frutti, nel caso in cui lo facciano.

All'inizio, la rete neurale che guida questa ricerca è abbastanza stupida: rende le sue previsioni più o meno a caso. Di conseguenza, la ricerca Monte Carlo Tree inizia a fare un lavoro piuttosto brutto di concentrarsi sulle parti importanti dell'albero. Ma il genio di AlphaZero sta nel modo in cui apprende. Prende queste due parti semi producenti e li fa affinare l'un l'altro. Anche quando una muta rete neurale fa un brutto lavoro per predire quali mosse funzioneranno, è comunque utile guardare avanti nell'albero del gioco: verso la fine della partita, ad esempio, il M.C.T.S. può ancora imparare quali posizioni portano effettivamente alla vittoria, almeno per una parte del tempo. Questa conoscenza può quindi essere utilizzata per migliorare la rete neurale. Quando una partita è finita, e tu conosci il risultato, guardi cosa ha predetto la rete neurale per ogni posizione (diciamo che c'è un 80,2% di possibilità che l'arrocco sia la mossa migliore) e paragoni ciò che è realmente accaduto (diciamo, che la percentuale è più simile a 60,5); puoi quindi "correggere" la tua rete neurale sintonizzando le sue connessioni sinaptiche fino a quando preferisce le mosse vincenti. In sostanza, tutta la ricerca di M.C.T.S. viene distillata in nuovi pesi per la rete neurale.

Con una rete leggermente migliore, ovviamente, la ricerca diventa leggermente meno fuorviante, e questo gli consente di cercare meglio, in tal modo estrarre informazioni migliori per addestrare la rete. Va avanti e avanti, in un ciclo di feedback che si alza rapidamente, molto rapidamente, verso il piano superiore di abilità conosciute.

Quando sono stati pubblicati i documenti di AlphaGo Zero e AlphaZero, un piccolo esercito di appassionati ha iniziato a descrivere i sistemi nei post dei blog e nei video di YouTube e ha creato le proprie versioni di copie. La maggior parte di questo lavoro era esplicativa: scaturiva dall'impulso dilettante di imparare e condividere, cioè quello che diede origine al Web in primo luogo. Ma sono nati anche un paio di sforzi per replicare il lavoro su larga scala. Dopotutto, le pubblicazioni di DeepMind avevano semplicemente descritto i più grandi programmi di Go e di scacchi al mondo - non avevano contenuto il codice sorgente, e la compagnia non aveva reso i programmi a loro disposizione per i giocatori. Dopo aver dichiarato la vittoria, i suoi ingegneri avevano abbandonato il campo.

Gian-Carlo Pascutto, programmatore di computer che lavora presso la Mozilla Corporation, ha avuto una buona esperienza di costruzione motori di gioco competitivi, prima a scacchi, poi in Go. Ha seguito le ultime ricerche. Poiché la combinazione di Monte Carlo Tree Search e di una rete neurale divenne lo stato dell'arte nell'AI di Go, Pascutto costruì i motori Go open-source di maggior successo al mondo, prima Leela, poi LeelaZero, che rispecchiava i progressi fatti da DeepMind. Il problema era che DeepMind aveva accesso al vasto cloud di Google e Pascutto no. Per addestrare il suo motore Go, DeepMind ha utilizzato cinquemila "Tensor Processing Units" di Google, chips progettati specificamente per i calcoli della rete neurale, per tredici giorni. Per fare lo stesso lavoro sul suo sistema desktop, Pascutto avrebbe dovuto eseguirlo per 17 secoli.

Per compensare la sua mancanza di potenza di calcolo, Pascutto ha distribuito lo sforzo. LeelaZero è un sistema federato: chiunque voglia partecipare può scaricare la versione più recente, donare qualsiasi potenza di calcolo che ha a disposizione e caricare i dati che genera in modo che il sistema possa essere leggermente migliorato. La comunità distribuita LeelaZero ha visto il proprio sistema giocare più di dieci milioni di giochi contro se stesso, poco più di AlphaGo Zero. Ora è uno dei motori Go più potenti esistenti.

Non passò molto tempo prima che l'idea fosse estesa agli scacchi. Nel dicembre dello scorso anno, quando è stata pubblicata la ristampa di AlphaZero, "è stato come se una bomba colpisse la comunità", ha detto Gary Linscott. Linscott, un informatico che aveva lavorato su Stockfish, ha utilizzato la base di codici LeelaZero esistente e le nuove idee nel documento AlphaZero, per creare Leela Chess Zero. (Per Stockfish, aveva sviluppato una struttura di test in modo che le nuove idee per il motore potessero essere distribuite a una flotta di volontari, e quindi controllate più rapidamente, distribuire l'addestramento per una rete neurale era un naturale passo successivo.) Dovette sistemare e formulare ipotesi su dettagli che il team di DeepMind aveva lasciato fuori dai loro documenti, ma nel giro di pochi mesi la rete neurale ha iniziato a migliorare. Il mondo degli scacchi era già ossessionato da AlphaZero: i post su chess.com celebravano il motore; commentatori e grandi maestri hanno esaminato la manciata di partite giocate da AlphaZero che DeepMind aveva pubblicato con il loro articolo, dichiarando che questo era "come dovrebbero essere giocati gli scacchi", che il motore "gioca come un essere umano". Rapidamente, Lc0, come Leela Chess Zero è diventato noto, ha attirato centinaia di volontari. Dato che hanno contribuito con il potere dei loro computer (che lavorano in background per giocare le partite di auto apprendimento) e miglioramenti al codice sorgente, il motore è diventato ancora migliore. Oggi, un contributore principale sospetta che mancano pochi mesi al sorpasso di Stockfish. Non molto tempo dopo, potrebbe diventare migliore di AlphaZero stesso.

Quando abbiamo parlato per telefono, Linscott si è meravigliato che un progetto come il suo, che una volta avrebbe portato a termine un talentuoso studente di dottorato per diversi anni, potesse essere svolto da un appassionato interessato in un paio di mesi. Le librerie software per reti neurali consentono la replica di un progetto che batte il mondo usando solo poche decine di linee di codice; gli strumenti esistono già per distribuire il calcolo tra un gruppo di volontari e produttori di chip come Nvidia hanno messo a disposizione dei chip economici e potenti di G.P.U.s-graphics, che sono perfetti per la formazione di reti neurali - nelle mani di milioni di normali utenti di computer. Un algoritmo come M.C.T.S. è abbastanza semplice da essere implementato in un pomeriggio o due. Non hai nemmeno bisogno di essere un esperto nel gioco per il quale stai costruendo un motore. Quando ha costruito LeelaZero, Pascutto non aveva giocato a Go da circa venti anni.

David Silver, capo della ricerca di DeepMind, ha evidenziato un paradosso apparente nel cuore del recente lavoro della sua società con i giochi: più semplici sono i suoi programmi, da AlphaGo a AlphaGo Zero a AlphaZero, migliori sono state le loro prestazioni. "Forse uno dei principi che cerchiamo", ha detto, in un discorso nel dicembre del 2017, "è questa idea che, facendo meno, rimuovendo la complessità dall'algoritmo, ci consente di diventare più generali". Rimuovendo la conoscenza del Go dal loro motore Go, hanno fatto un motore Go migliore e, allo stesso tempo, un motore che poteva giocare a Shogi e scacchi.

Non è mai stato ovvio che le cose sarebbero andate in questo modo. Nel 1953, Alan Turing, che contribuì a creare l'informatica moderna, scrisse un breve articolo intitolato "Computer digitali applicati ai giochi". In esso sviluppò un programma di scacchi "basato su un'analisi introspettiva dei miei processi mentali durante il gioco.” Il programma era semplice, ma nel suo caso la semplicità non era una virtù: come Turing, che non era un giocatore di scacchi di talento, mancava molto della profondità del gioco e non giocava molto bene.
Così, la congettura di Turing era che l'idea che "non si può programmare una macchina per giocare meglio di come uno gioca" era una "visione piuttosto sciocca". Anche se sembra giusto dire che "nessun animale può ingoiare un animale più pesante di se stesso", molti animali possono. Allo stesso modo, suggeriva Turing, non c'era alcuna contraddizione in un cattivo giocatore di scacchi che scriveva un programma di scacchi che gioca brillantemente. Un modo allettante per farlo sarebbe quello di far apprendere il programma da solo.

Il successo di AlphaZero sembra confermarlo. Ha una struttura semplice, ma è in grado di apprendere caratteristiche sorprendentemente profonde dalle partite che gioca. In una sezione del documento di AlphaGo Zero, il team di DeepMind illustra come la propria A.I., dopo un certo numero di cicli di allenamento, scopre le strategie ben conosciute per padroneggiare sui giocatori , per scartarle solo pochi cicli dopo. È strano e un po' inquietante vedere le migliori idee dell'umanità rotolare sulla strada per qualcosa di meglio; colpisce nell'intimo vedere una macchina artificiale che ci supera: un bulldozer che sposta un carico di terra, per esempio non lo fa (non ci fa' sembrare inadeguati).
In un recente editoriale su Science, Garry Kasparov, l'ex campione di scacchi che ha perso con Deep Blue di I.B.M. nel 1997, sostiene che AlphaZero non gioca a scacchi in un modo che riflette le presumibilmente sistematiche "priorità e pregiudizi dei programmatori"; invece, anche se cerca molto meno posizioni per mossa rispetto a un motore tradizionale, gioca in uno stile aperto e aggressivo e sembra pensare in termini di strategia piuttosto che tattica, come un umano con una visione inquietante. "Poiché AlphaZero si programma da solo", scrive Kasparov, "direi che il suo stile riflette la verità".

Giocare a scacchi come un umano, ovviamente, non è la stessa cosa che pensare agli scacchi come un essere umano, o imparare come un uomo.
C'è un vecchio detto che il gioco è la Drosophila di A.I.: come la mosca della frutta è per i biologi, così sono i giochi come Go e gli scacchi per gli scienziati informatici che studiano i meccanismi dell'intelligenza. È un'analogia evocativa.
Eppure potrebbe essere che il compito di giocare a scacchi, una volta convertito nel compito di cercare decine di migliaia di nodi al secondo in un albero di gioco, eserciti un diverso tipo di intelligenza rispetto a quello a cui teniamo di più. Giocati in questo modo, gli scacchi potrebbero essere più simili a movimenti di terra di quanto pensassimo: un'attività che, alla fine, non è la nostra forza, e quindi non dovrebbe essere tutto ciò che è caro alle nostre anime.
Per imparare, AlphaZero ha bisogno di giocare a milioni di giochi in più rispetto a un essere umano, ma, quando ha finito, gioca come un genio. Si basa su un amalgamazione più veloce di quanto possibile per una persona, attraverso un albero di ricerca profondo, quindi utilizza una rete neurale per elaborare ciò che trova in qualcosa che assomiglia all'intuizione. Sicuramente il programma ci insegna qualcosa di nuovo sull'intelligenza. Ma il suo successo sottolinea anche quanto i migliori giocatori umani del mondo possano vedere attraverso un processo molto diverso, uno basato sulla lettura, sul parlare e sul sentire, oltre al gioco. Ciò che può sorprendere di più è che noi umani abbiamo fatto altrettanto bene nei giochi che sembrano, ora, essere stati creati per le macchine.

>>

Articolo originale in inglese: - The New Yorker -
Giorno: 31/12/2018, 18:55:49
Davvero affascinante, Albitex. Grazie.
Sono una carota in cerca di sè stessa...