Forum pubblico/privato: Pubblico
Permessi di scrittura: Utenti registrati
Giorno: 07/12/2018, 10:52:38
AlphaZero Bis
Pubblicato finalmente su Science l'articolo che tutti attendevano da quasi un anno.

La versione integrale credo che sia accessibile solo a pagamento, ma

Qui

possiamo farci una pallida idea del suo contenuto.

Sono finalmente disponibili i pgn di tutte le partite del discusso match contro SF8 dello scorso anno, più altre sostenute contro la versione di sviluppo del 13 Gennaio 2018 (precedente quindi a SF9), che dovrebbe essere una cinquantina di punti più debole dell'attuale SF10.

Come dire che, ancora una volta, il lupo perde il pelo ma non il vizio! biggrin.gifbiggrin.gif

ciao.gifciao.gif
"TB or not TB..."
Giorno: 13/12/2018, 00:07:35
Link sponsorizzati
Giorno: 07/12/2018, 15:51:04
Ciao Luigi,

dell'articolo è disponibile anche la versione open access, che significa stesso contenuto ma un layout più partano

https://deepmind.com/documents/260/alphazero_preprint.pdf

Grazie per questo aggiornamento!
Hai letto il regolamento?
Giorno: 07/12/2018, 19:07:34
Grazie Claudio.

I nuovi dati forniti rendono più interessante (ed anche più credibile) l'intera vicenda.

Stavolta quelli di AlphaZero hanno voluto fare le cose in grande, estendendo il campione statistico a ben 1000 partite, e soprattutto usando una versione un po' più recente del Baccalà (quella del 13 Gennaio 2018, come si è poi scoperto nella versione finale dell'articolo, successiva al preprint liberamente scaricabile), e utilizzando tempi di riflessione davvero faraonici (3 ore a partita + 15" a mossa! dho.gif).

Lo score finale è stato di 155 vittorie per AZ, 839 pareggi e 6 sole vittorie per il Baccalà. 60 KN/s per l'analisi Montecarlo di AZ contro 60 MN/s per l'analisi alpha/beta di SF (rapporto 1 a 1000). Non si è trattato però di Davide contro Golia perché, a queste condizioni, i valori economici dei due diversi tipi di hardware sono dello stesso ordine di grandezza: intorno alla decina di migliaia di euro per ciascun tipo di macchina!

Con una performance del 57,45%, pari a + 54 Elo a favore di AZ, le cose sono andate decisamente meglio per il Baccalà rispetto a quanto aveva fatto il vecchio SF8.

Il match è stato anche ripetuto assegnando a SF un "forte libro di aperture" (ma non hanno specificato quale).

In questo caso le cose sono andate ancora meglio per SF che, pur perdendo ancora nettamente, giocando di Bianco è riuscito a vincere un discreto numero di partite.

Nell'articolo non viene fornito il dato numerico, ma solo un grafico lineare colorato in corrispondenza del numero di vittorie, pareggi e sconfitte, da cui si deduce che il Baccalà dovrebbe aver vinto una cinquantina di partite (sempre su 1000), col dato finale che si dovrebbe attestare su un vantaggio di una quarantina di punti a favore di AZ.

Ciò pone forti limiti alla pretesa avanzata da molti secondo cui AlphaZero sarebbe il più forte programma in questo momento: se oggi stesso si organizzasse una sfida "seria" con l'ultima dev di SF, fornendogli un libro di aperture tipo "Cerebellum", le SyzygyBase a 7 pezzi e un hardware sul tipo di quelli in possesso del cinese Guo, non scommetterei neanche una vecchia lira sulla vittoria finale di AlphaZero ... biggrin.gifbiggrin.gif

ciao.gifciao.gif
"TB or not TB..."
Giorno: 07/12/2018, 19:56:47
E' vero Luigi, ma siamo comunque ad un punto di svolta nei software scacchistici. Ormai il deep learning ha compiuto passi da gigante.

Da tenere d'occhio un altro interessante motore: Giraffe. La versione attuale, ancora in fase sperimentale, non ha ancora la forza di Leela, ma ha enormi possibilità di miglioramento.

Per saperne di più: Deep Learning Machine Teaches Itself Chess in 72 Hours, Plays at International Master Level
Sono una carota in cerca di sè stessa...
Giorno: 07/12/2018, 20:56:15
In effetti "Giraffe" può essere considerato il vero progenitore di AlphaZero (e quindi, indirettamente, anche di Lc0).

Il suo autore, Mattew Lai, è stato infatti ingaggiato un paio di anni fa dal team della DeepMind di Google e figura fra i firmatari degli articoli su AlphaZero.

Per questo stesso motivo dubito però che Giraffe verrà ulteriormente sviluppato. senzasperanza.gif

Tutti questi programmi basati sull'autoapprendimento e sul metodo Montecarlo giocano decisamente bene la fase di apertura ed operano validissime strategie nel medio gioco, ma lasciano molto a desiderare nella tattica pura e nella conduzione dei finali. Inoltre richiedono schede grafiche o tensoriali di elevatissima potenza per dare il meglio di sé.

Certo però che se si riuscisse ad abbinare in un'unico motore entrambe le strategie di ricerca, alpha/beta con Montecarlo, può darsi che non ci sarà più nulla da fare per qualsiasi programma di tipo convenzionale.

Oltretutto in questo modo si ottimizzerebbero al meglio tutte le risorse hardware di un computer, con la cpu che si occuperebbe a piena potenza della ricerca tradizionale mentre la gpu farebbe lo stesso con quella basata sul Montecarlo.

Chissà che qualcuno (vedi Houdart o Lefer) non ci stia già pensando ... biggrin.gifbiggrin.gif

ciao.gifciao.gif
"TB or not TB..."
Giorno: 08/12/2018, 02:42:11
Dal sito ufficiale di Deep Mind risulta che sono state fatte giocare anche 100 partite tra Alpha e Stockfish usando tutte le aperture del TCEC 2016 con il seguente risultato:

AlphaZero +17
Stockfish 8 +8
Patte 75

Le otto vittorie di Stockfish sono state realizzate tutte con il Bianco, mentre Alpha ha vinto 2 partite di Nero e 15 con il Bianco.
Il match si è disputato il 18.1.2018.
Nello stesso giorno son state giocate anche 110 partite senza nessun libro con il seguente risultato:

AlphaZero +35
Stockfish 8 +3
Patte 72

In questo caso, senza libro, Stockfish ha vinto 2 partite con il Bianco e una di Nero, Alpha 31 con Bianco e 4 con Nero.
Non si riesce a capire i tempi per partita, ma visto che tutte le 210 partite son state giocate il 18 gennaio, presumo che siano stati tempi brevi.

Sito ufficiale DeepMind per il download partite: - AlphaZero Resource -
Giorno: 08/12/2018, 17:53:18
Sicuramente sono apprezzatissime le maggiori informazioni fornite dagli sviluppatori di AlphaZero, è anche vero però che non possiamo prendere per oro colato dati pubblicati da chi è direttamente interessato al successo di AlphaZero. Al di là del fatto che abbiano usato una versione di Stockfish più debole di quella attualmente in circolazione, a mio parere, potremmo valutare l'effettiva forza di gioco di AlphaZero solamente quanto sarà possibile sottoporlo al "peer review" degli appassionati. Avendo a disposizione il software potranno essere effettuati test più imparziali e trasparenti, per il momento ci accontentiamo di un grandissimo potenziale, spero presto confermato dai risultati! ciao.gif
"Niente è più curativo di un gesto umano!" - Bobby Fischer
Giorno: 08/12/2018, 18:04:04
Stockfish super tactical!

Ecco un esempio della forza di SF tratto da una delle 100 partite giocate con le aperture del TCEC 2016 contro AlphaZero.
È vero che il gioco è stato pesantemente influenzato dall'apertura imposta, evidentemente sfavorevole al Nero, ma si evince che quando AlphaZero non può attingere al suo bagaglio di conoscenze creato con le partite di autoapprendimento la sua forza diminuisce notevolmente.

Le mosse imposte dal libro TCEC arrivano fino all'ottava, dalla 9° mossa i motori giocano da soli.

Stockfish 8 – AlphaZero, 1-0, Londra 18.1.2018

You need Javascript enabled to view it.









10…h6?! Dai database si evince che dopo 10…h6 11. 0-0-0 il Bianco ha un elevatissima percentuale di successi. La mossa che ottiene i migliori risultati nelle partite tra maestri è 10…h5 anche se il Bianco sta sempre meglio.

12…Cb6?! Qua i maestri e i motori concordano, la casa buona per il Cavallo nero è f8 e non b6. I maestri giocano tutti 12…Cf8, le rare partite con 12…Cb6 sono di giocatori inferiori a 1800 elo.
In questo caso sembra che l’Intelligenza Artificiale di AlphaZero non sia poi molto intelligente senza le milioni di partite di autoapprendimento…