Forum pubblico/privato: Pubblico
Permessi di scrittura: Utenti registrati
Giorno: 30/05/2019, 13:47:12
Credo che abbia vinto Lc0 51-49 su BrainFish link

Come funzionano i motori NN ?
Stockfish migliora affinando il codice, Lc0 facendo reti neurali migliori ?
Ma pure le reti NN hanno difetti, altrimenti ne esisterebbe solo una e avremo il programma che gioca in modo perfetto...

Dico questo perché osservo dei dati: Lc0 vince su Stockfish di 7 punti e vince su Brainfish di due punti (quasi 4 volte di meno)...
AlphaZero aveva vinto su Stockfish di 28 punti senza subire sconfitte...
C'è molta differenza...
Certo era lo Stockfish di dua anni fa, ma anche Alphazero era di due anni fa
O no ?
Come hanno fatto a fare una NN superiore a quella attuale di Lc0 dopo due anni di partite ?

Continuo a sospettare che sia una questione di HW...
Giorno: 21/08/2019, 16:16:41
Link sponsorizzati
Giorno: 30/05/2019, 19:12:03
E così nemmeno il Cerebellum è riuscito a salvare dalla capitolazione il Baccalà, che ha perso anche stavolta, sia pure di stretta misura. dho.gif

7 a 5 dovrebbe essere stato il computo delle partite decisive, a fronte di 88 patte, con una differenza Elo di soli 7 punti a favore di Leela.

A questo punto Lc0 non sembra avere più nulla da invidiare al suo antesignano AlphaZero della Google (che, non dimentichiamo, battè un motore come il vecchio SF8, sulla carta da 50 a 100 punti più debole, a seconda dei tempi di riflessione, rispetto alle ultime dev sconfitte da Leela), nemmeno dal punto di vista dell'hardware.

Sulle 4 schede tensoriali parallele della Google AZ analizzava, in media, fra i 60 e gli 80 kN/s, valore che viene ora agevolmente raggiunto e superato dalle 4 GPU RTX 2080 ti schierate dalla CCC.

Un hardware di tutto rispetto, ma che con la modica spesa di 5 - 6 mila euro vi portate a casa, sempre che siate figli di un Re ... Mida!

biggrin.gifbiggrin.gifbiggrin.gif

ciao.gifciao.gif
"TB or not TB..."
Giorno: 30/05/2019, 19:42:20
Resta solo da chiedersi perché quelli della Google, pur disponendo di migliaia delle loro schede tensoriali, che utilizzarono per fare in meno di mezza giornata tutto il lavoro di allenamento delle Reti che a quelli di Lc0 ha richiesto oltre un anno, abbiano poi deciso di utilizzarne solo 4 per la sfida con SF8 mmmm.gifmmmm.gifmmmm.gif

Forse per non essere accusati di aver vinto solo grazie a un hardware enormemente superiore, o magari perché hanno scoperto che un parallelismo molto più elevato non riusciva comunque a produrre risultati decisamente migliori, oppure semplicemente perché non hanno voluto strafare.

Chissà ... confused.gifconfused.gifconfused.gif

ciao.gifciao.gif
"TB or not TB..."
Giorno: 30/05/2019, 22:06:03
A me più che il rapporto potenza/hardware, che evidentemente è determinate, mi interessa il discorso del miglioramento di Leela.
Continuerà a migliorare la qualità del gioco di Leela, come teoricamente ci si aspetta da una rete neurale, o ci sarà un appiattimento della parabola ascendente dell'elo di Lc0, con solo più un insignificante aumento di prestazioni?
Vedremo.
E la qualità del gioco migliorerà in ogni fase del gioco, anche nel finale?
Mi sembra comunque strano che quelli di google abbiano accantonato il progetto AlphaZero.
Forse che abbiano riscontrato che qualcosa non va come si aspettavano?
Giorno: 30/05/2019, 23:30:52
@Luigi

per quel che mi pare di ricordare, ci furono polemiche da parte dei programmatori di Stockfish perché quest'ultimo utilizzava un HW che valeva poco, mentre AlphaZero era una bestia

@Albitex
Probabilmente a quelli di google AlphaZero non interessava più di tanto, battendo Stockfish si sono fatti pubblicità facendo vedere l'efficacia della loro rete neurale (le NN saranno il prossimo futuro in tante cose, il che significa $$$) e la cosa è finita lì

Avevo letto tempo fa che le NN prendono pure i pregiudizi (inconsci) dei loro programmatori quando autoapprendono, ma vai a ritrovare l'articolo...
Ho l'impressione (ma potrebbe essere sbagliata, non mi intendo di NN) che per migliorare una rete deve avere un avversario che lo batta in modo da imparare
Ma ora che è praticamente arrivato al vertice, da imparare c'è meno...
Giocare con se stesso a certi livelli dà qualcosa ?
Ho il dubbio di no, bisognerebbe giocare con chi è diverso da te...
Ma le mie sono solo ipotesi
Giorno: 31/05/2019, 16:21:42
Effettivamente quelli della Google hanno realizzato il loro scopo di farsi tanta pubblicità e, come già successo con la IBM dopo il secondo match di Deep Blue contro Kasparov, non hanno più alcun interesse a sviluppare ulteriormente il loro progetto iniziale. dho.gif

Del resto, secondo gli articoli da loro pubblicati, avrebbero verificato l'esistenza di un asintoto orizzontale nella forza di gioco raggiungibile dal motore, osservando che dopo qualche decina di milioni di partite di auto apprendimento, di fatto non aumentava più in maniera apprezzabile.

Sono convintissimo che Lc0 abbia finalmente raggiunto una forza di gioco confrontabile con quella del miglior AlphaZero, per cui può darsi che anche Leela sia prossima a tale asintoto.

Pensavo che potesse averlo già raggiunto tre mesi fa con le ultime Reti della serie 30000, ma evidentemente mi sbagliavo, perché i suoi sviluppatori sono senz'altro riusciti ad aggiungere qualcosina, direi almeno altri 20 o 30 punti, e vedremo fra altri 3 mesi se riusciranno a fare ancora di meglio.

Anche se l'asintoto verrà prima o poi raggiunto, il motore potrebbe però migliorare lo stesso aumentando ancora le dimensioni delle Reti, ma per compensare l'ulteriore rallentamento nella velocità di analisi che ciò inevitabilmente comporterà, potrebbero volerci future generazioni di gpu che farebbero apparire davvero insignificanti quelle attualmente sul mercato ... mmmm.gifmmmm.gifmmmm.gif

ciao.gifciao.gif
"TB or not TB..."