Forum pubblico/privato: Pubblico
Permessi di scrittura: Utenti registrati
Giorno: 31/05/2017, 01:46:38
A.I. e lavoro
Interessante articolo su A.I. e lavoro pubblicato da La Stampa:

Come cambia il mondo del lavoro con l’intelligenza artificiale

Lo scienziato e imprenditore Jerry Kaplan è uno degli esperti del tema. L’utilizzo dei robot porterà a perdite di posti di lavoro, ma anche a benefici per la collettività. Gli uomini però devono puntare sull’apprendimento continuo per creare nuove forme di occupazione.
image 1576

ENRICO FORZINETTI

Sui futuri sviluppi dell’intelligenza artificiale Jerry Kaplan non ha dubbi: «Nel lungo periodo sarà l’intera società a trarne beneficio, sia in termini di ricchezza che di benessere collettivo». Lo scienziato e imprenditore americano si considera tra le persone che vedono con entusiasmo un utilizzo sempre maggiore dei robot nel mondo del lavoro. A dimostrarlo c’è anche un suo libro, pubblicato in Italia nel 2016 con il titolo Le persone non servono: lavoro e ricchezza nell’epoca dell’intelligenza artificiale. Un tema dalle forti ripercussioni sotto il punto di vista sociale e di cui ha anche parlato dal palco del Wired Next Fest 2017 .

CHI RISCHIA DI PIÙ
Certamente ci sono delle professioni più minacciate: in particolare quelle che prevedono compiti specifici, soprattutto dal punto di vista del lavoro manuale, o mansioni basate su transazioni ripetitive o analisi teoriche. E iniziano a proliferare i report sul numero di posti di lavoro che si perderanno di qui ai prossimi decenni.

«Già quattro anni fa il Mit pubblicava uno studio parlando della possibile scomparsa del 50% dei lavori nell’arco dei prossimi 20 anni a causa dell’intelligenza artificiale - spiega Kaplan - In realtà molti di questi posti saranno semplicemente superati, mentre la maggior parte delle attività del futuro oggi non esistono ancora».

Secondo il professore, che tiene un corso sugli impatti economici e sociali dell’intelligenza artificiale alla Stanford University, a salvarsi saranno soprattutto le professioni che prevedono un approccio flessibile ai problemi o qualità umane come l’empatia e la fiducia. Ma nonostante questo i problemi per certe categorie di lavoratori rimangono.

L’IMPORTANZA DELL’APPRENDIMENTO
Il nodo cruciale diventa la technological unemployment, la disoccupazione legata alla mancanza di competenze specifiche per intraprendere nuove professioni. «Bisogna entrare nell’ottica che l’educazione non debba essere rivolta soltanto ai giovani - continua Kaplan - L’apprendimento deve diventare la normalità anche dopo l’ingresso nel mondo del lavoro».

Per garantire questi percorsi formativi l’esperto di intelligenza artificiale propone una forma di prestito finanziato dai privati. «Le banche saranno più disponibili e attente a dare soldi alle persone che vogliono investire in attività con un forte impatto economico e sociale sull’occupazione del futuro. Gli istituti sanno che avranno indietro il denaro quando l’individuo avrà trovato un nuovo lavoro».

Su un possibile reddito di cittadinanza Kaplan appare più incerto: anche se venisse introdotto bisognerebbe capire se lasciare le persone libere di utilizzarlo come meglio credono o se applicare un forte controllo. «Ma la questione centrale è che dobbiamo prenderci la responsabilità di mantenere le persone produttive all’interno società» tiene a sottolineare l’imprenditore.

LE PROSPETTIVE DELLA GIG ECONOMY
Tra le nuove professioni emergenti ci sono quelle legate alla gig economy , la cosiddetta economia on demand ben rappresentata dal fenomeno Uber. «Esiste una classe di persone che potenzialmente sono adatte alla gig economy e che prima erano fuori dal mercato del lavoro - prosegue Kaplan - Ma la vera domanda è capire quale tipo di attività sia migliore per certi individui e quale per altri».

L’economia on demand sembra perfetta per chi ama la flessibilità e non vuole avere un solo datore di lavoro. «In ogni caso continueranno ad esistere occupazioni a tempo pieno perché hanno grandi benefici per i dipendenti e per le aziende - conclude il professore - Utilizzando una metafora: c’è chi pensa che sposarsi non sia la scelta migliore, ma questo non significa che scomparirà il matrimonio. Qualcuno lo troverà sempre vantaggioso per sé e per la società in cui vive».
Giorno: 24/05/2018, 11:55:53
Link sponsorizzati
Giorno: 06/06/2017, 14:03:19
A.I. futuro
Intelligenza artificiale, studio:
"Tra 45 anni i computer saranno meglio di noi in ogni campo"


E tra 120 anni tutti i lavori potrebbero essere automatizzati. È l'opinione che emerge da un sondaggio che ha interpellato oltre 350 esperti del settore.

di SIMONE VALESINI – pubblicato su Repubblica:



SCONFIGGONO già i migliori campioni di scacchi e di Go. Possono vincere milioni di dollari a poker, e pubblicare libri di poesie. Ma il campo dell'intelligenza artificiale oggi è ancora appena agli inizi. E se temete l'inesorabile avanzata delle macchine, la verità è che probabilmente avete ragione. Che poi si riveli un bene o un male – come si suole dire – lo scopriremo solo vivendo. Sì, perché nei prossimi 50 anni i computer potrebbero superare gli esseri umani in ogni campo, e rivoluzionare completamente la nostra società già sul volgere del prossimo secolo, con la totale automazione di ogni aspetto del mondo del lavoro. Questa almeno è l'opinione dei maggiori esperti mondiali di intelligenza artificiale, raccolta da un sondaggio realizzato da un team di ricercatori di Oxford e Yale.

L'occasione – o meglio le occasioni – per fare il punto sul futuro dell'AI (cioè l'Artificial Intelligence) si è presentata durante il Nips e l'Icml 2015, due conferenze internazionali che ogni anno radunano i maggiori esperti mondiali di machine learning e intelligenza artificiale. Tra i due eventi, circa 350 ricercatori hanno accettato di rispondere ad un questionario sui traguardi che verranno raggiunti nei prossimi decenni.


Gli autori del sondaggio hanno quindi fatto una media delle risposte dei partecipanti, ottenendo un quadro piuttosto preciso di cosa si aspettano i protagonisti di questa rivoluzione: per loro l'avanzata delle macchine è inesorabile, e procederà a tappe serrate. Si inizierà sottotono: in 3 anni le intelligenze artificiali giocheranno meglio di noi ad Angry Birds, per vincere sei mesi più tardi le World Series di poker, e arrivare ad imparare come piegare la nostra biancheria entro cinque anni e sei mesi. Tra 10 anni sapranno anche trascrivere qualunque discorso parlato (anche con forte accento e se “ascoltato” in ambienti rumorosi), rimpiazzeranno gli operatori umani dei call center di banche e servizi simili, parleranno con voci indistinguibili da quelle umane e sapranno scrivere piccoli temi come ragazzi del liceo.

A stretto giro inizieranno però le vere conquiste, difficili da ingnorare: tra 11 anni i computer produrranno canzoni in grado di entrare tra le 40 più ascoltate negli Usa, guideranno i camion meglio di un pilota umano, e batteranno qualsiasi atleta umano in una maratona di 5 chilometri. Passando quindi alle cose serie, in media gli esperti intervistati pensano che tra 15 anni i robot saranno in grado di lavorare come commessi in un negozio, entro 33 anni scriveranno best seller e raggiungeranno le capacità matematiche di uno studente universitario. Tre anni dopo, nel 2053, ruberanno il lavoro ai chirurghi umani. E infine tra 45 anni, cioè nel 2062, raggiungeranno quella che viene definita “High-level machine intelligence”: il momento in cui una macchina, senza alcun aiuto esterno, potrà svolgere qualunque lavoro meglio, e più economicamente, di un essere umano.

È a quel punto che verremo soppiantati? Non proprio, ma accadrà anche questo: secondo gli esperti infatti nel giro di 120 anni tutti i lavori umani saranno svolti da robot e computer. Che ne sarà di noi a quel punto è difficile da prevedere. La società umana potrebbe evolvere in meglio, o potrebbe ricevere un colpo definitivo. Dal canto loro gli esperti sono, ovviamente, ottimisti: gli sviluppi delle AI avrebbero il 25% di probabilità di rivelarsi positivi, e il 20% di rivelarsi estremamente positivi (piuttosto che rivelarsi semplicemente ininfluenti). E ci sarebbe solo il 5% di probabilità che robot e intelligenze artificiali producano effetti catastrofici, come a dire: l'estinzione della razza umana. A ben pensarci, un pericolo non da poco. E infatti per quanto le probabilità sembrino limitate, il 45% degli esperti ritiene che le ricerche volte a minimizzare i rischi delle AI dovrebbero essere considerate una priorità.

Queste le previsioni degli esperti. Ma quanto sono affidabili? Non molto, ammettono gli stessi autori della ricerca, almeno a guardare simili esperimenti svolti ad esempio nel campo delle scienze politiche. I progressi della tecnologia – ricordano però i ricercatori – continuano a dare frutti con una cadenza estremamente regolare, e questo potrebbe rendere più facile prevederne gli esiti futuri. Molte delle tappe immaginate dagli esperti, comunque, sono situate nei prossimi 5 o 10 anni, e non ci sarà da attendere troppo per scoprire se avranno avuto ragione.
Giorno: 24/07/2017, 01:04:34
A.I. art La Stampa
Articolo su La Stampa:

Sfida tra intelligenze artificiali per difendere i computer da malware e spam

Per cinque mesi i sistemi di machine learning dei grandi nomi dell’hi tech si batteranno uno contro l’altro per capire come rendere più sicuri i pc

image 1593

23/07/2017
Le battaglie tra algoritmi si combattono già tutti i giorni, ad esempio quando un messaggio di spam riesce ad aggirare i filtri o un virus sconfigge i programmi per bloccarlo. Per capire come migliorare le difese sta per iniziare una grande sfida tra intelligenze artificiali, racconta la rivista del Mit, in cui i diversi programmi cercheranno di sconfiggersi a vicenda per capire quali sono i punti deboli.

L’oggetto della sfida, organizzata sulla piattaforma Kagledda Google Brain, la divisione dell’azienda di Mountain View che si occupa di questo tipo di algoritmi, sono in particolare i programmi ad apprendimento automatico, quelli in cui si danno i dati e un obiettivo alla macchina, e questa deve raggiungerlo sviluppando da sola il proprio algoritmo. Questi programmi sono sempre più usati, ma si è scoperto che anche i più avanzati possono essere vittime di inganni.

Nei prossimi cinque mesi gli algoritmi messi a punto da diversi gruppi di ricerca avranno tre compiti: una sfida sarà di cercare di confondere un sistema di apprendimento per non farlo lavorare correttamente, un’altra invece di far classificare all’avversario qualcosa in maniera sbagliata mentre la terza prova riguarda lo sviluppo della difesa migliore contro gli avversari.

«L’apprendimento in una sfida è molto più difficile da studiare di quello convenzionale, perchè è difficile dire se l’attacco è forte o se invece la difesa è debole - spiega Ian Goodfellow, uno degli organizzatori -. Con il machine learning che diventa sempre più pervasivo la paura è che questo tipo di attacchi possa essere usato per ottenere profitti illegali o comunque per danneggiare sistemi. La sicurezza informatica sta decisamente virando verso il machine learning. I cattivi lo useranno sempre di più per automatizzare i loro attacchi, e noi per difenderci».

Questo tipo di battaglie non è nuovo nel mondo informatico, sempre alla ricerca di vulnerabilità nei programmi che possono essere sfruttate da malintenzionati. Lo scorso anno ad esempio la Darpa, il braccio tecnologico della Difesa statunitense, aveva organizzato il Cyber Grand Challenge, una sfida in contemporanea tra sette supercomputer che, senza interventi esterni dopo la programmazione iniziale, dovevano cercare di hackerare gli avversari difendendosi dai loro attacchi.
Giorno: 30/07/2017, 02:49:46
A.I. e S. Hawking
Intervista della BBC al famoso fisico Stephen Hawking, segnalata da Kasparov.
In questa intervista Hawking espone un parere opposto a quello di Kasparov, che afferma che non bisogna avere paura delle macchine intelligenti. Hawking pensa il contrario.

>>

Stephen Hawking avverte che l'intelligenza artificiale potrebbe mettere fine all'umanità.

Prof Stephen Hawking, uno degli scienziati preminenti della Gran Bretagna, ha affermato che gli sforzi per creare macchine pensanti rappresentano una minaccia per la nostra stessa esistenza.

image 1594

Ha detto alla BBC: "Lo sviluppo di un'intelligenza artificiale completa potrebbe determinare la fine della razza umana".

Il suo avvertimento è venuto in risposta a una domanda su un rinnovo della tecnologia che usa per comunicare, che comporta una forma di base di AI.

Ma altri sono meno pessimisti sulle prospettive dell'AI.

Il fisico teorico, che ha la sclerosi laterale amyotrofica della malattia del motoneurone (ALS), sta usando un nuovo sistema sviluppato da Intel per parlare. Nella sua creazione sono stati coinvolti anche gli esperti di Machine learning della società britannica Swiftkey. La loro tecnologia, già impiegata come app di tastiera per smartphone, impara come il professore pensa e suggerisce le parole che potrebbe desiderare di utilizzare successivamente.

Il prof Hawking dice che le forme primitive dell'intelligenza artificiale sviluppate finora sono già state molto utili, ma teme le conseguenze di creare qualcosa che possa corrispondere o superare gli esseri umani.
"Sarebbe decadente da sola, e si ricostruirebbe ad un tasso sempre crescente", ha detto.
"Gli esseri umani, che sono limitati dalla lenta evoluzione biologica, non potrebbero competere e sarebbero sostituiti".

Ma altri sono meno pessimisti.
"Credo che rimarremo responsabili della tecnologia per un lungo periodo decente e il potenziale di risolvere molti dei problemi del mondo sarà realizzato", ha detto Rollo Carpenter, creatore di Cleverbot.
Il software di Cleverbot impara dalle sue conversazioni passate e ha ottenuto punteggi elevati nel test di Turing, ingannando una grande percentuale di persone a credere che stanno parlando con un essere umano.

Crescita dei robot.

Il signor Carpenter afferma che siamo ancora lontani d’avere il potere di elaborazione o di sviluppare gli algoritmi necessari per ottenere una completa intelligenza artificiale, ma crede che verrà nei prossimi decenni.
"Non possiamo sapere cosa accadrà se una macchina supera la nostra intelligenza, quindi non possiamo sapere se saremo infinitamente aiutati, ignorati e distrutti, o concepiti per distruggerci", dice.
Ma scommette che AI sarà una forza positiva.

Il prof Hawking non è solo nel timore del futuro.
A breve termine, ci sono preoccupazioni che le macchine intelligenti in grado di intraprendere attività svolte fino ad ora dagli esseri umani, distruggeranno rapidamente milioni di posti di lavoro.
A lungo termine, l'imprenditore tecnologico Elon Musk ha avvertito che l'AI è "la nostra più grande minaccia esistenziale".

Voce robotica.

Nella sua intervista della BBC, il prof Hawking parla anche dei vantaggi e dei pericoli di internet.
Cita il caso d’avvertimento di GCHQ sulla rete, che diventa il centro di comando per i terroristi: "Deve essere fatto di più da parte delle aziende internet per contrastare la minaccia, ma la difficoltà è farlo senza sacrificare la libertà e la privacy".

Tuttavia, è stato un entusiasta adottatore di tutti i tipi di tecnologie di comunicazione e non vede l'ora di poter scrivere molto più velocemente con il suo nuovo sistema.

Un aspetto della propria tecnologia - il suo computer generatore di voce - non è cambiato nell’ultimo aggiornamento.
Il Prof Hawking concede che è leggermente robotica, ma insiste che non voleva una voce più naturale.
"È diventato il mio marchio, e non lo cambierei per una voce più naturale con un accento britannico", ha detto.

"Mi è stato detto che i bambini che hanno bisogno di una voce del computer ne vogliono uno (computer) come il mio".

Articolo originale in inglese: - articolobbc -
Giorno: 24/11/2017, 09:09:42
Penrose e A.I.
Penrose ipotizza, nel libro La mente nuova dell'Imperatore del 1989, con un'analogia peraltro controversa e discutibile sui teoremi di incompletezza di Gödel, che il cervello umano disponga di funzioni non-algoritmiche e che quindi i suoi processi non siano formalizzabili e computabili, quindi non riproducibili sul piano informatico.

Intelligenza umana e intelligenza artificiale secondo Penrose

Penrose ha scritto vari libri divulgativi. In La mente nuova dell'imperatore e Ombre della mente, dopo aver descritto lo status attuale della fisica, egli affronta i limiti teorici dell’intelligenza artificiale e sostiene che esistono delle differenze intrinseche e ineliminabili fra l'intelligenza artificiale e l'intelligenza dell'uomo. In questi libri, egli cerca di dimostrare questa affermazione, osservando che l'uomo può compiere operazioni che non sono riconducibili alla logica formale, come sapere la verità di asserzioni non dimostrabili o risolvere il problema della terminazione. Queste affermazioni furono fatte in origine dal filosofo John Lucas del Merton College dell’università di Oxford. Egli sostiene una forma di anti-riduzionismo in questo campo.

Roger Penrose viene da una famiglia di scienziati e artisti; è figlio del genetista, psichiatra e matematico Lionel Penrose, e un suo fratello, Jonathan, è grande maestro di scacchi.

Penrose, espone i suoi dubbi sulla meccanica quantistica e sulla possibilità che questa potesse essere la teoria finale, in grado di spiegare tutti i processi fondamentali. In pratica le idee di Penrose, risultarono un feroce attacco all'Intelligenza Artificiale. "E' impossibile che la meccanica quantistica possa arrivare a spiegare la mente umana e che un qualsiasi dispositivo elettronico la possa sostituire": questa era la sua tesi che provocò aspre reazioni da parte dell'ampia schiera dei seguaci dell'Intelligenza Artificiale.

Le polemiche continuano ancora oggi, con un vivace dibattito che contrappone in particolare Stephen Hawking a Penrose, due scienziati che hanno svolto insieme molte ricerche nell'ambito dell'astrofisica e della cosmologia. E' un dibattito che ricorda quello storico, sempre sull’efficacia della meccanica quantistica, e che oppose negli anni venti Albert Einstein a Niels Bohr. Il primo non poteva accettare la natura probabilistica della meccanica quantistica, difesa invece da Bohr. "Dio non gioca a dadi" è la celebre battuta di Einstein e "Einstein deve smetterla di dire a Dio che cosa debba fare" è la risposta di Bohr.
Ora, in termini ovviamente più moderni, questo dibattito ritorna, con Penrose e Hawking come protagonisti. "L'Universo - si chiede Penrose - è governato unicamente dalle leggi della meccanica quantistica?" E aggiunge: "Qualcosa di nuovo si presenterà e cambierà profondamente la struttura di questa teoria".
La meccanica quantistica viene invece difesa da Hawking il quale aggiunge a proposito dell’Intelligenza Artificiale: “Non vedo alcuna ragione per cui l’intelligenza non possa essere simulata su un computer. Indubbiamente, per il momento, non siamo in grado di simulare l’intelligenza umana. Ma Penrose ammette pure che non c’è nessuna linea divisoria tra intelligenza umana e animale. Pertanto gli sarebbe stato sufficiente considerare l’intelligenza di un lombrico. Non credo che si possa mettere in dubbio la possibilità di simulare il cervello di un lombrico su un computer”.

Teoremi di incompletezza di Gödel
Ma, in cosa consistono i teoremi di incompletezza di Gödel, a cui Penrose si appoggia nei suoi testi per sostenere le sue teorie?

In logica matematica i teoremi di incompletezza di Gödel sono due famosi teoremi dimostrati da Kurt Gödel nel 1931. Essi fanno parte dei teoremi limitativi, che precisano cioè le proprietà che i sistemi formali non possono avere.

Con qualche semplificazione, il primo teorema di Gödel afferma che:
In ogni formalizzazione coerente della matematica che sia sufficientemente potente da poter assiomatizzare la teoria elementare dei numeri naturali — vale a dire, sufficientemente potente da definire la struttura dei numeri naturali dotati delle operazioni di somma e prodotto — è possibile costruire una proposizione sintatticamente corretta che non può essere né dimostrata né confutata all'interno dello stesso sistema.

Merito di Gödel fu dunque l'aver esibito tale proposizione e la vera potenza di tale teorema è che vale "per ogni teoria affine", cioè per qualsiasi teoria formalizzata, forte quanto l'aritmetica elementare. In particolare Gödel dimostrò che l'aritmetica stessa risulta incompleta: vi sono dunque delle realtà vere ma non dimostrabili.

//

Il secondo teorema di incompletezza di Gödel, che si dimostra formalizzando una parte della dimostrazione del primo teorema all'interno del sistema stesso, semplificando afferma che:

Nessun sistema, che sia abbastanza espressivo da contenere l'aritmetica e coerente, può essere utilizzato per dimostrare la sua stessa coerenza.

Il secondo teorema di incompletezza di Gödel mostra che, dato che nemmeno un sistema particolarmente semplice come quello dell'aritmetica elementare può essere utilizzato per provare la propria stessa coerenza, così, a maggior ragione, esso non può essere utilizzato per dimostrare la coerenza di sistemi più potenti.
Giorno: 06/02/2018, 15:43:54
A.I. batte l'uomo in lettura.
Per la prima volta un software di A.I. ha superato l'uomo nella lettura e comprensione di un testo.
Anzi, in realtà i programmi A.I. che hanno sconfitto l'uomo in una prova di lettura ad inizio anno sono ben 2, uno della compagnia cinese Alibaba e l'altro di Microsoft.


image 1648

Le tecnologie A.I. di Alibaba e Microsoft, si sono cimentate con il test di lettura e comprensione "SQuAD" realizzato dall'Università di Stanford. Il quiz si compone da 100mila domande relative a 500 articoli di Wikipedia. Il 3 gennaio scorso l'intelligenza artificiale dell'azienda cinese ha ottenuto un punteggio di 82.440 contro quello di 82.304 ottenuto da un team di persone in carne e ossa. Due giorni dopo la soluzione di Microsoft ha superato entrambe con un punteggio di 82.650.

Il test di lettura di Stanford genera domande su un insieme di articoli di Wikipedia.
Ad esempio, un gruppo umano o un programma di intelligenza artificiale legge un passaggio sulla storia della serie televisiva britannica Doctor Who e quindi poi deve risponde a domande come "Qual è il nome della nave spaziale del Doctor Who?" (Avviso per chi non è un fan della serie TV: è il TARDIS).

Luo Si, lo scienziato capo dell'elaborazione del linguaggio naturale presso il gruppo di ricerca AI dell'azienda cinese, ha definito il risultato raggiunto "un grande onore", ma ha anche riconosciuto che il veloce progresso dell'A.I probabilmente porterà a un numero significativo di lavoratori che perdono il lavoro a causa delle macchine.

Articolo completo in inglese: - Articolo eng -

image 1647
Giorno: 16/02/2018, 09:48:32
"Ecco come ci difenderemo dall’intelligenza artificiale"
- Articolo da La Stampa di Bruno Ruffilli -
*

Da maggio ogni cittadino della Comunità europea avrà il diritto sapere se una decisione che lo riguarda viene presa da un algoritmo. E intanto in auto, servizi ed esercito è partita la corsa a quattro Usa-Cina-Russia-UE.

L’economia mondiale entro il 2020 avrà una crescita dei profitti pari a 4,8 trilioni di dollari per il boom dell’intelligenza artificiale.

Come tutte le più grandi imprese umane, la corsa all’intelligenza artificiale intreccia ideali altissimi e interessi concreti. Cristoforo Colombo scoprì l’America cercando una nuova rotta commerciale, sulla Luna siamo arrivati perché gli Stati Uniti volevano mostrare, in piena guerra fredda, di essere più avanti della Russia nella ricerca tecnologica.
-

Cos’è l’intelligenza artificiale

Oggi il presidente russo Putin non ha dubbi: «Chi svilupperà la migliore intelligenza artificiale diventerà padrone del mondo». Un ’etimologia molto comune del termine intelligenza rimanda alla capacità di «leggere dentro» le cose, un’altra a quella di «leggere tra le cose». Già qui, insomma, non è chiaro se l’intelligenza sia la capacità di risolvere problemi e immaginare situazioni nuove, oppure quella di unire tra loro conoscenze già esistenti. Una questione non trascurabile, che tuttavia non ha impedito lo sviluppo e l’adozione dei test d’intelligenza: così misuriamo non si sa come una qualità che non sappiamo cos’è.
Studiare l’intelligenza artificiale vuol dire studiare l’intelligenza umana, comprenderne il funzionamento per replicarne i meccanismi. Per lo scienziato britannico Alan Turing, ad esempio, una macchina è intelligente se è capace di convincere chi la sta utilizzando che ha di fronte una persona. Il computer risponde a domande specifiche, rivolte contemporaneamente anche a un uomo, e i membri della giuria devono cercare di capire chi dei due è il loro interlocutore. Il test, descritto in Macchine calcolatrici e intelligenza, si considera superato se il computer riesce a ingannare i giudici almeno un terzo delle volte. «In tutte le definizioni di intelligenza c’è un punto debole», osserva Marcello Pelillo, professore ordinario di informatica all’Università Ca’ Foscari di Venezia e direttore dello European Centre for Living Technology. «Il test di Turing fornisce però una definizione operativa, basata su quello che una macchina è in grado di fare, e per questo dopo 68 anni è ancora valido».
-

I simboli manipolati

Turing aveva previsto che un giorno o l’altro un calcolatore avrebbe superato la sua prova, eppure il criterio con cui una macchina viene equiparata a un essere umano non lusinga né l’uno né l’altro: l’intelligenza artificiale è la capacità di ingannare gli uomini, di far credere di essere diversi da quello che si è. Ma simulare un pensiero è già un pensiero? «Allo stato attuale, è difficile sostenere che i computer siano capaci di pensare - prosegue Pelillo - non fanno altro che manipolare dei simboli». Analizzano quantità enormi di dati e forniscono risposte a precise domande, tenendo conto dell’interlocutore, della situazione, del contesto. A Siri chiediamo che tempo fa, a Google Assistant se c’è traffico, a Cortana di suggerirci un film da vedere, ad Alexa di suonare una canzone. Sistemi più complessi investono in borsa, controllano reti elettriche, interpretano esami clinici, tracciano rotte di aerei e camion. Ma l’intelligenza artificiale dà risposte, non fa domande: a porle è l’intelligenza umana.
-

La macchina che impara da sola

Senza scomodare il «cogito ergo sum» di Cartesio, quello di un computer non si può davvero chiamare pensiero, perché la macchina non è consapevole di essere il soggetto che pensa. Analizza milioni di immagini, impara a riconoscere un cane o un gatto, da sola corregge i suoi errori e affina il suo algoritmo, eppure non sa cosa sta facendo. L’intelligenza artificiale batte l’uomo a scacchi o a Go, ma non conosce la differenza tra gioco e realtà; scopre nuovi pianeti, tuttavia non sa cos’è un pianeta. Il machine learning accresce la conoscenza, insomma, non la coscienza. E può diventare un problema, se all’intelligenza artificiale vengono delegate decisioni che ricadono direttamente nel campo dell’etica: messa di fronte alla scelta, un’auto a guida autonoma salverà il conducente anziano o il bambino che attraversa la strada? Condannerà sempre alla pena giusta l’imputato, anche se appartenente a una minoranza etnica o culturale? «Nel machine learning si fa addestramento e si forniscono dati, ma è la macchina a processarli», spiega ancora Pelillo. «Il risultato finale è qualcosa che non possiamo prevedere, in cui è difficile parlare di responsabilità diretta di un programmatore. Certo, possiamo vigilare perché i dati forniti siano il più possibile privi di pregiudizi e inclinazioni umane, ma soprattutto perché sia trasparente il processo decisionale dell’intelligenza artificiale». L’intelligenza che spiega se stessa viene definita XAI, Explainable Artificial Intelligence, ed è oggetto di ricerca dagli anni Settanta; con le nuove norme europee sulla protezione dei dati, però, sarà presto anche una parte della nostra vita di tutti i giorni. Da maggio, infatti, ogni cittadino della Comunità potrà chiedere di sapere se una decisione importante che lo riguarda viene presa da un algoritmo, e sulla base di quali ragioni. Per una volta la legge è più avanti della tecnologia.
-

La battaglia economica
«È cominciata la gara per la superiorità nell’intelligenza artificiale a livello nazionale, da qui potrebbe nascere la Terza Guerra Mondiale», ha scritto su Twitter Elon Musk. Musk è il fondatore di Tesla e di altre imprese hi-tech al limite della fantascienza, quindi non può certo essere tacciato di luddismo. Ma il dubbio che possa aver ragione viene davvero, a leggere l’ambizioso piano della Cina per diventare leader globale dell’intelligenza artificiale. È strutturato in tre tappe quinquenniali: mettersi al passo di tecnologie e applicazioni entro il 2020; raggiungere obiettivi primari entro il 2025; fare della Cina il Paese con l’intelligenza artificiale più sviluppata al mondo entro il 2030. I settori legati all’intelligenza artificiale sono valutati 1.000 miliardi di yuan, e Pricewaterhouse Coopers prevede che il comparto contribuirà a far crescere del 26 per cento il prodotto interno della Repubblica popolare entro il 2030. Nel Paese esistono condizioni ideali per lo sviluppo dell’intelligenza artificiale: oltre agli investimenti (nei prossimi cinque anni 150 miliardi di yuan, circa 22 miliardi di dollari), una tecnologia molto avanzata, ingegneri ben preparati, una base dati enorme da cui poter attingere in quasi totale libertà.
La crescita è globale: gli investimenti di venture capital in intelligenza artificiale nei primi nove mesi del 2017 sono arrivati a 7,6 miliardi di dollari, contro i 5,4 miliardi dell’intero 2016 (fonte PitchBook). La partita si gioca soprattutto tra Cina e America, anche se - come sottolinea il vice-presidente della Commissione europea Andrus Ansip - oggi è l’Europa il primo produttore mondiale di robot. Dal punto di vista dei finanziamenti, il vecchio continente è indietro rispetto alla Repubblica popolare, e il progetto Sparc, uno dei più importanti, conta per il periodo 2014-2020 su 700 milioni di euro di fondi comunitari, cui si aggiungono 2,1 miliardi di investimenti privati. Però a Bruxelles si discute un protocollo per la libera circolazione di dati pubblici e privati, che potranno essere utilizzati per il machine learning, e si assegnano fondi a favore delle ricerche sui nuovi computer quantici, che promettono potenze di calcolo assai superiori a quelle attuali.
Sull’intelligenza artificiale puntano tutti i grandi dell’hi tech, da Google a Facebook, da Baidu a Microsoft: «Assumono sempre più spesso ricercatori di fama - osserva Pelillo - e per noi è un problema grave perché l’agenda è dettata dalle aziende, non dalle università. Non è una buona notizia che la ricerca scientifica sia dominata da un tema unico, come oggi il machine learning, ma si spiega col fatto che queste aziende hanno accesso a dati, infrastrutture e macchine come nessun altro».
L’intelligenza artificiale, secondo un recentissimo studio di Accenture Strategy, potrebbe incentivare l’occupazione e far crescere i ricavi delle imprese, addirittura del 38% entro il 2020, se investiranno in una efficace cooperazione uomo-macchina. Per l’economia mondiale globale significherebbe una crescita dei profitti pari a 4,8 trilioni di dollari, ma soprattutto un profondo ripensamento del sistema produttivo: alle macchine verrebbero affidati i compiti più semplici, mentre milioni di lavoratori in tutto il mondo dovrebbero inventarsi un nuovo ruolo e una nuova funzione. Una nuova rivoluzione industriale, che inevitabilmente lascerà indietro qualcuno: per questo il Papa ha auspicato in una sua missiva ai grandi della Terra riuniti a Davos «una società inclusiva, giusta e che dia supporto». Il Pontefice ha anche sottolineato che «l’intelligenza artificiale, la robotica e altre innovazioni tecnologiche devono essere impiegate per contribuire al servizio dell’umanità e per la protezione della nostra casa comune piuttosto che il contrario, come purtroppo prevedono alcune valutazioni».
-

Armi intelligenti?

L’intelligenza artificiale sarà impiegata infatti nelle auto, nei trasporti, nelle città, nell’industria, nei servizi, ma pure negli eserciti, per creare strumenti sempre più distruttivi e mezzi di difesa sempre più efficaci. Un recente rapporto di Harvard definisce il potenziale impatto dell’intelligenza artificiale nel settore militare «potente come quello della bomba atomica». Anzi di più, perché per costruire una bomba atomica servono ancora strutture e competenze di cui pochi Paesi dispongono, mentre sviluppare un software per ingannare la struttura informatica di un esercito nemico è un’operazione relativamente a buon mercato. La Russia lavora da tempo a droni e veicoli militari autonomi e starebbe sviluppando missili capaci di individuare i radar sulla rotta e decidere da soli altitudine, velocità e direzione del volo in modo da non essere intercettati.

Entro il 2025 Mosca conta di avere il 30 per cento delle armi in dotazioni all’esercito controllate da qualche forma di intelligenza artificiale. Già due anni fa ha presentato Platform-M, un robot da usare in zone di guerra, munito di cingoli e armato con Kalashnikov e granate: ideale per pattugliare aree a rischio, per azioni di difesa, ma capace anche di attaccare, specie di notte. Non è solo un prototipo: è stato già impiegato in diverse operazioni militari. Per questo si moltiplicano gli appelli di scienziati e filosofi affinché l’uso dell’intelligenza artificiale in campo militare sia regolato internazionalmente. Se n’è discusso anche alla Camera, qualche mese fa: l’Italia non può dirsi all’avanguardia nel settore, ma almeno la questione è stata sollevata.
-

La risposta

Le ricerche procedono veloci e c’è chi, come Ray Kurzweil, prevede che i computer raggiungeranno davvero un’intelligenza di livello umano; anzi, il responsabile delle ricerche sul machine learning di Google indica anche una data: il 2029. Questione di qualche anno, poi, sempre secondo Kurzweil, nel 2045, arriverà la singolarità tecnologica: l’intelligenza artificiale supererà quella umana. I computer inventeranno altri computer, più intelligenti, e così via, in una catena senza fine. Riuscire a far brillare nel silicio la luce dell’intelligenza sarebbe la più grande conquista umana, come nota Steven Hawking, ma da sogno potrebbe trasformarsi in un incubo. Lo racconta bene lo scrittore Fredric Brown, in un racconto del 1954, The Answer. «C’è Dio?», chiede un ingegnere al mostruoso intrico di computer composto da tutti i calcolatori dei 96 miliardi di pianeti abitati. E la macchina risponde: «Sì: adesso, Dio c’è».
Giorno: 22/05/2018, 18:00:32
A.I. altri pareri
Pubblico questo articolo, tratto da il mensile "Il Dirigente", molto critico nei confronti dell'A.I. o per lo meno dell'immagine mediatica di essa.
Credo che quando si tratta di un argomento, bisogna prendere in considerazioni tutte le opinioni a riguardo, poi ognuno giungerà alle proprie conclusioni.
//

Deficienza artificiale
- La macchina è stupida, l’uomo pure


(Articolo di Thomas Bialas, da "Il Dirigente" mensile - aprile 2018)


Uomini stupidi si fanno raccontare da altri uomini altrettanto stupidi che non esistono macchine stupide.

Diventa così plausibile parlare di intelligenza artificiale anche in presenza di un aspirapolvere robotizzato.
Occhio: la macchina fa cose stupide (compiti specifici) anche quando vincere contro il campione mondiale di Go la fa sembrare intelligente. Per il Go, va detto, come ha fatto notare il Chaos Computer Club, che bastava rimpicciolire o ingrandire di poco la scacchiera per mandare in palla il sistema (l’uomo si sarebbe adattato con nonchalance).

Per Rodney Brooks, studioso di robotica ed ex direttore del laboratorio di informatica e intelligenza artificiale del MIT, «l’AI è una gigantesca bolla, o meglio balla», per l’informatico Jaron Lanier «l’idea stessa è una frode» e per Noam Chomsky «il pensiero è una caratteristica umana>>.

Un giorno l’AI penserà davvero? È come chiedere se i sottomarini nuotano. Se lo chiami nuoto, i robot penseranno, sì».
Mentre in tempi recenti il cognitivista Howard_Gardner ha smontato ben 15 miti dell’intelligenza artificiale.

Aggiungo: riconoscere un volto non significa trovarlo interessante e imparare dagli errori non significa provare rimorso. Gli scienziati e i tecnici addetti al “nutrimento” delle macchine parlano di algoritmi, big data, elaborazione, mica di intelligenza artificiale, la quale è solo l’ennesimo religioso oppio del popolo in salsa tech. Pura mitologia: da Scientology a Artificiology il passo sarà breve. Tutto bene, ma forse, come mi ricorda il mio amico Luca De Biase, «la premessa della deficienza artificiale è la deficienza umana». Condivido.
Giorno: 22/05/2018, 22:05:08
Nella prima metà del '700 una xilografia riportava il sole e l'uomo nella beatitudine contemplativa di questo; era il "flash" che sintetizzava la rivoluzione copernicana.

Viene fuori un originale pensatore che dichiara «la premessa della deficienza artificiale è la deficienza umana»; cosa vuol dire nella sua estesi?

Vuole essere la sintesi di un giudizio scientifico circa la conoscenza quale preludio dello sviluppo di possibile benessere della subalternità di entrambi verso chi, o cos'altro?

Ai "liberi pensatori" amanti d'apparire originali, comunque a prescindere, vale ricordare il principio di "universalità, necessità, fecondità" che regge ( nessuno se n'è lamentato) il traguardo della conoscenza?

Il giudizio,come quello riferito dell'originale pensatore, consegna nulla al contenuto del soggetto; qual'è il soggetto e il predicato? Manca di analiticità.
Se si vuole accettare il giudizio che, individuato il predicato, si può affermare che aggiunge un concreto contenuto al soggetto?

La "macchina" può prescindere dall'esperienza dell'uomo? Deve la sua procreazione invece per merito dell'uomo e dalla sua esperienza?

Ogni innovazione si caratterizza per la conoscenza scientifica che sia valida per tutti gli uomini, deve mantenere una specifica validità senza tempo e luogo e tutto deve amplificare il patrimonio della conoscenza dell'uomo; una "fecondità", appunto.

La cosiddetta "intelligenza artificiale" è l'amplificazione, l'estensione, il concreto dell'intelletto dell'uomo ed è la prova provata della evoluzione dei mezzi di cui continua a dotarsi la specie umana.

L' "intelligenza artificiale" sarà il piacere del genere umano che potrà servirsene a piacimento...., fino a quando sarà ritenuta utile, naturalmente.
"Chiunque desideri diventare un fuoriclasse deve affinare le sue capacità nell'analisi scacchistica" (M. Botvinnik)