Primi passi verso il computer senziente?
Pagina 1 di 1
Primi passi verso il computer senziente?
Sembra proprio di sì, complice lo stanziamento del governo USA per un progetto targato IBM, volto a realizzare un supercomputer che sappia interpretare informazioni sensoriali e prendere decisioni in autonomia. Un passo verso la singolarità tecnologica?
Il CEO di Intel ha rinfrescato la memoria: ancora 40 anni e tutto questo potrebbe avverarsi. Messa in questi termini sembra quasi qualcosa di soprannaturale, su cui la letteratura ed il cinema di fantascienza hanno già attinto non poco e sicuramente continueranno a farlo. La parola "avvento" ha poi un non so che di fatalistico e di mistico al contempo, qualcosa da subire senza poterci fare molto. Nella realtà dei fatti però, qualora le previsioni di Intel di avverassero, ci sarebbe ben poco di casuale e molto di pratico. Se Intel si sbilancia vuol dire che qualcosa bolle in pentola e che qualche prototipo molto rudimentale ha già dato indicazioni incoraggianti. In questi giorni si viene a conoscenza di un ambizioso progetto che coinvolge diversi enti e aziende degli Stati Uniti d'America, fra cui IBM e cinque università. Obiettivo quello di porre le basi per un supercomputer "senziente", dotato di un numero imprecisato di sensori ma che sappia in un futuro riconoscere immagini ed oggetti, prendere decisioni, analizzare dati e sensazioni. Attenzione però: la base di partenza non è quella solita. Qui si parte in tutt'altro modo, avendo come obiettivo il processo cognitivo del cervello umano, come testimonia la partecipazione al progetto di gruppi di ricerca universitari dei dipartimenti di neurobiologia e psichiatria, oltre a quelli più puramente tecnici. Questo non significa che tutto il processo cognitivo della macchina ideata sarà basato su sensori o altre fonti esterne. E' ovvio che, trattandosi di macchina, una programmazione alla base ci dovrà essere, ma è più che altro il modo in cui verranno caricati ed elaborati i dati che appare rivoluzionario. Un progetto ancora acerbo e in parte su carta, che dovrà scontrarsi contro molti problemi di natura pratica non ultima la potenza di calcolo, di cui però parleremo più avanti. Il progetto verrà finanziato inizialmente con circa 5 milioni di Dollari USA, provenienti nella quasi totalità dall'ente governativo USA indicato come DARPA, Defense Advanced Research Projects Agency, e rientra in quello più ampio chiamato SyNAPSE, Systems of Neuromorphic Adaptive Plastic Scalable Electronics. Detto in parole più semplici, il nuovo computer senziente verrà finanziato dal governo USA per mezzo del dipartimento della Difesa; gente che se si muove non scherza, insomma.
La grande novità del progetto è dovuta al fatto che tutto nasce operando una sorta di reverse-engeneering delle tecniche di apprendimento del cervello umano, che è di fatto il più studiato. E' qui che entrano in gioco i neurobiologi e gli psicologi, che di fatto dettano legge all'interno del progetto. Non siamo quindi nella situazione in cui un computer preesistente come BlueGene viene utilizzato per simulare, ma si intende realizzare qualcosa di totalmente nuovo partendo dai sensori, creando un percorso a rovescio dove i tecnici cercano di realizzare il centro di calcolo vero e proprio adattandolo agli "stimoli" esterni. Un cervello umano sano è in grado di ricevere informazioni da vista, tatto, olfatto, gusto e udito, oltre a relazionarsi in modo corretto con le coordinate spazio e tempo. Il nostro cervello è inoltre in grado di gestire e far interagire con estrema efficacia tutte queste informazioni, ad un "prezzo" in termini energetici assolutamente vantaggioso. Diverse le sfide che si troverà di fronte il nuovo computer senziente. Non è tanto il numero di neuroni da simulare che preoccupa, quanto la gestione delle sinapsi virtuali, ovvero le connessioni fra i neuroni/nodi di calcolo. E' l'attivazione, inibizione o i percorsi dei neurotrasmettitori a livello di sinapsi a fare nel nostro cervello una macchina fenomenale. I tecnici e gli ingegneri IBM dovranno quindi impegnarsi in questa nuova sfida concettuale, ovvero quella di raccogliere un quantitativo di dati impressionante in arrivo da sensori di ogni tipo, da far confluire ad un unico centro di calcolo seguendo però regole dettate dai neurobiologi. Tutto questo quindi dovrà tradursi in algoritmi del tutto nuovi, che prevedano la creazione di percorsi e connessioni fra alcuni nuclei di calcolo del PC escludendone altri, o mettere in connessione alcuni di questi nuclei e farli interagire con altri gruppi contenenti informazioni differenti. Viene il mal di testa solo a pensare al lavoro che attende questo gruppo di lavoro, ma non tutto è da ricreare da zero. Il progetto dell'anno scorso, la simulazione del cervello di topo per intenderci, ha sfruttato l'architettura del supercomputer BlueGene per fare qualcosa di simile. Questo supercomputer è strutturato a nodi, ognuno dei quali costituito da un circuito stampato con associata della memoria DRAM e pensato per eseguire un'operazione ben precisa. Queste unità vengono chiamate ASIC, e nel nostro caso specifico possiamo immaginarli come i singoli neuroni, per la cronaca realizzati con due processori PowerPC differenti a seconda delle versioni BlueGene, in continuo aggiornamento. Quanti nodi ci sono in BlueGene? Molti, anche in questo caso variabili, ma nell'ordine dei 300.000 core. Ogni nodo di BlueGene vanta tre reti di comunicazione in parallelo, nonché un sistema operativo Linux-based estremamente semplificato. La gestione del supercomputer può quindi prevedere la gestione di particolari segnali per un determinato gruppo di nodi, mentre delegare ad altri gruppi l'elaborazione di altre informazioni. I gruppi possono poi essere in mutua relazione sfruttando le differenti connessioni messi a disposizione dell'architettura. Queste connessioni e questi percorsi si avvicinano in modo approssimativo a quanto avviene a livello delle sinapsi neuronali.
Il CEO di Intel ha rinfrescato la memoria: ancora 40 anni e tutto questo potrebbe avverarsi. Messa in questi termini sembra quasi qualcosa di soprannaturale, su cui la letteratura ed il cinema di fantascienza hanno già attinto non poco e sicuramente continueranno a farlo. La parola "avvento" ha poi un non so che di fatalistico e di mistico al contempo, qualcosa da subire senza poterci fare molto. Nella realtà dei fatti però, qualora le previsioni di Intel di avverassero, ci sarebbe ben poco di casuale e molto di pratico. Se Intel si sbilancia vuol dire che qualcosa bolle in pentola e che qualche prototipo molto rudimentale ha già dato indicazioni incoraggianti. In questi giorni si viene a conoscenza di un ambizioso progetto che coinvolge diversi enti e aziende degli Stati Uniti d'America, fra cui IBM e cinque università. Obiettivo quello di porre le basi per un supercomputer "senziente", dotato di un numero imprecisato di sensori ma che sappia in un futuro riconoscere immagini ed oggetti, prendere decisioni, analizzare dati e sensazioni. Attenzione però: la base di partenza non è quella solita. Qui si parte in tutt'altro modo, avendo come obiettivo il processo cognitivo del cervello umano, come testimonia la partecipazione al progetto di gruppi di ricerca universitari dei dipartimenti di neurobiologia e psichiatria, oltre a quelli più puramente tecnici. Questo non significa che tutto il processo cognitivo della macchina ideata sarà basato su sensori o altre fonti esterne. E' ovvio che, trattandosi di macchina, una programmazione alla base ci dovrà essere, ma è più che altro il modo in cui verranno caricati ed elaborati i dati che appare rivoluzionario. Un progetto ancora acerbo e in parte su carta, che dovrà scontrarsi contro molti problemi di natura pratica non ultima la potenza di calcolo, di cui però parleremo più avanti. Il progetto verrà finanziato inizialmente con circa 5 milioni di Dollari USA, provenienti nella quasi totalità dall'ente governativo USA indicato come DARPA, Defense Advanced Research Projects Agency, e rientra in quello più ampio chiamato SyNAPSE, Systems of Neuromorphic Adaptive Plastic Scalable Electronics. Detto in parole più semplici, il nuovo computer senziente verrà finanziato dal governo USA per mezzo del dipartimento della Difesa; gente che se si muove non scherza, insomma.
La grande novità del progetto è dovuta al fatto che tutto nasce operando una sorta di reverse-engeneering delle tecniche di apprendimento del cervello umano, che è di fatto il più studiato. E' qui che entrano in gioco i neurobiologi e gli psicologi, che di fatto dettano legge all'interno del progetto. Non siamo quindi nella situazione in cui un computer preesistente come BlueGene viene utilizzato per simulare, ma si intende realizzare qualcosa di totalmente nuovo partendo dai sensori, creando un percorso a rovescio dove i tecnici cercano di realizzare il centro di calcolo vero e proprio adattandolo agli "stimoli" esterni. Un cervello umano sano è in grado di ricevere informazioni da vista, tatto, olfatto, gusto e udito, oltre a relazionarsi in modo corretto con le coordinate spazio e tempo. Il nostro cervello è inoltre in grado di gestire e far interagire con estrema efficacia tutte queste informazioni, ad un "prezzo" in termini energetici assolutamente vantaggioso. Diverse le sfide che si troverà di fronte il nuovo computer senziente. Non è tanto il numero di neuroni da simulare che preoccupa, quanto la gestione delle sinapsi virtuali, ovvero le connessioni fra i neuroni/nodi di calcolo. E' l'attivazione, inibizione o i percorsi dei neurotrasmettitori a livello di sinapsi a fare nel nostro cervello una macchina fenomenale. I tecnici e gli ingegneri IBM dovranno quindi impegnarsi in questa nuova sfida concettuale, ovvero quella di raccogliere un quantitativo di dati impressionante in arrivo da sensori di ogni tipo, da far confluire ad un unico centro di calcolo seguendo però regole dettate dai neurobiologi. Tutto questo quindi dovrà tradursi in algoritmi del tutto nuovi, che prevedano la creazione di percorsi e connessioni fra alcuni nuclei di calcolo del PC escludendone altri, o mettere in connessione alcuni di questi nuclei e farli interagire con altri gruppi contenenti informazioni differenti. Viene il mal di testa solo a pensare al lavoro che attende questo gruppo di lavoro, ma non tutto è da ricreare da zero. Il progetto dell'anno scorso, la simulazione del cervello di topo per intenderci, ha sfruttato l'architettura del supercomputer BlueGene per fare qualcosa di simile. Questo supercomputer è strutturato a nodi, ognuno dei quali costituito da un circuito stampato con associata della memoria DRAM e pensato per eseguire un'operazione ben precisa. Queste unità vengono chiamate ASIC, e nel nostro caso specifico possiamo immaginarli come i singoli neuroni, per la cronaca realizzati con due processori PowerPC differenti a seconda delle versioni BlueGene, in continuo aggiornamento. Quanti nodi ci sono in BlueGene? Molti, anche in questo caso variabili, ma nell'ordine dei 300.000 core. Ogni nodo di BlueGene vanta tre reti di comunicazione in parallelo, nonché un sistema operativo Linux-based estremamente semplificato. La gestione del supercomputer può quindi prevedere la gestione di particolari segnali per un determinato gruppo di nodi, mentre delegare ad altri gruppi l'elaborazione di altre informazioni. I gruppi possono poi essere in mutua relazione sfruttando le differenti connessioni messi a disposizione dell'architettura. Queste connessioni e questi percorsi si avvicinano in modo approssimativo a quanto avviene a livello delle sinapsi neuronali.
Pagina 1 di 1
Permessi in questa sezione del forum:
Non puoi rispondere agli argomenti in questo forum.