Le Scienze, luglio 2015, l'articolo che mi ha più colpito è "Alla ricerca di una nuova macchina", di John Pavlus. L'articolo inizia con una carrellata sulle tecnologie informatiche per giungere alle ultime scoperte effettuate presso i laboratori dei grandi gruppi informatici, Intel, IBM, HP... Lasciamo stare le considerazioni sulla validità della Legge di Moore (per chi non la conoscesse si tratta di quella legge che prevede che ogni due anni si raddoppia il numero di transistor per unità di superficie del chip!) per andare dritti al sodo: l'architettura dei microprocessori si sta evolvendo.L'architettura standard dei microprocessori è nota col nome di architettura di von Neumann dal suo inventore, John von Neumann, ed è basata su tre "oggetti", una unità di elaborazione, una memoria e un bus. L'unità di elaborazione esegue i calcoli secondo le istruzioni date, la memoria immagazzina istruzioni e dati, il bus trasporta istruzioni e dati dalla memoria all'unità di elaborazione e viceversa.Questa semplice architettura si è evoluta da quando è stata inventata, ma ora l'IBM ha deciso che è arrivato il momento di metterla in pensione. Un nome, TrueNorth, ci farà conoscere la nuova frontiera dell'informatica.Abbandono ora Le Scienze e l'articolo di John Pavlus per continuare la mia ricerca attraverso internet: parola chiave TrueNorth.In un attimo sono sul sito dell'IBM e mi trovo davanti l'articolo di Dharmendra S. Modha: Introducing a Brain-inspired Computer TrueNorth's neurons to revolutionize system architecture.
TrueNorth è un nuovo tipo di processore, costruito secondo una nuova architettura, che è stata sviluppata a partire dalle più avanzate conoscenze sulla struttura e sul funzionamento del cervello.
Alcune domande necessitano di risposta. La prima è:
Chi è Dharmendra Modha? Dharmendra Modha è' un IBM Fellow, uno dei più importanti scienziati dell'IBM, a capo del progetto di Cognitive Computing della IBM, progetto che ha ricevuto finanziamenti dalla DARPA, la Defence Advanced Research Project Agency statunitense, quella stessa agenzia che ha sviluppato ARPANET diventata poi internet.
E subito dopo dobbiamo chiederci: cosa significa Cognitive Computing?
Qui la risposta è più complessa. Per essere brevi, cercando di non banalizzare troppo, si potrebbe dire che la disciplina del Cognitive Computing è quella disciplina che si occupa di studiare e risolvere problemi di elevata complessità, caratterizzati da ambiguità ed incertezza, problemi che normalmente vengono "risolti" dagli esseri umani, è il caso del riconoscimento di un volto, per esempio.
Per l'IBM un sistema di Cognitive computing" svolge i seguenti compiti: "learn and interact naturally with people to extend what either humans or machine could do on their own. They help human experts make better decisions by penetrating the complexity of Big Data".
Ma perchè tutto questo interesse nel costruire una macchina che abbia delle capacità che già hanno gli uomini?
PEr lo stesso motivo per cui sono nati i computer che già conosciamo. L'uomo era in grado di far di conto anche prima dell'arrivo dei computer, ma se le operazioni sono ripetitive e lunghe è difficile trovare qualcuno che se ne occupi e che, magari, non commetta errori.
Ecco che un computer, ottimizzato per fare calcoli, prende il posto di uno o più uomini, che in vece che far calcoli si preoccupano di scrivere le istruzioni per il computer e di verificare che funzioni bene.
Allo stesso modo, se abbiamo da controlla re milioni di volti su un monitor e confrontarli con delle schede per verificare l'identità delle persone, possiamo mettere 100.000 persone dietro i monitor a verificare chi sta passando sotto di noi, oppure possiamo creare dei software che, eseguendo un numero molto grande di operazioni semplici, siano in grado di "riconoscere" le persone già schedate. Questo è già stato realizzato. esistono tanti sistemi di riconoscimento in funzione che si basano su computer costruiti secondo l'architettura von Neumann.
E' facile rendersi conto, se si è mai entrati in un data centre, della enormità di risorse occorrenti per fare certe operazioni e salta subito all'occhio che i computer classici, mentre sono molto veloci nel fare operazioni semplici ripetitive, sono molto inefficienti nel trovare soluzioni a problemi complessi, come quello indicato prima. L'inefficienza si riflette sulle risorse necessarie per svolgere il compito, risorse che possiamo misurare in vari modi, uno di questi è il consumo di energia.
Un computer, da questo punto di vista, è molto meno efficiente di un cervello.
Ecco da cosa nasce l'idea (a mio parere) di costruire nuovi computer di struttura simile al cervello.
L'accoppiata di computer classici e computer di tipo Cognitive, potrebbe essere in grado di creare nuovi super computer in grado di svolgere velocemente calcoli ripetitivi e anche di riconoscere velocemente nella persona affianco a noi, il volto di un caro amico.
Vedremo cosa ci aspetta il futuro prossimo.
Per ora cerchiamo di capire meglio come è fatto e quali nuovi campi di ricerca e studio ci apre il nuovo processore IBM: TrueNorth. Infatti la nuova architettura necessita di nuovi linguaggi di programmazione, di nuove logiche di memoria, nuove tecnologie... insomma, un mondo nuovo si sta aprendo agli ingegneri e agli informatici, un nuovo mondo che necessita di esploratori capaci e curiosi...
In effetti non è sbagliato assimilare l'informazione all'informatica, né tantomeno la linguistica. Questo in virtù del fatto che, se ci pensiamo bene, sia l'informazione sia la linguistica sono riconducibili alla comunicazione. L'una in quanto è il contenuto che un emittente ed un ricevente la comunicazione si trasmettono, l'altra rappresenta in qualche modo le diverse funzioni linguistiche.
La comunicazione, nel suo percorso evolutivo, è passata attraverso diverse fasi caratterizzate da tre tipologie comunicative.
Inoltre, le modalità di comunicazione sono strettamente correlate con lo sviluppo tecnologico. Pensiamo all’evoluzione dei metodi di scrittura, la nascita della stampa, lo sviluppo della rete ferroviaria, l’incremento dei mezzi di telecomunicazione, etc.
Ed arriviamo al tipo di comunicazione che più di ogni altro è strettamente legato all’evoluzione informatica: la comunicazione mediata. Questo è un tipo di comunicazione che adopera sostanzialmente lo strumento computer. E’ un tipo di comunicazione a distanza perché non vi è condivisione spaziale, in quanto i computer degli interlocutori sono distanti tra loro e comunque si tratta di comunicazione nel quale il computer fa da mediatore e interfaccia. Può essere inoltre un tipo di comunicazione sincrona quando si utilizza per esempio una chat o un servizio di teleconferenza, ma può essere anche asincrona quando si si invia una e-mail o si posta su un forum.
Tutto questo discorso (spero non noioso, per arrivare a confermare che la comunicazione si è evoluta in funzione dello sviluppo tecnologico e, viceversa, le tecnologie informatiche si sono sempre di più adeguate alle esigenze comunicative, basti pensare a Internet e tutte le possibilità comunicative che ci offre attraverso i siti Web, forum, chat, blog, e-mail, teleconferenze, etc.
Il punto debole però di questa fase evolutiva della comunicazione, e qui subentrano la crittografia e la steganografia, è che è difficile garantire e preservare la sicurezza delle nostre informazioni. Anche perché, diversamente dal tipo di interazione faccia a faccia dove i pericoli di mancata sicurezza sono due: il ricevente la comunicazione oppure qualcuno che sta origliando la conversazione, l’interazione mediata dal computer e dalla Rete ha molte varianti e innumerevoli possibilità che qualcuno catturi l’informazione, visto le linee che la nostra informazione percorre nella Rete.
Un saluto, Nicola AMATO"