Il ‘’padre’’ del web 2.0 parla del futuro della rete in una serie di conversazioni che Francis Pisani sta pubblicando a puntate sul suo blog, Transnet – Qui le prime riflessioni: l’ accumulo di quantità provoca dei ‘’salti’’ e cambia lo scenario – Dall’ intelligenza artificiale a quella collettiva
———————–
“Mi sono fatto due o tre scenari plausibili di fronte a cui direi che, sì, mi pare sufficientemente diverso per poterlo chiamare web 3.0″.
E’ così che Tim O’Reilly , il ‘’padre’’ del web 2.0, introduce una serie di ipotesi e di elementi di analisi sul cosiddetto web 3.0, che Francis Pisani ha raccolto sul suo blog TRansnets e che sta pubblicando a puntate.
“Il primo scenario – dice O’Reilly – si basa su un nuovo tipo di intelligenza artificiale (IA) che emerge da tutto il lavoro che si sta facendo sull’ utilizzo della cosiddetta ‘intelligenza collettiva’ (harnessing collective intelligence) che caratterizza il web 2.0. E’ quasi come il vecchio paradosso di Pogo, il personaggio dell’ omonimo fumetto: ‘Abbiamo incontrato IA e siamo noi”.
“Il fatto è che Google è intelligente perché noi ci collaboriamo. E’ il genio del PageRank. Non si tratta soltanto di un algoritmo che studia i documenti. Analizza il comportamento delle persone nel campo dei link. Su Digg.com in cui gli articoli sono promossi e sostenuti dai voti delle persone. Noi ci siamo messi esplicitamente al lavoro, come dei programmatori’’.
“Quanto al web 3.0, ci sono due storie che indicano dei punti di ‘salto’. La prima riguarda la traduzione con Google. Hanno recentemente vinto una gara per la traduzione automatica dal cinese all’ inglese e dall’ arabo all’ inglese indetta dal Darpa (Defense Advanced Research Projects Agency) l’agenzia del Pentagono per la ricerca. Ora, Google non ha nessuno che parli inglese o arabo al lavorlo su questo progetto. E non hanno neanche dei nuovi algoritmi. Hanno semplicemente una maggiore quantità di dati. E quello che non funziona quando le banche dati hanno milioni di parole, funziona veramente bene quando ne hanno dei miliardi’’.
“L’ altra storia mi è stata raccontata da Jeff Jonas, fondatore di Systems Research & Development, un’ azienda di Las Vegas assorbita da IBM. Hanno cominciato nei casino cercando di riconoscere le persone cvon un software capace di dire qualcosa del tipo: ‘’Sapete che il tipo che sta per vincere al tavolo 4 aveva tre anni fa lo stesso indirizzo del tipo che ora sta distribuendo le carte a quel tavolo?’’. Hanno un contratto col Dipartimento della sicurezza interna. La dimensione politica di questa cosa ha di che ar paura, ma la tecnologia è veramente cool’’.
“Hanno costruito un data-base con 3 milioni di americani. Contiene 670 milioni di dati informativi. Quando hanno un Tim O’Reilly e un T. O’Reilly, non sanno se è la stessa persona. Aggiungono altri dati ma si sono resi conto che a partire da 670 milioni il sistema non poteva andare più in là . Hanno aggiunto altri 30 miioni di dati supplementari, ma il sistema è ritornato a 599 milioni’’.
“Quando si incrociano, queste due storie dicono che ci sono dei punti di ‘salto’ nella scala dei dati che stiamo per raggiungere e che a partire da un certo livello si arriva a dei nuovi comportamenti. Se si aggiunge questo alla nozione di intelligenza artificiale si arriva a un livello in cui potremmo avere delle sorprese. E’ qui uno degli scenari possibili per il web 30’’.
(1-segue)