Azioni Parallele

NUMERO 4 - 2017
Azioni Parallele
è una rivista on line a periodicità annuale, che continua in altre modalità la precedente ultradecennale esperienza di Kainós.
La direzione di Azioni Parallele è composta da
Gabriella Baptist,

Aldo Meccariello
e Andrea Bonavoglia.
La distribuzione è affidata a Ergonet (VT).

La sede della rivista è Roma.

-Informativa sui cookie-

AP on line e su carta

AP 3 - 2016

indice completo
[compra il libro
presso ARACNE]


AP 2 - 2015
apri l'indice
indice completo
[compra il libro 
presso ARACNE]


 AP 1 - 2014
apri l'indice
indice completo
[compra il libro 
presso ARACNE]


 
SEMINARI

Modern/Postmodern

ed. MANIFESTO LIBRI
[compra presso IBS]

Solitudine/Moltitudine

ed. MANIFESTO LIBRI
[compra presso IBS]

Informazioni e visite

Abbiamo 197 visitatori online

OS
Linux w
PHP
5.5.37
MySQL
5.5.5-10.1.18-MariaDB
Ora
08:30
Caching
Abilitato
GZip
Disabilitato
Visite agli articoli
392537

Siti "paralleli"

Siti amici di "Azioni Parallele"  

Nidi di vespe, reti di cervelli

 

Premessa

Un racconto brevissimo di Fredric Brown descrive l'inaugurazione, diciamo pure la creazione di un supercomputer che di fatto unisce in rete tutti i computer del mondo. Questo supercomputer riceve la prima domanda dall'ingegnere che lo ha creato, la domanda è “Esiste Dio?”; la risposta immediata è “Sì, adesso Dio c'è”; la caduta di un fulmine a ciel sereno uccide l'ingegnere e blocca la leva del supercomputer in uno stato perenne di accensione. Questo racconto, The answer, è di oltre sessant’anni fa, del 1954.
L'idea di collegare in rete vari cervelli elettronici è tipica della fantascienza. I grandi film della serie
Terminator nascono proprio da quell'idea: le macchine coalizzate si ribellano agli uomini. Nel primo film viene detto esplicitamente: “Il sistema andò online il 4 agosto 1997. Skynet cominciò a imparare a ritmo esponenziale. Divenne autocosciente alle 2:14 del mattino, ora dell'Atlantico, del 29 agosto”. I robot del film sono come le formiche o le vespe, sono diventati le parti di un’unica gigantesca macchina intelligente. Il primo film, The Terminator di James Cameron, è del 1984.

L'idea di fondo della fantascienza è che una rete di cervelli elettronici porti a qualcosa che è maggiore della somma di tutti i cervelli; la cosa appare verosimile e questa somma di intelligenze artificiali diventa un'intelligenza addirittura simile a quella umana, per di più malvagia, o comunque esclusiva.

Il tema dell'intelligenza collettiva, attualissimo per via di Internet, è sicuramente affascinante, ma che cosa sia l'intelligenza collettiva, o anche una rete di cervelli, è peraltro un qualcosa interamente da stabilire, perché nonostante mille tentativi di analisi è tutto da definire il concetto stesso di intelligenza. Trovare una corretta ed esauriente definizione sarebbe di massimo rilievo per un'epoca che sta studiando seriamente la possibilità di costruire intelligenze artificiali.

Proviamo allora a capire se c'è differenza tra il fantascientifico supercomputer che utilizza le capacità di tutti gli altri computer e la rete di cervelli umani che si connettono tra loro tramite Internet. Una siffatta rete di cervelli si propone come un qualcosa di sovrumano, superiore cioè alla somma delle singole intelligenze che la compongono? p davvero accadere? O sta già accadendo?

Teorie filosofiche e sociologiche sull’intelligenza collettiva ci sono già da parecchi anni, e stanno correndo su vari binari. Essendo un terreno ancora aperto e libero, e pieno di zone da costruire, non ho intenzione in questa sede di riassumere o criticare i numerosi studiosi che se ne stanno occupando, ma solo di suscitare qualche area di interesse per l’argomento.

Innanzitutto, torniamo sull'intelligenza in sé. Secondo le definizioni più accettabili, l’intelligenza biologica consiste nella capacità di ragionare e imparare dalle esperienze passate, di usare strumenti di comunicazione, e di adattarsi all’ambiente. Io aggiungerei che è anche la capacità di intuire ciò che non è strettamente logico, e quindi di dare valore a qualcosa che apparentemente non lo merita.

Si potrebbe subito essere tentati dal definire l'ipotetica intelligenza collettiva, la rete di cervelli, come un'entità non fisica, cioè spirituale o sovrannaturale, ma personalmente preferisco guardare l’argomento con occhio diverso, in modo pragmatico; ci si accorge allora che l'umanità ha già creato meccanismi di intelligenza collettiva, come i partiti, i sindacati, e se vogliamo anche i gruppi religiosi. La collettività consiste ad esempio nel possedere costumi simili e nel seguire le stesse regole: in pratica se estendiamo un po' la definizione si arriva all'idea di Nazione mentre se la restringiamo si arriva al club dei giocatori di scacchi.

Sono dati di fatto che tutti conosciamo, ad esempio l'insegnante che vive quotidianamente il rapporto con una classe di allievi, tende a vedere nella classe un soggetto sovra-individuale, e in molte occasioni del suo lavoro tende a considerare quel gruppo come se stesse parlando di un singolo. Ancora, quando parliamo di un paese straniero diciamo ad esempio la Francia, e in quel momento milioni di individui diversi vengono intesi come un insieme omogeneo, i francesi.

La rete delle reti, Internet, è un ente sovra-individuale dotato di una sua coscienza, come una nazione? Nonostante certi tentativi di creare e accreditare popoli di Internet o di fantomatici cyber-navigatori, la risposta secondo me è certamente no, ma per spiegare perché no si possono fare delle considerazioni interessanti; per cominciare, ho individuato tre grandi temi correlati alla rete di cervelli creata da Internet: il Web, i Social e l'Opensource.

 

 

Il Web

La nascita di Internet come la conosciamo adesso è degli anni Novanta, il sistema di trasferimento di dati secondo il protocollo ipertestuale http, o più comunemente la rete creata da quel sistema, il World Wide Web, è stato infatti lanciato dal CERN di Ginevra nel 1991, ma la rete che connetteva centinaia di computer negli Stati Uniti (si chiamava ARPANET) era nata già nel 1960.

Internet costituisce quindi un'unione di persone collegate tra loro da sistemi elettronici. Non è una novità, il telefono e la radio eseguono una procedura simile: e non si dimentichi che di fatto Internet è un supertelefono, cioè si basa sulle linee telefoniche. La novità è che io oggi posso collegarmi contemporaneamente con molte altre persone in diretta o in differita, in modo non soltanto verbale ma anche culturale, posso cioè ricevere dati di qualunque tipo, e posso collaborare in prima persona alla diffusione di questi dati. Per farlo, utilizzo la trasmissione digitale, cioè scambio con altri una sequenza sterminata di cifre che vengono interpretate come scrittura, disegno, suono, ecc.

In rete c’è un sito terrificante, si chiama Internet Live Stats; il sito conta incessantemente il numero totale di utenti e di siti Web, il numero di email spedite al giorno, delle ricerche su Google, dei post sui blog e dei tweet giornalieri. Mi interessa in questa sede leggere che gli utenti saranno a breve 4 miliardi (metà quindi della popolazione mondiale) e che i siti Web sono oltre un miliardo e trecento milioni (lettura dei dati del dicembre 2017).

L'intelligenza collettiva sviluppata tramite il Web potrebbe quindi coincidere con la possibilità di avere memorie in comune e di partecipare a una specie di comunità in cui l'argomento proposto da uno diventa di tutti e la soluzione è condivisa da tutti, perché la lingua inglese è diventata un esperanto e consente un'ulteriore espansione di questa comunità cosmopolita. Forse più che di intelligenza collettiva si potrebbe parlare di cultura condivisa. Su queste considerazioni si è innestato qualche anno fa il discorso del cosiddetto Web 2.0

 

Web due punto zero, ovvero i cosiddetti Social

Passati vent'anni dall’invenzione del Web, da almeno cinque anni si parla di Web 2.0, e da qualche tempo direttamente di social network, i Social, cioè Facebook, Tweeter, Instagram, ecc., uno sviluppo della rete che costituirebbe un'anima composta da molte coscienze che lavorano insieme e interagiscono.

Tuttavia, è doveroso riflettere sul fatto che se ci sono migliaia di blog e di vlog, se esistono Facebook, Youtube e la Wikipedia, se esiste il video telefono di Skype, ciò non è dovuto a un nuovo modello strutturale del Web, ma alla nascita di software più semplici, alla maggiore velocità e alla possibilità di multitasking consentite dall'adsl, dalla fibra ottica, e dalla possibilità di usare tutto questo tramite il telefono cellulare. Le chat, la posta, lo scambio di dati, le enciclopedie on line, i siti personali, ci sono da sempre in rete; quando mi sono abbonato io, nel 1995, c'erano già tutti, ma richiedevano competenze informatiche per essere adoperati.

Che l'avvento di software più facili da usare possa determinare il passaggio da una situazione 1.0 individualistica a una situazione 2.0 sociale, sottolineando la nuova possibilità di aggregazione fornita da Facebook e da Twitter, può essere una utile semplificazione, ma è da semplificazioni siffatte che nascono idee giornalistiche come il popolo di Internet(che se esistesse davvero sarebbe composto da quattro miliardi di persone). A me sembra ovvio che le strutture sociali che si verificano in Internet siano esattamente le stesse che si verificano nella vita quotidiana oggi e che si verificavano duemila o mille o duecento anni fa, e mi sembra ovvio che i social servano più al gossip e all’autocelebrazione che a una effettiva crescita culturale o ad un’elaborazione collettiva di livello scientifico. In una battuta: non di intelligenza si tratta, ma di moderna convivialità.

Wiki

I siti detti Wiki sono l'esempio pratico più diffuso per capire come si sviluppa l'idea di una collettività in rete; i siti Wiki possono essere aggiornati e modificati da più utenti, è la loro prerogativa. Quindi un sito Wiki ha un gestore, o un proprietario, ma è fatto dagli utenti con più o meno libertà. Inoltre, creare un sito Wiki non è particolarmente difficile se si hanno competenze informatiche di base, così come non è difficile crearsi un blog o una rivista personale.

Wikipedia

Wikipedia è il più noto di questo genere di siti, ma si ricorderà certamente anche lo scandalo suscitato da Wikileaks qualche anno fa. Wikileaks ha accolto documenti segreti della diplomazia che un utente, non il creatore del sito, ha messo a disposizione di tutti. Tra gli altri numerosissimi Wiki, uno molto interessante per gli studiosi di letteratura è BiblioWiki, molto simile al ben noto progetto Gutenberg; sono siti che mettono gratuitamente a disposizione migliaia di volumi digitali.

Ma sotto ogni punto di vista, Wikipedia si è rivelata nel tempo come il Wiki maggiore e come il più grande veicolo culturale esistente in rete. E' uno dei siti più visitati e attualmente – dice la stessa Wikipedia – la versione inglese include oltre 5 milioni e mezzo di voci e in media ne aggiunge 600 ogni giorno.

Qualche anno fa mi sono occupato in modo approfondito della struttura e della validità dell’enciclopedia in relazione ad esempio alla stesura di una tesi di laurea, e ne avevo tratto conclusioni abbastanza critiche. Oggi quelle riserve appaiono superate, perché la qualità delle voci è mediamente molto migliorata. Va ricordato che la Wikipedia è un'enciclopedia gratuita, on line, compilata da chiunque ritenga di essere un esperto di qualcosa, ed è anonima, cioè le voci non sono firmate. Il meccanismo di pubblicazione è quello dei Wiki, se si vuole scrivere qualcosa si scrive e si pubblica, partendo dal presupposto che ci sia correttezza da parte di tutti e ovviamente la dovuta informazione. La Wikipedia consente di vedere in diretta non solo la voce attualmente pubblicata, ma anche le sue precedenti versioni, e le correzioni che sono state apportate. Questo vuol dire che spesso la stessa voce non solo ha più autori, ma è divisa in brandelli di notizie spesso non omogenei tra loro: tuttora, è questo il suo difetto maggiore. I curatori, perché ci sono dei curatori della Wikipedia, forniscono dei metodi e delle indicazioni, ma è evidente che se le voci sono milioni, NON ci sono milioni di curatori; anche ammettendo che siano alcune migliaia, dovrebbero occuparsi ciascuno di migliaia di voci, cosa non da poco, o meglio impossibile. Wikipedia si affida dunque ai bot, vale a dire dei curatori automatici (bot sta per robot), che verificano perlomeno gli standard di compilazione delle voci e effettuano correzioni generiche. L’impressione che si ha, dopo aver sfogliato con pazienza varie centinaia di voci, è che gran parte delle voci importanti (che vuole anche dire molto consultate), sono ben strutturate e compilate, mentre gran parte delle voci minori non sono controllate e sono di fatto poco attendibili.

(Sulla Wikipedia si veda anche in appendice la nota 2)

 

Opensource

Open Source vuol dire sorgente aperto, al maschile; “il sorgente” è la parte strutturale di un programma, in pratica il suo codice. I programmi che vengono venduti sono di solito ermeticamente chiusi, non possono essere modificati in alcun modo; il loro sorgente è proprietario, come dire brevettato. Un programma Opensource invece ha il “sorgente aperto”, un codice quindi che può essere letto, modificato, e distribuito liberamente.

Nel 1997 è stato creato il primo gruppo di software libero col nome appunto di Opensource. Esistono alcune sigle, come le licenze GPL (General Public License) e LesserGPL e altre ancora, ma per ricordarsi il significato di questi acronimi bisognerebbe vivere dentro la comunità dei programmatori, mentre per il nostro scopo di utilizzatori in fondo tutto questo non è importante.

La cosa importante invece è capire che un programma Opensource è libero e di fatto gratuito, e funziona bene quanto i programmi a pagamento. Non è un miracolo, è il frutto questa volta in positivo di un gigantesco progetto di intelligenza collettiva. Infatti, i programmi Opensource hanno un autore iniziale e poi una infinità di autori successivi che intervengono sul codice sorgente e lo ridistribuiscono in rete.

Tutti conoscono la suite MS-Office della Microsoft, che ha un costo di varie decine di euro o si trova inserita in Windows (che è comunque un sistema a pagamento), ma forse non tutti sanno dell’esistenza di OpenOffice e della sua costola LibreOffice, entrambi suite gemelle gratuite di MS-Office. Chi conosce e usa PhotoShop sa bene del suo costo abbastanza elevato, e magari non sa che esiste un formidabile programma alternativo (che evita i furti legati al diffuso malcostume di crackare i software), che si chiama GIMP ed è gratuito. Gli esempi potrebbero ovviamente continuare.

Ma nel mondo Opensource esiste anche qualcos’altro, di maggior impegno e diffusione, di cui sono personalmente un convinto sostenitore.

Linux-Ubuntu

Questo qualcos'altro è Linux. Già dal 1984 esisteva GNU (GNU's Not Unix), cioè un sistema compatibile UNIX, libero, che si è poi agganciato a LINUX. Unix era il sistema operativo dei grandi computer, il programmatore finlandese Linus Thorvalds ha inventato un sistema simile a Unix e lo ha battezzato col suo nome creando Linux. Linux quindi non è un programma, ma un sistema operativo completo, non soltanto alla pari di Windows, ma decisamente più robusto e più affidabile di Windows; il motivo per cui non è in grado di rivaleggiare commercialmente con Windows sta nel suo essere stato a lungo materia per pochi e nel suo essere stato boicottato o ignorato dalle ditte che forniscono hardware. Il progressivo abbassamento dei prezzi di Windows e in generale dei programma targati Microsoft o Adobe è sicuramente anche dovuto alla concorrenza dei programma liberi, e questo rappresenta comunque un grande successo del settore Opensource.

Di fatto, Linux è il Sistema Operativo della gran parte dei mainframe mondiali, cioè dei grandi computer e si trova alla base dell’operatività di molti provider. Quindi nel Web milioni di siti utilizzano programmi Linux, liberi e solidissimi anche nelle loro versioni gratuite per Windows e Apple.

Nel mio caso, è stato casuale che per un guasto a Windows nel 2007 mi sia andato a cercare una distro di linux che fosse abbordabile e ho scoperto Ubuntu. Linux infatti per la sua stessa natura non esiste come singolo sistema, ma si moltiplica tramite le necessità e le invenzioni definite da ingegneri informatici e tecnici del settore, che sono in grado di usare il kernel di Linux (come dire il cuore del Sistema) e costruirgli intorno un sistema operativo specialistico. Ogni sistema prende il nome di distro di Linux, distro sta per distribuzione; ce ne sono decine. Ubuntu è la variante semplificata di Debian, che è una distro potentissima di Linux.

Ubuntu è nato nel 2004 e da allora vari milioni di persone lo hanno scoperto , anche perché nel corso di questi anni si è sensibilmente perfezionato, è diventato più facile da usare e soprattutto è in grado di gestire gran parte dell'hardware dei PC e di integrare i programmi più comuni di videoscrittura, di grafica, di navigazione, di visione di filmati, e di moltissimi altri, tutti Opensource.

Parlare di Ubuntu non può prescindere dalla spiegazione del suo buffo nome: si tratta di una parola africana, secondo molti intraducibile perché rimanda a concetti bizzarri; vorrebbe dire letteralmente "umanità verso gli altri", oppure "io sono parte di tutti". Secondo me invece una parola per tradurre Ubuntu c'è, e funziona benissimo; è una parola che spiega bene anche quello che in fondo si chiede all'intelligenza collettiva, alle reti dei cervelli connessi. Questa parola è, molto semplicemente, solidarietà.

 

 

Due note in appendice

Nota 1, sui siti Web.

Sarebbe necessario provare a scrivere un altro contributo, di tipo documentario, che si occupi del rilievo effettivo dei siti Web. In altre parole, bisognerebbe capire quanti siti Web sono davvero funzionanti e aggiornati, rispetto a quanti risultano invece obsoleti e incompleti. Muoversi comunque tra milioni di siti non è facile, anche se solo una piccola percentuale di essi contenesse qualcosa di sensato. E per procedere rapidamente in questa considerazione (che rimane tra parentesi), mi servo adesso di una similitudine utile per capire meglio e per poi procedere:

Immaginiamo una grande biblioteca, la Nazionale di Roma ad esempio, che possiede 7 milioni di volumi e i numeri di almeno 50mila riviste uscite in Italia. Per usare la Nazionale bisogna entrarci fisicamente, passare da un ingresso con una tessera, poi c'è un bar, alcune sale di consultazione e i banchi di consegna. Un utente può entrare, sedersi in una sala servendosi dei libri e dei giornali messi a disposizione e poi passare dal bar, può poi ripetere questo percorso alcune volte, con soste al bar sempre più lunghe per via che ha trovato delle persone con cui parlare, senza mai fare una effettiva richiesta al banco di consegna. Questo utente ha davvero usato la Biblioteca?

Credo si sia capita bene la similitudine: sostituiamo alla Biblioteca Nazionale il Web nella sua interezza, chiamiamo Facebook-Twitter il bar sempre più affollato di gente che chiacchiera, chiamiamo Google-Youtube le sale di consultazione, e abbiamo chiaro il punto: siamo davanti a sette milioni di volumi e invece di effettuare una ricerca ci accontentiamo dei settemila messi a disposizione e dei suggerimenti del tutto casuali di qualche altro cliente. Abbiamo usato un millesimo della biblioteca e siamo pure pronti a darne un giudizio!

In verità, il Web non somiglia soltanto a una biblioteca, il Web è un'immane biblioteca. Non dimentichiamoci che i programmi che navigano sul Web si chiamano browser, cioè programmi che sfogliano, browse, le pagine della rete.

Se pubblico su Facebook o sul mio sito o su Instagram un articolo o una fotografia, questo dato può essere letto o visto da tutte le altre persone che accedono al Web. Lo strumento di scambio e la velocità di trasferimento di questi dati sono il vero punto forte, una volta stabilito che il dato è valido e merita di essere trasmesso. Rispetto allo scambio puramente materiale di dati, ad esempio l'invio di una foto o di un CD musicale tramite le poste tradizionali, è chiaro che Internet rappresenta una impressionante rivoluzione culturale.

 

Nota 2, su Wikipedia.

Entrando nel merito, una voce di Wikipedia ad esempio sul celebre artista X non è certo l’unica in cui X è ricordato o celebrato dai suoi ammiratori, e sul Web troveremo facilmente altre pagine a lui dedicate, usando Google. A che serve quindi Wikipedia, visto che c’è Google?

Per ora, possiamo forse rispondere che Wikipedia vive della sua semplicità di informazione e della sua abbondanza di voci, ma la sua vera falla coincide con la principale falla di Google, l’assenza in genere di una sitografia ben fatta, verificata, diciamo pure certificata, nel senso che sia in grado di dirci se un sito Web è aggiornato, completo, attendibile. La bibliografia cartacea, che in Wikipedia è solitamente presente (anche perché presa di peso da siti bibliografici), finisce per essere utilizzata solo dallo studioso tradizionale, mentre l’utente normale, che in quel momento è on line e non in biblioteca, non sa che farsene.

Quindi, come si potrebbe migliorare il progetto Wikipedia? Espongo qui una bozza di idea che si basa su un vecchio progetto della rete, purtroppo fallito. Si chiamava DMOZ (perché legato al gruppo degli sviluppatori di Mozilla) oppure, meglio, Open Directory Project, ed è stato chiuso dopo lunga agonia nel 2017. L’esordio era stato a razzo e con molte speranze, ma ODP nonostante il lavoro di centinaia di persone e anni di fatica è stato chiuso per mancanza di risultati accettabili e fruibili. L'idea di fondo era geniale: elencare sistematicamente i siti Web affidabili, raggruppandoli per categorie come in una biblioteca. ODP aveva scoperto secondo me un elemento vincente: non creare voci enciclopediche, ma elencare soltanto i siti affidabili su ogni argomento, cioè siti visitati da un esperto che ne avesse verificato la coerenza dei contenuti. Va detto che a differenza di Wikipedia, ODP accettava solo collaborazioni qualificate, anche se sempre a livello di volontariato.

Quando si fa una ricerca su Google, lo sappiamo tutti, la cosa fondamentale sarebbe di trovare un sito Web fatto bene e pieno di informazioni, senza dover guardare uno per uno i mille siti elencati, non sempre nell'ordine giusto tra l'altro. Google non segnala un sito valido in modo differente da uno inutile o antiquato. ODP copriva questa mancanza, ma anche muoversi dentro ODP era difficile, la sua struttura ad albero richiedeva all'utente alcune pre-informazioni, e naturalmente anche ODP come la Wikipedia non era affatto completo.

La mia idea è che nella voce su X sulla Wikipedia si dovrebbe trovare anche l'elenco dei principali siti su X, scrupolosamente visitati da esperti: sarebbe un passaggio straordinario e sarebbe una vittoria della collettività sui personalismi, anche se anonimi.

 

Questo testo deriva in parte dall’intervento tenuto il 16 dicembre 2011 nell'ambito di “L’ANIMA NELL’ARTE, CONVEGNO INTERNAZIONALE, VIII edizione, 14-15-16 dicembre 2011,
ABBAZIA GRECA DI S. NILO, Grottaferrata (Roma)”