Filosofi Solidali

La democrazia corre sul filo

I nuovi mezzi di comunicazione sociale sono strumenti potenti di educazione e di arricchimento culturale, di commercio e partecipazione politica, di dialogo e comprensione interculturali. Ma certamente questi stessi mezzi di comunicazione, che possono essere utilizzati per il bene delle persone e delle comunità, possono anche essere utilizzati per sfruttare, manipolare, dominare e corrompere. Internet è da sempre un interessante caso di risorsa democratica con il quale ogni individuo, in grado di dotarsi dell’apparecchiatura necessaria, può entrare ed interagire in assoluta libertà. Come evidenzia però Chomsky, non esistono tecnologie democratiche o oppressive, ma solo tecnologie neutre; sono le persone a determinarne la funzione. Ecco quindi sorgere il chaos, naturale espressione entropica di una molteplicità di individui con stesse potenzialità e differenti scopi; Internet nasce come tecnologia neutra, dunque, terra di tutti in cui tutti possono costruire un proprio mondo, idealmente.

Verso un futuro migliore?

I numerosi mezzi di comunicazione di massa nati durante il secolo e mezzo scorso, quali il telegrafo, il telefono, la radio, la televisione, hanno progressivamente eliminato il tempo e lo spazio come ostacoli alla comunicazione fra un gran numero di persone mantenendo però la struttura rigorosamente verticistica e unidirezionale. Internet, ultimo arrivato, è l’unico che permette (anche se questo non significa che necessariamente lo fa) un passaggio bidirezionale dell’informazione.

Internet è un luogo, dove le persone si incontrano, parlano, scambiano informazioni, commerciano. Come nella nostra realtà quotidiana. Ma in più il Network offre delle novità che nessun altro mezzo ci dà, ovvero la possibilità di essere fruitori e autori (“prosumer”, neologismo inglese che deriva dall’unione di “producer” e “customer”), di scrivere alle autorità (laddove sono riconosciute dagli utenti), di trovare clienti dall’altro capo del pianeta, di eludere, insomma, le difficoltà pratiche spazio-temporali e di velocizzare al massimo le transazioni e le comunicazioni. Internet, soprattutto, non è un luogo asettico, costituito esclusivamente di bit e tecnologia hardware, quanto piuttosto un mezzo fatto di persone, che può essere usato per crescere emotivamente ed intellettualmente senza stravolgere le nostre caratteristiche fondamentali. La Rete celebra la natura umana. E per questo motivo forse diventerà (e in parte lo è già) un aggregato di differenti personalità che dialogano fra loro, imparando a conoscersi e, sembra incredibile ma sappiamo che succede ogni giorno,  amarsi nonostante tutte le barriere comunicative con cui normalmente avrebbero a che fare (lingua, cultura, età,…).

I collegamenti elettronici bidirezionali, come detto, sono però la vera rivoluzione: la Rete sottrarrà potere ai governi centrali, ai mezzi di comunicazione di massa e alle multinazionali, per darlo poi a dei perfetti sconosciuti. Ovvero: su Internet chiunque ha non solo la possibilità di esprimere pareri, di dare opinioni politiche, di iniziare un’attività commerciale, ma anche di farlo sapere al resto del mondo, proprio per la natura transnazionale tipica del Network. E ciò non fa che rendere, da una parte, l’informazione meno tendenziosa e più democratica e, dall’altra, il mercato più fluido. I rapporti di forza mutano, che siano essi fra datore di lavoro e dipendenti, fra venditore e cliente, fra leaders politici e cittadini.

Internet è egualitario, nel senso che chiunque, con gli strumenti necessari e una modesta abilità tecnica, può essere attivamente presente nel ciberspazio, trasmettere al mondo il proprio messaggio e richiedere ascolto. Permette l’anonimato, il gioco di ruoli e il perdersi in fantasticherie nell’ambito di una comunità; permette il confronto sociale, di mostrare la vera natura di sé stessi, la possibilità di confrontarsi con essa e con il mondo surrogato-virtuale che ne scaturisce con le sue regole, linguaggi e valori di verità. Secondo i gusti dei singoli utenti, si presta in egual misura a una partecipazione attiva e a un assorbimento passivo in un mondo « di stimoli narcisistico e autoreferenziale ».

Per tutti questi motivi c’è un ulteriore aspetto, non meno importante dei risvolti gnoseologici della comunicazione on line, ed è quella strettamente legata ai suoi aspetti etici: la decentralizzazione del sapere. Questo « nuovo » sistema risale agli anni ’60, ossia agli anni della guerra fredda, quando si volevano sventare attacchi nucleari creando una rete decentrata di computer contenenti dati essenziali. La decentralizzazione fu la chiave del sistema, poiché in tal modo, almeno così si ragionò, la perdita di un computer o perfino di molti di essi non avrebbe significato automaticamente la perdita di tutti i dati. Ma se è vera l’equazione che sapere è potere, in larga scala, questo ha portato anche alla decentralizzazione del potere e del rapporto degli individui con esso.

La configurazione decentralizzata e fondata su una visione idealistica del libero scambio di informazioni e l’elaborazione parimenti decentralizzata della Rete Mondiale degli ultimi anni ’80 si sono dimostrate congeniali a un pensiero che si opponeva in via di principio a qualsiasi cosa sapesse di legittima regolamentazione della responsabilità pubblica. Lo sconvolgimento che si verifica oggi nella comunicazione presuppone quindi, più che una semplice rivoluzione tecnologica, il rimaneggiamento completo di ciò attraverso cui l’umanità apprende il mondo che la circonda, e ne verifica ed esprime la percezione. La disponibilità costante di immagini e di idee, così come la loro rapida trasmissione, anche da un continente all’altro, hanno certo delle conseguenze, positive e negative insieme, sullo sviluppo psicologico, morale e sociale delle persone, sulla struttura e sul funzionamento delle società, sugli scambi fra una cultura e l’altra, sulla percezione e la trasmissione dei valori, sulle idee del mondo, sulle ideologie.

Ma quali sono, se vi sono, le conseguenze peculiari di questa mutata percezione? Una condivisione dei saperi, delle conoscenze, l’abbattimento (potenziale) della verticalità e delle gerarchie informative producono anche un miglioramento della socialità?

Tutto ebbe inizio a Boston..

Fu nel seminterrato del palazzo 26, uno degli edifici più recenti del Mit (Massachuttes Istitute of Technology), che Samson ed i suoi colleghi, i futuri eroi della rivoluzione informatica, scoprirono nel 1959 la stanza Eam (la stanza delle apparecchiature per la contabilità elettronica) dove operava un unico computer, grande quanto l’intera stanza, l’IBM 704. Il computer era, apparte pochi selezionatissimi ricercatori, detti sacerdoti, veramente inaccessibile. Il fatto che esistesse un così potente mezzo di elaborazione e di trasmissione di conoscenza, nelle mani di pochissimi eletti era qualcosa che ledeva il “futuro dell’umanità”. Solo condividendone il sapere e il potere e di migliorarne, con il consiglio e il contributo di tutti, il suo utilizzo, esso poteva dirsi realmente un mezzo che faceva avanzare la civiltà (e il senso di democrazia partecipata che stava alla sua base).

Di lì a poco si creò una comunità all’interno del Mit di persone che cominciarono a diffondere il verbo dell’informatica, scorgendo in essa qualcosa che davvero poteva cambiare la percezione della comunicazione e, in senso positivo, migliorare la ridistribuzione della conoscenza e quindi la qualità della vita. Siamo ancora nei primi anni ’60 ed il computer come fenomeno di massa è ancora al di là dal venire, ma fu in questi edifici di vetro e cemento che furono gettate le basi per una filosofia di decentramento e di comunità del sapere che grazie al supporto della rete delle reti, internet, sopravvive ancora oggi.

Si va sempre più definendo una vera e propria cultura, una etica a cui tutti sanno di dovere qualcosa, per il bene di tutti, una cultura che fa da sola da vero collante di questa prima comunità informatica: si tratta di un codice di responsabilità, un sistema di valori profondi, una “filosofia di socializzazione, di apertura, di decentralizzazione”[1], non scritta o codificata ma incarnata nell’articolato standard di comportamento degli stessi appartenente alla comunità con un sentimento quasi neo-tribale, mai oggetto di dibattito ma implicitamente accettata: una sorta di manifesto programmatico di straordinaria attualità, il quale non poteva che fare presa sull’humus libertario e tipicamente controculturale degli anni Sessanta. Tale ideologia condivisa sembra legata al flusso libero, aperto ed elegante della logica dello stesso computer, il quale non ha alcun rapporto col mondo reale. Era nato un nuovo stile di vita, che divenne il codice proprio della controcultura, la quale aveva costruito, più o meno coscientemente, un corpo organico di concetti, norme e costumi: l’avanguardia di un’audace simbiosi fra uomo e macchina di cui essi sono stati divulgatori, forse anche predicatori, col fine di alfabetizzare le masse alla nuova tecnologia informatica.

L’etica che scaturisce in questa “comunità”, anonima, spesso soltanto virtuale, e pronta a mettersi in gioco per condividere sé stessi e il proprio intelletto in questa sorte di grande intelletto virtuale universale si muove lungo i alcuni argomenti principali.

Innanzututto l’accesso all’informazione e ai mezzi per produrla e divulgrla deve essere illimitato e completo. Internet permette un doppio scorrimento dell’informazione, dall’alto al basso e in modo orizzontale. Non promuovere questo secondo aspetto significa utilizzare la rete né più né meno come una potente televisione.

Se tutta l’informazione è libera, ogni controllo proprietario su di essa è ovviamente negativo. La condivisione delle informazioni è un bene potente e necessario per la crescita della democrazia, contro l’egemonia, il controllo politico delle élite e degli imperativi tecnocratici. Dovere etico è la condivisione del proprio sapere ed esperienza con la comunità. Ciò che rende la rete realmente utile è il fatto che le informazioni che si trovano sui suoi server sparsi per il mondo sono messi a disposizione spesso e volentieri dagli utenti stessi, da coloro che non hanno nessun interesse economico a farlo e non si aspettano niente indietro. Domina l’idea del supporto reciproco e proprio perché in una comunità virtuale (come quella scaturita con il successivo avvento di internet) non ci si può né vedere né sentire la fiducia reciproca è un valore ancora più prezioso. Inoltre, nelle comunità informatiche, il tutto è più grande della somma delle parti quando si tratta di condividere le informazioni: ci si scambiano account, si copiano le ultime versioni del software e chi ha una maggiore conoscenza la condivide con chi non ne ha altrettanta, mettendo in gioco un “saper fare” programmato al servizio di un “far sapere”. Vengono scritti manuali sui vari argomenti che sono poi distribuiti gratuitamente senza che gli autori chiedano niente. Nell’underground tutto circola liberamente e rapidamente, sia che si tratti di materiale coperto da copyright o meno: il copyright è infatti un concetto ormai superato nella futura società dell’informazione per questa ideologia.

Ulteriore concetto, a rinforzo dell’idea di promuovere la comunicazione orizzontale, rispetto a quella verticistica tipica dei mezzi di comunicazione di massa è quello di dubitare dell’autorità. Il principio di autorità, nel campo della comunicazione è certamente un principio che ha reso per secoli solida la conoscenza e il trasferimento delle informazioni. In una comunità pronta a condividere tutto, a partire dalla propria intelligenza, e che ha i mezzi per farlo, il concetto di autorità può venire meno ed anzi, se questa autorità rappresenta, come quasi sempre rappresenta, un ostacolo a questa condivisione (vuoi per interessi politici piuttosto che economici) il suo venire meno è quasi una necessità. Promuovere il decentramento, dunque. La burocrazia, industriale, governativa, universitaria, si nasconde dietro regole arbitrarie e si appella a norme: è quindi politicamente inconciliabile con lo spirito di ricerca costruttiva e innovativa, la quale incoraggia l’esplorazione e sollecita il libero flusso delle informazioni. L’obiettivo è portare i “computer alle masse”, livellando le ineguaglianze di classe. Il simbolo più evidente del conflitto politico-culturale è il tentativo prioritario di trasformare il computer da strumento di potere nelle mani delle classi egemoni a potenziale e potente mezzo di condivisione totale[2].

Fammi vedere il tuo sorgente

L’introduzione di ogni nuova tecnologia per lo scambio dell’informazione e del sapere ha sempre avuto un pesante impatto sulla vita quotidiana dell’uomo. In particolare è noto che questo successe quando vennero introdotti, ad esempio, la scrittura, che mise fine alla tradizione dei cantastorie come mezzo per tramandare oralmente la memoria e il sapere; la stampa, che portò i libri nelle case della gente, rese possibile la nascita dei quotidiani e delle enciclopedie e tolse potere al clero; il telefono, che rese possibile la distribuzione in tempo reale delle notizie come il poter raggiungere o disturbare una persona in ogni momento facendogli trillare qualcosa sulla scrivania; radio e televisione, mezzi di propagazione causa della standardizzazione culturale delle masse.

Abbiamo già visto quanto la tecnologia usata nella trasmissione dell’informazione possa impattare la cultura e la nostra vita quotidiana, ma il primo effetto di ogni nuova tecnologia della comunicazione provoca sempre una divisione almeno iniziale tra chi ha e chi non ha accesso a tale tecnologia. Già la scrittura ha rappresentato per secoli una divisione fintantoché non si superata con la condivisione della conoscenza dell’alfabeto attraverso l’istruzione e la scuola dell’obbligo.

Nel primo paragrafo abbiamo accennato che Internet, ultimo arrivato, è l’unico che permette un passaggio bidirezionale dell’informazione, ma abbiamo anche detto che se questo è possibile certo non è anche necessario: ci si trova a far conto di quel peso culturale dell’informatica che assume proporzioni via via crescenti man mano che essa diventa strumento del comunicare, del lavorare e dell’imparare. E’ un dato di fatto che in realtà ben pochi sanno usare il computer adesso e ancora meno lo sanno usare in maniera coscienziosa, consci ovvero, anche in senso filosofico, di aver tra le mani uno strumento capace di modificare la realtà e non solo in senso economico. Cosa rende possibile questa percezione? Cosa sta alla base dell’utilizzo di questi nuovi mezzi di comunicazione che divide chi ha accesso alla tecnologia e chi non ce l’ha? Alla base di tutte queste cose diverse sta lo stesso strumento: il software. Il software è una entità immateriale, composta di pura informazione, di pure idee, ma nonostante questo esso si tende ancora a vendere come se fosse un bene privato, a uso e privilegio di pochi che ce l’hanno e di tutti gli altri che se lo devono comprare (e solo per usarlo, mai per possederlo).

L’Open Source (in termini legali un software distribuito con una licenza che ne consente la libera distribuzione in forma sorgente e che conferisce la possibilità all’utente di poter modificare il programma originario e di poterlo a sua volta distribuire) è stato se non il primo, uno dei primi modus operandi dell’informatica, perlomeno da parte di coloro che hanno riconosciuto nell’informatica una tecnologia nuova e non solo un miglioramento delle precedenti. Il software nacque e si evolse infatti come Open Source negli storici laboratori che per primi si occuparono di informatica, tra cui il menzionato IA Lab del MIT, a Boston. Allora non c’era bisogno di porre distinzioni tra le licenze di software o la distribuzione degli eseguibili piuttosto che dei sorgenti, ciò che veniva creato diventava patrimonio della comunità. Non si trattava di una scelta politica, la libera distribuzione era frutto della constatazione che il software cresce in stabilità, prestazioni, funzionalità se può essere interamente compreso e modificato dai suoi utenti. Il software era un prodotto scientifico, come la matematica e la fisica, e come tale veniva trattato. Così come di un esperimento scientifico si distribuiscono le ipotesi, il procedimento e i risultati, del software si distribuivano l’analisi dei requisiti e il codice sorgente, in modo che tutti potessero valutarne i risultati.

Il software crebbe tanto rapidamente che subito ha interessato anche il mondo commerciale che vide nei programmi un prodotto manifatturiero su cui esercitare un diritto di proprietà da proteggere con licenze d’uso. Il mercato in rapidissima crescita e ad altissimo reddito attirò i tecnici del software che incominciarono a produrre software sotto il riserbo del segreto industriale e a distribuirlo in forma eseguibile dietro pagamento. Il software libero, o free software, incominciò a essere inteso come software gratuito e sottintendente la scarsa qualità. Così per circa quindici anni l’attenzione degli utenti è stata rivolta ai produttori commerciali che riuscivano a imporre il proprio prodotto anche a scapito dei contenuti tecnici di questo. Il marketing era importante tanto quanto il software, le battaglie commerciali e legali tra produttori lo testimoniano

Il fenomeno Open Source è giunto alla ribalta solo nell’ultimo decennio grazie a un prodotto di grande impatto sul pubblico che ha subito smentito queste false credenze: Linux. Linux è molte cose insieme: è un sistema operativo completo, assolutamente gratuito. Linux è la punta di un iceberg cresciuto, all’insaputa del mondo commerciale e senza pubblicità, in Internet e gestito da una pletora di appassionati di informatica che programmano per il piacere di programmare. Linux è il caso più eclatante: nacque nel silenzio della casa di uno studente finlandese, crebbe accudito da una comunità di monaci programmatori la cui dimora è Internet, divenne release e uscì dal convento. Dimostrò, release dopo release, un tasso di crescita senza precedenti nel campo dei sistemi operativi, sorpassò nei test di stabilità e di prestazioni i concorrenti diretti Unix, è oggi il primo concorrente, come quote di mercato, di Windows.

C’è ancora un particolare da notare: Linus Torvalds, lo studente finlandese, varò il progetto Linux nel 1990. Come è stato possibile organizzare centinaia di super tecnici sparsi per la Terra senza una struttura preposta, senza fondi e assolutamente senza profitto monetario? Perché tante persone hanno aderito? Come è possibile creare il kernel di un sistema operativo sul modello Unix contando su contributi di codice volontari? Howard Rheingold, fondatore di “HotWired”, uno dei pionieri del cyberspazio, ha parlato non a caso di “masse intelligenti”[3] (Smart Mob): l’intelligenza collettiva è superiore alla somma delle intelligenze dei singoli individui. Ne erano ben consci al MIT quando mettevano tutti i codici sorgenti dei loro programmi in un cassetto comune, con la speranza che altri li vedessero magari con la voglia di migliorarli per poi migliorarli ancora, e se questo valeva tra le mura di un laboratorio frequentato da poche decine di persone, immaginiamo cosa può succedere se questo stesso principio viene applicato su scala planetaria come ha ben pensato lo stesso Linus Torvalds quando ha gettato il primo codice incerto di Linux.

L’idea di Open Source, e soprattutto di Free Software, tuttavia, è stata vissuta nei laboratori del pionerismo informatico senza averne una reale consapevolezza. Lo scambiarsi codice, il correggerlo, estenderlo, sono gli strumenti del rapido sviluppo di questa nuova branca della scienza, non una precisa scelta morale. Il concetto di proprietà del software era sentito come un riconoscimento di paternità, non uno strumento di profitto. Esattamente, come detto, un teorema per un matematico. Infatti quando il software uscì dai laboratori per essere impiegato a fini produttivi molti ricercatori e pionieri di questa rivoluzione informatica vennero loro stessi assorbiti dalla nascente industria perdendo il concetto di software come bene scientifico. Ma non tutti desistettero. Negli anni ’80, utilizzando le risorse del laboratorio di intelligenza artificiale del MIT, un ricercatore, Richard Stallman, non cedette alle lusinghe economiche del software commerciale e iniziò la sua personale battaglia per sancire il diritto al software liberamente disponibile. Non resta solo per molto, altri programmatori aderiscono al progetto e incominciano ad uscire i primi prodotti. Con i primi risultati altri programmatori si aggregano via Internet, cioè dilettanti, professionisti, ricercatori, autodidatti. Tutti a contribuire a quel nascente intelletto universale che non conosce gerarchie e non ammette proprietà perché unico e indivisibile.

“Quando cominciai a lavorare nel laboratorio di Intelligenza Artificiale del MIT nel 1971, entrai a far parte di una comunità in cui ci si scambiavano i programmi, che esisteva già da molti anni. La condivisione del software non si limitava alla nostra comunità; è un cosa vecchia quanto i computer, proprio come condividere le ricette è antico come il cucinare. Ma noi lo facevamo più di quasi chiunque altro. […] Non chiamavamo il nostro software “software libero”, poiché questa espressione ancora non esisteva, ma si trattava proprio di questo. Quando persone di altre università o di qualche società volevano convertire il nostro programma per il proprio sistema e utilizzarlo, erano le benvenute. Se si vedeva qualcuno usare un programma sconosciuto e interessante, si poteva sempre chiedere di vederne il codice sorgente, in modo da poterlo leggere, modificare, o prenderne e cannibalizzarne alcune parti per creare un nuovo programma.”. Sono queste le parole, pesanti, estrapolate dal progetto GNU di Richard Stallman, l’ultimo degli eroi della rivoluzione informatica del MIT di Boston.

La frontiera elettronica

L’esplosione di Internet colpisce ogni aspetto della nostra vita e termini come “autostrade informatiche”, cyberpunk e hacker fanno ormai parte del nostro linguaggio. Inoltre i mass media mostrano sempre più frequentemente storie di fuorilegge della frontiera elettronica: sembra di essere tornati ai tempi di Billy the Kid, solo che questa volta la sfida non si svolge nella frontiera occidentale del west, bensì in un firewall del cyberspazio. Ma chi sono questi cowboy della consolle che istigano caos e anarchia nella nuova frontiera, che minacciano la sicurezza e l’inviolabilità della Rete?

Poiché Internet sta cambiando il modo in cui la società vede se stessa, sono nate e nascono comunità elettroniche e virtuali globali che condividono interessi comuni, non per motivi nazionalistici, politici o etnici: le frontiere cadono e la nuova realtà dell’etere invade quella fisica. Di conseguenza, chi è in grado di capire la tecnologia, che detiene conoscenza in questo campo e sa come sfruttarla, detiene il controllo: oggi avere accesso alle informazioni significa avere accesso al potere. La preoccupazione dei governi deriva dall’impossibilità di regolare queste nuove infrastrutture elettroniche globali. Sembra di assistere a quello che gli europei di fine XIX secolo avrebbero chiamato “scramble for Africa”, cioè la corsa alla colonizzazione dell’Africa, paese che ancora si ignorava e che si credeva infestato di tribù senza etica e senza leggi che doveva assolutamente essere governato (questo ovviamente era quello che si diceva, nascondendo i reali e ovvi motivi della colonizzazione). Così adesso si corre alla colonizzazione di internet, nata in mani governative, per sua struttura diventata di pubblico dominio e che rischia di dover tornare in mani “sicure”, centralizzate, proprio per la paura di lasciarlo alle tribù della rete, senza etica e senza disciplina.

Internet è infatti la Rete anarchica e clandestina per eccellenza. In assenza di un centro nevralgico, per un governo è quindi difficile, se non impossibile, regolarne il traffico; poco conta arrestare utenti e confiscare computer e modem. Le aziende e i governi hanno l’interesse a mantenere un’opinione pubblica anti-hacker, per giustificare leggi severe di controllo di Internet, il mezzo che minaccia di togliere l’attuale sicurezza alla classe dirigente: per i precedenti motivi, c’è stata, dagli anni Ottanta, un’escalation di interesse dei media nei confronti di questa comunità informatica che è divenuta una minaccia sociale. L’opinione pubblica ha di solito paura di ciò che non conosce: dato che mediamente nessuno conosce personalmente alcun hacker e l’unica fonte di (dis-)informazione sono i mass media che propagano miti e connotazioni negative, stereotipi e leggende, è facile creare una visione distorta del futuro tecnologico e una spirale di allarme sociale. Secondo la “teoria del discorso” di Foucault (1970: tr.it., 1972), questo sarebbe un tipico caso in cui i discorsi dei media hanno contribuito a costruire la realtà del fenomeno, producendo le definizioni più diffuse del tecnocriminale: l’esperienza e l’identità di tale comunità sono state filtrate dai mass media. In questo modo i processi discorsivi messi in circolazione dai media e dalle istituzioni hanno creato dei frame, delle cornici entro cui incanalare e modellare le rappresentazioni degli hacker, investendo la loro identità di una lettura preferita e integrandola in una forma ideologica deviante.

Mass media e istituzioni hanno quindi “etichettato” (Cohen, S. 1972, Young 1971) gli hacker come gruppi socialmente devianti dal mainstream della cultura ufficiale; pericolosi poiché trascendono le norme e i valori legalmente e moralmente accettati. Le connotazioni e immagini pubbliche dominanti sono quelle del “criminale”, una sorta di “marchio” negativo. Si può dire che i mass media, nel processo di selezione degli argomenti, costruiscano racconti dotando gli eventi di nuovi significati drammatici, rinnovando, nel contempo, l’ideologia sottostante le immagini. Gli hacker sono stati, per questo, costruiti come oggetti di drammatizzazione da parte dei media, come del resto l’Aids: infatti, il parallelo stabilito tra la crisi causata dalla malattia del Ventesimo secolo e l’altra crisi dei sistemi di sicurezza ha evidenziato che entrambi i virus, biologici o elettronici, possono replicarsi se trovano un qualche ospite; gli hacker sono ormai considerati una specie di virus cibernetico che minaccia il sistema complessivo e la sicurezza nazionale.

Il modo certo più subdolo per controllare la rete è dunque avvolgerla nel pregiudizio e la demonizzazione. Ha certamente colpito nel segno e nell’immaginario pubblico l’enorme campagna montata da i mass media di ogni tipo e livello negli ultimi anni e tuttora in corso contro la pedofilia in rete. Ogni qualvolta si parla di pedofilia non si dimentica mai di sottolineare che uno dei mezzi usati per le comunicazioni sia proprio internet (esattamente come lo è per tutto il resto della popolazione mondiale: giornalisti, avvocati, meccanici e panettieri, tutti usano internet quando possono, ma non si sentirà mai dire che due panettieri hanno usato la posta elettronica per scambiarsi una ricetta). Siamo arrivati alla ovvia equazione “internet = pedofilia”. Da una parte si tengono così lontane le persone che ancora poco la conoscono e che ne hanno paura (negando così l’accesso all’informazione e alla partecipazione, quindi alla democrazia, che la rete offre), mentre da un’altra parte si giustificano tutte le iniziative di dura repressione della libertà di espressione in rete[4].

Accettare di demonizzare lo strumento significa accettare che non abbiamo il diritto di avere mezzi di espressione realmente liberi e che tutto, compresa la nostra vita, deve essere soggetto a controllo, anche indiscriminato (come il caso di Echelon insegna e che non dimentichiamolo mai, è ancora lì che ci ascolta).

Non è certo nell’iper controllo del mezzo, nella censura, che risiedono le soluzioni a questi problemi, quanto piuttosto con l’unico mezzo che la società umana conosce da sempre, prima di ogni tecnologia: l’educazione. E’ inutile fornire all’uomo ogni sorta di tecnologie se poi non si insegna loro ad usarle, sia in ordine tecnico per dar lo strumento, sia in ordine filosofico per dar lui lo spirito critico. Nonostante questo molti professori e genitori continuano ad opporsi a questo tipo di insegnamento: il mettere in discussione una autorità (qualsiavoglia sia e in qualsiasi luogo di intervento) può essere visto come un terribile pericolo per un educatore e un governatore.

Comunità virtuali in mondi reali

Qual è dunque il significato del futuro che possiamo prospettare per la comunicazione in rete? Se migliora ed aumenta la capacità di comunicare e le risorse per mettere in pubblico le proprie idee ed opinioni, generiche o su singoli episodi, se è possibile condividere le proprie esperienze, reali o surrogate, se è infine addirittura possibile condividere la propria intelligenza, mettendo a disposizione tutte le nostre scoperte e/o conoscenze come visto nel caso degli open source, è possibile ipotizzare una conseguenza reale anche al di fuori della realtà virtuale della rete?

In generale non si può non vedere che un simile sistema di risorse offre non poche possibilità nelle capacità di sviluppare anche un sistema democratico che non sia soltanto virtuale. Il tema più interessante riguarda la capacità di un “popolo” di autogovernarsi, ma la possibilità di un autogoverno risiede certamente in più condizioni e tutte fanno base nella capacità di questo popolo di dotarsi di un sistema di comunicazioni e di linguaggio comune, un contesto reale (o virtuale che sia) comune, un mondo condiviso, e quindi, una alfabetizzazione funzionale alla comprensione di questo linguaggio e alla capacità di modificarlo. Come chi non sa né leggere né scrivere potrà mai partecipare attivamente alle decisioni che vengono spesso prese su di lui senza quasi che lo sappia perché non può né sapere le leggi del suo sistema né tantomeno intervenire per modificarle, così è necessario, per far parte della “nuova” democrazia di Internet, acquisire le fondamentali competenze, intervenire, ed intervenire in modo diretto.

Accadrà allora che chi deteneva solitamente il potere lo perderà e chi non l’aveva lo otterrà improvvisamente: mentre, infatti, i candidati politici e le potenze multinazionali hanno fin ora potuto sfruttare i “vecchi” mezzi di comunicazione approfittando della loro natura di media da-pochi-verso-molti, oggi milioni di persone hanno la possibilità di scambiarsi files, immagini e, naturalmente, opinioni, grazie al nuovo medium da-molti-verso-molti. Prima per il successo politico era determinante il buon confezionamento dell’immagine, ora è auspicabile che l’accesso al dibattito e alla discussione diano un qualche contributo al miglioramento e al perfezionamento della democrazia. L’esplosione dei blog in rete rappresentano forse l’esempio migliore di come una comunità possa, dotandosi degli strumenti necessari per la conquista del linguaggio comune, scalzare o comunque competere con il “quarto potere” dei mass media classici. Dan Gillmor, giornalista del San José Mercury News, esprime efficacemente cosa sta avvenendo nella percezione degli utenti dei mass media che contemporaneamente hanno l’accesso ad altre forme di informazione/comunicazione: “Collettivamente i nostri lettori sanno molto più di quello che noi sappiamo e non si accontentano più di una notizia cucinata a metà quando possono entrare loro stessi in cucina”. Nel suo libro “Comunità virtuali”, Howard Rheingold mostra di nutrire una grande fiducia nei confronti dei nuovi media per il loro potere di migliorare il sistema democratico così come funziona al momento attuale. E’ importante che ogni cittadino del mondo abbia almeno potenzialmente la possibilità di creare un sito su qualunque tema voglia e sappia immaginare.

L’obiettivo e nello stesso tempo la fonte della formazione di uno spirito di democraticità risiede in quella che è forse la vera rivoluzione portata dalla rete: la comunità virtuale. Sembra essere questa una sorta di paradiso della democraticità, per svariate ragioni: nessuno, nel momento in cui si inserisce in una conversazione in Rete, può avere pregiudizi di sorta in quanto non si conoscono l’età, il sesso, i gusti sessuali, le ideologie politiche del proprio interlocutore e anche le inibizioni dovute, per esempio, alla timidezza è facile che vengano meno. Per questi motivi molte barriere comunicative cadono dal primo istante. In secondo luogo spesso si rivela una difficile impresa trovare fra le proprie amicizie persone che coltivino i nostri, magari bizzarri, interessi: normale routine su Internet, dal momento che esistono liste di discussione che toccano pressoché ogni sorta di argomento. Infine, si trascendono le classiche categorie con cui siamo soliti classificare il mondo: lo spazio e il tempo acquistano un valore diverso, talvolta lo perdono del tutto, ed ecco che ci troviamo a conversare con individui lontani da noi migliaia di chilometri e di ore.

Ma, ci piace insistere su questo, il vero spartiacque è nel carattere dell’informazione che in queste comunità viene fornita; il solco sempre più profondo che qui si è venuto a creare tra i cosiddetti produttori di informazione (i media classici, unilaterali, spesso sorretti da potentati politici e multinazionali economiche) e i fruitori, il cosiddetto audience. Tra gli strumenti che queste comunità hanno a disposizione ce n’è una in particolare che merita una considerazione a parte: il weblog (diminuito quasi sempre in blog).

“I weblog sono lo strumento di comunicazione più libero che il mondo abbia mai conosciuto”, come sottolinea Clay Shirky[5], “i costi per aprirne uno sono irrisori [..] fatto di per sé che indebolisce l’effetto per cui la libertà di stampa esiste solo per coloro che se la possono permettere”. Ciò che è importante è le conseguenze che ne derivano dal fatto che a produrre informazione siano i fruitori stessi: l’informazione arriva anche laddove i media tradizionali non possono e di solito non vogliono arrivare (se non altro perché i media hanno di solito un proprietario e come tale dotato di interessi economici e ideologici che deve proteggere e lo fa con la forza dei suo mezzi di informazione). Dopo un primo attacco diretto, perpetrato per anni da parte del “giornalismo costituito”, denigrando apertamente queste forme di auto-informazione orizzontale e dilettantesca, poiché il fenomeno non accennava a ritornare nei sotterranei della rete ma anzi è sempre diventato più di massa (in un modo estremamente diverso di come sono di massa i media tradizionali), l’Ordine ha pensato bene, questa volta, di farsi amico il nemico: se si da più autorevolezza, o laddove questo succede, ad un blog in rete perché questo ci rassicura come qualcosa di veramente democratico e aperto, allora anche i giornalisti ufficiali aprono i loro blog (chiaramente moderati, censurati e ben lontani dall’essere una vera interazione con gli utenti, se non altro perché scollegato con il resto delle comunità libere, essendo questi blog appartenenti ai proprietari dei media di cui fanno parte).

Ma “l’underground del cyberspazio, nella sua continua pulsione verso un’informazione sempre più destrutturata e condivisa”[6], è già corsa, istintivamente, ai ripari creandosi (perché se i mezzi non ci sono le comunità se le creano da soli!) un software di condivisione contenuti ancora più orizzontale, che si sta rapidamente affermando: il wiki. Il wiki, a differenza del blog, permette ed anzi stimola la conversazione sotto forma di testo redatto in modalità condivisione. Si tratta in pratica dell’applicazione del principio dell’open source all’informazione (ed infatti il wiki è spesso usato anche per condividere progetti legati allo scambio di sorgenti su cui lavorare collettivamente).

Ma la democraticità non risiede soltanto nella possibilità di scambiarsi opinioni. Le opinioni, da sole, rischiano di restare impulsi elettrici sparsi per la rete se non accompagnano anche una pratica reale e totale di condivisione del nostro vissuto e della nostra intelligenza.

Il nuovo ordine democratico

Tre sono i presupposti, o principi, su cui si muove, si crea e si riproduce lo spirito di questo “nuovo ordine democratico”: la circolazione libera delle idee; l’accesso alle infrastrutture; l’anonimato.

Il primo è certamente la libera, totale, incondizionata circolazione delle idee. “Se c’è qualcosa che la natura ha reso meno suscettibile di altre del diritto di proprietà esclusiva, questa è quell’azione del pensiero che noi chiamiamo idea. Può essere posseduta in modo esclusivo solo fino a quando la teniamo per noi, ma nel momento in cui la divulghiamo diviene gioco forza possesso di chiunque la ascolti e chi la ascolta non può più perderne il possesso” (Thomas Jefferson – terzo presidente degli Stati Uniti D’America). Le idee sono tali che se una di esse viene acquisita da una persona che non è il suo inventore, quest’ultimo non ne perde automaticamente la disponibilità, non è privato, ma continua anche lui a beneficiarne. E’ un fatto naturale che le idee si diffondano, da uomo a uomo, senza restrizione, con la conseguente crescita di ogni individuo e quindi di tutta la comunità. Proprietà esclusive possono essere i supporti materiali delle idee (di un software, il singolo CD-ROM che lo contiene), ma non il contenuto che è prodotto di una attività intellettuale e come tale non può essere rinchiusa in una scatola di plastica. L’obiezione più forte che si sente fare ad una posizione così estrema (come estremista era difatti il presidente degli Stati Uniti, Jefferson!) è che se l’autore di un prodotto intellettuale non fosse padrone delle sue idee nessuno si impegnerebbe più a produrne. Una posizione del genere può essere smentita da milioni di fatti che ne provano piuttosto il contrario (basta pensare al caso di Linux, laddove non solo la condivisione delle idee, senza diritti, ha permesso la creazione di un intero sistema operativo completamente gratuito, ma addirittura questo si è dimostrato assai più affidabile del concorrente commerciale Windows, tanto che l’industria IBM ha pensato di adottarlo per far girare i propri server), ma possiamo certamente riconoscere che la produzione di una idea deve essere in qualche modo riconosciuta al suo autore (senza che questa debba diventare per forza una speculazione economica di qualche multinazionale): si può concedere un diritto ai profitti che derivano da una invenzione al suo autore, ma solo se questo è realmente utile anche alla società altrimenti non c’è modo di tener ferma un’idea. Chiedere un compenso per un’idea divulgata è come se uno scultore che, messa una sua opera in giardino, pretendesse un biglietto da una qualsiasi persona che si fermasse ad osservarla. L’opera è poco più che un “biglietto da visita”[7] che come tale deve servire al contatto, all’interazione.

Quando si parla di copyright e condivisione non si può fare a meno di pensare a quello che è il fenomeno certamente più diffuso e combattuto della rete: lo scambio di mp3. Si grida allo scandalo ancora con la minaccia, terribile, che se il fenomeno continuasse l’industria discografica sarebbe prossima alla morte. A parte il fatto che spesso proprio coloro che divorano i file musicali scambiati sono gli stessi che poi comprano la musica e che spesso proprio la conoscenza di un artista e di un suo lavoro avviene grazie allo scambio illegale di suo materiale (esattamente come sono proprio i software più copiati ad essere anche i più venduti!), pochi sono disposti a credere che se davvero crollasse il mondo delle major discografiche che lucrano su tutti i possibili diritti di un’opera musicale (ovvero stando semplicemente a fare niente, al massimo facendo in modo che un disco costi il quadruplo del suo valore originale), allora tutti improvvisamente smetterebbero di fare musica. Personalmente sono disposto a credere il contrario. Chi ha passione e voglia di creare un prodotto musicale ha adesso la risorsa Internet per farla conoscere in modo veloce e senza intermediari scegliendo se chiedere un compenso o una donazione in cambio o se il suo lavoro sarà soltanto l’esibizione dal vivo, la sola che rappresenta una reale forma di lavoro, al contrario “della SIAE e delle reti distribuzione che nell’ultimo mezzo secolo hanno guadagnato grottesche somme derivanti dal puro far niente”[8].

Per diffondere idee e condividere opere dell’intelligenza universale i buoni propositi non bastano: serve lo strumento, ovvero l’accesso alle infrastrutture che rendono possibile il suo utilizzo. In una fase storica in cui tutta la libertà dell’informazione passa da Internet, l’accesso ad Internet diventa un caposaldo del diritto alla comunicazione e quindi inalienabile. Il problema è culturale piuttosto che tecnico: percepiamo la rete ancora qualcosa di estraneo, di addetti ai lavori o peggio ancora, di criminali in cerca di “contatti”, parola che invece di fare gola fa sempre più paura. Vale certamente la pena ricordare come in Italia ci sia stati casi in cui le amministrazioni comunali hanno deciso di regalare la banda larga a tutta la popolazione in modo da non creare disparità di accesso all’informazione e come tali esperimenti (i comuni sono quelli di Vicopisano e Santo Stefano Belbo) siano stati aspramente criticati proprio dal consigliere Internet del Ministro Gasparri, tal Gianluca Petrillo, definendolo addirittura un “crimine” molto grave da stroncare il prima possibile.[9]

Infine l’anonimato, la possibilità di poter esprimere le proprie opinioni senza dover esporre anche il nostro io reale. L’anonimato di per sé fa pensare a qualcosa di negativo (“se non hai paura di quello che fai, perché ti nascondi?”), ma è proprio grazie all’anonimato che la rete è diventata quella che è: il crocevia più imponente di scambi di opinioni, di idee e di “contatti”. Non ci addentreremo nel problema della privacy e della sicurezza in rete, che pure meriterebbe un ampio capitolo a parte (e che riguarderebbe soprattutto l’esigenza di sottrarsi, almeno qui, al controllo spesso totalitario che gli avversari della comunicazione libera tendono a chi invece si sente libero di parlare di quello che vuole), ma potersi esporre senza “esporsi” tira fuori il nostro reale bisogno di comunicazione, bisogno spesso frustrato perché nella vita di tutti i giorni spesso i rapporti sono viziati da condizioni di disparità di livello (di potere, di cultura, di autorità) che ne rendono quasi sempre impossibile una reale interazione, un reale passaggio bidirezionale. Assistere ad un dibattito pubblico in piazza non è molto lontano come assisterlo in tv in un programma dove si lascia ai telespettatori la possibilità di telefonare da casa: saranno sempre coloro che producono lo spazio di informazione che hanno l’ultima parola, hanno il pubblico ed il potere di decidere realmente di “cosa” è giusto parlare, e in che termini.

Conclusioni

C’è davvero spazio quindi per una reale condivisione dei saperi e la costituzione di quella sempre ricercata “intelligenza universale” di ficiniana memoria?

Non vogliamo e non possiamo essere troppo ottimisti perché la rete non è che un possibile “mondo” con il quale misurarsi, con i suoi codici e i suoi valori di verità, ma se ad abitarlo sono gli stessi cittadini di “quell’altro mondo” dove la percezione dell’altro è quasi soltanto verticale o condizionata; dove informatori e fruitori passivi sono tenuti ben divisi; dove le idee vanno in una direzione sola; dove l’intelligenza stessa è considerata un qualsiasi prodotto commerciale; se i cittadini sono gli stessi, dicevamo, e vivono anche una realtà “virtuale” in cui tutto questo viene loro dimostrato che può non essere necessario, ma che esiste un altro “mondo possibile”,  allora credo che in qualcosa è ancora possibile sperare.


[1] Steven Levy – Hackers, heroes of the computer revolution – Shake Edizioni 1996 Milano

[2] E’ interessante il caso del sindaco di Vicopisano che, una volta regalata la banda larga a tutti i cittadini del proprio comune, si è visto piovere addosso le pesanti e sprezzanti critiche del sottosegretario del ministro Gasparri. L’intento del sindaco fu proprio quello di dare a tutti, nessuno escluso, la “possibilità” della fruizione di tutte le possibilità enormi della rete. L’accusa da parte del governo fu la definizione di questo gesto come un gesto “criminale”!. Cfr. nota. 9

[3] H. Rheingold, Smart Mobs, the next social revolution: transforming cultures and communities in the age on instant access, Perseus Publishing, USA, 2002

[4] Caso significativo fu il libro di Luther Blissett “Lasciate che i bimbi. Pedofilia: un pretesto per la caccia alle streghe” (ottobre 1997 – Castelvecchi) in cui, con l’analisi di una montagna di inesattezze e di errori giudiziari, si dimostra come si siano strumentalizzati dei reati con il fine di reprimere duramente la libertà della rete.

[5] Docente all’Interactive Telecommunications Program della New York University

[6] Stefano Gulmanelli “PopWar – Il NetAttivismo contro l’Ordine Costituito” Apogeo – Milano 2003

[7] Stefano Gulmanelli, cit.

[8] LockOne, praticante del P2P

[9] Il sole 24 ore, 6 luglio 2003. cfr nota 2

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *