Questo capitolo traccia una breve storia dell’evoluzione dei principali paradigmi per l’interazione uomo-computer che si sono consolidati nell’ultimo mezzo secolo, in stretta relazione con le tecnologie per l’interazione: la teletype, il terminale video, il personal computer, il browser web, il mobile. Con il social computing l’interfaccia utente assume, infine, il compito di mediare l’interazione fra più utenti connessi in rete. A conclusione del Capitolo, si accenna all’evoluzione in atto verso la cosiddetta intelligenza ambientale.
Con i primi computer l’utente non aveva alcuna interazione
diretta. Di solito, lasciava al centro di calcolo il pacco di schede (batch) con i lavori (job) da svolgere, e passava a ritirare i
tabulati con i risultati qualche ora dopo, o il giorno successivo. Il computer
veniva gestito da operatori specializzati, ed era sostanzialmente
inavvicinabile dall’utilizzatore finale, che era comunque un tecnico. Da
quando, con i sistemi time-sharing degli anni ’60, questo utente ha avuto la
possibilità di interagire direttamente con la macchina attraverso un terminale
interattivo, la comunicazione fra uomo e calcolatore si è evoluta consolidando
un certo numero di paradigmi
d’interazione diversi, che vogliamo qui ripercorrere brevemente. Come filo
conduttore sceglieremo l’evoluzione della tecnologia: i differenti dispositivi che si sono di volta in volta
maggiormente diffusi hanno suggerito modalità di interazione differenti e, a
loro volta, ne sono stati influenzati, in un ciclo di retroazione fra lo strumento
e il suo utilizzo che ha prodotto una evoluzione continua e radicale delle
modalità di interazione uomo-macchina, tuttora in corso (Figura 1).
Figura 1. Evoluzione dei paradigmi d’interazione uomo-computer
Dovendo
schematizzare, prenderemo come riferimento sei tecnologie fondamentali, che
hanno determinato altrettanti paradigmi di interazione fra uomo e computer, la
cui evoluzione nel tempo è indicata approssimativamente nella Figura 2:
· il terminale scrivente;
· il terminale video;
· il personal computer;
· il browser web;
· il mobile.
Figura 2. Evoluzione dei paradigmi/tecnologie d’interazione uomo-computer
Come si vede dallo schema di Figura 2, e come vedremo meglio
in seguito, l’evoluzione dei paradigmi d’interazione non è sequenziale. In ogni
momento convivono paradigmi differenti, in un gioco di sovrapposizione e
d’interazioni molto complesso. Questo perché, normalmente, il ciclo di vita di
una generazione tecnologica è più lungo del ciclo dell’innovazione della
tecnologia. In altre parole, l’innovazione tecnologica produce prodotti di
nuova generazione prima che i prodotti della generazione precedente abbiano
concluso la loro esistenza nel mercato.
Tipicamente, il software ha un ciclo di vita piuttosto
lungo: un sistema di software applicativo può vivere, rimanendo essenzialmente
se stesso nonostante i continui interventi di manutenzione, anche per diecine
d’anni. Ne consegue che raramente il software in uso presso un’organizzazione
viene rinnovato contestualmente al rinnovo delle tecnologie hardware e, in
particolare, di quelle relative all'interazione utente-calcolatore. Si osserva
quindi in molti casi, per così dire, un ritardo dei paradigmi d’interazione
adottati dal software effettivamente in uso, rispetto a quanto sarebbe
possibile in relazione all’evoluzione della tecnologia. Così, ad esempio, programmi
progettati per essere utilizzati con terminali scriventi sono spesso
sopravvissuti a lungo dopo l'adozione di terminali video. Si pensi, ad esempio,
ai line editor, sopravvissuti a volte
per molti anni all’introduzione dei terminali video, nonostante che questa
tecnologia permettesse, con gli editor full-screen, un trattamento del testo
ben più agevole; si pensi, ancora, ad alcuni grossi sistemi di prenotazione
voli basati su un'interazione a comandi ancora in uso, ecc. Si osserva così,
spesso, una sorta di sovrapposizione di
paradigmi diversi in uno stesso sistema di calcolo, che in qualche modo
riflette l’evoluzione tecnologica avvenuta durante la vita del sistema stesso.
Il terminale scrivente
o teletype era essenzialmente un
apparato composto da tastiera e stampante integrata, a foglio continuo (Figura 3). A confronto con i
terminali sviluppati successivamente, le prestazioni erano molto modeste, sia
per quanto riguarda la velocità di stampa (per esempio, 30 caratteri al
secondo) che per quanto riguarda la velocità di trasmissione lungo la linea
verso il calcolatore (per esempio, qualche diecina di caratteri al secondo). Con
la mediazione di tale dispositivo, con il calcolatore si dialoga per iscritto; il paradigma d’interazione che si è
inizialmente consolidato è pertanto quello della comunicazione scritta:
SCRIVI E LEGGI
Tipicamente, il calcolatore segnala all'utente il suo stato
di attesa comandi; l'utente digita allora un comando, cui segue la
risposta dell'elaboratore e il sollecito (prompt) successivo, che vengono stampati sul rullo di carta. Questa
è la modalità comunicativa di molti command
language (come per esempio quello tradizionale dei sistemi Unix, MS-DOS e
Linux), o dei query language per
l'interrogazione di basi di dati (come ad esempio il linguaggio SQL) o, ancora,
di molti adventure game della prima
generazione, di tipo testuale.
Figura 3. Terminale scrivente (teletype)
In tutti questi esempi, è l'utente che ha il controllo del
dialogo: il computer ha un ruolo passivo, limitandosi a riconoscere le
richieste e a fornire le risposte.
Sono stati tuttavia sviluppati, anche sistemi in cui questi ruoli sono
invertiti, e il dialogo è totalmente controllato dalla macchina: è l'utente ad
avere un ruolo passivo, e si limita a fornire le risposte richieste. Esempi
tipici sono i sistemi esperti, gli advisory system, e in generale tutti
quei sistemi in cui è il calcolatore ad avere competenza del problema e potere
di decisione nella conduzione della conversazione.
La Figura 4 mostra un tipico
esempio di questo stile di interazione, tratto da Mycin, un sistema esperto
progettato nei primi anni ’70, il cui scopo era suggerire gli antibiotici più
adatti per curare specifiche infezioni batteriche. Mycin poneva al medico una
serie di domande, in un ordine predeterminato in funzione delle risposte
precedenti.
Figura 4. Dialogo controllato dal sistema (Mycin)
Paradigmi basati su una vera e propria conversazione fra utente e sistema, in questa fase dell’evoluzione
del dialogo uomo-macchina, sono ancora al di fuori delle possibilità della
tecnologia, non solo per le difficoltà tecniche insite nell'elaborazione del
linguaggio naturale, ma soprattutto per la grande complessità e ricchezza
intrinseche nella nozione stessa di conversazione.
Con l'introduzione, dal 1971, del terminale video (Figura 5), il tabulato continuo della
teletype viene sostituito dallo schermo video
(tipicamente di 24 linee di 80
caratteri). La velocità di visualizzazione di una singola schermata è
praticamente istantanea, e quella di trasmissione sulla linea verso il
calcolatore aumenta in modo considerevole (tipicamente, tra 150 e 1200 caratteri
al secondo). La tastiera si arricchisce di svariati tasti funzione, che attivano servizi eseguiti dal software
residente sul calcolatore remoto o direttamente dal terminale. Altro aspetto
innovativo è la presenza, sul video, di un cursore
spostabile in ogni direzione mediante tasti appositi. Questo permette
all'utente di indicare una posizione precisa del video. Il cursore è una sorta
di "pennino" che "deposita sul video" il carattere digitato
alla tastiera, o un "dito" con cui indicare l'elemento informativo
d’interesse: un carattere, un campo di input, una voce di menu, ecc.
Permettendo una nuova dimensione "gestuale" (l'atto di indicare sul
video qualcosa con il cursore), il terminale video introduce, sia pure in
embrione, un paradigma nuovo, che si svilupperà appieno con i sistemi dotati di
mouse: quello della manipolazione diretta.
Figura 5. Terminale video IBM 3270 (1972)
La possibilità di visualizzare rapidamente sul video
l'informazione che si sta elaborando, e di indicare col cursore la specifica
porzione d’interesse, suggerisce lo sviluppo di modalità di comunicazione
completamente diverse da quelle che si potevano realizzare con una teletype. Per
esempio, negli editor full-screen,
l'utente che crea o corregge un testo non opera più su una pagina invisibile e
pertanto soltanto "immaginata", come avveniva in precedenza nei line editor, ma su una pagina ben visibile sullo schermo, indicando col
cursore il punto desiderato (per esempio, il punto in cui inserire altro testo,
o il brano da cancellare).
I sistemi software di questa generazione propongono
tipicamente un paradigma di interazione basato su menu e form, da compilare spostando il cursore sui
vari campi di input:
INDICA E COMPILA
A questa categoria di sistemi appartiene la maggior parte
delle applicazioni gestionali sviluppate a partire dagli anni ‘70 per oltre un
quarto di secolo: la compilazione, campo per campo, di una form visualizzata
sullo schermo diviene il paradigma standard per le applicazioni di tipo
transazionale (come i sistemi informativi aziendali).
Per evidenziare meglio la struttura delle form (differenziando
i campi variabili rispetto al testo fisso, separando le varie zone della
maschera, ecc.), i terminali video si arricchiscono negli anni di funzioni
grafiche, anche se rudimentali: caratteri di testo visualizzati in doppia intensità, sottolineati o in reverse, caratteri grafici con
cui comporre cornici o separare zone del video, ecc. Una molteplicità di tasti
funzionali specializzati permette un’interazione scorrevole ed efficiente.
Le transazioni da svolgere sono tipicamente selezionate
attraverso menu: su più linee del
video sono proposte le varie alternative possibili, che l'utente può
selezionare con semplici operazioni alla tastiera, per esempio digitandone il
numero d'ordine. Spesso i menu sono organizzati in modo gerarchico, con la voce
di un certo livello che richiama un menu di livello inferiore, e così via, fino
ad arrivare alla form della transazione selezionata.
Dal punto di vista della qualità dell'interazione, questo
paradigma semplifica molto la natura del dialogo uomo-computer che, se da un
lato guadagna semplicità (le scelte possibili sono ben visibili sullo schermo),
dall'altro perde ricchezza (le scelte possibili sono solo quelle visibili sullo schermo). Con menù e maschere l'utente è
completamente guidato, ma il computer assume un ruolo alquanto più passivo che
in precedenza: da soggetto di un dialogo (che almeno metaforicamente, e con
molta generosità, poteva ricordare il dialogo fra due interlocutori umani - si
pensi all'immagine del "cervello elettronico", ricorrente negli anni
'50 e '60), diviene ora puro oggetto di manipolazione, più o meno come un
telefono, una lavatrice, un televisore.
Nel personal computer,
al video e alla tastiera si aggiungono potenza di calcolo locale,
possibilità di archiviazione su dischetti flessibili asportabili o su
dischi interni e possibilità di stampa locale. Dopo i primi home computer, nati alla fine degli anni
settanta e destinati essenzialmente al mercato degli amatori o al nuovo incerto
mercato dell'home computing, dal 1981 il personal computer entra nel mondo
delle aziende con il PC IBM (Figura 6a). Questo si afferma
subito come standard di fatto, al quale quasi tutti i costruttori si
allineano proponendo macchine compatibili.
Figura 6. Il primo PC IBM (a) e il primo Apple Macintosh (b)
Con il personal computer l'elaboratore esce dal centro edp e
arriva sulla scrivania di utenti non informatici: impiegati, professionisti,
studenti. Dal punto di vista dell'interazione
uomo-macchina, nasce una nuova era.
Nell'arco di pochi anni vengono realizzate e diffuse applicazioni software
innovative, concepite per un mercato di largo consumo, che non hanno eguali fra
i prodotti dell’informatica tradizionale, per facilità d'uso e attenzione
complessiva all’interfaccia con l’utente.
Rispetto al terminale video, due sono le grandi novità che
modificano drasticamente la qualità dell'interazione. Da un lato, la potenza di
calcolo locale permette al computer
di reagire agli stimoli dell'utente con tempi di risposta quasi immediati, a
differenza dei terminali tradizionali, che dovevano attendere la risposta
dell’elaboratore collegato da linee dati ancora relativamente lente. Dall'altro
lato, la possibilità di archiviazione locale cambia profondamente il rapporto
dell'utente con i dati gestiti dall’elaboratore. Questo, da depositario di dati
conservati in archivi centrali e accessibili soltanto per il suo tramite,
diviene piuttosto uno strumento di manipolazione dei dati, che l'utente gestisce in modo flessibile, decidendo di volta in
volta dove depositarli, se su supporti asportabili (dagli iniziali floppy-disc
fino agli attuali pen-drive) oppure sul disco interno alla macchina.
Il personal computer introduce una forte discontinuità con
il passato, e avvia un processo di radicale trasformazione degli strumenti
informatici. Dal punto di vista dell’interazione uomo-computer, l’esempio più
significativo è probabilmente quello del foglio
elettronico (o spreadsheet), la “killer application” del personal
computer, cioè il prodotto software che, da solo, ha più contributito alla
rapida diffusione sul mercato di questo strumento.
Visicalc, il primo foglio elettronico, fu realizzato da Dan
Bricklin e Bob Frankston inizialmente per il personal computer Apple II nel
1979 (Figura 7). Esso sfruttava appieno
la possibilità di un’interazione estremamente rapida con il calcolatore. Con un programma di questo tipo, utente e
computer operano alternativamente su una tabella visibile sullo schermo,
contenente dati legati fra loro da relazioni matematiche, anche molto complesse.
Ogniqualvolta l'utente aggiorna un valore in tabella, il programma, in modo
pressoché istantaneo, aggiorna tutti
i valori correlati, permettendo all'utente di verificare le conseguenze delle
proprie variazioni (in un bilancio, in un budget, in un piano di vendite, ...),
e di modificare nuovamente, di conseguenza, i valori forniti. Il computer
diviene uno strumento flessibile di simulazione what if ("che
cosa succederebbe se..."), in un rapporto interattivo con il suo
utente sconosciuto in passato. Per
non rallentare queste manipolazioni, i menu e i dati (che nelle applicazioni
transazionali classiche apparivano in momenti diversi sul video) vengono ora
collocati assieme in un'unica schermata, che contiene sia la tabella del foglio
elettronico che un menu orizzontale, ridotto a una o due righe dello schermo (menu bar).
Figura 7. Visicalc per Apple II (1979)
Il sistema operativo del PC IBM, l’MS-DOS della neonata
Microsoft, aveva un’interfaccia utente piuttosto rudimentale, basata su un
linguaggio di comandi del tipo scrivi-e-leggi, e quindi di concezione piuttosto
antiquata. La grande rivoluzione, che determinerà il paradigma del personal computing fino ai nostri
giorni, doveva nascere nei laboratori del PARC (Palo Alto Research Center)
della Xerox. Qui, un gruppo di pionieri della HCI stava da tempo sperimentando
prototipi di personal workstation per il lavoro di ufficio. Il risultato principale di queste
attività fu il sistema Star (1981), un computer personale dotato di elevata
potenza di calcolo, video grafico di buona risoluzione, a doppia pagina, tastiera
e mouse (Figura 8).
Figura 8. Personal computer Xerox Star (1981)
Il mouse, inventato da Douglas Engelbart a metà degli anni
60, apparirà per la prima volta sul mercato con lo Star, e diventerà in seguito
il corredo standard di ogni personal computer. L'utente, spostando il mouse sul
piano della scrivania, è in grado di muovere un puntatore sul video, con grande precisione e rapidità. Il mouse è dotato, secondo i modelli,
di uno, due o tre pulsanti, premendo i quali è possibile comunicare al
calcolatore informazioni aggiuntive.
È, in sostanza, come se l'utente indicasse un oggetto sul video e
dicesse, contemporaneamente, "questo!".
Il mouse introduce possibilità d’interazione completamente
nuove rispetto alla semplice tastiera, permettendo di comunicare con il
calcolatore, per così dire, a gesti. Nonostante la sua semplicità, esso
permette infatti una buona varietà di azioni: puntare (pointing), cliccare (clicking)
una o due volte (double-clicking),
col tasto sinistro o destro del mouse (right-clicking),
premere (pressing), trascinare (dragging). La disponibilità di un video
grafico a buona risoluzione, su cui rappresentare oggetti con accurata resa
grafica, e di un mouse con cui indicare, selezionare, trascinare questi oggetti
qua e là per lo schermo, suggeriscono allora un paradigma d’interazione del
tutto nuovo, che possiamo sintetizzare con lo slogan:
NON DIRLO, FALLO
A questo paradigma è stato dato il nome di manipolazione diretta[1], perché l’utente può
operare direttamente sugli oggetti rappresentati graficamente sul video, selezionandoli,
spostandoli, manipolandoli in vario modo. In questo modo si elimina - o almeno si
riduce notevolmente - l’intermediazione del linguaggio scritto nella
comunicazione fra uomo e calcolatore. Anche se gli oggetti grafici da
manipolare possono essere di qualsiasi tipo, il paradigma della manipolazione
diretta è stato principalmente utilizzato per la realizzazione di sistemi basati
sulla metafora della scrivania (desktop). Questa, inventata dai
progettisti del PARC della Xerox, apparve per la prima volta sullo Star, con
tutti gli elementi base dei sistemi odierni: finestre (windows), icone che rappresentavano documenti e cartellette (folder), menu (Figura 9). Lo Star però era
ancora troppo costoso, e fu un flop commerciale. L’idea fu invece portata con
grande successo sul mercato di massa dalla Apple con il primo Macintosh (1984),
una macchina a basso costo con un’interfaccia desktop molto semplificata, ma
eccezionalmente gradevole (Figura 10). Successivamente il
paradigma fu adottato dalla Microsoft, e si diffuse universalmente, a partire
dal sistema Windows 3.0 (1990) e soprattutto con Windows 95 (Figura 11), fino a diventare il
paradigma standard per i personal computer. Nonostante le differenze e i
numerosi miglioramenti introdotti nei vari sistemi, gli elementi costitutivi di
questo stile di comunicazione sono, a trent’anni di distanza, ancora quelli
proposti nel 1981 con il sistema Star.
A questo stile d’interfacce si dà spesso
il nome di WIMP, acronimo per Windows, Icons, Mouse, Pointer.
Figura 9. Il desktop dello Xerox Star (1981)
Figura 10. Il desktop del primo Apple Macintosh (1984)
Figura 11. Il desktop di Microsoft Windows 95 (1995)
Il paradigma della manipolazione diretta sarà poi applicato,
oltre che nelle interfacce di tipo desktop, nei sistemi basati sulla metafora del pannello di controllo.
Qui, il video tende ad assomigliare al pannello di un'apparecchiatura
elettronica, con pulsanti, interruttori, slider, spie luminose,
display numerici, ... Esempi di questa tendenza sono
numerosi, dai sistemi che realizzano quadri di comandi per impianti di
controllo di processo, ai vari simulatori, come il classico Flight Simulator della Microsoft. In esso, a
partire dai primi anni ’80, il video mostrava, fedelmente riprodotto nei
dettagli, il quadro dei comandi di un aereo (indicatore della velocità
dell'aria, altimetro, orizzonte artificiale, bussola, misuratore del
carburante, pressione e temperatura dell'olio, ...).
Oggi si preferisce usare il termine “manipolazione diretta”
quando l’interazione avviene direttamente
su uno schermo tattile. In effetti, l’interazione attraverso il mouse o
dispositivi quali touchpad o
tavoletta grafica è di tipo indiretto:
invece di operare sullo schermo, l’utente opera sul piano della scrivania
(reale) o sulla tavoletta. Con la
tecnologia degli schermi multi-touch,
la manipolazione diretta degli oggetti rappresentati sullo schermo si
arricchisce in modo sostanziale, permettendo di utilizzare nel dialogo uomo-macchina
una gestualità naturale, sviluppata nell’interazione con gli oggetti reali. La Figura 12 ne mostra un semplice
esempio: i gesti utilizzati per ingrandire (a sinistra) e rimpicciolire (a
destra) un’immagine visualizzata sullo schermo di un iPhone. Non è difficile
trovare altri esempi, più complessi.
Figura 12. Esempio di manipolazione diretta con schermi multi-touch (dal manuale dell’Apple iPhone, 2007)
L'uso del mouse, con l’azione di puntare e cliccare come
metodo base dell’interazione, suggerisce naturalmente l'idea di presentare sul
video dei "bottoni” virtuali sui quali operare premendo i bottoni (reali)
del mouse. Si delinea così un nuovo stile del dialogo uomo-computer, in cui la
comunicazione di base è molto semplificata, riducendosi alla semplice pressione
di bottoni. I bottoni stessi si evolvono e, per così dire, si smaterializzano,
trasformandosi in testo cliccabile o aree sensibili su immagini grafiche:
POINT & CLIC
Questa modalità d’interazione si diffonderà, a partire dalla
fine degli anni ’80, con i primi sistemi per la gestione di ipertesti. Essenzialmente, un ipertesto
è un testo costituito di parti chiamate nodi,
fra loro collegati da link, che
associano nodi semanticamente correlati (Figura 13). Il lettore di un
ipertesto non è più vincolato a una lettura sequenziale, ma lo può “esplorare”
lungo percorsi diversi e personalizzati, in funzione dei suoi interessi.
v
Nel caso in cui i nodi contengano, oltre al testo, anche
componenti multimediali (immagini, audio, animazioni, video) si usa il termine
più generale di ipermedia. L’anno di
diffusione su larga scala dell’idea di ipermedia può essere considerato il
1987, con due eventi importanti: la prima edizione del convegno biennale
dell’ACM su questa tecnologia (ACM
Conference on Hypertext and Hypermedia), e il lancio sul mercato di Hypercard,
il software per la creazione la gestione di ipermedia realizzato da Bill
Atkinson per il Macintosh della Apple. Questo programma, per quel tempo
rivoluzionario, permetteva di costruire ipertesti (chiamati stack) composti da pagine grafiche
(chiamate card), sulle quali si
potevano definire delle aree sensibili al clic del mouse, ciascuna collegata a
un link. Cliccando su una di tali aree si attivava il link, che portava
all’esecuzione di un programma (script)
ad esso associato, scritto in un linguaggio di programmazione molto
semplificato (hypertalk). Nei casi
più semplici, questo script si limitava a prelevare dallo stack una specificata
card, e a mostrarla sul video (Figura 14). In altri casi, poteva eseguire calcoli
complessi.
Figura 14. Hypercard (Apple, 1987)
Per i primi anni gli ipertesti furono esclusivamente
off-line, realizzati per il nuovo mercato dei CD multimediali. La vera
diffusione su scala planetaria del paradigma “point and click” avverrà però
solo qualche anno dopo, dai primi anni ’90, con l’invenzione del Web per opera
di Tim Berners-Lee. Il World Wide Web altro non è, infatti, che un gigantesco
ipertesto, i cui nodi (chiamati pagine)
non sono contenuti in un unico archivio locale (come in Hypercard), ma sono
distribuiti geograficamente, sui server connessi alla rete Internet. L’utente
naviga all’interno del Web attraverso un browser:
un programma per personal computer che, sostanzialmente, visualizza una
pagina web e supporta l’utente nella navigazione attraverso le funzioni di
point & clic. Con questa tecnologia, il Web assume ben presto una
dimensione planetaria. La crescita del World Wide Web è esponenziale: dal primo
sito messo in rete da Berners-Lee nel 1991, si arriverà agli oltre 200 milioni
di siti a inizio 2010, distribuiti su centinaia di milioni di server (oltre 700
milioni nel 2009). La Figura 15 mostra una stima della
crescita dei siti web nel mondo, a partire dal 1996. La linea più alta
rappresenta il numero totale di siti, quella più bassa solamente i siti che
risultano attivi.
Figura 15. Siti web nel mondo (x1000)[2]
Per risolvere il problema del reperimento delle informazioni
all’interno di questo spazio, nascono allora le directory (per esempio Yahoo) e i motori di ricerca, che indicizzano l’enorme quantità di
informazioni presenti sul Web e ricercano, in questi indici, le parole chiave fornite
dall’utente.
Attraverso il browser web, che convive con l’interfaccia
classica di tipo desktop del personal computer, gli utenti imparano a navigare nella rete. In pochi anni, il
personal computer assume una dimensione nuova: da sistema stand-alone su cui
svolgere prevalentemente lavoro di word processing, calcolo e archiviazione
personale, a information appliance,
un dispositivo per la ricerca e l’accesso all’informazione in rete. I comportamenti degli utenti si
modificano radicalmente: la diffusione della banda larga e la riduzione dei
costi di connessione permettono a una crescente percentuale di utenti
collegamenti always-on, che
permettono un accesso potenzialmente istantaneo a tutta l’informazione
disponibile sul Web.
Nonostante questa profonda trasformazione, l’interfaccia dei
personal computer resta sostanzialmente ancorata al paradigma del desktop, nato
più di due decadi prima. Il programma di accesso alla mail e il browser web non
sono in alcun modo delle applicazioni privilegiate, nonostante che in molti
casi l’uso del PC sia sostanzialmente incentrato su questi due programmi. In
particolare, i browser web non si discostano sostanzialmente dal modello
proposto inizialmente da Mosaic (1993):
un visualizzatore di pagine web – una pagina alla volta, nella finestra
aperta sul desktop – tra le quali navigare con il modello del
point&click e con l’ausilio di un motore di ricerca.
Se l’interfaccia rimane la stessa, il Web evolve
continuamente, e in modo radicale. Dai primi anni 2000, permette all’utente di
trasformarsi, da navigatore e consumatore passivo dell’informazione presente in
rete, a creatore di contenuti. Si diffondono sistemi che permettono agli utenti
di effettuare l’upload di propri
contenuti in rete, senza che per questo sia necessario disporre di particolari
competenze tecniche e di server propri. In molti casi, il servizio è
disponibile gratuitamente, o a costi molto contenuti. Nascono milioni di blog,
in cui gli utenti pubblicano i loro pensieri, gigantesche collezioni di immagini
(per esempio www.flickr.com), di video (per esempio, www.youtube.com), di musica; nascono
opere collettive realizzate da migliaia di volontari, come www.wikipedia.com. Sulla copertina del Natale 2006 della rivista Time, tradizionalmente dedicata al
personaggio dell’anno, non compare alcun ritratto, ma semplicemente uno
specchio fissato sullo schermo di un personal computer, con la scritta: YOU.
L’utente, da navigatore, si è fatto protagonista
del Web. A partire dai primi anni del nuovo secolo, la rete diventa
l’infrastruttura di base attraverso cui gli utenti comunicano, socializzano,
interagiscono e collaborano fra loro. Il Web, che prima era considerato
sostanzialmente un gigantesco ipertesto, si trasforma nel social Web. Gli utenti, a milioni, si tengono costantemente in
contatto attraverso i siti di social
networking: nel 2010, Facebook (fra i tanti, il più popolato) conta più di
350 milioni di utenti.
I siti web, da contenitori di informazioni accessibili
sostanzialmente in sola lettura, evolvono radicalmente, e si trasformano in
applicazioni software a disposizione (molto spesso gratuitamente) degli utenti.
La rete è vista come un gigantesco computer, in grado di erogare informazioni e
servizi applicativi a milioni di utenti (cloud
computing).[3] In questo nuovo
contesto, il paradigma point&clic si arricchisce di possibilità. L’utente
“punta e clicca” non solamente per navigare fra le pagine, ma anche per
eseguire applicazioni. Mentre nel vecchio Hypercard le applicazioni risiedevano
localmente sul proprio PC, ora sono servizi erogati attraverso la rete da
sistemi remoti, potenzialmente sparpagliati sull’intero pianeta. Spesso
un’applicazione integra servizi provenienti da fornitori diversi, senza che
l’utente ne sia consapevole (mashup).
Un esempio paradigmatico è costituito da Hyperwords, un semplice plugin per browser. Esso permette
all’utente, cliccando su una parola di una qualsiasi pagina web, di attivare,
su quella parola, un servizio di rete scelto fra un menu di possibilità. La Figura 16 ne mostra un esempio.
Cliccando su una parola qualsiasi (in questo caso, “United Kingdom”) e
selezionando Reference e poi Google Definition dai menu che appaiono, viene
visualizzata la definizione di “United Kingdom” secondo Google. Cliccando
invece Reference e poi Wikipedia comparirà la pagina di Wikipedia relativa alla stessa
parola. Le possibilità sono numerose, quanto i servizi in rete. Per esempio, è
possibile trovare la parola in un dizionario, ricercarla con il motore di
ricerca preferito, trovarne le illustrazioni disponibili in un repository
d’immagini, perfino tradurla in una lingua selezionata, usando il traduttore di
Google. Il tutto è realizzato, semplicemente, attivando il servizio e
trasmettendogli la parola selezionata come parametro.
Figura 16. http://www.hyperwords.com (2009)
Il paradigma della mobilità
(mobile computing) ha una storia che
inizia da lontano. Già nei primi anni ’70 Alan Key, allora ricercatore al PARC
della Xerox nel dream team che
avrebbe determinato gran parte dell’evoluzione dei modelli d’uso del
calcolatore, aveva immaginato uno strumento che per quei tempi sembrava
fantascientifico, al quale aveva dato il nome di Dynabook, per dynamic book, libro
dinamico. In un articolo visionario del 1977, aveva scritto:
Immaginate di avere il vostro personale manipolatore di
conoscenza in confezione portatile, della dimensione e della forma di un
normale blocco da appunti. Supponete che esso abbia abbastanza potenza da
superare i vostri sensi della vista e dell'udito, abbastanza capacità da
immagazzinare, per un successivo reperimento, migliaia di pagine-equivalenti di
materiale di riferimento, poemi, lettere, ricette, registrazioni, disegni,
animazioni, spartiti musicali, forme d'onda, simulazioni dinamiche, e qualunque
cosa voi possiate desiderare di ricordare e modificare. Pensiamo a un apparecchio
piccolo e portatile per quanto è possibile, in grado sia di ricevere sia di
fornire informazioni in quantità paragonabili a quelle del sistema sensorio
umano. L'output visivo dovrebbe essere, almeno, di qualità migliore di quella
ottenibile dai giornali. L'output uditivo dovrebbe avere un simile standard di
alta fedeltà. Non ci dovrebbe essere alcuna pausa percepibile fra causa ed
effetto. Una delle metafore che abbiamo usato per progettare tale sistema è
quella di uno strumento musicale, come un flauto, che è posseduto dal suo
utilizzatore e risponde in modo istantaneo e consistente ai desideri del suo
proprietario. Immaginate quanto sarebbe assurdo il ritardo di un secondo fra l'atto di soffiare una nota e il suo ascolto! [4]
Uno strumento di questo tipo era ancora ben lontano dalle
possibilità della tecnologia, hardware e software: lo si poteva solo immaginare
o, al più, visualizzare con
modellino di cartone (Figura 17). Tuttavia il lavoro di Alan Kay ebbe una
grandissima influenza sulle evoluzioni successive dei modelli d’interazione.
Figura 17. Modello di cartone del Dynabook, circa 1971-72[5]
Subito dopo la diffusione dei personal computer all’inizio
degli anni ’80, accanto alle macchine destinate a una postazione fissa (chiamati
desktop computer, o computer da scrivania), iniziarono ad
apparire sul mercato computer personali portatili.
I primi modelli non assomigliavano né al Dynabook né ai portatili di oggi,
erano ingombranti e pesanti. L’Osborne 1, commercializzato nel 1981 quasi
contemporaneamente al primo PC IBM, pesava circa 11 chili ed era privo di
batteria. La situazione migliorò dal 1982-83, quando apparvero i primi laptop, cioè dei PC che potevano essere
tenuti “in grembo” (lap) e il cui
schermo poteva essere ripiegato sulla tastiera, “a conchiglia”. Mancando
l’appoggio sulla scrivania, il mouse dovette essere sostituito da altri
dispositivi di manipolazione, fra cui i touchpad
disposti sulla tastiera. I laptop meno ingombranti, idealmente delle dimensioni
di un libro da appunti, furono in seguito chiamati notebook (Figura 18). I notebook specialmente concepiti per l’utilizzo in rete (mail,
browsing, servizi applicativi in rete), piccoli e leggeri (per esempio, meno di
due chili) e con buona autonomia e basso costo, furono allora chiamati netbook (circa 2007).
Figura 18. Laptop (Lenovo ThinkPad, circa 2008)
Con i notebook, e soprattutto con i netbook dotati di
accesso wireless alla rete, l’utente non ha più la necessità di disporre di una
postazione fissa: può portare con sé una stazione d’accesso a Internet
utilizzabile da qualsiasi località con copertura di rete (nomadic computing). Questo modello d’interazione è vincente, e
sostituirà in breve tempo quello da postazione fissa. La data che simbolicamente
inizia l’”era dei notebook” è il settembre 2009: nel terzo trimestre del 2009,
infatti, le vendite di notebook in tutto il mondo superano, per la prima volta,
quelle dei PC da scrivania. Da questo momento, il notebook si afferma come lo
strumento per tutti, e non più soltanto per il mercato business, al quale si
era inizialmente indirizzato.[6] Non si tratta ancora, tuttavia, di un
uso in mobilità: notebook e netbook, per quanto piccoli e leggeri, devono
comunque essere usati “da fermo e da seduto”. Le modalità d’interazione, per
quanto più snelle, sono ancora sostanzialmente quelle messe a punto per
l’accesso da postazioni fisse, a parte l’uso del mouse, sempre più spesso
sostituito dai touchpad, anche realizzati con tecnologie multi-touch.[7] L’uso di strumenti di comunicazione e
di calcolo “in mobilità e in piedi” (mobile
computing) richiede modalità d’interazione completamente diverse.
Queste modalità iniziano a diffondersi dagli anni ’90, con
l’introduzione dei palmtop (da palm=palmo della mano) o, in italiano, palmari, piccoli computer chiamati così
perché capaci di stare in una mano. Con rifermento alle funzioni inizialmente
prevalenti, questi computer sono stati spesso denominati PDA, per personal digital
assistant (assistenti digitali
personali). I primi PDA non si connettevano alla rete, ma servivano a
gestire la rubrica di indirizzi, l’agenda degli appuntamenti (in
sincronizzazione con quelle sul desktop), a prender appunti, e così via. Il
primo PDA di grande successo, il Palm Pilot (Figura 19), sul mercato dal 1996,
era dotato di un piccolo schermo tattile resistivo e di uno stilo, con cui l’utente poteva scrivere
testi utilizzando una tastiera virtuale sul video, oppure utilizzando una forma
semplificata di scrittura a mano libera, denominata Graffiti. Una parte di
questa alfabeto è riportato in Figura 20 (il pallino su ogni
carattere indica da dove si deve iniziare per tracciarlo).
Figura 19. Palm Pilot 1000 (1996)
Figura 20. Alfabeto Graffiti (Palm Pilot)[8]
Negli stessi anni, si assiste allo sviluppo esplosivo della
telefonia mobile. Inizialmente i telefoni cellulari sono semplici, fornendo le
funzionalità di base per effettuare telefonate e inviare sms. Ma ben presto il
telefono cellulare inizia a integrare funzioni sempre più complesse, e si
trasforma rapidamente in un dispositivo del tutto nuovo. Se ne esaminiamo
l’evoluzione dal punto di vista delle modalità d’interazione con l’utente, possiamo
identificare cinque generazioni di apparati[9], che si susseguono (e
si sovrappongono) sul mercato nello spazio di pochi anni (vedi Figura 21).
·
Prima generazione (1G,
circa 1978 1988).
E’ la “preistoria” della telefonia mobile. Gli apparati sono
ingombranti e costosi, anche per il peso di batterie con la potenza sufficiente
per collegarsi a una rete poco sviluppata e quindi geograficamente molto
sparsa. L’uso è limitato a utenti con necessità di telefonare in mobilità per
lavoro (per esempio, rappresentanti, venditori, ecc.). Un prodotto tipico di
questa generazione è il DynaTAC della Motorola, introdotto nel 1983 (Figura
21a).
·
Seconda generazione (2G,
circa 1988-1998)
Con la seconda generazione inizia la diffusione di massa
della telefonia mobile. La disponibilità della tecnologia, le necessità degli
utenti e i notevoli investimenti effettuati per la costruzione di una rete
cellulare capillare avviano un circolo virtuoso che determina una crescita
esplosiva del mercato, soprattutto in Giappone e in Europa. La densità delle
nuove reti cellulari permette di usare batterie molto più piccole, e i telefoni
diventano tascabili, assumendo la caratteristica forma detta candybar.[10] I costi dei device si riducono
sostanzialmente, anche se le tariffe (a consumo) sono alte. Le tecnologie per la trasmissione sono
varie, ma prevale lo standard GSM, promosso soprattutto in Europa. Nascono gli
operatori di telefonia mobile e inizia una radicale trasformazione
dell’industria delle telecomunicazioni.
In questa fase ci si rende conto che i telefoni possono
servire non solo per telefonare, anche se i prodotti sul mercato offrono ancora
funzioni aggiuntive molto semplici: sms (dal 1993), orologio, sveglia, rubrica,
calcolatrice, giochi, suonerie. Gli sms, inizialmente concepiti per inviare
messaggi di servizio, hanno un enorme e inaspettato successo, anche a causa dei
bassi (o nulli) costi applicati dagli operatori. Gli schermi sono piccoli e
monocromatici, le tastiere hanno 12 tasti. Un esempio è il Nokia 5110, prodotto
tra il 1998 e il 2001, uno dei telefoni più popolari dell’epoca. (Figura 21b).
·
Generazione 2.5 (2.5G, circa
1998-2008)
Questa generazione può essere considerata di transizione. La tecnologia di comunicazione evolve,
per permettere al cellulare di trasmettere e ricevere dati a media velocità
(es.: GPRS). Il cellulare si
arricchisce di una varietà di funzioni e servizi, e integra una fotocamera, in
conseguenza dell’evoluzione della fotografia digitale. E’ possibile inviare e
ricevere immagini (mms), installare suonerie, giochi e applicazioni software di
vario tipo. È possibile collegarsi a internet per accedere alla posta
elettronica e al Web. Internet si apre all’accesso mobile, anche se, in questa
fase, l’utilizzo resta molto limitato, soprattutto per l’inadeguatezza degli
apparati (che hanno schermi troppo piccoli e tastiere inadatte) e del numero
ancora limitato di siti predisposti a un accesso mobile. Un esempio tipico è il Motorola V3 RAZR
(Figura 21c), dalla caratteristica
forma a conchiglia (clamshell, detta
anche flip). Esso, prodotto in oltre
100 milioni di esemplari, è uno dei cellulari più venduti di tutti i tempi. I prodotti di questa generazione sono
numerosissimi, di forma diversa (prevalentemente candybar e clamshell).
·
Terza generazione (3G,
dal 2002)
Questa è l’era dei cosiddetti smartphone, che appaiono sul mercato poco dopo gli apparecchi della
seconda generazione, e convivono con essi. Anche se non esiste una definizione
standard di smartphone, possiamo dire che esso offre tutte le funzioni dei cellulari
delle generazioni precedenti, ma possiede di solito uno schermo più grande, una
tastiera alfanumerica (per esempio QWERTY) o uno stilo per scrivere su una
tastiera virtuale, una connettività alla rete a banda larga resa possibile da
protocolli di comunicazione di terza generazione, a volte una connettività
Wi-Fi. Il telefono è dotato di sistema operativo e assomiglia sempre più a un
piccolo computer portatile. Integra le funzioni caratteristiche dei vecchi PDA
(agenda personale, appunti, ecc.), che in pratica scompaiono dal mercato. La tecnologia di comunicazione permette
l’accesso a internet a velocità abbastanza elevata. Le funzioni sono molto varie:
telefonia, sms, email, accesso al Web, fotocamera, multi-media messaging (mms)
per inviare e ricevere foto o video, connettività bluetooth, giochi, player
MP3, radio, GPS, con possibilità di installare una grande varietà di
applicazioni anche prodotte da terze parti.
Un precursore importante di questa categoria di apparati fu
il 9000 Communicator della Nokia, una sorta di ibrido fra un telefono e un
piccolo laptop, sul mercato dal 1996 (Figura 21c). Ma la varietà delle
forme proposte è molto alta, i costruttori sono alla ricerca di una forma che
il mercato accolga con favore. Oltre alla forma a conchiglia (come il Treo e lo
stesso Communicator) compaiono apparecchi a brick
(mattoncino), come il Blackberry, a slider
(in cui la tastiera, di notevoli dimensioni, non si ripiega sul video, come
nelle forme nella conchiglia, ma “scorre” sotto di esso). La forma di molti di
questi apparecchi permette di utilizzare la posta elettronica in modo
abbastanza agevole. L’uso mobile della email quindi cresce considerevolmente. Tuttavia,
gli smartphone conquistano solo una piccola parte del mercato della telefonia
mobile. Apparecchi più semplici e meno costosi continuano ad avere enorme
diffusione e, come vedremo fra poco, a diffondersi con straordinaria rapidità
anche nei paesi più poveri.
·
Il mobile
Nel giugno del 2007, la Apple lancia sul mercato l’iPhone,
un apparato che modifica profondamente la concezione degli apparati mobili, e
ridefinisce in modo significativo questa industria. La forma, a brick (Figura
21e) è quasi interamente occupata da uno schermo multi-touch,
di buona risoluzione (320 x 480 pixel), che permette di controllare le funzioni
con una varietà di gesti delle dita, con la pressione di pulsanti (vedi la
Figura 21 nel Capitolo 8) e con una tastiera virtuale (vedi la Figura 17 nel
Capitolo 10). Nonostante le dimensioni limitate, lo strumento integra un’ampia
varietà di tecnologie: fotocamera e player multimediale, GPS, mail e browser
web, wi-fi, bussola digitale, input vocale e una varietà di sensori, di
movimento (accelerometro), di prossimità, di luce ambientale. Anche se la
maggior parte di queste tecnologie erano disponibili da tempo, esse sono
assemblate in un modo del tutto innovativo. La risposta del mercato all’iPhone
è enormemente favorevole: dopo un anno e mezzo dal lancio, le vendite assommano
a 17 milioni di unità. E gli altri produttori annunciano ben presto prodotti ad
esso ispirati. Finalmente, l’accesso mobile a Internet è una realtà.
Tre anni dopo l’annuncio dell’iPhone, lo store online della
Apple proponeva più di 100.000 applicazioni software utilizzabili da questo
device. Nello stesso periodo, gli utenti avevano effettuato, dallo stesso
store, tre miliardi di download di applicazioni software.
Dal punto di vista dell’interazione uomo macchina, l’iPhone
può essere considerato il primo device che incarna compiutamente il paradigma
che abbiamo chiamato con il termine inglese mobile.
Il mobile non è un telefono e non è un computer: è un oggetto del tutto nuovo,
uno strumento insieme di comunicazione, d’informazione e d’interazione con
l’ambiente. È pensato per essere sempre connesso alla rete, e destinato a un
uso strettamente personale, quasi “intimo” da parte dell’utente, che lo porta
con sé in ogni circostanza, senza spegnerlo mai. Con il suo sistema di sensori,
il mobile è in grado di raccogliere automaticamente informazioni su se stesso,
sull’utente e sull’ambiente, e di utilizzarle per fornire a chi lo usa informazioni
contestualizzate. Questi nuovi “sensi” lo arricchiscono di potenzialità
funzionali vastissime, ancora tutte da esplorare: servizi geo-referenziati (location based services) che, basati sul
GPS, offrono all’utente informazioni sull’ambiente circostante; applicazioni di augmented reality che utilizzano la fotocamera ad alta risoluzione
come “occhio” sulla realtà circostante, che viene integrata con informazioni
specifiche, reperite in tempo reale dalla rete; servizi di identificazione di
oggetti circostanti (per esempio attraverso lettura di tag RFID), e di
interazione con gli stessi, per esempio per effettuare pagamenti, per segnalare
la propria presenza, e così via.
ALZATI E CAMMINA!
Al momento della stesura di queste pagine, per il mobile
computing non si è ancora consolidato un paradigma d’interazione ben
riconoscibile al di là delle differenze fra i diversi dispositivi. Questo è
dovuto a diversi fattori, fra i quali la diversità degli utenti cui questi
prodotti si rivolgono. Il telefono cellulare – e la sua evoluzione
– è lo strumento personale per eccellenza, e come tale deve riflettere
gusti, esigenze, abilità, personalità del singolo utente. Tuttavia, la
situazione è in evoluzione molto rapida, e la linea di tendenza sembra ormai
abbastanza chiara. Il mobile, con la sua ricchezza funzionale, non deve essere
considerato un gadget per appassionati di tecnologia. Con l’inevitabile
abbattimento di costi prodotto dalla crescita del mercato e dalla concorrenza,
è presumibile che la sua diffusione sia molto vasta, e che si avvii il ciclo
virtuoso che abbiamo già visto per i personal computer e per i cellulari
tradizionali. Già oggi il telefono cellulare, e non il personal computer è la
tecnologia più diffusa. Secondo stime delle Nazioni Unite, nel 2007 sono stati
venduti, nel pianeta, 1 miliardo di cellulari, e “solo” 400 milioni di PC.
Secondo la stessa fonte, nel 2009 il 90% della popolazione del pianeta ha
accesso alla telefonia mobile, eventualmente attraverso amici o parenti.
Il cellulare Nokia 1100 (Figura 22), progettato
appositamente per i paesi in via di sviluppo e messo sul mercato nel 2003, con
oltre 200 milioni di esemplari è stato il telefono e il prodotto di elettronica
di consumo più venduto di tutti i tempi.[11] Si
tratta di un modello GSM di costo contenuto e funzionalmente poco sofisticato:
sms, sveglia, calcolatrice, lista di contatti, suonerie, giochi, torcia
elettrica, protezione anti polvere e impugnatura antiscivolo per ambienti umidi.
Figura 22. Il cellulare più diffuso (Nokia 1100)
L’uso del cellulare è comunque ancora in fortissima
crescita. Secondo stime dell’International Telecommunication Union, nel 2002 il
numero di abbonamenti di telefonia mobile (includendo nel conteggio le schede
prepagate) ha superato, nel mondo, quello degli abbonamenti a un telefono
fisso. Sempre nel 2002, il numero degli abbonati a un operatore di telefonia
mobile erano il 19% della popolazione mondiale; nel 2008 erano saliti al
61%. Al confronto, gli utenti
Internet sono molto meno: secondo stime della stessa ITU, nel 2008, erano
“solo” il 23% della popolazione mondiale. [12]
Non c’è dubbio che il cellulare, dalla seconda metà degli
anni ’90, ha completamente modificato le abitudini comunicative della
popolazione dell’intero pianeta (Figura 23). I nuovi paradigmi
d’interazione che avranno la massima diffusione nasceranno dagli apparati
mobili, e non dai PC.
Con l’accesso mobile alla rete, al Web tradizionale si
affianca il mobile Web. Il primo è fatto di quei siti e
servizi ai quali si accede dal browser del proprio computer (desktop, laptop o
netbook), stando seduti. Il secondo è composto da quei siti e servizi che si
utilizzano in mobilità, in qualunque istante e luogo, spesso stando in piedi.
Dal punto di vista tecnico, il Web è sostanzialmente uno solo. Ma dal punto di
vista dei paradigmi d’interazione, il desktop Web e il mobile Web sono due
media completamente differenti.
Finora abbiamo posto la nostra
attenzione sul singolo utente, che interagisce con un sistema di vario tipo, un
terminale connesso a una macchina condivisa, oppure un dispositivo personale.
Questa visione non riflette bene la grande varietà dei sistemi interattivi, e
trascura un insieme di applicazioni che, col tempo, hanno acquisito un ruolo
molto importante nella nostra vita quotidiana. Infatti, i computer possono
essere anche utilizzati efficacemente come strumenti d’intermediazione e
facilitazione della comunicazione fra persone. Già nel 1968, J.C.R.Licklider,
un altro grande pioniere della HCI, aveva previsto che “entro pochi anni, gli
uomini potranno comunicare più efficacemente attraverso una macchina che di
persona”.[13] Da allora, enormi progressi sono stati compiuti, e specifiche aree della
disciplina della HCI si sono grandemente sviluppate, come per esempio l’area
del Computer Supported Cooperative Work
(CSCW), che si occupa di come le attività cooperative effettuate da gruppi di
persone possono essere supportate e coordinate dai computer, includendo lo
studio degli effetti psicologici, sociali e organizzativi di questo uso dei
sistemi.
All’informatica
individuale nata con i primi personal computer è subentrata pertanto l’informatica sociale: agli strumenti per
l’individuo si affiancano strumenti per i gruppi e per le comunità, sempre più
sofisticati. Facendo riferimento agli esempi
della Figura 2 nel Capitolo 1, possiamo identificare i sistemi personali, che vengono utilizzati normalmente sempre dalla
stessa persona (l’iPhone), i sistemi
mono-utente, che vengono usati da una sola persona alla volta (il robot da
cucina), e i sistemi multi-utente, usati
contemporaneamente da più persone (il cruscotto dell’aereo, utilizzato dal
pilota e dal co-pilota, oppure quei sistemi in cui diverse persone possono condividere
lo stesso ambiente virtuale). A
questi tipi di sistemi si aggiungono, quindi, i sistemi sociali, che non interagiscono solo con singoli individui
in un’interazione uno-a-molti (come il cruscotto di Figura 4a, Capitolo, ma
sono soprattutto strumenti d’intermediazione fra interlocutori spazialmente e,
spesso, temporalmente distanti. Essi permettono loro di comunicare e di
collaborare in compiti complessi: sono strumenti d’intermediazione
intelligente, che – sempre più spesso – entrano nel merito della
conversazione, la supportano e la facilitano. Con la diffusione di Internet,
questi sistemi possono a volte soddisfare le esigenze di comunicazione e di
socializzazione d’intere collettività di grandi dimensioni, in qualche caso
composte da diecine o centinaia di milioni d’individui.
I sistemi che realizzano tale intermediazione assumono varie
forme e si appoggiano a tecnologie diverse, che evolvono continuamente in modo
molto rapido: dai siti di social networking di vario tipo (a partire da Facebook,
sviluppatosi in modo impressionante a partire dalla sua nascita nel 2004), alle
piattaforme di blogging, fino alle applicazioni che supportano il lavoro
cooperativo in rete di gruppi più meno ampi: wiki, online office suite, e così
via.
Uno studio riferito alla fine del 2008[14] stimava che due terzi
degli utenti di Internet visitassero blog o siti di social networking,
totalizzando quasi il 10% del tempo globale speso in rete. Queste percentuali
sono in continua crescita. L’enorme quantità di tempo impiegato nell’accesso a
siti che permettono alle persone di interagire all’interno di comunità di varia
dimensione e tipologia sta modificando i comportamenti dell’umanità. Le
modalità d’interazione e di comunicazione fra le persone, già profondamente
modificato con la diffusione della telefonia mobile, della posta elettronica e
degli sms, assume continuamente nuove forme, via via che nuovi strumenti si
diffondono in rete. Si consolida così un nuovo paradigma d’interazione, che
possiamo chiamare social computing. Non
più interazione fra più utenti e un sistema, ma interazione fra più utenti mediata
da un sistema.
Dal punto di vista dell’interazione con l’utente, queste
applicazioni non utilizzano dispositivi specifici, ma normali PC o netbook
connessi in rete e, sempre più spesso, anche dispositivi che consentano
l’accesso in mobilità. Al di là delle inevitabili differenze, la gran parte di
questi sistemi è accomunata dalla presenza di profili personali, più o meno dettagliati, attraverso i quali ogni
utente si mostra agli altri. I profili possono essere pubblici, o riservati a
un sottoinsieme di utenti considerati amici,
o agli amici di questi, secondo livelli di privacy
definiti dall’autore di ciascun profilo. Ciò caratterizza fortemente questi
sistemi, i quali possono essere considerati, a tutti gli effetti, delle “reti
di persone” (reti sociali, nel senso
attribuito a questo termine dagli studiosi di sociologia), di fronte alle quali
le caratteristiche funzionali che li differenziano passano inevitabilmente in
secondo piano (Figura 24).
Figura 24. Mappatura di una social network in rete (da: http://www.fmsasg.com/SocialNetworkAnalysis/)
Tra queste comunità di utenti, la rete assume sempre più un
ruolo attivo e intelligente: non più semplice intermediario per il trasporto o
l’archiviazione delle informazioni, ma interlocutore a sua volta, capace di
collaborare in compiti via via sempre più complessi. Scriveva Tim Berners-Lee,
l’inventore del Web, ancora nel 2001:
Ho fatto un sogno riguardante il Web… ed è un sogno diviso
in due parti. Nella prima parte, il Web diventa un mezzo di gran lunga più
potente per favorire la collaborazione tra i popoli. Ho sempre immaginato lo
spazio dell'informazione come una cosa a cui tutti abbiano accesso immediato e
intuitivo, non solo per navigare ma anche per creare. [...] Inoltre, il sogno
della comunicazione diretta attraverso il sapere condiviso dev'essere possibile
per gruppi di qualsiasi dimensione, gruppi che potranno interagire
elettronicamente con la medesima facilità che facendolo di persona. Nella
seconda parte del sogno, la collaborazione si allarga ai computer. Le macchine
diventano capaci di analizzare tutti i dati sul Web, il contenuto, i link e le
transazioni tra persone e computer. La "Rete Semantica" che dovrebbe
renderlo possibile deve ancora nascere, ma quando l'avremo i meccanismi
quotidiani di commercio, burocrazia e vita saranno gestiti da macchine che
parleranno a macchine, lasciando che gli uomini pensino soltanto a fornire
l'ispirazione e l'intuito. Finalmente, si materializzeranno quegli
"agenti" intelligenti sognati per decenni. Questo Web comprensibile
alle macchine si concretizzerà introducendo una serie di progressi tecnici e di
adeguamenti sociali attualmente in fase di sviluppo.[15]
L’evoluzione della rete procede in diverse direzioni. Fra quelle
più importanti, per chi si occupa delle problematiche della Human Computer
Interaction, vi è la tendenza verso la cosiddetta “intelligenza ambientale” (ambient intelligence). Con questo
termine ci si riferisce alla progettazione di ambienti sensibili alla presenza
delle persone, e che possono interagire con queste in vari modi. In sostanza,
uno spazio popolato di oggetti intelligenti e fra loro interconnessi, che
offrono agli esseri umani funzionalità utili per comunicare, controllare
l’ambiente e accedere all’informazione.
Si tratta di una visione del futuro dell’elettronica di consumo,
delle telecomunicazioni e dell’informatica sviluppata dalla fine degli anni
’90. Secondo questa visione, il mondo si popolerà di dispositivi che
interagiscono fra loro e cooperano per supportare le persone nelle loro
attività quotidiane. Questi dispositivi sono dotati d’intelligenza e possono
accedere a dati e informazioni disponibili nella rete, alla quale sono sempre
connessi. Via via che questi dispositivi diventano più piccoli e più integrati
nell’ambiente fisico, essi scompaiono dalla nostra vista, e ciò che rimane
percepibile è soltanto l’interfaccia d’uso. Come scriveva Donald Norman nel suo
libro Il computer invisibile (1998):
[…] una generazione di tecnologie personali in cui la tecnologia
scompare nello strumento, attivando valide funzioni ma senza essere visibile.
La generazione in cui il computer scompare all’interno di strumenti
specializzati a seconda dell’attività. La generazione del computer invisibile.[16]
Il paradigma dell’intelligenza ambientale si fonda su tecnologie
che sono:
▪ embedded: i dispositivi sono fra loro interconnessi e integrati nell’ambiente;
▪ context aware: i dispositivi sono in grado di percepire informazioni provenienti dall’ambiente in cui si trovano, e di interpretarle in base al contesto;
▪ personalizzate: i dispositivi possono essere configurati in relazione alle specifiche necessità degli utenti;
▪ adattive: i dispositivi sono in grado di apprendere durante il loro uso, e modificare di conseguenza il loro comportamento;
▪ anticipatorie: i dispositivi possono anticipare i desideri e le necessità dell’utente.
Gli
scenari d’uso che possono essere immaginati sono molto diversi. Riportiamo,
come esempio, lo scenario riportato da Wikipedia alla voce “Ambient
intelligence”: [17]
Ellen rientra a casa dopo una lunga giornata di lavoro. Alla
porta d’ingresso viene riconosciuta dalla telecamera intelligente di
sorveglianza, che disattiva l’allarme e apre la porta. Entrata in casa, la
mappa della famiglia indica che suo marito Peter si trova a una fiera d’arte a
Parigi, e che la loro figlia Charlotte è nella sua stanza, a giocare con uno
schermo interattivo. Al servizio di sorveglianza remota per i bambini viene
notificato che Ellen è a casa, quindi la connessione online viene disattivata.
Quando entra in cucina, il quadro dei messaggi si accende per segnalare che ci
sono nuovi messaggi. La lista della spesa che era stata predisposta richiede
una conferma per essere inviata al supermarket per gli acquisti. C’è anche un
messaggio che la avverte che il sistema di casa ha trovato nuove informazioni
nel Web semantico su delle villette economiche con vista mare per le vacanze in
Spagna. Ellen si connette brevemente con la stanza di Charlotte per salutarla,
e la sua immagine video compare automaticamente sullo schermo piatto che
Charlotte sta utilizzando. Quindi
si connette con Peter alla fiera d’arte di Parigi. Egli le mostra, con
la fotocamera connessa alle sue lenti a contatto, alcune sculture che vorrebbe
comprare, ed Ellen approva la scelta. Nel frattempo seleziona uno dei menu
visualizzati, che le indica che cosa può preparare con i cibi presenti in
dispensa e nel frigorifero. Poi accende il televisore sul canale on-demand per
vedere il programma con le ultime notizie. Dopo avere dato il comando “Seguimi”,
si sposta in camera da letto. Il programma viene allora visualizzato
automaticamente sul monitor piatto in camera da letto, dove va per fare della
ginnastica personalizzata. Più tardi, dopo il rientro di Peter, chiacchierano
con un amico in soggiorno, con l’illuminazione personalizzata. Guardano il
presentatore virtuale che li informa sui programmi e sulle informazioni che
sono state memorizzate, nella giornata, nel loro server di casa.
Chi si occupa di tecnologia, e ne esplora le possibilità e
le innovazioni, subisce spesso il fascino di questi scenari, senza soffermarsi
a riflettere in modo adeguato sulle loro implicazioni. Chi si occupa di
human-computer interaction, e in particolar modo il progettista dei sistemi
interattivi, ha tuttavia il dovere di interrogarsi costantemente sulla desiderabilità
dei prodotti che propone o progetta. Questa va considerata non esclusivamente
dal punto di vista dell’utente del prodotto, ma anche dal punto di vista
complessivo della società di cui questo utente fa parte. Chi scrive ritiene che la comunità
della human computer interaction stia ancora affrontando in modo troppo
limitato queste problematiche. Nonostante il dichiarato interesse per il
miglioramento dell’ambiente e per i valori della sostenibilità, è innegabile
che, oggi, la comunità internazionale della HCI sia ancora in prevalenza,
assorbita da problematiche che riguardano il futuro di una piccola parte
dell’umanità. Adottando un punto di vista più globale, la prospettiva è molto
diversa, e ciò permette anche di riflettere meglio sui valori impliciti nelle
diverse possibili visioni del futuro, e sulle conseguenti priorità, come, per
esempio, tra i vari ambiti della ricerca svolta dalle Università.
Secondo dati pubblicati nel 2008 dalla Banca Mondiale, nel
2005, su circa 6,5 miliardi di abitanti del pianeta, l’80% vive con meno di 10
dollari al giorno; il 49% con meno di 2,5 dollari al giorno e quasi il 14% con
meno di un dollaro al giorno. La situazione all’uscita di questo libro, un
quinquennio dopo, com’è noto non è migliorata, e la “distanza” fra ricchi e
poveri è in continuo aumento. In questo contesto, scenari come quello riportato
qui sopra generano dubbi e riflessioni. Fra gli infiniti possibili scenari
d’uso di una stessa tecnologia, a quali dobbiamo assegnare le nostre priorità?
Quali dobbiamo proporre al mercato, che ne sancirà, in ultima analisi, il
successo o il fallimento? La responsabilità di queste scelte è di vasta portata
perché, come vedremo nei prossimi capitoli, ogni tecnologia interagisce in modo
profondo con i suoi utilizzatori, e ne cambia i comportamenti. I paradigmi
d’interazione con le tecnologie di oggi sono, come si comprende facilmente,
strettamente legati ai modelli dei nostri comportamenti quotidiani, nel lavoro
e nel tempo libero.
1. Discuti i rapporti fra tecnologie e paradigmi d’interazione.
2. Quali sono le principali differenze fra la modalità di interazione mediante una teletype e un terminale tradizionale?
3. Che cosa s’intende per paradigma di manipolazione diretta?
4. Che cosa si intende con la sigla WIMP?
5. Che cosa caratterizza il paradigma “point & clic”?
6. Descrivi le differenze fra il nomadic computing e il mobile computing.
7. Quali sono, secondo la tua esperienza, le caratteristiche che accomunano le social application?
8. Che cosa si intende per intelligenza ambientale?
1. La filosofia del progetto del primo sistema basato sulla metafora della scrivania, realizzato presso i laboratori dello Xerox PARC alla fine degli anni ’70, è riassunta nel classico articolo di Smith, Irby, Kimball, Verplank, e Harslem, Designing the Star User Interface, pubblicato sulla rivista Byte nel 1982, e reperibile in rete in numerosi siti. Leggi questo articolo e riassumi le principali analogie e differenze fra la filosofia di questo sistema e quella del sistema desktop da te usato.
2. Un interessante articolo sulla storia del mouse si trova in http://weburbanist.com/2009/04/05/evolution-of-the-mouse-classic-to-cutting-edge/
3. Una interessante storia dell’ipertesto, dalle origini del concetto al Web, si trova in http://www2.polito.it/didattica/polymath/ICT/Htmls/Argomenti/Appunti/StoriaIpertesto/StoriaIpertesto.htm.
4.
Leggi il
classico articolo sul Dynabook: A. Kay, A. Goldberg, Personal Dynamic Media, in Computer, vol. 10, no. 3, pp.
31-41, Mar. 1977, anche disponibile in rete in http://www.newmediareader.com/book_samples/nmr-26-kay.pdf. Confronta l’idea del Dynabook con le
tecnologie disponibili oggi: che rapporto ha il personal dynamic medium
concepito da Alan Kay con le internet appliance disponibili oggi? Suggerimento:
consulta l’interessante lavoro di J.W.Maxwell, Tracing the Dynabook: As a Study of Technocultural Transformations,
Tesi di PhD, University of British Columbia, Novembre 2006, reperibile in rete
in http://thinkubator.ccsp.sfu.ca/Dynabook/Maxwell-DynabookFinal.pdf, e in particolare il Capitolo The
Dynabook today: how far have we come. Questa tesi è stata pubblicata nel
2006: negli anni trascorsi da allora, la situazione è cambiata?
5.
Il
paradigma della manipolazione diretta è ben lontano dall’avere mostrato tutte
le sue potenzialità. La rappresentazione in tre dimensioni degli oggetti
manipolati e gli schermi multi-touch offrono possibilità ancora in buona parte
da esplorare. Esplora la rete alla ricerca di video dimostrativi interessanti
su questo tema. A puro titolo di esempio, puoi iniziare su YouTube, con video
sul sistema BumpTop, su applicazioni di Microsoft Surface, sull’interfaccia
multi-touch a GoogleMap.
6. L’articolo di S.Sanna, Mobile computing, in A.Soro (ed.), Human Computer Interaction – Fondamenti e prospettive, ed.Polimetrica, 2009, pagg.253-288 (disponibile anche in rete) contiene un’interessante rassegna sulle problematiche dell’interfaccia utente dei dispositivi per il mobile computing.
7. Un’autrice che, da diversi anni, ha studiato i siti di social network è Danah Boyd. Tra i numerosi saggi da lei scritti (reperibili in http://www.danah.org/papers), puoi approfondire queste tematiche, per esempio, in Social Network Sites: Definition, History and Scholarship, scritto con N.Ellison (2007), o in Why Youth (Hearth) Social Network Sites: The Role of Networked Publics in Teenage Social Life (2007), in cui l’autrice analizza la nozione di spazi pubblici mediati dalla tecnologia.
[1] Il nome è stato
coniato in B.Shneiderman, Direct
manipulation: a step beyond programming languages, in IEEE Computer 16(8) (agosto 1983),
pagg.57-69.
[2] Dati da
http://www.netcraft.com , dicembre 2009. Si veda
anche http://www.gandalf.it per statistiche aggiornate
sul Web.
[3] Il
termine cloud, inglese per “nuvola”,
deriva dal fatto che, nelle rappresentazioni grafiche, la rete internet viene
molto spesso rappresentata a forma di nuvola.
[4] A. Kay, A. Goldberg, Personal Dynamic Media, in Computer, vol. 10, no. 3, pp. 31-41, Mar. 1977, anche
disponibile in rete in http://www.newmediareader.com/book_samples/nmr-26-kay.pdf.
[5] ibid.
[7] Il
mouse è stato uno dei device più di successo nella storia dell’informatica. La
sola Logitech ha prodotto, a tutto il 2008, più di un miliardo di mouse, di
diversi modelli.
[9] Cfr. Brian Fling, Mobile Design
and Development, Ed. O’Reilly, 2009.
[10] Il termine inglese Candybar denota i dolci industriali a
forma di barretta – spesso biscotti ricoperti di cioccolato.
[11] Per una classifica dei modelli di cellulari più venduti si veda http://en.wikipedia.org/wiki/List_of_best-selling_mobile_phones.
[12] Cfr. International Telecommunication Union, Measuring the Information Society, The
ICT Development Index, 2009, http://www.itu.int/ITU-D/ict/publications/idi/2009/material/IDI2009_w5.pdf.
[13] J.C.R.Licklider, The Computer as
a Communication Device, in Science & Technology, aprile 1968,
disponibile anche in rete.
[14] Nielsen, “Global faces and networked places”, http://blog.nielsen.com/nielsenwire/wp-content/uploads/2009/03/nielsen_globalfaces_mar09.pdf, marzo 2009
[15] Tim Berners-Lee, L’architettura
del nuovo Web, Feltrinelli, 2001.
[16] Op.cit., nella edizione
italiana di Apogeo, 2000, pag. 271.
[17] Tratto
da http://en.wikipedia.org/wiki/Ambient_intelligence
, 16 gennaio 2010 (nostra traduzione dall’inglese).