L'INFRASTRUTTURA TECNOLOGICA
Una delle prime problematiche che gli organizzatori
di un’attività formativa
in rete devono affrontare e risolvere, è la messa a punto dell’infrastruttura
tecnologica del corso; la soluzione del problema infrastrutturale incide
sulla sostenibilità complessiva del corso stesso. Stabilire dei
criteri di classificazione può rivelarsi molto utile nella fase
di progettazione di un’attività formativa in rete: nella
scelta della piattaforma da implementare bisogna tenere conto della stretta
relazione esistente tra le caratteristiche degli strumenti utilizzati,
delle problematiche organizzative e delle aspettative dei destinatari
dell’esperienza formativa.
COS’E’ UNA PIATTAFORMA E-LEARNING?
Oggi parlare di piattaforma non è troppo corretto in quanto il
concetto sembra dilatarsi, inglobando nuove e differenti funzionalità.
Di fatti è possibile differenziare, in maniera chiara, i nuovi
strumenti che vengono utilizzati in funzione della tipologia di utilizzatori.
Solitamente quando si parla di piattaforma ci si riferisce ai cosiddetti
Learning Management System (LMS).
Gli LMS, come anche gli LCMS, sono delle soluzioni software che si caratterizzano
per l’ampiezza delle loro funzionalità che vengono utilizzate
in maniera massiccia nelle attività di formazione on-line.
Un Lms è un software applicativo, creato per sviluppare, gestire
e tracciare l’interazione tra studenti e contenuti, e tra studenti
e docenti. In particolare offre servizi di registrazione per gli studenti,
tiene sotto controllo i progressi dei processi di apprendimento, gli
esercizi svolti e i livelli di completamento dei corsi sostenuti. Infine
permette ai docenti di rendersi conto del livello di apprendimento finale
dei propri discendi.
Eva Kaplan Leiserson definisce un LMS: “un software che automatizza
l’amministrazione di eventi formativi; una piattaforma software
che permette la gestione sia in Internet che in Intranet del processo
di formazione”.
Un LMS inoltre ha un elevato numero di funzioni che sono:
· erogazione dei corsi in ambiente web;
· distribuzione del materiale didattico;
· semplificazione del processo di sottoscrizione e registrazione
dei discendi;
· tracciamento delle attività dei discendi;
· gestione di differenti percorsi di formazione;
· monitoraggio e valutazione dell’attività formativa;
· fornire strumenti di comunicazione sincroni e asincroni
Ma la nuova frontiera del mercato dell’e-learning è quella
di sviluppare sistemi LCMS (Learning Content Management System) nati
dalla fusione di LMS e CMS (Content Management System). Un CMS e un’applicazione
software che gestisce i contenuti per un vasto numero di siti web per
la didattica. Tali CMS forniscono servizi come la gestione degli aggiornamenti,
delle versioni, il processo di creazione e la pubblicazione dei contenuti.
Un LCMS è una soluzione software, che è in grado di combinare
la capacità di amministrazione degli studenti tipica dei sistemi
LMS e la capacità di creazione, gestione e immagazzinamento dei
contenuti di un CMS.
Lo scopo principale di un LMS è quello di gestire e amministrare
gli utenti, mentre un LCMS, pur essendo focalizzato sul sistema di gestione
dei contenuti, offre anche gli strumenti base per la gestione degli utenti.
Un LCMS deve gestire e offrire i contenuti che l’utente richiede,
nel momento in cui richiede. Inoltre esso tiene traccia degli accessi
di ogni singolo utente a ogni Learning Object, permettendo all’organizzazione
di osservare come gli studenti imparano e di verificare la validità o
meno di ogni singolo contenuto o strumento di apprendimento.
Tuttavia, i sistemi LMS e LCMS non si distaccano totalmente fra loro,
anzi possono completarsi a vicenda. Se integrati in maniera adeguata,
con la possibilità di scambiarsi informazioni sullo stesso processo
formativo, i due sistemi garantiscono un’esperienza formativa completa
per l’utente e costituiscono uno strumento potentissimo per gli
amministratori.
Un LMS in questa prospettiva, potrà gestire la comunità degli
utenti, permettere agli stessi di accedere ai vari Learning Object presenti
e gestiti completamente dal LCMS. Nella fruizione dei contenuti salva
i progetti individuali di ogni utente, registra i risultati degli esercizi
e li passa al LMS per scopi di reportistica.
Per lavorare meglio su di un processo formativo, quindi, è chiaro
che i due sistemi devono essere integrabili e interoperabili.
1. Definire standard comuni
Da sempre le industrie del settore IT hanno creato
prodotti proprietari nel tentativo di indirizzare il mercato verso
le proprie scelte, in modo da acquisirne la leadership. Sicuramente
non è un modo di agire
che va incontro alle necessità degli utenti di fatti divide i
consumatori e il mercato stesso. Nel settore dell’e-learning la
grande esigenza di un mercato comune ha portato alla definizione di alcuni
standard. E’ un passo di notevole rilevanza in quanto la definizione
di standard comuni può garantire all’utente finale la possibilità di
scegliere, senza impedimenti, tra una varietà di proposte software
e piattaforme, senza dover rimanere legati a scelte effettuate in partenza.
La definizione di standard comuni consente inoltre di garantire le cinque
caratteristiche essenziali di un progetto di e-learning e di rendere
sicuro l’investimento che qualsiasi individuo fa su questa nuova
metodologia formativa:
· Interoperabilità: un sistema deve poter interagire e lavorare
con un qualsiasi altro sistema presente sul mercato;
· Riuso: Ogni oggetto del sistema di e-learning deve poter essere
riutilizzato in qualsiasi momento e su qualsiasi altra piattaforma compatibile
con gli standard;
· Gestione: ogni sistema deve essere in grado di tenere traccia
di tutte le informazioni riguardanti i discendi e il contenuto;
· Accessibilità: ogni utente deve poter aver accesso al contenuto
del corso al momento desiderato e senza nessun vincolo tecnologico;
· Durata: la tecnologia deve potersi evolversi insieme agli standard,
per non diventare obsoleta in tempi brevi.
Già, molto tempo, prima dell’introduzione del termine “e-learning”,
nel mondo della didattica alcuni consorzi (IMS, AICC, IEEE, LRN) hanno
iniziato a lavorare su delle specifiche legate alle tecnologie per l’apprendimento.
Il loro lavoro si svolgeva in modo simultaneo ma non coordinato. Fu il
Dipartimento della Difesa americano a prendere in mano la situazione,
acquisendo il ruolo leader del progetto di stesura delle specifiche dei
processi formativi legati alle tecnologie. Tutti gli sforzi fatti precedentemente
furono fatti convergere in un unico organo che aveva il compito di definire
un modello unico a cui venne dato il nome di SCORM (Sharable Content
Object Reference Model).
Oggi SCORM è un insieme di specifiche e standard per i contenuti,
le tecnologie e i servizi per l’e-learning. A tal proposito è opportuno
distinguere le specifiche dagli standard.
Una specifica è una descrizione ben documentata riguardante ad
esempio le caratteristiche di base che deve avere una piattaforma, le
funzionalità che deve offrire, la formattazione dei contenuti
e così via.
Alcune specifiche sottoposte ad un processo di accreditamento, da parte
di un consorzio/comitato internazionale sono soggette a tramutarsi in
standard. Questi sono distinguibili in due sottocategorie ovvero “standard
de iure” e “standard de facto”. I primi sono standard
fissati per legge, che hanno ottenuto una certificazione da un organo
istituzionale, come IEEE o ISO, o altri comitati scientifici deputati
a rilasciarla. I secondi non sono riconosciuti da un organo internazionale,
ma sono comunque degli standard in quanto sono utilizzati dalla stragrande
maggioranza dei produttori e degli utenti.
SCORM è quindi un progetto realizzato con il fine di permettere
a più enti formativi di condividere tra loro le tecnologie didattiche,
le piattaforme, e tutti gli strumenti necessari. Più precisamente
SCORM è una guida di riferimento in grado di supportare chiunque
volesse sviluppare modelli di e-learning. Questo documento fornisce il
framework e l’implementazione dettagliata per fare in modo che
i contenuti, la tecnologia ei sistemi sviluppati possano interagirecon
altri secondo gli stessi standard, assicurando l’interoperabilità,il
riuso e la facile gestione del processo formativo.
Lo SCORM non è uno standard de jure, ma de facto. Tutte le industrie
del settore lo utilizzano come guida di riferimento come sviluppo dei
propri applicativi.
SCORM permette :
· A qualsiasi LMS di utilizzare contenuti creati con strumenti sviluppati
da terze parti e da differenti produttori; inoltre gli stessi contenuti
devono poter essere scambiati tra un LMS ed un altro;
· A qualsiasi prodotto per LMS di eseguire gli stessi contenuti
e di poter scambiare i dati durante l’esecuzione degli stessi;
· A qualsiasi ambiente LMS di accedere a un comune spazio di contenuti
e utilizzarlo a proprio piacimento;
· Ai gestori di un ambiente LMS di spostare un intero corso da un
LMS a un altro, senza sprecare tempo per la conversione dei formati.
Questo modo di considerare gli standard, sia da parte dei produttori
che da parte degli utenti può portare alla proliferazione dei
contenuti compatibili e condivisibili. Si crea cosi un’immensa
rete dove il discende può muoversi in assoluta libertà,
può scegliere dove, come e quando imparare, senza aver paura di
sbagliare nella scelta della tecnologia.
GLI STRUMENTI INTERATTIVI SINCRONI E ASINCRONI
NELL’E-LEARNING
Diverse sono le forme di comunicazione e interazione
che possono essere attivate in un sistema di e-learning; parliamo di
comunicazione differita e non, entrambe scomponibili ancora in tre
tipologie: uno a uno; uno a molti; molti a uno. Nel primo Caso si parla
di messaggistica personale, negli alti due di “conferencing”. A seconda del tipo di comunicazione
instaurata saranno differenti i mezzi utilizzati. Innanzitutto risulta
necessaria una distinzione tra strumenti d’interazione di tipo
sincrono ed asincrono. I primi permettono di stabilire delle connessioni
in “real time” tra tutor e discendi, consentendo loro di
poter comunicare, utilizzando risorse condivise in Rete (ad esempio Chat,
Videoconferenze, etc); i secondi sono strumenti che consentono di stabilire
la comunicazione tra i tutor e i formandi in maniera differita nel tempo
(ad esempio via forum, e-mail, ecc).
|
FAD/IAD Sincrona |
FAD/IAD Asincrona |
Contenuti |
Riprese TV, lavagne informatiche |
Moduli preregistrati con contenuti ad hoc |
Interattività |
Si ha bisogno del tutor |
Contenuti interattivi |
Percezione |
Simile ad una lezione in presenza |
Differente da una lezione in presenza |
Vantaggi |
Facile partecipazione |
Funzione automatica |
(U. Biader giugno 2004)
1. L’interazione Sincrona
1.1 La chat
La comunicazione sincrona è identificata nella grande maggioranza
dei casi dal termine “chat”, che consiste in una comunicazione
tra utenti “remoti”, o meglio non presenti fisicamente nello
stesso luogo. Avviene in tempo reale ed è attuata con una modalità molto
semplice, dove ciascun interlocutore ha a disposizione una finestra sul
video tramite la quale può interagire con il proprio tutor e tutti
gli altri partecipanti alla discussione.
Gli strumenti più comuni attraverso cui prende forma questa tipologia
di interazione sono quindi le chat e le videoconferenze. A queste, più recentemente,
si sta affiancando una nuova tipologia di tecnologia che consiste nel
poter effettuare telefonate via Internet utilizzando una linea telefonica
veloce (a banda larga). Oltre alla condivisione di uno spazio in cui
inserire i propri interventi, alcuni software per il chatting prevedono
l’utilizzzo di applicazioni più complesse, come nel caso
di “NetMeeting” di Microsoft.
Tali programmi permettono la condivisione di una vera e propria “lavagna” sulla
quale tutti i partecipanti alla chat possono inserire i loro contributi,
relativamente all’argomento trattato, in tempo reale; sia che si
tratta semplicemente di testo scritto che di carattere grafico. In tal
modo tutti possono vedere visualizzato sul proprio schermo l’oggetto
della discussione in “real time”; c’è anche,
la possibilità di scambiarsi file inviando alla persona interessata
un allegato che può visionare dopo pochi istanti, dalla sua postazione
remota.
Questo è un modo tramite il quale tutti hanno la possibilità di
sviluppare capacità relazionali e di confronto nuove rispetto
ai metodi tradizionali.
1.2 La video conferenza interattiva
La videoconferenza interattiva (VI) è uno strumento che trova
nei contesti formativi dell’e-learning ottime applicazioni, in
quanto facilmente integrabile all’interno di un programma corsuale.
Questa tecnica consente di supportare la comunicazione bidirezionale,
a due vie, mediante componenti audio e video. E’possibile classificare
i tipi di videoconferenza interattiva in tre gruppi di applicazioni:
· Piccole VI locali, per gruppi fino a didici unità.
· VI di classe, con utilizzo di migliore qualità video e
di trasmissione.
· VI di tipo desktop, che utilizza i pc come postazioni di lavoro
dei partecipanti, con costi contenuti ma bassa qualità; (anche questa è una
soluzione adottabile per piccoli gruppi).
La tecnologia della videoconferenza interattiva si basa sulla trasmissione
di immagini in movimento e di componenti digitali, opportunamente compressi,
su reti solitamente dedicate, tipo ISDN (Integrated Services Digital
Networks); la compressione operata riduce la quantità dei dati
da trasmettere sulle linee, quindi ottimizza i costi di trasmissione.
Il canone mensile di queste linee viene calcolato sulla distanza e non
sull’uso effettivo, comportando costi piuttosto cospicui; inoltre,
la spesa per l’equipaggiamento iniziale risulta molto elevata.
Si sta ancora operando, a livello commerciale, sulla definizione di standard
universali per i protocolli di compressione-decompressione dei dati:
finora si è giunti a trasmissioni in bassa risoluzione per la
qualità delle immagini, con la presenza di “effetti neve” o “effetti
fantasma” non del tutto risolta. Gli ultimi apporti tecnologici
determinati dall’uso della fibra ottica migliorano sensibilmente
la qualità delle trasmissioni: la banda larga attualmente è disponibile
nei più importanti centri urbani, con prospettive di sviluppo
notevoli per le metodologie didattiche interattive.
La videoconferenza interattiva riporta il docente nella sua posizione
canonica, dietro ad una cattedra e vicino ad una lavagna (per quanto
entrambe virtuali): ancor più che nella formazione in presenza,
i docenti interessati alla formazione tramite VI devono eludere il rischio
di passività dello studente, ponendo la propria lezione ad alti
livelli di coinvolgimento, con spiegazioni e chiarimenti mai banali;
mai come in questo caso si rende necessario un buon insegnante, proprio
dal punto di vista tradizionale della docenza, rispetto alla capacità di
coinvolgimento e di diffusione della conoscenza.
Il disegno di un sistema deve tener particolarmente conto dei bisogni
d’apprendimento dello studente, inserendo le necessarie interruzioni
e cambiando la modalità istruttiva ogni dieci - quindici minuti
al massimo per non far scemare l’attenzione, passando dalla letture
alla spiegazione, dalla discussione all’esercizio di gruppo al
gioco di ruolo e così via. Un’utile opzione è l’inserimento
di testimonianze esterne al gruppo di lavoro, operate mediante interviste
o letture fatte dalla voce del testimone, per garantire un maggior coinvolgimento.
Spesso bisogna garantire l’atteggiamento di divertimento, entertainment,
piuttosto che un’impostazione educativa quando si propone l’apprendimento
tramite la videoconferenza interattiva: interattività e variazione
contribuiscono a ridurre le distrazioni; ciò si ottiene enfatizzando
l’interazione fra i partecipanti e dichiarando in modo preciso
gli obiettivi e i tempi di lavoro; il dialogo deve essere incoraggiato
dal docente o dal moderatore della conferenza.
2. L’interazione asincrona
La principale caratteristica della comunicazione
asincrona o differita è rappresentata
dalla possibilità di abbattere le barriere spazio-temporali. Ciò significa
che, oltre a consentire un rapido scambio tra interlocutori anche molto
distanti tra loro essa permette di stabilire una conversazione libera
da problemi relativi all’orario, cosa che invece costituisce un
forte limite per la comunicazione sincrona. Ogni discende può decidere
autonomamente quando studiare il materiale didattico, scegliendo il momento
più adatto in modo da farlo conciliare con i propri impegni personali
oprofessionali.
2.1 La mailbox.
La mailbox è un sistema di posta elettronica, utilizzato per
la comunicazione tra tutor e discendi. Essa permette una comunicazione
differita nel tempo e spesso viene utilizzata come sostituta del tradizionale
orario di ricevimento, creando un incontro tra docente e discende via
Intrenet. Ai tutor spetta l’onere di rispondere alle e-mail, che
gli arrivano, assicurando inoltre un determinato tempo di risposta.
Le e-mail possono essere indirizzate contemporaneamente a più individui;
tale potenzialità viene sfruttata tramite la costituzione di una “mailing-list”,
che è una lista di discussione che tratta di un particolare argomento.
In tal modo è possibile creare dei gruppi d’interesse in
cui ogni membro partecipa alla discussione e invia e riceve da tutti
i partecipanti i propri documenti.
2.2 Il forum
Ad uno scopo differente tende lo strumento del
forum; esso consiste in uno spazio virtuale condiviso, in cui tutor
e discenti inseriscono i loro messaggi relativamente ad una questione
o ad una proposta sollevata. E’ un momento importante che sprona alla partecipazione collettiva
ed all’espressione delle proprie idee. Permette l’accesso
in tempi che ognuno può decidere e gestire, al contempo assicura
la visibilità dei propri messaggi a tutti. Tali messaggi sono
collegati tra loro, nel senso che la domanda originaria è collegata
con tutte le risposte ad essa inerenti. Anche nel forum immagini digitali
e documenti vari possono essere allegati ai messaggi.
Lo strumento del forum fornisce agli studenti l’opportunità di
gestire una discussione per merito dell’assenza di vincoli temporali.
La fondamentale differenza tra un aula, intesa in senso classico, ed
un forum risiede nel momento in cui inizia una discussione; nel classico
seminario essa inizia con il professore, che ne stabilisce anche l’agenda;
nel forum sono i discendi a definire l’agenda così che il
professore partecipa più come interlocutore alla pari che come
protagonista.
Le tipologie possibili sono molte, in relazione agli interessi del corso
si possono avere forum:
· Di classe, in cui l’accesso è consentito solo ai
discendi di un particolare corso;
· Di corso, nel caso in cui i percorsi proposti sono numerosi, anche
qui l’accesso è limitato ai partecipanti di un certo percorso
formativo;
· Pubblici, in cui l’accesso è moderato da un tutor
esperto nella materia trattata o sull’oggetto della discussione.
2.3 La bacheca virtuale.
Le bacheche virtuali replicano in tutto e per tutto
le funzioni di quelle reali; in esse si possono trovare: comunicazioni,
di carattere più informale
che non nel forum o nelle e-mail personali; annunci, inerenti o meno
all’argomento del corso, che comunque tendono ad instaurare uno
spirito di classe e di partecipazione.
LE PIATTAFORME INTEGRATE
Le piattaforme integrate sono dei veri e propri
software, spesso appositamente progettati per offrire a chi eroga o
gestisce attività di formazione
in rete tutte le implementazioni tecnologiche per operare; si parla di
soluzione integrata tutte le volte che i progettisti e gli organizzatori
di un corso si avvalgono di queste strumentazioni per risolvere in modo
integrato il problema dell’infrastruttura tecnologica che ne supporterà l’attività di
e-learning.
Tipicamente, una piattaforma integrata si pone alla risoluzione di una
molteplicità di esigenze:
· gestione della messaggistica;
· gestione dei dati e delle informazioni;
· erogazione dei materiali didattici;
· gestione di attività collaborative specifiche;
· attuazione di simulazioni;
· verifica dei risultati;
· gestione di statistiche sulle interazioni e monitoraggio del sistema.
A questa serie di bisogni, le piattaforme integrate cercano di dare una
soluzione con un ventaglio di strumenti, distinguendo fra:
· strumenti a disposizione dei docenti e dei tutor;
· strumenti a disposizione dei corsisti;
· funzionalità specifiche di figure esterne connesse al processo
didattico (validatori, osservatori esterni, responsabili amministrativi);
· strumenti utilizzabili dalla classe virtuale per le attività cooperative.
Sulla base di queste considerazioni si può affermare che di fronte
a un’ipotesi di soluzione integrata la problematica maggiore risieda
nella selezione e nella scelta della piattaforma; si presume che una
piattaforma completa e ben strutturata integri funzionalità in
grado di supportare più tipologie di interazione, varie modalità di
trasmissione mediale e la possibilità di manipolare diversi media.
Si individuano così alcune tipologie di strumenti software che
una buona piattaforma deve presentare:
· desktop conferencing system;
· groupware per i contenuti;
· groupware per le interazioni;
· ambienti di editing e authoring dei materiali formativi;
· ambienti di erogazione.
Partendo dagli stili di insegnamento e apprendimento in rete, si può illustrare
la collocazione delle diverse piattaforme integrate rispetto alle esigenze
stesse che vogliono andare a soddisfare. In rete si identificano almeno
quattro distinti modelli di apprendimento:
· Modello time indipendent: si presuppone una relativa libertà nei
tempi e nei modi dell’apprendere, per l’uso di materiali distribuiti
e per forme di interazione prevalentemente asincrone.
· Modello simultaneo: si propone il meccanismo della lezione frontale,
reso più flessibile dalla possibilità dell’interazione
garantita in rete (lavagne condivise), in forme prevalentemente sincrone.
· Modello di studio autonomo: si presuppone un’ampia libertà d’azione
nei tempi e nei modi del corsista, che lavora da solo sui materiali didattici
distribuiti in rete, integrati o a struttura modulare; indicato per corsisti
consapevoli e altamente motivati, con bisogni formativi circoscritti.
· Modello di apprendimento in real-time: concerne l’interazione
in tempo reale tra docente e corsista e l’uso della rete come supporto
e luogo stesso dell’apprendimento.
Relazionando questi modelli di apprendimento in rete con le tipologie
di piattaforme disponibili sul mercato si delinea una classificazione
delle piattaforme stesse centrata in parte sulle funzionalità specifiche
dell’ambiente software, e in parte sulle modalità didattiche
che le stesse funzionalità suggeriscono.
Quindi si presentano quattro macro categorie di piattaforme integrate:
1. Piattaforme orientate alla gestione delle interazioni, soprattutto
asincrone, all’interno di una comunità “che apprende”,
e alla condivisione di informazioni, materiali e opinioni.
2. Strumenti orientati all’editing, all’erogazione e al management
di materiali didattici destinati a chi vuole sviluppare percorsi di apprendimento
autonomi.
3. Ambienti specializzati per il training a distanza
4. Piattaforme per la gestione di situazioni ad alto livello di interazione
La prima categoria di ambienti raggruppa tutte le piattaforme di condivisione
orientate ad un approccio collaborativo, learning team centered.
Queste piattaforme, orientate alla gestione delle interazioni tra i componenti
di un gruppo e alla condivisione di informazioni e risorse, comprendono,
nella maggior parte dei casi, un’architettura di tipo client-server:
il software che gestisce il sistema và installato e mantenuto
su un server web; i vari utenti usano un apposito client, da installare
localmente, quasi sempre gratuito, mentre il server può essere
molto costoso e di difficile installazione.
L’accesso alle schermate e alle informazioni sulle discussioni è riservato
solo ai componenti del gruppo (password e username), con l’amministrazione
del gruppo, affidata a un tutor o a un moderatore, con la facoltà di
aggiungere o cancellare persone, o estromettere materiale.
La seconda e la terza categoria di piattaforme individuano un approccio
tipicamente instructor centered, con poco spazio per la collaborazione
e una destinazione prevalentemente individuale: appaiono particolarmente
indicate per la formazione professionale, al training a distanza basato
sui contenuti erogati.
Tipicamente, un ambiente di erogazione e management si pone in misura
relativa il problema dell’interazione fra pari e della costruzione
di una comunità di collaborazione, ma punta piuttosto all’interazione
verticale docente/esperto di contenuti e alla verifica degli apprendimenti.
Questi sistemi integrano strumenti per la creazione automatica di indici
personalizzati o per la consultazione da parte del corsista delle sue
prove di valutazione e di livello raggiunto. La caratteristica di modularità di
questi sistemi e la possibilità di riutilizzare i vari materiali
per assemblare n corsi destinati a n studenti, ne fanno degli strumenti
fortemente orientati al training aziendale: si tratta di piattaforme
particolarmente costose, comprendenti dei sistemi di editing dei contenuti
in rete e di tools sofisticati per la gestione dei diversi ruoli (tutor,
docenti, esperti, osservatori, valutatori), ammortizzabili solo attraverso
le grandi economie di scala che si riescono a realizzare, sempre che
si abbia a che fare con un’utenza numerosa.
La terza categoria concerne dei gruppi di piattaforme che puntano la
loro enfasi metodologica sull’interazione tra docente e studenti
nella condivisione delle informazioni; si lascia quindi grande spazio
alla figura del docente e alla comunicazione in forma sincrona.
Si cerca di ricreare la situazione didattica frontale di un’aula
tradizionale, con l’ovvia differenza che tutti gli attori coinvolti
sono distribuiti geograficamente; tra le possibilità si registrano
la presenza di strumenti integrati di audio e video conferenza e la condivisione
delle sessioni di lavoro, oppure sui tools per la scrittura collaborativa
e per la revisione incrociata degli elaborati, puntando sempre su forme
di interazione sincrone. Queste piattaforme risultano piuttosto onerose
e architettate secondo la modalità client-server; le applicazioni
più diffusa riguardano esempi di training aziendale per nuove
procedure e abilità, o nel mondo universitario per quelle più complete.
La quarta categoria di ambienti, infine, presuppone un approccio tipicamente
learner centered e può rivelarsi molto appropriata in ambito scolastico.Queste
piattaforme presentano le cosiddette forme di apprendistato pilota di “lavagne
condivise”: la metafora della lavagna, integrata a strumenti quali
la desktop e la video conferencing in modalità sincrona, và a
privilegiare l’apprendimento condiviso. Nate come sistemi per effettuare
presentazioni multimediali a distanza o illustrare a interlocutori remoti
grafici e immagini, le lavagne condivise superano i limiti fisici della
lavagna reale, il suo spazio ridotto, l’impossibilità di
offrire raffigurazioni grafiche articolate oltre un certo limite, l’assenza
di memoria, la sua limitata visibilità. Il discente può trarre
da questo supporto vantaggi notevoli legati all’osservazione in
tempo reale cosa sta facendo il docente e all’interazione, sempre
in tempo reale, con il materiale illustrato o con il docente stesso.
Un gruppo di docenti inglesi ha aggiunto una nuova periferica utile per
l’interazione con le lavagne condivise: le interactive whiteboard
sono delle lavagne vere e proprie, tavolette grafiche su cui si può agire
con una penna ottica.
Questi strumenti consentono ai corsisti l’interazione con il lavoro
sulla blackboard del docente, con la possibilità di integrare
documenti ipertestuali o ipermediali.
Il sistema riesce ad agire su un doppio livello: localmente si può interagire
con la lavagna utilizzando la tavoletta grafica, per tracciare, per esempio,
appunti memorizzabili su un diagramma a cui altro stanno lavorando; in
collegamento remoto, invece, si possono condividere i contenuti di più lavagne
collegate a più postazione. Questi strumenti si prestano bene
per affrontare gli approcci in modalità problem solving: si pensi
per esempio alla possibilità, per una scuola, università o
azienda, di organizzare online una tavola rotonda a più voci con
esperti o altri interlocutori, senza ricorrere necessariamente a costose
e complesse attrezzature di videoconferencing, potendo contare su una
documentazione digitale e integrale di quanto accaduto.
Infine, si segnalano tre possibili opzioni di linee guida per la scelta
della piattaforma integrata in base all’obiettivo didattico: se
l’obiettivo è prevalentemente il trasferimento di conoscenze
e l’acquisizione di nozioni da parte degli studenti, le piattaforme
più indicate saranno quelle orientate alla distribuzione delle
informazioni, ambienti per il management e ambienti dotati di strumenti
di videoconferenza o di possibilità di editing e authoriting.
Se invece l’obiettivo didattico consiste nell’acquisizione
di capacità progettuali, di abilità di manipolazione e
di costruzione di ambienti ipermediali da parte dei discenti, le piattaforme
più interessanti saranno quelle che garantiscono un alto livello
di interazione tra docente e discente, come lavagne condivise o i tools
orientati alla costruzione cooperativa di oggetti e informazioni.
Infine, se l’obiettivo didattico perseguito insiste nella creazione
di modelli mentali cooperativi, allora la piattaforme più indicate
saranno quelle che integrano più strumenti per cooperare, ovvero
conferencing system in senso lato ed ambienti di condivisione.
L’USABILITA’ 1. La progettazione centrata sull'utente.
In generale, in qualunque contesto, i cambiamenti
apportati dall'introduzione di metodi e processi innovativi possono
dare luogo a due tipi di reazioni: un'accoglienza positiva, che consiste
nell'accettare la novità come
stimolo e sfida, o una reazione negativa, che si manifesta col rifiuto
del cambiamento, vissuto come fonte di stress.
Quest'ultimo caso si verifica quando la persona si considera incapace
di affrontare con successo la nuova situazione: la paura porta ad evitare
il più possibile il contatto con l'innovazione e a fornire collaborazioni
scadenti quando l'interazione appare inevitabile. Questa considerazione
acquista un rilievo particolare alla luce del cambiamento che in questi
anni sta interessando il panorama dei metodi e degli strumenti didattici
rivolti sia all'utenza privata, sia a quella aziendale.
Le agenzie formative e le aziende che hanno deciso di puntare sull'e-learning
non possono trascurare il rischio di “rigetto” a cui vanno
incontro le loro iniziative. Nel determinare il favore o lo scetticismo
degli allievi (in particolare dei più tradizionalisti e recalcitranti
all'uso delle nuove tecnologie), un elemento critico è sicuramente
l'interfaccia utente degli strumenti proposti. Una progettazione attenta
e rispettosa delle specifiche esigenze ed attitudini dell'utente può rendere
meno traumatico il primo approccio e facilitare il successivo rapporto
tra l'allievo e il nuovo ambiente didattico. In mancanza di questo presupposto,
l'intero sforzo per la riuscita del cambiamento potrebbe essere vanificato.
La progettazione centrata sull'utente, più che una rigorosa metodologia è una
filosofia che, mettendo al centro il destinatario del prodotto e le sue
esigenze, considera il processo progettuale come un percorso finalizzato
alla realizzazione di un prodotto usabile.
Secondo questo approccio, è necessario partire da un'analisi di
tre elementi: l'utente in se stesso; il lavoro che deve svolgere (il
carico mentale), e l'ambiente che lo circonda (l’interfaccia).
Le informazioni raccolte su questi tre aspetti, che costituiscono il
contesto del software, permettono di stabilire quali requisiti dovrà possedere
il programma per essere considerato soddisfacente sotto il profilo dell'usabilità.
Una volta definiti gli obiettivi da raggiungere, un team di progettazione
può avanzare delle ipotesi e prendere in considerazione diverse
alternative per soddisfare le esigenze individuate. La scelta delle soluzioni
più efficaci viene condotta con la collaborazione degli utenti
finali, ai quali viene chiesto di testare e giudicare diversi prototipi.
Le informazioni emerse da queste prove sono delle risorse preziose per
modificare il progetto in corso. L'adozione della prassi appena descritta
presenta notevoli vantaggi sia dal punto di vista economico, sia da quello
sociale. Infatti, i prodotti così sviluppati:
· riducono i costi della formazione, poiché si comprendono
e si usano con maggiore facilità;
· accrescono la soddisfazione dell'utente, riducendo il disagio
e lo stress durante il lavoro;
· aumentano la produttività e l'efficienza all'interno delle
aziende che li adottano;
· attraggono i clienti grazie alla loro migliore qualità,
dunque possono fornire un vantaggio competitivo all'impresa che li realizza.
L'usabilità di un sistema, ovvero la sua facilità d'uso, è stata
definita dall'International Standard Organization come: "l'efficacia,
l'efficienza e la soddisfazione con cui determinati utenti eseguono determinati
compiti in particolari ambienti".
Dunque, un software usabile ha tre requisiti fondamentali. Innanzitutto
consente l'esecuzione di tutti i compiti per i quali è stato progettato
(efficacia); in secondo luogo, a fronte delle prestazioni fornite, richiede
l'investimento di risorse limitate in termini di tempo necessario al
raggiungimento dell'obiettivo e di denaro speso (efficienza); infine,
presenta delle modalità di funzionamento accettabili per l'operatore,
ovvero non procura stress e frustrazione (soddisfazione).
Nella progettazione di qualsiasi software bisogna sempre rapportare le
scelte ipotizzate al compito, all'utente e all'ambiente, che costituiscono
il particolare contesto di utilizzo del sistema. In effetti, la progettazione
centrata sull'utente si può considerare un approccio, per così dire, "orientato
al processo", in quanto descrive una serie di tappe da percorrere
per raggiungere il risultato atteso, ma non da alcuna indicazione assoluta
sulle caratteristiche da ricercare.
2. L'interfaccia utente
Nel software di ultima generazione circa la metà delle
risorse impiegate durante lo sviluppo sono destinate alla cura dell'interfaccia
utente.
Nel contesto dell'elettronica con l'espressione interfaccia si denotano
i dispositivi che fisicamente consentono il transito di informazioni
tra due sistemi tecnici. Monitor, modem, stampanti, ecc. riescono a scambiarsi
dati grazie ai cavi e agli altri connettori che li uniscono. Tali dispositivi
di collegamento costituiscono quindi la loro interfaccia.
Negli anni sessanta, si è esteso il significato del termine interfaccia
all'interazione fisica tra l'uomo e la macchina. Sono quindi passati
sotto il nome di interfaccia anche quei componenti degli strumenti tecnici
che gettano un ponte verso l'utente, per consentire il passaggio di informazione
nei due sensi. Successivamente il concetto di interfaccia si è ulteriormente
arricchito e specificato ed è stato variamente interpretato a
seconda delle priorità e delle aree di interesse degli autori
che si sono confrontati su questo tema.
Si può rintracciare un comune denominatore che caratterizza le
interpretazioni più recenti: la novità rispetto al passato
sta sostanzialmente nella considerazione della dimensione cognitiva dell'interazione
uomo-macchina.
3. Tre paradigmi per spiegare l’interfaccia
In generale si possono individuare tre approcci principali al concetto
di interfaccia conosciuti come paradigma comunicativo, paradigma strumentale
e paradigma della costruzione di modelli.
L'interpretazione più condivisa del concetto di interfaccia è quella
relativa al paradigma comunicativo: l'interazione tra l'uomo e la macchina
consiste in un rapporto di comunicazione, in una sorta di dialogo, per
cui l'interfaccia è ciò che media tale relazione, da un
lato presentando l'informazione all'utente, dall'altro ricevendola dallo
stesso. In questo paradigma si pone un'analogia tra i due protagonisti
dell'interazione: ad entrambi, infatti, viene riconosciuta la capacità di
elaborare informazioni in entrata (input) per fornire informazioni in
uscita (output).
Tuttavia la somiglianza tra l'utente e la macchina è oggetto di
diverse interpretazioni che spostano l'accento ora sulle peculiarità dell'essere
umano, ora su quelle del sistema. Secondo alcuni autori aderenti alle
recenti tendenze della psicologia cognitiva, tale analogia sussiste in
quanto è l'uomo ad assomigliare alla macchina: infatti come un
computer, acquisisce informazioni dall'ambiente esterno, le immagazzina,
le recupera quando sono applicabili ai compiti correnti, le trasforma
per produrre nuove informazioni e infine restituisce il prodotto della
sua elaborazione all'ambiente. I sostenitori di questo approccio ritengono
pertanto che sia possibile studiare l'architettura e i meccanismi della
mente umana sulla base di modelli fortemente ispirati alla scienza dei
calcolatori.
Una seconda prospettiva va sotto il nome di paradigma strumentale: il
computer può essere considerato come uno strumento, o più precisamente
come un "meta-strumento", poiché la sua versatilità permette
l'emulazione di una molteplicità di mezzi diversi. L'interfaccia
deve essere progettata come una protesi efficace, in modo da consentire
all'utente di "impugnare" il programma per raggiungere il suo
scopo.
Portando all'estremo questa interpretazione si può arrivare a
dire che la migliore interfaccia è quella che scompare, ovvero
quella che consente all'utente di concentrare la sua attenzione solo
sul compito che vuole eseguire. Azione è dunque la parola-chiave
per questo stile interattivo che supera l'idea di immissione di comandi
testuali e punta a quella che si definisce manipolabilità diretta
del sistema.
Questa proprietà consiste nella possibilità per l'utente
di intervenire direttamente su rappresentazioni grafiche visibili degli
oggetti che in un certo momento sono pertinenti all'esecuzione del suo
compito; inoltre, le azioni sono reversibili e vengono seguite da una
rapida risposta. Gli elementi grafici che caratterizzano questo tipo
di interfaccia sono solitamente considerati un espediente per semplificare
il rapporto con la macchina tramite richiami metaforici ad una realtà familiare
all'utente (schedario, blocco per appunti, cestino dei rifiuti...). In
effetti questo utilizzo è facilmente riscontrabile nella maggior
parte dei sistemi attualmente in uso; essi di fatto costituiscono una
realtà poiché creano quello spazio d'azione in cui l'utente
si muove per raggiungere i suoi obiettivi.
Esiste un terzo approccio, il cosiddetto paradigma della costruzione
di modelli, in base al quale lo scopo della progettazione dell'interfaccia
consiste nell'aiutare l'utente a costruirsi un modello mentale (una rappresentazione
cognitiva del sistema che ne spieghi il funzionamento), del sistema che
rispecchi quello del designer.
L'utente costruisce tale modello basandosi unicamente sull'immagine che
il sistema dà di sé, osservando i dispositivi di cui è composto,
la forma dei vari elementi e gli effetti prodotti dalle sue azioni.
Se l'interfaccia è progettata adeguatamente, ovvero se l'immagine
che il sistema dà di sé corrisponde al modello progettuale,
allora l'utente, durante la normale interazione, riesce a costruirsi
un buon modello concettuale del sistema e impara a prevedere correttamente
le conseguenze delle sue azioni.
L'utente viene guidato nella costruzione del suo modello mentale da due
tipi di elementi che caratterizzano il dispositivo con cui interagisce:
gli inviti e i vincoli.
I primi consistono nelle possibilità di utilizzo suggerite dall'aspetto
dell'oggetto stesso (es. un pulsante invita a premere, una leva a tirare,
una manopola a girare, etc.); al contrario, i secondi scoraggiano l'utente
dal compiere azioni errate con un certo strumento. Una distribuzione
strategica di inviti e vincoli guida l'utente al corretto utilizzo di
uno strumento, anche in una situazione nuova.
Nell'interazione con artefatti meccanici la costruzione di modelli mentali
corretti è favorita dall'esperienza quotidiana delle leggi della
fisica: la visibilità dei componenti, il funzionamento analogico
e il feedback naturale fornito dal movimento delle parti aiutano l'utente
a capire le regole che governano il meccanismo dello strumento. Nei sistemi
computerizzati, invece, quasi tutte le costrizioni tecniche dell'interfaccia
scompaiono: la struttura fisica dell'oggetto non comunica più nulla
circa il suo funzionamento e la sua analisi anatomica perde di ogni valore.
Per interagire con questi sistemi, definibili "bui", si rende
necessaria una mediazione creata ad arte dal designer: è lui che
getta un ponte tra l'utente e la macchina e conferisce ad essa un comportamento
che è frutto di precise decisioni progettuali.
4. La coerenza dell'interfaccia utente (principio della coerenza).
Probabilmente la coerenza è il principio più citato nella
letteratura sulla progettazione d’interfaccia Un sistema coerente
si comporta in modo simile in situazioni simili. Se l’interfaccia
possiede questa caratteristica, l’utente è incoraggiato
ad attuare strategie di apprendimento esplorative, in quanto può basarsi
sulle conoscenze che già possiede per ipotizzare le modalità di
funzionamento del sistema anche in ambiti diversi da quelli già sperimentati.
La coerenza sollecita e favorisce l’uso di ragionamenti basati
sull’analogia (J. Nielsen, 2000).
In un'interfaccia che rispetti questo principio, le informazioni di uno
stesso tipo dovrebbero comparire sempre nello stesso modo, cioè collocate
nella stessa posizione rispetto agli altri elementi e con costanti qualità grafiche
e linguistiche.
La coerenza può essere ulteriormente specificata per mezzo di altre
proprietà più particolari, ovvero:
· prevedibilità;
· familiarità;
· generalizzabilità;
· mapping naturale.
La prevedibilità di un sistema è la caratteristica per cui l’utente
ritiene di poter prevedere l’effetto delle sue azioni future basandosi
sull’esperienza maturata durante le interazioni passate. Si tratta di
un concetto centrato sull'utente, ovvero sulla sua soggettiva percezione delle
caratteristiche del software. Per esempio, se l'utente esegue l'azione A e
il sistema risponde producendo l'effetto B, allora l'utente può ragionevolmente
supporre che anche in futuro per ottenere B gli basterà ripetere l'azione
A. Se, in un successivo riscontro, questa ipotesi risulta vera, allora il sistema è percepito
come uno strumento prevedibile, altrimenti no.
La familiarità di un sistema si valuta osservando la prima impressione
che esso fa al suo utilizzatore. Più precisamente, questa proprietà misura
la correlazione tra la conoscenza già posseduta dall’utente e
quella necessaria per procedere ad un’effettiva interazione.
Per accrescere la familiarità di un ambiente interattivo, il progettista
può servirsi di richiami metaforici a realtà ben conosciute dall'utente;
cassette delle lettere, cestini dei rifiuti, evidenziatori e lenti d'ingrandimento
sono solo alcuni dei numerosi elementi che, in virtù del loro rapporto
di somiglianza e contiguità con oggetti di uso comune, vengono usati
per semplificare il primo incontro tra l'uomo e la macchina.
La generalizzabilità è la proprietà del sistema per cui
l’utente può estendere la conoscenza maturata in una specifica
interazione ad altre situazioni simili; la trasposizione può avvenire
all’interno della medesima applicazione oppure tra applicazioni diverse.
Per il primo caso si ipotizza, per esempio, che l'utente si trovi davanti ad
un programma di elaborazione grafica: se un cerchio viene concepito come una
particolare ellisse, allora l'utente potrà ipotizzare che un quadrato
sia concepito come un particolare rettangolo. Per il secondo caso, invece,
si pensi che l'utente abbia imparato, in un programma di elaborazione di testo,
che deve prima selezionare un paragrafo per poterne modificare le caratteristiche
di formattazione.
Sulla base di questa esperienza, lo stesso utente, davanti ad un programma
di elaborazione grafica, potrà ipotizzare di dover prima selezionare
una figura per poterne cambiare il colore o l'inclinazione.
In un sistema coerente il funzionamento dei comandi deve essere caratterizzato
il più possibile dalla compatibilità di risposta, anche conosciuta
come mapping naturale. Questo significa che le modalità di azionamento
dei comandi devono essere progettate in analogia al tipo di risultati che questi
producono, così da ridurre al minimo lo sforzo interpretativo dell’operatore.
Per esempio, il gesto di innalzare un cursore genera la naturale aspettativa
di incrementare la quantità di un qualcosa.
Un concetto collegato a quello di mapping naturale è quello di stereotipo:
si tratta di una corrispondenza tra azionamento di un comando ed effetto prodotto
che, all’interno di una popolazione data, viene percepita come naturale
dalla stragrande maggioranza dei soggetti. Per esempio, dovendo scegliere in
quale senso ruotare una manopola per spostare un indice da sinistra a destra
secondo un percorso lineare, la maggior parte delle persone ruota il comando
in senso orario.
L’origine degli stereotipi è ancora controversa: non esistono
prove certe che stabiliscano se questi condizionamenti siano dovuti a cause
culturali o neurofisiologiche. Il progettista, per poter definire adeguatamente
le modalità di funzionamento dei comandi, deve conoscere le aspettative
dell'utente circa le compatibilità di risposta (J. Nielsen, 2000). I
comandi progettati senza tenere conto di questa esigenza mandano l’utente
incontro ad una serie di sistematiche frustrazioni, poiché ogni volta
che lo sventurato si accinge ad utilizzarli si accorge di essersi sbagliato
e di doversi correggere.
La progettazione basata sul mapping naturale rivela tutta la sua efficacia
nelle situazioni in cui l'utente è costretto ad operare sotto pressione:
in condizioni di particolare stress, infatti, è fondamentale muoversi
con rapidità e sicurezza, facendo affidamento sull'esperienza e sull'intuito
che guidano i comportamenti automatici.
4. Il linguaggio dell'interfaccia utente
In una prospettiva centrata sull'utente, il linguaggio di un'interfaccia
deve essere progettato in modo da adeguarsi alle caratteristiche dell'operatore:
la terminologia, gli elementi iconici e quelli grafici devono tenere
conto delle sue esigenze sia fisiche, sia psicologiche e devono ispirarsi
alle convenzioni dell'ambiente culturale cui egli fa riferimento.
Per quanto riguarda la terminologia, i dialoghi devono utilizzare la
lingua madre dell'utente ed esprimersi descrivendo i vari eventi che
si verificano dal suo punto di vista. La ricerca della massima chiarezza
espositiva non deve indurre all'uso di un vocabolario piatto e limitato.
Anche per questo aspetto bisogna considerare il tipo di utente per cui
si progetta l'interfaccia: se si tratta di una persona esperta di un
particolare dominio si possono, anzi si devono, usare i termini specialistici
di quel settore; al contrario, se si tratta di una persona con difficoltà espressive è bene
tenere conto di questi limiti, evitando vocaboli al di fuori della sua
portata. Anche la compatibilità tra il formato delle informazioni
in entrata e quello delle informazioni in uscita fa parte delle questioni
relative alla comprensibilità del linguaggio del sistema. I dati
devono essere espressi in modo tale che l'utente possa interpretarli
facilmente, senza ricorrere a traduzioni di scala o di formato.
L'interfaccia di un programma deve essere progettata in modo che l'operatore
abbia il pieno controllo della situazione e possa decidere se lasciare
l'iniziativa del dialogo al sistema o se trasferirla su di sé.
Nel primo caso, l'interazione può avvenire per mezzo di semplici
domande a cui l'utente debba rispondere, preferibilmente scegliendo tra
una serie di possibilità predefinite; generalmente, si ritiene
che questa soluzione sia adatta soprattutto ad utenti inesperti e che
l'altra, invece, sia più efficace quando il sistema viene maneggiato
da una persona già piuttosto abile. Quest'ultima infatti, conoscendo
approfonditamente le regole che governano un certo ambiente software,
di solito preferisce guidare l'interazione secondo i suoi gusti e i suoi
ritmi, piegando al massimo lo strumento alle sue necessità.
Con l'espressione linguaggio del sistema si fa riferimento non solo alle
modalità espressive che si basano sull'uso delle parole, ma anche
a quelle che utilizzano elementi non verbali: le scelte grafiche condizionano
pesantemente l'usabilità di un'interfaccia.
Indipendentemente dal fatto che si opti per una rappresentazione tridimensionale
o bidimensionale dell'ambiente interattivo, bisogna ricordare che le
soluzioni adottate non devono essere fini a se stesse, ma subordinate
al perseguimento di obiettivi funzionali. Sono da evitare, dunque, gli "effetti
speciali" pensati per produrre impressioni suggestive, a meno che
non servano anche a veicolare delle informazioni utili alla riuscita
dell'interazione.
Durante la progettazione grafica dell'interfaccia, un metodo efficace
per guidare l'utente ad una migliore comprensione delle relazioni tra
gli elementi consiste nel basarsi sui principi derivanti dalla teoria
della Gestalt. Secondo i suoi sostenitori, il tutto è diverso
dalla semplice somma delle parti che lo compongono, proprio in virtù della
sua struttura d'ordine, che conferisce ai singoli elementi una funzione
supplementare rispetto a quella che essi avrebbero se fossero considerati
singolarmente. Secondo la psicologia gestaltica, alcune tendenze organizzative
innate, chiamate principi di raggruppamento, predispongono naturalmente
l'uomo a considerare elementi di uno stesso gruppo quegli stimoli che
presentano tra loro un rapporto di vicinanza, somiglianza, chiusura,
continuità o comunanza. Un altro principio interpretativo riguarda
il rapporto tra la figura e lo sfondo: la superficie più piccola
e nitida viene generalmente interpretata come figura, mentre quella più grande
e sfuocata come sfondo.
Sulla base di queste osservazioni è possibile disporre i vari
elementi che compongono l'interfaccia in modo da enfatizzare sia le somiglianze
che le differenze concettuali, così da guidare l'utente alla giusta
interpretazione del tutto (S. Rossano, in Internetime 2002).
Il designer, servendosi di questi principi di progettazione grafica,
può aiutare l'utente a focalizzare la sua attenzione sugli elementi
realmente prioritari in un determinato momento, trascurando quelli secondari.
Ai primi, infatti, si possono attribuire degli effetti per contrapporli
agli altri e metterli in risalto: lampeggiamento, ingrandimento, movimento,
contrasto cromatico sono solo alcune delle soluzioni attuabili per questo
scopo.
L'efficacia di questi metodi è fuori di dubbio, tuttavia vanno
usati con cautela: infatti, una delle difficoltà maggiori nella
progettazione dell'interfaccia sta proprio nel riuscire a contenere il
ricorso alle tecniche di accentuazione appena illustrate, applicandole
solo a quei casi in cui realmente servono. Il motivo è facilmente
intuibile: un'accozzaglia di oggetti lampeggianti su diversi sfondi multicolore
ottiene esattamente il risultato opposto a quello sperato. L'utente,
confuso, non riesce a stabilire alcuna gerarchia logica tra le parti,
proprio come se tutto fosse ugualmente piatto e omogeneo.
Un discorso analogo vale anche a proposito dell'uso del colore: a questo
riguardo, il primo consiglio per la progettazione di un'interfaccia ergonomica è di
non esagerare: è meglio limitarsi a pochi colori applicati in
modo intuitivo; inoltre, è bene verificare che l'interfaccia sia
comprensibile anche in monocromia: infatti, circa l'8% degli uomini e
l'1% delle donne soffre di daltonismo e quindi incontra delle difficoltà,
più o meno gravi, nella distinzione delle varie tonalità.
Per questo conviene usare le differenze cromatiche solo per rafforzare
delle informazioni già trasmesse per mezzo di altre codifiche.
Un altro aspetto da considerare è che, per la particolare conformazione
dell'occhio umano, l'acutezza visiva nella percezione del blu è inferiore
rispetto a quella del rosso e del verde: di conseguenza, è meglio
non affidare a richiami di questo colore la trasmissione di informazioni
importanti come, per esempio, i messaggi di errore. Infine, bisogna adeguare
la scelta dei colori alle comuni convenzioni e alle aspettative dell'utente,
in modo da assecondare le associazioni già radicate nei destinatari
del sistema.
Il colore è quindi un elemento metacomunicativo: costruisce un
elemento di demarcazione e contestualizzazione della stessa, ne definisce
un ambito semantico, incentra l'attenzione sui suoi punti fondamentali
(menu, titoli di articoli).
Ogni colore ha un suo "peso" neurofisiologico e, di conseguenza
emozionale: nel visual design, i tratti grafici costituiscono la grammatica
e i colori la sua sintassi; per violare una di tali norme implicite serve
un motivo valido: l'infrazione è ammessa, ma solo se è funzionale
al perseguimento di obiettivi di ordine superiore.
5. Il feedback per l'utente
Il feedback è un requisito fondamentale per tutti i dispositivi
interattivi poiché regola il rapporto comunicativo tra l’utente
e la macchina. Infatti è proprio grazie all’informazione
di ritorno che l’operatore può sapere se e come il suo comando è stato
recepito e quindi può stabilire il successivo passo da compiere
(S. Rossano, in Internetime, 2002). Un sistema progettato con cura deve
informare costantemente l’utente circa l’attività in
corso, non solo quando si presentano degli errori, ma anche durante la
regolare interazione. Esistono vari tipi di feedback che richiedono diversi
livelli di persistenza temporale nell’interfaccia.
Alcuni, che potremmo definire volatili, servono solo per pochi secondi
poiché segnalano la sussistenza di una circostanza transitoria
e quindi possono scomparire non appena la situazione torna alla normalità.
Un esempio di questo tipo di feedback sono gli avvisi che informano l’utente
del fatto che nella stampante selezionata manca la carta.
Altri feedback, che potremmo chiamare persistenti, devono rimanere a
disposizione dell’utente fino a quando non vengano esplicitamente
congedati dallo stesso, poiché è importante che siano recepiti
prima di procedere a qualunque altra interazione. Un esempio di questo
tipo di comunicazioni sono le richieste di conferma che compaiono quando
si impartisce il comando per l’eliminazione di un file. Infine
altri feedback ancora, che potremmo definire permanenti, sono così importanti
da dover restare nell’interfaccia in modo stabile. Per esempio,
l’informazione sullo spazio libero disponibile in memoria.
L’informazione di risposta diventa particolarmente importante quando
il sistema impiega molto tempo per portare a compimento l’esecuzione
di un comando. In questi casi, infatti, l’utente deve sapere che
il sistema non ha ignorato la sua istruzione, ma sta lavorando per eseguirla.
Un buon metodo per trasmettere questa informazione consiste in un feedback
continuo, se possibile nella forma di un indicatore che mostri la percentuale
del lavoro già svolto. In questo modo l’utente riesce a
immaginare quanto tempo manca al termine dell’operazione e può decidere
se aspettare, se interrompere il processo o se lasciarlo continuare dedicandosi
ad altro durante l’attesa.
Strettamente collegata all’idea di feedback, si trova il concetto
di sintetizzabilità (synthesizability), ovvero la proprietà per
cui l’utente, se vuole, può riconoscere nello stato attuale
del sistema gli effetti delle operazioni passate; ad ogni trasformazione
dello stato interno del software deve corrispondere un cambiamento nello
stato esterno visibile all’utente, ovvero nell’interfaccia.
La sintetizzabilità non impone che il mutamento di stato del sistema
sia sempre immediatamente visibile all’utente, ma significa solo
che quest’ultimo, se lo desidera, può trovarne una conferma.
La proprietà per cui un’interfaccia mostra automaticamente
un sintomo dell’avvenuto cambiamento è l’onestà.
Nei casi di onestà massima la conferma della modifica si propone
da sé, senza bisogno che l’utente proceda con ulteriori
interazioni; nei casi peggiori invece, l’utente deve attivarsi
per andare a verificare se il cambiamento è avvenuto. Per esempio,
quando un programma che gestisce la posta elettronica è aperto,
l’arrivo di un nuovo messaggio può essere segnalato immediatamente
da un suono e da un’icona che compare sul desktop. In questo caso
l’onestà dell’interfaccia è massima. Invece,
nell’esempio del documento salvato nella cartella è decisamente
più bassa.
Il feedback è fondamentale quando si verificano degli errori nel sistema:
infatti, mai come in questi casi, l’utente ha bisogno di sapere cosa è successo,
perché il programma non si comporta come dovrebbe.
Si deve descrivere il problema con un linguaggio chiaro, semplice e devono
evitare oscuri codici numerici, privi di qualsiasi valore informativo per l’utente.
In secondo luogo, le frasi devono indicare con precisione perché il
sistema non può eseguire una certa richiesta, suggerendo possibilmente
una soluzione attuabile dall’utente per superare la situazione critica.
Infine, è bene che i messaggi di errore evitino toni accusatori: non
bisogna dare all’utente la sensazione che sia colpa sua se il sistema
non funziona correttamente.
LA SCELTA DEI MEDIA PER LA FORMAZIONE IN RETE
I media sono visti come degli strumenti a disposizione
di chi elabora un progetto didattico per allestire un ambiente capace
di stimolare e di facilitare il più possibile il processo di apprendiemnto; in
quest’ottica multiprospettica, non vi è motivo per privilegiare
un mezzo migliore, in quanto l’ipotesi di lavoro esclude la presenza
di un medium univocamente preferibili di fronte alla pluralità dei
bisogni formativi presenti sul mercato della richiesta d’apprendimento
(D. Persico, 2000).
Esistono situazioni in cui il ricorso a uno o più media di supporto
si rivela necessario ed efficace ai fini formativi; la tecnologia facilita
e semplifica il lavoro didattico, può ridurre lo sforzo di chi
apprende (non perché fatica meno, ma perché permette l’analisi
di una problematica da più prospettive, anche da quella più adeguata
al su ostile di apprendimento), o creare degli ambienti di apprendimento
altrimenti non realizzabili, per distanza geografica o per mancanza di
sincronia temporale.
Calvani ha provato a fornire una definizione di medium per la formazione
in rete:“un medium è un dispositivo specializzato per la
gestione (elaborazione o trasmissione) di informazioni, con un’interfaccia
preposta a trattare il flusso comunicazionale tra due mondi” (Calvani
A, Rotta M., 2000). Con questa definizione si vogliono raggruppare tutti
quegli strumenti preposti a svolgere il ruolo di mediatori tra i partecipanti
ad un processo di apprendimento, in presenza o a distanza, indipendentemente
dall’esistenza o meno di una direzione privilegiata del flusso
comunicativo. In questa sede non si vuole rientrare nel merito delle
variabili da tenere in considerazione alla luce della realizzazione di
un progetto didattico a distanza, bensì solo illustrate le peculiarità dei
diversi media a disposizione e scoprire, in base alle caratteristiche
degli stessi, i loro usi e i bisogni formativi che soddisfano.
Research illustra il tasso di memorizzazione delle informazioni veicolate
attraverso i diversi codici di trasmissione mediale (F. Research, in
G. Trentin, 2001):
Il grafico mostra come la lettura sia l’attività che meno
favorisce la memorizzazione delle informazioni via rete; è interessante
notare come il livello di memorizzazione aumenti spostandosi verso le
attività che coinvolgono l’utilizzo di altri canali mediali.
Non è il canale in sé ad aumentare la qualità e
l’efficacia del materiale didattico, quanto piuttosto il suo uso
proprio, in cui si tengano conto delle peculiarità del canale,
dei vantaggi ma anche delle problematiche che può implicare: si
considera, in altre parole, la sua non neutralità nella comunicazione
con il fruitore.
Le principali categorie tra le quali bisogna effettuare la scelta del
media sono tre: il testo, l’audio e il video.
1. Il testo.
Quando ci si riferisce al canale testuale si indica il linguaggio scritto
o stampato su qualche supporto fisico (un libro, una trasparenza, una
lavagna); il testo è frequentemente corredato da immagini (disegni,
schemi o grafici, fotografie) che, pur utilizzando un codice comunicativo
vario, costituiscono un tutt’uno con la componente testuale del
singolo mezzo fisico. Questo tipo di comunicazione, ad esclusione del
linguaggio parlato, è senza dubbio la più antica, economica
e diffusa; il testo si rivela abbastanza flessibile nel suo utilizzo,
può essere letto tutto o in parte, non solo in modo sequenziale,
anche se questa ne è la modalità principale. L’utente
possiede con il testo una risorsa non volatile e sempre consultabile.
E’ lo strumento più adeguato per la trattazione di argomenti
complessi e per la spiegazione di concetti astratti, che richiedono
tempo, concentrazione e interiorizzazione per essere appresi.
Dal punto di vista del fruitore risulta semplice nel consumo, in quanto è trasportabile
facilmente (è leggero), e nell’uso, poiché è vincolato
solo alla capacità di lettura.Il testo veicolato dal libro, richiede
solo la capacità di lettura (alfabetizzazione) e una discreta
motivazione alla comprensione e allo studio.
2. L’audio.
Il suono ne è il principale oggetto di studio; attraverso questo
codice è possibile una comunicazione informale, coinvolgente e
motivante; viene principalmente utilizzato per comunicare idee e sentimenti,
prestandosi meglio del testo a conseguire gli obiettivi nell’ambito
del dominio affettivo (D. Persico, 2000). Il messaggio veicolato dal
codice audio però, per quanto registrabile e riudibile, risulta
più volatile del canale testuale, poco adatta a trattazioni complesse
e intricate, lasciando un margine di interpretazione piuttosto elevato.
L’audio ben si presta a vivacizzare una presentazione e a render
più immediato e vario il processo comunicativo; il presentare
il punto di vista di un esperto attraverso la voce dell’esponente
conferisce autorevolezza alla comunicazione e veicola anche l’aspetto
emotivo del messaggio.L’audio è molto facile da fruirsi,
non impone vincoli di scolarità e i suoi sistemi di riproduzione
sono diffusissimi ed economici, raggiungendo una popolazione potenzialmente
molto vasta.
3. Il video.
L’uso di questo codice difficilmente avviene da solo, in genere
risulta associato al codice audio; quando si parla di media per la didattica
ci si riferisce tendenzialmente alla fruizione degli audiovisivi. Questi
strumenti risultano indicati per le presentazioni introduttive, di sintesi
e di approfondimento.
La natura dinamica del video lo rende particolarmente adatto alla descrizione
di processi che si evolvono nel tempo; si ricrea uno spaccato di vita
reale, si illustrano fenomeni e meccanismi dinamici, si possono rappresentare
delle simulazioni emotivamente complesse e infine si possono ricostruire
quei modelli difficilmente visibili dal vero. L’ampiezza dei sensi
coinvolti rende questo duplice canale il più coinvolgente fra
quelli finora citati, rendendolo adeguato a soddisfare sia obiettivi
di tipo cognitivo, sia di tipo affettivo. Il video risulta ancor più facile
da fruire, non si richiedono particolare sforzi di concentrazione e anzi,
risulta altamente coinvolgente e motivante; può raggiungere una
popolazione numerosa, senza il limite della condivisione linguistica,
essendo lo strumento per la diffusione di massa per eccellenza; il limite
della fruizione collettiva risiede nella disponibilità di aule
attrezzate, con schermo e impianto audio adeguati.
4. Il computer
E’ uno strumento multimediale, che riunisce nella sua espressività i
tre codici, visivo, audio e testo; il suo utilizzo è determinato
dalle sue componenti software. Nella didattica il suo utilizzo supera
quello di strumento per il supporto della lezione frontale, andando a
sfruttare le sue due caratteristiche peculiari (interattività e
connettività) per realizzare apprendimenti strutturati e personalizzati.
Per interattività si intende la capacità di stabilire un processo
comunicativo bidirezionale con l’utente, acquisendo il suo input e reagendo
ad esso, determinando il proprio comportamento sulla base di quello espresso
dall’utente. L’interattività implica la capacità di
questo strumento di indurre un ruolo attivo da parte dello studente, realizzando
processi di apprendimento cognitivi. Il computer si presta dunque alla definizione
di mediatore didattico: in quest’ottica il ruolo dell’insegnante
muta notevolmente, passando da dispensatore di conoscenze a facilitatore del
processo formativo.
Naturalmente, dopo aver ponderato quale sia il codice comunicativo più adeguato
alla propria metodologia didattica, è ulteriormente necessario utilizzarlo
in maniera ottimale: l’uso del computer come libro elettronico (ovvero
come trasposizione in formato pdf dei contenuti cartacei) risulterebbe quanto
mai costoso e ingombrante, e poco interattivo. Invece, il computer si caratterizza
nell’essere uno strumento comunicazionale ad ampio spettro di banda,
che coinvolge cioè il numero di senso più elevato rispetto agli
altri supporti considerati: la scelta del suo impiego deve essere valutata
in base alla messa in atto di strategie didattiche di tipo collaborativo e
costruttivo.
COMPRARE O PRODURRE UN LMS? Realizzare in proprio una soluzione LMS, invece
che acquistarlo da fornitori esterni, è un’alternativa di scelta che può riguardare
soltanto imprese, società o istituzioni di grandi dimensioni.
Le imprese di piccole o medie dimensioni non hanno alternativa: a livello
di costi, la soluzione di produrre in proprio un LMS di qualità non è sostenibile,
quindi sono costrette a comprare o affittare una piattaforma.
La realizzazione di un software “proprietario” può essere
realizzata utilizzando competenze di programmazione software presenti
nel team di progetti di e-learning. Tale attività ha l’obiettivo
base di rendere l’insegnamento più efficace e personalizzato
rispetto ad un LMS acquistato da fornitori esterni; potendolo realizzare
in maniera tale da dover soddisfare a pieno gli obiettivi prefissati
di un certo corso on-line.
La scelta di produrre internamente un LMS si presenta però di forte
complessità e richiede tempo e risorse, tecniche ed economiche, solitamente
fuori dalla portata dei soggetti privati. Inoltre l’evoluzione tecnologica,
nel settore dei LMS, sta provocando una notevole riduzione dei prezzi degli
strumenti software presenti sul mercato; tale da convincere gli operatori del
settore dell’e-leraning a far ricorso all’utilizzo di piattaforme
non proprietarie. Di fatti oggi sono presenti sul mercato piattaforme commerciali
(a pagamento) e, addirittura, piattaforme open-source (totalmente gratuite).
1. Alcuni esempi di piattaforme
Nel mondo si sta assistendo ad una proliferazione di soggetti che si
propongono come fornitori di strumenti per l’e-learning, offrendo
formule commerciali e soluzioni tecnologiche e contenutistiche piuttosto
variegate. A tal proposito si rende necessario descrivere alcune, tra
le tante, piattaforme presenti oggi su Internet.
Docent
Docent (www.docent.com) è una delle piattaforme, commerciali,
più evolute presenti sul mercato, indicata per grandi aziende
e organizzazioni. Questa è nata come strumento di formazione aziendale,
in special modo per quelle imprese che mirano a far evolvere il proprio
processo formativo. Docent permette ai formatori di inserire gli utenti
in diversi processi formativi organizzati per obiettivi: una formazione
tipicamente aziendale e non scolastica.
Claroline
Accanto alle piattaforme commerciali esistono anche piattaforme open
source molto ben realizzate.Claroline (www.claroline.net), sviluppata
all’interno di un’università francese, è una
vera piattaforma di e-learning asincrona che include la maggior parte
degli strumenti offerti dalle piattaforme commerciali. Di fatti essa
fornisce servizi di amministrazione degli utenti, statistiche del corso,
forum, chat, video, audio, servizi di agenda, annunci, etc.
SpaghettiLearning
Anche tra le piattaforme asincrone è apparso un prodotto completamente
italiano e oltretutto open-source. Spaghetti Learning (www.spaghettilearning.com), è una
piattaforma totalmente gratuita, anche se è di livello inferiore
rispetto ad altre piattaforme, tuttavia si trova ancora alle prime versioni.
PROSPETTIVE TECNOLOGICHE: IL MOBILE LEARNING
Il futuro della didattica e dell’informatica stessa è sempre
più orientato verso il “mobile”, ossia verso la possibilità di
portarsi ovunque il proprio dispositivo di accesso alle informazioni,
sempre connesso a Internet e di dimensioni tascabili.
E’ questa la vera sfida. Il tutto è orientato verso un’unica
soluzione: quella del “mobile learning”, o m-leraning. Si
tratta di una tipologia di e-learning che sfrutta dispositivi mobile
di ultima generazione, come palmari, telefonini con funzionalità audio/video
e tablet PC. Solitamente questi dispositivi vengono chiamati Informetion
Appliances e hanno la capacità di potersi connettere alla Rete
tramite tecnologie senza fili, in modo da poter essere utilizzati in
qualsiasi posto ci si trovi.
La visione del mobile computing si basa interamente sulla sua portabilità:
grandi possibilità di interazione, connettività totale
e altissimo rapporto tra potenza di calcolo e dimensioni. E’ chiaro
che stiamo parlando di una visione futura e quindi le Information Appliances
stanno cominciando a diventare di uso comune, e la loro qualità e
capacità sta migliorando giorno dopo giorno e costi continuano
a scendere vorticosamente.
Anche se esistono tuttora delle limitazioni piuttosto sostanziose, è facile
constatare come la maggior parte del materiale classico utilizzato all’interno
delle piattaforme LMS possa essere gestito con questi nuovi dispositivi.
Per esempio un palmare, può gestire testi, immagini e animazioni
senza nessun problema; dispositivi ancora più innovativi riescono
a gestire anche audio e video. Tramite tali dispositivi l’utente
può salvare i materiali dal proprio corso sul palmare o sul Tablet
PC, e portarli con se per continuare il proprio processo di apprendimento.
Considerando che le tecnologie per il m-learning esistono, rimane da
superare il problema dell’integrazione tra queste tecnologie e
un classico sistema di LMS. Quindi, l’obiettivo prioritario è quello
di poter accedere a un sistema LMS anche dalle nuove tecnologie sopra
citate, in modo da mantenere un processo formativo uniforme e continuativo.
Attualmente, la soluzione ideale da adottare, per l’apprendimento
a distanza è probabilmente quella mista, ossia l’e-learning
inteso in senso classico integrato con qualche soluzione mobile. Ecco
un esempio:
· Piattaforma LMS come fonte principale di contenuti, esercitazioni,
comunita virtuali, scambio di informazioni, supporto dei docenti. Da utilizzare
tramite una postazione fissa.
· Piattaforma di web cnference per i collegamenti audio/video/dati
in tempo reale, sempre da utilizzare tramite una postazione fissa.
· Palmare con funzionalità di rete voce/dati senza filo,
per mantenere la continuità del processo formativo anche in caso
di spostamenti. Il palmare supporterà l’integrazione con il
sistema LMS, tenendo traccia dei progressi dello studente, per poi aggiornarli
alla prima sincronizzazione con il sistema stesso. Possibilità di
chiamate audio video per connettersi a eventuali sessioni di classi virtuali,
nel momento in cui si dovesse mancare dalla propria postazione fissa.
|