L'INFRASTRUTTURA TECNOLOGICA

Una delle prime problematiche che gli organizzatori di un’attività formativa in rete devono affrontare e risolvere, è la messa a punto dell’infrastruttura tecnologica del corso; la soluzione del problema infrastrutturale incide sulla sostenibilità complessiva del corso stesso. Stabilire dei criteri di classificazione può rivelarsi molto utile nella fase di progettazione di un’attività formativa in rete: nella scelta della piattaforma da implementare bisogna tenere conto della stretta relazione esistente tra le caratteristiche degli strumenti utilizzati, delle problematiche organizzative e delle aspettative dei destinatari dell’esperienza formativa.

 

COS’E’ UNA PIATTAFORMA E-LEARNING?

Oggi parlare di piattaforma non è troppo corretto in quanto il concetto sembra dilatarsi, inglobando nuove e differenti funzionalità. Di fatti è possibile differenziare, in maniera chiara, i nuovi strumenti che vengono utilizzati in funzione della tipologia di utilizzatori.
Solitamente quando si parla di piattaforma ci si riferisce ai cosiddetti Learning Management System (LMS).
Gli LMS, come anche gli LCMS, sono delle soluzioni software che si caratterizzano per l’ampiezza delle loro funzionalità che vengono utilizzate in maniera massiccia nelle attività di formazione on-line.
Un Lms è un software applicativo, creato per sviluppare, gestire e tracciare l’interazione tra studenti e contenuti, e tra studenti e docenti. In particolare offre servizi di registrazione per gli studenti, tiene sotto controllo i progressi dei processi di apprendimento, gli esercizi svolti e i livelli di completamento dei corsi sostenuti. Infine permette ai docenti di rendersi conto del livello di apprendimento finale dei propri discendi.
Eva Kaplan Leiserson definisce un LMS: “un software che automatizza l’amministrazione di eventi formativi; una piattaforma software che permette la gestione sia in Internet che in Intranet del processo di formazione”.
Un LMS inoltre ha un elevato numero di funzioni che sono:
· erogazione dei corsi in ambiente web;
· distribuzione del materiale didattico;
· semplificazione del processo di sottoscrizione e registrazione dei discendi;
· tracciamento delle attività dei discendi;
· gestione di differenti percorsi di formazione;
· monitoraggio e valutazione dell’attività formativa;
· fornire strumenti di comunicazione sincroni e asincroni
Ma la nuova frontiera del mercato dell’e-learning è quella di sviluppare sistemi LCMS (Learning Content Management System) nati dalla fusione di LMS e CMS (Content Management System). Un CMS e un’applicazione software che gestisce i contenuti per un vasto numero di siti web per la didattica. Tali CMS forniscono servizi come la gestione degli aggiornamenti, delle versioni, il processo di creazione e la pubblicazione dei contenuti.
Un LCMS è una soluzione software, che è in grado di combinare la capacità di amministrazione degli studenti tipica dei sistemi LMS e la capacità di creazione, gestione e immagazzinamento dei contenuti di un CMS.
Lo scopo principale di un LMS è quello di gestire e amministrare gli utenti, mentre un LCMS, pur essendo focalizzato sul sistema di gestione dei contenuti, offre anche gli strumenti base per la gestione degli utenti.
Un LCMS deve gestire e offrire i contenuti che l’utente richiede, nel momento in cui richiede. Inoltre esso tiene traccia degli accessi di ogni singolo utente a ogni Learning Object, permettendo all’organizzazione di osservare come gli studenti imparano e di verificare la validità o meno di ogni singolo contenuto o strumento di apprendimento.
Tuttavia, i sistemi LMS e LCMS non si distaccano totalmente fra loro, anzi possono completarsi a vicenda. Se integrati in maniera adeguata, con la possibilità di scambiarsi informazioni sullo stesso processo formativo, i due sistemi garantiscono un’esperienza formativa completa per l’utente e costituiscono uno strumento potentissimo per gli amministratori.
Un LMS in questa prospettiva, potrà gestire la comunità degli utenti, permettere agli stessi di accedere ai vari Learning Object presenti e gestiti completamente dal LCMS. Nella fruizione dei contenuti salva i progetti individuali di ogni utente, registra i risultati degli esercizi e li passa al LMS per scopi di reportistica.
Per lavorare meglio su di un processo formativo, quindi, è chiaro che i due sistemi devono essere integrabili e interoperabili.

1. Definire standard comuni

Da sempre le industrie del settore IT hanno creato prodotti proprietari nel tentativo di indirizzare il mercato verso le proprie scelte, in modo da acquisirne la leadership. Sicuramente non è un modo di agire che va incontro alle necessità degli utenti di fatti divide i consumatori e il mercato stesso. Nel settore dell’e-learning la grande esigenza di un mercato comune ha portato alla definizione di alcuni standard. E’ un passo di notevole rilevanza in quanto la definizione di standard comuni può garantire all’utente finale la possibilità di scegliere, senza impedimenti, tra una varietà di proposte software e piattaforme, senza dover rimanere legati a scelte effettuate in partenza.
La definizione di standard comuni consente inoltre di garantire le cinque caratteristiche essenziali di un progetto di e-learning e di rendere sicuro l’investimento che qualsiasi individuo fa su questa nuova metodologia formativa:
· Interoperabilità: un sistema deve poter interagire e lavorare con un qualsiasi altro sistema presente sul mercato;
· Riuso: Ogni oggetto del sistema di e-learning deve poter essere riutilizzato in qualsiasi momento e su qualsiasi altra piattaforma compatibile con gli standard;
· Gestione: ogni sistema deve essere in grado di tenere traccia di tutte le informazioni riguardanti i discendi e il contenuto;
· Accessibilità: ogni utente deve poter aver accesso al contenuto del corso al momento desiderato e senza nessun vincolo tecnologico;
· Durata: la tecnologia deve potersi evolversi insieme agli standard, per non diventare obsoleta in tempi brevi.
Già, molto tempo, prima dell’introduzione del termine “e-learning”, nel mondo della didattica alcuni consorzi (IMS, AICC, IEEE, LRN) hanno iniziato a lavorare su delle specifiche legate alle tecnologie per l’apprendimento. Il loro lavoro si svolgeva in modo simultaneo ma non coordinato. Fu il Dipartimento della Difesa americano a prendere in mano la situazione, acquisendo il ruolo leader del progetto di stesura delle specifiche dei processi formativi legati alle tecnologie. Tutti gli sforzi fatti precedentemente furono fatti convergere in un unico organo che aveva il compito di definire un modello unico a cui venne dato il nome di SCORM (Sharable Content Object Reference Model).
Oggi SCORM è un insieme di specifiche e standard per i contenuti, le tecnologie e i servizi per l’e-learning. A tal proposito è opportuno distinguere le specifiche dagli standard.
Una specifica è una descrizione ben documentata riguardante ad esempio le caratteristiche di base che deve avere una piattaforma, le funzionalità che deve offrire, la formattazione dei contenuti e così via.
Alcune specifiche sottoposte ad un processo di accreditamento, da parte di un consorzio/comitato internazionale sono soggette a tramutarsi in standard. Questi sono distinguibili in due sottocategorie ovvero “standard de iure” e “standard de facto”. I primi sono standard fissati per legge, che hanno ottenuto una certificazione da un organo istituzionale, come IEEE o ISO, o altri comitati scientifici deputati a rilasciarla. I secondi non sono riconosciuti da un organo internazionale, ma sono comunque degli standard in quanto sono utilizzati dalla stragrande maggioranza dei produttori e degli utenti.
SCORM è quindi un progetto realizzato con il fine di permettere a più enti formativi di condividere tra loro le tecnologie didattiche, le piattaforme, e tutti gli strumenti necessari. Più precisamente SCORM è una guida di riferimento in grado di supportare chiunque volesse sviluppare modelli di e-learning. Questo documento fornisce il framework e l’implementazione dettagliata per fare in modo che i contenuti, la tecnologia ei sistemi sviluppati possano interagirecon altri secondo gli stessi standard, assicurando l’interoperabilità,il riuso e la facile gestione del processo formativo.
Lo SCORM non è uno standard de jure, ma de facto. Tutte le industrie del settore lo utilizzano come guida di riferimento come sviluppo dei propri applicativi.
SCORM permette :
· A qualsiasi LMS di utilizzare contenuti creati con strumenti sviluppati da terze parti e da differenti produttori; inoltre gli stessi contenuti devono poter essere scambiati tra un LMS ed un altro;
· A qualsiasi prodotto per LMS di eseguire gli stessi contenuti e di poter scambiare i dati durante l’esecuzione degli stessi;
· A qualsiasi ambiente LMS di accedere a un comune spazio di contenuti e utilizzarlo a proprio piacimento;
· Ai gestori di un ambiente LMS di spostare un intero corso da un LMS a un altro, senza sprecare tempo per la conversione dei formati.
Questo modo di considerare gli standard, sia da parte dei produttori che da parte degli utenti può portare alla proliferazione dei contenuti compatibili e condivisibili. Si crea cosi un’immensa rete dove il discende può muoversi in assoluta libertà, può scegliere dove, come e quando imparare, senza aver paura di sbagliare nella scelta della tecnologia.

 

GLI STRUMENTI INTERATTIVI SINCRONI E ASINCRONI NELL’E-LEARNING

Diverse sono le forme di comunicazione e interazione che possono essere attivate in un sistema di e-learning; parliamo di comunicazione differita e non, entrambe scomponibili ancora in tre tipologie: uno a uno; uno a molti; molti a uno. Nel primo Caso si parla di messaggistica personale, negli alti due di “conferencing”. A seconda del tipo di comunicazione instaurata saranno differenti i mezzi utilizzati. Innanzitutto risulta necessaria una distinzione tra strumenti d’interazione di tipo sincrono ed asincrono. I primi permettono di stabilire delle connessioni in “real time” tra tutor e discendi, consentendo loro di poter comunicare, utilizzando risorse condivise in Rete (ad esempio Chat, Videoconferenze, etc); i secondi sono strumenti che consentono di stabilire la comunicazione tra i tutor e i formandi in maniera differita nel tempo (ad esempio via forum, e-mail, ecc).

 

 
FAD/IAD Sincrona
FAD/IAD Asincrona
Contenuti
Riprese TV, lavagne informatiche
Moduli preregistrati con contenuti ad hoc
Interattività
Si ha bisogno del tutor
Contenuti interattivi
Percezione
Simile ad una lezione in presenza
Differente da una lezione in presenza
Vantaggi
Facile partecipazione
Funzione automatica

(U. Biader giugno 2004)

 

1. L’interazione Sincrona
1.1 La chat

La comunicazione sincrona è identificata nella grande maggioranza dei casi dal termine “chat”, che consiste in una comunicazione tra utenti “remoti”, o meglio non presenti fisicamente nello stesso luogo. Avviene in tempo reale ed è attuata con una modalità molto semplice, dove ciascun interlocutore ha a disposizione una finestra sul video tramite la quale può interagire con il proprio tutor e tutti gli altri partecipanti alla discussione.
Gli strumenti più comuni attraverso cui prende forma questa tipologia di interazione sono quindi le chat e le videoconferenze. A queste, più recentemente, si sta affiancando una nuova tipologia di tecnologia che consiste nel poter effettuare telefonate via Internet utilizzando una linea telefonica veloce (a banda larga). Oltre alla condivisione di uno spazio in cui inserire i propri interventi, alcuni software per il chatting prevedono l’utilizzzo di applicazioni più complesse, come nel caso di “NetMeeting” di Microsoft.
Tali programmi permettono la condivisione di una vera e propria “lavagna” sulla quale tutti i partecipanti alla chat possono inserire i loro contributi, relativamente all’argomento trattato, in tempo reale; sia che si tratta semplicemente di testo scritto che di carattere grafico. In tal modo tutti possono vedere visualizzato sul proprio schermo l’oggetto della discussione in “real time”; c’è anche, la possibilità di scambiarsi file inviando alla persona interessata un allegato che può visionare dopo pochi istanti, dalla sua postazione remota.
Questo è un modo tramite il quale tutti hanno la possibilità di sviluppare capacità relazionali e di confronto nuove rispetto ai metodi tradizionali.

1.2 La video conferenza interattiva


La videoconferenza interattiva (VI) è uno strumento che trova nei contesti formativi dell’e-learning ottime applicazioni, in quanto facilmente integrabile all’interno di un programma corsuale. Questa tecnica consente di supportare la comunicazione bidirezionale, a due vie, mediante componenti audio e video. E’possibile classificare i tipi di videoconferenza interattiva in tre gruppi di applicazioni:
· Piccole VI locali, per gruppi fino a didici unità.
· VI di classe, con utilizzo di migliore qualità video e di trasmissione.
· VI di tipo desktop, che utilizza i pc come postazioni di lavoro dei partecipanti, con costi contenuti ma bassa qualità; (anche questa è una soluzione adottabile per piccoli gruppi).
La tecnologia della videoconferenza interattiva si basa sulla trasmissione di immagini in movimento e di componenti digitali, opportunamente compressi, su reti solitamente dedicate, tipo ISDN (Integrated Services Digital Networks); la compressione operata riduce la quantità dei dati da trasmettere sulle linee, quindi ottimizza i costi di trasmissione. Il canone mensile di queste linee viene calcolato sulla distanza e non sull’uso effettivo, comportando costi piuttosto cospicui; inoltre, la spesa per l’equipaggiamento iniziale risulta molto elevata.
Si sta ancora operando, a livello commerciale, sulla definizione di standard universali per i protocolli di compressione-decompressione dei dati: finora si è giunti a trasmissioni in bassa risoluzione per la qualità delle immagini, con la presenza di “effetti neve” o “effetti fantasma” non del tutto risolta. Gli ultimi apporti tecnologici determinati dall’uso della fibra ottica migliorano sensibilmente la qualità delle trasmissioni: la banda larga attualmente è disponibile nei più importanti centri urbani, con prospettive di sviluppo notevoli per le metodologie didattiche interattive.
La videoconferenza interattiva riporta il docente nella sua posizione canonica, dietro ad una cattedra e vicino ad una lavagna (per quanto entrambe virtuali): ancor più che nella formazione in presenza, i docenti interessati alla formazione tramite VI devono eludere il rischio di passività dello studente, ponendo la propria lezione ad alti livelli di coinvolgimento, con spiegazioni e chiarimenti mai banali; mai come in questo caso si rende necessario un buon insegnante, proprio dal punto di vista tradizionale della docenza, rispetto alla capacità di coinvolgimento e di diffusione della conoscenza.
Il disegno di un sistema deve tener particolarmente conto dei bisogni d’apprendimento dello studente, inserendo le necessarie interruzioni e cambiando la modalità istruttiva ogni dieci - quindici minuti al massimo per non far scemare l’attenzione, passando dalla letture alla spiegazione, dalla discussione all’esercizio di gruppo al gioco di ruolo e così via. Un’utile opzione è l’inserimento di testimonianze esterne al gruppo di lavoro, operate mediante interviste o letture fatte dalla voce del testimone, per garantire un maggior coinvolgimento. Spesso bisogna garantire l’atteggiamento di divertimento, entertainment, piuttosto che un’impostazione educativa quando si propone l’apprendimento tramite la videoconferenza interattiva: interattività e variazione contribuiscono a ridurre le distrazioni; ciò si ottiene enfatizzando l’interazione fra i partecipanti e dichiarando in modo preciso gli obiettivi e i tempi di lavoro; il dialogo deve essere incoraggiato dal docente o dal moderatore della conferenza.

2. L’interazione asincrona

La principale caratteristica della comunicazione asincrona o differita è rappresentata dalla possibilità di abbattere le barriere spazio-temporali. Ciò significa che, oltre a consentire un rapido scambio tra interlocutori anche molto distanti tra loro essa permette di stabilire una conversazione libera da problemi relativi all’orario, cosa che invece costituisce un forte limite per la comunicazione sincrona. Ogni discende può decidere autonomamente quando studiare il materiale didattico, scegliendo il momento più adatto in modo da farlo conciliare con i propri impegni personali oprofessionali.

2.1 La mailbox.

La mailbox è un sistema di posta elettronica, utilizzato per la comunicazione tra tutor e discendi. Essa permette una comunicazione differita nel tempo e spesso viene utilizzata come sostituta del tradizionale orario di ricevimento, creando un incontro tra docente e discende via Intrenet. Ai tutor spetta l’onere di rispondere alle e-mail, che gli arrivano, assicurando inoltre un determinato tempo di risposta.
Le e-mail possono essere indirizzate contemporaneamente a più individui; tale potenzialità viene sfruttata tramite la costituzione di una “mailing-list”, che è una lista di discussione che tratta di un particolare argomento. In tal modo è possibile creare dei gruppi d’interesse in cui ogni membro partecipa alla discussione e invia e riceve da tutti i partecipanti i propri documenti.

2.2 Il forum

Ad uno scopo differente tende lo strumento del forum; esso consiste in uno spazio virtuale condiviso, in cui tutor e discenti inseriscono i loro messaggi relativamente ad una questione o ad una proposta sollevata. E’ un momento importante che sprona alla partecipazione collettiva ed all’espressione delle proprie idee. Permette l’accesso in tempi che ognuno può decidere e gestire, al contempo assicura la visibilità dei propri messaggi a tutti. Tali messaggi sono collegati tra loro, nel senso che la domanda originaria è collegata con tutte le risposte ad essa inerenti. Anche nel forum immagini digitali e documenti vari possono essere allegati ai messaggi.
Lo strumento del forum fornisce agli studenti l’opportunità di gestire una discussione per merito dell’assenza di vincoli temporali.
La fondamentale differenza tra un aula, intesa in senso classico, ed un forum risiede nel momento in cui inizia una discussione; nel classico seminario essa inizia con il professore, che ne stabilisce anche l’agenda; nel forum sono i discendi a definire l’agenda così che il professore partecipa più come interlocutore alla pari che come protagonista.
Le tipologie possibili sono molte, in relazione agli interessi del corso si possono avere forum:
· Di classe, in cui l’accesso è consentito solo ai discendi di un particolare corso;
· Di corso, nel caso in cui i percorsi proposti sono numerosi, anche qui l’accesso è limitato ai partecipanti di un certo percorso formativo;
· Pubblici, in cui l’accesso è moderato da un tutor esperto nella materia trattata o sull’oggetto della discussione.

2.3 La bacheca virtuale.

Le bacheche virtuali replicano in tutto e per tutto le funzioni di quelle reali; in esse si possono trovare: comunicazioni, di carattere più informale che non nel forum o nelle e-mail personali; annunci, inerenti o meno all’argomento del corso, che comunque tendono ad instaurare uno spirito di classe e di partecipazione.


LE PIATTAFORME INTEGRATE

Le piattaforme integrate sono dei veri e propri software, spesso appositamente progettati per offrire a chi eroga o gestisce attività di formazione in rete tutte le implementazioni tecnologiche per operare; si parla di soluzione integrata tutte le volte che i progettisti e gli organizzatori di un corso si avvalgono di queste strumentazioni per risolvere in modo integrato il problema dell’infrastruttura tecnologica che ne supporterà l’attività di e-learning.
Tipicamente, una piattaforma integrata si pone alla risoluzione di una molteplicità di esigenze:
· gestione della messaggistica;
· gestione dei dati e delle informazioni;
· erogazione dei materiali didattici;
· gestione di attività collaborative specifiche;
· attuazione di simulazioni;
· verifica dei risultati;
· gestione di statistiche sulle interazioni e monitoraggio del sistema.
A questa serie di bisogni, le piattaforme integrate cercano di dare una soluzione con un ventaglio di strumenti, distinguendo fra:
· strumenti a disposizione dei docenti e dei tutor;
· strumenti a disposizione dei corsisti;
· funzionalità specifiche di figure esterne connesse al processo didattico (validatori, osservatori esterni, responsabili amministrativi);
· strumenti utilizzabili dalla classe virtuale per le attività cooperative.
Sulla base di queste considerazioni si può affermare che di fronte a un’ipotesi di soluzione integrata la problematica maggiore risieda nella selezione e nella scelta della piattaforma; si presume che una piattaforma completa e ben strutturata integri funzionalità in grado di supportare più tipologie di interazione, varie modalità di trasmissione mediale e la possibilità di manipolare diversi media. Si individuano così alcune tipologie di strumenti software che una buona piattaforma deve presentare:
· desktop conferencing system;
· groupware per i contenuti;
· groupware per le interazioni;
· ambienti di editing e authoring dei materiali formativi;
· ambienti di erogazione.
Partendo dagli stili di insegnamento e apprendimento in rete, si può illustrare la collocazione delle diverse piattaforme integrate rispetto alle esigenze stesse che vogliono andare a soddisfare. In rete si identificano almeno quattro distinti modelli di apprendimento:
· Modello time indipendent: si presuppone una relativa libertà nei tempi e nei modi dell’apprendere, per l’uso di materiali distribuiti e per forme di interazione prevalentemente asincrone.
· Modello simultaneo: si propone il meccanismo della lezione frontale, reso più flessibile dalla possibilità dell’interazione garantita in rete (lavagne condivise), in forme prevalentemente sincrone.
· Modello di studio autonomo: si presuppone un’ampia libertà d’azione nei tempi e nei modi del corsista, che lavora da solo sui materiali didattici distribuiti in rete, integrati o a struttura modulare; indicato per corsisti consapevoli e altamente motivati, con bisogni formativi circoscritti.
· Modello di apprendimento in real-time: concerne l’interazione in tempo reale tra docente e corsista e l’uso della rete come supporto e luogo stesso dell’apprendimento.
Relazionando questi modelli di apprendimento in rete con le tipologie di piattaforme disponibili sul mercato si delinea una classificazione delle piattaforme stesse centrata in parte sulle funzionalità specifiche dell’ambiente software, e in parte sulle modalità didattiche che le stesse funzionalità suggeriscono.
Quindi si presentano quattro macro categorie di piattaforme integrate:
1. Piattaforme orientate alla gestione delle interazioni, soprattutto asincrone, all’interno di una comunità “che apprende”, e alla condivisione di informazioni, materiali e opinioni.
2. Strumenti orientati all’editing, all’erogazione e al management di materiali didattici destinati a chi vuole sviluppare percorsi di apprendimento autonomi.
3. Ambienti specializzati per il training a distanza
4. Piattaforme per la gestione di situazioni ad alto livello di interazione
La prima categoria di ambienti raggruppa tutte le piattaforme di condivisione orientate ad un approccio collaborativo, learning team centered.
Queste piattaforme, orientate alla gestione delle interazioni tra i componenti di un gruppo e alla condivisione di informazioni e risorse, comprendono, nella maggior parte dei casi, un’architettura di tipo client-server: il software che gestisce il sistema và installato e mantenuto su un server web; i vari utenti usano un apposito client, da installare localmente, quasi sempre gratuito, mentre il server può essere molto costoso e di difficile installazione.
L’accesso alle schermate e alle informazioni sulle discussioni è riservato solo ai componenti del gruppo (password e username), con l’amministrazione del gruppo, affidata a un tutor o a un moderatore, con la facoltà di aggiungere o cancellare persone, o estromettere materiale.
La seconda e la terza categoria di piattaforme individuano un approccio tipicamente instructor centered, con poco spazio per la collaborazione e una destinazione prevalentemente individuale: appaiono particolarmente indicate per la formazione professionale, al training a distanza basato sui contenuti erogati.
Tipicamente, un ambiente di erogazione e management si pone in misura relativa il problema dell’interazione fra pari e della costruzione di una comunità di collaborazione, ma punta piuttosto all’interazione verticale docente/esperto di contenuti e alla verifica degli apprendimenti. Questi sistemi integrano strumenti per la creazione automatica di indici personalizzati o per la consultazione da parte del corsista delle sue prove di valutazione e di livello raggiunto. La caratteristica di modularità di questi sistemi e la possibilità di riutilizzare i vari materiali per assemblare n corsi destinati a n studenti, ne fanno degli strumenti fortemente orientati al training aziendale: si tratta di piattaforme particolarmente costose, comprendenti dei sistemi di editing dei contenuti in rete e di tools sofisticati per la gestione dei diversi ruoli (tutor, docenti, esperti, osservatori, valutatori), ammortizzabili solo attraverso le grandi economie di scala che si riescono a realizzare, sempre che si abbia a che fare con un’utenza numerosa.
La terza categoria concerne dei gruppi di piattaforme che puntano la loro enfasi metodologica sull’interazione tra docente e studenti nella condivisione delle informazioni; si lascia quindi grande spazio alla figura del docente e alla comunicazione in forma sincrona.
Si cerca di ricreare la situazione didattica frontale di un’aula tradizionale, con l’ovvia differenza che tutti gli attori coinvolti sono distribuiti geograficamente; tra le possibilità si registrano la presenza di strumenti integrati di audio e video conferenza e la condivisione delle sessioni di lavoro, oppure sui tools per la scrittura collaborativa e per la revisione incrociata degli elaborati, puntando sempre su forme di interazione sincrone. Queste piattaforme risultano piuttosto onerose e architettate secondo la modalità client-server; le applicazioni più diffusa riguardano esempi di training aziendale per nuove procedure e abilità, o nel mondo universitario per quelle più complete.
La quarta categoria di ambienti, infine, presuppone un approccio tipicamente learner centered e può rivelarsi molto appropriata in ambito scolastico.Queste piattaforme presentano le cosiddette forme di apprendistato pilota di “lavagne condivise”: la metafora della lavagna, integrata a strumenti quali la desktop e la video conferencing in modalità sincrona, và a privilegiare l’apprendimento condiviso. Nate come sistemi per effettuare presentazioni multimediali a distanza o illustrare a interlocutori remoti grafici e immagini, le lavagne condivise superano i limiti fisici della lavagna reale, il suo spazio ridotto, l’impossibilità di offrire raffigurazioni grafiche articolate oltre un certo limite, l’assenza di memoria, la sua limitata visibilità. Il discente può trarre da questo supporto vantaggi notevoli legati all’osservazione in tempo reale cosa sta facendo il docente e all’interazione, sempre in tempo reale, con il materiale illustrato o con il docente stesso. Un gruppo di docenti inglesi ha aggiunto una nuova periferica utile per l’interazione con le lavagne condivise: le interactive whiteboard sono delle lavagne vere e proprie, tavolette grafiche su cui si può agire con una penna ottica.
Questi strumenti consentono ai corsisti l’interazione con il lavoro sulla blackboard del docente, con la possibilità di integrare documenti ipertestuali o ipermediali.
Il sistema riesce ad agire su un doppio livello: localmente si può interagire con la lavagna utilizzando la tavoletta grafica, per tracciare, per esempio, appunti memorizzabili su un diagramma a cui altro stanno lavorando; in collegamento remoto, invece, si possono condividere i contenuti di più lavagne collegate a più postazione. Questi strumenti si prestano bene per affrontare gli approcci in modalità problem solving: si pensi per esempio alla possibilità, per una scuola, università o azienda, di organizzare online una tavola rotonda a più voci con esperti o altri interlocutori, senza ricorrere necessariamente a costose e complesse attrezzature di videoconferencing, potendo contare su una documentazione digitale e integrale di quanto accaduto.
Infine, si segnalano tre possibili opzioni di linee guida per la scelta della piattaforma integrata in base all’obiettivo didattico: se l’obiettivo è prevalentemente il trasferimento di conoscenze e l’acquisizione di nozioni da parte degli studenti, le piattaforme più indicate saranno quelle orientate alla distribuzione delle informazioni, ambienti per il management e ambienti dotati di strumenti di videoconferenza o di possibilità di editing e authoriting. Se invece l’obiettivo didattico consiste nell’acquisizione di capacità progettuali, di abilità di manipolazione e di costruzione di ambienti ipermediali da parte dei discenti, le piattaforme più interessanti saranno quelle che garantiscono un alto livello di interazione tra docente e discente, come lavagne condivise o i tools orientati alla costruzione cooperativa di oggetti e informazioni.
Infine, se l’obiettivo didattico perseguito insiste nella creazione di modelli mentali cooperativi, allora la piattaforme più indicate saranno quelle che integrano più strumenti per cooperare, ovvero conferencing system in senso lato ed ambienti di condivisione.

 

L’USABILITA’

1. La progettazione centrata sull'utente.

In generale, in qualunque contesto, i cambiamenti apportati dall'introduzione di metodi e processi innovativi possono dare luogo a due tipi di reazioni: un'accoglienza positiva, che consiste nell'accettare la novità come stimolo e sfida, o una reazione negativa, che si manifesta col rifiuto del cambiamento, vissuto come fonte di stress.
Quest'ultimo caso si verifica quando la persona si considera incapace di affrontare con successo la nuova situazione: la paura porta ad evitare il più possibile il contatto con l'innovazione e a fornire collaborazioni scadenti quando l'interazione appare inevitabile. Questa considerazione acquista un rilievo particolare alla luce del cambiamento che in questi anni sta interessando il panorama dei metodi e degli strumenti didattici rivolti sia all'utenza privata, sia a quella aziendale.
Le agenzie formative e le aziende che hanno deciso di puntare sull'e-learning non possono trascurare il rischio di “rigetto” a cui vanno incontro le loro iniziative. Nel determinare il favore o lo scetticismo degli allievi (in particolare dei più tradizionalisti e recalcitranti all'uso delle nuove tecnologie), un elemento critico è sicuramente l'interfaccia utente degli strumenti proposti. Una progettazione attenta e rispettosa delle specifiche esigenze ed attitudini dell'utente può rendere meno traumatico il primo approccio e facilitare il successivo rapporto tra l'allievo e il nuovo ambiente didattico. In mancanza di questo presupposto, l'intero sforzo per la riuscita del cambiamento potrebbe essere vanificato.
La progettazione centrata sull'utente, più che una rigorosa metodologia è una filosofia che, mettendo al centro il destinatario del prodotto e le sue esigenze, considera il processo progettuale come un percorso finalizzato alla realizzazione di un prodotto usabile.
Secondo questo approccio, è necessario partire da un'analisi di tre elementi: l'utente in se stesso; il lavoro che deve svolgere (il carico mentale), e l'ambiente che lo circonda (l’interfaccia).
Le informazioni raccolte su questi tre aspetti, che costituiscono il contesto del software, permettono di stabilire quali requisiti dovrà possedere il programma per essere considerato soddisfacente sotto il profilo dell'usabilità.
Una volta definiti gli obiettivi da raggiungere, un team di progettazione può avanzare delle ipotesi e prendere in considerazione diverse alternative per soddisfare le esigenze individuate. La scelta delle soluzioni più efficaci viene condotta con la collaborazione degli utenti finali, ai quali viene chiesto di testare e giudicare diversi prototipi. Le informazioni emerse da queste prove sono delle risorse preziose per modificare il progetto in corso. L'adozione della prassi appena descritta presenta notevoli vantaggi sia dal punto di vista economico, sia da quello sociale. Infatti, i prodotti così sviluppati:
· riducono i costi della formazione, poiché si comprendono e si usano con maggiore facilità;
· accrescono la soddisfazione dell'utente, riducendo il disagio e lo stress durante il lavoro;
· aumentano la produttività e l'efficienza all'interno delle aziende che li adottano;
· attraggono i clienti grazie alla loro migliore qualità, dunque possono fornire un vantaggio competitivo all'impresa che li realizza.
L'usabilità di un sistema, ovvero la sua facilità d'uso, è stata definita dall'International Standard Organization come: "l'efficacia, l'efficienza e la soddisfazione con cui determinati utenti eseguono determinati compiti in particolari ambienti".
Dunque, un software usabile ha tre requisiti fondamentali. Innanzitutto consente l'esecuzione di tutti i compiti per i quali è stato progettato (efficacia); in secondo luogo, a fronte delle prestazioni fornite, richiede l'investimento di risorse limitate in termini di tempo necessario al raggiungimento dell'obiettivo e di denaro speso (efficienza); infine, presenta delle modalità di funzionamento accettabili per l'operatore, ovvero non procura stress e frustrazione (soddisfazione).
Nella progettazione di qualsiasi software bisogna sempre rapportare le scelte ipotizzate al compito, all'utente e all'ambiente, che costituiscono il particolare contesto di utilizzo del sistema. In effetti, la progettazione centrata sull'utente si può considerare un approccio, per così dire, "orientato al processo", in quanto descrive una serie di tappe da percorrere per raggiungere il risultato atteso, ma non da alcuna indicazione assoluta sulle caratteristiche da ricercare.

2. L'interfaccia utente

Nel software di ultima generazione circa la metà delle risorse impiegate durante lo sviluppo sono destinate alla cura dell'interfaccia utente.
Nel contesto dell'elettronica con l'espressione interfaccia si denotano i dispositivi che fisicamente consentono il transito di informazioni tra due sistemi tecnici. Monitor, modem, stampanti, ecc. riescono a scambiarsi dati grazie ai cavi e agli altri connettori che li uniscono. Tali dispositivi di collegamento costituiscono quindi la loro interfaccia.
Negli anni sessanta, si è esteso il significato del termine interfaccia all'interazione fisica tra l'uomo e la macchina. Sono quindi passati sotto il nome di interfaccia anche quei componenti degli strumenti tecnici che gettano un ponte verso l'utente, per consentire il passaggio di informazione nei due sensi. Successivamente il concetto di interfaccia si è ulteriormente arricchito e specificato ed è stato variamente interpretato a seconda delle priorità e delle aree di interesse degli autori che si sono confrontati su questo tema.
Si può rintracciare un comune denominatore che caratterizza le interpretazioni più recenti: la novità rispetto al passato sta sostanzialmente nella considerazione della dimensione cognitiva dell'interazione uomo-macchina.

3. Tre paradigmi per spiegare l’interfaccia

In generale si possono individuare tre approcci principali al concetto di interfaccia conosciuti come paradigma comunicativo, paradigma strumentale e paradigma della costruzione di modelli.
L'interpretazione più condivisa del concetto di interfaccia è quella relativa al paradigma comunicativo: l'interazione tra l'uomo e la macchina consiste in un rapporto di comunicazione, in una sorta di dialogo, per cui l'interfaccia è ciò che media tale relazione, da un lato presentando l'informazione all'utente, dall'altro ricevendola dallo stesso. In questo paradigma si pone un'analogia tra i due protagonisti dell'interazione: ad entrambi, infatti, viene riconosciuta la capacità di elaborare informazioni in entrata (input) per fornire informazioni in uscita (output).
Tuttavia la somiglianza tra l'utente e la macchina è oggetto di diverse interpretazioni che spostano l'accento ora sulle peculiarità dell'essere umano, ora su quelle del sistema. Secondo alcuni autori aderenti alle recenti tendenze della psicologia cognitiva, tale analogia sussiste in quanto è l'uomo ad assomigliare alla macchina: infatti come un computer, acquisisce informazioni dall'ambiente esterno, le immagazzina, le recupera quando sono applicabili ai compiti correnti, le trasforma per produrre nuove informazioni e infine restituisce il prodotto della sua elaborazione all'ambiente. I sostenitori di questo approccio ritengono pertanto che sia possibile studiare l'architettura e i meccanismi della mente umana sulla base di modelli fortemente ispirati alla scienza dei calcolatori.
Una seconda prospettiva va sotto il nome di paradigma strumentale: il computer può essere considerato come uno strumento, o più precisamente come un "meta-strumento", poiché la sua versatilità permette l'emulazione di una molteplicità di mezzi diversi. L'interfaccia deve essere progettata come una protesi efficace, in modo da consentire all'utente di "impugnare" il programma per raggiungere il suo scopo.
Portando all'estremo questa interpretazione si può arrivare a dire che la migliore interfaccia è quella che scompare, ovvero quella che consente all'utente di concentrare la sua attenzione solo sul compito che vuole eseguire. Azione è dunque la parola-chiave per questo stile interattivo che supera l'idea di immissione di comandi testuali e punta a quella che si definisce manipolabilità diretta del sistema.
Questa proprietà consiste nella possibilità per l'utente di intervenire direttamente su rappresentazioni grafiche visibili degli oggetti che in un certo momento sono pertinenti all'esecuzione del suo compito; inoltre, le azioni sono reversibili e vengono seguite da una rapida risposta. Gli elementi grafici che caratterizzano questo tipo di interfaccia sono solitamente considerati un espediente per semplificare il rapporto con la macchina tramite richiami metaforici ad una realtà familiare all'utente (schedario, blocco per appunti, cestino dei rifiuti...). In effetti questo utilizzo è facilmente riscontrabile nella maggior parte dei sistemi attualmente in uso; essi di fatto costituiscono una realtà poiché creano quello spazio d'azione in cui l'utente si muove per raggiungere i suoi obiettivi.
Esiste un terzo approccio, il cosiddetto paradigma della costruzione di modelli, in base al quale lo scopo della progettazione dell'interfaccia consiste nell'aiutare l'utente a costruirsi un modello mentale (una rappresentazione cognitiva del sistema che ne spieghi il funzionamento), del sistema che rispecchi quello del designer.
L'utente costruisce tale modello basandosi unicamente sull'immagine che il sistema dà di sé, osservando i dispositivi di cui è composto, la forma dei vari elementi e gli effetti prodotti dalle sue azioni.
Se l'interfaccia è progettata adeguatamente, ovvero se l'immagine che il sistema dà di sé corrisponde al modello progettuale, allora l'utente, durante la normale interazione, riesce a costruirsi un buon modello concettuale del sistema e impara a prevedere correttamente le conseguenze delle sue azioni.
L'utente viene guidato nella costruzione del suo modello mentale da due tipi di elementi che caratterizzano il dispositivo con cui interagisce: gli inviti e i vincoli.
I primi consistono nelle possibilità di utilizzo suggerite dall'aspetto dell'oggetto stesso (es. un pulsante invita a premere, una leva a tirare, una manopola a girare, etc.); al contrario, i secondi scoraggiano l'utente dal compiere azioni errate con un certo strumento. Una distribuzione strategica di inviti e vincoli guida l'utente al corretto utilizzo di uno strumento, anche in una situazione nuova.
Nell'interazione con artefatti meccanici la costruzione di modelli mentali corretti è favorita dall'esperienza quotidiana delle leggi della fisica: la visibilità dei componenti, il funzionamento analogico e il feedback naturale fornito dal movimento delle parti aiutano l'utente a capire le regole che governano il meccanismo dello strumento. Nei sistemi computerizzati, invece, quasi tutte le costrizioni tecniche dell'interfaccia scompaiono: la struttura fisica dell'oggetto non comunica più nulla circa il suo funzionamento e la sua analisi anatomica perde di ogni valore.
Per interagire con questi sistemi, definibili "bui", si rende necessaria una mediazione creata ad arte dal designer: è lui che getta un ponte tra l'utente e la macchina e conferisce ad essa un comportamento che è frutto di precise decisioni progettuali.

 

4. La coerenza dell'interfaccia utente (principio della coerenza).

Probabilmente la coerenza è il principio più citato nella letteratura sulla progettazione d’interfaccia Un sistema coerente si comporta in modo simile in situazioni simili. Se l’interfaccia possiede questa caratteristica, l’utente è incoraggiato ad attuare strategie di apprendimento esplorative, in quanto può basarsi sulle conoscenze che già possiede per ipotizzare le modalità di funzionamento del sistema anche in ambiti diversi da quelli già sperimentati. La coerenza sollecita e favorisce l’uso di ragionamenti basati sull’analogia (J. Nielsen, 2000).
In un'interfaccia che rispetti questo principio, le informazioni di uno stesso tipo dovrebbero comparire sempre nello stesso modo, cioè collocate nella stessa posizione rispetto agli altri elementi e con costanti qualità grafiche e linguistiche.
La coerenza può essere ulteriormente specificata per mezzo di altre proprietà più particolari, ovvero:
· prevedibilità;
· familiarità;
· generalizzabilità;
· mapping naturale.
La prevedibilità di un sistema è la caratteristica per cui l’utente ritiene di poter prevedere l’effetto delle sue azioni future basandosi sull’esperienza maturata durante le interazioni passate. Si tratta di un concetto centrato sull'utente, ovvero sulla sua soggettiva percezione delle caratteristiche del software. Per esempio, se l'utente esegue l'azione A e il sistema risponde producendo l'effetto B, allora l'utente può ragionevolmente supporre che anche in futuro per ottenere B gli basterà ripetere l'azione A. Se, in un successivo riscontro, questa ipotesi risulta vera, allora il sistema è percepito come uno strumento prevedibile, altrimenti no.
La familiarità di un sistema si valuta osservando la prima impressione che esso fa al suo utilizzatore. Più precisamente, questa proprietà misura la correlazione tra la conoscenza già posseduta dall’utente e quella necessaria per procedere ad un’effettiva interazione.
Per accrescere la familiarità di un ambiente interattivo, il progettista può servirsi di richiami metaforici a realtà ben conosciute dall'utente; cassette delle lettere, cestini dei rifiuti, evidenziatori e lenti d'ingrandimento sono solo alcuni dei numerosi elementi che, in virtù del loro rapporto di somiglianza e contiguità con oggetti di uso comune, vengono usati per semplificare il primo incontro tra l'uomo e la macchina.
La generalizzabilità è la proprietà del sistema per cui l’utente può estendere la conoscenza maturata in una specifica interazione ad altre situazioni simili; la trasposizione può avvenire all’interno della medesima applicazione oppure tra applicazioni diverse. Per il primo caso si ipotizza, per esempio, che l'utente si trovi davanti ad un programma di elaborazione grafica: se un cerchio viene concepito come una particolare ellisse, allora l'utente potrà ipotizzare che un quadrato sia concepito come un particolare rettangolo. Per il secondo caso, invece, si pensi che l'utente abbia imparato, in un programma di elaborazione di testo, che deve prima selezionare un paragrafo per poterne modificare le caratteristiche di formattazione.
Sulla base di questa esperienza, lo stesso utente, davanti ad un programma di elaborazione grafica, potrà ipotizzare di dover prima selezionare una figura per poterne cambiare il colore o l'inclinazione.
In un sistema coerente il funzionamento dei comandi deve essere caratterizzato il più possibile dalla compatibilità di risposta, anche conosciuta come mapping naturale. Questo significa che le modalità di azionamento dei comandi devono essere progettate in analogia al tipo di risultati che questi producono, così da ridurre al minimo lo sforzo interpretativo dell’operatore. Per esempio, il gesto di innalzare un cursore genera la naturale aspettativa di incrementare la quantità di un qualcosa.
Un concetto collegato a quello di mapping naturale è quello di stereotipo: si tratta di una corrispondenza tra azionamento di un comando ed effetto prodotto che, all’interno di una popolazione data, viene percepita come naturale dalla stragrande maggioranza dei soggetti. Per esempio, dovendo scegliere in quale senso ruotare una manopola per spostare un indice da sinistra a destra secondo un percorso lineare, la maggior parte delle persone ruota il comando in senso orario.
L’origine degli stereotipi è ancora controversa: non esistono prove certe che stabiliscano se questi condizionamenti siano dovuti a cause culturali o neurofisiologiche. Il progettista, per poter definire adeguatamente le modalità di funzionamento dei comandi, deve conoscere le aspettative dell'utente circa le compatibilità di risposta (J. Nielsen, 2000). I comandi progettati senza tenere conto di questa esigenza mandano l’utente incontro ad una serie di sistematiche frustrazioni, poiché ogni volta che lo sventurato si accinge ad utilizzarli si accorge di essersi sbagliato e di doversi correggere.
La progettazione basata sul mapping naturale rivela tutta la sua efficacia nelle situazioni in cui l'utente è costretto ad operare sotto pressione: in condizioni di particolare stress, infatti, è fondamentale muoversi con rapidità e sicurezza, facendo affidamento sull'esperienza e sull'intuito che guidano i comportamenti automatici.

4. Il linguaggio dell'interfaccia utente

In una prospettiva centrata sull'utente, il linguaggio di un'interfaccia deve essere progettato in modo da adeguarsi alle caratteristiche dell'operatore: la terminologia, gli elementi iconici e quelli grafici devono tenere conto delle sue esigenze sia fisiche, sia psicologiche e devono ispirarsi alle convenzioni dell'ambiente culturale cui egli fa riferimento.
Per quanto riguarda la terminologia, i dialoghi devono utilizzare la lingua madre dell'utente ed esprimersi descrivendo i vari eventi che si verificano dal suo punto di vista. La ricerca della massima chiarezza espositiva non deve indurre all'uso di un vocabolario piatto e limitato. Anche per questo aspetto bisogna considerare il tipo di utente per cui si progetta l'interfaccia: se si tratta di una persona esperta di un particolare dominio si possono, anzi si devono, usare i termini specialistici di quel settore; al contrario, se si tratta di una persona con difficoltà espressive è bene tenere conto di questi limiti, evitando vocaboli al di fuori della sua portata. Anche la compatibilità tra il formato delle informazioni in entrata e quello delle informazioni in uscita fa parte delle questioni relative alla comprensibilità del linguaggio del sistema. I dati devono essere espressi in modo tale che l'utente possa interpretarli facilmente, senza ricorrere a traduzioni di scala o di formato.
L'interfaccia di un programma deve essere progettata in modo che l'operatore abbia il pieno controllo della situazione e possa decidere se lasciare l'iniziativa del dialogo al sistema o se trasferirla su di sé.
Nel primo caso, l'interazione può avvenire per mezzo di semplici domande a cui l'utente debba rispondere, preferibilmente scegliendo tra una serie di possibilità predefinite; generalmente, si ritiene che questa soluzione sia adatta soprattutto ad utenti inesperti e che l'altra, invece, sia più efficace quando il sistema viene maneggiato da una persona già piuttosto abile. Quest'ultima infatti, conoscendo approfonditamente le regole che governano un certo ambiente software, di solito preferisce guidare l'interazione secondo i suoi gusti e i suoi ritmi, piegando al massimo lo strumento alle sue necessità.
Con l'espressione linguaggio del sistema si fa riferimento non solo alle modalità espressive che si basano sull'uso delle parole, ma anche a quelle che utilizzano elementi non verbali: le scelte grafiche condizionano pesantemente l'usabilità di un'interfaccia.
Indipendentemente dal fatto che si opti per una rappresentazione tridimensionale o bidimensionale dell'ambiente interattivo, bisogna ricordare che le soluzioni adottate non devono essere fini a se stesse, ma subordinate al perseguimento di obiettivi funzionali. Sono da evitare, dunque, gli "effetti speciali" pensati per produrre impressioni suggestive, a meno che non servano anche a veicolare delle informazioni utili alla riuscita dell'interazione.
Durante la progettazione grafica dell'interfaccia, un metodo efficace per guidare l'utente ad una migliore comprensione delle relazioni tra gli elementi consiste nel basarsi sui principi derivanti dalla teoria della Gestalt. Secondo i suoi sostenitori, il tutto è diverso dalla semplice somma delle parti che lo compongono, proprio in virtù della sua struttura d'ordine, che conferisce ai singoli elementi una funzione supplementare rispetto a quella che essi avrebbero se fossero considerati singolarmente. Secondo la psicologia gestaltica, alcune tendenze organizzative innate, chiamate principi di raggruppamento, predispongono naturalmente l'uomo a considerare elementi di uno stesso gruppo quegli stimoli che presentano tra loro un rapporto di vicinanza, somiglianza, chiusura, continuità o comunanza. Un altro principio interpretativo riguarda il rapporto tra la figura e lo sfondo: la superficie più piccola e nitida viene generalmente interpretata come figura, mentre quella più grande e sfuocata come sfondo.
Sulla base di queste osservazioni è possibile disporre i vari elementi che compongono l'interfaccia in modo da enfatizzare sia le somiglianze che le differenze concettuali, così da guidare l'utente alla giusta interpretazione del tutto (S. Rossano, in Internetime 2002).
Il designer, servendosi di questi principi di progettazione grafica, può aiutare l'utente a focalizzare la sua attenzione sugli elementi realmente prioritari in un determinato momento, trascurando quelli secondari. Ai primi, infatti, si possono attribuire degli effetti per contrapporli agli altri e metterli in risalto: lampeggiamento, ingrandimento, movimento, contrasto cromatico sono solo alcune delle soluzioni attuabili per questo scopo.
L'efficacia di questi metodi è fuori di dubbio, tuttavia vanno usati con cautela: infatti, una delle difficoltà maggiori nella progettazione dell'interfaccia sta proprio nel riuscire a contenere il ricorso alle tecniche di accentuazione appena illustrate, applicandole solo a quei casi in cui realmente servono. Il motivo è facilmente intuibile: un'accozzaglia di oggetti lampeggianti su diversi sfondi multicolore ottiene esattamente il risultato opposto a quello sperato. L'utente, confuso, non riesce a stabilire alcuna gerarchia logica tra le parti, proprio come se tutto fosse ugualmente piatto e omogeneo.
Un discorso analogo vale anche a proposito dell'uso del colore: a questo riguardo, il primo consiglio per la progettazione di un'interfaccia ergonomica è di non esagerare: è meglio limitarsi a pochi colori applicati in modo intuitivo; inoltre, è bene verificare che l'interfaccia sia comprensibile anche in monocromia: infatti, circa l'8% degli uomini e l'1% delle donne soffre di daltonismo e quindi incontra delle difficoltà, più o meno gravi, nella distinzione delle varie tonalità.
Per questo conviene usare le differenze cromatiche solo per rafforzare delle informazioni già trasmesse per mezzo di altre codifiche. Un altro aspetto da considerare è che, per la particolare conformazione dell'occhio umano, l'acutezza visiva nella percezione del blu è inferiore rispetto a quella del rosso e del verde: di conseguenza, è meglio non affidare a richiami di questo colore la trasmissione di informazioni importanti come, per esempio, i messaggi di errore. Infine, bisogna adeguare la scelta dei colori alle comuni convenzioni e alle aspettative dell'utente, in modo da assecondare le associazioni già radicate nei destinatari del sistema.
Il colore è quindi un elemento metacomunicativo: costruisce un elemento di demarcazione e contestualizzazione della stessa, ne definisce un ambito semantico, incentra l'attenzione sui suoi punti fondamentali (menu, titoli di articoli).
Ogni colore ha un suo "peso" neurofisiologico e, di conseguenza emozionale: nel visual design, i tratti grafici costituiscono la grammatica e i colori la sua sintassi; per violare una di tali norme implicite serve un motivo valido: l'infrazione è ammessa, ma solo se è funzionale al perseguimento di obiettivi di ordine superiore.

5. Il feedback per l'utente

Il feedback è un requisito fondamentale per tutti i dispositivi interattivi poiché regola il rapporto comunicativo tra l’utente e la macchina. Infatti è proprio grazie all’informazione di ritorno che l’operatore può sapere se e come il suo comando è stato recepito e quindi può stabilire il successivo passo da compiere (S. Rossano, in Internetime, 2002). Un sistema progettato con cura deve informare costantemente l’utente circa l’attività in corso, non solo quando si presentano degli errori, ma anche durante la regolare interazione. Esistono vari tipi di feedback che richiedono diversi livelli di persistenza temporale nell’interfaccia.
Alcuni, che potremmo definire volatili, servono solo per pochi secondi poiché segnalano la sussistenza di una circostanza transitoria e quindi possono scomparire non appena la situazione torna alla normalità. Un esempio di questo tipo di feedback sono gli avvisi che informano l’utente del fatto che nella stampante selezionata manca la carta.
Altri feedback, che potremmo chiamare persistenti, devono rimanere a disposizione dell’utente fino a quando non vengano esplicitamente congedati dallo stesso, poiché è importante che siano recepiti prima di procedere a qualunque altra interazione. Un esempio di questo tipo di comunicazioni sono le richieste di conferma che compaiono quando si impartisce il comando per l’eliminazione di un file. Infine altri feedback ancora, che potremmo definire permanenti, sono così importanti da dover restare nell’interfaccia in modo stabile. Per esempio, l’informazione sullo spazio libero disponibile in memoria.
L’informazione di risposta diventa particolarmente importante quando il sistema impiega molto tempo per portare a compimento l’esecuzione di un comando. In questi casi, infatti, l’utente deve sapere che il sistema non ha ignorato la sua istruzione, ma sta lavorando per eseguirla. Un buon metodo per trasmettere questa informazione consiste in un feedback continuo, se possibile nella forma di un indicatore che mostri la percentuale del lavoro già svolto. In questo modo l’utente riesce a immaginare quanto tempo manca al termine dell’operazione e può decidere se aspettare, se interrompere il processo o se lasciarlo continuare dedicandosi ad altro durante l’attesa.
Strettamente collegata all’idea di feedback, si trova il concetto di sintetizzabilità (synthesizability), ovvero la proprietà per cui l’utente, se vuole, può riconoscere nello stato attuale del sistema gli effetti delle operazioni passate; ad ogni trasformazione dello stato interno del software deve corrispondere un cambiamento nello stato esterno visibile all’utente, ovvero nell’interfaccia.
La sintetizzabilità non impone che il mutamento di stato del sistema sia sempre immediatamente visibile all’utente, ma significa solo che quest’ultimo, se lo desidera, può trovarne una conferma.
La proprietà per cui un’interfaccia mostra automaticamente un sintomo dell’avvenuto cambiamento è l’onestà. Nei casi di onestà massima la conferma della modifica si propone da sé, senza bisogno che l’utente proceda con ulteriori interazioni; nei casi peggiori invece, l’utente deve attivarsi per andare a verificare se il cambiamento è avvenuto. Per esempio, quando un programma che gestisce la posta elettronica è aperto, l’arrivo di un nuovo messaggio può essere segnalato immediatamente da un suono e da un’icona che compare sul desktop. In questo caso l’onestà dell’interfaccia è massima. Invece, nell’esempio del documento salvato nella cartella è decisamente più bassa.
Il feedback è fondamentale quando si verificano degli errori nel sistema: infatti, mai come in questi casi, l’utente ha bisogno di sapere cosa è successo, perché il programma non si comporta come dovrebbe.
Si deve descrivere il problema con un linguaggio chiaro, semplice e devono evitare oscuri codici numerici, privi di qualsiasi valore informativo per l’utente.
In secondo luogo, le frasi devono indicare con precisione perché il sistema non può eseguire una certa richiesta, suggerendo possibilmente una soluzione attuabile dall’utente per superare la situazione critica.
Infine, è bene che i messaggi di errore evitino toni accusatori: non bisogna dare all’utente la sensazione che sia colpa sua se il sistema non funziona correttamente.

 

LA SCELTA DEI MEDIA PER LA FORMAZIONE IN RETE

I media sono visti come degli strumenti a disposizione di chi elabora un progetto didattico per allestire un ambiente capace di stimolare e di facilitare il più possibile il processo di apprendiemnto; in quest’ottica multiprospettica, non vi è motivo per privilegiare un mezzo migliore, in quanto l’ipotesi di lavoro esclude la presenza di un medium univocamente preferibili di fronte alla pluralità dei bisogni formativi presenti sul mercato della richiesta d’apprendimento (D. Persico, 2000).
Esistono situazioni in cui il ricorso a uno o più media di supporto si rivela necessario ed efficace ai fini formativi; la tecnologia facilita e semplifica il lavoro didattico, può ridurre lo sforzo di chi apprende (non perché fatica meno, ma perché permette l’analisi di una problematica da più prospettive, anche da quella più adeguata al su ostile di apprendimento), o creare degli ambienti di apprendimento altrimenti non realizzabili, per distanza geografica o per mancanza di sincronia temporale.
Calvani ha provato a fornire una definizione di medium per la formazione in rete:“un medium è un dispositivo specializzato per la gestione (elaborazione o trasmissione) di informazioni, con un’interfaccia preposta a trattare il flusso comunicazionale tra due mondi” (Calvani A, Rotta M., 2000). Con questa definizione si vogliono raggruppare tutti quegli strumenti preposti a svolgere il ruolo di mediatori tra i partecipanti ad un processo di apprendimento, in presenza o a distanza, indipendentemente dall’esistenza o meno di una direzione privilegiata del flusso comunicativo. In questa sede non si vuole rientrare nel merito delle variabili da tenere in considerazione alla luce della realizzazione di un progetto didattico a distanza, bensì solo illustrate le peculiarità dei diversi media a disposizione e scoprire, in base alle caratteristiche degli stessi, i loro usi e i bisogni formativi che soddisfano.
Research illustra il tasso di memorizzazione delle informazioni veicolate attraverso i diversi codici di trasmissione mediale (F. Research, in G. Trentin, 2001):

 
 

Il grafico mostra come la lettura sia l’attività che meno favorisce la memorizzazione delle informazioni via rete; è interessante notare come il livello di memorizzazione aumenti spostandosi verso le attività che coinvolgono l’utilizzo di altri canali mediali.
Non è il canale in sé ad aumentare la qualità e l’efficacia del materiale didattico, quanto piuttosto il suo uso proprio, in cui si tengano conto delle peculiarità del canale, dei vantaggi ma anche delle problematiche che può implicare: si considera, in altre parole, la sua non neutralità nella comunicazione con il fruitore.
Le principali categorie tra le quali bisogna effettuare la scelta del media sono tre: il testo, l’audio e il video.

1. Il testo.
Quando ci si riferisce al canale testuale si indica il linguaggio scritto o stampato su qualche supporto fisico (un libro, una trasparenza, una lavagna); il testo è frequentemente corredato da immagini (disegni, schemi o grafici, fotografie) che, pur utilizzando un codice comunicativo vario, costituiscono un tutt’uno con la componente testuale del singolo mezzo fisico. Questo tipo di comunicazione, ad esclusione del linguaggio parlato, è senza dubbio la più antica, economica e diffusa; il testo si rivela abbastanza flessibile nel suo utilizzo, può essere letto tutto o in parte, non solo in modo sequenziale, anche se questa ne è la modalità principale. L’utente possiede con il testo una risorsa non volatile e sempre consultabile. E’ lo strumento più adeguato per la trattazione di argomenti complessi e per la spiegazione di concetti astratti, che richiedono tempo, concentrazione e interiorizzazione per essere appresi.
Dal punto di vista del fruitore risulta semplice nel consumo, in quanto è trasportabile facilmente (è leggero), e nell’uso, poiché è vincolato solo alla capacità di lettura.Il testo veicolato dal libro, richiede solo la capacità di lettura (alfabetizzazione) e una discreta motivazione alla comprensione e allo studio.

2. L’audio.
Il suono ne è il principale oggetto di studio; attraverso questo codice è possibile una comunicazione informale, coinvolgente e motivante; viene principalmente utilizzato per comunicare idee e sentimenti, prestandosi meglio del testo a conseguire gli obiettivi nell’ambito del dominio affettivo (D. Persico, 2000). Il messaggio veicolato dal codice audio però, per quanto registrabile e riudibile, risulta più volatile del canale testuale, poco adatta a trattazioni complesse e intricate, lasciando un margine di interpretazione piuttosto elevato.
L’audio ben si presta a vivacizzare una presentazione e a render più immediato e vario il processo comunicativo; il presentare il punto di vista di un esperto attraverso la voce dell’esponente conferisce autorevolezza alla comunicazione e veicola anche l’aspetto emotivo del messaggio.L’audio è molto facile da fruirsi, non impone vincoli di scolarità e i suoi sistemi di riproduzione sono diffusissimi ed economici, raggiungendo una popolazione potenzialmente molto vasta.

3. Il video.
L’uso di questo codice difficilmente avviene da solo, in genere risulta associato al codice audio; quando si parla di media per la didattica ci si riferisce tendenzialmente alla fruizione degli audiovisivi. Questi strumenti risultano indicati per le presentazioni introduttive, di sintesi e di approfondimento.
La natura dinamica del video lo rende particolarmente adatto alla descrizione di processi che si evolvono nel tempo; si ricrea uno spaccato di vita reale, si illustrano fenomeni e meccanismi dinamici, si possono rappresentare delle simulazioni emotivamente complesse e infine si possono ricostruire quei modelli difficilmente visibili dal vero. L’ampiezza dei sensi coinvolti rende questo duplice canale il più coinvolgente fra quelli finora citati, rendendolo adeguato a soddisfare sia obiettivi di tipo cognitivo, sia di tipo affettivo. Il video risulta ancor più facile da fruire, non si richiedono particolare sforzi di concentrazione e anzi, risulta altamente coinvolgente e motivante; può raggiungere una popolazione numerosa, senza il limite della condivisione linguistica, essendo lo strumento per la diffusione di massa per eccellenza; il limite della fruizione collettiva risiede nella disponibilità di aule attrezzate, con schermo e impianto audio adeguati.

4. Il computer
E’ uno strumento multimediale, che riunisce nella sua espressività i tre codici, visivo, audio e testo; il suo utilizzo è determinato dalle sue componenti software. Nella didattica il suo utilizzo supera quello di strumento per il supporto della lezione frontale, andando a sfruttare le sue due caratteristiche peculiari (interattività e connettività) per realizzare apprendimenti strutturati e personalizzati.
Per interattività si intende la capacità di stabilire un processo comunicativo bidirezionale con l’utente, acquisendo il suo input e reagendo ad esso, determinando il proprio comportamento sulla base di quello espresso dall’utente. L’interattività implica la capacità di questo strumento di indurre un ruolo attivo da parte dello studente, realizzando processi di apprendimento cognitivi. Il computer si presta dunque alla definizione di mediatore didattico: in quest’ottica il ruolo dell’insegnante muta notevolmente, passando da dispensatore di conoscenze a facilitatore del processo formativo.
Naturalmente, dopo aver ponderato quale sia il codice comunicativo più adeguato alla propria metodologia didattica, è ulteriormente necessario utilizzarlo in maniera ottimale: l’uso del computer come libro elettronico (ovvero come trasposizione in formato pdf dei contenuti cartacei) risulterebbe quanto mai costoso e ingombrante, e poco interattivo. Invece, il computer si caratterizza nell’essere uno strumento comunicazionale ad ampio spettro di banda, che coinvolge cioè il numero di senso più elevato rispetto agli altri supporti considerati: la scelta del suo impiego deve essere valutata in base alla messa in atto di strategie didattiche di tipo collaborativo e costruttivo.

 


COMPRARE O PRODURRE UN LMS?

Realizzare in proprio una soluzione LMS, invece che acquistarlo da fornitori esterni, è un’alternativa di scelta che può riguardare soltanto imprese, società o istituzioni di grandi dimensioni. Le imprese di piccole o medie dimensioni non hanno alternativa: a livello di costi, la soluzione di produrre in proprio un LMS di qualità non è sostenibile, quindi sono costrette a comprare o affittare una piattaforma.
La realizzazione di un software “proprietario” può essere realizzata utilizzando competenze di programmazione software presenti nel team di progetti di e-learning. Tale attività ha l’obiettivo base di rendere l’insegnamento più efficace e personalizzato rispetto ad un LMS acquistato da fornitori esterni; potendolo realizzare in maniera tale da dover soddisfare a pieno gli obiettivi prefissati di un certo corso on-line.
La scelta di produrre internamente un LMS si presenta però di forte complessità e richiede tempo e risorse, tecniche ed economiche, solitamente fuori dalla portata dei soggetti privati. Inoltre l’evoluzione tecnologica, nel settore dei LMS, sta provocando una notevole riduzione dei prezzi degli strumenti software presenti sul mercato; tale da convincere gli operatori del settore dell’e-leraning a far ricorso all’utilizzo di piattaforme non proprietarie. Di fatti oggi sono presenti sul mercato piattaforme commerciali (a pagamento) e, addirittura, piattaforme open-source (totalmente gratuite).

1. Alcuni esempi di piattaforme
Nel mondo si sta assistendo ad una proliferazione di soggetti che si propongono come fornitori di strumenti per l’e-learning, offrendo formule commerciali e soluzioni tecnologiche e contenutistiche piuttosto variegate. A tal proposito si rende necessario descrivere alcune, tra le tante, piattaforme presenti oggi su Internet.
Docent
Docent (www.docent.com) è una delle piattaforme, commerciali, più evolute presenti sul mercato, indicata per grandi aziende e organizzazioni. Questa è nata come strumento di formazione aziendale, in special modo per quelle imprese che mirano a far evolvere il proprio processo formativo. Docent permette ai formatori di inserire gli utenti in diversi processi formativi organizzati per obiettivi: una formazione tipicamente aziendale e non scolastica.
Claroline
Accanto alle piattaforme commerciali esistono anche piattaforme open source molto ben realizzate.Claroline (www.claroline.net), sviluppata all’interno di un’università francese, è una vera piattaforma di e-learning asincrona che include la maggior parte degli strumenti offerti dalle piattaforme commerciali. Di fatti essa fornisce servizi di amministrazione degli utenti, statistiche del corso, forum, chat, video, audio, servizi di agenda, annunci, etc.
SpaghettiLearning
Anche tra le piattaforme asincrone è apparso un prodotto completamente italiano e oltretutto open-source. Spaghetti Learning (www.spaghettilearning.com), è una piattaforma totalmente gratuita, anche se è di livello inferiore rispetto ad altre piattaforme, tuttavia si trova ancora alle prime versioni.

PROSPETTIVE TECNOLOGICHE: IL MOBILE LEARNING

Il futuro della didattica e dell’informatica stessa è sempre più orientato verso il “mobile”, ossia verso la possibilità di portarsi ovunque il proprio dispositivo di accesso alle informazioni, sempre connesso a Internet e di dimensioni tascabili.
E’ questa la vera sfida. Il tutto è orientato verso un’unica soluzione: quella del “mobile learning”, o m-leraning. Si tratta di una tipologia di e-learning che sfrutta dispositivi mobile di ultima generazione, come palmari, telefonini con funzionalità audio/video e tablet PC. Solitamente questi dispositivi vengono chiamati Informetion Appliances e hanno la capacità di potersi connettere alla Rete tramite tecnologie senza fili, in modo da poter essere utilizzati in qualsiasi posto ci si trovi.
La visione del mobile computing si basa interamente sulla sua portabilità: grandi possibilità di interazione, connettività totale e altissimo rapporto tra potenza di calcolo e dimensioni. E’ chiaro che stiamo parlando di una visione futura e quindi le Information Appliances stanno cominciando a diventare di uso comune, e la loro qualità e capacità sta migliorando giorno dopo giorno e costi continuano a scendere vorticosamente.
Anche se esistono tuttora delle limitazioni piuttosto sostanziose, è facile constatare come la maggior parte del materiale classico utilizzato all’interno delle piattaforme LMS possa essere gestito con questi nuovi dispositivi. Per esempio un palmare, può gestire testi, immagini e animazioni senza nessun problema; dispositivi ancora più innovativi riescono a gestire anche audio e video. Tramite tali dispositivi l’utente può salvare i materiali dal proprio corso sul palmare o sul Tablet PC, e portarli con se per continuare il proprio processo di apprendimento.
Considerando che le tecnologie per il m-learning esistono, rimane da superare il problema dell’integrazione tra queste tecnologie e un classico sistema di LMS. Quindi, l’obiettivo prioritario è quello di poter accedere a un sistema LMS anche dalle nuove tecnologie sopra citate, in modo da mantenere un processo formativo uniforme e continuativo. Attualmente, la soluzione ideale da adottare, per l’apprendimento a distanza è probabilmente quella mista, ossia l’e-learning inteso in senso classico integrato con qualche soluzione mobile. Ecco un esempio:
· Piattaforma LMS come fonte principale di contenuti, esercitazioni, comunita virtuali, scambio di informazioni, supporto dei docenti. Da utilizzare tramite una postazione fissa.
· Piattaforma di web cnference per i collegamenti audio/video/dati in tempo reale, sempre da utilizzare tramite una postazione fissa.
· Palmare con funzionalità di rete voce/dati senza filo, per mantenere la continuità del processo formativo anche in caso di spostamenti. Il palmare supporterà l’integrazione con il sistema LMS, tenendo traccia dei progressi dello studente, per poi aggiornarli alla prima sincronizzazione con il sistema stesso. Possibilità di chiamate audio video per connettersi a eventuali sessioni di classi virtuali, nel momento in cui si dovesse mancare dalla propria postazione fissa.