Archive for the ‘Informatica’ Category

Chi valuta i valutatori?

martedì, gennaio 7th, 2014

La valutazione della ricerca delle università attinge alla banca dati del ministero, nella quale tutti i docenti e ricercatori sono tenuti a inserire i dati bibliografici relativi alle proprie pubblicazioni.
Tra i campi da compilare per ogni nuova opera inserita c’è, obbligatorio, l’anno di pubblicazione.
Il programma, però, non concepisce che un autore indichi una data futura: se hai pubblicato quest’anno o nel passato, tutto bene; se già sai che una tua pubblicazione uscirà l’anno prossimo (non è un caso così raro: a me è successo per il 2014, 2013, 2012, 2010, 2009, …), allora no, non lo puoi scrivere (è previsto un campo testo), devi mettere il segno di spunta sulla casella “in press” (in inglese) e poi l’anno prossimo tornerai a ricompilare, sostituendo l’in press con l’anno giusto (si sa mai che l’editore cambi idea).

Schermata dal sito del MIUR per la gestione delle bibliografie dei docenti e ricercatori

Tutto questo per dire che siamo nel 2014 e dunque aspetto che da un momento all’altro arrivino dalla McGraw-Hill le copie della seconda edizione di Informatica umanistica! Per ingannare l’attesa sono andato a togliere il segno di spunta dal sito del ministero.

Copertina della seconda edizione di Informatica umanistica, di Marco Lazzari, edito da McGraw-Hill nel 2014

Senza Fine, con il Nokia

martedì, dicembre 31st, 2013

…e non è solo l’interfaccia del Kindle a crearmi problemi: la procedura guidata per connettere un cellulare Nokia al PC dice di fare clic su Avanti, ma non c’è alcun pulsante con l’etichetta Avanti, si deve supporre che l’icona con la freccia verso destra svolga la stesa funzione.

Schermata della procedura di connessione di cellulari Nokia a PC, con freccia al posto del pulsante Avanti

E alla fine, scegliere Fine. Però Fine non c’è, si deve usare l’icona con il segno di spunta.

Schermata della procedura di connessione di cellulari Nokia al PC, con segno di spunta al posto del pulsante Fine

Se non vuoi annullare, annulla

lunedì, dicembre 30th, 2013

Che cosa fa l’Utente Medio se si trova di fronte alla scelta tra due pulsanti con etichetta Annulla e Prosegui? Probabilmente sceglierà Prosegui per continuare con l’azione che aveva selezionato, Annulla per interromperla.

Pulsanti Annulla e Prosegui

Ma se l’azione che aveva intrapreso è definita “annullare”, che cosa dovrà pigiare?

Interattore per il cambio di registrazione del Kindle di Amazon, con pulsanti Annulla e Prosegui

L’esperienza dell’Utente Medio gli dirà che per continuare in quel che stava facendo dovrà schiacciare a destra e per smettere a sinistra; ma, soprattutto se avrà avuto un ripensamento (ossia se non vorrà più “annullare”), gli tremerà la mano prima di pigiare Annulla per non annullare.

L’operazione di annullamento della registrazione del Kindle in italiano prevede proprio che, se si vuole annullare la propria registrazione (per farne un’altra con altro nome), di debba pigiare Prosegui se si vuole annullare, Annulla se si cambia idea e non si vuole annullare più.

Quindi:

Vuoi annullare la registrazione? Prosegui – significa: annulla, annulla.

Vuoi annullare la registrazione? Annulla – significa: nooo, non annullare.

In inglese non si pone il problema, per “annullare” usano “deregister” e per “Annulla” “Cancel”.

Di come la miniaturizzazione possa giovare all’insegnamento musicale nei casi di disturbi specifici di apprendimento

venerdì, settembre 6th, 2013

Mi è stato chiesto di scrivere la prefazione a un libro tratto dalla tesi di master di un mio tesista (bravo) che l’anno scorso ha seguito il master in “Didattica e psicopedagogia per i Disturbi Specifici di Apprendimento” (dell’Università di Bergamo). L’editore Artestampa, che ringrazio, mi ha lasciato il diritto di pubblicare online lo scritto, che riproduco qui sotto.

La scheda editoriale del libro è disponibile all’indirizzo: http://www.artestampaweb.it/scheda&id=297

Il riferimento bibliografico alla prefazione è:

Marco Lazzari (2013), Di come la miniaturizzazione possa giovare all’insegnamento musicale nei casi di disturbi specifici di apprendimento. In: Carmelo Farinella, Musica a scuola – Disturbi specifici dell’apprendimento (DSA), Modena: Edizioni Artestampa (pp. 9-16) ISBN: 9788864622019

Il testo è anche scaricabile in formato PDF.

Di come la miniaturizzazione possa giovare all’insegnamento musicale nei casi di disturbi specifici di apprendimento

Quando ero giovane, ero solito addormentarmi piuttosto tardi. Ciò nonostante, nelle ore d’insonnia esercitavo poca fantasia e capacità d’immaginare il futuro.

Così, nei giorni in cui, negli ultimi mesi degli anni Settanta, cominciavo a programmare calcolatori usando una perforatrice di schede, mai sarei riuscito neppure a immaginare quali rivoluzioni sarebbero avvenute di lì a poco nel mondo degli elaboratori, sia riguardo alla struttura, sia al tipo di applicazioni delle macchine.

Il primo calcolatore (così si diceva) che mi capitò di programmare era grande come una casa. Peraltro, lo dico senza averlo mai visto: l’interfacciamento (per usare un termine che lo Zingarelli attesta in uso nella lingua scritta dal 1982) tra il computer e i suoi utenti avveniva inserendo in un cassettino il pacco di schede (input) e andando più tardi (ore o giorni) a ritirare da uno scaffale il listato e i risultati stampati su modulo cartaceo continuo (output). Più che di una interfaccia uomo–macchina[1], si trattava di un’interfaccia uomo–uomo–macchina, dato che il pacco di schede era preso in consegna da un operatore che lo caricava nel lettore di schede e che poi recuperava la stampe per distribuirle sugli scaffali, a disposizione degli utenti. Dunque, di tutto l’insieme di apparecchiature hardware gli utenti vedevano soltanto la perforatrice di schede; non v’è tuttavia motivo di non credere che il calcolatore fosse grande come una casa.

Era pensabile all’epoca che gli studenti delle nostre scuole potessero avere ciascuno tra le mani un computer non più grande di uno scartafaccio? Forse neppure Seymour Papert, in quei frangenti alle prese con la stesura di Mindstorms (1980), avrebbe osato tanto.

Ma proprio tra il finire degli anni Settanta e l’inizio degli anni Ottanta si giungeva a uno snodo cruciale della storia dei sistemi informatici: il processo di miniaturizzazione, da sempre attivo rispetto alle dimensioni dei sistemi di elaborazione e ai loro costi, era giunto a un punto tale per cui l’industria informatica era ormai in grado di produrre apparecchiature le cui dimensioni permettevano loro di essere poste su una scrivania senza pregiudizio della sua stabilità e di essere acquistate da un ufficio o da un diligente padre di famiglia senza pregiudizio del bilancio societario o familiare. Era nato il personal computer.

I calcolatori grandi come case dei primi decenni della storia del mondo digitale cominciavano a cedere il passo a macchine più piccole, ma altrettanto performanti.

Il computer, da quei primi decenni ai giorni nostri, passa per una lenta mutazione che nell’immaginario collettivo lo trasforma da sistema di calcolo con dispositivi di comunicazione da e verso l’esterno (per l’input e l’output dei dati), a sistema di comunicazione con incorporati dispositivi di calcolo per l’eventuale elaborazione dei flussi informativi (Lazzari, 2006).

Con il computer, cambia anche il suo Utente Medio: mentre nei primi decenni della storia dell’informatica l’utenza dei calcolatori elettronici è costituita da specialisti informatici o del campo applicativo[2], ora l’utente medio è l’uomo della strada[3]. Di conseguenza, cambiano anche le applicazioni: con il personal computer nascono i programmi per la produttività individuale[4], con il progredire delle prestazioni delle linee di connessione si diffondono i servizi di condivisione di materiali multimediali, con la diffusione dei dispositivi di connettività nomadica e l’affermarsi della telefonia intelligente e dei tablet si impone la nuova tipologia operativa delle App.

Tutto ciò in virtù di due proprietà chiave dei moderni sistemi di elaborazione delle informazioni, rese possibili dalla miniaturizzazione della componentistica: la portabilità e la trasparenza. Con portabilità indirizziamo due aspetti: la disponibilità dei medesimi programmi software in diversi ambienti operativi (per esempio, su desktop con sistema operativo Windows, MacOs e Linux e su tablet in ambiente iOS e Android) e la possibilità conseguente di usare i programmi in mobilità. Con trasparenza pensiamo alla possibilità dei dispositivi informatici di scomparire immersi all’interno di sistemi più complessi[5] o di proporsi con implementazioni spazialmente discrete, non ingombranti né invasive.

Entrambe le proprietà hanno un grande impatto sugli usi che l’utente comune può fare degli elaboratori. La portabilità permette l’uso in mobilità, in qualunque luogo e in ogni momento, cosicché lo stesso dispositivo può essere sfruttato, per dirla alla Bronfenbrenner (1979), in diversi microsistemi ecologici (per esempio, in ufficio, a scuola, a casa) e anche per stimolare interazioni mesosistemiche (per esempio, tra famiglia e scuola) – impensabile ai tempi della programmazione con schede. La trasparenza consente l’introduzione dei dispositivi di elaborazione negli ambienti d’uso in maniera estremamente discreta.

Ciò ha indubbie valenze positive nel caso di nostro interesse: nel momento in cui i dispositivi informatici si propongono come presidii assistivi per il sostegno alle persone con disturbi specifici dell’apprendimento, la disponibilità di hardware di dimensioni ridotte e mascherabili rende possibile scendere sotto la soglia dell’accettabilità psicologica degli strumenti da parte degli utenti. Basta una minima frequentazione delle nostre scuole per scoprire che il bambino dislessico spesso patisce come stigma la presenza di un ingombrante personal computer sul banco, laddove il più discreto tablet lo fa sentire a suo agio e addirittura à la page.

Non solo: se certo l’informatica rende disponibili strumentazioni e programmi atti a compensare il disturbo (Stella e Grandi, 2011), l’offerta di sistemi a basso prezzo può consentire di spostare la didattica verso procedure operative diverse da quelle tradizionali, che coinvolgano l’intera classe e che non evidenzino il disturbo, in un’ottica coerente con i principi della Progettazione Universale, che la stessa Convenzione ONU sui diritti delle persone con disabilità invita ad adottare nel progetto di ambienti, prodotti, programmi e servizi (CUD, 1997; ONU, 2007). In questo senso si può superare la logica delle tecnologie assistive e delle soluzioni dedicate, progettando percorsi formativi ispirati allo Universal Design for Learning (Rose e Meyer, 2002) flessibili ed equi nelle possibilità di accesso ai processi di apprendimento; dove l’equità si misura in proporzione all’abbattimento delle barriere in partenza e al grado di partecipazione ai contesti educativi, senza adattamenti a posteriori o alternative che escludano (Baroni e Lazzari, 2013; CAST, 2011), fatte salve le opportunità legate alla personalizzazione degli apprendimenti. Le evidenze della letteratura scientifica dicono che è possibile individuare metodologie d’insegnamento rivolte a tutta la classe che funzionano bene con tutti gli alunni e, nel contempo, forniscono un alto valore aggiunto per soggetti di più basso rendimento (Calvani, 2012).

Così l’informatica si ritrova a essere alleata di quanti si sforzano di proporre una didattica adeguata a sfidare i disturbi specifici dell’apprendimento. Feconda alleanza, ma alleanza e non, come molti genitori e insegnanti incautamente spesso si attendono, bacchetta magica. Non c’è soluzione pronta, non c’è ricetta valida per tutti. Come al solito, la tecnologia può aiutare la didattica, ma non senza metodologia, come ricorda un gustoso filmato reperibile su YouTube (http://www.youtube.com/watch?v=IJY-NIhdw_4)[6]. E come ci ricorda, soprattutto, molta letteratura scientifica misconosciuta, la cui voce è sovrastata dal clamore mediatico con il quale le tecnologie informatiche sono proposte come il toccasana per l’insegnamento e l’apprendimento. Nella realtà del mondo della ricerca, numerose pubblicazioni concordano nell’indicare che i media di per sé hanno modesto impatto nei processi di apprendimento (si vedano fra gli altri Bernard et al., 2004; Fabos e Young, 1999; Russell, 2001); che per esempio la multimedialità può addirittura essere dannosa nel momento in cui induce un sovraccarico cognitivo (Mayer, 2005; Clark e Lyons, 2010; Clark, Nguyen e Sweller, 2006); che l’ipertestualità può avere effetti di disorientamento percettivo e cognitivo e che offre benefici limitati in campo educativo (Dillon e Gabbard, 1998); che nonostante gli sforzi di molti docenti, il podcasting stenta ad affermarsi in quanto tale poiché gli studenti non sono inclini ad adattarsi all’uso dei feed RSS (Lee, Miller e Newnham, 2009).

Da tempo, invece, dovremmo sapere che la qualità dell’insegnante è la principale variabile che influenza i risultati degli studenti (OECD, 2005), che l’impatto più significativo sull’apprendimento è generato dalle metodologie e principalmente dal clima e dalla qualità delle interazioni che inducono (Hattie, 2009) e che le variabili ambientali più significative rispetto alla soddisfazione e al successo apprenditivo degli studenti sono la qualità delle interazioni tra pari e quella delle interazioni con i docenti (Astin, 1993).

Dunque, il solo inserimento delle tecnologie nelle scuole non ha di per sé evidenti effetti migliorativi significativi e rischia anzi di aumentare il digital divide preesistente tra alunni che hanno accesso alle tecnologie e competenze d’uso e alunni che non ne dispongono. Si tratta però di una conclusione in termini generali e ciò non toglie che per problemi specifici e per casi particolari e ben congegnati possa andar bene. Ma ciò che conta è l’organizzazione della didattica e l’integrazione delle tecnologie in un progetto educativo contestualizzato e orientato all’obiettivo, che tenga conto dei problemi e che poggi sulle competenze metodologiche e tecnologiche dei docenti. Conta che gli insegnanti da un lato si approprino delle competenze informatiche necessarie per sfruttare al meglio gli strumenti a loro disposizione, dall’altro che esplorino attentamente i bisogni reali degli utenti per progettare ambienti di apprendimento adeguati, dove la complessità dei compiti sia tarata in funzione delle competenze degli allievi e dove sia possibile una transizione progressiva dalle dimostrazioni alla pratica attiva (Calvani, 2012). E che l’uso delle tecnologie venga inserito in un progetto didattico solido e implementato con cura.

Il testo di Carmelo Farinella si muove entro questo orizzonte: a partire da salde competenze musicali e dall’approfondito esame di alcuni programmi informatici disponibili sul mercato, avendo presente la gamma di problemi che studenti dislessici possono incontrare nell’educazione musicale, propone vie che paiono percorribili per far fronte al disturbo, se vogliamo metterci in un’ottica compensativa, o per raggiungere obiettivi di apprendimento per tutti, se preferiamo un approccio orientato ai dettami della Progettazione Universale e dello Universal Design for Learning.

La sua lettura non sarà risolutiva e non offrirà quella bacchetta magica della quale prima si diceva, ma è un’acuta e originale introduzione, buon viatico per chi voglia affrontare il problema dell’educazione musicale con soggetti affetti da disturbi dell’apprendimento e che non scordi la necessità – e anche l’obbligo morale – di vestire prima di tutto i panni del buon maestro per riuscire ad affrontare il compito che l’attende.

Bibliografia

Astin, A.W. (1997), What matters in college? Four critical years revisited, Jossey-Bass, San Francisco, CA, USA.

Baroni, F., Lazzari, M. (2013), Quale libro di testo digitale? Una ricerca sul campo tra User Centered Design e Progettazione Universale, Didamatica 2013, Pisa, 7-9 maggio 2013.

Bernard, R.M., Abrami, P.C., Lou, Y., Borokhovski, E., Wade, A., Wozney, L., Wallet, P.A., Fiset, M., Huang, B. (2004), How does distance education compare to classroom instruction? A meta-analysis of the empirical literature, Review of educational research, 74, 3, pp. 379-439.

Bronfenbrenner, U. (1979), The ecology of human development. Harvard University Press, Cambridge, MA, USA.

Calvani, A. (2012), Per un’istruzione evidence based, Erickson, Trento.

CAST (Center for Applied Special Technology) (2011), Universal Design for Learning Guidelines version 2.0, CAST, Wakefield, MA, USA.

Clark, R.C., Lyons, C. (2010), Graphics for learning, 2a ed., John Wiley & Sons, Hoboken, NJ, USA.

Clark, R.C, Nguyen, F., Sweller, J. (2006), Efficiency in learning, John Wiley & Sons, Hoboken, NJ, USA.

CUD (Center for Universal Design) (1997), The principles of Universal Design, http://www.ncsu.edu/www/ncsu/design/sod5/cud/about_ud/udprinciplestext.htm.

Dillon, A., Gabbard, R. (1998), Hypermedia as an educational technology: a review of the quantitative research literature on learner comprehension, control, and style, Review of educational research, 68, 3, pp. 322-349.

Fabos, B., Young, M.D. (1999), Telecommunications in the classroom: rhetoric versus reality, Review of educational research, 69, 3, pp. 217-259.

Hattie, J. (2009), Visible learning: a synthesis of over 800 meta-analyses relating to achievement, Routledge, London.

Lazzari, M. (2006), Le frecce di Basilea e le faretre degli informatici, in G. Bertagna (a cura di), Scienze della persona: perché?, Rubbettino, Soveria Mannelli.

Lee, M.J.W., Miller, C., Newnham, L. (2009), Podcasting syndication services and university students: Why don’t they subscribe?, Internet and higher education, 12, 1, pp. 53-59.

Mayer, R.E. (2005), The Cambridge handbook of multimedia learning, Cambridge University Press, Cambridge, UK.

OECD (2005), Teachers matter: attracting, developing, and retaining effective teachers, OECD Publishing, Paris, Francia.

ONU (2007), Convenzione delle Nazioni Unite sui diritti delle persone con disabilità, ONU, New York, NY, USA.

Papert, S. (1980), Mindstorms: Children, Computers, and Powerful Ideas. Basic Books, New York, NY, USA.

Rose D., Meyer A. (2002), Teaching every student in the digital age: Universal Design for Learning, ASCD, Alexandria, VA, 2002.

Russell, T.L. (2001), The no significant difference phenomenon, 5a ed., IDECC, Chicago, IL, USA.

Stella, G., Grandi, L. (2011), Come leggere la dislessia e i DSA, Giunti Scuola, Milano.


[1] All’epoca non aveva ancora preso piede la sostituzione politicamente corretta di man-machine interface con human–machine interaction.

[2] Le applicazioni essendo limitate al calcolo tecnico / scientifico / finanziario.

[3] Ormai letteralmente, con lo sviluppo dell’informatica mobile, della telefonia intelligente e della connettività ubiqua.

[4] Per programmi di produttività individuale si intendono gli applicativi come quelli raccolti nelle suite Office o OpenOffice (dunque programmi come Word, Excel, Power Point, Writer, Calc, …) destinati ad aiutare l’utente comune in compiti quali la videoscrittura, il calcolo, la gestione di presentazioni multimediali eccetera.

[5] Per esempio l’informatica embedded che monitora le prestazioni di un’autoveicolo o sceglie autonomamente in una lavatrice il tipo di lavaggio più adatto per un certo bucato.

[6] Il filmato ha l’audio in portoghese e i sottotitoli in spagnolo: proiettarlo in corsi di aggiornamento per insegnanti è sempre una buona mossa, perché i corsisti ne ricevono una duplice positiva sferzata: per il fatto di sentirsi più importanti delle tecnologie e perché riescono a capire facilmente una lingua sconosciuta (ai più).

Parole chiave: DSA, disturbi specifici dell’apprendimento, dislessia, pedagogia speciale, didattica, musica, educazione musicale, dislessia, disgrafia, miniaturizzazione, portabilità, trasparenza, ubiquità.

© Marco Lazzari, 2013

Don’t be too sensitive

venerdì, luglio 12th, 2013

Twittrags – Tragicommedie in 140 caratteri

Non riesco a connettermi alla rete dell’hotel.

Ha scritto la password in minuscolo?

Ma Lei me l’ha data in maiuscolo.

Così si legge meglio.

Scambiare righe e colonne in Excel

venerdì, agosto 3rd, 2012





A gentile richiesta: come faccio a trasformare una colonna di Excel in una riga?

Ovvero: come facci a trasporre dati originariamente incolonnati in Excel, in modo che invece stiano in riga?

O anche: ho un elenco scritto in Word e voglio lavorarci in Excel; però se lo incollo ottengo dati in colonna, invece io per fatti miei li vorrei in riga.

E, ampliando l’orizzonte: ho una tabella di dati in Excel, come faccio a scambiare righe e colonne?

A domande del genere a volte, in mancanza di tempo, rispondo di cercare nell’help in linea (pigi F1 e fai la tua domanda).

Stavolta, preso da scrupoli, ho notato che la spiegazione dell’help di Excel 2010 non mi pare corrisponda a quanto uno poi si ritrova nel foglio di lavoro e allora mi metto di’impegno per scrivere qualcosa di sensato.

Immaginiamo di aver scritto l’elenco “Gino Nino Pino Vino” nelle celle A2:A5 di un foglio di lavoro (ossia in colonna).

Vogliamo peròaverlo in riga, diciamo nelle celle B2:E2 (come nella figura sottostante, dove mostro sia la situazione di partenza, sia quella di arrivo).

Foglio di lavoro con colonna e sua trasposta

Per prima cosa seleziono i dati originari e li copio.

Poi mi metto nella casella B2, menù Home, gruppo Appunti, opzione Incolla, abbasso la tendina e clicco su Incolla speciale; nel finestrino di interazione che mi appare seleziono l’opzione Trasponi e pigio OK.

Fatto!

Come dicevo, il procedimento può essere applicato a una intera tabella, come nell’esempio mostrato nella figura qui sotto, dove la tabella dei voti degli studenti Gino Nino Pino e Vino negli esami di Fondamenti Metodi e Sistemi è proposta inizialmente con i voti di ciascuno studente incolonnati (celle A1:E4) e poi trasposta con i voti in riga (celle A6:D10).

Matrice e sua trasposta

Matrice di voti e sua trasposta

Una volta selezionata la tabella iniziale e fatta la copia, mi posiziono in A6 e poi il procedimento è lo stesso di prima (Incolla, Incolla speciale, Trasponi).

 

Fiducia e tecnologia

giovedì, luglio 19th, 2012

Ho scoperto per caso che una cosetta, che avevo scritto quasi un anno fa sulla fiducia nella tecnologia (o sulla sfiducia, volendo), è poi stata pubblicata dalla rivista che me l’aveva chiesta; e pubblicata già l’anno scorso!..

Siccome sono autorizzato a ri-pubblicare, purché citi la fonte, lo faccio qui, così provo a vedere come funziona il copia e incolla da Word di una cosa di quelle dimensioni e che effetto fa in Rete.

[in effetti al primo incolla mi ero illuso che le note funzionassero…]

Cito la fonte (venisse mai in mente a qualcuno di citarmi, quella è) – il titolo è redazionale:

Marco Lazzari, “Fiducia e tecnologia”, L’incontro, 159, 2011, pp. 38-40 [ISSN: 2240-2985]

Affrontare l’argomento della (s)fiducia a proposito dell’informatica e della telematica mi fa venire in mente una vecchia storia indiana sull’uso delle tecnologie che si sente spesso raccontare in maniere diverse; la voglio ricordare brevemente: dice di un giovane indiano benestante che nel Punjab della fine dell’Ottocento, durante la dominazione britannica, era noto per il suo entusiasmo per i progressi tecnologici dell’Occidente e un giorno si comprò un fucile Winchester a leva; con quello si avventurò a caccia di tigri, fiducioso nella potenza e precisione della nuova arma; finì che una tigre lo sbranò: non sapeva sparare.

La storia viene raccontata in maniere diverse per adattarla a interpretazioni varie, sui temi della diversità culturale, della tecnologia, della saggezza, e via di questo passo; e presumibilmente è inventata di sana pianta. Comunque sia, nisi verum, bene inventum: il giovane indiano, che si affida al suo fucile senza avere la necessaria competenza, rassomiglia a tanti utenti dei sistemi informatici e telematici, che si sorprendono perché riescono a trarre da questi strumenti soltanto moderati benefici, non avendo competenze o limitandosi a qualche modesta abilità d’uso; o, peggio ancora, neppure si sorprendono e si limitano a fare sempre e solo quelle poche operazioni ben note, ignorando le potenzialità della tecnologia a loro disposizione.

A oltre sessant’anni dalla costruzione del primo elaboratore elettronico, a oltre quaranta dalla nascita di Internet, nel nostro Paese, nonostante una ormai discreta diffusione degli strumenti telematici, le competenze medie degli utenti sono sconfortanti e rappresentano un ostacolo alla crescita pari, se non superiore alla ancora insufficiente diffusione della banda larga di connessione alla Rete. In effetti, è ormai opinione piuttosto diffusa nella comunità scientifica che il cosiddetto digital divide non sia più o non tanto fra coloro i quali hanno o non hanno accesso alle tecnologie telematiche, ma fra quanti sanno o non sanno farne un uso proprio.[1] In questo senso gli aneddoti sulle ingenuità espresse dagli utenti nelle loro richieste agli informatici si sprecano e non c’è proprio bisogno di inventarne.

Così succede che per l’utente medio l’interazione con i sistemi telematici è un processo fluido soltanto finché non occorre una condizione di errore: gli errori comunicati dal computer precipitano l’utente in una situazione nella quale egli non si trova più a usare un sistema di comunicazione trasparente, così come gli era parso fino al momento dell’errore, ma piuttosto si trova di fronte il computer in tutta la sua complessa macchinosità. Nella preistoria della elaborazione elettronica dei dati, quando gli utenti degli elaboratori erano solo gli informatici, tutti avevano le competenze adeguate alla risoluzione del problema; nella contemporaneità dominata dalla Rete l’utente qualunque non è capace di ridurre la macchinosità alla trasparenza.[2]

Af-fidarsi quindi alla tecnologia con-fidando soltanto nei suoi mezzi è illusoria speranza di adoperare una bacchetta magica buona per tutte le occasioni; laddove invece l’utente desideroso di sfruttare al meglio i sistemi di elaborazione e comunicazione digitali e di esserne padrone e non succube dovrebbe fare proprio l’impegno di acquisire consapevolezza delle tecnologie che usa. Su scala più ampia, un progetto educativo che miri soltanto a promuovere abilità d’uso e non competenze, come si vede spesso nel panorama formativo odierno, è destinato a fornire solo una parte limitata e limitante degli strumenti necessari per lo sviluppo di un’utenza in grado di operare efficacemente.

Da un recente studio dell’Università di Trento[3] ci viene un’esemplificazione di quanto appena espresso: in un esperimento svolto su un campione di utenti della Rete ai quali sono stati proposti alcuni compiti di ricerca di informazioni, si è capito che gran parte degli utenti non svolgeva efficacemente i compiti assegnati o li portava a termine con scarsa efficienza a causa della mancata conoscenza di elementi basilari della sintassi dei motori di ricerca, della loro organizzazione delle informazioni e delle modalità con le quali queste informazioni vengono mostrate all’utente. Questa stessa ricerca richiama l’idea del breakdown heideggeriano al quale implicitamente si faceva cenno prima a proposito dell’emergere della macchinosità del computer: di fronte a un funzionamento imprevisto del motore si abbandona la ricerca e si cercano strade alternative probabilmente meno efficienti. I ricercatori hanno inoltre osservato che, se la ricerca di informazioni non va a buon fine, il navigatore perde fiducia in se stesso e prova un senso di frustrazione.

All’opposto, l’utente poco scaltro spesso cade nella trappola dell’eccessiva fiducia: per esempio, molti non sanno che alcuni collegamenti proposti dai motori di ricerca sono sponsorizzati, ossia qualcuno paga perché in corrispondenza di certe ricerche il link a un certo sito compaia in bella evidenza; oppure non vanno oltre i primissimi link suggeriti dal motore di ricerca, come se questo per definizione dovesse portare al risultato soddisfacente.

Quel che è peggio, il navigatore medio tende a non curarsi della fonte delle informazioni reperite sul Web, come se il fatto stesso di essere pubblicate su un mezzo così moderno desse loro automagicamente una patina di verità. In realtà dovrebbe essere ben chiaro che l’attendibilità delle informazioni è legata a chi le diffonde e se ne fa garante e non al mezzo usato per propagarle. Ciò vale anche nel caso di siti istituzionali. Avviene invece che spesso le informazioni proposte da siti di istituzioni, editori e giornali siano percepite come più affidabili di quelle pubblicate da singoli o gruppi di discussione (in senso lato) non istituzionali. Ciò può essere sensato, anche se siti del genere non sono immuni da errori e omissioni;[4] si può dire che fidarsi acriticamente di essi ripropone il vecchio modo di fare di chi credeva alle notizie perché “l’ha detto il Telegiornale“. D’altro canto è altrettanto vero che sovente l’aspetto dei siti fa aggio sul contenuto e un sito con un’apparenza “professionale” ottiene più credito di uno più sciatto, indipendentemente dalla qualità dei rispettivi contenuti (e non a caso i consulenti Web generalmente predicano di curare l’aspetto, la gradevolezza e l’immagine coordinata del sito).[5]

Come fare, dunque, per assicurarsi della qualità delle informazioni reperite in Rete?

Da una parte i criteri sono gli stessi ai quali ci affideremmo per giudicare l’attendibilità delle informazioni a stampa: conoscenza diretta della fonte, fidati giudizi indiretti, senso critico. Aggiungeremo anche un particolare spesso negletto: la verifica dell’aggiornamento delle informazioni; in Internet, infatti, c’è sovente l’abitudine di inserire senza poi modificare o cancellare e capita frequentemente che ciò che si legge non abbia più il valore che aveva al momento originario del ciclo di vita dell’informazione.

Dall’altra parte, è lo stesso mondo della Rete a metterci a disposizioni nuovi strumenti e a moltiplicare per noi le fonti indirette sulle quali basare i giudizi.

In un recente spot televisivo un noto attore italiano veste i panni di Cristoforo Colombo e, imbracciando un moderno computer portatile con chiavetta per la connessione Internet, con uno sgangherato accento genovese dichiara di essere alla ricerca di una sistemazione per la notte e di avere “trovato un resort niente male”, per il quale “tutti i commenti son positivi”. La frase allude ai siti di prenotazione online, che per ogni albergo proposto mostrano i giudizi scritti dai precedenti ospiti che si sono avvalsi di quel sistema di prenotazione. Si tratta di sistemi sempre più usati sia per prenotare alberghi, ristoranti, voli e viaggi, sia semplicemente per acquisire informazioni sulle destinazioni. Rispetto a questo tipo di informazioni si tende a parlare di intelligenza collettiva o intelligenza della folla: se una destinazione ha un gran numero di giudizi positivi, l’utente può confidare nel fatto che davvero meriti.

L’esercizio del senso critico e della cautela è tuttavia sempre necessario: per esempio, nel servizio che istituzionalmente si affida alla saggezza della folla, Wikipedia, a torto o a ragione considerato dai nostri studenti come la fonte d’elezione alla quale attingere per ricerche e tesine (e ahinoi anche per le tesi), se per un verso si trovano voci anche superiori per qualità a quelle delle migliori enciclopedie tradizionali, non è raro scoprire svarioni che, proprio per la reputazione della quale gode Wikipedia e per la spesso acritica accettazione delle sue verità, si propagano nella Rete. Un caso per tutti: nella voce Nonluogo della edizione italiana di Wikipedia si è potuto leggere per anni l’inciso “così scriveva già nel 1946 il novelliere e saggista Stefan Zweig“; nella pagina di discussione relativa alla voce stessa si leggeva peraltro il commento di un acuto, ma troppo cauto utente / contributore che diceva “Beh, questa frase: ‘[…] così scriveva già nel 1946 il novelliere e saggista Stefan Zweig’ è poco verosimile, essendo Zweig morto nel 1942. Non posso però correggere, perché non saprei risalire alla fonte della citazione“.[6] Dunque, per anni la voce è rimasta così com’era, con un’affermazione scritta post mortem, finché qualche altro contributore non si è deciso a tagliare l’incongruenza cronologica.[7] Purtroppo nel frattempo l’errore si è propagato: come ognuno può verificare googolando la frase in questione,[8] la si può ritrovare in un gran numero di siti. Quel che è più grave, la si trova in un forum di discussione sul mondo della Disney,[9] dove a un(a) utente che posta la richiesta “sto aiutando una amica a creare una tesina x l’esame di maturità su Walt disney (sic)”, arriva un suggerimento che giustamente indica di prendere in considerazione il concetto di Nonluogo e l’opera di Marc Augè in relazione ai parchi come Disneyland ed Eurodisney, ma pigramente copia e incolla la frase incriminata, lasciandoci il sospetto o forse la certezza che almeno uno dei nostri recenti maturandi abbia presentato all’esame una tesina con tanto di scrittore sopravvissuto a se stesso.[10]

Per il beneficio dei navigatori della Rete, il mondo del Web e ancora di più quello del Web 2.0[11] sono ricchi di sistemi e metodi per dedurre l’affidabilità o la reputazione di un sito, un servizio, una persona a partire dalle esperienze di altri utenti. Sono esempi di base di questa categoria di servizi i giudizi, come si diceva, degli avventori di alberghi e ristoranti; le recensioni dei lettori in siti di librerie online; i punteggi assegnati ai compratori / venditori in eBay. Ancora più raffinati sono i cosiddetti recommender systems (letteralmente sistemi di raccomandazione, nel senso di suggerimento), programmi che guidano l’utente alla scelta di un’opzione per lui confacente sulla base di un suo profilo, compilato dall’utente stesso o basato su sue scelte precedenti, incrociato con i profili e le scelte di altri utenti (ti segnalo che potrebbe interessarti questo libro del tal autore, perché è piaciuto a tre altri utenti che come te amano quel tal altro scrittore). Alcuni servizi di social networking, per esempio il diffusissimo LinkedIn, puntano a rendere evidente la reputazione degli iscritti attraverso la pubblicazione nel profilo degli utenti degli endorsements[12] scritti dai loro contatti (l’analogo degli amici di Facebook). C’è chi è addirittura arrivato a implementare una metrica della reputazione, che stabilisce il livello di reputazione di un utente rispetto a tutti quelli iscritti a un certo social network: l’algoritmo assegna punteggi sulla base del numero dei contatti che l’utente ha, della loro rispettiva reputazione, delle testimonianze ricevute e di una serie di altri giudizi che si possono dare fra utenti. Nel corso di una lunga ricerca[13] presso il Dipartimento di Scienze della persona dell’Università di Bergamo, pur riconoscendo in prospettiva l’interesse di un approccio connettivo e quantitativo al problema, abbiamo però verificato che l’algoritmo non riesce a evidenziare e penalizzare i non rari casi di uso malizioso del sistema, che vede all’opera veri e propri cacciatori di dote che, al puro scopo di incrementare il proprio punteggio, si creano reti di amicizie contattando utenti ad alta reputazione, che nella vita reale non conoscono, ma che a loro volta contraccambiano l’amicizia per mantenere anch’essi alto il proprio punteggio.

Dunque e di nuovo, nonostante l’aiuto che può venire dai sistemi telematici, ancora e sempre saranno necessari per navigare esercizio del senso critico, cautela e consapevolezza dei mezzi a disposizione.

 


Ringraziamento

Grazie di tutto a Brunella Sarnataro.

Note

[1] Si veda, per un approfondimento di questi temi, il bel saggio di Sara Bentivegna, Disuguaglianze digitali, Laterza, 2009, come anche di Jan A.G.M. van Dijk, The deepening divide, Sage Publications, 2005

[2] Per un approfondimento sui problemi dell’interazione uomo – macchina si veda il capitolo di Marco Lazzari, “Le frecce di Basilea e le faretre degli informatici“, in Giuseppe Bertagna (a cura di), Scienze della persona: perché?, Rubbettino Editore, 2006

[3] Mariangela Balsamo, “Studio sull’interazione utente – motori di ricerca”, Convegno Nazionale Forum GT SEO/SEM, Firenze, 2006

[4] Si veda per questi aspetti il saggio di Emilio Carelli, Giornali e giornalisti nella rete, Apogeo, 2004

[5] Sull’argomento della qualità del Web un testo sempre valido e di non ostica lettura è quello di Marco Polillo, Il check up dei siti web, Apogeo, 2004

[6] Si veda la discussione sulla voce Nonluogo all’indirizzo abbreviato http://goo.gl/TsXdi

[7] Approfitto per fare ammenda del fatto di non essere io stesso intervenuto a correggere, ma per anni ho seguito la voce con spietato habitus sperimentale, per vedere che cosa sarebbe successo.

[8] Provare con l’indirizzo http://goo.gl/I5CEi

[10] È forse un caso che il libro nel quale Stefan Zweig aveva scritto quella frase fosse intitolato “Il mondo di ieri”?

[11] Si parla di Web 2.0 (pronunciato Web due punto zero [e non, come dicono parecchi studenti non frequentanti all’esame: Web due, Web due zero, Web duemila, Web punto due, Web due o, Web zero punto due]) con riferimento a un sottoinsieme del Web costituito da siti che consentono la condivisione delle informazioni fra gli utenti e l’interazione degli utenti con i siti che visitano: ne sono esempi i social networks come Facebook o Twitter, le piattaforme di condivisione come Google Docs, i sistemi informativi cooperativi come Wikipedia, i servizi di folksonomia e social bookmarking per archiviare, condividere, catalogare, taggare (etichettare) e ricercare segnalibri online quali Digg, Technorati e del.icio.us

[12] In questo caso si potrebbe tradurre con testimonianze: “ho lavorato con X e garantisco che si tratta di un professionista affidabile”

[13] Marco Lazzari, “An experiment on the weakness of reputation algorithms used in professional social networks: the case of Naymz“, Proceedings of the IADIS International Conference e-Society 2010, Porto, 2010