[POST-IT ] Tesi FaD & forum nonufficiale ...e dintorni

« Older   Newer »
 
  Share  
.
  1. _Nicoletta
     
    .

    User deleted


    Di Cacciamani
    università val d'aosta
    http://formare.erickson.it/archivio/marzo_04/cacciamani.html

    anche questo link sempre dalla stessa rivista Form@are
    utilissimo

    http://formare.erickson.it/archivio.html

    :balla:



    lui

    http://www.univda.it/univda/anagrafe.nsf/(...ni?OpenDocument

    n. 51 giugno 2007
    Studiare dal web: vecchi e nuovi quesiti
    di Gisella Paoletti

    minkia nn posso usarlo ^ ^ '

    Studiare dal web all’università: l’uso di schemi e risorse online

    di Linda Giannini, Carlo Nati e Gisella Paoletti *

    aaaaaaaaaaaaaaaaaaah



    http://www.formare.erickson.it/archivio/gi...2_PAOLETTI.html
    Gli studenti rispondono: quanto è utile il web-enhanced teaching?

    di Gisella Paoletti e Sara Rigutti *



    http://www.formare.erickson.it/archivio/gi.../3_RIGUTTI.html
    Ricerche bibliografiche online: analisi di usabilità di un sito bibliotecario d’ateneo

    di Sara Rigutti e Gabrio Tognolli *



    http://www.formare.erickson.it/archivio/gi...4_TOGNOLLI.html
    Studenti universitari e siti di facoltà: uno studio di usabilità

    di Gabrio Tognolli, Marco Bordignon, Caterina Lombardini, Anna Morandini, Karmen Petrovic e Deborah Rossit *



    http://www.formare.erickson.it/archivio/gi.../5_BERGAMO.html
    La comunicazione televisiva come sistema multimediale

    di Rodolfo Bergamo, Sara Rigutti e Roberta Schenetti *



    I multimedia
    Il concetto di multimedialità può essere inteso come l’utilizzo contemporaneo e coordinato di molteplici dispositivi e mezzi di comunicazione, come, ad esempio, nel caso di diapositive accompagnate da una registrazione audio in sottofondo, o nel semplice accostamento di figure e didascalie e testo.
    I multimedia presentano quindi le informazioni utilizzando sia il linguaggio, per mezzo di testi orali o scritti, sia le immagini, attraverso illustrazioni, fotografie, grafici, animazioni o video (Figura 1).


    image

    Fig. 1 - Presentazione multimediale con immagini, testo orale e scritto


    Utilizzando una forma di comunicazione multimediale “le informazioni possono essere presentate verbalmente o iconicamente. Le informazioni verbali possono venire presentate attraverso più canali: il testo scritto attraverso il canale visivo, il testo orale attraverso il canale uditivo. Quelle iconiche possono venire presentate attraverso immagini statiche (illustrazioni, grafici) o in movimento (animazioni, video)” (Paoletti, 2002).
    L’uso di tali differenti formati di rappresentazione nella comunicazione multimediale richiede che vengano attivati diversi processi di integrazione delle informazioni di tipo verbale o iconico, e il modo in cui tale integrazione viene svolta è decisivo rispetto alla possibilità di comprendere e acquisire le informazioni in funzione del tipo di materiale usato e delle caratteristiche degli utenti (Paoletti, 2002).
    Le ricerche sperimentali volte a testare l’efficacia in termini di ricordo e transfer di una presentazione di tipo multimediale evidenziano, in generale, un livello di comprensione e prestazioni mnemoniche migliori quando il materiale viene presentato attraverso più formati rispetto a quando lo stesso materiale è presentato solo graficamente o solo verbalmente.
    La teoria cognitiva dell’apprendimento multimediale è basata sull’assunto che gli uomini possiedono due diversi canali per elaborare il materiale, uno per le rappresentazioni visive, l’altro per quelle verbali (Figura 2).

    image


    Fig. 2 - Modello generale della Teoria Cognitiva dell'Apprendimento Multimediale (Mayer, 2001)


    L’effetto multimediale si verifica quando, presentando una spiegazione sia con parole sia con immagini, c’è un apprendimento migliore da parte dello studente.
    Tuttavia in quest’ambito esistono anche osservazioni ed indagini che hanno evidenziato alcuni effetti negativi sul ricordo e sulla comprensione, conseguenti alla somministrazione del materiale in un formato multimediale.
    Una spiegazione possibile per questa assenza del succitato “effetto multimediale” è che la multimedialità, pur offrendo nuovi modi di esprimere i contenuti, spesso viene utilizzata con l’unico intento di rendere maggiormente attraente il materiale, in modo da focalizzare su di esso l’attenzione del destinatario del messaggio, ma ignorando una o piu’ delle condizioni che sono alla base dei principi dell’apprendimento multimediale (contiguita’ spaziale, temporale, coerenza, modalità e ridondanza):

    1. Contiguità spaziale (gli studenti apprendono meglio quando le parole e le immagini corrispondenti sono presentate vicine);
    2. Contiguità temporale (gli studenti apprendono maggiormente quando parole e immagini sono presentate nello stesso momento, poiché saranno più in grado di mantenere le rappresentazioni mentali insieme nella memoria attiva e di connetterle);
    3. Coerenza (gli studenti imparano di più quando il materiale interessante ma non rilevante per il tema trattato – testo, figure, suoni - è escluso dalla presentazione);
    4. Modalità (studenti apprendono di più quando il messaggio multimediale è presentato come testo parlato piuttosto che scritto);
    5. Ridondanza (gli studenti apprendono maggiormente da animazioni e narrazioni piuttosto che da animazioni, narrazioni e testo). (Mayer, 2001)



    E’ stato anche dimostrato che combinare tra loro figure statiche, immagini dinamiche, suoni, musica, linguaggio scritto e orale può produrre una situazione di sovraccarico cognitivo. La Teoria del Carico Cognitivo (Cognitive Load Theory: Sweller, 1988; Chandler & Sweller, 1992; Bobis, Sweller & Cooper, 1993) richiama l’attenzione sui limiti della nostra memoria di lavoro e sulla funzione da essa svolta durante il processo iniziale di acquisizione degli schemi che poi andranno ad arricchire la memoria a lungo termine.
    Multimedialità, tv e didattica: la nostra indagine conoscitiva
    Il mezzo televisivo come strumento di erogazione di contenuti didattici a livello universitario è stato ampiamente impiegato in Italia dal Consorzio Nettuno.
    Il Consorzio si avvale di centri per la registrazione di video-lezioni che vengono erogate sia attraverso un canale televisivo satellitare (Rai Nettuno Sat 1 e Rai Nettuno Sat 2) sia attraverso la distribuzione di videocassette agli studenti iscritti. Ogni corso è suddiviso in moduli didattici ed ogni modulo didattico è composto da un numero variabile di video-lezioni che si caratterizzano per la presenza di immagini, materiale orale e scritto. Ci siamo chiesti se questo tipo di presentazione multimediale viene effettivamente utilizzato dagli studenti universitari iscritti a Nettuno o se, diversamente, vengano preferiti materiali didattici più “tradizionali” come i testi d’esame in forma cartacea. Per indagare in questa direzione è stato costruito un questionario a cui hanno risposto 46 studenti (Schenetti, 2007). I dati ottenuti indicano che le presentazioni multimediali erogate da Nettuno sono uno strumento didattico utilizzato ampiamente dagli studenti: il 69% del campione dichiara di usufruire molto spesso delle video-lezioni, mentre solo il 4% afferma di non utilizzare questo materiale per mancanza di tempo o perché usa appunti delle video-lezioni di altri studenti. E’ interessante osservare che l’82% dei rispondenti al questionario si accosta alla materia d’esame proprio con l’ascolto delle video-lezioni. Solamente l’8% affronta lo studio a partire dai testi cartacei ma successivamente consulta le video-lezioni.
    I risultati dell’indagine nel complesso indicano che le presentazioni didattiche multimediali (testo orale, testo scritto e immagini) vengono percepite come uno strumento utile per lo studio e la preparazione degli esami.

    Multimedialità, tv e memoria: il nostro studio
    Accade spesso nella costruzione di contenuti multimediali che, nel tentativo di incrementare la quantità di informazioni offerte, vi sia un accostamento di immagini, narrazioni orali e testo scritto, senza che vi sia però una corrispondenza tra l’informazione presentata attraverso queste diverse modalità.
    Come mostrato nell’esempio della Figura 4, in alcuni telegiornali italiani il materiale trasmesso è costituito non solo da immagini accompagnate dal corrispondente commento audio ma anche dall’inserimento di didascalie o testo a scorrimento che riportano le principali notizie della giornata.
    Per verificare gli effetti del tipo di presentazione sui processi di elaborazione dell’informazione abbiamo condotto uno studio utilizzando i filmati di un reale TG. I filmati presentavano testo orale (narrazione oppure voce fuori campo), testo scritto (sotto forma di testo scritto scorrevole in sovrimpressione) e immagini dinamiche (Bergamo, 2006). Le informazioni trasmesse attraverso i canali uditivo e visivo veicolavano informazioni diverse tra loro (Figura 4).
    Il materiale filmico è stato quindi modificato per ottenere tre versioni sperimentali: una versione con testo orale, testo scritto in sovrimpressione e immagini dinamiche (condizione simultaneità); una versione priva di testo scritto in sovrimpressione (condizione immagini + narrazione); una versione priva di commento orale (condizione immagini + testo scritto in sovrimpressione).

    http://www.formare.erickson.it/archivio/gi...07/bergamo4.jpg


    Fig. 4 - Fotogramma Tg2 con trascrizione testo scritto e audio


    Sono stati testati 80 soggetti, studenti universitari di età media pari a 24 anni.

    Al termine del filmato ogni soggetto veniva sottoposto ad una prova di ricordo del materiale visionato attraverso la somministrazione di un questionario a scelta multipla (12 item). Nella codifica dei dati veniva assegnato 1 punto per ogni risposta corretta e zero punti per ogni risposta sbagliata.

    I risultati ottenuti dalla conduzione dell’analisi della varianza (p<0,005) mostrano che le presentazioni con solo testo orale (condizione immagini + narrazione) e con solo testo scritto (condizione immagini + testo scritto in sovrimpressione) determinano una migliore prestazione mestica rispetto alla presentazione con entrambe le forme testuali presentate contemporaneamente (condizione simultaneità). Il miglioramento nelle prove di memoria per le informazioni presentate unicamente come narrazione o come testo scorrevole in sovrimpressione può essere interpretato come un effetto della riduzione del carico cognitivo del telespettatore. Inoltre, confrontando le due condizioni (t test) che hanno ottenuto le migliori prestazioni si osserva un miglior ricordo del materiale nei soggetti sottoposti alla presentazione orale (p<0,05).


    image

    Fig. 5 - percentuale delle risposte corrette al questionario somministrato dopo la visione del filmato TG.


    Nel complesso i dati ottenuti sembrano confermare la validità dei principi dell’apprendimento multimediale (Mayer, 2001): materiale informativo presentato simultaneamente in forma orale e scritta determinerebbe sia un sovraccarico della capacità della memoria di lavoro sia l’interferenza tra informazioni provenienti dal canale uditivo e visivo.

    Contenuti multimediali attraverso il Web
    Internet è ricca di siti o portali caratterizzati da ipermedialità, da interattività, dalla compresenza di più canali e dal coinvolgimento di diversi codici comunicativi che sono costruiti con intenti educativi e con l’obiettivo dichiarato di favorire l’apprendimento.
    Oggigiorno si stanno via via sviluppando nuove tipologie di strumenti e servizi, che, con il passare del tempo, diventano sempre più interattivi e personalizzabili in base agli obiettivi e alle caratteristiche degli utenti. E’ ora possibile vivere delle esperienze “virtuali” oltreché raccogliere, catalogare e archiviare ingenti quantità di dati, molto più di quanto si potesse immaginare in passato, organizzandoli in banche dati accessibili anche da remoto.
    I nuovi strumenti tecnologici consentono una fruizione dei contenuti informativi attraverso modalità e tecniche assolutamente originali, innovative e potenzialmente molto più efficaci rispetto a quanto consentito dalle forme tradizionali di trasmissione della conoscenza.

    image


    Fig. 6 - Enciclopedia multimediale online (http://epaedia.eea.europa.eu/)


    Le caratteristiche multimediali e la ricchezza informativa di certi siti web sono ciò che, in via teorica, costituisce il valore aggiunto delle nuove tecnologie rispetto alle offerte formative del passato, ma esse talvolta sono estremizzate in modo tale da avere un effetto deleterio sulla comprensione dell’utente e sull’apprendimento, dal momento che l’accesso ai dati non espande automaticamente la conoscenza e che la quantità non sempre corrisponde alla qualità dell’informazione.
    Nel caso di Internet, i pericoli di sovraccarico cognitivo, già riscontrati negli studi inerenti il mezzo televisivo, sono ulteriormente amplificati, tenendo conto dell’enorme quantità di informazioni proposte attraverso diversi formati e dell’ulteriore possibilità offerta all’utente di interagire ed esplorare attivamente l’ambiente informativo. Quest’ultima, combinata con un uso eccessivo di effetti speciali, suoni, animazioni tridimensionali, immagini, testi orali e scritti, diventa talvolta una involontaria spinta a fruire dei contenuti in maniera superficiale e frammentaria.
    Un software, un sito internet o una trasmissione televisiva che abbia l’obiettivo di erogare efficacemente i propri contenuti, dovrebbe presentare le informazioni secondo uno schema di instructional design che riduca il più possibile il carico cognitivo implicato nel processo di apprendimento. Dovrebbe quindi tener conto dei presupposti teorici acquisiti nel corso degli studi sulle presentazioni multimediali delle informazioni (come la teoria del carico cognitivo e i principi multimediali) e dei più recenti criteri di ergonomia cognitiva.
    Progettare un’interfaccia “usabile” per i nuovi strumenti tecnologici utilizzati per l’apprendimento significa veicolare i contenuti sullo schermo attraverso un’organizzazione delle informazioni e un sistema di navigazione all’interno di esse che non sia disorientante per l’utente.
    L’intento, certamente, dovrebbe essere quello di perseguire in tutti i modi l’obiettivo della massima ricchezza informativa (e, perché no, della gradevolezza estetica), ma tutto ciò deve essere ottenuto tenendo conto delle esigenze e delle caratteristiche cognitive di chi fruisce del mezzo, puntando soprattutto sulla semplicità ed evitando effetti speciali fini a se stessi.

    Riferimenti bibliografici
    Bergamo, R. (2006). La televisione come sistema multimediale: l’influenza del testo a scorrimento sull’elaborazione dell’informazione televisiva. Tesi di laurea non pubblicata, Facoltà di Psicologia – Università degli Studi di Trieste.
    Bobis, J. Sweller, J. & Cooper, M. (1993). Cognitive load effects in a primary-school geometry task. Learning & Instruction, 3, 1-21.
    Chandler, P. & Sweller, J. (1992). The split-attention effect as a factor in the design of instruction. British Journal of Educational Psychology, 62, 233-246.
    Kozma, R. (1991). Learning with media. Review of Educational Research, 61. pp. 179-211.
    Mammarella N., Cornoldi, C. e Pazzaglia, F. (2001) Psicologia dell’apprendimento multimediale. E-learning e nuove tecnologie. Il Mulino, Bologna.
    Mayer, R. E. (2001). Multi-media learning. New York: Cambridge University Press.
    Paoletti, G. (2002). Comprendere e apprendere con i multimedia. Età evolutiva, 74, pp. 92-108.
    Schenetti, R. (2007).Un’indagine conoscitiva sull’uso dei servizi online del NETTUNO. Prova finale del corso di laurea in Scienze e tecniche psicologiche Teledidattico, Facoltà di Psicologia, Università degli studi di Trieste.
    Sweller, J. (1988). Cognitive load during problem solving: effects of learning. Cognitive Science, 12, 257-285.






    guardare anche
    n. 47 ottobre/novembre 2006
    Dal corso formale alla comunità professionale. Competenze ed indirizzi di ricerca in una comunità Lifelong
    di Maria Ranieri

    Editoriale
    di M. Ranieri
    Temi
    - LTEver: come integrare Moodle e Elgg
    di A. Fini
    - Potenzialità didattiche dei filmati digitali interattivi in ambienti di formazione in rete
    di B. Andreocci
    - Historia non facit saltus. Una blended solution per l’innovazione della prassi didattica in un corso universitario
    di M.G. Fiore
    - Management didattico e e-learning
    di L. Barbagallo
    - "Risorse in Rete" per il Centro Linguistico di Ateneo dell'Università degli Studi di Padova
    di E. Facciolo e V. Raggi
    - Un learning object per utenti sordi. Il mondo dei sordi dalla Lingua dei Segni alle tecnologie digitali
    di L. Bianchi
    - TRIO 2.0? Prospettive e criticità
    di U. Manduchi
    - Mobile Learning: prospettive teoriche e difficoltà applicative
    di L. Toniolo
    - "Dove, come, quando serve": formazione “just in time” e e-Learning"
    di A. Costi
    - Rapid e-Learning: una nuova strategia di produzione ed erogazione dei contenuti didattici
    di F. Ballor
    - IL PBL nella scuola Italiana. Teorie, prospettive e ipotesi di valutazione delle procedure didattiche. Un caso concreto
    di D. Melardi
    - Tecnologie per la gestione e la condivisione della conoscenza. Analisi e progettazione di due prototipi: Expertise Management System e Classifica
    di G. Gensini
    - Progettazione e analisi di learning object in ambiente Puntoedu
    di A. Ammirabile
    - Digital divide in Africa. Indagine esplorativa sulla formazione tecnologica degli insegnanti nella provincia dei Gwassi - Kenya
    di C. Pozzi
    - Diciannove collegi per due fiumi: l’e-learning all’Università di Pavia
    di E. Caldirola
    ^__^

    e poi

    http://www.formare.erickson.it/archivio/di.../2_MARIANI.html

    Dalla parte di chi impara: le strategie di apprendimento

    di Luciano Mariani*



    Introduzione
    “Sapere cosa fare quando non si sa cosa fare” può essere un buon punto di partenza per definire che cosa siano le strategie di apprendimento. Anche nel linguaggio comune, quando si parla di strategie si fa subito riferimento, in modo esplicito o implicito, a situazioni problematiche che non possono essere gestite con soluzioni predeterminate e con procedure “automatiche”, ma che, al contrario, richiedono flessibilità, creatività, innovazione. Non si ha bisogno di una strategia quando si sa già cosa fare, quando cioè i compiti richiedono soluzioni di routine. E’ proprio quando le routines non bastano che si manifesta la differenza tra chi rinuncia, si blocca o entra in crisi e chi possiede una bussola per orientarsi nel nuovo e nel problematico, elaborando piani di azione originali.

    Le strategie di apprendimento sono dunque passi, operazioni, comportamenti che vengono messi in atto da chi impara per facilitare, ottimizzare, velocizzare i propri processi di apprendimento. Naturalmente la gamma di campi di applicazione delle strategie dipende da cosa si intende per “apprendimento”. Ad esempio, le classiche e ben note abilità di studio (come, ad esempio, sintetizzare un testo, prendere appunti, trasporre un testo verbale in forma grafica e viceversa, utilizzare strumenti di consultazione) riguardano un settore cruciale ma limitato dell’apprendimento, ossia l’elaborazione cognitiva delle informazioni. Se per “apprendimento” si intende invece l’insieme delle operazioni che la persona compie per gestire i suoi rapporti con un ambiente di apprendimento, allora la gamma delle possibili strategie si arricchisce in modo considerevole. Gestire le proprie relazioni con un ambiente di apprendimento comporta infatti non soltanto saper estrarre significati da fonti di informazioni, utilizzando i relativi strumenti (dal libro di testo al sito Internet), ma anche conoscere e saper controllare le proprie risorse, cognitive ed affettive (dal proprio stile di apprendimento alle possibili reazioni di ansia, dalla propria autostima al proprio profilo motivazionale), nonché instaurare rapporti positivi e produttivi con le altre figure con cui si realizza l’apprendimento in un ambiente istituzionalizzato come la scuola – e in primo luogo gli insegnanti e i compagni di classe.

    La gamma delle strategie
    Diventare più strategici nel proprio apprendimento comporta dunque attivare operazioni di varia natura, che ai fini della ricerca e dell’esposizione teorica possono anche essere distinte in categorie, ma che in realtà sono costantemente interagenti nell’ambito della personalità di chi impara:

    • le strategie cognitive, come si è già accennato, riguardano l’elaborazione delle informazioni, cioè l’appropriazione dei contenuti informativi all’interno della propria struttura concettuale. Queste strategie sono al servizio di operazioni mentali complesse, come l’associazione (ad esempio, richiamare le proprie conoscenze di un argomento prima di leggere un testo), la classificazione (come raggruppare le informazioni di un testo per categorie), l’inferenza/deduzione (ad esempio, utilizzare indizi linguistici ed extralinguistici per ipotizzare significati), l’induzione (come risalire da elementi particolari alla formulazione di una regola generale), il trasferimento (ad esempio, collegare quanto appreso con la propria realtà quotidiana o con i contenuti di altre aree disciplinari). Come si intuisce, le strategie cognitive operano direttamente sui contenuti da apprendere ed hanno una portata più “locale”, ossia si applicano a precise richieste originate dai compiti;
    • le strategie metacognitive agiscono invece come “bussole” più generali, in quanto controllano e orientano le operazioni complessive di auto-gestione del proprio apprendimento. E’ così che funzionano le strategie di pianificazione (ad esempio, stabilire obiettivi a breve, medio e lungo termine, programmate le condizioni fisico-ambientali dello studio, chiarire le richieste e i vincoli dei compiti da svolgere), le strategie di controllo (come identificare problemi nella lettura, ricercare le possibili cause dei problemi e ipotizzare possibili soluzioni) e le strategie di autovalutazione (ad esempio, confrontare gli obiettivi attesi con i risultati ottenuti, analizzare i propri errori, verificare l’utilità delle strategie utilizzate);
    • le strategie socio-affettive aiutano a gestire il proprio rapporto con se stessi in quanto persone-discenti (ad esempio, ricorrere a tecniche per ridurre lo stress, premiarsi per un compito ben eseguito, tenere un diario per registrare le proprie emozioni) e con gli altri - genitori, insegnanti, compagni - con cui si condivide l’esperienza dell’apprendimento (ad esempio, ricorrere all’aiuto di amici o di altre figure di sostegno, tenere sotto controllo i propri interventi in un lavoro di gruppo, chiedere e accettare di essere corretti e di ricevere un feedback da altri sulle proprie prestazioni). Si sarà notato che queste strategie si allargano al campo più vasto del saper gestire le dinamiche della comunicazione all’interno di una comunità di apprendimento quale può essere considerato il gruppo-classe;
    • le strategie motivazionali, che possiedono forti connotazioni socio-affettive, sono rivolte a promuovere non solo la spinta motivazionale iniziale, ma anche, e forse soprattutto, ad aiutare la persona a persistere nell’impegno una volta iniziata l’esecuzione del compito. A ciò possono tendere comportamenti quali controllare le distrazioni presenti nel proprio ambiente di studio, crearsi immagini positive di se stessi prefigurando un successo invece che un fallimento, concentrarsi sul compito senza guardare continuamente l’orologio ...

    Le strategie effettive degli studenti
    La letteratura sulle strategie abbonda di tipologie, classificazioni, definizioni e descrizioni come quelle citate nel paragrafo precedente. Senza nulla togliere all’utilità di questi strumenti, non bisogna dimenticare che le strategie effettivamente messe in atto da chi impara possono assumere forme estremamente diversificate e originali, sono usate in combinazione e non in modo isolato, e sfuggono spesso a “etichettature” teoriche. In altre parole, ciò che fanno gli studenti non coincide sempre con ciò che la ricerca ha identificato come “strategie”. In fondo, ciò che più conta, al di là dei singoli comportamenti, è anche un più generale approccio all’apprendimento, che ne promuova una gestione sempre più autonoma, dinamica e flessibile.

    Un modo abbastanza semplice per sondare ciò che effettivamente fanno gli studenti quando si trovano di fronte ad una situazione problematica (quando cioè “non sanno cosa fare”) è di stimolare la riflessione, individuale e di gruppo, al termine di un compito, introducendola con un paio di brevi domande come, “Che problemi hai avuto in questo compito? Che cosa ti ha ostacolato?” e, “Come hai cercato di far fronte a questi problemi? Che cosa ti ha aiutato?”. Un’alternativa consiste nell’utilizzare un semplice questionario che, rispetto ad una situazione di lavoro definita, solleciti reazioni immediate, che rispecchino il più possibile la concreta esperienza degli studenti (e non, come a volte accade, l’esperienza che gli studenti si aspettano potrebbe essere più gradita all’insegnante!). Ad esempio, in una recente indagine sulla motivazione ad apprendere a scuola (Mariani 2006), alla domanda, “Hai trovato dei modi per riuscire a studiare argomenti difficili o per svolgere attività che trovi noiose? Se sì, quali sono?”, alcuni studenti hanno così risposto:

    • “Mia mamma mi ha insegnato un metodo che io trovo molto utile: leggere ad alta voce e ripetere fino alla nausea” (Giorgio, 14 anni)

    • “Per le materie noiose o che ritengo poco utili trovo parecchie difficoltà a studiarle, solitamente tendo a darmi degli obiettivi precisi a breve termine (es. un capitolo per le cinque e un altro per le sette” (Mario, 16 anni)

    • “Ho trovato dei metodi che rendono molto bene. Ad esempio mentre studio argomenti noiosi ascolto della musica che mi faccia pensare “ad altro” in modo da rendere tutto più leggero” (Marina, 15 anni)

    • “Di solito, in queste situazioni cerco di convincermi che si tratta di argomenti indispensabili per apprendere poi altri argomenti più piacevoli” (Giovanna, 15 anni)

    Come si vede, le affermazioni degli studenti possono riservare più di una sorpresa e, oltre ad aprire una “finestra” sui comportamenti strategici, finiscono spesso per farci conoscere una realtà complessa, fatta anche (e diremmo soprattutto) di emozioni, intuizioni, tentativi più o meno consapevoli e riusciti di dare comunque un senso alle cose, di sopravvivere in qualche modo in contesti non di rado percepiti come problematici e faticosi da gestire. Ma queste affermazioni ci permettono anche di specificare più in concreto le caratteristiche delle strategie effettive degli studenti:

    • in primo luogo, esse riguardano i vari aspetti dell’ambiente di apprendimento che abbiamo già illustrato: si alternano dunque strategie cognitive (Giorgio), metacognitive (Mario), socio-affettive (Marina) e motivazionali (Giovanna);
    • in secondo luogo, le strategie non sono “ricette” pronte per l’uso (anche se possono essere imparate o insegnate come tali: è ciò che forse ha fatto la mamma di Giorgio), ma possiedono spesso un carattere personale, originale e persino idiosincratico: si tratta veramente di operazioni euristiche, di tentativi di ricerca di soluzioni che non necessariamente vanno a buon fine (a quali risultati porterà la nausea dello stesso Giorgio …?);
    • in terzo luogo, avendo un carattere esplorativo, le strategie usate dagli studenti ci fanno capire che non esistono strategie “buone” o “cattive”, “giuste” o “sbagliate”, ma solo strategie più o meno adeguate alla persona e al compito da svolgere. Forse non tutti gli insegnanti si sentirebbero di suggerire l’ascolto di un brano musicale come sottofondo allo studio, ma solo Marina, che in tal modo riesce a rendersi “tutto più leggero”, saprebbe giudicare se la strategia è efficace, ossia se la porta a risultati soddisfacenti (anche se a prima vista ci si potrebbe chiedere come possa studiare e allo stesso tempo “pensare ad altro”!);
    • e per finire, nelle situazioni più promettenti, le strategie possono veramente trasformarsi in un approccio più generale all’autoregolazione nell’apprendimento: è il caso di Giovanna, che sembra avere trovato la chiave per poter gestire la propria motivazione ad apprendere al di là di una semplicistica quanto rara motivazione intrinseca.

    Insegnante, compiti e clima di classe
    Se le strategie sono personali, se non possono essere ridotte a ricette, se ciascuno deve scoprire le proprie nei contesti concreti dei compiti, come può l’insegnante inserirsi in questo “discorso di apprendimento” che sembrerebbe riservato in larga misura allo studente? Non c’è, al limite, contraddizione tra l’apprendimento strategico personale e l’insegnamento istituzionale, destinato inevitabilmente a scontrarsi con i “grandi numeri” della classe?

    Queste domande ci riportano al cuore del rapporto tra insegnamento e apprendimento, e in questa sede ci limiteremo a poche sintetiche osservazioni. Possiamo partire da questa citazione:

    “La questione non è, “Gli insegnanti possono insegnare ad imparare?”. Loro lo fanno già: che lo vogliano o no, essi sono dei modelli per i loro allievi negli stili di apprendimento e nelle strategie che usano … Ciò che è necessario è che gli insegnanti incorporino delle valide strategie di apprendimento nel loro insegnamento, e che sappiano farlo in modo tale da incoraggiare il trasferimento delle strategie ad un approccio più generale all’apprendimento”. (Nisbet e Shucksmith 1986)

    Gli insegnanti modellano spesso le strategie per i loro studenti: ad esempio, quando pensano ad alta voce, verbalizzando i passi che seguono per risolvere un problema; quando strutturano il loro discorso usando segnali linguistici per chiarirne lo sviluppo e la coerenza (Ora vi parlerò di tre aspetti della questione … In primo luogo … Il secondo aspetto è che … Infine, …); quando esplicitano i criteri di valutazione che useranno per valutare i compiti degli studenti … in tutti questi casi, gli insegnanti usano strategie, che però, introdotte in modo implicito, rimangono il più delle volte patrimonio degli insegnanti stessi, nel senso che, poiché gli studenti non ne sono consapevoli, non le possono percepire come comportamenti da loro stessi potenzialmente adottabili:

    "Uno degli aspetti più critici dell’istruzione strategica è legato … ad uno spostamento da un uso delle strategie implicito e diretto dall’insegnante ad un’istruzione esplicita finalizzata ad un uso delle strategie regolato dallo studente." (National Foreign Language Resource Center 1996)

    Ciò chiarisce almeno in parte perché le strategie usate, o anche suggerite o proposte dall’insegnante o dai materiali didattici, facciano così fatica ad essere riutilizzate dagli studenti in mancanza di una costante sollecitazione esterna: il loro carattere spesso non esplicitato non ne facilita il trasferimento a nuovi compiti e nuovi contesti e, in ultima analisi, l’uso gradualmente più autonomo.
    L’attivazione di strategie, per tentare di essere efficace, deve dunque essere esplicita, nel senso di chiarire non solo come funziona una strategia, ma anche quando e perché può essere utile e come se ne può valutare l’efficacia.

    Un secondo punto cruciale riguarda la centralità dei compiti di apprendimento come luoghi naturalmente deputati all’educazione alle strategie (Mariani e Pozzo 2002). Le strategie, come si è visto, vengono attivate in presenza di problemi, e dunque è solo facendo sperimentare problemi e tentativi di soluzioni che si possono mettere in moto non solo tecniche di studio ma anche convinzioni e atteggiamenti “strategici”. Rientra nelle competenze dell’insegnante scegliere, pianificare, gestire e valutare compiti di apprendimento che
    • pongano problemi su contenuti nodali della disciplina;
    • presentino richieste a cui non si possa rispondere con comportamenti “di routine”, ma che sollecitino gli studenti a provare comportamenti nuovi, correndo rischi ragionevoli;
    • suggeriscano procedure di lavoro trasparenti ma non “chiuse”, e quindi orientate alla scoperta e/o alla presa di coscienza di strategie;
    • includano criteri di valutazione non solo dei prodotti, ma anche dei processi;
    • e creino spazi fisici e temporali per la riflessione critica sull’esperienza.

    Infine, questo lavoro di educazione strategica trova la sua dimensione più costruttiva nel confronto, nella verbalizzazione e nella socializzazione dei problemi e delle strategie, che può avvenire soltanto a livello di un gruppo-classe che funzioni veramente come una comunità di apprendimento.
    Solo in questo modo, infatti, la tanto auspicata costruzione collettiva dei saperi assume il suo valore più autentico, che consiste nel mettere in comune sia la realizzazione di nuova conoscenza sia i percorsi di apprendimento che, individualmente e a gruppi, portano a questa conoscenza condivisa e distribuita.


    Riferimenti bibliografici

    Mariani L. 2006. La motivazione a scuola. Prospettive teoriche e interventi strategici. Carocci, Roma - www.learningpaths.org/motivazione
    Mariani, L., Pozzo, G. 2002. Stili, Strategie e Strumenti nell'Apprendimento Linguistico. Imparare a Imparare, Insegnare a Imparare. RCS/La Nuova Italia, Milano-Firenze.
    National Foreign Language Resource Center 1996. Teaching Strategies to Develop Effective Foreign Language Learners. Report in progress: Draft 11/20/96.
    Nisbet J., Shucksmith J. 1986. Learning strategies. Routledge, London.


    (*) Luciano Mariani ([email protected]) è formatore, consulente pedagogico, autore di materiali didattici. E’ da tempo impegnato nella ricerca sugli stili e le strategie di apprendimento e insegnamento e sull’autonomia dello studente, e gestisce un sito bilingue (italiano e inglese) dedicato a questi temi: www.learningpaths.org






    Studenti che scoprono strategie: il mixer dei comportamenti strategici

    di Antonio Bruno Vincenzi


    Premessa
    Il mondo del lavoro tende sempre di più ad abbandonare contesti tayloristici, dove si esige di saper eseguire operazioni prescritte, per sviluppare contesti richiedenti iniziativa personale (Le Boterf, 2006). La scuola continua a fornire, in genere, una formazione più vicina alla “prescrizione stretta”, dove contano i contenuti e le abilità definite, stentando a riservare attenzione e spazio alla “prescrizione aperta”, dove importano i processi cognitivi ed affettivi connessi alla ricerca di strategie, cioè “sapersela cavare”. La sua struttura organizzativa e programmatica è concepita per un’istruzione funzionale alla prima, mentre c’è poco o punto margine per la seconda. Risulta quindi difficile, in pratica, riuscire ad inserirvi compiti più funzionali ai bisogni emergenti.
    La “prescrizione aperta” si sviluppa spontaneamente in tutti i contesti sociali, ma potrebbe essere supportata da un’azione scolastica volta a condurre gradualmente l’adolescente in processi di scelta e di ridefinizione dei propri modelli mentali e schemi interpretativi. Si tratta di assecondare un mutamento culturale per alcuni aspetti già in atto, che non veda più la conoscenza disciplinare solo come l’unico obiettivo, ma anche come strumento per lo sviluppo di capacità trasversali, cognitive e metacognitive. Vedere le discipline come “amplificatori culturali” (Bruner, 1997), cioè come strumenti di conoscenza che amplificano le capacità di conoscere e di agire, sposta l’attenzione dal prodotto al processo, dall’acquisizione delle nozioni disciplinari al modo in cui tale acquisizione viene organizzata. Lo studente viene allora messo nell’ottica di approfittare delle occasioni offerte dalla sua esperienza scolastica e extrascolastica per sviluppare le proprie “competenze strategiche”. Ciò significa riuscire a prendere distanza dalla pratica, esplicitare come ci si organizza per far evolvere i propri schemi operativi, saperli adattare a nuove situazioni e metterli alla prova, cioè imparare dalla propria esperienza. Così si impara ad apprendere, a scoprire la propria identità personale e a orientarsi nella costruzione di un progetto di sé (Vincenzi, 2006).

    In questo contesto si possono collocare esperienze come la ricerca di strategie che viene proposta dalle indagini/intervento con i questionari pedagogici (Vincenzi, 2005), strumenti che consentono di rilevare la propria posizione nel percorso di sviluppo delle “competenze strategiche”. Di questo tipo è il dispositivo digitale detto “mixer dei comportamenti strategici”, progettato per facilitare la scoperta di capacità e possibilità rilevando modi di fare per cavarsela, non solo in relazione all’esperienza scolastica, ma anche alla ricerca della propria identità e di una propria aspirazione.
    Nell’esaminare i risultati dei questionari e nell’autovalutarsi confrontandosi con gli altri, emergono sempre dei tratti personali che possono rivelare aspetti non noti o di cui non si è consapevoli. Chiarirne le ragioni sottese e andare oltre i comportamenti descritti consentono di illuminare episodi ed esempi che sono da valorizzare, magari inserendoli in un sorta di portfolio.

    Il “mixer” non è uno strumento scolastico, in quanto viene scelto dagli studenti adolescenti per sviluppare le loro capacità di cavarsela. A differenza dei compiti scolastici, esso comporta la ricerca esplicita di strategie per padroneggiare una competenza (obiettivo di padronanza), non semplicemente di mostrare ad altri (insegnante, compagni) di possederla (obiettivo di prestazione) (Boscolo, 2002). Utilizzarlo con un’aula digitale contrasta il generale atteggiamento di svalutazione da parte degli studenti per quanto si fa a scuola, incrementando il loro interscambio cooperativo (Darnon e altri, 2006).



    Bibliografia

    Boscolo P. (2002), La motivazione ad apprendere tra ricerca psicologica e senso comune, “Scuola&Città”, pp. 81-92.
    Bruner J. (1997), La cultura dell’educazione, Milano, Feltrinelli.
    Darnon C., Muller D., S.M. Schager, N. Pannunzio e F. Butera (2006), Mastery and Performance Goals Predict Epistemic and Relational Conflict Regulation, “Journal of Educational Psychology”, n. 4, pp. 766-776.
    Fumarco G. (a cura di) (2006), Professione docente. Ruoli e competenze, Roma, Carocci.
    Le Boterf G. (2006), Costruire les compétences individuelles et collectives, Paris, Editions d’Organisation.
    LTE (2006), www.scform.unifi.it/lte/.
    Philibert C. e Wiel G. (1997), Faire de la classe un lieu de vie, Chronique Social, Lyon.
    Vincenzi A.B. (2005), Conoscere la classe e lo studente. Costruire e usare questionari pedagogici, Trento, Erickson.
    Vincenzi A.B. (2006), Per agevolare lo sviluppo di competenze strategiche, Orientamenti Pedagogici, n. 5, pp. 947-972.

    e ancora
    http://www.formare.erickson.it/archivio/ot..._06/1_FINI.html
    LTEver: come integrare Moodle e Elgg

    di Antonio Fini

    Nel corso degli ultimi due anni si è progressivamente affacciata una nuova ipotesi relativa a come intendere l’e-learning. Sulla spinta della “rivoluzione silenziosa” avvenuta in Internet, realizzata attraverso i servizi del cosiddetto Web 2.0, che vedono sempre più gli utenti assumere un ruolo attivo, di produzione di contenuti attraverso blog, podcasting, social bookmarking e social networking, alcuni autori hanno iniziato sempre più insistentemente a criticare l’approccio alla formazione a distanza basato in via esclusiva sui sistemi LMS (le cosiddette “piattaforme”) e ad auspicare la diffusione di sistemi di nuovo tipo, denominati Personal Learning Environment (PLE), ovvero ambienti centrati sulla persona, in grado di supportare sia elementi di apprendimento informale, provenienti dalle risorse che ognuno può reperire e produrre sul Web, che formali, basati sugli schemi ormai consolidati dell’istituzione e del “corso”, efficacemente rappresentati dalle piattaforme e-learning.
    Negli ultimi anni, il Laboratorio di Tecnologie dell’Educazione dell’Università di Firenze ha organizzato, seguito e gestito diverse edizioni di Corsi di Perfezionamento e di Master, che hanno coinvolto complessivamente molte centinaia di persone.
    Nel gennaio 2007, è partita l’iniziativa denominata LTEver, ovvero la costituzione di una comunità virtuale di LTE, nella quale far confluire, qualora interessati, studenti ed ex-studenti dei corsi, oltre che lo staff, i collaboratori e i docenti dei corsi stessi. Il nome stesso, giocato sul suffisso “ever (for ever), suggerisce la continuità nel tempo, una volta terminati i corsi.
    E’ opportuno ricordare che, come è ormai naturale in tutti i corsi e-learning, anche quelli gestiti da LTE si avvalgono di piattaforme e-learning. Nel corso degli anni sono stati sperimentati ed utilizzati diversi sistemi: da CMS “adattati” come MDPro, a sistemi dedicati al CSCL come Synergeia, fino all’ultima “versione” della piattaforma, basata su Moodle e integrata con moduli sviluppati ad hoc per migliorare il lavoro collaborativo. Le piattaforme e-learning svolgono egregiamente il loro compito durante la fase di svolgimento del corso, ma, una volta terminato, le classi virtuali, i forum e gli altri ambienti predisposti si “spengono” progressivamente: gli ex-corsisti non hanno più “motivo” di collegarsi, i docenti hanno da pensare alla nuova edizione del corso, ecc.
    Il ruolo dell’LMS appare pertanto rigidamente limitato nel tempo, al solo periodo di vita dei corsi. Non solo, normalmente all’interno di una piattaforma e-learning gli studenti hanno solo limitate possibilità di personalizzazione: nella maggior parte dei casi il ruolo “propositivo” è riservato ai docenti ed ai tutor, mentre gli studenti si limitano di solito alla consultazione dei materiali ed alla partecipazione alle attività predisposte dallo staff.
    Come si può facilmente intuire, anche questa modalità operativa poco si adatterebbe al supporto ed allo sviluppo di una comunità di alumni. Infine, negli ultimi tempi i termini Web 2.0 ed E-learning 2.0 sono sempre più frequentemente utilizzati per indicare che “qualcosa sta cambiando” nel modo di pensare all’apprendimento in rete. Quel “2.0” sta a indicare una “svolta”, un “cambio di paradigma” nel concepire il Web e il modo in cui le tecnologie di Internet sono utilizzate per l’apprendimento, la costruzione e la gestione della conoscenza. In questo “2.0” si evidenzia la possibilità di “essere autori” sul Web (e non più solo “lettori”), attraverso la creazione di blog e di podcast, la condivisione di contenuti “autoprodotti” come documenti, fotografie, video e siti preferiti, attraverso interazioni sociali di ogni tipo (dalla telefonia VoiP ai siti di social networking, ai mondi virtuali). Una panoramica di questi nuovi scenari può essere reperita nel volume “E-learning 2.0” curato da Giovanni Bonaiuti (1).
    Le motivazioni per il “lancio” di LTEver non si limitano però al desiderio di offrire un “luogo di ritrovo” (anche se virtuale) agli ex-studenti.
    Anche lo staff, i collaboratori e i docenti, di fatto, costituiscono una comunità di pratica costituita da persone che, con diversi livelli di coinvolgimento, hanno necessità di condividere materiali, rimanere in contatto, avere notizie l’uno dell’altro.
    Tra l’altro, molti collaboratori hanno attivato autonomamente propri siti Web, blog, podcasting e altre iniziative che, potrebbero essere in qualche modo ricondotte all’attività del laboratorio, se solo esistesse un “collante” idoneo.
    Dovrebbe tuttavia trattarsi di un “collante” molto “elastico”, per consentire ad ognuno di scegliere se, cosa e con chi condividere e/o pubblicizzare, tra le proprie attività e materiali.
    L’insieme di queste esigenze, e il lavoro specifico già avviato da alcuni collaboratori, hanno portato a guardare verso un ambito di ricerca molto recente, relativo ai già citati PLE ed, in particolare, verso un sistema, recentemente uscito dalla fase prototipale, che promette di essere particolarmente idoneo alla sperimentazione come ambiente operativo della nascente comunità.
    Il sistema si chiama Elgg (http://elgg.org), è disponibile come software Open Source, ed è suggestivamente chiamato dai suoi autori (Dave Tosh e Ben Werdmuller, giovani ricercatori inglesi) un learning landscape.
    Caratterizzato da una struttura “leggera” ed espandibile, comprende un sistema di gestione di un blog, un repository di file ed una spiccata attitudine al supporto ed allo sviluppo di rapporti sociali, attraverso la definizione di comunità interne e la definizione di profili utente dettagliati, utilizzabili per “scoprire” persone con gli stessi interessi e obiettivi.
    L’iniziativa LTEver offre pertanto a studenti, ex-studenti, docenti e collaboratori del LTE la possibilità di avere, gratuitamente, un proprio spazio personale in Elgg-LTEver, utilizzabile già durante lo svolgimento del corso ed anche dopo, in modo del tutto libero. Ad esempio, chi non ha ancora un blog può iniziare a costruirne uno, mentre chi già lo possiede può facilmente integrarlo, utilizzando LTEver come un “ripetitore” automatico dei propri blog.

    Due sono le caratteristiche peculiari di Elgg, fondamentali per lo sviluppo di LTEver:

    1) la completa libertà di azione dell’utente: dopo l’attivazione dell’account, l’utente può configurare liberamente il proprio spazio, inserendo informazioni nel proprio profilo, creando un “cruscotto” (dall’inglese dahsboard) o “vetrina personale”, aggiungendo feed RSS da altri siti, costruendo comunità e condividendo file. In LTEver non esistono “ruoli” come nelle piattaforme e-learning: ogni utente è sullo stesso piano degli altri (salvo l’amministratore del sito che ha “poteri” aggiuntivi, ad esempio legati alla creazione di nuovi utenti);
    2) l’assoluta attenzione alla privacy ed alla riservatezza ottenuti mediante un semplice accorgimento, denominato “controllo dell’accesso”. L’utente può stabilire per ogni singolo elemento inserito (dal singolo campo del profilo al singolo articolo del blog) quale “livello di accesso” consentire: “Pubblico”, ovvero ogni utente sul Web potrà accedere all’informazione. Questo livello consente ad esempio, di creare un proprio blog pubblico in LTEver, “Utenti loggati” che limita l’accesso ai soli altri utenti di LTEver (2), “Privato” ovvero leggibile soltanto dall’utente stesso, che può creare così una sorta di “bloc notes” personale sul Web. Infine, esiste la possibilità di creare “gruppi di accesso”, aprendo la strada alla condivisione controllata di ogni informazione. Nei gruppi di accesso possono infatti essere inseriti soltanto alcuni utenti, in completa autonomia.
    Inoltre, aspetto non trascurabile per i frequentanti dei corsi, LTEver è collegato con Moodle, per cui i corsisti trovano, all’interno della classe virtuale, il link all’attività recente sviluppata in LTEver.
    L’intento è quindi di offrire ai corsisti ed ex-corsisti, oltre che ai collaboratori, un ambiente multi-funzionale, da usare come “sito web personale” principale o in affiancamento ad altri eventuali siti, con lo specifico scopo di “rimanere in contatto” con i colleghi e con altre persone che, in qualche modo, hanno avuto a che fare con LTE.

    In LTEver si trovano, pertanto:

    1) Un blog
    LTEver contiene un sistema di gestione di un blog. Chi non ha mai provato ad usare un blog, può iniziare proprio con LTEver. Per cominciare a scrivere articoli nel blog, è sufficiente selezionare “Il tuo Blog” dal menu principale
    image

    e successivamente “Scrivi un articolo”.
    image

    Il blog personale sarà visibile sul Web all’indirizzo: http://www.lte-unifi.net/elgg/nomeutente/weblog (ad esempio, l’indirizzo del mio blog su LTEver è http://www.lte-unifi.net/elgg/anto/weblog). Tuttavia gli articoli saranno visibili pubblicamente soltanto se sarà stato selezionato il controllo di accesso di tipo “Pubblico”.
    Per chi ha già un proprio blog o anche più di uno, LTEver può funzionare come un “collettore” degli articoli inseriti sugli altri blog. In sintesi, è possibile configurare LTEver in modo che nel blog appaiano automaticamente i post provenienti da altri blog esterni.

    2) Le risorse RSS
    image


    La sezione “Risorse RSS” è dedicata alla raccolta e aggregazione di feed RSS esterni. Possono essere inseriti a volontà, semplicemente inserendo l’indirizzo del feed nell’apposito campo.

    3) I contatti
    Si possono inserire alcuni altri utenti tra i “contatti”. Per iniziare a “scoprire” altri utenti la via migliore è usare la ricerca. Scrivendo una o più parole chiave nel box di ricerca è visualizzato un elenco di utenti e comunità i cui tag soddisfano in qualche modo la ricerca.

    image
    image

    Cliccando sulla foto o sul nome dell’utente, sarà visualizzato il profilo. A quel punto si potrà passare alla visualizzazione del blog e degli altri elementi dell’utente selezionato (sempre secondo le restrizioni d’accesso che egli avrà impostato).
    Inserire altri utenti tra i contatti dà la possibilità di leggere in un unico elenco i post provenienti dai blog di questi utenti.

    4) Le comunità
    Le comunità sono gruppi di utenti con qualcosa in comune, ma possono anche essere intese come gruppi di lavoro, di studio o, semplicemente, di discussione. L’aspetto interessante è che le comunità si “comportano” come degli utenti, anche se un po’ speciali, nel senso che possono avere un loro proprio blog. Ognuno può creare e gestire nuove comunità e specificare se l’accesso è libero o deve essere sottoposto ad approvazione da parte dell’utente che l’ha creata (il “gestore”).

    image
    Per cercare comunità che potrebbero essere di proprio interesse, si utilizza la funzione di ricerca, come già visto per la ricerca dei contatti.
    In LTEver esistono già alcune comunità predefinite:
    • “Utenti del Moodle LTE”, che include automaticamente tutti gli utenti che hanno creato il proprio account partendo dai corsi gestiti da LTE in Moodle;
    • “Aspetti tecnici”, dove si possono inserire domande e risposte su problemi tecnici;
    • “Come usare LTEver”, dedicata agli aspetti metodologici e all’uso quotidiano del sistema.

    5) I file
    LTEver include un repository personale di file. E’ possibile creare una struttura di cartelle e sottocartelle e caricare file fino ad un massimo di 50Mb per ogni utente. Le cartelle ed i file sono sottoposti al controllo di accesso, è pertanto possibile specificare nel dettaglio cosa e chi può vedere ogni oggetto caricato nel sistema.

    image

    6) Il cruscotto
    Il “cruscotto” (in inglese dashboard) è un’area totalmente personalizzabile, una sorta di “home page” personale che ogni utente può “allestire” come vuole.
    image
    Gli “elementi” (in inglese widget) che possono essere inseriti nel cruscotto sono di diversi “tipi”: dal testo (con immagini) libero ad articoli provenienti da blog interni o esterni, a voci del profilo utente.
    Il cruscotto personale è visibile sul web all’indirizzo
    http://www.lte-unifi.net/elgg/nomeutente/dashboard.
    Ad esempio il mio cruscotto è su http://www.lte-unifi.net/elgg/anto/dashboard.

    Note

    (1) Bonaiuti G. (a cura di), E-learning 2.0, Erickson, Trento, 2006
    (2) Per il momento, LTEver è aperto soltanto agli studenti, ex-studenti, docenti e collaboratori del LTE. Partecipanti esterni possono tuttavia essere ammessi, su richiesta, per motivi di studio e ricerca.

    Riferimenti bibliografici

    Anderson T. (2005). Distance Learning – Social Software’s killer app? Sul Web all’URL: http://www.unisa.edu.au/odlaaconference/PP...%20Anderson.pdf
    Attwell G. (2006). Personal Learning Environments. Sul Web all’URL: http://www.knownet.com/writing/weblogs/Gra...ries/6521819364
    Blackall L. (2006). Die LMS die! You too PLE! Sul Web all’URL: http://teachandlearnonline.blogspot.com/20...ou-too-ple.html
    Bonaiuti G. (2006, a cura di), E-learning 2.0, Trento, Erickson.
    Mc Manus R., Porter,J. (2005). Web 2.0 for designers. Sul Web all’URL:
    http://www.digital-web.com/articles/web_2_for_designers/
    O'Reilly T. (2005). What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software. Sul Web all’URL: http://www.oreillynet.com/pub/a/oreilly/ti...-20.html?page=1
    Pew Research (2005). Teen Content Creators and Consumers. Sul Web all’URL: http://www.pewinternet.org/pdfs/PIP_Teens_...nt_Creation.pdf
    Shaw R. (2005). Web 2.0? It doesn’t exist. Sul Web all’URL:
    http://blogs.zdnet.com/ip-telephony/?p=805
    Wilson S. (2005). Architecture of virtual spaces and the future of VLEs .Sul Web all’URL: http://www.cetis.ac.uk/members/scott/blogv...=20051004162747
    Wilson S. (2005b). Future VLE - The Visual Version. Sul Web all’URL: http://www.cetis.ac.uk/members/scott/blogv...=20050125170206

    Edited by _Nicoletta - 5/4/2008, 19:16
     
    .
  2. _Nicoletta
     
    .

    User deleted


    http://www.learningpaths.org/Articoli/stili_e_strategie.html


    http://www.learningpaths.org/Articoli/multimedialita.htm
    "DIMMI COME 'NAVIGHI' E TI DIRÒ CHI SEI":

    MULTIMEDIALITÀ, STILI DI APPRENDIMENTO,

    VECCHIE E NUOVE STRATEGIE

    Lingua e Nuova Didattica, Anno XXIX, No. 1, Febbraio 2000



    Nuove tecnologie e differenze individuali: quale impatto ha l'interazione con le macchine sugli stili cognitivi e sulle strategie di apprendimento?

    Luciano Mariani



    Un'insegnante chiese ad un suo studente dodicenne perché secondo lui fosse utile usare il computer per ricostruire dei testi. Il ragazzo rispose: "Perché il computer non mi interrompe mentre sto pensando, come invece fa lei".

    (citato in Hewer 1997)



    Introduzione

    Veramente un computer può essere più sensibile, attento ed efficiente di un insegnante? Veramente dobbiamo imparare da un computer come si fa ad insegnare? Io credo che, nel turbinio delle esperienze e delle proposte tecnologiche, sia arrivato il momento di fermare la nostra attenzione per considerare in modo sereno e pacato il nostro rapporto con le nuove tecnologie. Si tratta di una problematica talmente vasta e complessa, e, soprattutto, in una tale continua evoluzione, che mi è sembrato opportuno isolare solo pochi punti, che userò come esempi di problematiche più generali, e che offro soprattutto come spunti di riflessione e di discussione.

    Innanzitutto, vorrei citare brevemente come sfondo a tutto il mio discorso due idee che mi sembra dobbiamo accettare con serenità:

    ·l'idea che i vantaggi delle nuove tecnologie sono innegabili;

    ·l'idea che l'uso delle nuove tecnologie è inevitabile.

    Detto questo, vorrei sostenere che è giunto il momento di porsi qualche domanda più specifica, che orienti le nostre scelte ma soprattutto i nostri atteggiamenti in questo campo. Come esempi di domande specifiche, proporrò due temi fondamentali:

    ·primo tema: qual è l'impatto degli stili di apprendimento sull'uso delle nuove tecnologie? In altre parole, in quali modi diversi le persone usano lo stesso computer, lo stesso programma? E che luce gettano questi diversi modi di usare le tecnologie sulle differenze individuali? Insomma, esploreremo il senso del nuovo proverbio, "Dimmi come 'navighi' e ti dirò chi sei"

    ·secondo tema: quali strategie di apprendimento possono aiutare noi e i nostri studenti ad interagire con profitto con le tecnologie? Sono le stesse strategie che abbiamo sempre cercato di promuovere, o sono strategie nuove, o forse un misto di vecchio e di nuovo?



    Due idee come sfondo

    Cominciamo allora con le due idee che fanno da sfondo a tutto il mio discorso. La prima è: i vantaggi delle nuove tecnologie sono relativamente innegabili. E' ovvio che "relativamente" è la parola-chiave. Non è questa la sede per fare un panegirico dell'uso del computer, ma mi limito a fare un brevissimo riassunto dei vantaggi, più spesso citati, che sono più rilevanti per il mio discorso. Si afferma dunque che l'uso della multimedialità

    ·aumenta la motivazione, come si vede dall'intensità e dalla durata del contatto dello studente con la macchina;

    ·facilita l'apprendimento attivo ed esperienziale, per i contesti concreti e le opportunità di ristrutturazione della conoscenza che introduce;

    ·attua un approccio centrato sul discente, grazie all'interattività e dunque alla possibilità di scelta;

    ·promuove l'individualizzazione, in particolare il rispetto degli stili e dei ritmi personali di apprendimento, attraverso la varietà e la flessibilità delle proposte;

    ·e, in definitiva, realizza un apprendimento più efficiente e produttivo (1) (2).

    Ma vorrei introdurre anche un'altra idea, ancora più intrigante anche se più raramente espressa, e cioè che l'uso delle nuove tecnologie, a prescindere dai loro vantaggi, è inevitabile. Dobbiamo e dovremo sempre più usare le nuove tecnologie nell'educazione anche solo per il fatto che noi stessi, e i nostri figli e i nostri nipoti, tutti noi vivremo e lavoreremo sempre più in un mondo basato sui computer. Ho letto recentemente, ma purtroppo non ricordo più la fonte, che l'ottanta per cento dei bambini che cominciano ora la scuola elementare, quando saranno adulti, cioè grosso modo tra quindici-venti anni, faranno lavori basati su tecnologie che oggi non esistono ancora. Dunque le nuove tecnologie connotano e connoteranno sempre più il nostro ambiente di lavoro e di vita prima ancora che di apprendimento a scuola.

    E allora, in un certo senso, le polemiche e i dubbi sull'uso delle tecnologie finiscono per essere quasi sterili. Le stesse sigle che circolano tra gli addetti ai lavori sull'uso del computer nell'apprendimento delle lingue (ad esempio, Computer Assisted Language Learning, Apprentissage Assisté par Ordinateur, apprendimento assistito dal computer, e così via) rischiano di diventare presto obsolete. Chi parla o ha mai parlato di apprendimento assistito dal libro, o assistito dalla penna, o assistito dalla biblioteca? Quando non si parlerà più di apprendimento assistito dal computer, vorrà dire che il computer sarà diventato quello che da tanto tempo sono il libro, la penna, la biblioteca - cioè tecnologie invisibili, invisibili nel senso di strettamente integrate ai processi di imparare e di insegnare (Warschauer 1997).

    Parliamo dunque di tecnologie inevitabili, e dai vantaggi relativamente innegabili. E spiego quel "relativamente". Ho l'impressione che questi benefici siano spesso dati per scontati e considerati in modo generico; credo pertanto che sia giunto il momento di riconsiderarli in modo più specifico e meno indifferenziato. Invece di chiederci soltanto: le nuove tecnologie migliorano l'apprendimento? E' preferibile usarle al posto di altri strumenti? penso che sia urgente porsi anche altre domande, come ad esempio: Quali tipi di tecnologie potenziano l'apprendimento di quali tipi di studenti, rispetto a quali tipi di compiti e contesti, e con quali tipi di insegnanti? Insomma, la questione sembra non essere più se si debbano usare le tecnologie, ma come farlo; non se possono essere positive ma come possono esserlo (Oxford et al. 1997).



    Nuove tecnologie e stili individuali di apprendimento

    Introduco a questo punto il mio primo tema: "Dimmi come navighi e ti dirò chi sei". Come si manifestano i diversi stili di apprendimento nell'interazione con il computer? Ad un'occhiata superficiale, una serie di persone che stanno studiando davanti a un computer sembrano comportarsi allo stesso modo - quasi che l'impersonalità della macchina si estenda anche all'utente. Ma è proprio così?

    Per rispondere a questa domanda, come spesso capita nella nostra professione di insegnanti, non possiamo che metterci ad osservare e ad ascoltare, cioè a raccogliere informazioni su ciò che le persone fanno e su ciò che dicono prima, durante e dopo lo svolgimento di un compito. E possiamo anche partire da noi stessi, da un'auto-osservazione e un auto-ascolto.

    Osserviamo ad esempio uno studente alle prese con un programma di pratica linguistica che gli offre, tra i vari supporti di aiuto, la possibilità di vedere altri esempi della frase o del testo in questione oppure la possibilità di consultare direttamente una sintesi grammaticale. Il risultato dell'utilizzo dell'uno o dell'altro supporto può portare ad un'esecuzione positiva o negativa del compito, ma a noi in questo caso interessa la scelta che compie lo studente, indicativa di preferenze diverse rispetto ai modi di elaborare le informazioni. Chi sceglie di osservare altri esempi, o comunque di continuare a lavorare entro il contesto fornito dalla frase o dal testo, sembrerebbe infatti optare per un approccio di tipo più "induttivo" (raccolgo dati e verifico le mie ipotesi, cioè inferisco, al livello di esplicitazione che ritengo per necessario e sufficiente, la regola). Chi invece sceglie una sintesi grammaticale "pronta" sembrerebbe optare per un approccio di tipo più "deduttivo" (costruisco il sistema esaminando la regola esplicita ed applicandola poi ai casi concreti)(3).

    Vorrei tuttavia fornire un esempio molto più strutturato di come le caratteristiche personali vengano messe in luce proprio nell'interazione con le nuove tecnologie. Per fare ciò, ho bisogno di fare riferimento ad una delle tante possibili descrizioni degli stili cognitivi, intendendo per "stili cognitivi" le preferenze individuali nei modi di elaborare le informazioni. In questo caso ho scelto un modello proposto da Gregorc (1982), perché si basa su variabili molto utili in una discussione sulle tecnologie.

    Il modello di Gregorc è illustrato nella Figura 1.

    ...................sequenziale

    ..........................|

    ..........................|

    astratto --------------------------- concreto

    ..........................|

    ..........................|

    ......................casuale

    Fig. 1 - Un modello di stili cognitivi (Gregorc 1982)



    L'incrocio tra i due binomi opposti (sequenziale-casuale e astratto-concreto) produce quattro possibili alternative, quattro "stili" di elaborazione delle informazioni, e dunque un'esemplificazione di diversi modi di imparare. Mentre "astratto" e "concreto" sono due termini abbastanza chiari di per sé, credo valga la pena di fare un esempio di cosa si intende per elaborazione sequenziale piuttosto che casuale.

    Qualche tempo fa, mentre preparavo questo contributo, avevo bisogno di trovare un'immagine che illustrasse il concetto di "sovraccarico cognitivo" (la situazione in cui "si va in tilt", la testa non sembra più in grado di reggere il peso dei pensieri). Avevo a disposizione una raccolta di immagini elettroniche, e, dato che io sono un tipo tendenzialmente sequenziale, cioè sistematico e lineare, ho cominciato col chiedermi: che strumenti posso utilizzare per trovare l'immagine che mi interessa? Il programma che avevo offre un elenco per categorie, così ho sfogliato questo elenco ma non ho trovato niente che facesse al caso mio. Il programma comprende però anche una specie di motore di ricerca, così mi sono chiesto: che parole-chiave posso immettere? Cognitivo era una parola ovviamente troppo astratta, così ho provato con sovraccarico, poi con carico, poi con peso, poi con testa … senza ottenere risultati. A questo punto, esaurite le mie strategie "sequenziali", ho provato a mettere in atto una strategia più casuale, più globale e intuitiva: ho fatto scorrere rapidamente sullo schermo del computer una lunga serie di fumetti e ho cercato di vedere se qualcuna di queste immagini "mi ispirava", cioè mi dava l'idea di quello che cercavo. Dopo un po', i miei occhi si sono fermati sulla figura 2.










    image





    Fig. 2 - Il "sovraccarico cognitivo"









    Mi sembrava che potesse funzionare come immagine del "sovraccarico cognitivo", e così l'ho copiata e stampata. Avevo usato una strategia casuale, non sequenziale: si noti che "casuale" non significa "caotico" o "disorganizzato" o "lasciato al puro caso" - significa piuttosto organizzato in modo non lineare, non in sequenza rigida e predeterminata. Più avanti avrò modo di chiarire ancora questo concetto.

    Consideriamo dunque la situazione in cui dobbiamo imparare un nuovo programma informatico. Supponiamo di avere a disposizione diversi supporti di apprendimento:

    ·abbiamo il manuale dell'utente, che è un volume fisico, non virtuale;

    ·poi abbiamo una guida in linea incorporata nel programma, che fornisce informazioni su aspetti e problemi specifici: per esempio tramite un sommario (cioè una specie di indice generale), oppure tramite un indice analitico, o infine tramite un "assistente" virtuale al quale possiamo rivolgere domande specifiche;

    ·abbiamo quindi una serie di esercitazioni programmate, inglobate nello stesso programma, in cui veniamo guidati passo dopo passo a capire come funziona il programma, tramite spiegazioni, esempi e simulazioni;

    ·supponiamo inoltre di avere a disposizione una persona già esperta, che ci può dare una dimostrazione concreta di come funziona il programma.

    Infine, abbiamo anche la possibilità di fare subito pratica da soli con il programma.

    Come si comporterebbe ognuno di noi in questa situazione? Proverò ora a descrivere come quattro persone potrebbero affrontare questo compito. Chiameremo queste persone Simona, Matteo, Barbara e Giorgio. Il lettore è invitato a decidere con quale (o con quali) di queste persone si potrebbe meglio identificare.

    ·Matteo comincia con le esercitazioni programmate, usa anche la guida in linea ogni volta che lo ritiene necessario, e solo dopo passa alla pratica indipendente. E' evidente che Matteo è da una parte una persona concreta, che ha bisogno di mettersi subito a confrontarsi con i problemi; ma d'altro canto è anche una persona che ha bisogno di una struttura chiara entro cui muoversi, una sequenza ordinata in cui l'informazione viene costruita passo dopo passo. Il manuale gli sembra troppo teorico ed astratto, la dimostrazione da parte della persona esperta, pur essendo concreta, non gli fornisce il necessario ordine logico e cronologico. La pratica indipendente non lo attira subito proprio perché troppo casuale e asistematica. Matteo tende insomma ad essere una persona concreta-sequenziale.

    ·Simona, al contrario, si butta subito a provare da sola; non le interessano né il manuale, né la dimostrazione, né le esercitazioni programmate. Ha bisogno di costruirsi da sé la struttura mentale dell'informazione, non sente la necessità di usare esperienze e conoscenze masticate o pre-digerite da altri, anzi le evita se appena può. Procede dunque in modo casuale, anche se questo non significa caotico: si costruisce da sola il proprio percorso, anche se, essendo una persona concreta e orientata all'azione, usa la guida in linea ogni volta che non riesce a districarsi da un problema. Simona tende dunque ad essere concreta ma casuale.

    ·Giorgio preferisce affidarsi, all'inizio, ad una dimostrazione da parte di una terza persona, e poi passare alla pratica personale. In questo modo Giorgio comincia con l'osservare altri, comincia col costruirsi un'idea, non immediatamente personale e concreta, ma piuttosto basata sull'osservazione di un procedimento tipico, che altri hanno già provato prima di lui. Solo dopo essersi fatta un'idea di questo tipo Giorgio passa alla pratica. Non lo attirano le esercitazioni programmate perché, essendo molto strutturate, le sente rigide, mentre consulta il manuale quando necessario. Giorgio tende insomma ad essere una persona astratta-casuale.

    ·Barbara, infine, sembra preferire un approccio molto ordinato e sistematico. Non disdegna il manuale, anche come punto di partenza, perché ha bisogno di una struttura chiara e organizzata, che passo dopo passo le permetta di costruirsi gradualmente un'idea precisa del programma. Anche le esercitazioni programmate, ovviamente, la attirano, proprio per lo stesso motivo, mentre accetta con una certa fatica la dimostrazione da parte di un altro. Quando si sente in grado di controllare la struttura, Barbara passa alla pratica personale. Usa la guida in linea, ma non dimentica mai il manuale, dove sa di poter trovare, non solo le risposte che le servono in un certo momento, ma anche il contesto generale entro cui quelle risposte vanno inserite. Le interessa non solo il "come" ma anche il "perché". Barbara tende dunque ad essere astratta e sequenziale (4).

    Con questo esempio ho voluto dimostrare che l'uso delle nuove tecnologie non è neutro o indifferenziato, ma va riferito alle caratteristiche individuali delle persone. In altre parole, non ci basta liquidare il discorso sui vantaggi delle nuove tecnologie dicendo semplicemente che con la varietà, la flessibilità e l'interattività che offrono possono soddisfare tanti stili di apprendimento diversi. Questo è solo un lato della questione, anche se non è certamente poco! Ma fermarsi qui significherebbe solo riconoscere che le tecnologie adattano i compiti agli studenti, permettono a ciascuno di sfruttare i propri punti di forza. Notate che in questo caso sottolineiamo ancora una volta la flessibilità delle tecnologie, non dello studente.

    A noi interessa invece anche l'altro aspetto della questione, e cioè come aumentare la flessibilità dello studente nei confronti dei compiti. Allora la domanda diventa: come le tecnologie possono aiutare gli studenti ad adattarsi ai compiti, e quindi ad affrontare i loro punti di debolezza? Quali strategie è necessario che gli studenti sviluppino per migliorare la loro flessibilità, cioè la loro capacità di far fronte a compiti sempre più complessi e multiformi, attraverso la mediazione delle tecnologie?



    Vecchie e nuove strategie

    Stiamo così arrivando al mio secondo tema, e cioè al tema delle strategie, strategie vecchie e strategie nuove davanti al computer. Vorrei partire da una situazione e da un compito tipico: la navigazione negli ipertesti - ipertesti nell'accezione più ampia del termine, quindi dalla pagina con pochi collegamenti fino ad arrivare all'iper-iper-iper-testo, la rete di Internet. La metafora della "navigazione" in un ipertesto è ormai abusata, ma lo è perché riflette molto bene le caratteristiche di questa situazione: per esempio, il bisogno di sapersi orientare, di saper leggere le "mappe" dei siti, il bisogno di sapersi tenere a galla, pena il pericolo di affogare. "Sink or swim", dicono gli inglesi: affonda o nuota.

    Siamo tutti consapevoli del pericolo di perdersi in un ipertesto, di non sapere più dove si è, da dove si è venuti. e dove si sta andando. Da un lato, possiamo dire che la complessità di un ipertesto riflette la complessità della realtà e della conoscenza della realtà - in effetti un ipertesto è un piccolo o grande mondo. Possiamo anche dire che forse questo modo di rappresentare la conoscenza si avvicina molto allo stesso modo in cui la conoscenza si struttura nella nostra mente - non per segmenti lineari indipendenti, messi in sequenza, ma piuttosto per nodi e per collegamenti che si evolvono in continuazione ristrutturando l'intero sistema delle nostre conoscenze.

    D'altra parte, però, il discorso che abbiamo appena fatto sugli stili di apprendimento ci ricorda che gli individui sono diversi anche nel modo di affrontare e condurre questa navigazione. Dire cioè che la navigazione in un ipertesto riflette tout court il modo naturale di imparare della nostra mente è a mio parere limitativo, perché, di nuovo, noi siamo diversi nella misura in cui amiamo, tolleriamo o aborriamo la struttura e il flusso libero, la sequenzialità e la simultaneità, il concreto e l'astratto, l'analisi e la globalità, la sistematicità e l'intuizione, la riflessione e l'impulsività, la possibilità di prendere decisioni o di farci guidare (5).

    Prendiamo ancora una volta in esame le diverse reazioni di due persone alla navigazione in un ipertesto e vediamo di quali strategie ciascuno di loro potrebbe aver bisogno.

    Ricordate Simona, la persona molto concreta che si butta subito a provare e che ha bisogno di costruirsi da sola una sua struttura mentale, non in modo sequenziale e sistematico, ma piuttosto in modo casuale e intuitivo? Potremmo dire che Simona troverà pane per i suoi denti navigando in un ipertesto: le scelte e le alternative continue e simultanee la stimolano, e possono permetterle di costruirsi il suo personale percorso. Ma quello di cui Simona potrà avere bisogno saranno delle strategie che le permettano di controllare comunque il flusso dei collegamenti, delle strategie che la aiutino a tenere sotto controllo l'abbondanza, anzi, la sovrabbondanza delle informazioni, che la aiutino a selezionare i percorsi e a trasformare tanti brandelli di informazioni in una conoscenza che sia realmente utilizzabile.

    E ricordate invece Barbara, che ha bisogno subito di una struttura chiara, ordinata, lineare e sequenziale in cui inserirsi, passo dopo passo? Barbara potrebbe essere frastornata dalla molteplicità e dalla simultaneità delle proposte e delle alternative di un ipertesto. La sua tendenza ad essere sistematica e riflessiva potrebbe portarla magari a trasformare ogni collegamento in un'occasione di approfondimento, perdendo di vista la globalità dell'intero processo, e quindi il fatto che ogni collegamento non è fine a se stesso, ma contribuisce all'esplorazione dell'area complessiva. Da un lato, dunque, Barbara potrebbe aver bisogno di essere incoraggiata a fare più scelte, a deviare da un percorso esclusivamente lineare; ma dall'altro, potrebbe aver bisogno di supporti che le permettano comunque di sentirsi sicura, realizzando man mano quella struttura di cui lei, al contrario di Simona, sente la necessità.

    Simona e Barbara sono esempi concreti di due modi alternativi di "navigare", di due stili di apprendimento diversi e di due diverse strategie: da una parte, un modo di navigare "strutturato, lineare e sequenziale", in cui la ricerca delle informazioni viene condotta secondo criteri rigorosi: prima definisco gli scopi e l'oggetto della mia ricerca, poi formulo delle domande opportune, quindi stabilisco dei criteri di esplorazione, e così via. Dall'altra parte, un modo di navigare diciamo meno strutturato, più casuale e intuitivo, in cui mi lascio guidare dai collegamenti che man mano si presentano e magari arrivo a scoprire, anche per caso, idee e relazioni nuove, a cui non avevo nemmeno pensato. Sono due modi diversi, quasi alternativi, di procedere, e io credo che siano entrambi utili, e vadano usati in parallelo, con il solo obbligo di sapere sempre, in ogni momento, dove si è, come ci si è arrivati e cosa si sta facendo (6).

    Ma l'uso delle nuove tecnologie ci obbliga anche a riconsiderare globalmente il discorso sulle strategie, in due sensi fondamentali. In primo luogo, nel senso del rapporto tra strategie cognitive, cioè di elaborazione delle informazioni, e strategie metacognitive, cioè di pianificazione, controllo e valutazione dei propri processi e dei propri prodotti. In secondo luogo, nel senso del significato stesso delle metacognizione, nelle due accezioni fondamentali di questa parola: la conoscenza dei propri processi di apprendimento, e il risvolto più operativo, cioè il controllo consapevole e critico delle proprie operazioni mentali, che comprendono anche i propri processi di interazione con le tecnologie.

    Se prendiamo ancora una volta in esame la navigazione, scopriamo subito che essa implica una stretta integrazione tra strategie cognitive di ricerca di informazioni, per esempio strategie di lettura globale e selettiva (i classici "skimming" e "scanning"), e strategie metacognitive, di giudizio e interpretazione critica delle informazioni stesse. La classica distinzione, a cui ho appena accennato, che si fa spesso all'interno delle strategie metacognitive, tra pianificazione, controllo e valutazione, sembra quasi offuscarsi. Pianificazione e controllo, ad esempio, tendono a fondersi, sia durante la ricerca "off-line", asincrona, non in linea (ad esempio, consultando un ipertesto su un CD-Rom), sia, e ancora di più, durante la ricerca "on-line", sincrona, in linea, cioè quando si è connessi in rete. Anche solo decidere cosa leggere o cosa guardare o cosa ascoltare richiede molte strategie abbastanza sofisticate. Se vado in biblioteca e prendo un libro, la mia scelta è già condizionata dal fatto che il libro è presente fisicamente in biblioteca, il che in un certo senso è una garanzia. Ma trovare una risorsa, particolarmente in rete, comporta già di per sé, contemporaneamente, strategie di ricerca e strategie di valutazione in tempo reale (e anzi con una certa urgenza perché i collegamenti costano). Devo infatti saper valutare sia se la fonte è valida, attendibile e accurata, sia se la risorsa è interessante e adeguata per i miei scopi particolari. In tempo reale devo decidere, per esempio, se continuare a fruire della risorsa, se tornare indietro, se andare avanti, attraverso un nuovo collegamento, verso un nuovo nodo di risorse, o magari se smettere di navigare e tornare in biblioteca. Questo significa che, accanto alle strategie chiamiamole tradizionali, di decodificazione e di comprensione dei testi, occorre sviluppare strategie simultanee di esplorazione e di interpretazione critica delle risorse (Pool 1997, Warschauer 1998, Warschauer e Healey 1998).

    C'è poi un'ulteriore complicazione: i generi di testi disponibili in rete, come sappiamo, non sono assimilabili in modo meccanico alle tipologie testuali a cui siamo abituati, anche solo per la multi- o iper-medialità che li caratterizza, e quindi per le relazioni che si instaurano tra il verbale e il non-verbale. Insomma, per navigare tra i testi della rete occorre sviluppare anche la conoscenza di nuove convenzioni retoriche, cioè di nuovi tipi di organizzazione testuale (Warschauer 1998, Warschauer and Healey 1998).



    La questione del controllo

    Dunque l'interazione con le nuove tecnologie comporta la necessità di affinare e sviluppare delle strategie di controllo e di monitoraggio ricche e articolate. Ma controllare e monitorare, lo sappiamo bene, costa energie, costa fatica: se devo usare molte energie mentali per tenere sotto controllo quello che faccio, avrò meno energie per elaborare i contenuti di quello che sto studiando. In altre parole, corro il rischio di arrivare presto e spesso ad un "sovraccarico cognitivo" (Brickell 1993; Gordon 1996). Questo sovraccarico cognitivo è ulteriormente aumentato, paradossalmente, proprio dalle maggiori libertà e possibilità di scelta e di navigazione offerta dagli ipertesti, rispetto ai libri tradizionali.

    Se il contenuto da imparare è semplice, la capacità della memoria a breve termine può essere sufficiente; ma più complesso è il contenuto e più ricche sono le forme in cui viene presentato (cioè più articolate sono le rappresentazioni mentali dello stesso concetto che vengono stimolate), più si corre il rischio di non avere abbastanza spazio nella memoria a breve termine per poter elaborare le informazioni e trasmetterle nella memoria a medio o lungo termine (Wilkinson et al. 1996).

    Abbiamo perciò bisogno di sistemi e di programmi che assicurino la più alta trasparenza e accessibilità dell'informazione, e un'assistenza continua, flessibile e articolata durante l'elaborazione delle informazioni.

    Ma c'è un aspetto anche più intrigante, anzi, per me inquietante, di questa problematica: la capacità, cioè, delle nuove tecnologie di porsi come interlocutore metacognitivo rispetto all'utente. Una delle sfide degli sviluppatori di programmi è infatti quella di spingere sempre più avanti i limiti dei cosiddetti "sistemi intelligenti", fino al punto di anticipare o sostituire almeno in parte il lavoro metacognitivo dell'utente. E infatti le nuove tecnologie sembrano evolversi nel senso di proporre la gestione, sia pure magari parziale e interattiva, delle operazioni metacognitive dell'utente. Non a caso si parla di "cibernetica metacognitiva" - lo studio di come la macchina possa assistere l'utente nel suo processo decisionale e gestionale.

    Vorrei fare un paio di esempi. Al momento sappiamo che, nel campo dell'apprendimento linguistico, il feedback che i programmi forniscono allo studente è di tipo prevalentemente lessicale o grammaticale - in altre parole, i programmi sono per il momento in grado di darmi alcune informazioni di ritorno sull'accuratezza di ciò che dico o scrivo, ma pochissimo sull'appropriatezza. Proprio per questo uno degli sforzi più avanzati della ricerca consiste nel rendere i programmi sensibili alla competenza non solo linguistica, ma anche pragmatica e sociolinguistica espressa dallo studente - si cerca cioè di renderli capaci di contestualizzare e interpretare in modo flessibile le parole dello studente. Si cerca cioè di dotare questi sistemi di strategie sociolinguistiche (Oxford et al. 1997).

    Si stanno dunque prefigurando sistemi che siano in grado di diagnosticare le preferenze individuali per adattare i programmi agli individui. Questi sistemi potrebbero decidere essi stessi quale opzione scegliere tra una gamma di alternative disponibili: per esempio, potrebbero decidere di ripetere delle informazioni o di parafrasare, di presentare le informazioni più lentamente, di correggere direttamente lo studente o di dirigerlo verso spiegazioni e materiali di riferimento in background. Insomma, in generale la tendenza sembrerebbe essere quella di creare sistemi abbastanza intelligenti da capire il modello di studente che si viene delineando durante l'interazione con il computer. Man mano che il sistema incamera informazioni sul tipo di stili ed esigenze che lo studente esprime, il sistema stesso si adatta in modo flessibile proponendo strategie alternative diverse (7).

    Si potrà facilmente obiettare che si tratta di scenari futuribili: quando mai una macchina riuscirà a capire o addirittura a produrre il nostro linguaggio, il linguaggio naturale? Probabilmente sono scenari futuribili (anche se ormai siamo abituati ad aspettarci l'incredibile nel giro di pochi anni o di pochi mesi); tuttavia, a noi credo che interessino soprattutto i dilemmi pedagogici che ci creano questi scenari - e non sono dilemmi di poco conto. Proviamo per esempio a porci queste due domande:

    ·prima domanda: è il sistema o è lo studente che deve sviluppare strategie? Fino a che punto è il sistema che deve prendere decisioni, oltre a tutto in background, cioè in modo invisibile, non consapevole da parte dell'utente?

    ·seconda domanda: se il computer si fa carico di assistere l'utente nella pianificazione, controllo e valutazione delle sue stesse operazioni, che cosa comporta questo? Che, paradossalmente, quando interagisco con un computer non devo più pensare perché tutti i miei problemi vengono risolti prima ancora che arrivino alla mia consapevolezza? Saremmo all'opposto del ragazzino che dice: "Mi piace il computer perché non mi interrompe mentre sto pensando"! E saremmo invece al punto in cui, come è stato detto, l'uso del computer diventa "un modo molto attivo di essere passivi"! (Davies et al. 1995)

    In realtà, io penso che ciò che possiamo e dobbiamo pretendere dalle nuove tecnologie oggi, alle soglie del nuovo millennio, è che siano abbastanza intelligenti da fornire all'utente soprattutto una guida e un feedback appropriato: per esempio, fornendo non solo informazioni isolate, ma strumenti per strutturare e imporre la propria organizzazione alle informazioni; non solo una risposta tipo "giusto, bravo" o "sbagliato, riprova", ma anche un'indicazione del perché la risposta è giusta o sbagliata; non solo una valutazione sommativa della prestazione dello studente, ma anche una valutazione che sia in qualche modo formativa, cioè accompagnata dalla proposta (attenzione, proposta, non obbligo) di ulteriori esercitazioni, di recupero, rinforzo o sviluppo. Insomma, potremmo dire con una formula, una libertà guidata, in cui il computer offre suggerimenti e alternative, ma è lo studente che fa le sue scelte e che riflette sulle conseguenze delle sue scelte:

    "L'opinione generale è che i discenti, specialmente se adulti, si sentono meglio quando hanno una sensazione di controllo sul programma. I programmi più "dittatoriali" sono quelli che non lasciano uscire il discente quando lui o lei è pronto a farlo. I [programmi] più flessibili danno al discente la scelta di cosa fare, quando farlo, e per quanto tempo. Una libertà guidata sarebbe una caratteristica dei [programmi] CALL (8) intelligenti, in cui il programma darebbe suggerimenti, ma il discente farebbe le scelte" (Warschauer 1998) (9) (10).



    Conclusione: Strategie per una comunicazione reale o virtuale?

    Vorrei avviarmi alla conclusione con un'ultima considerazione su come sta cambiando l'uso delle strategie. Per noi insegnanti di lingua, si pone un problema molto intrigante: l'intermediazione della macchina cambia la qualità della comunicazione e delle relative strategie comunicative? Non mi sto riferendo qui alla comunicazione tra gruppi di studenti o tra studenti e insegnanti davanti ad un computer, ma piuttosto alla comunicazione che si realizza in rete, sia attraverso la posta elettronica e altri sistemi di scambio di messaggi, sia tramite la partecipazione, per esempio, a gruppi di discussione con scambi immediati di domande e risposte, ma comunque scritte (non sto pensando quindi alle audio o videoconferenze).

    Queste nuove forme di conversazione e discussione stanno rapidamente trasformando i contesti entro cui si attivano le strategie di comunicazione. Consideriamo questi semplici fatti:

    ·l'abilità della scrittura sta vivendo una nuova stagione. Ma si tratta di generi testuali molto diversi dal passato - pensiamo ai messaggi di posta elettronica o ai messaggi lasciati sulle "bacheche" dei gruppi di discussione;

    ·il fatto di avere tempo per scrivere i propri interventi lascia aperta la possibilità di elaborare la lingua in modi più complessi dal punto di vista sintattico e più articolati dal punto di vista lessicale. Questo potrebbe fornire opportunità di aumentare anche la correttezza oltre che la scioltezza;

    ·questa maggiore elaborazione significa che è possibile modificare e correggere i propri interventi più e meglio di quanto non si possa fare in una conversazione o discussione faccia a faccia. Insomma, sembrerebbe che questi tipi di comunicazione in rete possano aumentare le possibilità di "notare" le differenze, cioè di cogliere i divari tra ciò che si vorrebbe dire e ciò che si è realmente in grado di dire;

    ·per molti studenti, questo tipo di comunicazione è più rassicurante della comunicazione faccia a faccia, e può quindi indurli a correre più rischi, a "lanciarsi" di più, a produrre di più, e quindi ad avere più opportunità di verificare ipotesi sulla lingua che stanno imparando;

    ·infine, la negoziazione e la partecipazione che si verificano durante questi tipi di comunicazione sono più bilanciati rispetto all'interazione faccia a faccia: tutti possono parlare, o meglio scrivere, contemporaneamente e al proprio ritmo, senza necessità di lottare per avere il proprio turno di parola. In questo modo tende ad attenuarsi la posizione dominante che possono assumere l'insegnante o anche certi studenti più estroversi (Pellettieri 1996, Warschauer 1996).

    Proprio quest'ultima osservazione mi induce a proporre un elemento finale di riflessione: questa comunicazione in rete attiva proprio le stesse strategie della comunicazione orale faccia a faccia? O piuttosto si tratta di tipi di comunicazione comunque diversi, che implicano strategie qualitativamente diverse? Certo, se non devo lottare per prendere e mantenere il mio turno di parola, potrò elaborare con più calma i miei interventi, ma non svilupperò le tattiche che mi permettono, momento per momento, di negoziare continuamente la mia partecipazione. E se non dovrò negoziare in tempo reale con interlocutori fisicamente presenti davanti a me, avrò, di nuovo, più tempo per elaborare ciò che voglio dire, ma non avrò a disposizione tutti i segnali paralinguistici ed extralinguistici, come gesti, espressioni, intonazioni, che rendono la conversazione così complicata ma anche così ricca. Insomma, starò facendo un'esperienza di dialogo interattivo o piuttosto di una serie di monologhi asociali? (Moran 1990)

    In definitiva, io credo che dobbiamo confrontarci con differenti strategie di comunicazione che rispondono a contesti altrettanto differenti: è, se vogliamo, ancora una volta la contrapposizione tra il reale e il virtuale, o meglio, tra diversi livelli di realtà e di virtualità. Non so se e quanto la comunicazione in rete sia assimilabile alla comunicazione faccia a faccia. Dobbiamo naturalmente lavorare perché il virtuale non rimanga l'unica, la sola possibilità - in altre parole, dobbiamo lavorare perché la comunicazione tramite le nuove tecnologie non si esaurisca in sé, ma arricchisca e migliori tutte le altre forme di comunicazione; perché la comunicazione tramite le nuove tecnologie continui a produrre esperienze di incontro e di interazione concrete ed attive.

    Altrimenti, potremmo finire come nel caso descritto da questo limerick (11):



    Word has come down from the dean

    That by aid of the computing machine

    Young Oedipus Rex

    Could have learned about sex

    Without ever touching the Queen.



    Lo traduco in modo un po' libero e approssimativo:



    Si è saputo da una fonte genuina

    Che con l'aiuto di una macchina carina

    Il giovane re Edipo stesso

    Avrebbe potuto istruirsi sul sesso

    Senza mai toccare la regina.

    Non vorremmo certo che questa fosse la nostra fine …



    Riferimenti bibliografici

    Ayersman D.J. "Reviewing the Hypermedia-Based Learning Research".Journal of Research on Computing in Education. Special issue on "Assessing the Impact of Computer-Based Learning", 28 (4), 1996.

    Ayersman D.J., von Minden A. "Individual Differences, Instruction and Computers: A Review of the Literature". Computers in Human Behavior, 11 (3-4), 1995.

    Ayersman D.J., Reed W.M. "The Effects of Learning Styles, Programming and Gender on Computer Anxiety". Journal of Research on Computing in Education, 28 (2), 1995-96.

    Brickell G. "Navigation and Learning Style".Australian Journal of Educational Technology, 9(2), 1993.

    Cameron D., Treagust D. Navigation Performance with Interactive Media: Impact of Learning Characteristics. Curtin: University of Technology, 1995.

    Chapelle C. A. "Validity Issues in Computer-Assisted Strategy Assessment for Language Learners". Applied Language Learning, Vol. 7, Nos. 1 & 2, 1996.


    Davies G. "Lessons from the Past, Lessons for the Future: 20 Years of CALL". In Korsvold A.K., Rueschoff B. (eds.) New Technologies in Language Learning and Teaching. Strasbourg: Council of Europe Publishing, 1997.

    Davies M.L., Crowther D.E.A. "The Benefits of Using Multimedia in Higher Education: Myths and Realities". Active Learning, 3, 1995.

    Eisenberg M.B., Johnson D. "Computer Skills for Information Problem-Solving: Learning and Teaching Technology in Context". EDO-IR, 96-04, 1996.

    Gordon J. "Tracks for Learning: Metacognition and Learning Technologies". Australian Journal of Educational Technology, 12(1), 1996.

    Gregorc A. "Learning Style/Brain Research: Harbinger of an Emerging Psychology". In Keefe J. (ed.) Student Learning Styles and Brain Behavior. National Association of Secondary Schools Principals, 1982.

    Hewer S. "Language Learning Strategies, Software Design and Internet Use". Research Forum "Strategies in Language Learning". London: CILT, 1997.

    Istance H., Hand, C. "Individual Differences in Navigating Virtual Environments: Navigation Aids in Perspective" Proceedings of First International Workshop on Usability Evaluation for Virtual Environments (UEVE'98). Leicester: De Montfort University, 1998.


    Kosakowski J. The Benefits of Information Technology. ERIC Digest EDO-IR-98-04, 1998.

    Leaver B.L. Teaching the Whole Class. Thousand Oaks: Corwin Press, 1997.

    Lumb J. Thinking Styles and Accessing Information on the World Wide Web. Bangor: University College of North Wales, 1994.

    Moran, C. "The computer-writing room: authority and control". Computers and Composition, 7 (2), 1990.

    Moro B. "A Pedagogy of the Hypermedia". In Korsvold A.K., Rueschoff B. (eds.) New Technologies in Language Learning and Teaching. Strasbourg: Council of Europe Publishing, 1997.

    Owston, R.D. "The World Wide Web: A technology to enhance teaching and learning?" Educational Researcher, 24(3), 1997.

    Oxford R.L., Rivera-Castillo Y., Feyten C., Nutta J. Computers and More:
    Creative Uses of Technology for Learning a Second or Foreign Language. Lyon: INSA, 1997.

    Patrikis, P. C. "The evolution of Computer Technology". In R. Debski, J. Gassin, & M. Smith (Eds.), Language Learning through Social Computing. Parkville: Applied Linguistics Association of Australia, 1997.

    Pellettieri, J. Network-based computer interaction and the negotiation of meaning in the virtual foreign language classroom. Unpublished manuscript. Davis: University of California, 1996.

    Pellone G. "Learning Theories and Computers in TAFE Education".Australian Journal of Educational Technology, 7(1), 1991.

    Pool C.R. "A New Digital Literacy: A Conversation with Paul Gilster". Educational Leadership, Vol. 55, No. 3, 1997.

    Raschio, R.A. "The role of cognitive style in improving computer-assisted language learning". Hispania, 73, 1990.

    Relan A. "Motivational Strategies in Computer-Based Instruction: Some Lessons from Theories and Models of Motivation". Proceedings of Selected Research and Development Presentations at the Convention of the Association for Educational Communications and Tehcnology, 1992.

    Rézeau J. "The Learner, the Teacher and the Machine: Golden Triangle or Bermuda Triangle?" Eurocall 1997. Dublin: City University, 1997.

    Warschauer M. Interaction, Negotiation, and Computer-Mediated Learning. Honolulu: University of Hawai'i, 1996.

    Warschauer M. "Motivational Aspects of Using Computers for Writing and Communication" in Warschauer M. (ed.) Telecollaboration in Foreign Language Learning: Proceedings of the Hawai‘i symposium. (Technical Report No.12). Honolulu: University of Hawai‘i, 1996.

    Warschauer M. "CALL vs. Electronic Literacy: Reconceiving Technology in the Language Classroom". Research Forum "Information Technology: the Pedagogical Implications for Language Teaching and Learning". London: CILT, 1997.

    Warschauer M. New Media, New Literacies: Challenges for the Next Century. Jerusalem: Plenary address at the annual conference of the English Teachers' Association of Israel, 1998.

    Warschauer M., Healey D. "Computers and Language Learning: An overview". Language Teaching, 31, 1998.

    Wilkinson S., Crerar A., Falchikov, N. "Book versus Hypertext: Exploring the Association between Usability and Cognitive Style". The Student Experience in the 1990s Conference. Craighouse: Napier University, 1996.


    Wilkinson S., Crerar A., Falchikov N. "Media, Individual Differences and the Learning Process". Poster presented at the Human-Computer Interaction ’97 Conference. Bristol, 1997.

    Williams M.D. "A Comprehensive Review of Learner-Control: The Role of Learner Characteristics". Proceedings of Selected Research and Development Presentations at the Convention of the Association for Educational Communications and Technology, 1993.



    Siti Internet

    Active Learning: http://www.cti.ac.uk/publ/actlea/index.html#back issues

    Australian Journal of Educational Technology: http://cleo.murdoch.edu.au/ajet/ajet.html

    CALL Electronic Journals on-line: http://www.lerc.ritsumei.ac.jp/callej/index.html

    CALL Journals and Newletters: http://www.hull.ac.uk/cti/resources/reading/journals.htm

    Revue Francophone ALSIC: http://alsic.univ-fcomte.fr/



    Note

    (1) Per rassegne dettagliate sui vantaggi e i benefici dell'uso delle nuove tecnologie si vedano ad esempio Relan 1992, Ayersman 1996, Owston 1997, Kosakowski 1998, Warschauer 1998; su uso delle tecnologie e teorie dell'apprendimento, Pellone 1991; per una visione "critica" dei benefici delle tecnologie, Davies e Crowther 1995. Torna al testo

    (2) Nella letteratura sull'argomento ho notato che quando si tratta di elencare i benefici delle nuove tecnologie, sembra quasi, per una volta, più facile parlare in termini di processi (cioè di motivazioni, convinzioni, atteggiamenti) che non di prodotti in termini di conoscenze e competenze acquisite. Sui vari tipi di ricerca, centrati, ad esempio, sugli atteggiamenti piuttosto che sulle prestazioni, si veda Ayersman 1996. Torna al testo

    (3) Raschio (1990), nel riportare una ricerca condotta in questi termini, collega la dipendenza dal campo con il primo approccio e l'indipendenza dal campo con il secondo approccio, pur evidenziando la stessa facilità con cui entrambi i tipi di studenti sembravano utilizzare il programma. Torna al testo

    4) Gli esempi a cui mi sono ispirato compaiono in Leaver 1997. Torna al testo

    (5) Sugli "stili di pensiero" e sul loro uso nella "navigazione" in Internet si veda in modo specifico Lumb 1994. Torna al testo

    (6) Sull'uso complementare di questi diversi approcci si veda Moro 1997. Torna al testo

    (7) Per una discussione di questi sviluppi si veda Pellone 1991; sui "sistemi tutoriali intelligenti" si veda Ayersman 1996. Torna al testo

    (8) Computer-Assisted Language Learning. Torna al testo

    (9) Traduzione dell'autore di questo contributo. Torna al testo

    (10) Su questa problematica si vedano anche Williams 1993, Gordon 1996, Davies 1997. Torna al testo

    (11) Citato in Patrikis 1997

    “LA STRATEGIA DI SHERLOCK HOLMES”

    ATTIVITA’ INTRODUTTIVA – FASE 5

    Io penso che questa strategia – un esempio dell’uso di processi inferenziali/deduttivi – sia di grande importanza nell’apprendimento linguistico (ed anche nell’apprendimento in generale!) perché …

    · incoraggia un approccio attivo alla lingua – dall’esigenza basilare di dedurre il significato di singole parole al bisogno più ampio di comprendere ed interpretare frasi, paragrafi, interi testi

    · promuove, da parte degli studenti, l’uso delle loro conoscenze precedenti (sia linguistiche che non-linguistiche)

    · focalizza la loro attenzione sia sulle singole parole che su contesti più ampi

    · dimostra che si può fare molto anche con conoscenze limitate – purché si sia disposti a tollerare l’ambiguità e a correre rischi ragionevoli

    · mette in evidenza la differenza tra il tirare ad indovinare “alla cieca” e il fare delle previsioni ragionate

    Spero di averti dato un’idea di ciò che intendo per “formazione alle strategie”:

    · dare un nome “memorabile” alla strategia (ad esempio, “la strategia di Sherlock Holmes”)

    ·sperimentare l’uso della strategia

    · “modellare” la strategia, fornendo delle fasi di lavoro da svolgere in sequenza per imparare ad usarla

    · far emergere come funziona la strategia, i fondamenti logici per il suo utilizzo (ad esempio, facendo vedere che tipi di criteri o conoscenze precedenti possiamo usare per fare previsioni o ipotesi)

    · discutere come si può utilizzare la strategia in contesti diversi, promuovendo così il suo trasferimento ad altre situazioni

    · verbalizzare e socializzare idee e reazioni con altri durante tutto il percorso di “formazione alle strategie”

    Se desideri dare un’occhiata ad un elenco di criteri più dettagliati per affrontare parole e testi, clicca QUI – e …

    guarda, se vuoi, altri esempi della “strategia di Sherlock Holmes” nelle mie

    Pagine attive!

    http://www.learningpaths.org/Articoli/i_miei_articoli.html


    CONVINZIONI E ATTEGGIAMENTI A SCUOLA: ALLA SCOPERTA DEL "CURRICULUM NASCOSTO"

    http://www.learningpaths.org/Articoli/convinzioni.htm

    DOCUMENTARE E PERSONALIZZARE IL CURRICOLO:

    VERSO UN PORTFOLIO DI PROCESSI E DI COMPETENZE

    relazione tenuta al Convegno Nazionale LEND (Lingua e Nuova Didattica), Roma, Università La Sapienza, 15-17 Febbraio 2001

    relazione RelaLuciano Mariani



    Relazione tenuta al Convegno LEND (Lingua e Nuova Didattica) "Crescere nell'Europa delle lingue", Roma, Università La Sapienza, 15-17 febbraio 2001
    http://www.learningpaths.org/Articoli/competenzeprocessi.htm

    TRA PORTFOLIO E CERTIFICAZIONE: DOCUMENTARE E VALUTARE COMPETENZE E PROCESSI NEL CURRICOLO

    Lingua e Nuova Didattica, Anno XXXIII, No. 2, Aprile 2004
    Luciano Mariani



    Fatte salve le congiunzioni e le preposizioni, il titolo di questo mio contributo si compone esclusivamente di parole-chiave: tra queste vorrei istituire una rete di relazioni, in modo da offrire alcune tracce di riflessione e discussione che aiutino a rispondere a domande come



    § che cosa si può/si vuole/si deve documentare e valutare in un curricolo?

    § che cosa implicano i concetti di competenza e di processo? Come si raccordano tra loro?

    § in quali diversi modi strumenti come il portfolio e la certificazione possono contribuire a soddisfare esigenze di documentazione e valutazione?

    http://www.learningpaths.org/Articoli/portfcertif.htm

    Autonomia, motivazione e diversita'

    Appunti in margine ad un corso di formazione

    http://www.learningpaths.org/Articoli/automotivdivers.htm

    C'è un filo conduttore tra queste tre parole - un filo che vorrei cercare di fare emergere in questo mio breve contributo, e un filo, anche, che può aiutarci a ridefinire e a riqualificare i nostri interventi di formazione.

    Di autonomia si parla spesso di questi tempi. Forse il dibattito sull'autonomia scolastica, dunque la valenza diciamo più istituzionale del concetto, ha messo un po' in ombra l'interesse che da anni ormai dimostra la ricerca pedagogica, e ancora di più la prassi didattica di molti insegnanti, per l'autonomia dello studente. Eppure a mio parere non è un caso che di autonomia si parli così spesso in contesti anche molto diversi: evidentemente si tratta di un concetto, di un valore, di un'idea che in qualche modo viene sentita come importante nella situazione che viviamo oggi, dentro e fuori della scuola.



    Vorrei a questo proposito citare una mia esperienza personale. Molti anni fa, spronato innanzitutto dalle contraddizioni del mio lavoro quotidiano come insegnante, avevo cominciato ad occuparmi di abilità di studio, di metodo di studio, di strategie di apprendimento: di fronte agli insuccessi scolastici dei miei alunni mi era sembrato indispensabile spostare un po' il fuoco della mia attenzione dai prodotti, da quello che chiedevo loro di sapere e di saper fare, ai processi, cioè ai modi in cui loro sembravano imparare - o spesso, non imparare. Mi sembrava che non si potesse dare per scontato che sapessero, per dono di natura, prendere appunti, consultare un dizionario, tenere in ordine un quaderno. Ricordo però le resistenze che questo approccio suscitava in molti colleghi.



    Ma il tempo passa, e col tempo è cresciuta la consapevolezza che la "questione del metodo di studio", come spesso viene chiamata tutta questa complessa problematica, è in realtà un nodo fondamentale, non solo per chi impara, ma anche per chi insegna. Soprattutto, però, si è andato chiarendo il concetto che saper studiare non è solo un insieme di tecniche o di tattiche per essere promossi o passare un esame: è di fatto un aspetto di una competenza più generale, una competenza che oggi è valutata e richiesta, non solo e non tanto come condizione del successo formativo a scuola, ma anche (e forse ben di più) come condizione di un inserimento e di un riadattamento continuo nella vita professionale e sociale.



    Si sta riconoscendo che le abilità di studio sono solo la punta dell'iceberg di una competenza che abbraccia, al di là del sapere e del saper fare, un saper essere e un saper apprendere - con una formula in voga oggi, la capacità di "imparare a imparare".



    Credo che allora sia chiaro il profilo di fondo di una persona che ha imparato a imparare: è il profilo della persona che è potenzialmente autonoma, cioè in grado, non certo di fare ciò che vuole indipendentemente dalle situazioni, ma, al contrario, di rispondere con flessibilità alle richieste e ai vincoli di contesti professionali e socio-culturali complessi e in continuo cambiamento.



    Ma è possibile insegnare ad essere autonomi? O, detto in altre parole, in quest'epoca di forti cambiamenti anche strutturali, è possibile inserire nei curricoli un forte elemento trasversale di educazione all'autonomia?



    Vorrei proporre alla riflessione solo un paio di punti che ritengo qualificanti per l'intera questione. Il primo riguarda gli studenti, il secondo riguarda gli insegnanti.



    Il primo punto è un paradosso: imparare ad essere autonomi implica sicuramente una scoperta e una valorizzazione dei propri modi di essere, pensare, agire: come si può pensare, allora ad un insegnamento, per così dire, standardizzato dell'autonomia? Evidentemente, la parola "insegnare" in un contesto come questo non può significare, o non può significare soltanto, trasmissione di conoscenze e competenze.



    Questo mi porta direttamente al mio secondo punto, cioè al possibile intervento da parte degli insegnanti. Vorrei di nuovo riportare una mia esperienza, questa volta come autore di libri di testo. Anni fa ho fatto lo sforzo di includere in un corso di lingua inglese un insegnamento esplicito di strategie di apprendimento: si trattava di una vasta gamma di strategie cognitive, come per esempio l'uso dell'inferenza o dell'associazione, e di strategie metacognitive, come ad esempio i modi concreti di pianificare, controllare e valutare il proprio lavoro, o l'uso delle risorse esterne. Queste strategie erano presentate direttamente agli studenti nel loro testo, ma erano anche messe a fuoco in modo esplicito nella relativa guida per l'insegnante. Ora, l'utilizzo del corso ha dimostrato chiaramente che non è sufficiente fornire agli studenti una serie di materiali, diciamo così, "strategici"; si è visto anche che non è nemmeno sufficiente richiamare l'attenzione degli insegnanti su questi materiali. E' necessaria una sensibilizzazione e una disponibilità degli insegnanti ad introdurre nella loro prassi didattica quotidiana un'attenzione non episodica, ma al contrario sistematica ed esplicita, per la tematica dell'imparare ad imparare, dell'imparare l'autonomia. Detto in altri termini, è necessaria una motivazione specifica da parte dell'insegnante.



    Ecco dunque riapparire il nostro filo conduttore, che dalla parola "autonomia" ci ha portato alla parola "motivazione".



    So di toccare con questa parola un coacervo di questioni delicate, e per questo vorrei limitarmi ad una semplice osservazione. Ormai sappiamo che la motivazione di un'insegnante non è più legata ai ruoli e agli status professionali e socioculturali di un tempo. Sento spesso colleghi dire che l'unico motivo di soddisfazione e di ricarica a scuola è il contatto con gli studenti, che pure, lo sappiamo bene, possono essere fonte inesauribile di tensioni e frustrazioni. Ma allora forse, se volessimo fare qualcosa per la motivazione degli insegnanti, forse potremmo ripartire proprio da lì, dal materiale umano coinvolto. Si potrebbe forse ripartire da una rivisitazione, per così dire, del ruolo che insegnante e studenti possono svolgere in quanto coinvolti insieme in un'esperienza comune. Forse può essere interessante e stimolante, una volta smessi gli abiti dell'insegnante trasmettitore di programmi e programmazioni, riscoprire se stessi come persone che imparano e contemporaneamente riscoprire gli studenti come persone che imparano anche grazie all'interazione con noi.



    Faccio subito un esempio concreto che prendo dalle attività che ho svolto negli ultimi anni come formatore. Una richiesta pressante, anche se non sempre espressa in termini espliciti, di molti colleghi è quella di come fare a gestire processi di autonomia, dall'insegnamento di abilità di studio all'attivazione di strategie di apprendimento, in presenza di gruppi numerosi come sono quasi sempre le nostre classi. Quando si comincia a lavorare in queste direzioni, ci si scontra subito con un dato di fatto inquietante: come tener conto di tanti individui diversi? Come far fronte al fatto che io insegnante sono uno e loro sono trenta, ognuno con la propria testa? Qui in gioco la terza nostra parola chiave, la "diversità".



    Questa preoccupazione, che non è solo di oggi naturalmente, da parte di molti colleghi mi ha spinto ad occuparmi in modo particolare di stili di apprendimento, delle differenze individuali nei modi di ricevere, elaborare e produrre informazioni. Non è difficile fare una mappa delle diversità, e oggi possediamo anche un bagaglio di ricerche e di strumenti operativi per rilevare queste diversità. Paradossalmente, però, la mia attenzione è stata attratta dalla relazione, che trovo assolutamente intrigante, tra stili di apprendimento e stili di insegnamento.



    Riflettendo sui miei personali modi di imparare non ho potuto fare a meno di notare subito quanto questi influissero sui miei personali modi di insegnare. Faccio un esempio. Io sono un tipo tendenzialmente analitico, sistematico e riflessivo. Ho scoperto, o forse ho riscoperto, che queste mie caratteristiche condizionano molto la scelta e la gestione dei compiti e delle attività che svolgo come insegnante e come formatore. Questo è più che naturale, ma mi sono anche reso conto che in questo modo, mentre facilito l'apprendimento delle persone più simili a me, posso magari mettere in difficoltà o addirittura ostacolare le persone che invece hanno uno stile più globale, intuitivo e impulsivo. Insomma, per quanto animato dalle migliori intenzioni, il mio stile di insegnamento può portare sia a utili integrazioni sia invece a conflitti con gli stili di apprendimento delle persone con cui lavoro.



    Ovviamente io, come molti colleghi, ho cominciato la mia carriera di insegnante riproducendo i modelli di insegnamento a cui ero stato mia volta esposto come studente; o meglio, ho ritenuto che ciò che aveva funzionato per me come studente potesse funzionare anche per le classi in cui avrei lavorato come insegnante. La mancanza di una formazione iniziale non ha certo favorito la mia consapevolezza di questo tipo di variabili.



    Ora, si potrebbe obiettare, e giustamente, che lo sviluppo dell'autonomia comprende anche la flessibilità di sapersi adattare a situazioni diverse, e quindi la flessibilità di trarre profitto da diversi stili di insegnamento. In altre parole, potremmo chiederci se debba essere l'insegnante ad adattarsi allo studente o piuttosto viceversa. Non credo però che il problema, posto in questi termini, possa avere una soluzione univoca.



    Penso piuttosto che la dinamica del processo di insegnamento/apprendimento passi anche attraverso questo tipo di incontro/scontro, e cioè un aggiustamento continuo, la ricerca di un continuo equilibrio tra adattare i compiti allo studente e far adattare lo studente ai compiti.



    La prima strada implica la necessità, da parte dell'insegnante, di assicurare varietà e flessibilità nelle sue proposte. La seconda strada implica invece uno sforzo di sviluppo di opportune strategie da parte dello studente - in altre parole, un rafforzamento della flessibilità dello studente.



    Ma tutto ciò ha senso solo se si considerano sia l'insegnante che lo studente come individui con caratteristiche loro proprie, ossia se si sottolinea la diversità dei protagonisti non tanto, o non solo, come vincolo del contesto di apprendimento, ma anche e soprattutto come risorsa.



    Ho personalmente constatato quanto la riflessione e la discussione sui propri stili e sulle proprie strategie di apprendimento e di insegnamento sia vissuto sia dagli insegnanti che dagli studenti come "scoperta" di qualcosa di nuovo, come rottura della "routine". E' un punto di partenza molto produttivo per riavviare un "circolo virtuoso", se così si può dire, di interesse, motivazione, disponibilità. Questo succede forse perchè, per una volta, le persone si sentono coinvolte innanzitutto in quanto persone con i loro potenziali individuali; perchè, una volta tanto, si sposta l'accento dai prodotti ai processi, dai ruoli standardizzati all'identità personale, dall'isolamento alla socializzazione e alla verbalizzazione; e forse anche perchè l'insegnante ritrova un ruolo di osservatore partecipe, esploratore, ricercatore, esperto, insomma, nella gestione di problemi e soluzioni.



    Se volessimo, per concludere, riannodare i fili del discorso, potremmo nuovamente mettere in relazione le tre parole chiave da cui sono partito, e cioè autonomia, motivazione e diversità.



    Penso che l'autonomia della scuola come istituzione sia l'ambiente necessario per far vivere al suo interno processi di parallela crescita in autonomia per chi ci lavora. Lavorare insieme per il successo formativo significa anche promuovere questa autonomia, ma questo non si può fare se non attraverso il riconoscimento delle diversità che stanno alla base di ogni crescita personale. Lavorare sulla diversità, di chi insegna come di chi impara, può essere uno dei canali attraverso cui recuperare la motivazione di chi vive nella scuola.









     
    .
  3. _Nicoletta
     
    .

    User deleted


    http://www.scribd.com/doc/91224/Quattro-domande-sul-blog

    conversazione con david jonassen
    http://www.scribd.com/doc/230861/Conversaz...-David-Jonassen
    qui full screen--> http://static.scribd.com/docs/5ujjf9hxdo2g...TIAL_VIEW=width
    su scribd
     
    .
  4. _Nicoletta
     
    .

    User deleted


    LAPs, Luoghi per Apprendere
    http://www.scribd.com/doc/339344/LAPs-Luoghi-per-Apprendere

    Scelte tecnologiche guidate da scelte pedagogiche
    http://www.scribd.com/doc/220421/Scelte-te...lte-pedagogiche

    è lui l'autore http://www.scribd.com/people/view/77478
     
    .
  5. _Nicoletta
     
    .

    User deleted


    http://www.scribd.com/people/view/208886-arte1misia
    la mia pagina su scribd ^^'


    ancora approccio sul moodle (non so se ho scaricato anche il pdf)
    http://www.scribd.com/doc/220424/Un-approc...ernicus-Pionier

    e podcasting e didattica universitaria
    http://www.scribd.com/doc/248163/Podcastin...a-universitaria
     
    .
  6. _Nicoletta
     
    .

    User deleted


    Apprendere (con e senza le tecnologie)
    http://oltreelearning.blogspot.com/


    Questo lo cito in bibliografia:
    Insegnare e apprendere in rete. Prospettive didattiche, Zanichelli, Bologna, 1998
    Guglielmo Trentin

    Contenuto:
    Che cosa significa insegnare usando Internet? Quali attività didattiche può progettare un insegnante che vuole comunicare e collaborare con studenti e insegnanti lontani, raggiungibili via rete? Questo libro presenta un panorama sull'uso di Internet e più in generale delle risorse telematiche a supporto della didattica e della formazione in rete. Si sofferma sulle conoscenze di base, spiegando che cosa sono le reti di computer, il World Wide Web, la posta elettronica, i motori di ricerca. Il libro è articolato in due sezioni.
    Nella prima sono affrontati, in modo semplicificato, gli aspetti tecnologici legati al funzionamento logico di una rete di computer e all'utilizzo dei servizi di comunicazione e di accesso all'informazione.
    La seconda sezione è dedicata agli usi educativi delle risorse di rete. In particolare sono esposti gli approcci metodologici alla cooperazione educativa, alternando la trattazione teorica alla descrizione di alcuni specifici progetti sperimentali.


    Indice:
    Parte I: Telematica e comunicazione in rete
    1. I possibili usi della telematica
    2. Reti e servizi telematici
    3. Accedere in rete all'informazione
    4. Organizzare la comunicazione in rete

    Parte II: Telematica, didattica e formazione
    5. I diversi usi delle reti nella didattica
    6. Telematica e cooperazione educativa
    7. Collaborare/cooperare in rete
    8. Didattica in rete: esperienze e modelli
    9. Telematica e formazione a distanza
    10. Progettare la didattica in rete
    11. Telemultimedialità e didattica

    Edited by _Nicoletta - 5/4/2008, 10:53
     
    .
  7. _Nicoletta
     
    .

    User deleted


    http://www.slideshare.net/#
    per mettere le slide
    o trovarle :P
    esempio
    http://www.slideshare.net/gmarconato/coper...asato-su-moodle

    NON solo per la tesi ma forse anche per essa:
    guida per apache
    http://www.scribd.com/doc/942090/apache



    si el
    http://www.columba.it/2007/04/20/workshop-...i-in-differita/
     
    .
  8. _Nicoletta
     
    .

    User deleted


    Master in JAVA
    http://www.tesionline.it/news/master-corso.jsp?id=658

    Epoché Service Integrator

    OBIETTIVI E FINALITA’

    Il Master risponde alle esigenze del mercato del lavoro che chiede sempre più frequentemente figure professionali con elevati livelli di specializzazione, in particolare sulle tecnologie innovative.

    Java Analyst


    Java Architect


    Java Developer


    Alla fine del Master i partecipanti saranno in grado di:


    * realizzare applicazioni Web su tecnologia J2EE, creando prodotti completi di front-end e back-end

    * sviluppare componenti portabili distribuiti su n livelli (client, web, business, EIS)

    * utilizzare metodologie di ingegneria del software

    o ideare su misura il processo per il proprio progetto

    o usare al meglio tecniche di analisi e disegno secondo lo standard UML

    * ottimizzare le potenzialità della tecnologia Java con pluralità di standard aperti ed interoperabili (XML-XSL, HTML, SQL…)

    * sfruttare le conoscenze e l’esperienza acquisita in altri contesti e domini applicativi



    DESTINATARI


    * Laureati e laureandi in discipline e materie tecniche-scientifiche

    * Occupati nel settore IT

    Prerequisiti:

    o conoscenza a livello utente di Windows 2000 e XP

    o conoscenza di almeno 1 linguaggio di programmazione (preferibilmente C o Pascal)

    o gradita ma non obbligatoria la conoscenza di concetti e terminologia generale Object Oriented, la conoscenza dei processi di produzione del software, il linguaggio C++ e la lingua inglese (livello tecnico)




    COME LO FAREMO



    Focus Teoria: lezioni frontali e esercitazioni improntate alla massima interazione con lo scopo di fornire conoscenza, suggerire valide linee guida, pilotare la scrittura di modelli, creare momenti di discussione costruttiva

    Focus Pratica: laboratorio di progettazione e sviluppo di concreti sistemi SW con lo scopo di pianificare e realizzare progetti, scegliere best practices, lavorare in team, riutilizzare modelli teorici, acquisire esperienza, sfruttare feedback

    FAD: lezioni online con simulazioni pratiche e test di verifica di apprendimento

    Newsgroup – un portale internet dove poi comunicare con il tuoi colleghi, scambiare le opinioni, dare i giudizi sui docenti e la struttura.

    Stage – (solo per neolaureati) 500 ore garantite ma facoltative di “pratica sul campo” dove potrai applicare in azienda le tue nuove competenze.



    Il NOSTRO PROGRAMMA:



    Modulo 1 - First Level


    * Java Technology Knowledge

    * Object Oriented Technology & Processes

    * Basic Java

    * HTML



    Modulo 2 – Second Level


    * A&D SW with UML 2.0

    * Advanced Java

    * QDSM

    * MySQL



    Modulo 3: Third Level


    * J2EE for Web Application

    * Javascript

    * XML-XSL


    SUBITO PER TE:


    APPLE IPOD NANO 4G E UN CORSO ON-LINE GRATUITO…




    INIZIO: MARZO 2007

    DURATA: 120 ORE DI AULA + 24 ORE DI FAD + stage di 500 ore su richiesta

    LEZIONI: 2 WEEK END al mese, sabato dalle 9.00 alle 18.00 e domenica dalle 9.00 alle 13.00

    SEDE: Milano, Via F. Russoli, 1

    COSTO: € 3.000 + IVA

    NUMERO PARTECIPANTI: Minimo 6 - massimo 12 allievi
    Per ricevere ulteriori informazioni compilate il seguente modulo
    Nome
    Cognome
    Sesso
    Anno di nascita
    Residenza
    Studi Laureato/a Laureando/a
    Corso
    altro corso:
    E-mail
    Telefono (per essere ricontattati telefonicamente)
    INFORMATIVA AI SENSI ART. 13 DEL D.LGS 196/03
    Inviandovi questo modulo da me compilato dichiaro di essere informato e di conoscere tutti i diritti in merito alla tutela dei dati personali ai sensi e per gli effetti della legge n.196/03, e pertanto vi autorizzo al trattamento, comunicazione e diffusione degli stessi, per finalità correlate alla catalogazione, elaborazione, conservazione e registrazione dei medesimi, oltre che per finalità gestionali, statistiche, commerciali, promozionali, nonché invio di informazioni tecnico-pubblicitarie.
    mmmh a me sta roba che ti regalano l'ipod per farti venire mi puzza

    Dare unìocchiata a cosa dicono per FAS
    http://www.tesionline.it/master/formazione.jsp
    i vari Bocconi, Ipsoa ecc
     
    .
  9. _Nicoletta
     
    .

    User deleted


    Abstract:
    La sigla Fad sta ad indicare tutti i sistemi di formazione a distanza. Questo tipo di formazione è venuta ad affiancarsi alla formazione di tipo tradizionale.

    L’espansione di Internet ha introdotto nuovi modelli di comunicazione, ha creato modalità d’interazione che si differenziano drasticamente dalla tradizionale comunicazione face to face. Nei contesti formativi, la Rete costituisce la più grande occasione di rilancio, sviluppo e cambiamento nell’assetto delle strutture preposte alla gestione e alla circolazione della conoscenza e del sapere.

    Mai come in questi ultimi anni, nell’attuale società complessa e in transizione, la richiesta di formazione è stata così massiccia e diversificata. L’albero del sistema formativo sta ramificando e si moltiplicano sempre più i soggetti, i contenuti ed i luoghi dell’educazione . Sistema accreditato capace di rispondere alle sfide della nuova domanda formativa legata alla prospettiva di un’educazione permanente è l’e-learning, che sta assumendo dimensioni sempre più estese in ambito mondiale. La formazione via Internet e lo studio on line, anche in Italia, sono già una realtà in diverse scuole e nelle università, ma anche nelle aziende e nella pubblica amministrazione vengono offerti al personale tecnico, agli impiegati e ai dirigenti, corsi e progetti di formazione erogati in modalità e-learning. La prima parte della presente ricerca affronta la tematica generale della formazione a distanza, con un’analisi storico-descrittiva dell’evoluzione di tale modello didattico, dall’utilizzo del servizio postale come supporto a una didattica essenzialmente “istruttiva”, alla nascita dei personal computer, dalle prime lezioni trasmesse in TV alle recenti videoconferenze e ai corsi blended e-learning, la Fad di terza generazione.
    In seguito, nella seconda parte (cap. II), l’attenzione si focalizza sull’e-learning e sul suo mondo, metodologie e scuole di pensiero, cercando di evidenziarne le caratteristiche, i punti di forza e le eventuali criticità.
    Viene poi presa in considerazione (cap. III) l’infrastruttura tecnologica necessaria per un’attività di formazione in rete, gli strumenti comunicativi sincroni e asincroni di un ambiente on-line, con esperienze riferite ad attività e-learning condotte su supporto di piattaforme tecnologiche.
    Nel quarto capitolo si cerca di fare il punto sul rapporto fra sistema universitario italiano e ICT, con l’attenzione focalizzata all’e-university, l’electronic learning nel settore universitario. Viene poi presentato un panel di portali più importanti delle università italiane. È sembrato, inoltre, opportuno fornire alcuni dati statistici relativi alla situazione attuale del mercato italiano dell’e-learning, con particolare attenzione al mondo delle università.


    Le soluzioni E-Learning nei processi di knowledge management
    L’importanza della formazione ha acquisito ormai una connotazione tale da non poter essere più tralasciata e messa in secondo piano, in quanto la nostra società ha capito quanto sia necessario il sapere e quanto sia cambiato, rispetto al passato, il modo di gestire la conoscenza.
    Storicamente, la formazione è stata prettamente una prerogativa della scuola, mentre in ambito lavorativo era particolarmente importante la pratica; quindi, era sufficiente una minima alfabetizzazione per poter assolvere alle mansioni lavorative. Ma i bisogni umani, l’evoluzione dei tempi e il conseguente sviluppo economico hanno gradualmente, ma totalmente, sconvolto il modo di intendere e di gestire il sapere, conferendogli sempre maggiore importanza ai fini dello sviluppo, perché foriero di vantaggi sempre più importanti nel corso del tempo e sempre crescenti negli ambienti di lavoro.
    Il momento cruciale dello sviluppo esponenziale è stato allorquando si è avuto l’incontro tecnologia-formazione, che ha permesso un’importante evoluzione nel modo di gestire la fenomenologia formazione attraverso il knowledge management, che ha alla base un principio fondamentale, la knowledge based economy, in cui si sviluppano i concetti di formazione, conoscenza, flessibilità; una delle armi più importanti nella corretta applicazione della gestione manageriale della conoscenza, è la FAD, che prende vita nella più alta espressione del suo significato quando, connessa alla tecnologia, la si concretizza nell’e-learning.
    Grazie all’e-learning, non solo il sapere è trattabile sempre ed ovunque, ma sono nate delle nuove figure, o meglio, professioni, che ruotano intorno al mondo della knowledge based economy.
    Apprendere a distanza attraverso il computer ed internet ha fornito una serie di vantaggi di non poco conto; le analisi condotte sul ROI, in aziende che implementano tali progetti, lo evidenziano. In effetti, è quasi come aver eliminato una voce di spesa dal bilancio; in alcune situazioni, per mancanza di fondi, molte imprese non prendevano per niente in considerazione l’aggiornamento per gli agent economici, rischiando una difficoltà di sviluppo che poteva pregiudicare la vita aziendale.
    Ovviamente, nella disamina dello studio condotto non si può parlare di formazione a distanza che si sostituisce alla formazione d’aula; sarebbe un errore grossolano, dovuto all’eccessivo entusiasmo, che potrebbe portare a far divenire la soluzione e-learning come un fenomeno passeggero, in quanto di facile fallimento. Vi sono determinati ambiti lavorativi in cui è sufficiente sfruttare l’e-learning come unico “modus formandi”, ma nella maggior parte dei casi, vi è la necessità di dovere ricorrere ad una soluzione mediata, un “mix”, tra formazione a distanza attraverso e-learning e formazione d’aula (blended solution).
    Dal punto di vista pratico, l’analisi di un caso di studio particolare, quello di Studio Staff s.r.l. Napoli, ha rimarcato quanto sia impegnata una società di consulenza in un determinato territorio e quanto il crescente interesse sia proporzionale alla voglia di crescere e di avere un vantaggio di rilievo rispetto ai competitor. Il caso di tale società ci fa capire quanto sia diversa l’offerta in termini di prodotto e quanto questa sia specializzata, in qualità di società di consulenza, negli sviluppi di progetti e-learning. Soprattutto del loro prodotto “Ulisse”, si è avuto modo di notare come l’offerta del settore “apprendimento elettronico” sia molto differenziata, sia in fase di sviluppo informatico sia in fase di progettazione dei corsi.
    È importante notare come “Ulisse” rompa anche il luogo comune, che permea il sistema, di costi alti di sviluppo e bassi di diffusione: infatti, come sottolineato, è una piattaforma versatile, adattabile a qualsiasi corso. In effetti, il fattore di discriminazione, nel settore, è proprio la qualità del prodotto, per cui un prodotto semplice, innovativo e aggiornato fa la differenza in termini di competitività nei confronti degli sfidanti di mercato
    Lo studio condotto, in ultima analisi, e che colpisce in modo significativo, ha posto in essere una disamina sulla condizione di sviluppo della soluzione e-learning nel settore privato, pubblico, universitario e scolastico; si è concluso che in Italia vi è ancora molto da lavorare per raggiungere un buon rapporto tecnologia-lavoro. Il decreto legislativo “Moratti-Stanca” va in questa direzione, ma il fenomeno è ancora in fase primordiale, per cui, seguendo tale direzione e con gli giusti sforzi a livello economico, con l’impegno necessario e soprattutto con l’ottimo connubio tra formazione d’aula e formazione a distanza, coadiuvata al meglio dallo sviluppo tecnologico si potranno raggiungere traguardi importanti in ambiti professionali, per la giusta competitività, e per il successo d’impresa. http://www.tesionline.it/default/tesi.asp?idt=19587 nella preview
    L’importanza della formazione ha acquisito ormai
    una connotazione tale da non poter essere più tralasciata e
    messa in secondo piano, in quanto la nostra società ha
    capito quanto sia necessario il sapere e quanto sia
    cambiato, rispetto al passato, il modo di gestire la
    conoscenza.
    Storicamente, la formazione è stata prettamente una
    prerogativa della scuola, mentre in ambito lavorativo era
    particolarmente importante la pratica; quindi, era
    sufficiente una minima alfabetizzazione per poter
    assolvere alle mansioni lavorative. Ma i bisogni umani,
    l’evoluzione dei tempi e il conseguente sviluppo
    economico hanno gradualmente, ma totalmente, sconvolto
    il modo di intendere e di gestire il sapere, conferendogli
    sempre maggiore importanza ai fini dello sviluppo, perché
    foriero di vantaggi sempre più importanti nel corso del
    tempo e sempre crescenti negli ambienti di lavoro.
    Il momento cruciale dello sviluppo esponenziale è
    stato allorquando si è avuto l’incontro tecnologiaformazione:
    infatti, i temi trattati pongono in risalto
    proprio la fenomenologia, che nel corso degli anni si è
    sviluppata ed ha preso sempre maggiore importanza.
    2
    Il testo si snoda partendo dalla formazione classica,
    che sfocia nella formazione a distanza e culmina, non
    come punto di arrivo, ma come passaggio dovuto, quale
    frutto dell’evoluzione, ad un importante fenomeno in
    termini di prospettive e di sviluppo, l’e-learning.
    Questo è uno strumento dalle prospettive davvero
    interessanti e attraverso cui è possibile sfruttare il sapere
    e, quindi, la conoscenza in modo completo, nonché farne
    strumento di gestione manageriale; infatti, il knowledge
    management è il modo innovativo e profittevole di
    utilizzare e mettere al servizio delle imprese agent
    preparati, pronti ad aggiornarsi e a crescere in modo
    parallelo alla crescita professionale. Grazie all’e-learning,
    non solo il sapere è trattabile sempre ed ovunque, ma sono
    nate delle nuove figure, o meglio, professioni, che ruotano
    intorno a tale mondo, quindi, si può parlare di una nuova
    era in ambito formativo-professionale, la knowledge
    based economy.
    L’ottica presa in considerazione, ovviamente, è
    quella aziendale, in cui vi è una costante ricerca di valore
    aggiunto per migliorare e consolidare la gestione
    caratteristica tipica di ogni impresa; gestita in modo
    manageriale, coadiuvata e sviluppata attraverso comunità
    di pratica e di rete, si può aumentare la produttività
    lavorativa senza far aumentare i costi: anzi,
    paradossalmente, riducendoli, creando delle vere
    economia di scala davvero importanti.
    Gli orizzonti dell’e-learning sono attuali, nel senso
    che sono delle opportunità da sfruttare per raggiungere
    vantaggi massimi; lo dimostrano le analisi degli indici
    http://www.tesionline.it/consult/pdfpublic...9587/19587p.pdf
    INTRODUZIONE

    · CAPITOLO PRIMO

    LE NUOVE TECNOLOGIE NEI PROCESSI DI APPRENDIMENTO DELL'IMPRESA
    1.1 La visione verso la Knowledge Economy
    1.2 L'orientamento alla flessibilità professionale
    1.3 La formazione nei processi di sviluppo dell'impresa
    1.4 L'informatizzazione dei processi di apprendimento
    1.5 L'innovazione tecnologica nella FAD (Formazione A Distanza)

    · CAPITOLO SECONDO

    IMPRESA E KNOWLEDGE MANAGEMENT
    2.1 I Principi del Knowledge Management
    2.2 Relazione ed interazioni con le nuove tecnologie
    2.3 Le comunità di Pratica (CdP)
    2.4 L'evoluzione verso le comunità professionali in rete e le comunità virtuali
    2.5 Un sistema integrato di gestione della conoscenza e dell'apprendimento

    · CAPITOLO TERZO

    I SISTEMI DI E-LEARNING COME STRUMENTI DI KNOWLEDGE MANAGEMENT
    3.1 E-Learning: nuova frontiera di apprendimento e nuovo modello di sviluppo
    3.2 Le caratteristiche fondamentali di funzionamento di una piattaforma standard
    3.3 Le professioni interne ed esterne
    3.4 Situazione di mercato, critiche e limiti dell'e-learning nel tempo
    3.5 Valutazione dell'investimento in e-learning, tra ROI ed analisi costi/benefici

    · CAPITOLO QUARTO

    IL CASE STUDY STUDIO STAFF S.R.L.
    4.1 Presentazione dell'azienda
    4.2 Missione, visione e attività tipiche dell'azienda
    4.3 La logica del core business dell'azienda all'interno e all'esterno del territorio di riferimento
    4.4 ''Ulisse'', la piattaforma innovativa per l'erogazione di servizi FAD

    CONCLUSIONI

    BIBLIOGRAFIA
    Riferimenti bibliografici
    AA.VV., Apprendimento di competenze strategiche. L'innovazione dei processi formativi, nella società della conoscenza, Franco Angeli, Milano, 2004.

    AA.VV., Knowledge Based Economy, OECD, 1996.

    AA.VV., Thematic innovation scoreboard - life long learning - technical paper, n. 5, EIS 2002.

    ARNOLD J., Managing Career into 21st Century, Paul Chapman Publishing Ltd, London, 1997.

    ARTHUR M.B., The Bounderyless Career: A New Prospective for Organizational Inquiry, Journal of Organizational Bahavior, 15, 1994.

    BELL D., The Coming of Post-Industrial Society, 1973.

    BROWN E., GRAY S., After Reengienering: The People Are The Company, Premier Edition, Fast Company, 1995.

    BROWN, P., DUGUID C., The Social Life of Information, Harvard Business School, Press, Boston, 2000.

    Business Cycles: Theorical Historical and Statistical Analysis of the capitalism process, New York, Mc Graw-Hill, 1939.

    CABRAL L., Economia Industriale, Carocci Editore, Roma, 2002.

    CAPPELLINI C., Formazione e professioni, Rivista del Sole 24 Ore, Milano.

    CAVALLI J. L., Knowledge & Learning Manager Programm Group, 2001.

    COHEN D., PRUSAK L., In Googd Company, Harvard Business School, Cambridge, 2001.

    CORRIAS A., OLDRINI A., Learning Map: Nuovi Modelli Formativi per la Gestione del Cambiamento nelle Organizzazioni Orientate al Mercato, in: FOR, Rivista per la Formazione, n. 63, 2005.

    COSSU G., L'Industrializzazione dei Corsi di Formazione a Distanza, in: E-Learning, marzo/aprile, 2005.

    COSTA G. - GIACOMON L.P. - VALLARIO G., Il Progetto My New E-Career, Il Sole 24 Ore s.p.a., Milano, 2005.

    DENNING S., The Springboard: How Storytelling Ignites Action in Knowledge-Era Organization, Butterworth-Heinemann, Boston, 2000.

    ELETTI V., Che Cos'è l'E-learning, Roma, Carocci, 2002.

    ELETTI V., Info-Learn, la Nuova Area di Intersezione fra E-publishing, E-learning e Knowledge Management. Editoria Multimediale Scienze della Comunicazione, La Sapienza, Roma, 2005.

    ELETTI V., L'E-Learning oggi in Italia, una Panoramica, qualche ripensamento e tante Riflessioni, in: E-learning, settembre/ottobre 2004.

    ELETTI V., Le Prospettive di Sviluppo dei Sistemi E-Learning a Medio Termine, in: E-Learning, settembre/ottobre, 2004.

    FANTACONE F., PREZIOSA A., Formazione e Business: Valutare i Risultai nell'Era dell'E-Learning, in: E-Learning, maggio/giugno, 2004.

    FATA A., Gli aspetti psicologici della formazione a distanza, Le competenze della formazione, Franco Angeli, Milano, AIF, 2004.

    GELGSEN B., Learning Economy, Innovation System and Development, Department of Business Studie, Aalborg University, 2001.

    GIANNATELLI A., SANCASSANI S., Progettare in Qualità l'E-Learning, in: E-Learning, novembre/dicembre 2004.

    GLADWELL M., The Tipping Point: How Little Things Can Make a Big Difference. Little, Brown and Company, Boston, 2000.

    HAMEL G., PRAHALAD C.K. Competing for the future,

    harvard Business Schoool Press, Boston, Mass, 1994.

    HORTON W., Design Web-Based training, John Wiley & Sons, New York, 2000.

    LA NOCE F., E-Learning, La nuova Frontiera della Formazione, Franco Angeli, Milano, 2001.

    LAVE E., WENGER E., Situated Learning: Legittimate Peripheral partecipation, Cambridge University Press, 1991.

    LEIDNER E., Information Technology and Organizational Culture, London, 1999.

    LISCIA R., E-learning in Italia, Una Strategia per L'Innovazione, Apogeo, Milano, 2005.

    Maietta C., in : Il Mattino, 12.02.2003.

    MONTEDORO C., PARISI D., PEPE D., La simulazione nella Formazione a Distanza, in: Rivista per la Formazione n. 63, 2005.

    MORENO A., GRANDE S., La Life Long Learning per lo sviluppo Economico delle PMI e del territorio, in: E-Learning, luglio/agosto 2004.

    NICHANI M., HUNG D., Can Community of Practice Exist On - Line? Educational Technology, vol. 42, n. 4, 2002.

    NONAKA H., TAKEUCHI H., The Knowledge Creative Company: How Japanese Companies create the dynamics of Innovation, Oxford University Press, New York, 1995.

    PARISI D., Scuol@it, Mondatori, Milano, 2000.

    PINE B.J., JILMOURE J.H., L'economia delle esperienza, Etas, Milano, 2000.

    PRANDSTALLER F. Nuovi BIsogni di Formazione e Corporate Learning, in: Sviluppo & Organizzazione, n. 190, marzo/aprile, 2002.

    SALIS S., DI PIETRO L., Comunità di Pratiche, di Apprendimento e Professionali: Una Metodologia per la Progettazione, in: Strumenti Formez n. 10, Area Editoria e Documentazione, 2002.

    SMITH K., What's the Knowledge Economy? Knowledge Intensity and distributed Knowledge bases. UN/INTECH discussion paper, Maastricht 2002.

    STEWART, T., Capital Intelectual: La Nova Riqueza das Organizações, Ed. Sílabo, Lisbona, 1999.

    SVANTESSON I., Learning Map, Thorsons, London, 1984.

    TRENTIN G., Apprendimento in rete e Condivisione delle Conoscenze, Ruolo dinamiche e tecnologie delle Comunità Professionali on line, Franco Angeli, Milano, 2004.

    WENGER E., Communities of Pratice. Learning as a Socialism System, System Thinker, giugno 1998.

    WINNER L., The Whale and the Reactor, a Search for Limits in an Age of High Technology, The University of Chicago, Press Chicago, 1986.

    http://ec.europa.eu/eurostat.
    http://www.astd.org.
    http://assoconsult.org.
    http://elearningeuropa.it.
    http://it.wikipedia.org.
    http://ss.uno.edu.
    http://studiostaff.it.
    http://studiostaffnapoli.it.
    http://www.12manage.com.
    http://www.aib.it.
    http://www.brint.com.
    http://www.bus.utexas.edu.
    http://www.irl.org.
    http://www.knowledgesharing.it.
    http://www.lafadulisse.it.
    http://www.miur.it.
    http://www.studiotaf.it.
    http://www.unimc.it.
    http://www.wbt.it.
    http://www.trainingvillage.gr.

    La formazione a distanza e i nuovi veicoli del sapere. Il caso NETTUNO.: un’analisi del sistema teledidattico nell’ateneo di Perugia

    Che cos’è la formazione a distanza e a chi si rivolge?
    Queste sono le domande a cui risponde questa tesi di laurea, inizialmente attraverso uno studio teorico che illustra i cambiamenti avvenuti nella formazione dopo l’introduzione delle nuove tecnologie e successivamente attraverso un’analisi sociologica svolta su un campione di persone iscritte alla prima Università Italiana a distanza: il Nettuno. Il 12 novembre 1991 nasce a Roma il Consorzio NET.T.UN.O., (Network per l’Università Ovunque), un consorzio tra Università italiane, la RAI e altra aziende, nato con l’obiettivo di creare corsi universitari a distanza. Si tratta di un’organizzazione complessa che fornisce un sevizio di fad (formazione a distanza) che consente di conseguire una laurea a chi non può, per svariate ragioni che analizzeremo in seguito, frequentare le tradizionali sedi delle istituzioni accademiche e sceglie un sistema universitario "flessibile". Il modello di Università proposto dal Consorzio Nettunosi basa sulla realizzazione di corsi a distanza tele-didattici perseguendo l’obiettivo di raggiungere grandi masse di utenza, avvalendosi di supporti tecnologici altamente avanzati e facilmente reperibili. (Garito, 1994). I supporti in questione sono la televisione satellitare ed Internet: la tv come fonte d’apprendimento, internet come fonte di informazioni.
    L'approccio teorico della tesi è dedicato interamente al significato di formazione a distanza: faremo un percorso che dalle origini ci condurrà ai più moderni strumenti di comunicazione che consentono di diffondere conoscenze a pubblici lontani dalle tradizionali sedi dell’insegnamento; ne descriveremo le caratteristiche e cercheremo di identificare le differenti interazioni che nascono tra docenti e discenti. Individueremo tre diverse fasi di fad: la fad di prima generazione, riconducibile agli anni della Rivoluzione Industriale, quando la nascita del servizio postale dava vita alla formazione per corrispondenza; la fad di seconda generazione basata sull’uso della radio e della televisione; la fad di terza generazione, figlia del nostro secolo, basata sull’uso delle reti e della video-scrittura (Eletti 2001). Daremo uno sguardo alle maggiori istituzioni europee che forniscono questo servizio, seguendo un percorso che va dall’Open University inglese al Centre National d’Enseignement à Distance francese, fino ad arrivare al Nettuno in Italia che nasce a cavallo tra la seconda e la terza generazione di fad e rappresenta la prima e unica esperienza d’insegnamento universitario tele-didattico in Italia. Nel secondo capitolo affronteremo lo studio del Consorzio Nettuno partendo dalla descrizione del quadro normativo che ne determina la nascita. Questo sarà il punto di partenza di riflessioni relative alla natura consortile che contraddistingue il Nettuno: il suo essere una realtà tra Università e aziende che offre un servizio didattico mediato dalla tv satellitare. Faremo un viaggio attraverso tutte le sue strutture: cercheremo di capire come dalla sede centrale di Roma, il sapere accademico si trasferisce nelle case degli studenti attraverso il satellite. Il terzo ed ultimo capitolo rappresenta la summa di un ricerca svolta durante il corso dell’anno accademico 2004-2005, che nasce con lo scopo di capire chi sono gli utenti del Nettuno. Esporremo i risultati ottenuti attraverso l’analisi di questionari sottoposti ad un campione di studenti iscritti ai corsi tele-didattici dell’ateneo di Perugia che danno spunto per una serie di riflessioni relative alla particolarità del servizio offerto dal Nettuno. La ricerca offre la possibilità di comprendere quale sia il ruolo che il Nettuno assume all’interno del panorama accademico, anche grazie alle opinioni che abbiamo raccolto ascoltando le testimonianze di alcuni rappresentati dell’Università degli studi di Perugia. La formazione universitaria a distanza per sua natura offre un servizio lontano da quello offerto dall’Università tradizionale. L’assenza dell’interazione diretta, l’assenza delle lezioni frontali viene sostituita da una serie di strumenti di comunicazione che modificano fortemente le tecniche d’apprendimento. Attraverso questa tesi di laurea scopriremo un mondo diverso da quello tradizionalmente rintracciabile all’interno di una tradizionale sede accademica: non parleremo di docenti ma di video-docenti, non di lezioni frontali ma di video-lezioni, non di interazione diretta, ma di interazione mediata, non di studenti tradizionali, ma di studenti a distanza: una platea di nuovi studenti-utenti che sceglie un approccio al sapere universitario, vivendolo dalla distanza che separa il pubblico televisivo dagli studi di produzione di una televisione tematica satellitare.http://www.tesionline.it/default/tesi.asp?idt=18542
    INTRODUZIONE

    CAPITOLO PRIMO
    La Formazione a distanza e i nuovi veicoli del sapere
    1.1 La «mediatizzazione» dell'istruzione
    1.2 Una definizione di formazione a distanza
    1.3 Le origini di un'innovazione
    1.4 La Fad di prima generazione
    1.5 La Fad di seconda generazione
    1.6 La Fad di terza generazione
    1.7 I modelli istituzionali europei

    CAPITOLO SECONDO
    Università a distanza in Italia: il modello NET. T.UN.O.
    2.1 La normativa italiana
    2.2 Il Consorzio Nettuno tra Università e aziende
    2.3 Dalla lavagna in Aula 1 alle slides via sat
    2.4 In medio stat virtus: il modello didattico misto

    CAPITOLO TERZO
    Analisi dei risultati di una ricerca sull'utenza del NETTUNO nell'ateneo di Perugia
    3.1 Metodologia dell'indagine
    3.2 Caratteristiche socio-demografiche del campione
    3.3 Le motivazioni dei Nettuniani
    3.4 Le attività didattiche
    3.5 I vantaggi e gli svantaggi del modello tele-didattico
    3.6 Chi sono i Nettuniani?
    3.7 Il NET.T.UN.O. secondo gli accademici

    CONCLUSIONI

    APPENDICE

    Biolghini D, Cengarle M. (2000), Net Learning. Imaparare insieme attraverso al rete. Etas. Milano.

    Calvani A., Rotta M. (2000), Fare formazione in Internet. Manuale di didattica on line, Erickson, Trento.

    Eletti V. (a cura di) (2002), Che cos'è l'e-learning. Carocci, Roma.

    Eletti V. (2002), Dalla formazione a distanza all'extended learning, Next, Roma.

    Garito M. A. (a cura di) (1995), Multimedia and distance learning for Science and Technology, Garamond, Roma.

    Garito M. A. (a cura di) (1997), Tecnologie e processi cognitivi. Insegnare e apprendere con la multimedialità, Franco Angeli, Milano.

    Garito M. A. (2000), Globalizzazione e Innovazione. Le nuove opportunità di formazione In viaggio fra i perchè della disoccupazione in Italia, Giuffrè, Milano.

    Keegan D. (1994), Principi di istruzione a distanza, La Nuova Italia, Firenze.

    Lazarsfeld P. F. (1967), Metodologia e ricerca sociologica, Il Mulino,Bologna.

    Mancini P. (2000), Il Sistema fragile, Carocci, Roma.

    McLuhan H.M. (1998), Media e nuova educazione. Il metodo della domanda nel villaggio globale, Armando, Roma.

    Menduni E. (1998), La televisione, il Mulino, Bologna.

    Nacamulli R.C.D. (2003), La formazione, il cemento, la rete, EtasLibri, Milano.

    Paccagnella L. (2000), La comunicazione al computer, il Mulino, Bologna.

    Paccagnella L. (2004), Sociologia della comunicazione, il Mulino Bologna.

    Perriault J. (1997), La comunicazione del sapere a distanza, Pitagora Editrice, Bologna.

    Ranieri M. (2004), E-learning: modelli e strategie didattiche, Erickson, Trento.

    Sartori G. (2000), Homo Videns. Televisione e post-moderno, Laterza, Roma-Bari.

    Thompson J. B. (1995), Mezzi di comunicazione e modernità, il Mulino, Bologna.

    Trentin G. (1998), Insegnare e apprender in rete, Zanichelli, Bologna.

    Trentin G. (1999), Telematica e formazione a distanza. Il caso Polaris, Franco Angeli, Milano.

    Vescovi T. (a cura di) (2002), e-Learning. La formazione manageriale nella rete, Il Sole 24 Ore, Milano.

    Vivarelli R. (1999), Profilo di storia contemporanea, La Nuova Italia, Milano.


    Sitografia

    www.almalaurea.it
    www.cned.fr
    www.eadtu.nl
    www.educational.rai.it
    www.elearningeuropa.info
    www.emdel.org
    www.europa.eu.int
    www.garito.it
    www.governo.it
    www.istat.it
    www.mediamente.rai.ir
    www.miur.it
    www.nettuno.unipg.it
    www.open.ac.uk
    www.ou.nl
    www.uninettuno.it



    INTRODUZIONE
    Il 12 novembre 1991 nasce a Roma il Consorzio NET.T.UN.O., (Network per l'Università Ovunque), un consorzio tra Università italiane e aziende, nato con l'obiettivo di creare corsi universitari a distanza. Si tratta di un'organizzazione complessa che fornisce un sevizio di fad (formazione a distanza) che consente di conseguire una laurea pur non frequentando le tradizionali sedi delle istituzioni accademiche.
    La ricerca presentata in questa tesi di laurea ha il duplice obiettivo di studiare il meccanismo di fad su cui si incardina il Nettuno e individuare la fetta di società a cui esso si rivolge.
    La parte teorica è dedicata interamente al significato di formazione a distanza: faremo un percorso che dalle origini ci condurrà ai più moderni strumenti di comunicazione che consentono di diffondere conoscenze a pubblici lontani dalle sedi universitarie; ne descriveremo le caratteristiche e cercheremo di identificare le differenti interazioni che nascono tra docenti e discenti. Individueremo tre diverse fasi di fad: la fad di prima generazione, riconducibile agli anni della Rivoluzione Industriale, quando la nascita del servizio postale dava vita alla formazione per corrispondenza; la fad di seconda generazione basata sull'uso della radio e della televisione; la fad di terza generazione, figlia del nostro secolo, basata sull'uso delle reti e della video-scrittura (Eletti 2001). Daremo uno sguardo alle maggiori istituzioni europee che forniscono questo servizio, seguendo un percorso che va dall'Open University inglese al Centre National d'Enseignement à Distance francese, fino ad arrivare al Nettuno in Italia.
    Nel secondo capitolo affronteremo lo studio del Consorzio Nettuno partendo dalla descrizione del quadro normativo che ne determina la nascita. E' la legge di riforma degli ordinamenti didattici universitari n. 341 del novembre del 1990 che consente alle Università italiane di offrire corsi di formazione a distanza. Questo sarà il punto di partenza di riflessioni relative alla natura consortile che contraddistingue il Nettuno: il suo essere una realtà tra Università e aziende che offre un servizio didattico mediato dalla tv satellitare. Faremo un viaggio attraverso tutte le sue strutture: cercheremo di capire come dalla sede centrale di Roma, il sapere accademico si trasferisce nelle case degli studenti attraverso il satellite.
    Il terzo ed ultimo capitolo rappresenta la summa di un ricerca svolta durante il corso dell'anno accademico 2004-2005, che nasce con lo scopo di capire chi sono gli utenti del Nettuno. Esporremo i risultati ottenuti attraverso l'analisi di 90 questionari compilati dagli studenti iscritti ai corsi tele-didattici dell'ateneo di Perugia che danno spunto per una serie di riflessioni relative alla particolarità del servizio offerto dal Nettuno. La ricerca offre la possibilità di comprendere quale sia il ruolo che esso assume all'interno del panorama accademico italiano, soprattutto grazie alle opinioni che abbiamo raccolto ascoltando le testimonianze di alcuni rappresentati dell'Università degli studi di Perugia.
    Scopriremo un mondo diverso da quello tradizionalmente rintracciabile all'interno di una tradizionale sede accademica: non parleremo di docenti ma di video-docenti, non di lezioni frontali ma di video-lezioni, non di interazione diretta, ma di interazione mediata, non di studenti tradizionali, ma di Nettuniani: una platea di nuovi studenti che per svariate ragioni sceglie un approccio alternativo al sapere universitario, vivendolo dalla distanza che separa il pubblico televisivo dagli studi di produzione di una televisione tematica satellitare.
    ''The day is coming when the work done by correspondence will be greater in amount than that done in the classrooms of our academies and colleges''
    W.R. Harper, Chicago University Dean, 1885

    CAPITOLO PRIMO

    La Formazione a distanza e i nuovi veicoli del sapere
    L'evoluzione dei mezzi di comunicazione e delle tecnologie ha inevitabilmente influenzato il mondo della formazione. Nei centoventi anni trascorsi da quando Harper ha pronunciato quelle parole, le nuove tecnologie hanno progressivamente sviluppato e introdotto nuovi strumenti per facilitare l'apprendimento.
    In questo capitolo cercheremo di inquadrare il concetto di formazione a distanza, comprenderne le finalità e ripercorrerne l'evoluzione. Cominceremo ad elaborare una struttura concettuale che consenta di stabilire il tipo di interazione prodotta dalla formazione a distanza, per poi procedere con la narrazione del suo excursus vitae. Distingueremo tre diverse fasi storiche in cui si collocano tre generazioni distinte di sistemi di formazione a distanza. In seguito, ci concentreremo sul ruolo che essa assume oggi giorno nel panorama europeo ed infine, focalizzeremo la nostra attenzione sulla situazione italiana.

    1.1 La «mediatizzazione» dell'istruzione
    La tradizione storica vuole che all'interno dell'ambiente formativo in cui gli individui assimilano conoscenze, si stabiliscano quasi esclusivamente relazioni faccia-a-faccia. Tanto a scuola quanto all'Università, docenti e studenti interagiscono, scambiandosi forme simboliche all'interno di un luogo fisico condiviso: le aule sono luoghi in cui un docente si rivolge ad una pluralità di discenti ai quali trasmette il proprio sapere attraverso parole, espressioni del viso, gesti, sfruttando i mezzi che l'istituzione gli mette a disposizione, la lavagna, il gesso, oggi molto più spesso lucidi e video proiettore.
    Il docente si rivolge al suo pubblico costruendo con esso un dialogo, che comporta un flusso di informazioni e di comunicazione a due direzioni: gli studenti sono i destinatari di un messaggio al quale rispondere ponendo problemi, mostrando interesse, chiedendo chiarimenti, polemizzando su una questione, manifestando noia.
    C'è chi parla e c'è chi ascolta utilizzando costantemente una molteplicità di indizi simbolici che riducono le ambiguità e servono a precisare il significato di un messaggio. ''Il dialogo consente di risolvere le incoerenze tra indizi e parole che, per chi le scopre, rappresentano fonte di ansia e di imbarazzo''. (Thompson, 1995). In quest'ottica, la trasmissione del sapere dipende dall'interazione faccia a faccia che implica necessariamente compresenza e simultaneità. Ma chi per i più vari motivi non può frequentare un'istituzione didattica come può completare la propria formazione?
    Le motivazioni che hanno portato all'introduzione della formazione a distanza sono diverse. I passaggi storici su cui essa si incardina evidenziano che così come per la diffusione della cultura, anche le modalità attraverso cui si diffonde la conoscenza sono dipendenti dalle tecnologie utilizzate. La storia della Fad è quindi condizionata dallo sviluppo tecnologico, ma è soprattutto l'espressione delle esigenze culturali, storiche, economiche della società in cui essa si colloca (Eletti 2003). Per capire il significato e le innovazioni introdotte dalla formazione a distanza, dunque, non possiamo prescindere dal considerarne la storia e l'evoluzione.

    1.2 Una definizione di formazione a distanza
    In un libro pubblicato nel 1994, Principi d'istruzione a distanza, Keegan raccoglie e analizza un certo numero di definizioni simili per individuare quella più idonea ad identificare tutte le istituzioni che offrono formazione a distanza. Vengono proposti cinque elementi basilari per la definizione di istruzione a distanza:
    - La quasi permanente separazione di docente e discente per tutta la durata del processo educativo (questo la distingue dalla tradizionale istruzione faccia a faccia);
    - L'influenza di un'organizzazione educativa sia nella progettazione e preparazione dei materiali d'apprendimento sia nella fornitura allo studente degli strumenti di supporto didattico (il che la distingue dallo studio privato e dai programmi di auto-apprendimento);
    - L'uso di mezzi tecnici (stampa, audio, video o computer) per associare il docente e il discente nel portare avanti il contenuto del corso;
    - La disponibilità di comunicazione a doppio binario cosicché lo studente possa beneficiare dal dialogo oppure iniziarlo (questa caratteristica la distingue da altri usi della tecnologia nella didattica);
    - La quasi permanente assenza del gruppo dei discenti per tutta la durata del processo di apprendimento individuale e non di gruppo, con la possibilità di incontri occasionali sia per scopi didattici sia di socializzazione.
    La portata dell'istruzione a distanza è vasta e comprende sia l'istruzione a distanza, come è stata definita, sia una serie di strategie d'insegnamento/apprendimento basate su altre risorse. Per evitare confusione, è da escludersi dal concetto di istruzione a distanza:
    - L'uso di materiali di apprendimento (stampati, basati su sistemi audio-video o computer) in aula, auditorium, seminari, corsi tutoriali e sessioni di laboratorio per programmi all'interno della struttura dell'Università tradizionale;
    - L'uso di materiali di apprendimento (stampati, basati su sistemi audio-video o computer) nello studio privato (Keegan, 1994)
    In generale, l'espressione Formazione a Distanza (Fad) è stata utilizzata per indicare i processi di formazione in cui docente e studente non si trovano fisicamente nello stesso posto, ma svolgono le proprie attività in luoghi e tempi diversi. Un corso di formazione a distanza è progettato per rispondere all'esigenza di formazione, liberando docenti e studenti dai vincoli di prossimità e contemporaneità.
    Superare il vincolo spaziale significa potere fruire del materiale didattico in un luogo diverso da quello in cui viene realizzato.
    Superare il condizionamento temporale consente, invece, di non essere costretti alla simultaneità dei momenti di erogazione e fruizione del sapere. Tutto questo si realizza attraverso l'uso dei mezzi di comunicazione che generano una riorganizzazione delle dimensioni dello spazio e del tempo.

    1.3 Le origini di un'innovazione
    In molti pensano che la nascita della formazione a distanza sia fatto relativamente recente; in realtà le sue origini affondano le radici nella prima metà dell'Ottocento.
    Eletti (2002) identifica tre diverse generazioni di Fad:
    - La Fad di prima generazione che si sviluppa durante la rivoluzione industriale con l'istruzione per corrispondenza.
    - La Fad di seconda generazione, la cui nascita è riconducibile ai primi anni venti che prevede inizialmente l'uso della radio e poi quello della televisione negli anni ottanta.
    - La Fad di terza generazione o e-Learning che si realizza con la formazione on line, apparsa nei primi anni novanta, e che prevede il ricorso ai Personal Computer e ad Internet.

    1.4 La Fad di prima generazione
    La formazione a distanza di prima generazione risale alla metà dell'Ottocento quando, per raggiungere studenti sparsi in luoghi lontani, nascevano i primi «corsi per corrispondenza» (ibidem). L'utilizzo del servizio postale era favorito dall'evoluzione delle tecniche di stampa, dalla creazione di una rete capillare di uffici postali, dal trasporto ferroviario e da quello urbano, condizioni che consentivano un'ampia produzione e distribuzione di materiali diversi anche su grandi distanze. L'apprendimento si basava su uno studio di tipo individuale di materiali cartacei, spesso, corredati da indicazioni su come studiare, e su una interazione fra studente e docente, limitata prevalentemente alla fase di verifica.
    Perriault (1997) descrive questo metodo di studio peculiarmente, precisando che si tratta di un sistema ancora ampiamente utilizzato in Francia: allo studente venivano inviati corsi a domicilio; dopo averli studiati, questi rispediva con regolarità i compiti assegnatigli direttamente all'istituzione cui faceva capo ed essa, a sua volta, li trasmetteva al docente incaricato di correggerli. Due incarichi principali distinguevano i docenti: il primo relativo alla redazione, il secondo alla correzione. I docenti redattori erano preposti alla formulazione ed alla redazione dei corsi: dovevano saper individuare il maggior numero possibile di insidie e problemi che potevano mettere in difficoltà gli studenti che, impossibilitati a contattare il docente di frequente, avrebbero rischiato di fallire nel loro tentativo di apprendimento. I docenti correttori ricevevano i compiti li correggevano, quindi segnalavano le proprie osservazioni personali.
    Il dialogo tra studenti e docenti era molto limitato, la prova di valutazione, infatti, rappresentava l'unico momento di interazione.
    La relazione tra i formatori e i loro destinatari rientra nella categoria che Thompson (1995) definisce ''interazione mediata''. Si tratta di un modello di comunicazione che si estende nello spazio e nel tempo che limita gli indizi simbolici a disposizione dei partecipanti, utili al fine di ridurre l'ambiguità. Rispetto all'interazione faccia a faccia, essa assume dunque, un carattere di maggiore indeterminatezza che obbliga gli individui a ricorrere in misura maggiore alle risorse in loro possesso per interpretare il contenuto delle informazioni trasmesse (Thompson, 1995). Questo aspetto comporta una totale autonomia di fruizione dell'insegnamento: in un contesto in cui è del tutto assente la possibilità di condividere le risorse informative o di collaborare con altri studenti, i destinatari della formazione per corrispondenza affrontano lo studio in maniera totalmente individuale.
    I primi corsi a distanza furono organizzati in Svezia ed in Inghilterra: sarà Londra la città in cui Isaac Pitman, inventore della stenografia, utilizzerà il servizio postale per il penny post, un corso a distanza di stenografia, il cui successo portò alla fondazione della Phonographic Correspondence Society, finalizzata all'organizzazione e alla diffusione gratuita dell'insegnamento della stenografia per corrispondenza (Eletti 2002).
    Alla fine dell'Ottocento, il tasso di alfabetizzazione è ancora basso, nei paesi europei coinvolti in forti processi di industrializzazione, si sviluppano i primi esperimenti di didattica per corrispondenza rivolti principalmente a persone benestanti che potevano sostenere i costi per curare la propria formazione al di fuori di un ambiente scolastico. Si trattava di corsi basati su un sistema molto rigido, con contenuti prevalentemente tecnici-commerciali o di alfabetizzazione di base, generalmente erogati da soggetti privati, non istituzionali e rivolti ad un'utenza prevalentemente adulta (ibidem).
    L'utilizzo della formazione a distanza, a supporto della formazione scolastica, trova un degno esempio nel 1873 negli Stati Uniti, dove l'Illinois Weslayan University eroga il primo corso universitario a distanza .
    Agli inizi del XX secolo la didattica per corrispondenza non si rivolge solo ai ristretti gruppi delle classi borghesi e comincia ad essere utilizzata come strumento di istruzione scolastica e professionale destinata ai giovani.
    Negli anni venti, la nascita e lo sviluppo di una nuova tecnologia determina la nascita di un nuovo modello: la formazione a distanza per radio (ibidem). La radio si propaga nell'etere senza bisogno di utilizzare supporti fisici come la lettera e il servizio postale e consente di recapitare informazioni a chiunque possieda un apparecchio di ricezione. La formazione a distanza per radio segna una differenza sostanziale rispetto a quella per corrispondenza: il passaggio da una modalità di comunicazione interpersonale one-to-one (tipica dell'interazione faccia a faccia o per corrispondenza), al broadcasting, ossia ad un paradigma one-to-many o few-to-many. Una volta acquistato l'apparecchio, il domicilio diventa un terminale domestico che riceve continuamente suoni e parole, dei quali si può usufruire senza pagare o dovere uscire di casa, senza dovere interrompere i ritmi della vita familiare quotidiana. La radio annulla le distanze, incorporando alla vita privata degli utenti elementi propri della sfera sociale. (Menduni, 1998). Non importa quanto essi siano lontani dalle Istituzioni, la formazione che fino ad allora era stata un bene scarso e costoso, giunge a casa degli utenti senza comportare spostamenti.
    Tra i primi corsi universitari via radio, da ricordare è l'esperimento promosso dalla BBC nel 1927, come supporto integrativo della formazione scolastica. Nascono in questo periodo i primi corsi di lingua incisi su dischi a 78 giri. Anche il telefono, verso gli anni Quaranta, verrà spesso utilizzato come strumento di supporto alla formazione a distanza di prima generazione.
    Sono gli anni Cinquanta, anni di ricostruzione dopo la devastazione della seconda guerra mondiale, a richiedere l'ausilio di strumenti formativi in grado di permettere una veloce ripresa dell'attività scolastica e di favorire l'istruzione rapida di competenze professionali adeguate per lavorare nelle fabbriche. L'esperienza francese del Centre National d'Etudes par Corrispondence è, forse, l'esempio più rappresentativo di questo periodo.

    L'esperto di Learning Management: un progetto formativo tra conoscenza e apprendimento
    http://www.tesionline.it/default/tesi.asp?idt=18328

    La formazione a distanza in un modello didattico collaborativo
    http://www.tesionline.it/default/tesi.asp?idt=11837


    Qualità dell'e-learning.Esperienze italiane e buone pratiche internazionali.
    http://www.tesionline.it/default/tesi.asp?idt=7614

    Teledidattic@ universitaria. I nuovi media al servizio dell’istruzione a distanza
    http://www.tesionline.it/default/tesi.asp?idt=19632

    Apprendimento a distanza: linee per un modello di formazione in rete
    http://www.tesionline.it/default/tesi.asp?idt=5491

    Comunicare la formazione. A che Punto (Edu) siamo? Nuovi linguaggi, modalità espressive e strategie educative
    http://www.tesionline.it/default/tesi.asp?idt=18500

    E-learning: apprendere con la rete. L'impiego dei nuovi media in ambito educativo-formativo
    http://www.tesionline.it/default/tesi.asp?idt=11445


    Il tutor come mediatore culturale. Dalle funzioni tutoriali alla ricerca di un volto possibile in alcuni contesti organizzativi
    http://www.tesionline.it/default/tesi.asp?idt=4095

    E-learning - i sistemi di formazione a distanza di terza generazione
    http://www.tesionline.it/default/tesi.asp?idt=12181


    sono stancaaa
     
    .
  10. _Nicoletta
     
    .

    User deleted


    Visualizzazione delle informazioni

    Cenni di Formazione OnLine


    Open Learning
    Flexible Learning
    FAD






    Modelli di Formazione
    La formazione a distanza nasce per svincolare l'intervento didattico dai limiti posti dalla copresenza fisica e il suo sviluppo è stato profondamente influenzato da quello parallelo delle tecnologie della comunicazione. Solitamente, infatti, si suole distinguere tra tre generazioni diverse, in base al tipo di supporto utilizzato.


    I generazione
    Così, la formazione a distanza di prima generazione sarebbe quella che ha sfruttato, verso la fine dell'Ottocento, lo sviluppo delle reti di trasporto e dei servizi postali per diffondere materiali cartacei a studenti che difficilmente avrebbero potuto raggiungere le sedi scolastiche.





    II generazione
    La formazione a distranza di seconda generazione sarebbe segnata dall'introduzione delle tecnologie audiovisive, le quali hanno potenziato una cultura dell'immagine, meno elitaria rispetto alla scrittura, e una maggiore personalizzazione dei tempi e modi di fruizione.





    III generazione
    La terza generazione, infine, sarebbe quella nata dall'impiego delle tecnologie informatiche e telematiche dove molti dei materiali in formato cartaceo sono stati sostituiti dai libri elettronici.





    Open Learning
    Le moderne tecnologie ci permettono o di avvicinarci alla formazione anche quando le nostre disponibilità di tempo sono limitate. Non sempre è possibile seguire un corso in aula, e spesso le lacune che desideriamo colmare si riferiscono ad esigenze specifiche e limitate. Il termine "Open learning" sta ad indicare che l'accesso alla formazione è completamente basato sulle tue esigenze: sarai tu a decidere come, quando, e per quanto tempo accedere alle risorse formative che ti mettiamo a disposizione.



    Flexible Learning
    Flexible learning: il nuovo paradigma dell'elearning Il flexible learning consiste di tenere conto delle differenze di apprendimento tra più studenti, diversi per lingua, capacità di apprendimento, ecc. Il fatto che sia particolarmente presente nelle riflessioni sullelearning nel continente australiano (vedere il sito www.flexiblelearning.net.au) è determinato dall'apertura delle strutture universitarie a studenti che non sono madrelingua inglesi, gli aborigeni. La possibilità di richiesta del discente di strutturare e ritmare il corso online a seconda delle sue capacità di apprendimento viene vista come una caratteristica fondamentale per corsi attivati in quei paesi dove le diversità tra studenti costituiscono una realtà nazionale.





    FAD


    Introduzione Aspetti critici della formazione tradizionale Vantaggi della FAD Il docente Il tutor L'organizzatore Riflessioni conclusive




    FAD
    Da alcuni anni un tema ricorrente è quello relativo alla formazione a distanza, all'elearning, al web based training che, sembra, attende tutti noi, per tutta la nostra vita futura, in un percorso continuo e ciclico di formazione aggiornamento lavoro.





    FAD
    Questa è, per i professionisti della formazione, allo stesso tempo una buona e una cattiva notizia: buona perché, evidentemente, nel futuro ci saranno molte possibilità lavorative per gli esperti del settore, cattiva perché queste nuove modalità formative ci aspettano a tempi brevissimi e non riguardano, quindi, solo i giovani che si stanno formando in questi anni e che avranno, si presume, confidenza con il web, i computer e soprattutto con metodi formativi diversi dalla classica lezione frontale.


    FAD
    Chi dovrà affrontare la formazione e la riqualificazione a distanza in tempi brevi è la massa di adulti che non ha, oggi, confidenza né con il web, né con Internet né, molto più semplicemente, con metodi formativi attuali. Ancora più preoccupante è il fatto che saranno coinvolti in queste nuove modalità formative docenti, tutor, formatori, insegnanti, organizzatori che attualmente lavorano "in presenza" e la cui alfabetizzazione informatica è in genere simile a quella di coloro che saranno formati/qualificati


    FAD Aspetti critici della formazione tradizionale
    I problemi che deve affrontare chi organizza corsi di formazione e aggiornamento per persone che lavorano sono numerosi. Si tende sempre a concentrare molto il corso, per agevolare persone che lavorano: spesso sarebbero necessari corsi più lunghi, o pause fra alcune lezioni, in modo da permettere ai partecipanti di assimilare alcuni concetti, di sperimentare alcune proposte sul posto di lavoro e così via, ma i tempi in genere sono molto compressi.



    FAD Aspetti critici della formazione tradizionale
    Infine è spesso difficile trovare, nelle piccole città, un numero sufficiente di corsisti per attivare un corso, e le spese aggiuntive di viaggio e soggiorno per partecipare a corsi fuori città o fuori Regione possono costituire un problema.





    Vantaggi della FAD
    La possibilità di organizzare corsi in cui non è necessaria la presenza contemporanea e nello stesso posto dei corsisti, non solo permette di ovviare ai problemi appena evidenziati ma permette un aggiornamento continuo del materiale presentato nei corsi, agevola lo scambio di contatti e informazioni all'interno del gruppo dei corsisti, fra i corsisti, i docenti e i tutor e permette di agevolare il sorgere di comunità di pratica.





    Docente
    l ruolo di docente in un corso a distanza (comunque esso sia organizzato) richiede sempre una revisione del proprio modo di lavorare, di organizzare il materiale formativo, di programmare la valutazione, di rapportarsi con i corsisti. La lezione frontale, ancora così cara a tanti docenti e formatori, perde significato nella FAD.





    Docente
    La "lezione" perde importanza, e il docente diventa un coordinatore, un regista delle attività previste in un corso a distanza: identificazione dei materiali cartacei e informatici da studiare, coordinamento dei lavori di gruppo e individuali prodotti dai corsisti, elaborazione di modalità valutative idonee al mezzo ecc.





    Docente
    Naturalmente passando a modalità formative a distanza si incontrano anche dei vantaggi: il primo ci sembra sia l'estrema libertà di spostamento e di organizzazione del lavoro: il docente può seguire più corsi contemporaneamente, può aggiornare le sue lezioni dovunque si trovi, avere contatti con i corsisti molto più personalizzati.





    Tutor
    Il tutor può fungere da collegamento fra i vari docenti, fornire documentazione ai corsisti, annunciare la pausa caffè, interagire con il docente durante le lezioni per evidenziare punti critici agli occhi dei corsisti, risolvere i problemi tecnici che si presentano in aula, ecc. ecc. Soprattutto in certi ambienti, spesso aggiungere il costo del tutor al costo del corso viene visto come una inutile spesa.


    L'organizzatore
    Le difficoltà che incontra chi progetta e organizza corsi sono numerose:


    nella presentazione del progetto dovrà tener conto del fatto che alle parole FAD, elearning e simili spesso corrispondono interpretazioni molto diverse





    L'organizzatore


    coinvolgere docenti abituati alla formazione in presenza di partecipare a un corso "a distanza" richiede un'estrema chiarezza circa ciò che viene richiesto e, soprattutto, la capacità di affrontare le numerose obiezioni, richieste di chiarimenti, evidenziazioni di problemi organizzativi da parte dei docenti





    L'organizzatore


    per il tutoraggio conviene rivolgersi a persone che hanno seguito un percorso formativo specifico in tal senso. Pensare che una persona abituata al tutoraggio in presenza possa assumere il ruolo di tutor in un corso a distanza è errato, ed è una scelta che inevitabilmente porterà solo problemi





    L'organizzatore


    gli aspetti finanziari, in particolare la rendicontazione se i corsi sono finanziati dal FSE o da programmi comunitari, può rivelarsi un aspetto particolarmente complesso, soprattutto per la scarsità di indicazioni sui vademecum ufficiali di dati relativi alle attività di formazione a distanza.





    L'organizzatore


    Un ultimo aspetto che può rivelarsi complesso è il reperimento di figure professionali con competenze tecnologiche complesse (in grado di gestire gli aspetti tecnici del corso) e al contempo il grado di rapportarsi con persone (docenti, corsisti) con conoscenze tecniche spesso molto ridotte





    Conclusioni
    Questo trend crea una "ridistribuzione del peso", che si sposta verso il corsista ed è inizialmente difficile da gestire da parte di chi gestisce la formazione che, perdendo peso, si sente facilmente sbilanciato, con la sensazione di perdere "potere". L'organizzatore dovrebbe creare la mappa, il partecipante al corso deve creare l'esperienza, con la guida di docenti e tutor.



    Edited by _Nicoletta - 3/11/2010, 21:22
     
    .
  11. _Nicoletta
     
    .

    User deleted


    cerca Marshall McLuhan - Gli strumenti del comunicare
    Il medium è il messaggio
    Medium caldi e freddi

    e

    De Kerckhove - Alla ricerca dell’intelligenza connettiva



    Edited by _Nicoletta - 3/11/2010, 21:14
     
    .
  12. _Nicoletta
     
    .

    User deleted


    "GRUPPO 2: PSICOTECNOLOGIE: NUOVA TELEVISIONE E NUOVI LINGUAGGI"
    Perche' la scienza della mente non contribuisce di piu' allo sviluppo delle tecnologie della mente?
    Domenico Parisi
    Istituto di Psicologia Consiglio Nazionale delle Ricerche [email protected]

    Tecnologie, mass media, mente, società
    Stefano Nobile

    I fondamenti della convivenza economica internazionale nell’era della globalizzazione
    PAOLO SAVONA

    Gli effetti della comunicazione di massa
    Cristian Vaccari

    Scenari di uno sviluppo possibile
    Ralph Nader

    qui--> http://88.35.45.229/wiki/index.php?title=V...na_di_benedetto








    Marshall McLuhan

    Herbert Marshall McLuhan (1911-1980) è stato l'interprete più noto e più rivoluzionario dell'epoca delle comunicazioni di massa. Canadese, studioso di letteratura e critico teatrale di formazione (si era occupato soprattutto di Shakespeare), McLuhan ha applicato alla ricerca sui media un metodo del tutto particolare e difficilmente ripetibile. Animatore principale della Scuola di Toronto, lo studioso canadese ha sovvertito in modo radicale gli orientamenti principali della sociologia della comunicazione, trasformando la ricerca sui contenuti della comunicazione nella ricerca sulla qualità dei media.

    Secondo McLuhan, "il mezzo è il messaggio", nel senso che un mezzo di comunicazione determina una precisa visione della realtà (partecipativa nel caso dell'oralità, distaccata e scientifica con la scrittura, di nuovo tattile con l'oralità dei media elettronici) e deforma irrimediabilmente i propri contenuti. A ben vedere, McLuhan non è realmente (come spesso si sostiene) un autore entusiasta, ma è invece consapevole della complessità delle relazioni tra l'uomo e le proprie "estensioni tecnologiche". Infatti la sua idea è che i media siano, appunto, estensioni di un senso - la vista per la scrittura, l'udito per la radio, il tatto per la tv, e così via - e che quindi costringano l'uomo ad un determinato rapporto con la realtà sociale.

    Una caratteristica essenziale di McLuhan è la sua quasi totale assenza di metodo e di rigorosità scientifica. Questo è, naturalmente, il suo difetto principale: ma è anche, paradossalmente, il suo merito e la ragione della sua popolarità. Perché soltanto una propaganda intensa e anti-istituzionale come quella di McLuhan poteva ribaltare i termini del dibattito scientifico, facendo dei mezzi di comunicazione non più un valore di sfondo ma l'oggetto principale della ricerca sociale. A diversi decenni dalla sua predicazione, infatti, fare a meno di McLuhan non è ancora possibile.

    Le sue opere fondamentali sono: La sposa meccanica (1951), La galassia Gutenberg. Nascita dell'uomo tipografico (1962), Gli strumenti del comunicare (1964), Dall'occhio all'orecchio (1982).

    Per saperne di più: AA.VV., I conti con McLuhan trent'anni dopo, "Problemi dell'informazione", 3, 1997; G. Bechelloni, L'immaginario quotidiano. Televisione e cultura di massa in Italia, Eri, 1984; G.Gamaleri, La galassia McLuhan. Il mondo plasmato dai media, Armando, 1995; M. McLuhan, E. McLuhan, La legge dei media (1988), Edizioni Lavoro, 1994.
    McLuhan (Gli strumenti del comunicare, 1964)



    Introduzione alla sociologia della comunicazione di massa

    [a cura di Andrea Miconi]

    1 Come si studiano i media

    * 1.1 La ricerca empirica
    * 1.2 La semiotica
    * 1.3 La sociologia dell’interazione
    * 1.4 La "mediologia"
    * 1.5 Media e politica
    * 1.6 Apocalittici e integrati
    * 1.7 Gli autori
    o Roland Barthes
    o Jean Baudrillard
    o Règis Debray
    o Umberto Eco
    o Paolo Fabbri
    o Harold Innis
    o Harold Lasswell
    o Paul Lazarsfeld
    o Pierre Lévy
    o Marshall McLuhan
    o Edgar Morin
    o David Morley
    o Paul Watzlawick
    o Raymond Williams

    2 Storia e preistoria dei media

    * 2.1 La radio
    * 2.2 Il telefono
    * 2.3 Il cinema
    * 2.4 La televisione
    * 2.5 Il (personal) computer
    * 2.6 Internet

    3 Eventi mediali

    * 3.1 Che cos’è un evento mediale
    * 3.2 Eventi

    4 Le utopie

    * 4.1 Utopie della comunicazione
    * 4.2 La teoria prende forma
    * 4.3 Le utopie negative
    * 4.4 Nuove (cyber)frontiere

    1.Come si studiano i media

    Per avere una conferma dell'importanza assunta dai mezzi di comunicazione nella cultura contemporanea, è sufficiente osservare la crescente attenzione destinata ad essi da tutte le scienze umane. Rispetto a tutte le discipline e le scuole di pensiero che si occupano di comunicazione, le aree individuate costituiscono, naturalmente, una semplificazione. Tuttavia lo scopo di un'opera introduttiva, come questa, non è di esaurire gli argomenti di cui si occupa ma di ridurne la complessità, e di fornire una visione di insieme effettivamente rappresentativa dell'universo tematico a cui si riferisce. Se si considera che le discipline che possono interessarci non sono tutte quelle che si sono occupate di comunicazione sociale, ma soltanto quelle disposte ad eleggere la comunicazione a principale oggetto di studio, la rassegna proposta, per quanto forzatamente schematica, costituirà tanto più una buona approssimazione, un valido strumento per costruire la propria attrezzatura concettuale.

    http://www.elettropedia.org/scm/intmed.htm


    spunto per Ringraziamenti
    Ringraziamenti
    Un grazie di cuore a tutti coloro che, a vario titolo, in molte occasioni hanno dato un contributo
    e collaborato, dando preziosi consigli e suggerimenti, in merito alla progettazione ... Un particolare ringraziamento va a...Inoltre, un grazie
    alla ...
    Infine, un sentito
    grazie agli utenti dei forum...
    hanno sostenuto ... sin dall’inizio, partecipando alla loro realizzazione come docenti,
    ed hanno accolto favorevolmente la pubblicazione di questa tesi....


    Bibliografia/sitografia
    McLuhan (Gli strumenti del comunicare, 1964)
    http://www.elettropedia.org/primo.htm


    [Frase introduttiva]
    Il giovane Narciso scambiò la propria immagine riflessa nell’acqua per un’altra persona e quest’estensione speculare di se stesso attutì le sue percezioni fino a fare di lui il servomeccanismo della propria immagine estesa. Narciso era intorpidito. Si era conformato all’estensione di stesso divenendo così un circuito chiuso. Il senso di questo mito è che gli esseri umani sono soggetti all’immediato fascino di ogni estensione
    di sé, riprodotta in un materiale diverso da quello stesso di cui sono fatti.
    (...)
    Per contemplare, utilizzare o percepire qualsiasi estensione di noi stessi in forma tecnologica è necessario riceverla. E’ l’ininterrotta ricezione della nostra tecnologia nell’uso quotidiano che, nel rapporto con queste immagini di noi stessi, ci pone nella posizione narcisistica della coscienza subliminale e del torpore. Ricevendo continuamente tecnologie ci poniamo nei loro confronti come altrettanti servomeccanismi. Sul piano fisiologico, l’uomo è perpetuamente modificato dall’uso normale della tecnologia, o del proprio corpo esteso, e trova a sua volta modi sempre nuovi per modificarla.
    MarshallMcLuhan
    Gli strumenti del comunicare, 1964


    Interfaccia di Fabrizio Carli

    Definire l’interfaccia come lo spazio di comunicazione e interazione tra l’uomo e l’artefatto significa parlare delle interfacce uomo-macchina, come ad esempio il pannello di un telecomando o il desktop di un personal computer. Esistono infatti altri tipi di interfaccia che richiedono definizioni diverse, per esempio le interfacce macchina-macchina (dispositivi elettrici ed elettronici) e le interfacce uomo-uomo (il linguaggio naturale). Un’interfaccia uomo-macchina è un sistema meccanico e/o digitale di segni e di simboli che attivato produce un’azione capace di tradurre un atto umano in una istruzione comprensibile per la macchina (ruotare la manopola della lavatrice per selezionare un programma, premere il tasto con il simbolo delle forbici per segnalare a un editor di testo l’intenzione di tagliare una porzione di scritto).
    Al di sotto di una interfaccia digitale risiedono istruzioni tradotte attraverso un linguaggio di programmazione, mentre al di sotto di una interfaccia meccanica si trovano dispositivi in grado di rispondere a regole meccaniche. Naturalmente esistono casi misti.
    Nel campo dell’interazione uomo-computer la storia delle interfacce inizia negli anni Quaranta con la nascita dei primi calcolatori realizzati elettromeccanicamente per mezzo di valvole e relé. Le prime interfacce sono quindi di tipo elettromeccanico: manopole, pulsanti, indicatori e spie luminose permettono l’immissione dei dati (consistenti in impulsi elettrici) e restituiscono un feedback da parte della macchina. Negli anni Cinquanta l’immissione dati (la comunicazione con la macchina) si semplifica con l’introduzione delle schede perforate che costituiscono un’evoluzione dell’interfaccia sia in termini di usabilità che in termini di esportabilità (le schede consentono la memorizzazione delle istruzioni che possono così essere utilizzate con più macchine per più volte). Le prime tastiere per l’introduzione dei dati risalgono agli anni Sessanta. Bisognerà però attendere gli anni Settanta per assistere all’utilizzo dei primi monitor a tubo catodico su cui ricevere un feedback immediato e alfanumericamente tradotto dell’informazione immessa. In questi anni la rappresentazione è tuttavia ancora poco “amichevole”: l’attuale aspetto delle interfacce per pc (interfacce grafiche ad icone) si afferma solo nella seconda metà degli anni Ottanta (nel 1981 viene commercializzato il primo mouse) ed è inaugurata dai computer Apple con l’adozione della metafora grafica della scrivania (desktop).
    Non molto dissimile dalla storia delle interfacce uomo-computer è la storia delle interfacce elettromeccaniche (come quelle degli elettrodomestici). In estrema sintesi, l’evoluzione di questo tipo di interfacce risponde a una complessificazione delle funzioni dell’artefatto. Anche in questo campo si registra un passaggio dalle interfacce di tipo elettromeccanico a quelle di tipo digitale. A differenza dei computer le interfacce digitali di molti degli oggetti elettrici d’uso quotidiano controllano soprattutto processi di tipo meccanico (si pensi al pannello programmabile di una lavatrice o a quello di un videoregistratore).
    I primi artefatti elettrici d’uso quotidiano, risalenti alla seconda metà del 1800, non possedevano interfacce utente. In questo campo le prime interfacce si proponevano innanzitutto di risolvere problemi di sicurezza (si pensi alla struttura dei primi tostapane, in cui l’apparato elettrico è pericolosamente alla portata dell’utente). La prima interfaccia per oggetti d’uso quotidiano è quindi la scocca, ovvero la copertura posta sull’apparato elettrico. Le migliorie, in questo campo, sono di esclusiva competenza del disegno industriale che propone soluzioni asistematiche, valide per i singoli casi ma prive di progettualità e di una metodologia generalizzabile. Il design, tuttavia, rappresenta in nuce l’idea di interfaccia utente, l’approdo della problematica comunicativa nel campo della progettazione di oggetti d’uso quotidiano. Dal momento che l’artefatto diviene opaco (poiché l’espressione della sua funzione scompare al di sotto della scocca), al design spetta il compito di comunicare la destinazione d’uso attraverso codici che non “rappresentano” la funzione ma la “significano”. Si pone così il problema della sedimentazione dei codici (una coppa di vetro posta su un motore elettrico significa, almeno tendenzialmente, l’azione del frullare) che darà vita al fenomeno della serializzazione delle forme. In altri termini, un asciugacapelli può essere costruito in un’infinità di modi, ma se lo si disegnerà con la classica forma “a pistola” ci si potrà risparmiare la fatica di precisare la sua funzione, perché l’utente è abituato a riconoscere e a utilizzare asciugacapelli che assomigliano a pistole.
    Con questa osservazione si torna alla definizione iniziale di interfaccia come spazio di comunicazione tra l’uomo e l’artefatto, ma a questo punto si può comprendere come questa funzione gli possa essere attribuita solo ed esclusivamente a condizione che l’oggetto presenti un adeguato formato rappresentazionale. L’interfaccia di un editor di testo prima di mettere l’utente in condizioni di scrivere deve infatti comunicare a quest’ultimo la sua funzione, in modo che non possa essere scambiato, ad esempio, con un browser per la navigazione in rete. Tutto ciò significa che la prima funzione dell’interfaccia è quella di comunicare la funzione dell’oggetto (la sua destinazione d’uso) e in secondo luogo la sua modalità d’uso (come utilizzare l’oggetto). La priorità comunicativa di carattere generale (la destinazione d’uso) evidenzia la funzione informativa dell’interfaccia rispetto alla sua funzione operativa. Non potrebbe essere altrimenti: se l’utente fraintendesse la funzione di un artefatto verrebbe automaticamente mano anche la funzionalità dell’interfaccia.
    La capacità di proporre un adeguato formato rappresentazionale dipende da molti fattori. Tra questi la sedimentazione dei codici comunicativi è uno degli aspetti più importanti. Proprio per fare fronte a questa necessità a partire dagli anni Cinquanta l’ergonomia classica inizia un tipo di intervento sistematico e metodologico proponendo regole di progettazione comuni per qualsiasi artefatto destinato all’uso umano. In questo senso da alcuni decenni la progettazione d’interfacce è sostenuta dall’ausilio di due discipline: il disegno industriale per quanto riguarda gli aspetti più generali della comunicazione e l’ergonomia cognitiva per quanto riguarda questioni più specifiche relative alle modalità d’uso. Entrambe queste discipline si occupano di rendere l’artefatto fortemente comunicativo

    Pubblicato in Lessico della Comunicazione Meltemi 2004.
    http://www.elettropedia.org/interfaccia.htm

    2.5 Il (personal) computer

    Se gli artefatti tecnologici sono il compimento di un desiderio (diffondere il suono, trasmettere l'immagine, conservare la parola, e così via), il desiderio da cui è nato il computer è senza dubbio quello di riprodurre l'intelligenza umana (anche se il termine "intelligenza artificiale", in realtà, è stato introdotto da John McCarthy solo nel 1956). Non è allora un caso, probabilmente, che i primi rudimentali elaboratori siano stati realizzati da due filosofi: Blaise Pascal (1623-1662), autore già nel 1642 della celebre "pascalina" per le operazioni matematiche, e Gottfried Leibniz (1646-1716), ideatore trent'anni più tardi (1673) di un'analoga macchina calcolatrice.

    Il vero pioniere della ricerca informatica è stato però il matematico ed economista inglese Charles Babbage (1791-1871), che ha messo a punto prima la "Macchina delle differenze" (1822) per la produzione di tavole matematiche, e poi (1833) la "Macchina analitica" per la risoluzione di formule e funzioni complesse. Babbage, in realtà, non ha mai portato a compimento i propri progetti, ma ha idealmente aperto una nuova era nel campo del trattamento delle informazioni (che già nel 1890 avrebbe trovato la prima realizzazione concreta, con la macchina a schede perforate costruita da Hermann Hollerith).

    Nelle sue prime versioni e progettazioni, il computer era quindi immaginato sostanzialmente come un elaboratore matematico. In ogni caso, dopo essere vissuta di episodi e di realizzazioni artigianali, come il calcolatore Z1 (il primo vero calcolatore, costruito in Germania nel 1931) e la macchina computazionale ideata nel 1936 da Alan Turing, che il suo autore voleva capace di risolvere "ogni funzione calcolabile", la ricerca informatica è entrata in una fase più produttiva e compiutamente industriale. Nel 1940, un ricercatore dei laboratori Bell (George Stibiz) ha messo a punto il Complex Calculator, il primo calcolatore scientifico elettromeccanico. E nel 1944, l'équipe di ricerca dell'Università di Harvard ha realizzato il prototipo ASCC (Automatic Sequence Controlled Calculator), il primo calcolatore controllato da un programma, e quindi molto simile ad un vero e proprio computer (seppure analogico). In funzione per quindici anni (fino al 1959), l'ASCC realizzava moltiplicazioni complesse in quattro secondi ed impiegava appena un terzo di secondo per eseguire le addizioni.

    Il modello più ambizioso di questo periodo, l'ENIAC (Electronic Numerical Integrator and Computer), è stato però realizzato tra il 1945 ed il 1946 alla Moore School di Philadelphia. Pesante 80 tonnellate e alimentato da 18.000 valvole elettroniche, l'ENIAC arrivava ad eseguire 360 moltiplicazioni e oltre 5.000 addizioni al secondo. Nello stesso periodo, John Von Neumann aveva elaborato le sue idee sul funzionamento delle macchine di programmazione, mettendo a punto il modello logico da cui vengono informati anche gli attuali computer. Con gli anni cinquanta, tuttavia, il paradigma del computer come calcolatore si è gradualmente esaurito (già prima di essere portato a compimento con il calcolatore elettronico tascabile, realizzato nel 1972 nei laboratori della Texas Instruments), lasciando spazio a paradigmi di ricerca più sensibili alle possibili applicazioni sociali del computer.

    Anche se non del tutto espressa, infatti, la rilevanza sociale (ed economica) del computer era già stata intuita dai ricercatori e dagli imprenditori del settore. Molto convincente, in questo senso, era stata la performance dell'elaboratore UNIVAC I, che nel 1952 era riuscito a calcolare i risultati elettorali appena un'ora dopo la chiusura delle urne. Tra gli anni cinquanta e gli anni sessanta, di fatto, è gradualmente maturata la convinzione dell'utilità del computer rispetto a problemi non soltanto di ordine matematico. In questo periodo, di conseguenza, il mercato informatico è stato fatto oggetto di attenzioni particolari e di investimenti in costante crescita. L'IBM (International Business Machine, nata nel 1924) ha dato concretezza ai suoi sforzi producendo nel 1952 il modello 701, un prototipo relativamente evoluto. Nel 1958, la società giapponese NEC aveva invece prodotto i primi computer elettronici (NEC-1101 e NEC-1102), senza peraltro sondarne realmente le possibilità di mercato. Un decennio più tardi, nel 1968, Gordon Moore e Robert Noyce avrebbero fondato la Intel, destinata a diventare la maggiore casa produttrice di microprocessori del mondo. Quando nel 1958 il ricercatore della Texas Instruments Jack Kilby ha messo a punto il primo circuito integrato su piastrina di silicio (favorendo, attraverso la miniaturizzazione dei circuiti, la massima economia nella conservazione delle informazioni), i tempi erano maturi per uno sfruttamento intensivo del settore informatico.

    Negli anni settanta, infatti, la ricerca sul computer ha conosciuto un enorme sviluppo. La società Intel ha prodotto una serie di microprocessori sempre più evoluti e sempre più affidabili: nel 1971 prima il modello Intel 4004 (adottato dall'IBM 370) e poi l'Intel 8008 a 8 bit, e nel 1974 il modello perfezionato Intel 8080, destinato ad essere utilizzato nei personal computer. Il grande traguardo della produzione informatica, di fatto, consisteva proprio nel passaggio dal computer al personal computer, cioè ad un mezzo più leggero e più semplice da usare, in grado di imporsi come apparecchio domestico. Il primo personal computer, costruito al MIT nel 1975, è stato l'Altair (in onore di un episodio della serie Star Strek, intitolato appunto "Viaggio ad Altair"), venduto ad un prezzo ancora piuttosto alto (397 dollari), ma costruito esplicitamente, per la prima volta, per uso privato. Non coincidenzialmente, nello stesso anno ha aperto a Santa Monica, in California, il primo negozio di computer della storia.

    Sulla produzione informatica stavano così concentrandosi attenzioni e sforzi imprenditoriali sempre maggiori. Nel 1971, Bill Gates e Paul Allen hanno fondato la società Microsoft, destinata a guadagnare una posizione di egemonia a partire dal 1982 (anno in cui Bill Gates ha iniziato a fornire il sistema operativo Ms-dos ai computer IBM) e a diventare la maggiore azienda informatica del mondo, al punto da richiedere a più riprese l'intervento della Commissione Antitrust degli Stati Uniti. Intanto, nel 1976, un giovane ricercatore intraprendente, Steve Jobs, aveva progettato un modello alternativo di personal computer, chiamato Apple 1. Nel 1977, costruito il prototipo in una versione più evoluta (Apple 2, naturalmente), Jobs aveva di fatto inventato il marchio Apple, proponendosi attivamente nel mercato dei personal computer. La terza versione dell'Apple, messa a punto nel 1978, va ricordata perché comprendeva per la prima volta il floppy-disk per la registrazione dei dati (anche se non ancora nel formato attuale, da 3,5 pollici, diffuso nel 1989). Alla fine degli anni settanta, in ogni caso, diversi produttori (Apple, Tandy, Commodore) iniziavano a contendersi il mercato dei personal computer.

    Al di là delle intenzioni dei produttori, tuttavia, la diffusione del computer era ostacolata dai costi elevati dei primi modelli "domestici". Una svolta decisiva, in questo senso, è stata segnata dalla società Compaq, che a partire dal 1982 ha messo in vendita su grande scala esemplari a costo relativamente basso (i cosiddetti "cloni"), ottenendo un risultato straordinario che ha coinciso con il miglior primo anno di vendita (con un fatturato di 111 milioni di dollari già nel gennaio 1983) nella storia del business americano. Gli effetti di questo successo, peraltro, hanno agito non solo sui destini della Compaq ma anche sull'assetto tecnologico della società: se negli Stati Uniti esistevano nel 1982 più di un milione di computer, la quota è salita a dieci milioni nel 1983 e addirittura a trenta milioni nel 1986. Nel 1982, intanto, la rivista Time aveva eletto il computer a uomo dell'anno.

    La sfida successiva consisteva nel rendere il computer, ormai dichiaratamente destinato anche all'uso domestico, un mezzo più semplice da utilizzare e perfino più amichevole. La traccia da seguire era stata ovviamente segnata dall'evoluzione dei microprocessori: nel 1982 è stato prodotto il modello 80286, nel 1985 il 386 e nel 1989 il 486: nel 1993, infine, è comparso il Pentium, l'ultima generazione di processori (a sua volta in rapida evoluzione, visto che oggi siamo nell'epoca del Pentium III). Perché il computer entrasse realmente nei costumi quotidiani, era però necessario dotarlo anche di sistemi operativi e di software più evoluti e più facilmente utilizzabili. L'innovazione più rilevante, in questo senso, è stata l'interfaccia grafica (che crea sullo schermo un ambiente simile alla scrivania), introdotta dalla Apple nel 1984 con il nuovo computer Macintosh, e in seguito adottata anche dalla Microsoft nel 1990 con il sistema Windows 3.0 e poi con la sua versione più avanzata 3.1 (1992). Nello stesso anno, seguendo la stessa logica di semplificazione dell'interfaccia di utenza, l'IBM aveva lanciato anche il sistema operativo OS/2, piuttosto evoluto ma poco fortunato sul mercato. Destino diverso è toccato invece al sistema operativo Windows 95, lanciato a livello planetario dalla Microsoft di Bill Gates (appunto nel 1995) e diventato il più clamoroso successo informatico di ogni tempo.

    Tra gli anni ottanta e gli anni novanta, quindi, il computer è stato soggetto ad un'autentica trasformazione, che lo ha arricchito di componenti hardware sempre più avanzate e di software sempre più amichevoli. Un grande successo è stato ottenuto, in particolare, dai programmi di videoscrittura (il celebre Word, nelle sue varie versioni), che hanno perfezionato lo schema originale del Wordstar, prodotto addirittura nel 1979. Allo stesso modo i diversi fogli di calcolo (prima Lotus e poi Excel di Microsoft) hanno ripreso e migliorato il primo rudimentale foglio di lavoro, proposto a sua volta nel 1979 con il nome di Visicalc. Nel 1985 è stato invece messo a punto il Cd-Rom (Compact Disc Read Only Memory), il supporto a lettura laser che ha aperto possibilità straordinarie di divulgazione attraverso le nuove tecnologie. Con il primo "powerbook" della Apple, nel 1989, si è invece aperta l'epoca del computer portatile, che ha sancito la nascita di un rapporto sempre più intimo del consumatore con il proprio computer. In questo senso, l'ultima frontiera della produzione informatica è probabilmente rappresentato dal modello "iMac" della casa Apple, l'ultima invenzione di Steve Jobs: puntando non soltanto sulla qualità delle prestazioni ma anche su nuovi valori di richiamo (il design, la colorazione, la qualità estetica del prodotto), questo modello ha idealmente completato la transizione del computer da prodotto tecnologico a mezzo domestico, da oggetto straordinario a strumento di uso ordinario.
    http://www.elettropedia.org/scm/intmed.htm#Anchor2.5

    2.6 Internet

    Nato come elaboratore di informazioni e come calcolatore matematico, nel corso del tempo il computer si è evoluto fino a diventare un vero e proprio mezzo di comunicazione, attraverso la connessione telematica e la nascita di Internet, la "rete delle reti". Questo processo si è però compiuto in modo graduale, ed è stato il prodotto finale di una lunga serie di investimenti e di ricerche, destinati inizialmente a scopi militari e poi riconvertiti alla produzione culturale. La storia di Internet inizia infatti con la guerra fredda.

    Nel 1957, l'Unione Sovietica aveva inviato nello spazio il primo satellite artificiale (lo Sputnik, raggiunto l'anno successivo dal primo satellite orbitante americano), iniziando così l'esplorazione di un nuovo terreno di conflitto. Per prevenire un'eventuale strategia offensiva dell'Unione Sovietica, gli Stati Uniti hanno varato sempre nel 1957 il piano difensivo ARPA (Advanced Research Projects Agency), progettato per governare le attrezzature militari anche in caso di attacchi atomici. Il primo prodotto di questo sforzo è stata Arpanet, creata nel 1964 come prototipo di rete tra quattro computer e sviluppata nel 1969 con la connessione tra le Università di Los Angeles, Stanford, Utah e Santa Barbara. Arpanet non ha però avuto l'importanza strategica di cui era stata inizialmente accreditata, e tra gli anni settanta e gli anni ottanta è stata divisa in due sezioni (Arpanet per la ricerca avanzata e Milnet per gli scopi militari) perdendo la propria centralità proprio nel periodo in cui si andava diffondendo il termine "Internet".

    Da un punto di vista tecnologico, di fatto, Internet si è sviluppata sulla traccia della rete difensiva progettata dagli Stati Uniti, arricchendosi gradualmente dei contributi offerti dalla ricerca ma anche dalla passione dei cosiddetti "hackers", progettisti informatici artigianali che hanno influenzato in modo rilevante il destino dell'informatica. Le prime ricerche significative per lo sviluppo delle attuali reti telematiche risalgono alla metà degli anni sessanta, quando la definizione del modello "Rand" ha permesso di trasmettere "pacchetti" di informazione attraverso terminali elettronici. A facilitare queste ricerche ha poi contribuito in modo decisivo l'invenzione del microchip, messo a punto da Jack Kilby nel 1971, che di fatto ha aperto l'epoca digitale e favorito nuove applicazioni nel campo della gestione e della trasmissione dei dati informatici.

    Già nel 1972, un ingegnere americano, Ray Tomlinson, ha messo a punto il primo programma di posta elettronica (e-mail), creando da subito le premesse per un uso interattivo ed orizzontale della rete telematica: prima ancora dell'esistenza (vera e propria) di Internet, di fatto, si era posta la necessità di un medium in grado di garantire la comunicazione equilibrata e paritaria tra gli utenti (a differenza dei media "generalisti", che seguono invece un modello diffusivo). Inoltre lo stesso Tomlinson, volendo inserire un segnale di divisione tra i diversi domini degli indirizzi elettronici, ha scelto il simbolo che riteneva meno utilizzato, la "chiocciolina" (@), creando così uno dei simboli più celebri e più conosciuti dell'innovazione tecnologica. L'importanza di questo nuovo medium "orizzontale" è confermata dalla rapida diffusione di newsgroup o gruppi di discussione che si affacciavano sulla rete. In particolare, nel 1979, un giovane studente dell'Università del North Carolina, Steve Bellovin, (in collaborazione con i ricercatori Ellis e Truscott) ha messo a punto USENET (acronimo di Users' Network), una rete a disposizione degli utenti per lo scambio di messaggi personali.

    Da un punto di vista tecnologico, tuttavia, mancavano ancora alcuni passaggi fondamentali per la strutturazione definitiva delle rete telematica, che sono stati progressivamente soddisfatti nel corso degli anni settanta. Nel 1973 è stato messo a punto il vero e proprio mezzo di trasmissione dell'informazione, il protocollo TCP/IP, divenuto obbligatorio un decennio più tardi (1983) e necessario a connettere i computer in rete. Il protocollo TCP/IP è formato dall'unione di due protocolli diversi: il primo (IP) permette il trasporto effettivo dell'informazione, mentre il secondo (TCP), con funzione di controllo, ordina le informazioni e risolve i problemi di trasmissione, frequenti in caso di pacchetti di informazione molto voluminosi. I problemi di velocità della trasmissione sono stati invece risolti dal ricercatore Robert Metcalfe, che nel 1976 ha messo a punto il sistema Ethernet, che attraverso il cavo coassiale consente un notevole miglioramento delle prestazioni. Internet stava così nascendo: nel 1976 ha preso corpo il progetto SATENET, che attraverso il satellite Intelsat ha connesso l'Europa agli Stati Uniti, e alla fine degli anni settanta si è iniziato a parlare diffusamente di telematica (termine che nasce dall'unione di informatica e telecomunicazione).

    L'ultimo problema da risolvere per facilitare la connessione in rete era di natura strettamente pratica. I diversi computer o "nodi" ("host") collegati in rete erano infatti identificati da un preciso indirizzo, costituito da numeri di 32 bit (divisi in quattro gruppi di otto bit, separati tra loro da un punto). Questi indirizzi risultavano però difficili da ricordare e poco pratici da utilizzare. Per questa ragione, nel 1983 è stato messo a punto il sistema DNS (Domain Name System), in grado di tradurre le sequenze numeriche in una stringa più facilmente leggibile, costituita dai nomi dei diversi domini, separati da un punto (ad esempio: www.Rai.it). Nello stesso anno, la nascita di un istituto come l'Internet Activities Board (IAB) sanciva in via ufficiale la nascita del nuovo mezzo di comunicazione.

    Fin dall'inizio, Internet ha mostrato una caratteristica paradossale: pur essendo lo strumento in grado di offrire la maggiore quantità di informazioni, la rete è anche il mezzo che, da un certo punto di vista, rende più difficile l'accesso alle informazioni. Raccogliendo tutte le informazioni disponibili sul pianeta, Internet ha infatti aggirato la funzione di mediazione svolte dalle agenzie sociali tradizionali (scuola, stampa, intellettuali, leader d'opinione, e così via), ponendo l'individuo di fronte ad una condizione di assoluta complessità culturale (è molto difficile, ad esempio, verificare l'attendibilità delle fonti telematiche, e quindi distinguere le notizie fondate da quelle infondate). Già nel periodo di prima diffusione della rete, infatti, si è avvertita l'esigenza di uno strumento in grado di guidare l'utente e di facilitare la sua ricerca (molto significativa è l'intestazione del motore di ricerca italiano intitolato "Virgilio"). Il primo di questi strumenti è stato "Archie" (1990), il sistema creato da Peter Deutsch per la ricerca di una stringa nella rete telematica, seguito da Gopher (1991), un enorme archivio informatico progettato per facilitare la ricerca agli utenti dilettanti, consultabile attraverso specifici comandi di ricerca (per la ricerca di materiali sia scritti che visivi) chiamati "Veronica".

    Alla metà degli anni novanta, questi strumenti sono stati sostituiti da sistemi più complessi, i cosiddetti "motori di ricerca" (nati quasi tutti nel 1995), che permettono di inviare una stringa e di ottenere la lista dei siti in cui questa stringa è contenuta. La maggior parte dei motori di ricerca sono stati creati dalle case di produzione, anche se non mancano eccezioni rilevanti: "Hotbot" è il motore di ricerca della rivista "Wired", mentre "Yahoo!" è stato messo a punto da due studenti dell'Università americana di Stanford. In ogni caso, l'utilità dei motori di ricerca è confermata dal grande successo che hanno conseguito, che li posiziona tra i siti più contattati: proprio un motore di ricerca (appunto "Yahoo!") risulta il sito più consultato in assoluto. La complessità della ricerca in rete ha tuttavia prodotto un'ulteriore specializzazione: ai motori di ricerca "generalisti" si sono infatti affiancati quelli tematici, adatti ad una ricerca di tipo specialistico, ed i cosiddetti "metamotori", che inviano la stringa selezionata su diversi motori di ricerca.

    La crescita di Internet è stata intensa, anche se non sempre lineare (e non sempre omogenea, a differenza di quanto avevano previsto molti teorici delle nuove tecnologie). Nel 1989, la rete contava circa 100.000 computer connessi, saliti a 2 milioni nel 1994 e cresciuti costantemente. Nel 1998, infatti, Internet conta quasi 150 milioni di computer in connessione (148.100.000 circa). Nel 1997, intanto, negli Stati Uniti il volume di messaggi elettronici ha superato per la prima volta il volume di messaggi scambiati attraverso la posta ordinaria.

    La diffusione di Internet, tuttavia, ha seguito (molto più della televisione) alcune precise discriminazioni di ordine geopolitico. Nel 1999, ad esempio, nell'America del Nord (Stati Uniti e Canada) si contavano complessivamente più di 87 milioni di computer in rete, che scendono a 33 milioni in Europa, a 22 milioni in Asia, e a cifre notevolmente più basse nelle zone povere del pianeta, l'America del Sud (quattro milioni e mezzo di computer e connessi) e l'Africa (appena 800.000). Molto particolare è il caso dell'Italia, che per ragioni culturali si è mostrata molto ricettiva verso alcuni media (televisione e stampa periodica) e molto fredda nei confronti di altri (la stampa quotidiana), e che allo stesso modo ha abbracciato alcune innovazioni (come il telefono cellulare) piuttosto che altre (appunto i mezzi informatici: al punto che l'Italia è il ventiseiesimo paese al mondo per diffusione di computer).

    In Italia si contavano, all'inizio del 1999, circa un milione e mezzo di abbonamenti Internet. Il dato sembra credibile, perché se da un lato sottovaluta la diffusione di Internet (nel senso che il numero effettivo degli utenti è almeno doppio rispetto al numero degli abbonamenti), da un altro lato, in qualche modo, lo sopravvaluta (perché quasi la metà degli utenti italiani, il 48%, dichiara di connettersi in rete soltanto nel luogo di lavoro). Oltre al dato quantitativo, è interessante anche il dato qualitativo, che permette di ricostruire le caratteristiche dell'utente italiano di Internet: che è prevalentemente di sesso maschile (al 66%), benestante ed istruito (tra quanti usano Internet da casa, i laureati sono il 20% e i diplomati il 62%, e le percentuali aumentano tra quanti usano Internet nel luogo di lavoro). L'utente di Internet, inoltre, è prevalentemente un giovane di età compresa tra i 18 ed i 35 anni (infatti il 60% di quanti usano Internet da casa e oltre il 75% di quanti lo usano per lavoro hanno meno di 45 anni).

    Se Internet è realmente (come probabilmente sarà) un mezzo in grado di cambiare l'esperienza sociale degli individui (proprio in quanto lo confronta direttamente alle informazioni, eliminando la mediazione degli istituti sociali e culturali), questi dati assumono una grande importanza. Il maggiore rischio legato alle reti telematiche è infatti quello di uno sviluppo che comporti l'esclusione di una parte significativa della popolazione. Un rischio che le nuove tecnologie alimentano, esattamente come sostengono le straordinarie possibilità che hanno aperto.
    http://www.elettropedia.org/scm/intmed.htm#Anchor2.6
     
    .
  13. _Nicoletta
     
    .

    User deleted


    Utopie della comunicazione
    http://www.elettropedia.org/scm/intmed.htm#Anchor4.1

    4.2 La teoria prende forma
    http://www.elettropedia.org/scm/intmed.htm#Anchor4.2

    4.3 Le utopie negative
    http://www.elettropedia.org/scm/intmed.htm#Anchor4.3

    4.4 Nuove (cyber)frontiere
    http://www.elettropedia.org/scm/intmed.htm#Anchor4.4


    Spunto:
    Anche se i mezzi di comunicazione hanno gradualmente invaso il nostro immaginario, hanno legato il proprio destino a quello dell'Occidente e della società industriale avanzata. Ne hanno assorbito i desideri e le angosce, le sensazioni di riscatto e le paure. Né il pensiero positivo né quello negativo hanno potuto farne a meno, hanno saputo rinunciare alla centralità che i media hanno assunto nell'evoluzione civile e politica contemporanea. Alla sensibilità dei produttori di immaginario, il destino dell'umanità è apparso sempre più legato al destino della comunicazione, al suo funzionamento e al suo potere.

    Ogni territorio ha le sue mitologie, i suoi conflitti, i suoi ribelli e i suoi eroi. La Rete non poteva farne a meno. Possiamo anzi immaginarla così, la Rete: come un nuovo campo di conflittualità, come terreno di esercizio di nuove e più radicali rivendicazioni sociali, civili e politiche. Infatti se Internet ha aperto ai suoi utenti straordinarie possibilità di conoscenza e quindi di consapevolezza politica, allo stesso tempo ha catalizzato gli investimenti dei gruppi di potere (sia pubblici che privati), in grado (almeno potenzialmente) di usare i nuovi strumenti telematici come mezzi di controllo sociale.

    Il destino della Rete (per utilizzare una semplice metafora spaziale) è così sospeso tra due modalità comunicative: quella verticale, imposta dalle grandi multinazionali per riproporre nel cyberspazio le discriminazioni culturali e politiche in atto nella società, e quella orizzontale, stimolata da un mezzo che favorisce l'interattività e (in qualche modo) la libertà di espressione. Troppo forte è infatti l'illusione democratica suscitata dalla Rete per non dare corso ad un'azione sistematica di guerriglia, che alcuni gruppi culturali "movimentisti" hanno messo in atto contro i vecchi e nuovi poteri istituzionali. Progettisti artigianali, amatori, hackers e pirati informatici costituiscono il fronte di questa "guerriglia", che - seppure con metodi estremi, come il sabotaggio e la diffusione di false notizie - cerca di sottrarre il cyberspazio al dominio dei poteri forti. L'ultima, disperata utopia, cresciuta all'ombra dell'evoluzione delle tecnologie comunicative.

    Per capire il senso di questo conflitto, è bene intendersi sulla portata di Internet non solo come strumento di comunicazione, ma come terreno di ridefinizione degli equilibri istituzionali e politici. Se questi equilibri di potere dipendono (com'è ovvio) dalla diffusione del sapere, è evidente che un mezzo come Internet contiene in sé un fortissimo potenziale eversivo, in quanto permette (almeno idealmente) ad ogni utente di confrontarsi direttamente a tutte le risorse di conoscenza. Tuttavia, allo stesso tempo, Internet contiene in sé un forte potenziale autoritario, nel senso che (sempre potenzialmente) rende costantemente misurabili gli spostamenti telematici dei suoi utenti. Tra queste due dimensioni e tra queste due potenzialità - entrambe innegabilmente interne al mezzo - si giocherà il destino della comunicazione. E le enormi risorse (economiche, tecnologiche, legislative e lobbystiche) di cui dispongono i poteri istituzionali delle aziende e dei governi centrali, a ben vedere, non fa che accrescere le ragioni di questa nuova utopia, la sua necessità e la sua seduzione.
    due lacrime puzzolenti di gin gli sgocciolavano ai lati del naso. Ma ogni cosa era a posto, ora, e tutto era definitivamente sistemato, la lotta era finita. Egli era riuscito vincitore su se stesso. Amava il Gran Fratello.
    George Orwell
    1984




    DAI GRAFFITI AL WEB: COME CAMBIA LA STRUTTURA REFERENZIALE NELL'ETA' DELLA RETE
    http://gircse.marginalia.it/~ceravolo/capII.php
    [INTESTAZIONE]

    [Introduzione]

    [Gli sviluppi della scrittura nella storia]

    [La referenza tramite il segno]

    [L'ipertestualità come spazio di scrittura]

    [Gestire la conoscenza in Rete]

    [BIBLIOGRAFIA]

    CAPITOLO II: LA REFERENZA TRAMITE IL SEGNO


    2.1 L'ipertesto come rete di segni.



    Come si è detto, la caratteristica maggiormente distintiva della digitalità è certamente la possibilità di fornire ordini di lettura dei dati che non siano necessariamente legati all'ordine di archiviazione. Questo avviene per un qualsiasi programma informatico. Anche un software che proponga una lettura dell'informazione completamente lineare offre al lettore dei dati che sono ordinati in modo diverso rispetto alla loro registrazione fisica nella memoria del computer. Ovviamente, utilizzare uno strumento digitale come il computer per un accesso lineare ai dati, non risulta vantaggioso. Tutti i programmi informatici, indipendentemente dal tipo di dati che gestiscano, per elaborazione grafica come sonora come testuale, permettono un'agile ricomposizione degli oggetti su cui lavorano. I pacchetti di byte, che rappresentano nella memoria del computer un oggetto visualizzato sullo schermo, possono essere facilmente divisi e riassemblati. Così l'informazione relativa al colore di una figura che stiamo visualizzando può essere facilmente isolata e con un solo comando modificata. Così di un suono si può modulare la frequenza o di un testo invertire l'ordine dei paragrafi.



    Questo stato fisico, flessibile ma anche labile, degli oggetti digitali non è però immediatamente chiaro a chi si avvicini per la prima volta a strumenti informatici. Esperienza di tutti i principianti è quella della insicurezza nei confronti del dati, facilmente cancellabili. Insicurezza che sorge dal non percepire dove questi fisicamente si collochino.

    Tra tutti gli strumenti informatici, quello che forse più di tutti rende all'utente manifeste le prerogative di un supporto digitale, è l'ipertesto.

    L'elemento fondamentale dell'ipertesto è il link. Il link, o collegamento ipertestuale, è un segno: una parola, un'immagine, una frase, appartenente a un testo, che lo collega con altri testi, o altri oggetti di un testo. Il collegamento può essere intratestuale, se il link collega fra loro porzioni di uno stesso testo, o intertestuale se collega due differenti testi. Si capisce subito come in realtà questa distinzione sia solo approssimativa, poiché definire in un insieme di segni un'unità testuale dipende dal concetto che si ha di testo. Nell'età della stampa un testo era ciò che si riuniva sotto uno stesso volume, o gruppo di volumi, oppure una sezione di volume graficamente individuata come unità a sé stante, collocata accanto a altre unità testuali che con essa formavano un percorso di lettura. In generale si potrebbe dire che l'unità testuale dipendeva da una scelta dell'autore, o curatore, dell'opera, che si incaricava di definirla precisamente. In un ipertesto, e ancora di più in una rete di ipertesti come a esempio Internet, la distinzione in singole unità testuali, se certo non sparisce, perché le pagine sono sempre ordinate sotto un dominio o caratterizzate da una veste grafica, tuttavia si fa molto più imprecisa.

    Il link spesso non collega fra loro solo due segni, a esempio due vocaboli che possono fornire informazioni simili o logicamente successive, ma il più delle volte assume su sé il compito di esplicitare un rapporto fra due sezioni testuali. A esempio due paragrafi di due testi prodotti in momenti diversi potrebbero essere collegati attraverso l'istituzione di un link su una parola chiave che ne sintetizzi il significato. Ne risulta che la rete possa concepirsi come una serie di sezioni testuali fra loro collegate. Bolter le ha definite unità topiche, Barthes le chiamava lessie ancor prima che l'ipertesto elettronico fosse realizzato (Barthes, 1970). Queste sezioni testuali sono unità significanti che un segno (una parola, un'immagine, una frase) ha il compito di rappresentare. Ogni rappresentazione è sempre anche una referenza, perché significando qualche cosa, un segno, necessariamente la indica, in un qualche modo, cioè definisce a cosa si sta riferendo. La questione della referenza nell'ipertesto si manifesta realmente e diventa cruciale per ogni lettore. Il segno-link propone un significato ma anche individua una sezione testuale diversa da quella alla quale esso stesso appartiene. Adoperando ipertesti si apprende subito la differenza tra il significato del link e la localizzazione della sezione testuale a cui il segno rimanda. Il link insomma è un segno che si rifà a altri segni. Non necessariamente per esprimere con essi un'identità, ma comunque un rapporto di senso, una, anche parziale, comunanza semantica.
     
    .
  14. _Nicoletta
     
    .

    User deleted


    DAI GRAFFITI AL WEB: COME CAMBIA LA STRUTTURA REFERENZIALE NELL'ETA' DELLA RETE

    CAPITOLO IV: GESTIRE LA CONOSCENZA IN RETE


    4.1 Legami in rete.



    Ripensando alla storia della scrittura, soprattutto nei suoi più recenti sviluppi, la si potrebbe abbastanza bene interpretare come il tentativo di porre una rete di relazioni, il più possibile esplicite e attive, fra gli elementi di un testo. Questa spinta risponde chiaramente all'idea che ogni segno costituisca con tutti gli altri una rete di rimandi ben al di là della sua più immediata posizione nell'ordine lineare di lettura.

    Le implicazioni che questo approccio semiotico prometterebbe di sviluppare sono legate all'antichissima utopia di poter servirsi, nella gestione della conoscenza, di un corpo semiotico di segni completamente attivo, nel quale ogni segno dica la sua relazione con ognuno degli altri come col tutto, di un corpo semiotico che ci fornisca una esatta fotografia della realtà, essendo in grado di esplicitare la collocazione di ogni significato di segno. Questa posizione utopica richiederebbe la possibilità di servirsi: innanzi tutto di un corpo universale di segni, di tutta la testualità che universalmente sia disponibile all'uomo; inoltre della capacità di rendere esplicito l'intero rapporto di relazioni che implicitamente un segno convoglia in sé.



    Evidentemente nel concreto queste due possibilità non sono realizzabili, per il semplice fatto che non si potrà mai racchiudere in un solo spazio tutta la testualità possibile e che non si sarà mai in grado di definire tutte le possibili relazioni fra un segno ed un altro. Resta il fatto che una buona critica del fenomeno della scrittura non possa mai dimenticarsi che tutta la storia e l'evolvere di questa tecnica è sottoposta a queste due grandi tensioni: l'universalità e la connettività. Quello che abbiamo, in un certo senso, fin qua tentato di fare è stato di mostrare la fondamentale rilevanza che queste due tensioni hanno nello sviluppo della scrittura e attraverso quali modalità, nel concreto della situazione tecnica odierna, esse trovino la loro attuazione.

    Si è visto bene come l'idea di ipertesto si vada necessariamente a risolvere in quella di rete universale di testi e come la scarsa predittività che oggi il link offre porti all'utilizzo delle possibilità di interconnessione nelle modalità più semplici e tradizionali, con la preminenza delle funzioni di archiviazione e di ricerca. Riguardo alla questione del legame, della referenza tra segni, si è mostrato come la sola possibilità per un segno di costituire referenze diverse in un sistema non eccessivamente complesso da risultare insensato si attui nella disposizione a più livelli delle sue implicazioni, mantenendo non rigida la gerarchia dei livelli ma consentendone differenti configurazioni.



    Per quanto riguarda la situazione attuale i limiti che le tensioni di universalità e di connettività devono subire possono dipendere da diversi fattori: socio-culturali, socio-economici (si pensi ad esempio a problemi come quello del diritto di autore o della effettiva diffusione della rete informatica) ma certamente quello tecnico appare il più interessante da considerare.

    La rapidità della diffusione di Internet è dovuta certamente all'utilità dello strumento, alle sue implicazioni rivoluzionarie, ma non si sarebbe mai realizzata senza la presenza di un substrato tecnico facilmente diffondibile. HTML ha rappresentato lo strumento ideale per fungere da substrato. Innanzitutto, problema fondamentale in informatica, si tratta di un linguaggio fruibile da qualsiasi sistema operativo, oltre a ciò il suo utilizzo è semplice, sufficientemente intuitivo e aperto alla comprensione anche di chi non possegga particolari competenze informatiche. Queste due caratteristiche derivano dal fatto che HTML non è altro che un linguaggio di formattazione e visualizzazione di testo, un linguaggio che, partendo da un testo qualsiasi, definisce per ogni elemento la sua dimensione, forma, colore, posizione ecc… HTML (Hyper Text Markup Language) nasce dalla aggiunta dell'elemento Link che Tim Berners-Lee apportò ad una applicazione SGML (Standard Generalized Markup Language) utilizzata all'interno del CERN di Ginevra per la circolazione dei documenti. In questo modo ad un testo si applica una marcatura che ne definisce la formattazione degli elementi, tra cui la possibilità per un elemento di costituire da collegamento ad un altro documento. Il fatto che tutto avvenga nella semplice definizione ad un unico livello della marcatura rende l'utilizzo di HTML semplice, tuttavia ne compromette fin da l'inizio la potenza (Darnel, 1998, 11). Definendo il link, la formattazione, ma anche altre informazioni quali ad esempio i metadati, a uno stesso livello, il mio documento presenterà tutti questi elementi come unità rendendo difficoltosa la trasmissione, l'interscambio differenziato, di questo tipo di informazioni.

    La cosa, detta così, può apparire non chiara, ma la scarsa predittività del link è in parte conseguenza di questa impossibilità in HTML di scindere i pacchetti di informazione. Se io esprimo i dati, i collegamenti e la formattazione sullo stesso documento, una volta volessi posizionare quel documento diversamente nella mia rete ipertestuale non potrò utilizzare solo le informazioni che mi servono per costituire la nuova relazione ma dovrò trascinarmi tutto il documento. In HTML i collegamenti fra documenti risultano molto spesso rozzi, nel senso che si presentano o incapaci di comunicare la reale relazione semantica che attivano o incapaci di offrire un testo che realizzi la relazione semantica promessa. Questo proprio per la rigidità del linguaggio che posiziona ogni tipo di marcatura allo stesso livello.

    In pratica HTML non consente nessun tipo di ordinamento semantico dell'informazione, non è possibile definire al suo interno una struttura o stabilire quali sezioni convoglino quale tipo di dati.

    La situazione è poi aggravata dal fatto che attualmente sulla rete le informazioni convogliate da un documento non si limitano a testo ed immagine ma molto spesso riguardano database, suoni, video, audio. HTML è stato chiamato a descrivere tipi differenti e specifici di informazioni, a definire relazioni complesse di collegamenti fra documenti, a trasmettere informazioni in diversi formati, cosa per la quale non era stato progettato e che ha reso evidente la sua eccessiva rigidità. Non a caso l'HTML è oggi affiancato da una miriade di supporti sul server (CGI, JAVA) che ne accrescono le potenzialità ma che acutizzano il problema della così detta balcanizzazione del Web, cioè della sua frammentazione in territori di informazione gestita da linguaggi diversi (Floyd, 2000).



    Oggi per la comunità informatica si offre tuttavia una possibilità di rendere più agilmente gestibile l'informazione in Internet, come anche nelle reti locali. Questa possibilità è offerta dal linguaggio di marcatura XML (Extensible Markup Language), un linguaggio che ha come sue caratteristiche fondamentali quelle di rendere libera e personale la marcatura del testo nonché di suddividere l'informazioni finale prodotta attraverso più documenti.


    4.2 Extensible Murkup Language.



    XML fu sviluppato dal XML Working Group, un gruppo di lavoro costituitosi nel 1996, all'interno del World Wide Web Consortium (W3C), il consorzio di aziende e produttori informatici che ha il compito di fornire per il Web strumenti il più possibili standardizzati. Il gruppo di lavoro era presieduto da Jon Bosak della Sun Microsystems con la partecipazione attiva dell’XML Special Interest Group (precedentemente noto come SGML Working Group) anch’esso organizzato dal W3C.

    L’obiettivo di questo gruppo di lavoro era di portare la potenza di SGML nel Web, possibilmente semplificandone la complicata sintassi e costruendo un linguaggio agile e flessibile (Young, 2000).



    Negli obiettivi progettuali del gruppo di lavoro XML si doveva presentare come un linguaggio semplice da utilizzare su Internet, in grado di supportare un gran numero di applicazioni, compatibile con SGML, costruito in modo da poter risultare intuitivamente leggibile dal programmatore, facilitando così la rapidità di progettazione (Floyd, 2000). Questi obbiettivi sono stati raggiunti attraverso due caratteristiche di XML: innanzi tutto la libertà di marcatura, per cui liberamente un programmatore decide quale nome e quale struttura dare ai tag di marcatura, la divisione su due distinti file dei dati e della loro formattazione consente invece un'agile gestione dell'informazione.



    Sostanzialmente un documento XML si costituisce di tre parti. Nel documento XML puro abbiamo unicamente i dati di testo, marcati da tag di apertura e chiusura che possono essere liberamente posti dal programmatore. In un altro documento viene invece dichiarata la struttura secondo la quale è stata espressa la marcatura dei dati. Questa dichiarazione può essere espressa o attraverso una DTD (Document Type Declaretion) o attraverso un XML Schema, cioè attraverso due differenti modalità di dichiarazione che più avanti esporremo meglio. In fine l'ultimo fondamentale stadio di definizione dell'informazione si attua nel foglio di stile, cioè in un documento che specifichi quale formattazione i dati debbano assumere. I fogli di stile possono essere espressi in più linguaggi: XSL, che è il linguaggio di formattazione costruito per XML, ma anche CSS o addirittura HTML.

    Già da queste semplici osservazioni si può capire come un linguaggio di questo tipo offra un'alta flessibilità, sia nella definizione della struttura dei dati, sia nella rappresentazione. In pratica, poiché i dati sono collocati a livello diverso rispetto alla loro struttura e alla loro visualizzazione, essi possono essere trasferiti verso nuovi rapporti strutturali e verso nuove funzioni fruitive.


    A questo punto è possibile iniziare a scrivere il nostro documento. Tutti i dati contenuti nel mio documento dovranno essere inseriti all'interno di due tag: uno di apertura, al quale potrò assegnare qualsiasi nome, a parte ovviamente quelli già assegnati ad altri elementi, e uno di chiusura che porterà lo stesso nome di quello di apertura preceduto però da una barra obliqua (slash).

    Il primo elemento, il primo tag, che verrà postò sarà l'elemento documento, spesso chiamato anche root, questo elemento conterrà tutti gli altri e tutti i dati inseriti nel documento e ad esso bisognerà fare riferimento qualora si voglia richiamare l'intero documento. E' quindi chiaro che potrà esistere un solo elemento documento, che dovrà aprirsi all'inizio e chiudersi alla fine, tutti gli altri elementi dovranno stare al suo interno e nessuno lo potrà affiancare allo stesso livello della gerarchia (Giannì, 2000).

    Escludendo l'elemento di documento, l'elemento iniziale, tutti gli altri possono essere tranquillamente nidificati l'uno dentro l'altro. Un elemento che contiene al suo interno un altro è detto genitore dell'elemento figlio, od anche semplicemente parente. Ogni elemento secondario, cioè un elemento diverso dall’elemento di documento risiede interamente all’interno del relativo elemento principale, così :


    E' importante notare fin da ora come la struttura che viene a delinearsi in base a queste semplici regole sarà comunque una struttura gerarchica, o ad albero, ma mai circolare. Un elemento figlio non potrebbe mai contenere al suo interno un elemento padre. Qualora si volesse inserire un elemento vuoto, e questo può essere molto utile per segnalare dati esterni o non di testo, ci si deve ricordare che la sintassi richiede non di aprire e chiudere un tag, ma semplicemente di indicare un tag seguito da una sbarra:



    La struttura fisica di un documento XML è costituita da tutto il contenuto del documento stesso. Questo contenuto può essere rappresentato da semplice testo come anche da altri elementi definiti entità. Le unità di memorizzazione definite entità, possono essere parte integrante del documento o possono essere esterne. La caratteristica delle entità è di venir identificate da un nome univoco e da un contenuto specifico che può essere costituito da un singolo carattere all’interno del documento o da un file esterno di grandi dimensioni. L'utilità di questo tipo di dati è quella di poter richiamare informazione esterna al file, magari dati salvati con formati diversi da quello di testo, tipo un'immagine ma anche documenti Word o Excel, oltre a ciò è possibile definire per alcune informazioni un nome univoco e quindi richiamarla in qualsiasi punto facendo riferimento al solo nome di entità. Dopo aver dichiarato la DTD, l’entità può essere utilizzata in un punto qualsiasi del documento. Un riferimento di entità indica all’elaboratore di recuperare il contenuto di un’entità, come stabilito dalla dichiarazione di entità, e di utilizzarla all’interno del documento. Sintatticamente le dichiarazioni di entità vanno all'interno della dichiarazione di documento tra due parentesi quadrate (Giannì, 2000).

    Ad esempio, una dichiarazione di entità potrebbe avere questa forma:



    <!DOCTYPE Esempio [

    <!ENTITY autore "nome autore">

    ] >



    Ogni volta che nel documento viene fatto riferimento a questa entità, quest’ultima verrà sostituita dal contenuto. Modificando il contenuto dell’entità nella dichiarazione la modifica avrà effetto in qualsiasi punto del documento in cui venga richiamata l’entità.

    Per richiamare un'entità in un qualsiasi punto del documento è sufficiente inserire una e commerciale (&) e immettere il nome dell’entità seguito da punto e virgole (;). Ad esempio nel modo seguente:



    <titolo> Tesi in filosofia di: &autore;</ TITOLO >



    Se l'entità dichiarata è un'entità esterna, gestita da un altro programma essa è detta entità non analizzabile e richiede informazioni diverse da quelle incluse in un’entità analizzabile. Viene infatti richiesta un’annotazione che identifica il formato o il tipo di risorsa per cui l’entità viene dichiarata. Ad esempio :



    <!ENTITY MiaImmagine SYSTEM "Img1.gif" NDATA GIF>



    Questa dichiarazione significa che l’entità MiaImmagine è un file gestibile in formato GIF. Nella dichiarazione è pure necessario indicare quale applicazione dovrà essere attivata per la lettura di questo formato di dati. La dichiarazione di annotazione consente all’applicazione XML di gestire i file esterni. Nel caso fatto precedentemente, la dichiarazione di annotazione potrebbe assumere la forma seguente:



    <!NOTATION GIF SYSTEM "/Utils/Gifview.exe">



    In pratica viene indicato alla applicazione XML a quale altra applicazione rivolgersi per l'elaborazione di questo tipo di dati, ovviamente è necessario fornire un percorso completo di localizzazione della applicazione annotata.



    Nel linguaggio XML alcuni caratteri sono utilizzati per contrassegnare il documento in modo specifico. Le parentesi angolari (<>) e la barra (/) sono interpretate come markup e non come dati di un carattere effettivo.

    Questi e altri caratteri sono riservati per il markup e non possono essere utilizzati come contenuto. L'unica possibilità di utilizzare direttamente questi caratteri è quella di utilizzare una applicazione in grado di gestire automaticamente la transcodifica. Altrimenti se si desidera che questi caratteri siano visualizzati come dati, è necessario utilizzare determinate entità predefinite in grado di richiamare i caratteri necessari senza fare ricorso al loro effettivo codice binario che sarebbe altrimenti confuso con istruzioni sintattiche. Qui sotto riportiamo i codici di queste entità predefinite:



    < < (parentesi angolare di apertura)



    > > (parentesi angolare di chiusura)



    &amp ; & (e commerciale)



    ' ‘ (apostrofo)



    " " (virgolette doppie)



    Ultima cosa di cui dobbiamo trattare per descrivere la sintassi XML è la possibilità di inserire all'interno degli elementi degli attributi. Gli attributi consentono di associare valori a un elemento senza che siano considerati parte del contenuto dell’elemento stesso (Giannì, 2000). In pratica di un elemento, oltre al suo contenuto, è possibile definire alcuni valori espressi negli attributi, questi valori potranno poi esseri richiamati in fase di visualizzazione senza doversi riferire all'intero contenuto dell'elemento. Possiamo immaginare di associare ad un elemento un attributo in questo modo:



    <documento>

    Manzoni

    <titolo genere="romanzo"> Promessi Sposi </titolo>

    </ DOCUMENTO >



    L’attributo "genere" all'interno dell'elemento <titolo> aggiunge informazione, che può essere interessante richiamare separatamente rispetto a quella contenuta nei dati fra i due tag dell'elemento. Sintatticamente l'attributo segue sempre il nome dell'elemento nel suo tag di apertura, il valore è specificato dopo l'uguale tra virgolette.



    Aggiungendo semplicemente che i dati preceduti da questi caratteri: <!-- , e chiusi da quest'altri: -->, sono commenti, cioè dati che non vengono analizzati dall'applicazione XML ma che semplicemente sono posti dal programmatore come propri punti di riferimento, è possibile riportare l'esempio di un listato di un ipotetico documento XML, chiamato esempio.xml, che segua in modo corretto la sintassi:


    Giordano Segneri
    Jean Baudrillard e l'etica dell'eccesso: il conflitto nell'epoca della simulazione
    CAPITOLO I
    VALORE SEGNO E REALTA' VIRTUALE ............................10
    I. 1 Trilogia del valore: Il valore segno. L'al di là della merce........................... 11
    I. 2 Iperrealismo, simulazione e paradiso virtuale. L'estasi della comunicazione.
    ................................................................................................................................. 25
    I. 3 Dall'osceno al revival. La danza storica sull'orlo della fine......................... 46
    I. 4 Dallo scambio simbolico al delitto perfetto: ripercorrendo Baudrillard.... 57
    CAPITOLO II
    IL DELITTO PERFETTO DEL REALE................................ 67
    II. 1 Lo sterminio dell'Altro e l'indifferenza totale. ............................................ 68
    II. 2 L'ironia della tecnica ed il ritorno del Male. ............................................... 81
    II. 3 Il delitto im-perfetto....................................................................................... 92
    CAPITOLO III
    IL CONFLITTO NELL'EPOCA DELLA SIMULAZIONE .. 97
    III. 1 Vittime e Nuovo Ordine Vittimale: Sarajevo e l'Europa .......................... 98
    III. 2 L'America del deserto e l'agonia europea. ............................................... 110
    III. 3 Una guerra irreale: la simulazione nel Golfo........................................... 120
    III. 4 La parodia mediatica nella rivoluzione rumena...................................... 139
    CAPITOLO IV
    BAUDRILLARD E L'ETICA DELL'ECCESSO ....................150
    IV. 1 Logica anti-logica: il pensiero radicale di Baudrillard e la sfida patafisica.
    ............................................................................................................................... 151
    IV. 2 Baudrillard e l'Etica dell'Eccesso .............................................................. 168
    IV. 3 Baudrillard e la malinconia davanti alla sconfitta morale...................... 176
    BIBLIOGRAFIA........................................................................184
    OPERE DI JEAN BAUDRILLARD .................................................................. 185
    OPERE SU JEAN BAUDRILLARD.................................................................. 192
    OPERE DI RIFERIMENTO...............................................................................200


    http://files.studiperlapace.it/docs/segneri.pdf



    Nella prefazione del Tractatus , Wittgenstein chiarisce qual è l'intento del libro: " il libro tratta i problemi filosofici e mostra, credo, che la formulazione di questi problemi si fonda sul fraintendimento della logica del nostro linguaggio. Tutto il senso del libro si potrebbe riassumere nelle parole: quanto può dirsi, si può dir chiaro; e su ciò di cui non si può parlare, si deve tacere…la verità dei pensieri qui comunicati mi sembra intangibile e definitiva. Sono dunque dell'avviso d'aver definitivamente risolto nell'essenziale i problemi ". Sulle orme dello stile adottato da Spinoza nell' Etica , il Tractatus si presenta non come un'opera in qualche modo discorsiva, ma come un insieme di enunciati numerati (a volte abbastanza ampi e argomentati, a volte molto brevi e talvolta addirittura brevissimi) e legati tra loro da determinate connessioni logiche (corollari, deduzioni, inferenze, ecc). Più precisamente, esso muove da una matrice generativa costituita da 7 proposizioni centrali, dalle quali dipende tutta una serie di ulteriori proposizioni riguardanti questioni di logica, ontologia e filosofia del linguaggio e della matematica: 1) Il mondo è tutto ciò che accade; 2) Ciò che accade, il fatto, è il sussistere di stati di cose; 3)L'immagine logica dei fatti è il pensiero; 4) Il pensiero è la proposizione munita di senso; 5) La proposizione è una funzione di verità elle proposizioni elementari; 6) La forma generale della funzione di verità è: [pxN(x ) ]; 7) Su ciò di cui non si può parlare, si deve tacere.
    qui http://www.filosofico.net/witteg3.htm

    Su un piano generale, il Tractatus contiene una concezione della realtà dal punto di vista conoscitivo strettamente intrecciata (fino a identificarvisi) con una concezione del linguaggio. Si deve idealmente partire da una cosa: il darsi del mondo. E il mondo è tutto ciò che accade e questo mondo, ovvero questa serie di accadimenti, è costituito interamente da fatti: ogni fatto (complesso) si compone di una pluralità di fatti elementari, detti da Wittgenstein " stati di cose ", i quali a loro volta sono connessioni di " oggetti semplici ". Questi ultimi rappresentano la " sostanza del mondo " e si possono aggregare in svariate composizioni o " configurazioni ". Se è vero che l'esperienza gnoseologica si riferisce essenzialmente a tali configurazioni complesse, è anche vero che la sostanza del mondo è quella che si è detto: anzi, Wittgenstein sottolinea significativamente che " l'oggetto [semplice] è il fisso, il sussistente; la configurazione è il vario, l'incostante " (2.0271). A questa concezione del mondo corrisponde (in un senso molto organico) una concezione del linguaggio. La prima teoria radicale enunciata in merito da Wittgenstein riguarda il rapporto linguaggio-pensiero: si potrebbe infatti ritenere che dinanzi al mondo stia prima di tutto il pensiero. Ma non è così: nei riguardi del pensiero, Wittgenstein assume un atteggiamento anti-materialistica, anti-interioristica e anti-soggettivistica che non abbandonerà, grosso modo, mai. Anzi, nel Tractatus tale posizione è espressa in un modo particolarmente radicale, che in un secondo tempo verrà modificato. In primis, Wittgenstein dichiara che il pensiero è essenzialmente " l'immagine logica dei fatti " (proposizione 3): dove è da notare il privilegiamento ideale del fatto e la relativa subordinazione ad esso del pensiero, sia la natura logica che il pensiero degno del nome deve avere. In secundis, si afferma che il pensiero si dà tutto e soltanto nella sua espressione linguistica; più precisamente, il pensiero è linguaggio organizzato secondo una determinata forma; esso è, come recita l'enunciato 4, " la proposizione munita di senso ". Dinanzi al mondo, quindi, sta il linguaggio . Occorre domandarsi come vada interpretata questa seconda polarità o dimensione: enunciando una tesi che Russell farà integralmente sua, Wittgenstein asserisce che il linguaggio è costituito da " proposizioni molecolari " complesse, riducibili a " proposizioni atomiche " elementari, non ulteriormente scomponibili. Queste ultime proposizioni sono gli enunciati linguistici più semplici, dei quali si può predicare il vero e il falso. In linea di massima, le proposizioni atomiche sono combinazioni di nomi corrispondenti agli oggetti: " il nome significa l'oggetto. L'oggetto è il suo significato " (3.203).
    ecco l'ho copiato tutto...

    Autore Ludwig Wittgenstein
    Titolo Tractatus logico-philosophicus e Quaderni 1914-1916

    vedi meglio qui http://www.tecalibri.altervista.org/W/WITT...N_tractatus.htm

    Pagina 3
    Prefazione dell'autore.

    Questo libro, forse, comprenderà solo colui che già a sua volta abbia pensato i pensieri ivi espressi - o, almeno, pensieri simili -. Esso non è, dunque, un manuale -. Conseguirebbe il suo fine se piacesse ad uno che lo legga e comprenda.

    Il libro tratta i problemi filosofici e mostra - credo - che la formulazione di questi problemi si fonda sul fraintendimento della logica del nostro linguaggio. Tutto il senso del libro si potrebbe riassumere nelle parole: Quanto può dirsi, si può dir chiaro; e su ciò, di cui non si può parlare, si deve tacere.

    Il libro vuole dunque tracciare al pensiero un limite, o piuttosto - non al pensiero, ma all'espressione dei pensieri: Ché, per tracciare al pensiero un limite, dovremmo poter pensare ambo i lati di questo limite (dovremmo dunque poter pensare quel che pensare non si può).

    Il limite potrà dunque esser tracciato solo nel linguaggio, e ciò che è oltre il limite non sarà che nonsenso.

    In che misura i miei sforzi coincidano con quelli d'altri filosofi non voglio giudicare. Ciò che qui ho scritto non pretende già essere nuovo, nei particolari; né perciò cito fonti, poiché m'è indifferente se già altri, prima di me, abbia pensato ciò che io ho pensato.

    Solo questo voglio menzionare, che io devo alle grandiose opere di Frege ed ai lavori del mio amico Bertrand Russell gran parte dello stimolo ai miei pensieri.

    Se questo lavoro ha un valore, questo consiste in due cose. In primo luogo, pensieri son qui espressi; e questo valore sarà tanto maggiore quanto meglio i pensieri sono espressi. Quanto piú s'è còlto nel segno. - Qui so d'esser rimasto ben sotto il possibile. Semplicemente poiché la mia forza è troppo impari al compito. - Possano altri venire e far ciò meglio.

    Invece la verità dei pensieri qui comunicati mi sembra intangibile e definitiva. Sono dunque dell'avviso d'aver definitivamente risolto nell'essenziale i problemi. E, se qui non erro, il valore di questo lavoro consiste allora, in secondo luogo, nel mostrare quanto poco sia fatto dall'essere questi problemi risolti.

    L. W.

    Vienna, 1918.


    Pagina 5
    Tractatus logico-philosophicus.

    1 Il mondo è tutto ciò che accade.

    1.1 Il mondo è la totalità dei fatti, non delle cose.

    1.11 Il mondo è determinato dai fatti e dall'essere essi tutti i fatti.

    1.12 Ché la totalità dei fatti determina ciò che accade, ed anche tutto ciò che non accade.

    1.13 I fatti nello spazio logico sono il mondo.

    1.2 Il mondo si divide in fatti.

    1.21 Una cosa può accadere o non accadere e tutto l'altro restare eguale.

    2 Ciò che accade, il fatto, è il sussistere di stati di cose.


    Pagina 9
    2.1 Noi ci facciamo immagini dei fatti.

    2.11 L'immagine presenta la situazione nello spazio logico, il sussistere e non sussistere di stati di cose.

    2.12 L'immagine è un modello della realtà.

    2.13 Agli oggetti corrispondono nell'immagine gli elementi dell'immagine.

    2-131 Gli elementi dell'immagine sono rappresentanti degli oggetti nell'immagine.

    2.14 L'immagine consiste nell'essere i suoi elementi in una determinata relazione l'uno all'altro.

    2.141 L'immagine è un fatto.

    Pagina 11
    3 L'immagine logica dei fatti è il pensiero.

    3.001 «Uno stato di cose è pensabile» vuol dire: Noi ce ne possiamo fare un'immagine.

    3.01 La totalità dei pensieri veri è un'immagine del mondo.

    3.02 Il pensiero contiene la possibilità della situazione che esso pensa. Ciò che è pensabile è anche possibile.

    3.03 Non possiamo pensare nulla d'illogico, ché altrimenti dovremmo pensare illogicamente.

    Pagina 20
    4 Il pensiero è la proposizione munita di senso.

    4.001 La totalità delle proposizioni è il linguaggio.

    4.002 L'uomo possiede la capacità di costruire linguaggi, con i quali ogni senso può esprimersi, senza sospettare come e che cosa ogni parola significhi. - Cosí come si parla senza sapere come i singoli suoni siano emessi.

    Il linguaggio comune è una parte dell'organismo umano, né è meno complicato di questo.

    È umanamente impossibile desumerne immediatamente la logica del linguaggio.

    Il linguaggio traveste i pensieri. E precisamente cosí che dalla forma esteriore dell'abito non si può concludere alla forma dei pensiero rivestito; perché la forma esteriore dell'abito è formata per ben altri scopi che quello di far riconoscere la forma del corpo.

    Le tacite intese per la comprensione del linguaggio comune sono enormemente complicate.

    4.003 Il piú delle proposizioni e questioni che sono state scritte su cose filosofiche è non falso, ma insensato. Perciò a questioni di questa specie non possiamo affatto rispondere, ma possiamo solo stabilire la loro insensatezza. Il piú delle questioni e proposizioni dei filosofi si fonda sul fatto che noi non comprendiamo la nostra logica del linguaggio.

    (Esse sono della specie della questione, se il bene sia piú o meno identico del bello.)

    Né meraviglia che i problemi piú profondi propriamente non siano problemi.

    4.0031 Tutta la filosofia è «critica del linguaggio». (Ma non nel senso di Mauthner.) Merito di Russell è aver mostrato che la forma logica apparente della proposizione non ne è necessariamente la forma reale.

    Pagina 27

    4.1 La proposizione rappresenta il sussistere e non sussistere degli stati di cose.

    4-11 La totalità delle proposizioni vere è la scienza naturale tutta (o la totalità delle scienze naturali).

    4-111 La filosofia non è una delle scienze naturali. (La parola «filosofia» deve significare qualcosa che sta sopra o sotto, non già presso, le scienze naturali.)

    4-112 Scopo della filosofia è la chiarificazione logica dei pensieri.

    La filosofia è non una dottrina, ma un'attività.

    Un'opera filosofica consta essenzialmente d'illustrazioni.

    Risultato della filosofia non sono «proposizioni filosofiche», ma il chiarirsi di proposizioni.

    La filosofia deve chiarire e delimitare nettamente i pensieri che altrimenti, direi, sarebbero torbidi e indistinti.

    Pagina 63

    5.6 I limiti del mio linguaggio significano i limiti del mio mondo.

    5.61 La logica riempie il mondo; i limiti del mondo sono anche i suoi limiti.

    Non possiamo dunque dire nella logica: Questo e quest'altro v'è nel mondo, quello no.

    Ciò parrebbe infatti presupporre che noi escludiamo certe possibilità, e questo non può essere, poiché altrimenti la logica dovrebbe trascendere i limiti del mondo; solo cosí potrebbe considerare questi limiti anche dall'altro lato.

    Ciò, che non possiamo pensare, non possiamo pensare; né dunque possiamo dire ciò che non possiamo pensare.


    Pagina 72

    6.13 La logica non è una dottrina, ma un'immagine speculare del mondo.

    La logica è trascendentale.

    6.2 La matematica è un metodo logico. Le proposizioni della matematica sono equazioni, dunque proposizioni apparenti.

    6.21 La proposizione della matematica non esprime un pensiero.


    Pagina 79

    6.4 Tutte le proposizioni son d'egual valore.

    6.41 Il senso del mondo dev'essere fuori di esso. Nel mondo tutto è come è, e tutto avviene come avviene; non v'è in esso alcun valore - né, se vi fosse, avrebbe un valore.

    Se un valore che ha valore v'è, dev'esser fuori d'ogni avvenire ed essere-cosí. Infatti ogni avvenire ed essere-cosí è accidentale.

    Ciò che li rende non-accidentali non può essere nel mondo, ché altrimenti sarebbe, a sua volta, accidentale. Dev'essere fuori del mondo.

    6.4 Né, quindi, vi possono essere proposizioni dell'etica.

    Le proposizioni non possono esprimere nulla ch'è piú alto.

    6.421 È chiaro che l'etica non può formularsi. L'etica è trascendentale. (Etica ed estetica son uno.)


    Pagina 81
    6.5 D'una risposta che non si può formulare non può formularsi neppure la domanda.

    L'enigma non v'è.

    Se una domanda può porsi, può pure aver risposta.


    Pagina 82
    7 Su ciò, di cui non si può parlare, si deve tacere.

    Edited by _Nicoletta - 5/4/2008, 19:40
     
    .
  15. _Nicoletta
     
    .

    User deleted


    salvato qeusto documento
    su DeKerchkhove
    http://win.xmlpertutti.com/videoportale/ebook/DDK_1.pdf



    ancora bio di Wittgenstein

    e
    Sommario

    1. La filosofia del linguaggio e il neopositivismo

    2. Il Tratcatus logico-philosophicus:
    le sette proposizioni, ovvero le basi di un nuovo modo di pensare

    3. Il principio di verificazione

    4. Il "secondo" Wittgenstein

    5. Dall'Abbildungstheorie alla teoria dell'uso (gebraucht):
    dal linguaggio ideale al linguaggio ordinario

    6. Il compito della filosofia:
    identificare le funzioni d'uso dei linguaggi e dipanare i nodi dell'intelletto

    da www.forma-mentis.net/Filosofia/Wittgenstein.html
    ancora notizie stile appunti su W :paper: www.dif.unige.it/epi/hp/penco/witt/tractatus.pdf

    Edited by _Nicoletta - 3/11/2010, 21:12
     
    .
61 replies since 5/1/2008, 22:10   16137 views
  Share  
.