|
Appunti informatica |
|
Visite: 1733 | Gradito: | [ Medio appunti ] |
Leggi anche appunti:Architettura RISCdArchitettura RISCd Il tipo fondamentale di RISCd è l'intero a 32 bit, corrispondente La ricerca delle prestazioniLa ricerca delle prestazioni La contesa per ottenere una sempre maggiore I primi strumenti del calcolo automaticoI PRIMI STRUMENTI DEL CALCOLO AUTOMATICO XVII secolo Blaise |
La funzione della gestione dell'assetto digitale è quella della memorizzazione dei contenuti su supporti digitali, della gestione delle collezioni digitali, della garanzia dell'accesso permanente e dell'accesso e distribuzione dei documenti digitali.
Lo standard più diffuso si basa sul Modello OAIS che prevede:
la memorizzazione dei documenti (Archival storage);
l'immissione dei pacchetti di informazione (Archival information package);
le funzioni di accesso e trasmissione dei documenti (Access and Dissemination);
la funzione di gestione (Administration).
Tre sono i concetti principali che riguardano la diffusione dell'editoria digitale via Web:
1) la struttura dei contenuti digitali,
2) l'organizzazione dell'assetto digitale,
3) l'interfaccia di accesso.
Nella fase attuale, questi tre elementi sono standardizzati da OAIS in un'architettura dell'informazione standard, in cui possiamo evidenziare un probabile nuovo canone o "unità di stile" a cui tutti dovranno conformarsi. Qui, per i fini del corso, basta soffermarsi sull'aspetto meno tecnico e più funzionale di questi standard.
La codifica dei testi rappresenta un'area di grande rilevanza e va intesa in senso ampio. Include infatti le procedure analitiche di codifica, ad esempio per la pubblicazione di edizioni critiche, indici, dizionari, concordanze. Inoltre, in senso ampio, la codifica dei testi include anche le nuove forme di prodotti culturali, come ipertesto, multimedia, interazione e lavoro in rete, anche chiamati new media.
SGML ed i suoi derivati HTML. SHML, XML e TEI, DocBook, ecc. sono linguaggi che sono stati studiati ed applicati ai testi per la loro conservazione e l'accesso diversificato rispetto a diverse funzionalità ed utenti, ma sono strutture decise a priori e rigide, per la comprensione da parte del calcolatore. Il problema è quello di rispettare queste esigenze di ordine informatico insieme a formalizzazioni per diverse personalizzazioni. Lo scopo della codifica dei testi è quello di presentare e consentire un' autoriflessione per pensare e comunicare i contenuti, e nell'ambito di un approccio collaborativo creare conoscenza.
La codifica del documento è la sua rappresentazione su supporto digitale in un formato "leggibile" da un elaboratore:
si basa su un determinato linguaggio di marcatura (markup language) che definisce la struttura del documento
implica la codifica dei caratteri.
La codifica del testo è definita come "ordered hierarchy of content objects" o in sigla OHCO: cioè rende esplicita la gerarchia del testo
Formati dei documenti
I formati degli oggetti digitali sono di grande importanza per garantire la migliore fruizione degli stessi e la loro gestione e preservazione nel lungo periodo. I formati degli oggetti digitali riguardano non solo la struttura del testo ma anche la codifica dei caratteri ed i parametri di acquisizione immagini, nel casi di rappresentazioni facsimilari di testi come immagini.
Quando si producono delle risorse digitali si dovrebbero impiegare formati standard aperti, per garantire l'accesso aperto. L'impiego di formati aperti favorisce l'interoperabilità, garantendo la riusabilità delle risorse, che possono essere create e modificate da un gran numero di applicazioni. Si eviterà in tal modo anche la dipendenza da un unico fornitore. Tuttavia, in alcuni casi possono non esservi specifici standard aperti oppure questi possono essere così recenti che gli strumenti in grado di gestirli non sono ancora disponibili.
Il contenuto testuale dovrebbe essere creato e gestito in un formato strutturato, adatto alla generazione di documenti HTML o XHTML, per la loro pubblicazione in Web.
Alla fine del 1987, un progetto importante da indicare in ambito umanistico è quello della Text Encoding Iniziative - TEI, che ha adottato il sistema usato dagli editori per la codifica dei testi: Standard Generalised Markup Language - SGML. A partire da questi anni, è iniziata una riflessione ampia sulle metodologie e sulle problematiche teoriche poste dal nuovo supporto digitale, che riguardano soprattutto il formato dei testi e la struttura dei dati. Mentre la chiarezza necessaria per l'organizzazione del computer imponeva il disegno prioritario delle relazioni tra i dati da memorizzare nella banca dati, la metodologia tradizionale della ricerca umanistica ha un approccio storicistico che pone come obiettivo di ricerca quello di trovare le relazioni tra i dati stessi. Il dover predisporre il disegno della relazione tra i dati nella banca dati, obbligava ad un livello di analisi dei dati al momento della creazione del documento stesso invece che al momento dell'analisi, con evidenti problematiche. Nel 1994 il TEI ha pubblicato delle linee guida, intitolate "Guidelines for the electronic text encoding and interchange" che rappresentano il primo consapevole tentativo di condividere alcune regole standard per la codifica dei testi. La caratteristica di queste linee guida è di essere estremamente flessibili, con pochissimi campi informativi obbligatori. TEI si è basato su SGML, che è stato scelto per la sua indipendenza dai sistemi hardware e software proprietari e per la sua flessibilità, caratteristiche entrambe riconosciute necessarie per gli scopi di progetti di più ampio respiro, in cui si voleva garantire sia la preservazione di lungo periodo sia la ri-usabilità delle risorse digitali.
Il formato XML (Extensible Markup Language) codificato nel 1998 dal W3 è oggi lo standard predominante. Lo standard richiede che ci si uniformi a un DTD (Document Type Definition) o ad uno Schema XML. Tutti i documenti dovrebbero essere convalidati nei riguardi del DTD o dello Schema XML appropriato. XML è uno dei più potenti e versatili sistemi per la creazione, archiviazione, preservazione e disseminazione di documenti digitali e la sua sintassi rigorosa e al contempo flessibile ne rende possibile l'applicazione anche nella rappresentazione di dati strutturati, fornendo una soluzione alternativa ai tradizionali sistemi di data base relazionali. XML è stato sviluppato dal World Wide Web Consortium (https://www.w3.org) e deriva da SGML, un linguaggio di mark-up dichiarativo sviluppato dalla International Standardization Organization (ISO), e pubblicato ufficialmente nel 1986 con la sigla ISO 8879.
Il concetto di tipo di documento o DTD è quello di descrivere la struttura della classe di documenti cui si riferisce il documento, come un albero ordinato di componenti testuali o elementi tipo. Un tipo di documento è caratterizzato da:
un insieme di elementi strutturali
le relazioni di dipendenza tra gli elementi
le relazioni di ricorrenza degli elementi
In molti casi, per motivi economici e di fedeltà alla copia a stampa, si è scelto di memorizzare i contenuti su base esclusivamente testuale utilizzando il Portable Document Format (PDF) di Adobe. Il PDF è un formato di file proprietario, i cui diritti sono detenuti da Adobe, che conserva i caratteri, le formattazioni, i colori e la grafica del documento sorgente. I file PDF sono compatti e possono essere visualizzati e stampati grazie al programma gratuito Acrobat Reader. Tuttavia, come accade per qualunque soluzione proprietaria, questa scelta comporta dei rischi e si dovrebbe essere consapevoli dei costi potenziali di questo approccio, e di una transizione successiva verso standard aperti.
Formati immagine e formati non standard
Le immagini fisse digitali si dividono in due categorie: le immagini a matrice di punti (raster o bit-mapped) e le immagini vettoriali (object-oriented).
Il processo di digitalizzazione genera solitamente un'immagine a matrice di punti. Le immagini raster hanno la forma di una griglia o matrice 2D, in cui ogni elemento dell'immagine (pixel) ha una collocazione unica all'interno della matrice e un valore (o un insieme di valori) di colore indipendente, che può essere modificato separatamente. Rientrano nella categoria delle immagini a matrice di punti anche le immagini create al computer (born digital) cosiddette grafiche non vettoriali come loghi, icone, disegni al tratto, etc..
I file vettoriali forniscono un insieme di istruzioni matematiche utilizzate da un programma di disegno per costruire, gestire e visualizzare un'immagine.
Formato e compressione dei file
In stretta correlazione con i parametri di acquisizione è il formato di memorizzazione dei file immagine acquisiti, e in particolare il tipo di compressione che può essere operata sui dati digitali dell'immagine. Esistono due principali tipologie di compressione: quella reversibile o senza perdita (lossless) e quella con perdita (lossy).
La differenza fondamentale tra le due tipologie è che, se si decomprime un'immagine precedentemente compressa con metodi senza perdita, si ottiene nuovamente l'immagine originale, mentre la decompressione di una immagine compressa con metodi con perdita, non restituisce un'immagine identica all'originale e ciò corrisponde, in generale, ad una perdita di qualità.
Le immagini raster destinate al master digitale dovrebbero, in linea di principio, essere memorizzate nella forma non compressa generata dal processo di digitalizzazione, senza subire trattamenti successivi; tuttavia l'utilizzo di metodi di compressione senza perdita consente di salvare i dati utilizzando una minore quantità di spazio sui supporti di memorizzazione (dischi, CD, DVD, nastri, etc.) senza pregiudicarne la qualità.
Le immagini a matrice di punti, sia originate da operazioni di digitalizzazione, sia appartenenti alle immagini grafiche non vettoriali (come quelle create al computer, loghi, icone, disegni al tratto) devono essere memorizzate utilizzando uno dei formati seguenti: Tagged Image File Format (TIFF), Portable Network Graphics (PNG), o anche: Graphical Interchange Format (GIF) o JPEG Still Picture Interchange File Format (JPEG/SPIFF), con attenzione alle considerazioni che seguono.
Per le ultime due tipologie d'immagine è maggiormente avvertibile il problema qualità/dimensioni per la trasmissione e tale scelta può implicare la verifica della tipologia di utenza a cui è trasmessa (utenza registrata o no, utenza scientifica, ecc.).
Identificazione e nomenclatura delle risorse digitali
L'identificazione univoca di una risorsa digitale è il primo obiettivo degli identificatori. Si deve far uso a tale scopo dello Uniform Resource Identifier (URI) e si dovrebbegarantire che l'URI sia persistente in misura ragionevole. L'URI dovrebbe essere la più logica e breve possibile, semplice da ricordare e che faccia riferimento al creatore di contenuti.
E' importante che l'utente finale abbia la possibilità di citare esattamente e in modo attendibile ogni singola risorsa, anziché dover indicare il collegamento [linkare] al sito web di un intero progetto. Inoltre, revisioni e versioni della risorsa digitale devono essere identificate chiaramente.
Codifica dei caratteri
La codifica dei caratteri è un algoritmo che consente di rappresentare i caratteri in forma digitale, definendo una corrispondenza tra le sequenze di codice dei caratteri (i numeri interi corrispondendo a dei caratteri in un repertorio) e sequenze di valori di 8 bit (byte o ottetti). Per poter interpretare i byte che compongono un oggetto digitale, un'applicazione richiede l'indicazione della codifica di carattere utilizzata nel documento. La codifica dei caratteri usata nei documenti di testo dovrebbe essere segnalata esplicitamente.
Gli standards usati dono ASCII e UNICODE. In generale, ogni documento digitale è costituito da un flusso (o stringa) di caratteri espresse in digit ASCII / ISO 646 IRV / US ASCII, ISO 8859 (il più utilizzato è ISO 8859-1 o ISO Latin 1), ISO/IEC 10646-2:2001: Universal Character Set - Unicode 3.2 (https://www.unicode.org)
Alcuni esempi di DTD
DocBook : DTD per la creazione di manualistica tecnica curata dal consorzio OASIS
XHTML 1.0: DTD per la creazione di documenti Web realizzato dal W3 Consortium
Text Encoding Initiative TEI: DTD per la creazione di testi su supporto digitale in ambito umanistico sviluppata dal TEI consortium
Encoded Archival Description EAD: DTD per la descrizione di materiali archivistici realizzato dalla Library of Congress
Open eBook (o OeB) : è un formato creato dall'ente no profit OeBF (Open eBook Forum) del quale fanno parte diversi centri di ricerca, aziende e università. L'OeB è uno standard aperto e non proprietario nato dalla necessità di avere delle regole comuni per la realizzazione di eBook che forniscano funzioni avanzate di impaginazione e catagolazione e che soprattutto siano disponibili per il maggior numero possibile di piattaforme hardware e software. Il formato OeB deriva dall'XML supporta quindi i fogli di stile e utilizza i metadati dello standard Dublin Core (standard di descrizione e catagolazione delle risorse in formato elettronico).
Anche limitando la considerazione ai soli documenti digitali che sono gestiti, quali sono le differenze di organizzazione per i documenti per assicurare la loro permanenza e la loro autenticità? Le istituzioni che gestiscono la produzione e/o la gestione di contenuti digitali hanno la responsabilità di un'organizzazione affidabile, che sia trasparente agli utenti. Un problema organizzativo è: come rendere noto agli utenti che il documento è stato spostato? Oppure che il contenuto è stato cambiato? Come i documenti vengono resi accessibili? Come vengono gestiti i documenti dinamici?
Tutto questo ha un impatto sulla neutralità dell'organizzazione della conoscenza, in confronto con le procedure tradizionali.
Metadata
Una funzione importante è data ai metadata. Bisogna evidenziare che i metadata che descrivono ogni pubblicazione riguardano una varietà di oggetti digitali, non solo documenti bibliografici o in genere testuali, comprendendo rappresentazioni digitali di oggetti multimediali ed anche pacchetti come i corsi in linea.
Esistono due filosofie di metadata. La prima è rappresentata da un approccio in cui esiste un unico schema per ogni tipologia di documento e per ogni comunità di utenti. Quando viene aggiunto un nuovo oggetto, lo schema viene esteso, allo stesso modo quando viene esteso ad altre comunità con particolari requisiti questo viene adattato a questi bisogni. E' il caso del Marc, schema usato dalle biblioteche.
Una filosofia opposta è invece nata all'interno della comunità del Dublin Core (DC). Diverse comunità di utenti possono sviluppare e mantenere dei pacchetti di metadata interconnessi. In questo caso il DC serve come un sistema unificatore di vari metadata, mentre le singole comunità possono usare dei qualificatori per adattarlo alle loro esigenze.
Metadati strutturali
I metadata di struttura servono a gestire le applicazioni. I metadati strutturali descrivono le relazioni logiche o fisiche che collegano le parti di un oggetto composito. Un libro "fisico", ad esempio, consiste in una sequenza di pagine. Un documento archivistico può consistere in una sequenza di carte di un fascicolo inserito in una busta a sua volta parte di una serie inserita in un fondo particolare. Il processo di digitalizzazione può generare un certo numero di risorse digitali distinte, ad esempio una immagine per ogni pagina, ma il fatto che queste risorse formino una sequenza e che quella sequenza costituisca un oggetto composito o faccia parte di una struttura complessa multilivellare è evidentemente essenziale per il loro uso e la loro interpretazione.
Il Metadata Encoding and Transmission Standard (METS: standard di metadati per la codifica e la trasmissione) fornisce un formato di codifica per metadati descrittivi, amministrativi e strutturali, ed è progettato per supportare sia la gestione di oggetti digitali che la distribuzione e lo scambio di oggetti digitali fra i diversi sistemi.
Il IMS Content Packaging Specification (specifiche IMS per la confezione del contenuto) indica un modo per descrivere la struttura e organizzare le risorse composite per l'apprendimento.
ONIX ONline Information eXchange è uno schema sviluppato e gestito dagli editori, sia per la descrizione che per le transazioni commerciali sulle pubblicazioni. E' stato sviluppato per mandare dei pacchetti di dati ai librari, ai motori di ricerca, ad agenzie e tutti gli interessati.
Una risorsa digitale non è creata isolatamente, ma come parte di una collezione digitale, e dovrebbe essere presa in considerazione nel contesto di quella collezione e del suo sviluppo. Le stesse collezioni possono poi essere viste come componenti intorno ai quali è possibile costruire molti tipi diversi di servizi digitali in rete. E' quindi importante ottenere l'interoperabilità delle risorse, pur nella varietà di schemi di metadata.
Per l'interoperabilità non è tuttavia sufficiente avere un accordo su metadata standard ma occorre anche concordare delle architetture ed il modo in cui i metadata vengono estratti per altre collezioni, per i middleware e per gli utenti finali.
Il problema dell'interfaccia è stato sinora visto come la funzione di riorganizzazione dei testi nei portali, termine usato per identificare dei punti di accesso facilitato ad Internet. Gli editori dei portali usano la logica dell'ipertesto per porsi non come autori del testo ma come aggregatori e fornitori di informazioni. Questo per dire che prima di tutto, nell'edizione digitale e nell'organizzazione dell'informazione, la creazione di contenuti è diventata un processo industriale: dei gruppi di professionisti, con varie competenze, collaborano per un processo complesso. Il costo notevole di una produzione digitale richiede inoltre la ricerca di un mercato consistente, spesso internazionale, oppure impegna il settore pubblico ad investire in modo significativo per un'informazione condivisa democraticamente da tutti i cittadini. La divisione del lavoro nei progetti di editoria digitale spinge inoltre alla standardizzazione tecnica e formale.
Un altro aspetto è tuttavia da evidenziare per quel che riguarda l'interfaccia: la maniera in cui gli utenti accedono all'informazione dipende, oltre che dalla loro conoscenza ed esperienza, dall'infrastruttura a cui hanno accesso e dal software disponibile nel loro computer. Un problema strettamente connesso alla natura del documento digitale investe la mediazione di accesso al documento. Finora il lettore aveva ottenuto un accesso alla scrittura mediato dalla sua conoscenza ed esperienza. Si rende necessario ora che il lettore abbia un computer collegato alla rete, i software necessari e soprattutto che sappia usare il computer ed i software. Un documento digitale ha ora caratteristiche diverse perché per essere accessibile deve essere tradotto e restituito in forma visibile da una macchina senza la quale non è niente. Di fronte ad un documento scritto, ad una tavoletta d'argilla, ad un'epigrafe l'unica mediazione che si pone deriva dalle capacità possedute dal lettore, dal livello di conoscenze che possono consentire di decifrarlo, contestualizzarlo ed interpretarlo. Il rapporto tra lettore e documento digitale ha creato un altro tipo di analfabetismo di ritorno, determinato dalla esigenza primaria di saper usare al meglio le tecnologie per la ricerca ed il recupero dell'informazione. Diventare alfabetizzato nella capacità di trovare ed usare l'informazione non è tuttavia sufficiente perché c'è la necessità di possedere uno strumento specifico per essere messo in grado di poter leggere il testo.
Il digital divide, cioè la divisione tra nuovi ricchi e poveri è il prezzo da pagare per l'accesso all'informazione digitale, inteso nella Società dell'informazione anche come valore economico.
La modalità di accesso al documento digitale digitale (o interfaccia) è lo strumento con cui l'utente può cercare e visualizzare l'informazione di cui ha bisogno. La ricerca sull'accesso si è soprattutto concentrata sul comportamento dell'utente nella ricerca dell'informazione (information seeking), per migliorare la relazione uomo - macchina. Il problema maggiore di chi sviluppa un'interfaccia di ricerca, di solito un informatico che non ha esperienza di servizio, è infatti la sua quasi totale ignoranza di come l'utente cercherà ed userà la risorsa digitale.
Le modalità di base di accesso devono prevedere tre funzionalità:
la prima è quella di poter navigare (browsing) tra gli indici e nell'organizzazione della collezione, per identificare e localizzare un documento che soddisfa i bisogni dell'utente ma di cui non si conosce l'esistenza;
la seconda è quella di ricercare, inserendo una determinata stringa di ricerca, per identificare un particolare documento e localizzarlo;
la terza è quella di visualizzare ed usare i documenti, localizzati attraverso le due precedenti modalità di ricerca, fino a costruirsi una propria biblioteca personale.
Per la navigazione, il più comune metodo di ricerca, bisogna rendere possibile l'accesso per argomento, per tipo di documento od altri schemi giudicati funzionali per l'utente. Bisogna anche decidere se la collezione digitale sarà sfogliabile interamente, cioè sarà descritta e ricercabile per la granularità intera del documento digitale o solo un suo sottoinsieme. La navigazione presuppone che un intermediario predisponga un'organizzazione che possa dare risposte e soluzioni a certe richieste di informazione, con la possibilità per l'utente di continuare autonomamente la sua ricerca. Dopo circa cinquanta anni dall'idea di Bush, la navigazione realizza il concetto del Memex, inteso come stazione di lavoro dell'utente (scholars workstation) attraverso cui archiviare e recuperare l'informazione. Il servizio prevede un singolo punto di accesso a cui ci si collega sia per fare la ricerca che per ricevere il documento: potrà essere l'OPAC della biblioteca, un portale, un qualsiasi altro servizio "One stop shopping". Questo punto di accesso diventa uno strumento di segnalazione delle informazioni fondamentali nell'universo del Web.
Un altro modo di accesso è la ricerca, che deve fornire la possibilità di ricerche complesse e di ricerche semplici, personalizzando le interfacce. In questo caso gli utenti devono essere in grado di comprendere bene il loro bisogno di informazione e di saperlo formulare nel linguaggio di ricerca. Il ruolo dei bibliotecari e di altri intermediari, nella disintermediazione, è passivo, di sola assistenza a chi cerca, ma con una complicazione in più rispetto alla normale funzione dell'intermediario: l'utente della biblioteca digitale è sempre di più remoto. Mentre nella normale relazione faccia a faccia la comunicazione umana è indirizzata a singoli utenti, è aiutata da segnali non verbali e da un feedback immediato, la comunicazione mediata dal computer è per sua natura asincrona e non personalizzata, perché diretta a molteplici utenti.
Il processo di ricerca dell'informazione, apparentemente semplice, è in realtà complesso. Include un certo numero di fasi distinte, in cui determinate azioni vanno fatte e precise scelte devono essere prese. Shneiderman, Byrd e Croft (Shneiderman, Byrd, and Croft 1997) indicano il processo di ricerca in quattro fasi che definiscono come:
la formulazione della ricerca,
l'azione,
la valutazione dei risultati,
il raffinamento della ricerca.
Nella fase della formulazione, l'utente deve chiarirsi i suoi reali bisogni di ricerca, formulare le domande di ricerca e selezionare le risorse (biblioteche digitali, banche dati, periodici elettronici, ecc.) da ricercare. L'utente deve sapere a quale collezione deve indirizzarsi per la sua specifica domanda di ricerca ed anche, all'interno di una collezione, quale canale di ricerca scegliere (ad esempio autore, titolo, oppure un'altra chiave). Anche le parole e la formulazione della stringa di ricerca non sono da considerare un'operazione banale, in quanto presuppongono che l'utente sia familiare con la terminologia usata dalla specifica risorsa (anche in lingue diverse dalla propria) e con i diversi operatori resi possibili dai diversi linguaggi di ricerca della risorsa. La fase dell'azione è di solito più facile, con un bottone od un click si può far partire il motore di ricerca. Poiché la ricerca può a volte impiegare del tempo per essere eseguita, alcuni sistemi usano dare dei risultati man mano che la ricerca procede. La fase di valutazione dei risultati è aiutata di solito dall'interfaccia, chiedendo la preferenza per alcuni tipi di presentazione e diverse modalità di ordinamento dei risultati (come ad esempio per collezione, per data, per rilevanza). Il raffinamento della ricerca è a volte facilitato dall'interfaccia, riproponendo la prima richiesta, oppure questo aiuto non c'è e si deve procedere ad una nuova ricerca. In qualche caso è disponibile il feedback di rilevanza, che rende possibile ripetere la ricerca sulla base dei risultati che sono stati ritenuti dall'utente significativi.
Marchionini (Marchionini 1992) ribadisce che le interfacce di ricerca devono rispecchiare il modello di ricerca dell'utente e corregge in parte le fasi prima indicate, definendo cinque fasi di ricerca: definizione del problema di ricerca, selezione della risorsa, articolazione del problema (incluso la stringa di ricerca), esame dei risultati ed estrazione dell'informazione. Mentre le interfacce esistenti hanno sviluppato essenzialmente la funzione di supporto all'articolazione del problema, le funzioni per le altre fasi secondo l'autore sono ancora carenti.
Una volta che il documento che interessa verrà identificato, l'utente lo vorrà visualizzare, vederlo insieme ad altri o scaricarlo nel proprio computer, per poi stamparlo o manipolarlo. In questo caso, le interfacce dovrebbero rendere possibili queste opzioni. L'accesso ai documenti nella biblioteca digitale viene chiamato "Document access and supply", cioè fornitura di una copia del documento digitale richiesto dall'utente.
Il servizio di fornitura dei documenti è immediato, senza i tempi di attesa per la consegna dai magazzini o la trasmissione da fornitori di 'document delivery'. Il sistema di fornitura del documento deve essere interoperabile con diversi sistemi, perché deve essere integrato coi sistemi esistenti, incluso il sistema della ricerca in banche dati ed il sistema del prestito interbibliotecario, aperto agli sviluppi futuri prevedibili nella trasmissione dei documenti, come ad esempio poter impiegare un approccio di digitalizzazione a domanda (demand driven), poter immagazzinare i documenti digitalizzati, se questo non contrasta con il copyright, poter fornire i documenti secondo il formato scelto dall'utente.
L'accesso integra sistemi di ricerca che ora sono separati (ad esempio la ricerca nei cataloghi e nelle banche dati) ed unifica diverse collezioni digitali costruite da diversi creatori di documenti digitali. Tuttavia questo servizio ideale ancora non è completamente disponibile, pur se la tecnologia offre già da ora l'opportunità di muovere vaste quantità di testo e dati ad alta velocità.
Le funzionalità dell'interfaccia di ricerca fin qui descritte si riferiscono alla funzionalità base di accesso all'informazione. Altre funzionalità dell'interfaccia possono essere di supporto all'attività di apprendimento e di creazione di nuova conoscenza, missione di servizio delle biblioteche digitali più avanzate. Shneiderman (Shneiderman 1998) che può essere considerato il guru dell'interazione uomo-macchina nelle biblioteche digitali, propone quello che chiama "genex framework" in cui l'interfaccia è in funzione di quattro fasi richieste per la creatività:
Raccolta (Collect): in cui l'utente apprende dalle risorse digitali della biblioteca digitale;
Comunicazione (Relate): in cui si possono consultare esperti e colleghi di pari livello;
Creare (Create): in cui è possibile esplorare, combinare e valutare possibili soluzioni;
Contribuire (Donate): in cui è possibile disseminare i risultati raggiunti e contribuire alla biblioteca digitale.
L'accesso attraverso le interfacce si basa su due componenti: una tecnologica, che corrisponde all'infrastruttura necessaria per le collezioni digitali ed una umana, basata su una nuova intermediazione basata sulla collaborazione e la comunicazione delle persone che creano ed usano le risorse digitali in ambienti collaborativi come potranno diventare le biblioteche digitali.
L'infrastruttura tecnologica può anche essere in contrasto con la componente umana. Questo avviene quando lo sviluppo fisico, organizzativo, politico di singoli sistemi di ricerca si basa su realizzazioni isolate di collezioni digitali locali. L'accesso alla biblioteca digitale esaspera problematiche come l'interoperabilità di sistemi diversi e stimola (o obbliga) ad una necessaria cooperazione tra tutti gli attori coinvolti nel ciclo di vita della risorsa digitale.
La tecnologia per i servizi dell'accesso non può quindi essere vista isolatamente, senza considerare l'impatto organizzativo sulle istituzioni che realizzano le biblioteche digitali.
La mediazione con gli utenti è nella fase attuale completamente realizzata attraverso il computer; questo rende necessario focalizzare le interfacce per migliorare l'accessibilità del sistema.
E' prevedibile che l'accesso dell'utente finale alle risorse avverrà anzitutto attraverso l'uso di reti locali e di protocolli Internet. La preparazione per la pubblicazione richiede che il master digitale venga elaborato per generare oggetti digitali adatti a essere usati nel contesto di Internet, tipicamente attraverso meccanismi di scalabilità, come la riduzione della qualità e la generazione di file di dimensioni adeguate al trasferimento attraverso la rete, oppure attraverso metodi di trasmissione progressiva, che consentono una fruizione graduale e controllabile a seconda di parametri collegati con il profilo utente.
Inoltre, i file audio e le sequenze video possono essere resi disponibili sia per lo scaricamento (download), che per lo streaming. In questa ultima modalità, anziché trasferire l'intero file prima che possa partire la sua esecuzione, viene creato un adeguato spazio di buffer sul computer dell'utente e i dati vengono trasmessi nel buffer. Non appena il buffer è pieno, il file streaming comincia a essere eseguito, mentre i dati continuano ad essere trasmessi.
Deve esser tenuto in considerazione che esiste una certa variabilità:
nel tipo di strumentazione hardware e di software impiegati dagli utenti;
nei livelli di larghezza di banda entro i limiti dei quali gli utenti operano.
Per raggiungere il più vasto pubblico possibile, le risorse digitali dovrebbero essere disponibili in più dimensioni, formati, risoluzioni o velocità di bit (bit-rate) alternativi, scegliendo, quando possibile, formati che offrano scalabilità di risoluzione e di qualità delle immagini.
Protocolli
La ricerca e l'accesso all'editoria digitale si basa sull'adozione di protocolli per la ricerca distribuita. La ricerca dovrà infatti avvenire attraverso il colloquio tra computer, che osserva determinati linguaggi definiti dai protocolli. Tra questi alcuni largamente utilizzati per le applicazioni delle biblioteche digitali sono: lo standard Z39.50, il protocollo OAI-PMH (Open Access Initiative. Protocol for Metadata Harvesting).
Nel 1945 su 'The Atlantic Monthly', Bush descriveva lo scenario in cui sarebbe stato possibile, per un utente ideale di una teorica macchina di nome Memex, archiviare e reperire documenti collegati tramite associazioni. Il Memex funzionava in modo molto simile a quanto fa oggi il Web, ed ha la medesima finalità, cioè costruire sistemi informativi più ricchi ed intelligenti. Che la scienza si fondi sul 'collegamento' non è una novità; come scrive l'inventore del Web, 'la comunità dei ricercatori usa da sempre dei collegamenti del genere tra documenti cartacei: tavole dei contenuti, indici analitici, bibliografie e sezioni di consultazione e rimandi sono tutti quanti link ipertestuali' (Berners Lee 2004). La novità nell'ipotesi di Bush e dei suoi successori è che essi si propongono di costruire un sistema informativo basato sulle associazioni, quello che Ted Nelson definirà nel 1981 'Hypertext', una griglia in espansione in grado, potenzialmente, di raccogliere in un unico sistema tutti i testi della letteratura mondiale.
In conclusione, l'attuale fase dell'editoria digitale è molto vivace, ma ancora non è possibile delineare un sistema compiuto ed organizzato di editoria in ambito digitale. In questo periodo di transizione, è necessario trovare un equilibrio tra i sistemi tradizionali ed i nuovi sistemi che stanno nascendo. Il cambiamento è appena iniziato ed è necessario una ricerca più approfondita per trovare delle soluzioni a tutte le problematiche coinvolte.
References
Berners Lee, T. 2004. L'architettura del nuovo web. Milano: Feltrinelli.
Marchionini, G. 1992. Interfaces for end users information seeking. Journal of the American society for information science 43, no. 2: 156-163.
Shneiderman, B. 1998. Codex, memex. Genex: The pursuit of transformational technologies. International Journal of Human Computer Interaction 10, no. 2: 87-106.
Shneiderman, B., D. Byrd, and W. B. Croft. 1997. Clarifying search: A user interface framework for text searches. D-Lib Magazine 3, no. January.
Appunti su: |
|