A quanto pare la biblioteca di Firenze, ben prima del vigile Urbani, si è accorta dell’assurdità del richiedere ai gestori dei siti web di mandare ai suoi archivi copie fisiche degli stessi, e ha infatti indetto un comunicato con il quale invitano a non inviare copie al loro indirizzo.
Cito:
“La legge 106/2004, allineando la legislazione italiana a quella dei Paesi più avanzati, dispone la raccolta e la conservazione dei siti web (come di tutte le altre pubblicazioni digitali), con la finalità di conservare la memoria della cultura e della vita sociale italiana.
La legge prevede che venga emanato entro sei mesi un regolamento di applicazione, ma si può anticipare che le biblioteche nazionali stanno cooperando a livello internazionale e che concordemente indicano nell’harvesting – ossia nella raccolta delle pagine web effettuata tramite un software (crawler )- la modalità più efficiente e sostenibile di deposito. In pratica con questa tecnologia chi pubblica siti web liberamente accessibili in rete non deve “depositare” assolutamente niente: è il crawler gestito dall’istituzione depositaria che provvede a “raccogliere” il sito web (per maggiori informazioni su archiviazione del web e cooperazione internazionale: http://netpreserve.org)”
Ammirevole la chiarificazione di intenti e conforta vedere che c’è qualcuno in Italia che ha almeno una vaga idea di come funziona la rete. L’unico dubbio rimane sempre sulle solite questioni: e se io non voglio che esistano copie oltre a quelle del mio sito? e se voglio far sparire dal web una certa cosa perché non ritengo sia più espressione di me stesso? ma questo crawler magico rispetterà il no-archive?
Ai poster(i) l’ardua sentenza.
Appunti Disordinati di Viaggio
Raccogliere il Web
Come scrive Ian in questo post, la Biblioteca di Firenze si è accorta di non poter gestire la raccolta dei siti web italiani come previsto dalla Legge 106/2004 (ne avevo già parlato qui e qua) e ha emanato un comunicato in proposito.
In sintesi: è…