Per far crescere e maturare capillarmente la cultura Open Data su un territorio è necessario mettere in campo iniziative che, operando a diversi livelli di profondità, valorizzino le eccellenze, permettano un confronto proficuo tra iniziative differenti e colmino il divario tra le realtà più avanzate e quelle più arretrate. Il ruolo delle Regioni in questo processo è fondamentale e deve essere portato avanti lavorando in stretta sinergia sia col livello territoriale che con quello nazionale. La Regione Lombardia si candida ad essere un ottimo modello di questo processo di concertazione multilivello. Cogliamo l’occasione del recente documento sugli standard regionali per l’Open Data, per approfondirlo.
Raggiungere un livello di penetrazione uniforme di un determinato approccio o di una innovazione su un territorio non è mai facile. Spesso non basta nemmeno la legge e, anche in seguito ad una imposizione normativa, le deroghe, le scappatoie, o semplicemente i ritardi, sono tali da compromettere l’omogeneità degli standard di servizio di amministrazioni di uno stesso territorio. Come fare allora? L’unico modo è la concertazione, la condivisione di obiettivi e percorsi e – cosa che non guasta mai – un sistema di accompagnamento o tutoring in cui le amministrazioni con più esperienza o risorse aiutino le altre a non restare indietro ed anzi a crescere insieme verso un obiettivo comune.
È esattamente questo il percorso che sta intraprendendo la Regione Lombardia con i comuni del proprio territorio coinvolgendoli in una serie di attività di crescita delle competenze e di capacity buildingsul tema dell’Open Data.
L’ultima iniziativa in tal senso è la pubblicazione – la settimana scorsa – della bozza del documento “Standard Opendata per gli Enti Locali” sottoposta a discussione pubblica per un periodo di 50 giorni circa. Si tratta di un documento che segue le linee guida regionali sugli Open Data e l’allegato per le modalità di adesione alla piattaforma regionale e che ha l’obiettivo di definire standard su quali dati aprire al pubblico e su come farlo. “Negli incontri che abbiamo avuto sul territorio per presentare e diffondere le linee guida – ci spiega Ferdinando Ferrari della struttura di Regione Lombardia che si occupa dell’attuazione della agende regionali di semplificazione e digitalizzazione – le principali domande che ci venivano rivolte erano relative al cosa pubblicare e al come farlo”. Da qui è venuta l’idea di un elenco dei dati che gli enti locali potrebbero mettere a disposizione dei cittadini e di una prima proposta di un tracciato dei contenuti (una sorta di vocabolario standard su come devono essere scritti e letti i dati) per ciascun dataset. “Siamo partiti – continua Ferrari – da una ricerca effettuata sul campo da Lombardia Informatica, a cui abbiamo chiesto di mappare i software utilizzati da tutti i comuni lombardi per l’analisi dei dati e il tipo di dati stessi. In secondo luogo abbiamo consultato il portale dati.gov.it per fare una sorta di benchmark rispetto ai dati pubblicati dalle altre amministrazioni italiane, ed infine abbiamo preso in considerazione i dati indicati dal Decreto 33 del 2013 sulla trasparenza”.
Verso la seconda fase degli Open Data
Quando chiediamo a Ferdinando Ferrari se nello stendere l’elenco dei dataset da rilasciare è stata presa in considerazione anche l’utilità del dato, la risposta che ci dà, ci aiuta a comprendere meglio una fotografia a livello locale che non sempre è chiara ed evidente. “Quello di cui ci stiamo accorgendo, anche grazie ad un confronto con le altre regioni, è che il comportamento degli utenti territoriali in relazione ad un tipo di dati è molto eterogeneo e – a volte – divergente. I dati più scaricati in Lombardia non è detto che ottengano le stesse performance in altri territori. Sicuramente ci sono degli interessi locali, ma la spiegazione più plausibile è che l’utilizzo del dati dipende strettamente dalla sua qualità e dalle informazioni di contesto che vengono fornite a completamento”. Ciò vuol dire dopo aver lavorato sodo per rilasciare 522 dataset, la Regione sta puntando soprattutto a migliorare la qualità e la consultabilità. “Il passo ulteriore per cui stiamo lavorando come Regione è quello di passare ai linked opendata. Tuttavia la situazione sul territorio è decisamente diversa e se si esclude il Comune di Milano, quasi tutti gli altri comuni devono ancora compiere il primo passo e pubblicare i loro dati. Per questo il documento sugli standard regionali – insieme a tutte le altre iniziative di formazione che stiamo portando avanti come il ciclo di webinar attualmente in corso – è un elemento importante, perché crea le condizioni per la realizzazione di una federazioni di portali che si presenti all’utente come un’unica porta di accesso su tutto il patrimonio informativo dell’intero territorio”.
Il valore dell’iniziativa
L’elenco e gli standard a cui è arrivata la Regione Lombardia attraverso il metodo empirico potrà non soddisfare tutti, ed anzi i dettagli tecnici hanno già fatto nascere interessanti discussioni (se siete interessati potete andare a leggere ad esempio quella che si è sviluppata all’interno della comunità Spaghetti Open Data), ma ciò su cui vale la pena riflettere è senza dubbio il percorso che la Regione sta portando avanti, fatto soprattutto di concertazione, condivisione e confronto. Un percorso che muove in tre differenti direzioni: verso il basso, con il coinvolgimento dei comuni del territorio; verso l’alto, con la partecipazione ai tavoli di lavoro nazionali (ad esempio quello sulle competenze digitali e quello sugli Open Data); e in orizzontale, con il confronto interregionale all’interno delle strutture tecniche come il Cisis. Altri territori e altre Regioni si stanno muovendo in maniera simile, ma purtroppo, nonostante le indicazioni nazionali, la situazione a livello Paese non è assolutamente omogenea. “La nostra esperienza – spiega Ferrari – è che ognuno si muove sulla base delle risorse che ha disponibili, il che rende difficile portare avanti un lavoro coordinato a livello nazionale se poi si chiede a tutte le regione di muoversi in autonomia”.
L’obiettivo in sostanza è sempre il medesimo, provare a cancellare la classica macchia di leopardo, tanto a livello territoriale, quanto su scala nazionale, senza dimenticarsi però di continuare a lavorare sulla qualità e leggibilità del dato. L’impegno verso una seconda fase degli open data che abbiamo proposto qualche mese fa è anche questo.
FONTE: Forum PA
AUTORE: Tommaso Del Lungo