In questi giorni non si fa che parlare di disastri dovuti a “condizioni climatiche avverse”, con i social network protagonisti nella diffusione di foto e video in tempo reale, ennesimo esempio di come il cittadino attivo fornisca informazioni prima delle risorse ufficiali spesso ferme per qualche fax o cellulare di sindaco che non squilla al momento giusto.

Leggo status di amici come Luca Spinelli che fa notare “almeno sei giorni di allerte meteo totalmente infondate, una allerta mancata con morto e milioni di danni, una allerta reale con la gente per strada perché pensava che fosse l’ennesima cantonata. Chi se la prende la responsabilità?” o dell’amico Carlo Poggi che fa notare come durante una manifestazione a Genova sia stato danneggiato il centro operativo AMT. Il black out del centro operativo significa che tutta le rete di comunicazione tra vetture, e tra mezzi e centro operativo è saltata, così come sono scollegate tutte le paline informative alle fermate dei bus. Dati che in questo momento di crisi sarebbero stati vitali. E potremmo continuare per ore a parlare dei problemi dovuti a diversi fattori, primo tra tutti la mancanza di organizzazione tra la comunicazione ufficiale e non ufficiale, all’interscambio di informazioni e dati per consentire a chiunque di attingere dalle fonti primarie di informazione (i sensori) per avere il polso della situazione.

In questi momenti la velocità di condivisione del dato e dell’informazione è essenziale, così come la multicanalità. Non si può ipotizzare di avere dati ed informazioni e di condividerle solo per un canale: non solo quindi social (twitter in primis, con condivisione di hashtag) ma anche canali tradizionali, a partire dalle comunicazioni massive su periferiche mobili (cosa costerebbe ad esempio una notifica massiva su whatsapp? Oppure SMS?), e su mezzi usati da fascia d’età più avanzata (usare il digitale terrestre per diffondere informazioni utili). E qui si scopre che non esistono standard di interoperabilità delle informazioni, ogni regione ha i suoi siti con i suoi formati di comunicazione, e dal sito della protezione civile si scopre che alcune regioni ad oggi non hanno nemmeno tali dati disponibili. Attualmente la protezione civile si sta organizzando per creare delle policy “dal basso”.

L’11 novembre a Roma su iniziativa del Dipartimento della Protezione Civile è nato il tavolo di lavoro dedicato a social media e protezione civile. “Un percorso di protezione civile partecipata che rappresenta il valore aggiunto della nostra protezione civile. Al tavolo associazioni, comuni, enti di ricerca, province, università, media, giornalisti, ‘iniziative’ di cittadini, ricercatori”. È un primo tentativo di mettere un po’ d’ordine, ma serve ben altro per risolvere il problema alla radice. Siamo il paese in cui ogni realtà locale si sviluppa la propria app per dare informazioni su meteo, emergenze, informazioni su traffico ecc. mentre è necessario definire dei protocolli su base nazionale (recependo ove disponibili standard internazionali) per consentire a chiunque di attingere a fonti di informazione primaria: non solo opendata “classico” con rilascio di archivi “storici” di informazioni, ma anche dati in tempo reale, via web services. Ad oggi invece vi è concorrenza pure tra PA per la gestione dei dati: pensiamo a Venezia dove i dati delle maree sono gestiti da un centro maree del comune, da ISPRA e da società privata, con tre misurazioni e previsioni differenti. Iniziamo a razionalizzare e ad avere il coraggio di chiudere inutili doppioni.

Diciamolo chiaramente: in Italia il modello Smart City non è mai partito. Le smart city in Italia non esistono. Fatevene una ragione. Siamo ancora dell’idea che smart city sia l’accensione automatizzata dei lampioni o posizionare un hotspot wifi che si autoalimenta dai lampioni. Siamo al punto in cui i cittadini si auto-organizzano, come a Genova, per mettere on line la mappa delle webcam per monitorare il territorio.

Nel DL 179/2012 il concetto di Smart City (tradotto dal legislativo come “città intelligenti”) è ben chiaro ed è necessario definire dei requisiti per garantire che qualunque oggetto “intelligente” abbia adeguata “intelligenza” per rilasciare informazioni e dati secondo degli standard (alcuni già esistenti, altri da definire). All’epoca (era l’estate del 2012) lo feci presente, in particolare per l’interoperabilità degli oggetti e dell’accessibilità delle interfacce, per garantire una multicanalità non discriminante verso taluni soggetti (esempio: informazioni visive accompagnate da informazioni acustiche per soddisfare sia persone che non vedono e/o con problemi di vista che persone sorde).

Come ho già avuto modo di scrivere, è necessario che il governo dia un forte segnale su questo tema, per evitare le ennesime iniziative-spot basate su nascita di app e/o oggettini a solo uso convegnistico o “medaglistico”. È auspicabile una legislazione nazionale che preveda la nullità di contratti di sviluppo e di acquisto di prodotti da parte delle PA ove gli stessi non utilizzino schemi ed ontologie condivise correlati agli standard.

È ben chiaro che la standardizzazione non aiuterà nell’immediato a risolvere le decennali mancanze di manutenzione ordinaria e straordinaria del territorio nazionale, ma metterà quantomeno un po’ d’ordine consentendo – a chi ha le competenze – di studiare i dati e di elaborarli perché le competenze non sono solo di chi possiede il dato, ma anche di chi venendone a conoscenza può arricchirlo. Per questo è importante il rilascio dei dati. Adesso.

 

 

FONTE: Agenda Digitale (www.agendadigitale.eu)

AUTORE: Roberto Scano

 

 

sospensione dei tributi