L’abbiamo visto proprio la settimana scorsa col blackout del mondo Zuckerberg, la tecnologia è diventata il centro del nostro mondo. Ma quali sono i rischi? E davvero la nostra smart life può andare in #down? Ne abbiamo parlato con Fernanda Faini, ricercatrice di Diritto dell’informatica dell’Università di Pisa
La tecnologia è ormai parte integrante della nostra vita e della nostra quotidianità, tra smartphone, computer, smartwatch e intelligenza artificiale. Ma quali sono i rischi di questo progresso? Pop Economy ha intervistato Fernanda Faini, ricercatrice di diritto dell'informatica dell'Università di Pisa, per scoprirlo.
Secondo la ricercatrice, la rivoluzione digitale sta producendo un impatto incessante sulla vita quotidiana e anche su una serie di aspetti che lei definisce "data Society". La centralità dei dati nella dimensione digitale è evidente, dato che noi siamo le nostre informazioni e spesso le piattaforme conoscono meglio di noi stessi.
Il problema, però, sta nella tutela dei dati personali. La diffusione, la condivisione e l'utilizzo dei dati rischia di non potersi relazionare con i principi che guidano la protezione dei dati personali, come la finalità limitata e la minimizzazione del dato. Inoltre, la rete non dimentica e questo può incidere sulla vita di una persona, soprattutto se una notizia diventa virale.
Ma non è solo un problema di dati e tecnologia. Il cambiamento delle geometrie di potere del nostro mondo sta creando nuovi spazi che percepiamo come pubblici ma che in realtà sono privati. Ci muoviamo nelle piattaforme delle Big Tech, controllori del pedaggio di accesso alla vita digitale. Anche se i servizi sono gratuiti, il pagamento avviene con i nostri dati, con le nostre preferenze e con la profilazione dei nostri comportamenti.
Negli ultimi anni, tutto sembra dover essere smart, compresa la casa. L'intelligenza artificiale si basa sui dati e su un motore nell'algoritmo che fa sì che questi dati esprimano funzioni, valore e risultati. Tuttavia, l'algoritmo funziona basandosi su differenze e correzioni e se non ha le istruzioni e la notazione del dato opportuna, il rischio è che il risultato sia errato.
Ci sono anche i biais e i pregiudizi, che possono portare all'erronea selezione del personale di un'azienda, ad esempio. E non dimentichiamo la possibilità di un errore volontario umano, come un attacco alla sicurezza che permette di prendere il controllo della macchina dall'esterno.
Un altro rischio è legato alle auto autonome e alle scelte etiche che devono compiere in certe circostanze. Con la pandemia, ci siamo affidati alla tecnologia molto più di prima, ma quanto ci ha cambiati? La pandemia ha accentuato un fenomeno già in atto, ovvero la migrazione di massa dal contesto analogico a quello digitale.
Secondo Fernanda Faini, la soluzione sta nel diritto e nei diritti. La dimensione digitale deve essere un luogo di costanza, non di disparità.
Secondo la ricercatrice, la rivoluzione digitale sta producendo un impatto incessante sulla vita quotidiana e anche su una serie di aspetti che lei definisce "data Society". La centralità dei dati nella dimensione digitale è evidente, dato che noi siamo le nostre informazioni e spesso le piattaforme conoscono meglio di noi stessi.
Il problema, però, sta nella tutela dei dati personali. La diffusione, la condivisione e l'utilizzo dei dati rischia di non potersi relazionare con i principi che guidano la protezione dei dati personali, come la finalità limitata e la minimizzazione del dato. Inoltre, la rete non dimentica e questo può incidere sulla vita di una persona, soprattutto se una notizia diventa virale.
Ma non è solo un problema di dati e tecnologia. Il cambiamento delle geometrie di potere del nostro mondo sta creando nuovi spazi che percepiamo come pubblici ma che in realtà sono privati. Ci muoviamo nelle piattaforme delle Big Tech, controllori del pedaggio di accesso alla vita digitale. Anche se i servizi sono gratuiti, il pagamento avviene con i nostri dati, con le nostre preferenze e con la profilazione dei nostri comportamenti.
Negli ultimi anni, tutto sembra dover essere smart, compresa la casa. L'intelligenza artificiale si basa sui dati e su un motore nell'algoritmo che fa sì che questi dati esprimano funzioni, valore e risultati. Tuttavia, l'algoritmo funziona basandosi su differenze e correzioni e se non ha le istruzioni e la notazione del dato opportuna, il rischio è che il risultato sia errato.
Ci sono anche i biais e i pregiudizi, che possono portare all'erronea selezione del personale di un'azienda, ad esempio. E non dimentichiamo la possibilità di un errore volontario umano, come un attacco alla sicurezza che permette di prendere il controllo della macchina dall'esterno.
Un altro rischio è legato alle auto autonome e alle scelte etiche che devono compiere in certe circostanze. Con la pandemia, ci siamo affidati alla tecnologia molto più di prima, ma quanto ci ha cambiati? La pandemia ha accentuato un fenomeno già in atto, ovvero la migrazione di massa dal contesto analogico a quello digitale.
Secondo Fernanda Faini, la soluzione sta nel diritto e nei diritti. La dimensione digitale deve essere un luogo di costanza, non di disparità.