Che cos’è l’intelligenza artificiale? È davvero “intelligente”? E, soprattutto, che responsabilità abbiamo noi nel modo in cui si sviluppa e si applica? Luciano Floridi, uno dei filosofi italiani più attivi nel campo dell’etica digitale, affronta queste domande in un testo più concettuale che tecnico.
Per il filosofo, l’IA è una forma di azione potentissima, ma non intelligente. E qui arriva subito la provocazione: con l’intelligenza artificiale, si rompe l’antico legame tra la capacità di agire e l’intelligenza che la guida. La macchina agisce, ma non pensa. L’uomo, al contrario, pensa, ma non sempre agisce con la stessa precisione o velocità. La rivoluzione digitale ha reso questa frattura non solo possibile, ma strutturale; oggi costruiamo ambienti (l’infosfera) che sembrano pensati per l’IA, e non più per l’essere umano. Tuttavia, Floridi non si lascia andare a facili allarmismi. Non serve temere l’IA come una minaccia esterna o come una futura Skynet in versione hollywoodiana. Floridi liquida come fantascienza l’idea di macchine superintelligenti che prenderanno il sopravvento sull’umanità. Per lui, il vero rischio non sono le macchine, ma siamo sempre noi. I pericoli nascono non da ciò che l’IA è, ma da come noi scegliamo di usarla. Il nostro obiettivo, quindi, è il dovere di indirizzarla, far sì che il suo sviluppo sia al servizio del bene sociale. E per farlo serve la filosofia, serve l’etica. Il cuore del libro sta tutto qui: l’etica come bussola per orientare una trasformazione epocale. L’approccio proposto è preventivo, che riprende quattro principi della bioetica classica (beneficenza, non maleficenza, autonomia, giustizia) aggiungendone uno nuovo, pensato su misura per il digitale: l’esplicabilità. Un concetto che unisce trasparenza e responsabilità; sapere come funziona un sistema, e chi risponde delle sue azioni. Il saggio tocca anche i rischi pratici legati all’uso distorto dell’IA: dalle frodi finanziarie al traffico illecito, fino ai crimini contro la persona. Eppure l’autore non dimentica l’altro lato della medaglia, le immense potenzialità sociali che l’IA può offrire, se ben progettata, ben normata, ben compresa.
Un libro necessario, che invita a ripensare il nostro rapporto con la tecnica senza cadere né nel catastrofismo né nel tecnolatrismo. Perché se l’intelligenza artificiale non è davvero “intelligente”, lo siamo noi (o almeno, dovremmo esserlo). Il volume resta comunque un saggio impegnativo, non sempre scorrevole né accattivante, soprattutto per chi non ha dimestichezza con il linguaggio filosofico. Ma vale la fatica, perché obbliga a pensare prima di accettare (o temere) ciò che ci circonda.