Sabato 21 Febbraio 2026 | 16:29

C'è un impatto sistemico dell’IA sull’economia ma è necessario un equilibrio

C'è un impatto sistemico dell’IA sull’economia ma è necessario un equilibrio

C'è un impatto sistemico dell’IA sull’economia ma è necessario un equilibrio

 
Patty L’Abbate

Reporter:

Patty L’Abbate

L’intelligenza artificiale? Regolamentiamola, o sarà lei a «regolare» noi

L’IA non è un settore tra gli altri: è una tecnologia generale che ridisegna catene del valore, organizzazione del lavoro, mercati finanziari, modelli di conoscenza e assetti di potere

Sabato 21 Febbraio 2026, 12:30

La prima consapevolezza è che l’IA non è un settore tra gli altri: è una tecnologia generale che ridisegna catene del valore, organizzazione del lavoro, mercati finanziari, modelli di conoscenza e assetti di potere. Non parliamo solo di produttività, ma di distribuzione dei benefici e dei costi. Secondo il Fondo Monetario Internazionale, circa il 60% dei lavori nelle economie avanzate è esposto all’IA: in una parte dei casi si tratta di un aumento di produttività, in un’altra di un rischio di sostituzione o compressione salariale. L’Organizzazione Internazionale del Lavoro sottolinea che l’effetto prevalente sarà la trasformazione delle mansioni più che la loro eliminazione, ma con impatti concentrati su lavori d’ufficio e con implicazioni anche di genere.

Questo significa che l’IA è una tecnologia dunque è neutrale, ma dipende da come la governiamo. Ed è qui che entra in gioco l’AI Act europeo. L’Unione ha scelto un approccio basato sul rischio: non vietare la tecnologia in sé, ma regolare gli usi in base al loro impatto sui diritti e sulla sicurezza. Le pratiche considerate a rischio inaccettabile sono già oggetto di divieto; per i sistemi ad alto rischio sono previsti obblighi stringenti di governance dei dati, documentazione, tracciabilità, supervisione umana e robustezza tecnica. Non è un freno all’innovazione, ma una condizione di fiducia. Senza fiducia non c’è mercato stabile, e senza regole chiare l’innovazione diventa terreno esclusivo dei grandi operatori globali.

Venendo all’Italia, qualche passo avanti è stato fatto. La Strategia italiana per l’Intelligenza Artificiale 2024-2026 prevede, tra l’altro, l’avvio di 150 progetti di IA nella pubblica amministrazione entro il 2025 e 400 entro il 2026. Il mercato nazionale dell’IA è in forte crescita: nel 2025 ha raggiunto circa 1,8 miliardi di euro, con un aumento del 50% rispetto all’anno precedente, e quasi la metà degli investimenti riguarda soluzioni di intelligenza artificiale generativa o ibride.

Tuttavia, accanto a queste dinamiche positive, restano criticità evidenti.

La prima è il rischio di concentrazione: pochi grandi attori detengono dati, capacità di calcolo e piattaforme, con effetti di dipendenza per imprese e pubbliche amministrazioni.

La seconda è il rischio di disuguaglianze nel mercato del lavoro, se la transizione non è accompagnata da formazione continua e politiche attive mirate. La terza riguarda la sostenibilità: l’IA richiede infrastrutture energeticamente intensive, data center e filiere materiali che hanno un’impronta ambientale tutt’altro che trascurabile. Come economista ecologico, ritengo che la valutazione dell’innovazione debba sempre includere anche il suo metabolismo materiale ed energetico.

In Parlamento ho lavorato affinché l’adozione dell’IA sia coerente con i principi di trasparenza, responsabilità e tutela dei diritti. Ho insistito sul diritto dei cittadini a sapere quando una decisione che li riguarda è stata supportata da un sistema algoritmico, e sulla necessità di garantire una supervisione umana effettiva e non solo formale. Ho chiesto che le piccole e medie imprese non siano lasciate sole di fronte agli obblighi di conformità, ma siano accompagnate con strumenti, linee guida e supporto tecnico.

Per cittadini e imprese oggi servono alcune scelte chiare. Serve un diritto alla trasparenza algoritmica realmente esigibile. Serve una politica industriale che utilizzi gli appalti pubblici per promuovere soluzioni interoperabili, auditabili e sostenibili. Serve un grande investimento sulle competenze, perché la trasformazione delle mansioni non si governa senza formazione permanente. Serve, infine, una strategia europea sulla sovranità dei dati e delle infrastrutture, per evitare una dipendenza strutturale da pochi operatori extraeuropei.

L’intelligenza artificiale può essere uno straordinario strumento di miglioramento dei servizi pubblici, di efficienza energetica, di innovazione nelle imprese. Ma può anche amplificare rendite, disuguaglianze e opacità. La differenza la fanno le regole, le politiche e la qualità della democrazia.

La sfida, quindi, non è scegliere tra entusiasmo acritico e paura paralizzante. La sfida è orientare l’innovazione verso il bene comune: mettere la persona al centro, garantire diritti e trasparenza, sostenere il tessuto produttivo e rispettare i limiti ambientali.

Se riusciremo a farlo, l’IA sarà un fattore di progresso economico e sociale; se non lo faremo, rischierà di diventare un ulteriore fattore di concentrazione di potere. È su questo equilibrio che si misura oggi la responsabilità della politica.

© RIPRODUZIONE RISERVATA

Marchio e contenuto di questo sito sono di interesse storico ai sensi del D. Lgs 42/2004 (decreto Soprintendenza archivistica e Bibliografica Puglia 18 settembre 2020)

Editrice del Mezzogiorno srl - Partita IVA n. 08600270725 (Privacy Policy - Cookie Policy - - Dichiarazione di accessibilità)