Dalle app che spogliano ai siti pieni di video pornografici. Il contrasto alla violenza contro le donne passa anche dalle tecnologie informatiche, in una lotta «intelligente», pensata per usare al contrario gli stessi strumenti digitali che infieriscono sui corpi femminili e sulla cultura del rispetto. A svilupparle il Dipartimento di Informatica dell’Università di Bari con due progetti pieni di Ai e algoritmi addestrati attraverso competenze sempre più trasversali. Un salto di qualità nella difesa delle vittime che opera tanto sulle immagini quanto sul linguaggio, per intercettare anche le violenze psicologiche, come ci spiega Danilo Caivano, ordinario di Informatica e responsabile scientifico del SerLab-Software Engineering Research di Uniba: «Stiamo lavorando a software capaci di segnalare violenza di genere, hate speech, relazioni tossiche, cyberbullismo».
Il primo progetto è al centro di un protocollo triennale con la Polizia Postale. Di che si tratta?
«Alla Polizia Postale giornalmente arrivano centinaia di segnalazioni di siti web che si sospetta contengano materiale pedopornografico. Il primo obiettivo è stato rendere più efficace ed efficiente l’attività dei funzionari di Ps, che non avevano altri strumenti di verifica se non visitare materialmente i siti. Oltre a velocizzare l’attività, occorreva far agire un sistema automatico che evitasse di esporre gli operatori a materiale oggettivamente molto pesante da visionare al punto da richiedere un’assistenza psicologica molto importante, aspetto assolutamente non da sottovalutare. La seconda esigenza è stata aiutare gli operatori di polizia nelle perquisizioni a domicilio: devono trovare quanto più velocemente possibile il materiale contestato sia perché si dispongono misure cautelari in relazione ai file trovati, sia perché bisogna interrompere un reato e salvaguardare le vittime quanto prima possibile.
Come agisce il software Uniba?
«Abbiamo creato uno strumento basato su un motore d’Intelligenza artificiale che lavora a più stadi. Il primo dice se il supporto di memoria, sito web o hard disk, contiene materiali pornografici. Il secondo vede se in questi materiali è ritratto un minore. Ora stiamo sviluppando il terzo stadio che lavora sull’anatomia umana, perché in prima istanza identificavamo solo i volti dei minori, classificandoli per età.
È già operativo?
«Il software è stato utilizzato sperimentalmente in alcune indagini a Venezia e qui a Bari con un’affidabilità molto buona».
L’altro software?
«L’Università di Bari è una dei dieci atenei italiani d’eccellenza in materia di cybersecurity tanto che siamo nel partenariato esteso finanziato dal Pnrr “Serics - Security and Rights in Cyberspace”. Abbiamo costruito strumenti che mutuano i metodi e le tecniche tipici della sicurezza informatica applicandole alla sicurezza sociale. Lavoriamo con un team multidisciplinare bellissimo, dove ci sono pedagogisti, psicologi, filosofi politici e giuristi, umanisti che studiano il linguaggio, accanto a matematici e informatici. Abbiamo realizzato un sistema sempre basato su Intelligenza artificiale che tenta di contrastare tutte le forme di violenza, da quella verbale a quella di genere, dalla violenza tra partner al bullismo, alla pedopornografia, alle relazioni tossiche».
L’obiettivo?
«In uno scambio di messaggi tra partner, per esempio, vorremmo alzare un segnale d’allarme per far capire che quella conversazione sta diventando tossica, ingannevole o manipolatoria, e accendere un alert in maniera tale da mettere in guardia le parti».
Come e dove può essere applicato questo strumento?
«Stiamo utilizzando un motore Ai, il large language model, che stiamo addestrando su tutta una tipologia di violenze verbali, lavorando sulla semantica, per avere la percezione di quando il linguaggio sta diventando aggressivo o pericoloso. Molteplici le applicazioni: potremmo contrastare le violenze di genere, individuare quando una relazione sta diventando tossica o può sfociare in un femminicidio, quando si sta facendo violenza verbale nei confronti di una persona, bodyshaming o revenge porn».
In pratica, filtrando messaggi scritti, audio e immagini si capirà se c’è un tasso di pericolosità nella comunicazione o nella relazione?
«Lavoriamo a strumenti che potrebbero aiutarci a capire, attraverso le sfumature del linguaggio, se uno dei due partner sta usando una forma di violenza. Anche con il social engineering, che manipola toccando leve psicologiche e comportamentali, stiamo studiando come intercettare i tratti di personalità più vulnerabili rispetto a un potenziale truffatore. Attraverso spie semantiche, cerchiamo di alzare il livello di consapevolezza, agendo in termini di prevenzione».
















