Bufale, pornografia e criminali: Intelligenza Artificiale e Facebook "a caccia"

02 dicembre 2016 ore 10:12, Micaela Del Monte
Dalla Jiao Tong University di Shanghai arriva un software in grado di riconoscere un criminale - o di predire l'intenzione criminale - dai soli tratti del volto. Frutto di una ricerca dei dottori Xiaolin Wu e Xi Zhang, lo studio è stato pubblicato dalla Cornell University.

Bufale, pornografia e criminali: Intelligenza Artificiale e Facebook 'a caccia'
Il software si basa unicamente su immagini di volti e dai volti dedurrebbe automaticamente il 'tasso di criminalità' del soggetto. Per farlo, i ricercatori hanno utilizzato 1856 immagini di volti di persone reali - metà delle quali sono condannati - divise per razza, sesso, età ed espressioni facciali, dividendo il tutto in 4 classificazioni principali (Logistic regression, KNN, SVM, CNN). Inserito il volto che interessa nel software, quest'ultimo riuscirebbe quindi a rintracciare quei tratti somatici peculiari che indicherebbero la pulsione criminale (reale o potenziale) del soggetto. Questo studio solleva importanti questioni etiche, come la possibilità che il comportamento criminale sia scritto nel nostro DNA. Alcuni esperti di intelligenza artificiale hanno però sottolineato come l’affidabilità dell’algoritmo dipenda solo dalla bontà dei dati con cui viene addestrato, e che quindi i possibili pregiudizi che portano i giudici a condannare con maggiore probabilità persone con un determinato aspetto fisico siano stati trasmessi all’algoritmo. L’intelligenza artificiale, lungi dall’essere obiettiva, non farebbe altro che riprodurre le distorsioni del giudizio umano. 

Non solo criminali però, un'altra "ossessione" delle IA potrebbe diventare quella del riconoscimento delle bufale sul web e per individuare violenza o nudità nei video trasmessi in diretta, in modo da filtrare i contenuti del social. La circolazione di notizie false sul social è un problema emerso soprattutto in occasione delle elezioni presidenziali statunitensi. Un altro problema è poi rappresentato dai ‘live video’, i filmati che gli utenti possono trasmettere in diretta e che potrebbero avere contenuti pornografici o comunque immagini di nudo o immagini e messaggi violenti quali possono essere quelli di estremisti e terroristi, entrambi vietate dalla compagnia. Facebook, ha spiegato il direttore del settore apprendimento automatico della compagnia, Joaquin Candela, è in “fase di ricerca” per usare l’intelligenza artificiale per rilevare in automatico violenza e altri contenuti inappropriati nelle dirette video.
caricamento in corso...
caricamento in corso...
[Template ADV/Publy/article_bottom_right not found]