Arturo Di Corinto al Festival di Geopolitica, Demarcazioni
Mi ha fatto veramente molto piacere partecipare a Demarcazioni, il primo Festival di Geopolitica appena concluso ad Ascoli Piceno.
Venerdì 20 aprile 2026, nella mia sessione, “I corridoi del potere”, a cui hanno partecipato anche il Ministro Francesco Lollobrigida e il presidente delle marche, Francesco Acquaroli, abbiamo parlato di Sovranità digitale e tecnologica insieme a Giulia Pastorella, Franco Spicciariello e altri relatori moderati dalla collega di Porta a Porta Paola Ferazzoli.
Dal canto mio ho ribadito come oggi la sovranità digitale si declini come autonomia strategica, cioé di come essa comporti l’istituzione e il mantenimento attivo di collaborazioni internazionali dinamiche e mirate, per affrontare proattivamente le minacce alla sovranità stessa (copyright Roberto Baldoni) e che la sovranità non si esercita solo nel controllo sui dati generati dai cittadini dalle imprese e dalla PA contando sull’uso di tecnologie sicure e affidabili.
Sovranità e autonomia si garantiscono anche infatti attraverso il controllo politico e normativo. Perciò non c’è sovranità senza Europa. Certo, per sfuggire al paradosso della sovranità senza tecnologie, l’Europa deve fare fare di più e sviluppare meglio la sua capacità di innovare e produrre tecnologie utili e affidabili.
L’Italia ci sta provando, attraverso Agenzia per la Cybersicurezza Nazionale e in collaborazione con molti soggetti come l’European Cybersecurity Competence Centre (ECCC).
Perciò grazie agli organizzatori per questo bell’incontro.
DEMARCAZIONI Festival Geopolitica 2026 Ascoli Piceno
Pubblicato dagli editori Laterza nel 2024, il nuovo libro di Davide Bennato, La società del XXI secolo. Persone dati e tecnologie, è un ottimo ripasso per chi vuole capire come siamo arrivati fino a qui.
Ripercorrendo alcune delle storie che hanno scandito il ritmo dell’innovazione tecnologica degli ultimi anni, Davide Bennato, che insegna Sociologia dei Media Digitali all’Università di Catania, pone delle questioni che di tecnologico hanno poco, ma alle quali si può rispondere solo analizzando il contesto socio-tecnico che quelle tecnologie hanno generato. Ad Esempio, Bennato si chiede se noi siamo il nostro profilo Facebook. Ci verrebbe da dire di no, ma la risposta non è così scontata. Oppure: è possibile che il Bitcoin abbia prodotto una crisi in Kazakstan? Sì, e ci ricorda il perché. Ancora, ci racconta come siamo diventati una società basata sui dati, perché esistono e a cosa servono i Big-Data, cos’è il Dataismo (la religione dei dati), come i dati diventano il carburante dell’intelligenza artificiale come accelerino le mutazioni antropologiche che stiamo vivendo. Lo studioso pone le domande e abbozza le sue risposte con gli strumenti propri delle scienze sociali e della fenomenologia critica del digitale. E infatti, una delle domande più interessanti del libro è proprio quella sull’identità sociale che acquisiscono le intelligenze artificiali con cui interagiamo. E la risposta a questa domanda è da leggere, perché non la troverete scontata.
Secondo lo studioso, infatti, le IA comunicative sono soggetti sociali. Perché? “Perché hanno le proprietà dei soggetti sociali: operano all’interno di uno spazio sociale (la rete), adattano il proprio comportamento sulla base dei dati a disposizione, imparano dai dati a disposizione (apprendono) e prendono decisioni in autonomia: in pratica, sono dotate di agency. Le intelligenze artificiali sono tecnologie in quanto prodotto tecnico, ma non si comportano da tecnologie perché sono in grado di adattarsi all’interazione umana. Ovviamente, non stiamo proponendo di considerare le IA come “individui tecnologici” – almeno per adesso -, ma di considerare le IA come equivalenti funzionali di un soggetto sociale, una entità che agisce nella società contemporanea alla stregua di soggetti, gruppi, squadre”.
Machina Sapiens, l’algoritmo che ci ha rubato il segreto della conoscenza (Il Mulino 2024) è il secondo libro della futura trilogia di Nello Cristianini sull’Intelligenza artificiale ed è un piccolo capolavoro di chiarezza. Il professore italiano, che insegna Intelligenza Artificiale all’Università di Bath, in Inghilterra, prende la mosse dalle visionarie tesi di Alan Turing, il padre dell’informatica moderna, per discettare se, come e quando le macchine artificiali possano pensare. E il risultato delle sua analisi è che, come diceva Turing, la domanda è sbagliata. La vera domanda è se le macchine che abbiamo costruito possano comprendere il mondo e parlarne con noi. La risposta è che oggi ci siamo riusciti, come aveva predetto Turing, che non solo contribuì a decifrare la macchina cifrante nazista Enigma, ma che pose le basi della teoria della computazione generale. Oggi, dice Cristianini, assistiamo alla straordinaria evoluzione di idee vecchie di 70 anni – l’età dell’IA – perché abbiamo a disposizione qualcosa che prima non avevamo: potenza computazionale, algoritmi di machine learning efficaci e tanti dati. Più dati forniamo alla macchina, più quest’ultima può metterli in relazione, a velocità mai viste prima, sviluppando una sua “visione del mondo”. La logica è facile da comprendere se pensiamo che macchine come ChatGPT sono state pensate proprio per un compito specifico, quello di conversare con noi dandoci risposte plausibili e non di sapere tutto, o di simulare ogni forma di comportamento cognitivo umano. E tuttavia, questo non ci autorizza a pensare che non accadrà nel tempo a venire. Alcune artificiali hanno già manifestato capacità emergenti sulla base di un mero apprendimento associativo, mostrato di essere capaci di generalizzare concetti, e trasferire conoscenze da un dominio all’altro, dalla linguistica alla matematica. E allora, senza fare fughe in avanti, per adesso basta mettersi d’accordo su cosa intendiamo per intelligenza, pensare, ragionare, tre concetti che ancora dividono filosofi e psicologi e che magari sono utilizzati in maniera impropria, sia per le macchine che per gli umani, diciamo noi. Dunque, restiamo coi piedi per terra: le GenAI, le intelligenze artificiali generative, fanno già meglio di noi in molti campi. Queste macchine sono in grado di superare test di lingua necessari a ottenere un visto o passare di grado a scuola; sono in grado di superare gli esami per l’avvocatura in America; sono in grado di analizzare sterminate quantità di dati e riscrivere sé stesse. Ma non sanno ancora prendere decisioni autonome e, in aggiunta, ogni tanto si sbagliano (“confabulano” e “allucinano”). Basta questo a definirle pappagalli stocastici? La risposta di Cristianini è no. Poi, certo se vogliamo continuare a pensare di essere l’apice dell’evoluzione e i signori del Creato, possiamo anche farlo. D’altronde prima di Copernico si credeva che il Sole girasse intorno alla Terra, e che l’Uomo fosse al centro dell’Universo; prima di Darwin si credeva che l’Uomo non appartenesse al mondo animale; e prima di Freud si credeva che l’Io fosse padrone a casa propria. Tre ferite narcisistiche che potrebbero farci risparmiare la quarta.
[…] Ouando risolvi un problema, non risolvere un problema più generale come passo intermedio (Vapnik). Licenzia il linguista (Telinek). Segui i dati (Halevy et al.). Avere più dati è più importante che avere algoritmi migliori (Eric Brill citato da Jelinek). I modelli semplici con molti dati battono modelli più elaborati basati su meno dati. Usa dati che sono disponibili in natura, invece di sperare in dati annotati che non sono disponibili (Halevy et al.). Non chiedere agli utenti di dare «feedback esplicito» […] invece semplicemente registra le scelte che fanno (Boyan et al.). Si può usare il feedback implicito degli utenti, come il fatto che qualcuno ha risposto a una mail (Goldberg). […]
Pp 51, La Scorciatoia. Come le maccchine sono diventate intelligenti senza pensare in modo umano (di Nello Cristianini, Il mulino, 2023)
Un libro molto chiaro per capire l’Intelligenza Artificiale
Intervista a SkyTg24 con Arturo Di Corinto sui rischi del riconoscimento facciale
22 Febbraio 2020
A Skytg24, ‘Progress’ condotto da Helga Cossu, si parla di riconoscimento facciale e Intelligenza Artificiale con Arturo Di Corinto, Ernesto Bellisario, Filippo Sensi, Stefano Quintarelli, il sottosegretario agli Interni on. Carlo Sibilia e il presidente dell’Autorità Garante per la privacy Antonello Soro.
Hacker’s dictionary. Ecco come trarre in inganno i sistemi di riconoscimento visivo guidati da algoritmi di intelligenza artificiale
di ARTURO DI CORINTO per Il Manifesto del 8 Agosto 2019
L’Intelligenza Artificiale (IA) può migliorare la nostra vita guidando al posto nostro, prendendosi cura delle persone anziane e dei malati, svolgendo lavori pericolosi e usuranti, e ottimizzando la gestione di grandi quantità di dati. Tutto questo è possibile grazie ai recenti sviluppi sia della robotica che delle tecniche di IA come, ad esempio, la capacità delle reti neurali di apprendere che ha apportato molti benefici al settore della computer vision, con applicazioni come il riconoscimento degli oggetti, il video labelling, eccetera.
La machine perception è forse il settore dell’IA su cui l’avvento del deep learning ha più inciso. Il basso costo dell’informatica computazionale, la disponibilità di grandi quantità di dati e l’affinamento di reti di algoritmi neurali ha permesso all’IA di eseguire compiti di classificazione visiva anche meglio degli esseri umani. Poiché le “macchine intelligenti” che riconoscono al posto nostro luoghi e persone sono utilizzate in ambito di sicurezza e sorveglianza negli aeroporti, negli smart buildings o al telefono, è ora di chiedersi se funzioni per davvero. Continua a leggere Il Manifesto: La fallace percezione delle macchine intelligenti
Un nuovo rapporto del progetto europeo Sherpa realizzato con F-Secure illustra le tecniche di attacco usate per inquinare i dati e confondere gli algoritmi alla base dei sistemi intelligenti
di ARTURO DI CORINTO per La Repubblica del 18 Luglio 2019
GLI UOMINI stanno attaccando i sistemi di Intelligenza Artificiale e non viceversa, come ci saremmo aspettati dai film di fantascienza. Ma per fare che cosa? Per manipolare i risultati dei motori di ricerca, modificare gli algoritmi dei social media, il ranking e la reputazione dei siti web, disturbare il volo dei droni o ingannare una macchina a guida autonoma. E così, al contrario di quello che speravamo, l’uso malevole degli strumenti di intelligenza artificiale non si è fermato alla creazione di sofisticate campagne di disinformazione.
XWe use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept”, you consent to the use of ALL the cookies. Leggi tuttoRejectAccettoSettings
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Durata
Descrizione
connect.sid
1 hour
This cookie is used for authentication and for secure log-in. It registers the log-in information.
viewed_cookie_policy
1 year
The cookie is set by the GDPR Cookie Consent plugin to store whether or not the user has consented to the use of cookies. It does not store any personal data.
Other uncategorized cookies are those that are being analyzed and have not been classified into a category as yet.
Cookie
Durata
Descrizione
nyt-a
1 year
This cookie is set by the provider New York Times. This cookie is used for saving the user preferences. It is used in context with video and audio content.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Cookie
Durata
Descrizione
VISITOR_INFO1_LIVE
5 months 27 days
A cookie set by YouTube to measure bandwidth that determines whether the user gets the new or old player interface.
YSC
session
YSC cookie is set by Youtube and is used to track the views of embedded videos on Youtube pages.
yt-remote-connected-devices
never
YouTube sets this cookie to store the video preferences of the user using embedded YouTube video.
yt-remote-device-id
never
YouTube sets this cookie to store the video preferences of the user using embedded YouTube video.
yt.innertube::nextId
never
This cookie, set by YouTube, registers a unique ID to store data on what videos from YouTube the user has seen.
yt.innertube::requests
never
This cookie, set by YouTube, registers a unique ID to store data on what videos from YouTube the user has seen.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Cookie
Durata
Descrizione
_ga
2 years
The _ga cookie, installed by Google Analytics, calculates visitor, session and campaign data and also keeps track of site usage for the site's analytics report. The cookie stores information anonymously and assigns a randomly generated number to recognize unique visitors.
_ga_5VXPW099ZB
2 years
This cookie is installed by Google Analytics.
CONSENT
2 years
YouTube sets this cookie via embedded youtube-videos and registers anonymous statistical data.