La società del XXI secolo

Pubblicato dagli editori Laterza nel 2024, il nuovo libro di Davide Bennato, La società del XXI secolo. Persone dati e tecnologie, è un ottimo ripasso per chi vuole capire come siamo arrivati fino a qui.

Ripercorrendo alcune delle storie che hanno scandito il ritmo dell’innovazione tecnologica degli ultimi anni, Davide Bennato, che insegna Sociologia dei Media Digitali all’Università di Catania, pone delle questioni che di tecnologico hanno poco, ma alle quali si può rispondere solo analizzando il contesto socio-tecnico che quelle tecnologie hanno generato.
Ad Esempio, Bennato si chiede se noi siamo il nostro profilo Facebook. Ci verrebbe da dire di no, ma la risposta non è così scontata. Oppure: è possibile che il Bitcoin abbia prodotto una crisi in Kazakstan? Sì, e ci ricorda il perché. Ancora, ci racconta come siamo diventati una società basata sui dati, perché esistono e a cosa servono i Big-Data, cos’è il Dataismo (la religione dei dati), come i dati diventano il carburante dell’intelligenza artificiale come accelerino le mutazioni antropologiche che stiamo vivendo.
Lo studioso pone le domande e abbozza le sue risposte con gli strumenti propri delle scienze sociali e della fenomenologia critica del digitale. E infatti, una delle domande più interessanti del libro è proprio quella sull’identità sociale che acquisiscono le intelligenze artificiali con cui interagiamo. E la risposta a questa domanda è da leggere, perché non la troverete scontata.

Secondo lo studioso, infatti, le IA comunicative sono soggetti sociali. Perché? “Perché hanno le proprietà dei soggetti sociali: operano all’interno di uno spazio sociale (la rete), adattano il proprio comportamento sulla base dei dati a disposizione, imparano dai dati a disposizione (apprendono) e prendono decisioni in autonomia: in pratica, sono dotate di agency. Le intelligenze artificiali sono tecnologie in quanto prodotto tecnico, ma non si comportano da tecnologie perché sono in grado di adattarsi all’interazione umana. Ovviamente, non stiamo proponendo di considerare le IA come “individui tecnologici” – almeno per adesso -, ma di considerare le IA come equivalenti funzionali di un soggetto sociale, una entità che agisce nella società contemporanea alla stregua di soggetti, gruppi, squadre”.

Machina Sapiens

Machina Sapiens, l’algoritmo che ci ha rubato il segreto della conoscenza (Il Mulino 2024) è il secondo libro della futura trilogia di Nello Cristianini sull’Intelligenza artificiale ed è un piccolo capolavoro di chiarezza. Il professore italiano, che insegna Intelligenza Artificiale all’Università di Bath, in Inghilterra, prende la mosse dalle visionarie tesi di Alan Turing, il padre dell’informatica moderna, per discettare se, come e quando le macchine artificiali possano pensare. E il risultato delle sua analisi è che, come diceva Turing, la domanda è sbagliata. La vera domanda è se le macchine che abbiamo costruito possano comprendere il mondo e parlarne con noi. La risposta è che oggi ci siamo riusciti, come aveva predetto Turing, che non solo contribuì a decifrare la macchina cifrante nazista Enigma, ma che pose le basi della teoria della computazione generale.
Oggi, dice Cristianini, assistiamo alla straordinaria evoluzione di idee vecchie di 70 anni – l’età dell’IA – perché abbiamo a disposizione qualcosa che prima non avevamo: potenza computazionale, algoritmi di machine learning efficaci e tanti dati. Più dati forniamo alla macchina, più quest’ultima può metterli in relazione, a velocità mai viste prima, sviluppando una sua “visione del mondo”. La logica è facile da comprendere se pensiamo che macchine come ChatGPT sono state pensate proprio per un compito specifico, quello di conversare con noi dandoci risposte plausibili e non di sapere tutto, o di simulare ogni forma di comportamento cognitivo umano. E tuttavia, questo non ci autorizza a pensare che non accadrà nel tempo a venire.
Alcune artificiali hanno già manifestato capacità emergenti sulla base di un mero apprendimento associativo, mostrato di essere capaci di generalizzare concetti, e trasferire conoscenze da un dominio all’altro, dalla linguistica alla matematica. E allora, senza fare fughe in avanti, per adesso basta mettersi d’accordo su cosa intendiamo per intelligenza, pensare, ragionare, tre concetti che ancora dividono filosofi e psicologi e che magari sono utilizzati in maniera impropria, sia per le macchine che per gli umani, diciamo noi. Dunque, restiamo coi piedi per terra: le GenAI, le intelligenze artificiali generative, fanno già meglio di noi in molti campi. Queste macchine sono in grado di superare test di lingua necessari a ottenere un visto o passare di grado a scuola; sono in grado di superare gli esami per l’avvocatura in America; sono in grado di analizzare sterminate quantità di dati e riscrivere sé stesse. Ma non sanno ancora prendere decisioni autonome e, in aggiunta, ogni tanto si sbagliano (“confabulano” e “allucinano”). Basta questo a definirle pappagalli stocastici? La risposta di Cristianini è no.
Poi, certo se vogliamo continuare a pensare di essere l’apice dell’evoluzione e i signori del Creato, possiamo anche farlo. D’altronde prima di Copernico si credeva che il Sole girasse intorno alla Terra, e che l’Uomo fosse al centro dell’Universo; prima di Darwin si credeva che l’Uomo non appartenesse al mondo animale; e prima di Freud si credeva che l’Io fosse padrone a casa propria. Tre ferite narcisistiche che potrebbero farci risparmiare la quarta.

La scorciatoia

[…] Ouando risolvi un problema, non risolvere un problema più generale come passo intermedio (Vapnik). Licenzia il linguista (Telinek). Segui i dati (Halevy et al.). Avere più dati è più importante che avere algoritmi migliori (Eric Brill citato da Jelinek). I modelli semplici con molti dati battono modelli più elaborati basati su meno dati. Usa dati che sono disponibili in natura, invece di sperare in dati annotati che non sono disponibili (Halevy et al.).
Non chiedere agli utenti di dare «feedback esplicito» […] invece semplicemente registra le scelte che fanno (Boyan et al.). Si può usare il feedback implicito degli utenti, come il fatto che qualcuno ha risposto a una mail (Goldberg). […]

Pp 51, La Scorciatoia. Come le maccchine sono diventate intelligenti senza pensare in modo umano (di Nello Cristianini, Il mulino, 2023)

Un libro molto chiaro per capire l’Intelligenza Artificiale

Dibattito a SkyTg24 sui rischi del riconoscimento facciale

Intervista a SkyTg24 con Arturo Di Corinto sui rischi del riconoscimento facciale

22 Febbraio 2020
Skytg24, ‘Progress’ condotto da Helga Cossu, si parla di riconoscimento facciale e Intelligenza Artificiale con Arturo Di Corinto, Ernesto Bellisario, Filippo Sensi, Stefano Quintarelli,  il sottosegretario agli Interni on. Carlo Sibilia e il presidente dell’Autorità Garante per la privacy Antonello Soro.

Progress – Riconoscimento facciale – 22/02/2020 Parte 1

Progress – Riconoscimento facciale – 22/02/2020 Parte 2

Progress – Riconoscimento facciale – 22/02/2020 Parte 3

 

Il Manifesto: La fallace percezione delle macchine intelligenti

La fallace percezione delle macchine intelligenti

Hacker’s dictionary. Ecco come trarre in inganno i sistemi di riconoscimento visivo guidati da algoritmi di intelligenza artificiale

di ARTURO DI CORINTO per Il Manifesto del 8 Agosto 2019

L’Intelligenza Artificiale (IA) può migliorare la nostra vita guidando al posto nostro, prendendosi cura delle persone anziane e dei malati, svolgendo lavori pericolosi e usuranti, e ottimizzando la gestione di grandi quantità di dati. Tutto questo è possibile grazie ai recenti sviluppi sia della robotica che delle tecniche di IA come, ad esempio, la capacità delle reti neurali di apprendere che ha apportato molti benefici al settore della computer vision, con applicazioni come il riconoscimento degli oggetti, il video labelling, eccetera.

La machine perception è forse il settore dell’IA su cui l’avvento del deep learning ha più inciso. Il basso costo dell’informatica computazionale, la disponibilità di grandi quantità di dati e l’affinamento di reti di algoritmi neurali ha permesso all’IA di eseguire compiti di classificazione visiva anche meglio degli esseri umani. Poiché le “macchine intelligenti” che riconoscono al posto nostro luoghi e persone sono utilizzate in ambito di sicurezza e sorveglianza negli aeroporti, negli smart buildings o al telefono, è ora di chiedersi se funzioni per davvero. Continua a leggere Il Manifesto: La fallace percezione delle macchine intelligenti

La Repubblica: Perché gli umani attaccano i sistemi basati sull’intelligenza artificiale

la-repubblica-it-logo

Perché gli umani attaccano i sistemi basati sull’intelligenza artificiale

Un nuovo rapporto del progetto europeo Sherpa realizzato con F-Secure illustra le tecniche di attacco usate per inquinare i dati e confondere gli algoritmi alla base dei sistemi intelligenti

di ARTURO DI CORINTO per La Repubblica del 18 Luglio 2019

GLI UOMINI stanno attaccando i sistemi di Intelligenza Artificiale e non viceversa, come ci saremmo aspettati dai film di fantascienza. Ma per fare che cosa? Per manipolare i risultati dei motori di ricerca, modificare gli algoritmi dei social media, il ranking e la reputazione dei siti web, disturbare il volo dei droni o ingannare una macchina a guida autonoma. E così, al contrario di quello che speravamo, l’uso malevole degli strumenti di intelligenza artificiale non si è fermato alla creazione di sofisticate campagne di disinformazione.

L’allarme viene da un rapporto del progetto europeo Sherpa, dedicato a diritti umani e intelligenza artificiale, e che ha evidenziato come singoli criminali e hacker organizzati abbiano trovato un nuovo obbiettivo nell’attaccare i sistemi ‘intelligenti’ che suggeriscono gli acquisti di Amazon o sull’Apple Store, che definiscono il ranking dei ristoranti su TripAdvisor o che predicono la probabilità di eventi criminosi e i consumi energetici delle smart city. Continua a leggere La Repubblica: Perché gli umani attaccano i sistemi basati sull’intelligenza artificiale