Machina Sapiens

Machina Sapiens, l’algoritmo che ci ha rubato il segreto della conoscenza (Il Mulino 2024) è il secondo libro della futura trilogia di Nello Cristianini sull’Intelligenza artificiale ed è un piccolo capolavoro di chiarezza. Il professore italiano, che insegna Intelligenza Artificiale all’Università di Bath, in Inghilterra, prende la mosse dalle visionarie tesi di Alan Turing, il padre dell’informatica moderna, per discettare se, come e quando le macchine artificiali possano pensare. E il risultato delle sua analisi è che, come diceva Turing, la domanda è sbagliata. La vera domanda è se le macchine che abbiamo costruito possano comprendere il mondo e parlarne con noi. La risposta è che oggi ci siamo riusciti, come aveva predetto Turing, che non solo contribuì a decifrare la macchina cifrante nazista Enigma, ma che pose le basi della teoria della computazione generale.
Oggi, dice Cristianini, assistiamo alla straordinaria evoluzione di idee vecchie di 70 anni – l’età dell’IA – perché abbiamo a disposizione qualcosa che prima non avevamo: potenza computazionale, algoritmi di machine learning efficaci e tanti dati. Più dati forniamo alla macchina, più quest’ultima può metterli in relazione, a velocità mai viste prima, sviluppando una sua “visione del mondo”. La logica è facile da comprendere se pensiamo che macchine come ChatGPT sono state pensate proprio per un compito specifico, quello di conversare con noi dandoci risposte plausibili e non di sapere tutto, o di simulare ogni forma di comportamento cognitivo umano. E tuttavia, questo non ci autorizza a pensare che non accadrà nel tempo a venire.
Alcune artificiali hanno già manifestato capacità emergenti sulla base di un mero apprendimento associativo, mostrato di essere capaci di generalizzare concetti, e trasferire conoscenze da un dominio all’altro, dalla linguistica alla matematica. E allora, senza fare fughe in avanti, per adesso basta mettersi d’accordo su cosa intendiamo per intelligenza, pensare, ragionare, tre concetti che ancora dividono filosofi e psicologi e che magari sono utilizzati in maniera impropria, sia per le macchine che per gli umani, diciamo noi. Dunque, restiamo coi piedi per terra: le GenAI, le intelligenze artificiali generative, fanno già meglio di noi in molti campi. Queste macchine sono in grado di superare test di lingua necessari a ottenere un visto o passare di grado a scuola; sono in grado di superare gli esami per l’avvocatura in America; sono in grado di analizzare sterminate quantità di dati e riscrivere sé stesse. Ma non sanno ancora prendere decisioni autonome e, in aggiunta, ogni tanto si sbagliano (“confabulano” e “allucinano”). Basta questo a definirle pappagalli stocastici? La risposta di Cristianini è no.
Poi, certo se vogliamo continuare a pensare di essere l’apice dell’evoluzione e i signori del Creato, possiamo anche farlo. D’altronde prima di Copernico si credeva che il Sole girasse intorno alla Terra, e che l’Uomo fosse al centro dell’Universo; prima di Darwin si credeva che l’Uomo non appartenesse al mondo animale; e prima di Freud si credeva che l’Io fosse padrone a casa propria. Tre ferite narcisistiche che potrebbero farci risparmiare la quarta.

La scorciatoia

[…] Ouando risolvi un problema, non risolvere un problema più generale come passo intermedio (Vapnik). Licenzia il linguista (Telinek). Segui i dati (Halevy et al.). Avere più dati è più importante che avere algoritmi migliori (Eric Brill citato da Jelinek). I modelli semplici con molti dati battono modelli più elaborati basati su meno dati. Usa dati che sono disponibili in natura, invece di sperare in dati annotati che non sono disponibili (Halevy et al.).
Non chiedere agli utenti di dare «feedback esplicito» […] invece semplicemente registra le scelte che fanno (Boyan et al.). Si può usare il feedback implicito degli utenti, come il fatto che qualcuno ha risposto a una mail (Goldberg). […]

Pp 51, La Scorciatoia. Come le maccchine sono diventate intelligenti senza pensare in modo umano (di Nello Cristianini, Il mulino, 2023)

Un libro molto chiaro per capire l’Intelligenza Artificiale

Dibattito a SkyTg24 sui rischi del riconoscimento facciale

Intervista a SkyTg24 con Arturo Di Corinto sui rischi del riconoscimento facciale

22 Febbraio 2020
Skytg24, ‘Progress’ condotto da Helga Cossu, si parla di riconoscimento facciale e Intelligenza Artificiale con Arturo Di Corinto, Ernesto Bellisario, Filippo Sensi, Stefano Quintarelli,  il sottosegretario agli Interni on. Carlo Sibilia e il presidente dell’Autorità Garante per la privacy Antonello Soro.

Progress – Riconoscimento facciale – 22/02/2020 Parte 1

Progress – Riconoscimento facciale – 22/02/2020 Parte 2

Progress – Riconoscimento facciale – 22/02/2020 Parte 3

 

Il Manifesto: La fallace percezione delle macchine intelligenti

La fallace percezione delle macchine intelligenti

Hacker’s dictionary. Ecco come trarre in inganno i sistemi di riconoscimento visivo guidati da algoritmi di intelligenza artificiale

di ARTURO DI CORINTO per Il Manifesto del 8 Agosto 2019

L’Intelligenza Artificiale (IA) può migliorare la nostra vita guidando al posto nostro, prendendosi cura delle persone anziane e dei malati, svolgendo lavori pericolosi e usuranti, e ottimizzando la gestione di grandi quantità di dati. Tutto questo è possibile grazie ai recenti sviluppi sia della robotica che delle tecniche di IA come, ad esempio, la capacità delle reti neurali di apprendere che ha apportato molti benefici al settore della computer vision, con applicazioni come il riconoscimento degli oggetti, il video labelling, eccetera.

La machine perception è forse il settore dell’IA su cui l’avvento del deep learning ha più inciso. Il basso costo dell’informatica computazionale, la disponibilità di grandi quantità di dati e l’affinamento di reti di algoritmi neurali ha permesso all’IA di eseguire compiti di classificazione visiva anche meglio degli esseri umani. Poiché le “macchine intelligenti” che riconoscono al posto nostro luoghi e persone sono utilizzate in ambito di sicurezza e sorveglianza negli aeroporti, negli smart buildings o al telefono, è ora di chiedersi se funzioni per davvero. Continua a leggere Il Manifesto: La fallace percezione delle macchine intelligenti

La Repubblica: Perché gli umani attaccano i sistemi basati sull’intelligenza artificiale

la-repubblica-it-logo

Perché gli umani attaccano i sistemi basati sull’intelligenza artificiale

Un nuovo rapporto del progetto europeo Sherpa realizzato con F-Secure illustra le tecniche di attacco usate per inquinare i dati e confondere gli algoritmi alla base dei sistemi intelligenti

di ARTURO DI CORINTO per La Repubblica del 18 Luglio 2019

GLI UOMINI stanno attaccando i sistemi di Intelligenza Artificiale e non viceversa, come ci saremmo aspettati dai film di fantascienza. Ma per fare che cosa? Per manipolare i risultati dei motori di ricerca, modificare gli algoritmi dei social media, il ranking e la reputazione dei siti web, disturbare il volo dei droni o ingannare una macchina a guida autonoma. E così, al contrario di quello che speravamo, l’uso malevole degli strumenti di intelligenza artificiale non si è fermato alla creazione di sofisticate campagne di disinformazione.

L’allarme viene da un rapporto del progetto europeo Sherpa, dedicato a diritti umani e intelligenza artificiale, e che ha evidenziato come singoli criminali e hacker organizzati abbiano trovato un nuovo obbiettivo nell’attaccare i sistemi ‘intelligenti’ che suggeriscono gli acquisti di Amazon o sull’Apple Store, che definiscono il ranking dei ristoranti su TripAdvisor o che predicono la probabilità di eventi criminosi e i consumi energetici delle smart city. Continua a leggere La Repubblica: Perché gli umani attaccano i sistemi basati sull’intelligenza artificiale