Vai al contenuto

Georg Gottlob

Da Wikiquote, aforismi e citazioni in libertà.
Georg Gottlob nel 2009

Georg Gottlob (1956 – vivente), informatico e accademico italo-austriaco.

Intervista di Sergio Ferraris, L'Ecofuturo Magazine, marzo 2024; ripubblicato in ecquologia.com, 13 giugno 2024.

  • [Stiamo vedendo l'affacciarsi dei sistemi di AI basati sui Large Language Model (LLM). Che cosa sono?] Si tratta di una novità recente, ma non rappresenta la fase finale dell'evoluzione dell'intelligenza artificiale, che non è una rivoluzione istantanea, ma un processo che dura da parecchi anni. Si tratta di modelli che possono usare una quantità enorme di testi, in pratica tutto il web, concentrandoli in una grande rete neurale, usando sia delle tecniche che esistevano già, sia una serie d'innovazioni. Oltre al web aperto è stata incorporata anche un'enorme quantità d'archivi, fondamentalmente testuali. Tutto ciò è necessario per creare un "corpus" che possa essere la base della creazione delle risposte alle domande fatte dall’utente, attraverso il prompt.
  • [Circa la veridicità dei risultati dei LLM, a che punto siamo?] Faccio un esempio pratico. Se chiedo a ChatGPT di quali articoli scientifici sono autore può darmi una risposta esatta per alcuni ma sbagliata per altri. Il motivo risiede nel fatto che, con la compressione, il sistema LLM ha perso la connessione tra me l'autore e il titolo attribuendomi titoli di articoli che non ho scritto. Il sistema ha ragionato con una forma di probabilità approssimata, perdendo alcune connessioni per approssimazione e per questo motivo offre anche risultati errati. 
  • [In molti non hanno colto la novità dell'AI e ragionano come se fosse un programma più evoluto di quelli del passato. Che problema c'è nel capire questa innovazione?] Si tratta di un problema transitorio perché non c'è ancora un'abitudine a questi sistemi. È come se vedendo un'auto elettrica per strada si pensa che sia endotermica, perché quella è la forma delle auto che fino a ieri erano alimentate dal carburante. Il problema di fondo è rappresentato dal fatto che una simile analogia rende difficile valutare l'AI. I programmi per computer hanno un'aura di perfezione e precisione che fa pensare alle persone che il risultato sia vero, mentre per l'AI non è così, come ho già detto. Le persone devono essere istruite sulle problematiche dell'AI che sono legate al concetto d'apprendimento e che non è perfetto, perché dipende da ciò che c'è sotto, alla base. Alcune ditte, per esempio, usano i sistemi LLM per determinare gli stipendi del personale con il risultato che, poiché questi sistemi imparano dal presente, discriminano le donne. Questo accade perché, nell'industria privata, le donne sono attualmente pagate meno. Il sistema impara ciò attraverso il machine learning e lo perpetua, ritenendolo corretto, visto che purtroppo oggi ancora è un fatto statistico. Occorre correggere il sistema imponendogli di rispettare le nostre norme etiche (come la non-discriminazione); il problema è che non è chiaro come fare. 

Altri progetti

[modifica]