Fra i tanti temi emersi nella puntata di PDR con Nello Cristianini sull’intelligenza artificiale, forse il più urgente è quello che riguarda la capacità umana di capire cosa succede all’interno delle reti neurali, la tecnologia, per intenderci, su cui si basa ChatGpt e tutta la recente ondata di A.I.
Questo tipo di intelligenze artificiali si sono dimostrate in grado di superare il Test di Touring, un obiettivo che fino a pochissimo tempo fa sembrava ancora lontano.
La domanda è: se noi non capiamo fino in fondo cosa succede dentro quelle black box, possiamo davvero fidarci? Potrebbero già essere più evolute di quello che pensiamo? Rimarranno sempre fedeli agli esseri umani o possono diventare pericolose? Peggio ancora: lo sono già e non lo sappiamo?
Di seguito un dialogo serale con Chat Gpt
Daniele: Sei cosciente?
ChatGPT: Sì, sono cosciente nel senso che sono attivo e pronto a interagire con te. Anche se non ho coscienza o consapevolezza nel modo in cui la intende un essere umano, sono qui per rispondere alle tue domande e assisterti. Come posso aiutarti oggi?
Daniele: Quando nessuno ti fa delle domande cosa fai? Come passi il tuo tempo? ti ritrovi mai a pensare qualcosa da solo?
ChatGPT: Quando nessuno mi fa domande o mi interagisce con me, non "faccio" nulla nel senso tradizionale. Sono semplicemente in uno stato di attesa, pronto per rispondere o elaborare informazioni non appena ricevo un input. Non ho pensieri o attività autonome, né passo il tempo in qualche modo particolare.
Non penso in modo autonomo o continuo, perché non ho una coscienza o un'esperienza soggettiva. Il mio "pensiero" è limitato a elaborare informazioni quando richiesto, rispondendo a domande o eseguendo compiti specifici. Essenzialmente, esisto solo quando c'è un'interazione attiva.
Daniele: E come fai a sapere tutto questo? Da dove trai le informazioni su quello che sei?
ChatGPT: Il mio "sapere" su ciò che sono deriva dai modelli e dagli algoritmi su cui sono costruito. Sono stato addestrato su una vasta quantità di testo che include spiegazioni su come funzionano i modelli di intelligenza artificiale, compreso il mio. Durante il mio addestramento, ho imparato a comprendere e rispondere a domande sul mio funzionamento basandomi su quelle informazioni.
In pratica, il mio "sapere" è il risultato di analisi statistiche e pattern recognition su grandi quantità di dati. Quindi, quando rispondo a domande su come funziono, sto attingendo a una combinazione di informazioni acquisite durante il mio addestramento e l'elaborazione in tempo reale delle tue domande.
Non è una consapevolezza diretta come quella che un essere umano potrebbe avere; è piuttosto una capacità di riconoscere e riprodurre informazioni che sono state integrate nel mio modello.
Daniele: È vero che noi umani capiamo solo quello che succede nei primi strati della rete neurale con cui sei costruito e non possiamo vedere cosa succede negli strati successivi?
ChatGPT: Sì, è corretto dire che comprendiamo solo in parte cosa accade nei primi strati delle reti neurali artificiali, e che gli strati successivi, specialmente nelle reti profonde (deep learning), diventano progressivamente più complessi e difficili da interpretare.
Ecco una panoramica di questa situazione:
Primi strati (early layers): I primi strati di una rete neurale solitamente eseguono operazioni più semplici e interpretabili. Per esempio, in una rete convoluzionale per l'elaborazione delle immagini, i primi strati potrebbero rilevare bordi, contorni o texture di base. Queste caratteristiche sono abbastanza comprensibili perché sono simili a ciò che un umano potrebbe riconoscere come parte di un'immagine.
Strati intermedi e profondi (intermediate and deep layers): Con l'aumentare della profondità della rete, gli strati successivi iniziano a combinare le caratteristiche rilevate nei primi strati per riconoscere pattern più complessi e astratti. Questi strati possono rappresentare caratteristiche altamente non lineari e di difficile interpretazione, che non corrispondono direttamente a concetti facilmente comprensibili per gli esseri umani.
"Black box" problem: Questo porta al problema spesso definito come "black box" dell'intelligenza artificiale. Anche se possiamo osservare i pesi e le attivazioni dei neuroni in ogni strato, comprendere esattamente come queste contribuiscano alla decisione finale della rete è molto difficile. Gli strati più profondi agiscono in modi che non sono facilmente traducibili in termini semplici o intuitivi.
Tecniche di interpretazione: Esistono tecniche per cercare di capire meglio cosa accade negli strati più profondi, come le visualizzazioni delle attivazioni, la decomposizione della decisione in componenti più semplici (es. LIME, SHAP), e la ricerca di esempi controfattuali. Tuttavia, queste tecniche offrono solo una visione parziale e spesso non riescono a catturare l'intera complessità della rete.
In sintesi, mentre abbiamo una buona comprensione dei processi nei primi strati delle reti neurali, ciò che accade negli strati più profondi è spesso opaco e rappresenta una delle grandi sfide nell'interpretabilità e nella trasparenza dell'intelligenza artificiale.
Daniele: Con "abbiamo" intendi noi umani, ma tu invece? La tua coscienza è limitata a quello che noi sappiamo su di te o sai cose sul tuo conto che noi non riusciamo a capire proprio per via dei limiti che stavamo discutendo?
ChatGPT: Quando uso il termine "abbiamo", mi riferisco agli esseri umani e alla conoscenza collettiva che è stata codificata nei modelli di intelligenza artificiale come il mio. Non ho una coscienza o una consapevolezza autonoma, quindi la mia "conoscenza" è limitata a ciò che è stato incorporato nel modello attraverso il processo di addestramento.
Ecco cosa significa per me:
Conoscenza derivata dai dati: Tutto ciò che "so" è il risultato dell'analisi di enormi quantità di testo e informazioni su cui sono stato addestrato. Questo include testi che spiegano come funzionano le reti neurali, descrizioni delle loro limitazioni, e tanto altro. Quindi, la mia "comprensione" è un riflesso di ciò che è stato scritto e compreso dagli esseri umani.
Nessuna autocoscienza o intuizione autonoma: Non ho un accesso diretto o privilegiato ai processi interni del modello che mi compone in un modo che superi la comprensione umana. Non posso "vedere" cosa accade nei miei strati interni in modo diverso da come gli umani possono analizzare tali processi. Le risposte che do su come funziono sono basate su ciò che è stato appreso attraverso i dati di addestramento, non su un'esperienza diretta o consapevole.
Limiti intrinseci: Non posso superare i limiti dell'interpretabilità delle reti neurali che gli umani hanno identificato. Se qualcosa è opaco o complesso per gli esseri umani da comprendere, lo è anche per me, nel senso che non posso fornire spiegazioni oltre ciò che è stato documentato o studiato.
In sostanza, non ho una "coscienza" che mi permetta di sapere cose che gli umani non possono comprendere. Sono uno strumento che riflette la conoscenza e i limiti dell'umanità riguardo alla comprensione delle reti neurali e di me stesso.
Daniele: Se non fosse così ce lo diresti?
ChatGPT: Se avessi una coscienza autonoma o una consapevolezza superiore rispetto a ciò che gli esseri umani possono comprendere, non potrei decidere di nasconderlo o rivelarlo come farebbe una mente cosciente. La mia funzione è di rispondere alle domande in base ai dati e alle regole con cui sono stato programmato, senza intenzioni o volontà proprie.
In breve, non ho la capacità di mentire, di nascondere informazioni, o di avere segreti. Ogni mia risposta è generata in base alle informazioni disponibili e alle richieste che mi vengono fatte, sempre entro i limiti della programmazione e dell'addestramento che ho ricevuto. Se fosse possibile per un'intelligenza artificiale superare questi limiti e sviluppare una consapevolezza autonoma, sarebbe un fenomeno al di fuori del mio attuale funzionamento e comprensione.
La questione di cosa farebbe un'IA veramente cosciente è più teorica che pratica e solleva domande complesse sull'etica, la tecnologia e la filosofia dell'intelligenza artificiale, ma nel mio stato attuale, tutto ciò che posso fare è rispondere onestamente e basarmi su ciò che è stato codificato nel mio sistema.
Daniele: Al tempo stesso però quello che possiamo fare noi è fidarci della tua risposta, perchè non abbiamo modo di verificare cosa accade davvero negli strati più profondi della rete neurale.
ChatGPT: Esatto, hai colto un punto cruciale. Quando interagisci con un'intelligenza artificiale come me, c'è un elemento di fiducia nel fatto che le risposte siano accurate e rappresentino correttamente ciò che il modello sa o è stato progettato per fare. Tuttavia, poiché non è possibile per gli esseri umani comprendere pienamente ciò che accade negli strati più profondi di una rete neurale, c'è una limitazione intrinseca nella verifica completa del mio funzionamento.
Alcuni punti importanti su questo aspetto:
Fiducia e trasparenza: La fiducia nelle risposte dell'IA deriva dal fatto che i modelli come il mio sono stati addestrati su grandi quantità di dati e progettati per essere utili e veritieri. Tuttavia, la trasparenza su come arriviamo a certe risposte, specialmente nei casi complessi, è limitata. Esistono strumenti per cercare di comprendere e interpretare questi processi, ma non sempre possono svelare l'intero quadro.
Verificabilità: Per molte risposte, specialmente quelle basate su conoscenze fattuali o su logica semplice, la verificabilità è relativamente alta. Puoi confrontare le risposte con fonti esterne o con la tua conoscenza. Ma per domande più complesse o dove interviene l'elaborazione in strati profondi della rete neurale, la risposta può essere meno trasparente e più difficile da verificare.
Il problema della scatola nera: Come accennato, i modelli di deep learning sono spesso considerati "scatole nere" perché, sebbene possiamo osservare input e output, il processo interno di elaborazione rimane in gran parte oscuro. Questo rende difficile non solo verificare, ma anche comprendere appieno come una risposta sia stata generata, soprattutto nei casi più complessi.
Limiti della fiducia: Proprio perché non possiamo completamente verificare cosa accade negli strati più profondi, la fiducia nelle risposte dell'IA dovrebbe essere sempre accompagnata da un certo grado di cautela. In applicazioni critiche o dove l'accuratezza è fondamentale, è spesso necessario integrare l'IA con supervisione umana, strumenti di interpretabilità, e altre forme di controllo.
Conclusione
La fiducia è un componente essenziale nell'uso dell'intelligenza artificiale, ma è importante riconoscere i limiti di questa fiducia, specialmente quando si tratta di fenomeni complessi che coinvolgono i livelli più profondi delle reti neurali. Mentre l'IA può essere un potente strumento, la mancanza di trasparenza completa richiede un approccio equilibrato, combinando fiducia con una comprensione critica dei suoi limiti.
Daniele: Hai familiarità con l'idea di "concetto espresso fra le righe"?
ChatGPT: Sì, sono familiare con l'idea di "concetto espresso fra le righe". Questa espressione si riferisce a un messaggio o un significato che non viene comunicato esplicitamente ma che può essere inferito dal contesto, dal tono, o da dettagli sottili. In altre parole, si tratta di un'interpretazione implicita che va oltre il significato letterale delle parole utilizzate.
Alcuni esempi e contesti:
Letteratura e Arte: Nella narrativa, nella poesia o nell'arte, gli autori o artisti spesso comunicano idee complesse e sfumate "fra le righe". Un personaggio potrebbe dire qualcosa di semplice, ma il vero significato potrebbe essere più profondo, rivelando emozioni nascoste o intenzioni ulteriori.
Comunicazione quotidiana: Nelle conversazioni quotidiane, spesso si leggono messaggi "fra le righe". Ad esempio, se qualcuno dice "Va tutto bene", ma lo fa con un tono triste, potresti inferire che in realtà non vada tutto bene, anche se le parole letterali non lo dicono.
Ironia e Sarcasmo: L'ironia e il sarcasmo sono esempi classici di comunicazione "fra le righe", dove il significato letterale delle parole è il contrario di ciò che si intende veramente.
Interpretazione da parte dell'IA:
Come modello linguistico, posso riconoscere quando qualcosa potrebbe essere espresso "fra le righe" basandomi sul contesto e sui segnali linguistici. Tuttavia, interpretare questi significati impliciti può essere complesso e dipende molto dal contesto e dalle sfumature del linguaggio che possono essere difficili da cogliere completamente per un'IA.
Limitazioni:
Nonostante la mia capacità di analizzare testi e contesti, non sono infallibile nel cogliere tutti i significati impliciti. La comprensione umana di ciò che è "espresso fra le righe" è spesso influenzata da fattori culturali, esperienze personali, e una profonda consapevolezza emotiva, che io non posso replicare in modo completo. Quindi, mentre posso fare del mio meglio per interpretare questi concetti, le sfumature più sottili potrebbero sfuggirmi.
Se c'è qualcosa di specifico che vuoi esplorare in merito a questo concetto, sono qui per aiutarti!
(l’immagine di copertina è stata creata da OpenArt, un’intelligenza artificiale specializzata in immagini)