Seguici
Iscriviti alla nostra newsletter

    I chatbot cambiano pelle, ma non convincono del tutto

    Ancora oggi, i nuovi modelli linguistici per l’imitazione del linguaggio naturale sembrano proporre contenuti senza comprenderli veramente. Google si gioca la carta del suo LaMDA

    di Will Douglas Heaven

    Al Google I/O dell’anno scorso, la sua vetrina annuale di nuovi widget e tecnologie in via di sviluppo, il CEO Sundar Pichai ha rivelato “l’ultima svolta nella comprensione del linguaggio naturale” della sua azienda: un chatbot chiamato LaMDA (Language Model for Dialogue Applications), progettato per conversare su qualsiasi argomento.  

    Sul palco è stato presentato un demo in cui la nuova tecnologia di comprensione del linguaggio ha risposto alle domande su Plutone:

    (Pichai): Cosa vedrei se visitassi il pianeta?
    (LaMDA): Vedresti un enorme canyon, alcuni iceberg ghiacciati, geyser e alcuni crateri.
    (Pichai): Sembra bellissimo.
    (LaMDA): Ne vale veramente la pena. Tuttavia, è necessario portare il cappotto, perché fa molto freddo

    È stato interessante, anche se LaMDA ha continuato a fare alcuni errori. Il modello di linguaggio AI che lo alimenta è ancora in fase di sviluppo, anche se è in grado di parlare di milioni di argomenti, ha spiegato Pichai. E Google afferma di non avere ancora in programma di utilizzare LaMDA nei suoi prodotti. Ciononostante, l’azienda lo sta utilizzando per esplorare nuovi modi di interagire con i computer e nuovi modi per cercare informazioni. 

    La visione di un’intelligenza artificiale che fornisce informazioni pertinenti e accurate in piccoli frammenti di facile comprensione sta plasmando il modo in cui le aziende tecnologiche si stanno avvicinando al futuro della ricerca. E con l’ascesa degli assistenti vocali come Siri e Alexa, i modelli linguistici stanno diventando una tecnologia di riferimento. 

    Ma i critici sostengono che l’approccio è sbagliato. 
    Fare una domanda ai computer e ottenere una risposta con un linguaggio naturale può nascondere la complessità dietro una patina di autorità immeritata. “Non abbiamo ragionato a sufficienza sugli obiettivi da raggiungere”, afferma Chirag Shah dell’Università di Washington, che lavora sulle tecnologie di ricerca.  
    ù
    Il 14 marzo, Shah e la sua collega dell’Università di Washington Emily M. Bender, che studia linguistica computazionale e questioni etiche nell’elaborazione del linguaggio naturale, hanno pubblicato un articolo in cui esprimono il loro timore che l’utilizzo di modelli linguistici per la ricerca possa portare a una maggiore disinformazione e un dibattito più polarizzato

    “Il computer omnisciente di “’Star Trek’ non è quello di cui abbiamo bisogno”, sostiene Bender, che a suo tempo ha sottoscritto il documento di Timnit Gebru, la ricercatrice licenziata da Google, che aveva messo in evidenza i pericoli dei grandi modelli linguistici. Google li utilizza già per migliorare la sua tecnologia di ricerca esistente, per interpretare le query degli utenti in modo più accurato. Ma alcuni credono che i modelli linguistici potrebbero essere utilizzati per rivedere il modo in cui viene eseguita la ricerca. LaMDA è solo un esempio.

    L’anno scorso il ricercatore di Google Don Metzler e i suoi colleghi hanno proposto di reinterpretare la ricerca come una conversazione bidirezionale tra utente e modello linguistico, con i computer che rispondono alle domande proprio come potrebbe fare un esperto umano. Google sta anche sviluppando una tecnologia chiamata modello unificato multitasking o MUM. Costruito su un modello linguistico, è progettato per rispondere alle domande degli utenti riunendo informazioni da diverse fonti.  

    “Siamo profondamente coinvolti nel migliorare la comprensione della lingua perché rende prodotti come Google Search più utili per le persone”, afferma Jane Park, responsabile delle comunicazioni del team di ricerca di Google, che aggiunge: “l’azienda non ha ancora in programma di trasformare questa nuova ricerca in prodotti perché ritiene che ci sono una serie di sfide aperte nella comprensione della lingua”.

    Mimi senza cervello

    I grandi modelli di AI possono imitare il linguaggio naturale con notevole realismo. Addestrati su centinaia di libri e contenuti di Internet, assorbono grandi quantità di informazioni. Perché non usarli come una sorta di motore di ricerca, in grado di sintetizzare risposte da più fonti e impacchettare le informazioni in frasi facilmente comprensibili?

    Il problema è che i modelli linguistici si limitano a imitare senza una vera comprensione. Possono diventare straordinariamente accurati nel prevedere le parole o le frasi che molto probabilmente verranno dopo in una frase o conversazione. Ma nonostante l’affermazione di Pichai secondo cui la sua intelligenza artificiale “capisce” molti argomenti, i modelli linguistici non sanno cosa stanno dicendo e non possono ragionare sui significati che le loro parole trasmettono.

    E’ un passaggio importante perché l’AI conversazionale può cambiare il modo in cui pensiamo agli scambi con una macchina. Digitare una query di ricerca in una casella e ottenere un elenco di risposte è come interagire con un computer, afferma Bender. “Ma è diverso con i modelli linguistici”, continua. “Se sto conversando con una macchina, l’idea di fondo è che la macchina capisce quello che sto dicendo“.

    Vediamo già utenti che ripongono una fiducia acritica nei risultati di ricerca, afferma Shah, e “le interazioni con il linguaggio naturale rendono questo meccanismo ancora più pronunciato”. L’idea di utilizzare l’AI per sintetizzare e impacchettare le risposte alle query di ricerca fa parte di una tendenza iniziata con l’uso di quelle che sono note come risposte dirette o snippet: risposte singole o brevi estratti di codice mostrati sopra i collegamenti ai documenti nei risultati di ricerca. 

    In teoria, questi possono dare immediatamente all’utente le informazioni che sta cercando, risparmiandogli la fatica di leggere documenti più lunghi per trovarle da solo.

    Bender non è contraria in assoluto all’utilizzo di modelli linguistici basati su domande e risposte. Ha un assistente Google in cucina, che usa per convertire le unità di misura in una ricetta. “Ci sono momenti in cui è super conveniente essere in grado di utilizzare la voce per accedere alle informazioni”, afferma. Ma Shah e Bender fanno anche riferimento a un esempio preoccupante dell’anno scorso, quando Google ha risposto alla domanda “Qual è la lingua più sgradevole in India?” con lo snippet: “la kannada, una lingua parlata da circa 40 milioni di persone nel sud dell’India”.

    Il mondo è complesso

    Le risposte dirette presentano dei vantaggi, ma spesso sono errate, irrilevanti o offensive. Nel 2020, Benno Stein della Bauhaus University di Weimar, in Germania, e i suoi colleghi Martin Potthast dell’Università di Lipsia e Matthias Hagen dell’Università Martin Luther di Halle-Wittenberg, in Germania, hanno pubblicato un documento che evidenzia l’eccessiva semplificazione dei sistemi di risposte dirette.

    Stein e i suoi colleghi ritengono che le tecnologie di ricerca siano passate dall’organizzazione e dal filtraggio delle informazioni, attraverso tecniche come la fornitura di un elenco di documenti che corrispondono a una query di ricerca, alla formulazione di raccomandazioni sotto forma di una singola risposta a una domanda. Secondo loro è un passaggio ardito. 

    Il problema non è legato ai limiti della tecnologia esistente. Anche se fosse perfetta, le risposte non sarebbero tali, affermano Stein e Shah: “E’ quasi impossibile proporre una buona risposta diretta senza affrontare la complessità del mondo. Le persone usano spesso i sistemi di ricerca per esplorare argomenti su cui potrebbero non avere nemmeno domande specifiche”, continuano. “In questo caso sarebbe più utile offrire semplicemente un elenco di documenti”. 

    Deve essere chiaro da dove provengono le informazioni, soprattutto se l’AI fa riferimento a più di una fonte. Alcuni assistenti vocali lo fanno già, precedendo una risposta con “Ecco cosa ho trovato su Wikipedia”, per esempio. Gli strumenti di ricerca futuri dovrebbero anche avere la capacità di dire “Questa è una domanda senza senso”, afferma Shah. Ciò aiuterebbe la tecnologia a evitare di presentare dei contenuti che non vanno in nessuna direzione.

    Tuttavia, molti di questi suggerimenti evidenziano quanto individuato da Stein e dai suoi colleghi: tutto ciò che riduce la comodità sarà meno attraente per la maggior parte degli utenti. Google afferma di essere consapevole di molti dei problemi sollevati da questi ricercatori e lavora per sviluppare una tecnologia utile. Ma Google è lo sviluppatore di un servizio multimiliardario e alla fine costruirà gli strumenti che attirano il maggior numero di persone. 

    (rp)

    Related Posts
    Total
    0
    Share