Come Microsoft potrebbe utilizzare ChatGPT

Come Microsoft potrebbe utilizzare ChatGPT

Inoltre: i tester dell’aspirapolvere Roomba si sentono truffati dopo che le immagini intime sono diventate virali su Facebook

da MIT Technology Review

Microsoft ha investito 10 miliardi di dollari in OpenAI, la startup che ha creato il chatbot virale ChatGPT, e sta progettando di integrarlo nei prodotti Office e nella ricerca Bing. In precedenza, il gigante tecnologico aveva già investito almeno 1 miliardo di dollari in OpenAI. Secondo The Information, alcune di queste funzionalità potrebbero essere rilasciate già a marzo.

Si tratta di un grosso affare. Se tutto va bene, i potenti strumenti di intelligenza artificiale (AI) saranno presto alla portata delle masse. Come saranno i prodotti Microsoft con la tecnologia ChatGPT? Lo abbiamo chiesto a Microsoft e a OpenAI. Entrambi hanno rifiutato di commentare il modo in cui intendono integrare i prodotti basati sull’IA negli strumenti di Microsoft, anche se sicuramente ci stanno già lavorando. Tuttavia, sappiamo abbastanza per fare alcune ipotesi ragionate. Suggerimento: probabilmente è una buona notizia se trovate noioso creare presentazioni in PowerPoint e rispondere alle e-mail.

Cominciamo con la ricerca online, l’uso che ha attirato maggiormente l’attenzione. La popolarità di ChatGPT ha scosso Google, che sembra considerarlo una “seria minaccia” per il suo onnipresente motore di ricerca. Secondo alcuni rapporti, Microsoft spera di integrare ChatGPT nel suo (diffamato) motore di ricerca, Bing.

Secondo Melanie Mitchell, ricercatrice del Santa Fe Institute (SFI), un’organizzazione di ricerca senza scopo di lucro, potrebbe gestire l’interazione con gli utenti mentre Bing risponde alle domande delle persone in linguaggio naturale. Una ricerca alimentata dall’intelligenza artificiale potrebbe significare che quando poniamo una domanda, invece di ricevere un elenco di link, otteniamo un paragrafo completo con la risposta.

Tuttavia, c’è una buona ragione per cui Google non ha ancora preso l’iniziativa e incorporato i suoi potenti modelli linguistici nel suo strumento di ricerca. I modelli come ChatGPT sono noti per produrre contenuti parziali e dannosi che contraddicono i fatti. Sono bravissimi a generare un linguaggio fluido che sembra scritto da un essere umano. Ma non hanno una vera comprensione di ciò che producono e affermano sia fatti che falsità con lo stesso livello di sicurezza.

Oggi, quando le persone cercano informazioni su Internet, ricevono una serie di opzioni e possono giudicare da sole quali risultati sono affidabili. Una chat AI come ChatGPT elimina questo strato di “giudizio umano” e costringe le persone ad accettare semplicemente i risultati senza valutarne la veridicità, avverte Chirag Shah, professore di informatica presso l’Università di Washington (USA) specializzato in motori di ricerca. Ha aggiunto che le persone possono anche non accorgersi quando questi sistemi di IA generano contenuti distorti o disinformazione, finendo per diffonderli ulteriormente.

Alla domanda su come addestrare i propri modelli per renderli più accurati, OpenAI ha risposto in modo criptico. Un portavoce ha dichiarato che ChatGPT è una dimostrazione di ricerca, aggiornata in base al feedback del mondo reale. Tuttavia, non è chiaro come funzionerà nella pratica, e risultati accurati saranno fondamentali se Microsoft vuole che le persone smettano di “cercare su Google”.

Nel frattempo, probabilmente vedremo applicazioni come Outlook e Office ricevere una “iniezione di intelligenza artificiale”, afferma Shah. Il potenziale di ChatGPT per aiutare le persone a scrivere in modo più fluido e veloce potrebbe essere un uso ideale per Microsoft.

Shah sottolinea che i modelli linguistici potrebbero essere integrati in Word per facilitare la sintesi di relazioni, la stesura di proposte o la generazione di idee. Inoltre, potrebbero fornire migliori strumenti di autocompletamento ai programmi di posta elettronica e a Word. E non stiamo parlando solo di Word. Microsoft ha già dichiarato che utilizzerà DALL-E, il software di OpenAI che genera immagini dal testo, per creare immagini per le presentazioni di PowerPoint.

Non è lontano il giorno in cui i modelli linguistici di grandi dimensioni saranno in grado di rispondere ai comandi vocali o di leggere testi, come le e-mail, secondo Shah. Questo potrebbe favorire le persone con difficoltà di apprendimento o con problemi di vista.

La ricerca online non è l’unico tipo di ricerca che l’applicazione potrebbe migliorare. Microsoft potrebbe utilizzarla per aiutare gli utenti a trovare e-mail e documenti.

Tuttavia, la domanda cruciale che non viene considerata abbastanza è: è questo il futuro che vogliamo?

L’adozione sconsiderata di queste tecnologie e l’automazione delle nostre comunicazioni e delle nostre idee creative potrebbero far perdere il controllo dell’uomo alle macchine. C’è il rischio di un “ritorno al monotono”, in cui i messaggi inviati perderanno la nostra personalità, sostiene Mitchell.

Secondo lei, “i bot scriveranno e-mail ai bot e i bot risponderanno ad altri bot”. Non mi sembra un mondo fantastico”.

Anche i modelli linguistici sono grandi imitatori. Ogni informazione inserita in ChatGPT contribuisce ad approfondire la formazione. In futuro, con l’integrazione di queste tecnologie nei nostri strumenti quotidiani, potrebbero imparare il nostro stile di scrittura e le nostre preferenze. Mitchell avverte che potrebbero persino manipolarci per indurci a comprare qualcosa o a comportarci in un certo modo.

Inoltre, non è chiaro se questo migliorerà effettivamente la produttività, poiché le persone dovranno comunque modificare e controllare l’accuratezza dei contenuti generati dall’IA. D’altra parte, c’è il rischio che le persone si fidino ciecamente di queste nuove tecnologie, un problema già riconosciuto.

Mitchell sottolinea che “saremo tutti beta tester di queste cose”.

I tester dell’aspirapolvere Roomba si sentono truffati dopo le immagini intime trovate su Facebook

Alla fine del 2022 abbiamo pubblicato una storia scioccante su come alcune persone abbiano raccolto immagini intime dagli aspirapolvere Roomba, che sono finite per essere diffuse online. Queste persone si sono offerte di testare i prodotti, ma non hanno mai pensato che i loro dati potessero finire per trapelare in questo modo. Questa storia ha fornito uno sguardo interessante su come vengono addestrati gli algoritmi di intelligenza artificiale che controllano i dispositivi domestici intelligenti.

Il costo umano: dopo la pubblicazione dell’articolo, quasi una dozzina di tester Roomba hanno parlato. Si sentono ingannati e indignati per il modo in cui iRobot, il creatore di Roomba, ha utilizzato i dati raccolti. Dicono che non era chiaro che l’azienda avrebbe condiviso i suoi dati in una vasta catena di fornitura globale di dati, dove tutto (e tutti) i dati catturati dalle fotocamere frontali dei dispositivi potevano essere visti, e forse commentati e analizzati, da dipendenti di terze parti sottopagati al di fuori degli Stati Uniti, che potevano catturare e condividere le immagini quando volevano.