Come l’intelligenza artificiale aiuta gli storici a comprendere meglio il nostro passato

Come l'intelligenza artificiale aiuta gli storici a comprendere meglio il nostro passato

In futuro gli storici useranno l’informatica per analizzare come vivevano le persone secoli fa.

da MIT Technology Review

Una sera dell’anno 1531, in una tipografia della città di Venezia, un apprendista lavora all’impaginazione di una pagina che sarà utilizzata in un libro di astronomia. La pagina contiene una riga di testo ricca di informazioni e un’illustrazione xilografica di una testa di cherubino che osserva le forme che si muovono nel Cosmo, rappresentando un’eclissi lunare.

Come per tutti gli elementi della produzione libraria del XVI secolo, si trattava di un processo lungo, ma che consentiva di diffondere la conoscenza con una rapidità senza precedenti.

Cinquecento anni dopo, la produzione di informazioni è un mondo completamente diverso. Oggi abbiamo terabyte di immagini, video e testi in una marea di dati digitali che circolano quasi istantaneamente su Internet e che devono essere analizzati con altrettanta rapidità, consentendo, ma anche richiedendo, la formazione di modelli di apprendimento automatico per organizzare questo flusso di materiali e contenuti. Questo cambiamento nel modello di produzione ha implicazioni per il futuro, dalla creazione di arte allo sviluppo di farmaci.

Ma questi progressi ci permettono anche di guardare in modo diverso ai dati del nostro passato. Gli storici hanno iniziato a utilizzare l’apprendimento automatico (soprattutto le reti di apprendimento profondo) per esaminare i documenti storici contaminati dopo secoli di conservazione in archivi ammuffiti o danneggiati dalla mano disattenta di un tipografo. Tra questo materiale ci sono tavole astronomiche come quelle prodotte a Venezia e in altre città della prima età moderna.

Gli storici sostengono che l’uso dell’informatica per esaminare il passato remoto dell’umanità aiuta a creare connessioni in un’area più ampia della nostra documentazione storica di quanto sarebbe altrimenti possibile, correggendo le distorsioni che possono sorgere quando si analizza la storia di un documento alla volta. Ma questo processo comporta le sue distorsioni, compreso il rischio che l’apprendimento automatico introduca informazioni distorte o addirittura false in questi documenti. Tutto ciò si traduce in una domanda per gli storici e altri che decifrano il presente esaminando i fatti storici: con la crescente presenza di macchine nel futuro, fino a che punto dovremmo permettere loro di interpretare il nostro passato?

Analizzare la complessità

I big data sono arrivati nelle scienze umane grazie alle iniziative di digitalizzazione di un numero crescente di documenti storici, come la collezione di milioni di pagine di giornali della Biblioteca del Congresso degli Stati Uniti o i documenti giudiziari degli archivi finlandesi risalenti al XIX secolo. Per i ricercatori, questo rappresenta sia un problema che un’opportunità: la quantità di informazioni è molto maggiore, ma spesso non c’è modo di analizzarle.

Questa sfida è stata risolta con lo sviluppo di strumenti computazionali che aiutano gli studiosi ad analizzare la complessità di questi documenti. Nel 2009, Johannes Preiser-Kapeller, professore dell’Accademia austriaca delle scienze, stava esaminando un registro di decisioni prese dalla Chiesa bizantina del XIV secolo. Rendendosi conto che l’interpretazione di centinaia di materiali avrebbe richiesto una ricerca digitale sistematica delle relazioni tra i vescovi, Preiser-Kapeller ha costruito un database di queste persone e ha utilizzato un software di analisi di rete per ricostruire queste connessioni.

Questo processo ha rivelato modelli di influenza nascosti, portando Preiser-Kapeller a sostenere che i vescovi che parlavano di più nelle riunioni non erano i più influenti. Da allora ha applicato questa tecnica per analizzare altre connessioni, tra cui l’élite bizantina del XIV secolo, scoprendo che la struttura sociale dell’epoca era sostenuta dal contributo nascosto delle donne. Secondo Preiser-Kapeller, “siamo stati in grado di identificare, in un certo senso, ciò che accadeva al di fuori della narrazione ufficiale”.

Il lavoro di Preiser-Kapeller è solo un esempio di questa tendenza in campo accademico. Fino a poco tempo fa, però, l’apprendimento automatico spesso non era in grado di trarre conclusioni da insiemi di testo sempre più ampi, anche perché alcuni aspetti dei documenti storici (nel caso di Preiser-Kapeller, manoscritti greci poco chiari o una scrittura quasi illeggibile) li rendevano indecifrabili per le macchine. Ora, i progressi dell’apprendimento profondo hanno iniziato a risolvere questi limiti, utilizzando reti che imitano il cervello umano per identificare schemi in grandi e complicati insiemi di dati.

Quasi 800 anni fa, l’astronomo del XIII secolo Giovanni di Sacrobosco pubblicò il Tractatus de sphaera, una dissertazione introduttiva sul cosmo geocentrico. Questo trattato divenne una lettura obbligatoria per gli studenti universitari nell’era moderna. È stato il libro di testo più diffuso sulla cosmologia geocentrica, durato anche dopo che la rivoluzione copernicana ha rovesciato, nel XVI secolo, l’idea che la Terra fosse il centro dell’universo.

Il trattato è anche uno dei documenti primari di una collezione digitalizzata di 359 libri di astronomia pubblicati tra il 1472 e il 1650 (76.000 pagine in tutto, comprese decine di migliaia di illustrazioni scientifiche e tavole astronomiche). In questo vasto insieme di dati, Matteo Valleriani, professore dell’Istituto Max Planck per la Storia della Scienza (Germania), ha intravisto l’opportunità di tracciare l’evoluzione della conoscenza europea verso una visione condivisa e mondiale della scienza. Ma si è reso conto che per discernere il modello sarebbe stato necessario più di quanto fosse possibile con le sole capacità umane. Valleriani e un team di ricercatori del Berlin Institute for the Foundations of Learning and Data (BIFOLD) si sono quindi rivolti all’apprendimento automatico.

Per farlo, hanno dovuto separare la raccolta in tre categorie: testi, cioè sezioni scritte su un argomento specifico, con un inizio e una fine chiari; illustrazioni scientifiche, che aiutavano a chiarire i concetti, come ad esempio un’eclissi lunare; e tabelle numeriche, utilizzate per insegnare aspetti matematici dell’astronomia.

Tutto ciò si traduce in una domanda per gli storici e per coloro che decifrano il presente esaminando i fatti storici: con la crescente presenza delle macchine nel futuro, fino a che punto dovremmo permettere loro di interpretare il nostro passato?

All’inizio, secondo Valleriani, il testo sfidava l’interpretazione algoritmica: le tipografie variavano molto perché le prime tipografie moderne sviluppavano modelli unici utilizzati nei loro libri e spesso avevano le proprie officine metallurgiche per fondere le lettere. Ciò significava che per leggere ogni libro era necessario riaddestrare un modello di elaborazione del linguaggio naturale (NLP) per leggere il testo.

Anche la lingua rappresentava un problema. Molti testi erano scritti in dialetti latini di regioni specifiche, spesso irriconoscibili per le macchine non addestrate alle lingue più antiche. Secondo Valleriani, “in generale, il fatto di non avere il vocabolario necessario per addestrare un modello finisce per essere un grosso limite per l’elaborazione del linguaggio naturale”. Questo è uno dei motivi per cui la PNL funziona bene con le lingue predominanti come l’inglese, ma è meno efficace, ad esempio, con l’ebraico antico.

Per ovviare a questo problema, i ricercatori hanno estratto manualmente il testo dai materiali di partenza e hanno identificato tutte le connessioni tra gruppi di documenti, ad esempio quando un testo è stato copiato o tradotto in un altro libro. Questi dati sono stati poi inseriti in un grafo, che ha incorporato automaticamente queste singole connessioni in una rete contenente tutti i documenti. L’intento era quello di addestrare un metodo di apprendimento automatico in grado di suggerire connessioni tra i testi. Rimanevano gli elementi visivi del contenuto: 20.000 illustrazioni e 10.000 tabelle, che i ricercatori hanno studiato con le reti neurali.

Oggi

L’uso della computer vision per le immagini storiche deve affrontare sfide simili a quelle della PNL, che Lauren Tilton, professore associato di digital humanities presso l’Università di Richmond (USA), chiama pregiudizi “attualisti”. Secondo Tilton, molti modelli di intelligenza artificiale (AI) sono addestrati a partire da serie di dati degli ultimi 15 anni e gli oggetti che hanno imparato a identificare ed elencare tendono a essere elementi della vita attuale, come telefoni cellulari o automobili. Pertanto, in generale, i computer riconoscono solo versioni contemporanee di questi oggetti che hanno già una storia più antica in termini di sviluppo (come gli iPhone e le Tesla, piuttosto che i centralini telefonici o la Ford Modello T). Inoltre, i modelli vengono generalmente addestrati utilizzando immagini a colori ad alta risoluzione, piuttosto che fotografie in bianco e nero sgranate del passato (o rappresentazioni del Cosmo realizzate all’inizio dell’età moderna, dall’aspetto incoerente e degradate dal passare del tempo). Tutto ciò rende la computer vision meno accurata quando viene applicata alle immagini storiche.

“Parliamo con scienziati informatici e loro dicono: ‘Bene, abbiamo risolto il problema del rilevamento degli oggetti'”, dice Tilton. E noi diremo: “In realtà, se usate una serie di foto degli anni ’30, vedrete che non è così risolto come pensavamo”. Ma i modelli di deep learning, in grado di identificare schemi in grandi quantità di dati, possono essere d’aiuto in quanto capaci di una maggiore astrazione.

Una pagina di un commento pubblicato nel 1531, scritto da Prosdocimo di Beldomando sul Tractatus de sphaera di Giovanni di Sacrobosco. La pagina mostra parti del testo originale e del commento in cui si discute la meccanica delle eclissi solari e lunari (BIBLIOTECA DELL’ISTITUTO MAX PLANCK PER LA STORIA DELLA SCIENZA, BERLINO, GERMANIA).

Una tabella dei valori di ascensione obliqua calcolati per l’elevazione di 48 gradi e 40 minuti dal polo nord celeste. I valori sono stati calcolati dal matematico francese Oronce Finé (BIBLIOTECA DELL’ISTITUTO MAX PLANCK PER LA STORIA DELLA SCIENZA, BERLINO, GERMANIA).

Nel caso del progetto Sphaera, i ricercatori di BIFOLD hanno addestrato una rete neurale per individuare, classificare e raggruppare (in base alla somiglianza) le illustrazioni presenti nei primi testi moderni. Questo modello, chiamato CorDeep, è ora disponibile per altri storici attraverso un’applicazione web accessibile al pubblico. I ricercatori hanno anche adottato un nuovo metodo per analizzare altri dati. Ad esempio, diverse tabelle presenti nelle centinaia di libri della collezione non potevano essere confrontate visivamente perché “la stessa tabella può essere stampata in 1.000 modi diversi”, spiega Valleriani. Per questo motivo, i ricercatori hanno sviluppato un’architettura di rete neurale che individua e raggruppa tabelle simili in base ai numeri che contengono, ignorando la loro disposizione.

Finora il progetto ha dato risultati sorprendenti. Uno schema trovato nei dati ha permesso ai ricercatori di vedere che mentre l’Europa si frammentava in vari segmenti religiosi dopo la Riforma protestante, la conoscenza nei campi della scienza e della tecnologia si stava unendo. I testi scientifici stampati in luoghi come la città protestante di Wittenberg (Germania), che divenne un centro di innovazione accademica grazie al lavoro degli studiosi riformisti, venivano copiati e riprodotti in centri come Parigi e Venezia fino a diffondersi in tutto il continente. Secondo Valleriani, non è che la Riforma protestante fosse un argomento poco studiato, ma una prospettiva mediata dalle macchine ha permesso ai ricercatori di vedere qualcosa di nuovo: “Prima non ci era del tutto chiaro”. I modelli applicati a tabelle e immagini hanno iniziato a mostrare risultati simili.

In generale, i computer riconoscono solo le versioni contemporanee di quegli oggetti che hanno già una storia più antica rispetto allo sviluppo (come gli iPhone e le Tesla, piuttosto che i centralini telefonici o la Ford Modello T).

Valleriani sostiene inoltre che questi strumenti offrono opportunità più significative per ottenere informazioni rilevanti sull’evoluzione della conoscenza rispetto alla semplice registrazione e analisi di 10.000 tabelle. In alternativa, consentono ai ricercatori di fare inferenze sull’evoluzione della conoscenza a partire da modelli presenti in pochi gruppi di documenti, anche se ne hanno esaminati solo una manciata. “Guardando due tabelle, posso già trarre una conclusione enorme su 200 anni”, dice.

Le reti neurali per l’apprendimento profondo stanno svolgendo un ruolo importante anche nell’esame della storia più antica. La decifrazione delle iscrizioni (un processo noto come epigrafia) e il restauro di esemplari danneggiati sono compiti laboriosi, soprattutto quando gli oggetti iscritti sono stati spostati dai loro luoghi o contesti originali. Gli storici specializzati devono fare determinate ipotesi sulla base delle loro conoscenze. Per aiutarli, Yannis Assael, ricercatore di DeepMind, e Thea Sommerschield, borsista post-dottorato presso l’Università Ca’ Foscari di Venezia (Italia), hanno sviluppato una rete neurale chiamata Ithaca, in grado di ricostruire parti mancanti di iscrizioni e di assegnare date e luoghi ai testi. I ricercatori affermano che il metodo che utilizza il deep learning, che ha comportato l’addestramento con un set di dati di oltre 78.000 iscrizioni, è il primo a risolvere congiuntamente i problemi di restauro e di attribuzione di dati aggiuntivi (come il contesto) imparando da grandi quantità di informazioni.

Assael e Sommerschield affermano che, per ora, l’approccio sta rivelando dettagli sulle iscrizioni dei decreti di un importante periodo dell’Atene classica, da tempo attribuite al 446 e al 445 a.C. (data contestata da alcuni storici). Come test, i ricercatori hanno addestrato il modello utilizzando un set di dati che non conteneva l’iscrizione in questione e poi gli hanno chiesto di analizzare il testo dei decreti. Il risultato è stato una stima diversa della data. “La data media prevista da Itaca per i decreti è il 421 a.C., in linea con i più recenti progressi di datazione e dimostrando come l’apprendimento automatico possa contribuire ai dibattiti su uno dei momenti più significativi della storia greca”, hanno dichiarato via e-mail.

Macchine del tempo

Altri progetti propongono di utilizzare l’apprendimento automatico per fare inferenze ancora più ampie sul passato. Questo è stato il motivo alla base dello sviluppo della Venice Time Machine, una delle numerose “macchine del tempo” regionali in Europa create per ricostruire la storia locale a partire da documenti digitalizzati. Gli archivi dell’antico stato di Venezia coprono 1.000 anni di storia distribuiti su 80 chilometri di scaffali. L’obiettivo dei ricercatori era quindi quello di digitalizzare questi documenti, molti dei quali non erano mai stati esaminati dagli storici moderni. Utilizzeranno reti di apprendimento profondo per estrarre informazioni e, rintracciando i nomi che appaiono in un documento e poi in altri, ricostruiranno le connessioni che collegavano i veneziani.

Frédéric Kaplan, presidente della Time Machine Organization, afferma che il progetto ha scansionato un numero sufficiente di documenti amministrativi della città per catturare il contesto sociale dei secoli passati, rendendo possibile passare da un edificio all’altro e identificare le famiglie che vi abitavano in momenti diversi. “Ci sono centinaia di migliaia di documenti che devono essere digitalizzati se vogliamo raggiungere questo potenziale di flessibilità di analisi e ricerca”, dice Kaplan. “Questo non è mai stato fatto prima”.

La promessa finale del progetto è quella di creare una simulazione digitale della Venezia medievale, attraverso reti ricostruite dall’intelligenza artificiale che avranno dettagli così minuziosi da comprendere persino i quartieri. Tuttavia, storici come Johannes Preiser-Kapeller, professore dell’Accademia austriaca delle scienze che ha condotto uno studio sui vescovi bizantini, affermano che, poiché il modello non è in grado di capire quali connessioni siano importanti, il progetto non è ancora riuscito a raggiungere il suo obiettivo.

Giorni di un futuro passato: tre grandi progetti in corso nel campo delle scienze umane digitali

CorDeep

SVILUPPATORI RESPONSABILI:  Istituto Max Planck per la Storia della Scienza (Germania)

COS’È IL PROGETTO: un’applicazione online per classificare il contenuto di documenti storici che includono tabelle numeriche e alfanumeriche. Il software è in grado di individuare, estrarre e classificare gli elementi visivi designandoli come “illustrazioni del contenuto”, “lettere iniziali”, “ornamenti” o “segni di stampa”.

ITHACA

SVILUPPATORI RESPONSABILI: DeepMind

CHE COS’È IL PROGETTO: Una rete neurale di deep learning addestrata per svolgere simultaneamente i compiti di attribuzione geografica e cronologica e di restauro testuale, che in precedenza erano svolti dagli epigrafisti.

Come l’intelligenza artificiale aiuta gli storici a comprendere meglio il nostro passato

SVILUPPATORI RESPONSABILI: Ecole Polytechnique Fédérale de Lausanne (Francia), Università Ca’ Foscari di Venezia (Italia) e Archivio di Stato di Venezia (Italia).

COS’È IL PROGETTO: una raccolta digitalizzata degli archivi dell’antico Stato veneziano, che copre 1.000 anni di storia. Una volta completato il progetto, i ricercatori utilizzeranno sistemi di deep learning per ricostruire connessioni e relazioni storiche.

Preiser-Kapeller ha condotto un proprio esperimento utilizzando il rilevamento automatico per sviluppare reti di connessioni sociali a partire dai documenti. Invece di un esperto che raccoglie questi dati per fornirli al sistema di intelligenza artificiale, Preiser-Kapeller ha estratto le informazioni utilizzando un algoritmo, come è stato fatto nel suo lavoro sui vescovi. Secondo Preiser-Kapeller, il processo effettuato nell’esperimento produce una grande “complessità artificiale”, cioè una rete di strutture e connessioni intricate, ma nulla di utile per l’interpretazione storica. Ad esempio, l’algoritmo non è stato in grado di distinguere i casi in cui i nomi di due persone comparivano nella stessa lista di contribuenti da quelli presenti su un certificato di matrimonio, per cui Preiser-Kapeller afferma: “Ciò che si ottiene alla fine non ha alcun valore esplicativo”. Analogamente a quanto si è detto a proposito dei grandi modelli linguistici come ChatGPT, questo è un limite che gli storici hanno evidenziato con il processo di apprendimento automatico: poiché i modelli non capiscono ciò che stanno leggendo, possono arrivare a conclusioni assurde.

Secondo Kaplan, è vero che con le fonti storiche attualmente disponibili è necessaria l’interpretazione umana per fornire il contesto, anche se pensa che questo potrebbe cambiare quando un numero sufficiente di documenti storici potrà essere letto solo dalle macchine.

Ma egli immagina un uso più trasformativo (e potenzialmente più problematico) dell’apprendimento automatico. L’intelligenza artificiale generativa potrebbe essere utilizzata per fare previsioni che colmino vuoti nella documentazione storica, come ad esempio il numero di apprendisti nella bottega di un artigiano veneziano. Ciò avviene sulla base di dati raccolti da una serie di fonti piuttosto che sulla base di singoli documenti. Questo metodo può far emergere altre prospettive oltre a quelle dell’élite socio-economica del tempo e del luogo, ma è un processo che va contro la pratica storica standard, in cui le conclusioni si basano sulle prove esistenti e disponibili.

Tuttavia, una preoccupazione più immediata è rappresentata dalle reti neurali che creano false registrazioni.

È una cosa reale?

Oggi gli utenti di YouTube possono vedere un discorso di Richard Nixon preparato nel caso in cui la missione lunare del 1969 fosse finita in un disastro, ma fortunatamente non è mai stato necessario. I ricercatori hanno creato questo video con la tecnologia deepfake per mostrare come l’intelligenza artificiale possa influenzare la nostra consapevolezza collettiva della storia. In pochi secondi è possibile generare immagini false di grandi eventi storici come lo sbarco in Normandia (noto anche come D-Day), come ha recentemente analizzato il professore di storia della Northeastern University (USA) Dan Cohen con gli studenti di una classe dedicata all’esplorazione di come i media digitali e la tecnologia stanno plasmando lo studio della storia. “Le foto generate dall’intelligenza artificiale sono estremamente avvincenti”, afferma. “Puoi mettere un gruppo di persone sulla spiaggia con un carro armato e una mitragliatrice, e sembra perfetto”.

La storia falsa e inventata non è una novità. Cohen cita come esempio il modo in cui Joseph Stalin ordinava di cancellare i suoi oppositori dai libri di storia. Ma la portata e la velocità con cui è possibile creare falsi è sbalorditiva e il problema non riguarda solo la produzione di immagini. L’intelligenza artificiale generativa può creare un testo molto simile a un discorso parlamentare dell’epoca vittoriana, come Cohen ha mostrato ai suoi studenti. Usando l’IA per generare esempi di scrittura antica o di tipografia, sarebbe anche possibile creare ciò che assomiglia in modo convincente a un documento storico scritto o stampato.

Nel frattempo, chatbot di IA come Character.ai e Historical Figures Chat consentono agli utenti di simulare interazioni con personaggi storici. Gli storici hanno mostrato le loro preoccupazioni riguardo a questi chatbot, che possono, ad esempio, far sembrare alcuni individui meno razzisti e più pentiti delle loro azioni di quanto non fossero in realtà.

In altre parole, c’è il rischio che l’IA, dai chatbot di personaggi storici ai modelli che fanno previsioni basate su documenti storici, commetta molti errori. Alcuni di questi errori sarebbero anacronismi innocui: una domanda al chatbot di Aristotele su Character.ai sul suo punto di vista sulle donne (che considerava inferiori) ha generato una risposta secondo cui le donne “non dovrebbero avere reti sociali”. Ma altri errori possono avere conseguenze maggiori, soprattutto quando si trovano nel mezzo di una raccolta di documenti troppo grande per essere controllata da un singolo storico, o se sono condivisi da qualcuno interessato a una particolare e parziale interpretazione della storia.

Anche se non c’è un obiettivo di occultamento o di frode deliberata, alcuni studiosi temono che gli storici possano usare strumenti a cui non sono abituati o di cui non comprendono il funzionamento. “Penso che ci sia un grosso rischio in questo, perché noi storici o professionisti delle scienze umane stiamo effettivamente esternalizzando l’analisi a un altro settore, o forse a una macchina”, afferma Abraham Gibson, professore di storia presso l’Università del Texas a San Antonio (USA). Gibson afferma che, fino a poco tempo fa, alcuni storici con cui ha parlato non si rendevano conto dell’importanza dell’IA per il loro lavoro, ma ora stanno prendendo sempre più in considerazione l’idea di delegare parte dell’interpretazione della storia a una scatola nera, cioè a una macchina che sanno essere alimentata da dati e in grado di generare prodotti e risultati, ma di cui non comprendono appieno il funzionamento.