Como a Inteligência Artificial está ajudando os historiadores a entender melhor o nosso passado

Como a Inteligência Artificial está ajudando os historiadores a entender melhor o nosso passado

No futuro, historiadores vão usar a ciência da computação para analisar como as pessoas viviam séculos atrás.

by MIT Technology Review

Esse desafio foi resolvido com o desenvolvimento de ferramentas computacionais que ajudam os estudiosos a analisar a complexidade desses documentos. Em 2009, Johannes Preiser-Kapeller, professor da Academia Austríaca de Ciências, estava examinando um registro de decisões feitas pela Igreja Bizantina do século XIV. Ao perceber que interpretar centenas de materiais exigiria uma pesquisa digital sistemática dos relacionamentos entre os bispos, Preiser-Kapeller construiu um banco de dados de tais indivíduos e usou um software de análise de rede para reconstruir essas conexões.

Esse processo revelou padrões ocultos de influência, levando Preiser-Kapeller a defender a ideia de que os bispos que mais falavam nas reuniões não eram os mais influentes. Desde então, ele aplicou tal técnica para analisar outras conexões, incluindo a elite bizantina do século XIV, descobrindo que a estrutura social da época era sustentada por meio das contribuições ocultas feitas por mulheres. De acordo com Preiser-Kapeller, “conseguimos identificar, de certa forma, o que estava acontecendo fora da narrativa oficial”.

O trabalho de Preiser-Kapeller é apenas um exemplo dessa tendência no campo acadêmico. Mas, até recentemente, o machine learning muitas vezes não conseguia tirar conclusões de conjuntos cada vez maiores de texto, até porque certos aspectos de documentos históricos (no caso de Preiser-Kapeller, manuscritos em grego pouco clEm uma noite do ano de 1531, em uma oficina gráfica da cidade de Veneza, um aprendiz trabalha na diagramação de uma página que será usada em um livro de astronomia. A página contém uma linha de texto apinhada de informações e uma ilustração em xilogravura de uma cabeça de querubim observando formas se movendo pelo Cosmos, representando um eclipse lunar.

Assim como todos os elementos da produção de livros no século XVI, esse era um processo demorado, mas que permitia que o conhecimento se espalhasse com uma velocidade sem precedentes.

Quinhentos anos depois, a produção de informação é um mundo totalmente diferente. Hoje temos terabytes de imagens, vídeos e textos em uma enxurrada de dados digitais que circulam quase instantaneamente pela internet e que precisam ser analisados quase com a mesma rapidez, possibilitando, mas também exigindo, o treinamento de modelos de machine learning para organizar este fluxo de materiais e conteúdos. Essa mudança no modelo de produção tem implicações para o futuro, desde a criação de arte até o desenvolvimento de medicamentos.

Mas esses avanços também nos permitem olhar de forma diferente para os dados provenientes do nosso passado. Historiadores começaram a usar o machine learning (principalmente redes de deep learning) para examinar documentos históricos manchados após séculos guardados em arquivos mofados ou então danificados pelo descuido da mão de um tipógrafo. Dentre este conjunto de materiais estão tabelas astronômicas como as produzidas em Veneza e outras cidades do começo da idade moderna.

Os historiadores afirmam que a utilização da ciência da computação para olhar para o passado distante da humanidade ajuda a estabelecer conexões em uma faixa mais ampla do nosso registro histórico do que seria possível caso fosse feito de outra forma, corrigindo as distorções que podem surgir ao analisar a história de um documento por vez. Mas este processo traz suas próprias distorções, incluindo o risco de que o machine learning introduza informações enviesadas ou até mesmo falsas nesses registros. Tudo isso resulta em uma pergunta para os historiadores e outros que decifram o presente examinando fatos históricos: com a crescente presença das máquinas no futuro, até que ponto devemos permitir que elas interpretem o nosso passado?

Analisando a complexidade

O big data chegou à área de ciências humanas a partir de iniciativas para digitalizar um número crescente de documentos históricos, como a coleção da Biblioteca do Congresso dos EUA de milhões de páginas de jornais ou os registros judiciais dos arquivos finlandeses que datam do século XIX. Para os pesquisadores, isso é, ao mesmo tempo, um problema e uma oportunidade: a quantidade de informação é muito maior, porém muitas vezes não há uma maneira de analisá-las.

Esse desafio foi resolvido com o desenvolvimento de ferramentas computacionais que ajudam os estudiosos a analisar a complexidade desses documentos. Em 2009, Johannes Preiser-Kapeller, professor da Academia Austríaca de Ciências, estava examinando um registro de decisões feitas pela Igreja Bizantina do século XIV. Ao perceber que interpretar centenas de materiais exigiria uma pesquisa digital sistemática dos relacionamentos entre os bispos, Preiser-Kapeller construiu um banco de dados de tais indivíduos e usou um software de análise de rede para reconstruir essas conexões.

Esse processo revelou padrões ocultos de influência, levando Preiser-Kapeller a defender a ideia de que os bispos que mais falavam nas reuniões não eram os mais influentes. Desde então, ele aplicou tal técnica para analisar outras conexões, incluindo a elite bizantina do século XIV, descobrindo que a estrutura social da época era sustentada por meio das contribuições ocultas feitas por mulheres. De acordo com Preiser-Kapeller, “conseguimos identificar, de certa forma, o que estava acontecendo fora da narrativa oficial”.

O trabalho de Preiser-Kapeller é apenas um exemplo dessa tendência no campo acadêmico. Mas, até recentemente, o machine learning muitas vezes não conseguia tirar conclusões de conjuntos cada vez maiores de texto, até porque certos aspectos de documentos históricos (no caso de Preiser-Kapeller, manuscritos em grego pouco claros ou com caligrafia quase ilegível) os tornavam indecifráveis para as máquinas. Agora, os avanços no deep learning começaram a resolver essas limitações, usando redes que imitam o cérebro humano para identificar padrões em conjuntos de dados grandes e complicados.

Quase 800 anos atrás, o astrônomo do século XIII João de Sacrobosco publicou o Tractatus de sphaera (“tratado da esfera”, em português), uma dissertação introdutória sobre o Cosmos geocêntrico. Esse tratado tornou-se uma leitura obrigatória para os estudantes universitários da era moderna. Foi o livro didático mais amplamente distribuído sobre cosmologia geocêntrica, perdurando mesmo depois que a revolução copernicana derrubou, no século XVI, a visão de que a Terra era o centro do Universo.

O tratado também é um dos documentos principais de uma coleção digitalizada de 359 livros de astronomia publicados entre 1472 e 1650 (76.000 páginas ao todo, incluindo dezenas de milhares de ilustrações científicas e tabelas astronômicas). Nesse vasto conjunto de dados, Matteo Valleriani, professor do Instituto Max Planck de História da Ciência (Alemanha), viu uma oportunidade de traçar a evolução do conhecimento europeu em direção a uma visão mundial e compartilhada da ciência. Mas ele percebeu que discernir o padrão exigiria mais do que era possível somente com as habilidades humanas. Assim, Valleriani e uma equipe de pesquisadores do Berlin Institute for the Foundations of Learning and Data (BIFOLD, acrônimo em inglês) recorreram ao machine learning.

Para isso, foi necessário separar a coleção em três categorias: texto, ou seja, seções escritas sobre um assunto específico, com início e fim claros; ilustrações científicas, que ajudavam a esclarecer conceitos, como eclipse lunar; e tabelas numéricas, usadas para ensinar aspectos matemáticos da astronomia.

Tudo isso resulta em uma pergunta para os historiadores e outros que decifram o presente examinando fatos históricos: com a crescente presença das máquinas no futuro, até que ponto devemos permitir que elas interpretem o nosso passado?

Em um primeiro momento, Valleriani afirma que o texto desafiou a interpretação algorítmica: as tipografias variavam bastante porque as primeiras gráficas de impressão modernas desenvolveram modelos exclusivos usados em seus livros e muitas vezes tinham suas próprias oficinas metalúrgicas para fundir suas letras. Isso significava que para cada livro a ser lido, um modelo que usasse processamento de linguagem natural (NLP, pela sigla em inglês) precisaria ser treinado novamente para ler o texto.

A linguagem também representava um problema. Muitos textos foram escritos em dialetos do latim de regiões específicas, muitas vezes irreconhecíveis para máquinas que não foram treinadas em idiomas mais antigos. De acordo com Valleriani, “em geral, você não ter o vocabulário necessário para o treinamento de um modelo acaba sendo uma grande limitação para o processamento de linguagem natural”. Este é um dos motivos pelo qual o NLP funciona bem com idiomas predominantes como o inglês, mas é menos eficaz, por exemplo, com o hebraico antigo.

Para contornar este problema, os pesquisadores extraíram manualmente o texto de seus materiais de origem e identificaram cada uma das conexões entre os conjuntos de documentos, como, por exemplo, quando um texto era copiado ou traduzido em outro livro. Esses dados foram então colocados em um gráfico, o qual incorporou automaticamente essas conexões individuais em uma rede contendo todos os registros. O intuito era treinar um método de machine learning que conseguisse sugerir conexões entre textos. Restavam agora os elementos visuais dos conteúdos: 20.000 ilustrações e 10.000 tabelas, os quais os pesquisadores usaram redes neurais para estudar.

Na atualidade

A utilização da visão computacional para imagens históricas enfrenta desafios semelhantes ao NLP, os quais Lauren Tilton, professora adjunta de humanidades digitais da Universidade de Richmond (EUA), chama de viés “atualista”. De acordo com Tilton, muitos modelos de Inteligência Artificial (IA) são treinados a partir de conjuntos de dados dos últimos 15 anos e os objetos que eles aprenderam a identificar e listar tendem a ser elementos da vida atual, como telefones celulares ou carros. Por isso, de forma geral, os computadores reconhecem apenas versões contemporâneas desses objetos que já possuam uma história mais antiga no que diz respeito ao desenvolvimento (como iPhones e Teslas, ao invés de centrais telefônicas ou o Modelo T da Ford). Além disso, geralmente, os modelos são treinados utilizando imagens coloridas de alta resolução, em vez de fotografias granuladas em preto e branco do passado (ou representações do Cosmos feitas no início da idade moderna, com aparência inconsistente e degradadas pela passagem do tempo). Tudo isso torna a visão computacional menos precisa quando aplicada a imagens históricas.

“Vamos falar com os cientistas da ciência da computação e eles dirão ‘Bom, resolvemos a questão da detecção de objetos’”, diz Tilton. “E nós vamos dizer, ‘na verdade, se você usar um conjunto de fotos da década de 30, você vai ver que isso não está tão resolvido quanto pensamos”. Mas modelos de deep learning, que conseguem identificar padrões em grandes quantidades de dados, podem ajudar já que são capazes de maior abstração.

Uma página de um comentário publicado em 1531, escrito por Prosdocimo di Beldomando sobre o Tractatus de sphaera de João de Sacrobosco. A página mostra partes do texto original e do comentário onde se discute a mecânica dos eclipses solares e lunares (BIBLIOTECA DO INSTITUTO MAX PLANCK PARA A HISTÓRIA DA CIÊNCIA, BERLIM, ALEMANHA).

Uma tabela de valores de ascensão oblíqua calculada para a elevação de 48 graus e 40 minutos em relação ao polo norte celeste. Os valores foram calculados pelo matemático francês Oronce Finé (BIBLIOTECA DO INSTITUTO MAX PLANCK PARA A HISTÓRIA DA CIÊNCIA, BERLIM, ALEMANHA).

No caso do projeto Sphaera, os pesquisadores do BIFOLD treinaram uma rede neural para detectar, classificar e agrupar (conforme a similaridade) ilustrações presentes nos textos do início da idade moderna. Esse modelo, chamado de CorDeep, agora está disponível a outros historiadores por meio de um aplicativo de acesso público na internet. Eles também adotaram um novo método para analisar outros dados. Por exemplo, várias tabelas encontradas nas centenas de livros da coleção não podiam ser comparadas visualmente porque “a mesma tabela pode ser impressa de 1.000 maneiras diferentes”, explica Valleriani. Por conta disso, os pesquisadores desenvolveram uma arquitetura de rede neural que detecta e agrupa tabelas semelhantes com base nos números que elas contêm, ignorando sua diagramação.

Até o momento, o projeto tem apresentado alguns resultados surpreendentes. Um padrão encontrado nos dados permitiu aos pesquisadores ver que, enquanto a Europa estava se fragmentando em diversos segmentos religiosos após a Reforma Protestante, o conhecimento nas áreas de ciência e tecnologia estava se unindo. Os textos científicos que estavam sendo impressos em lugares como a cidade protestante de Wittenberg (Alemanha), que se tornou um centro de inovação acadêmica graças ao trabalho de acadêmicos reformistas, por exemplo, estavam sendo copiados e reproduzidos em polos como Paris e Veneza até se espalharem pelo continente. De acordo com Valleriani, não é como se a Reforma Protestante fosse exatamente um assunto pouco estudado, mas uma perspectiva mediada por máquinas permitiu que os pesquisadores vissem algo novo: “Isso não era totalmente claro para nós antes”. Os modelos aplicados às tabelas e imagens começaram a mostrar resultados de padrões semelhantes.

De forma geral, os computadores reconhecem apenas versões contemporâneas desses objetos que já possuam uma história mais antiga no que diz respeito ao desenvolvimento (como iPhones e Teslas, ao invés de centrais telefônicas ou o Modelo T da Ford).

Valleriani também diz que essas ferramentas proporcionam oportunidades mais significativas de obter informações relevantes sobre a evolução do conhecimento do que simplesmente manter um registro e analisar 10.000 tabelas. Como alternativa, elas permitem que os pesquisadores façam inferências sobre a evolução do conhecimento a partir de padrões em alguns conjuntos de documentos, mesmo que tenham examinado apenas um punhado deles. “Olhando para duas tabelas, já posso tirar uma conclusão enorme sobre 200 anos”, diz ele.

Redes neurais de deep learning também estão desempenhando um papel no exame da história ainda mais antiga. Decifrar inscrições (processo conhecido como epigrafia) e restaurar exemplares danificados são tarefas trabalhosas, principalmente quando os objetos inscritos foram deslocados de seus locais ou contextos originais. Historiadores especializados precisam fazer certas suposições baseadas em seus conhecimentos. Para ajudar, Yannis Assael, pesquisador da DeepMind, e Thea Sommerschield, pós-doutoranda da Universidade Ca’ Foscari de Veneza (Itália), desenvolveram uma rede neural chamada Ithaca, que pode reconstruir partes ausentes de inscrições e atribuir datas e locais aos textos. Os pesquisadores dizem que o método utilizando deep learning, que envolveu um treinamento com um conjunto de dados de mais de 78.000 inscrições, é o primeiro a solucionar conjuntamente tanto questões de restauração quanto de atribuição de dados adicionais (como contexto), por meio do aprendizado de grandes quantidades de informações.

Assael e Sommerschield dizem que, até o momento, a abordagem está revelando detalhes sobre as inscrições de decretos de um período importante na Atenas clássica, que há muito são atribuídas a 446 e 445 A.C. (uma data contestada por alguns historiadores). Como teste, os pesquisadores treinaram o modelo utilizando um conjunto de dados que não continha a inscrição em questão e, em seguida, pediram que ele analisasse o texto dos decretos. Isso resultou em uma estimativa de data diferente. “A data média prevista pelo Ithaca para os decretos é 421 A.C., alinhando-se com os mais recentes avanços de datação e mostrando como machine learning pode contribuir para debates em torno de um dos momentos mais significativos da história grega”, disseram eles por e-mail.

Máquinas do tempo

Outros projetos propõem usar o machine learning para fazer inferências ainda mais amplas sobre o passado. Esse foi o motivo por trás do desenvolvimento da Venice Time Machine, uma das diversas “máquinas do tempo” regionais em toda a Europa criadas para reconstruir a história local a partir de registros digitalizados. Os arquivos do antigo estado de Veneza cobrem 1.000 anos de história espalhados por 80 quilômetros de prateleiras. Assim, o objetivo dos pesquisadores era digitalizar esses registros, muitos dos quais nunca haviam sido examinados por historiadores modernos. Eles usariam redes de deep learning para extrair informações e, ao rastrear nomes que aparecem em um documento e depois em outros, reconstruir as conexões que conectavam os venezianos.

Frédéric Kaplan, presidente da Time Machine Organization, diz que o projeto já digitalizou uma quantidade o suficiente de documentos administrativos da cidade para capturar o contexto social nos séculos passados, sendo possível ir de imóvel em imóvel e identificar as famílias que viveram lá em diferentes momentos no tempo. “São centenas de milhares de documentos que precisam ser digitalizados se quisermos alcançar esse potencial de flexibilidade de análise e pesquisa”, diz Kaplan. “Isso nunca foi feito antes”.

A promessa final do projeto é criar uma simulação digital da Veneza medieval, por meio de redes reconstruídas por IA, que terão detalhes tão minuciosos que abrangerão até mesmo bairros. No entanto, mesmo assim, historiadores como Johannes Preiser-Kapeller, professor da Academia Austríaca de Ciências que liderou estudo dos bispos bizantinos, dizem que, pelo modelo não ser capaz de entender quais dessas conexões são importantes, o projeto ainda não foi capaz atingir seu objetivo.

Dias de um passado futuro: três principais projetos em andamento no campo de ciências humanas digitais

CorDeep

DESENVOLVEDORES RESPONSÁVEIS: Instituto Max Planck para a História da Ciência (Alemanha)

O QUE É O PROJETO: Um aplicativo online para classificar o conteúdo de documentos históricos que incluem tabelas numéricas e alfanuméricas. O software consegue localizar, extrair e classificar elementos visuais designando-os como “ilustrações de conteúdo”, “letras iniciais”, “adornos” ou “marcas de impressão”.

ITHACA

DESENVOLVEDORES RESPONSÁVEIS: DeepMind

O QUE É O PROJETO: Uma rede neural de deep learning treinada para executar simultaneamente as tarefas de atribuição geográfica e cronológica, além de restauração textual, as quais eram realizadas anteriormente por epigrafistas.

Projeto Venice Time Machine

DESENVOLVEDORES RESPONSÁVEIS: Escola Politécnica Federal de Lausana (França), Universidade Ca’ Foscari de Veneza (Itália), e os Arquivos do Estado de Veneza (Itália)

O QUE É O PROJETO: Uma coletânea digitalizada dos arquivos do antigo estado veneziano, que cobrem 1.000 anos de história. Após concluído o projeto, os pesquisadores vão usar sistemas de deep learning para reconstruir as conexões e relacionamentos históricos.

Preiser-Kapeller fez seu próprio experimento usando detecção automática para desenvolver redes de conexões sociais a partir de documentos. Ao invés de um especialista coletar esses dados para fornecê-los ao sistema de IA, Preiser-Kapeller extraiu as informações utilizando um algoritmo, como foi feito em seu trabalho sobre os bispos. De acordo com ele, o processo feito no experimento produz muita “complexidade artificial”, ou seja, uma rede de estruturas e conexões intrincadas, mas nada que sirva para uma interpretação histórica. Por exemplo, o algoritmo foi incapaz de distinguir casos em que os nomes de duas pessoas apareciam na mesma lista de contribuintes fiscais dos nomes que estavam em uma certidão de casamento, de modo que Preiser-Kapeller diz: “O que você obtém no final não tem valor explicativo”. Semelhante à questão que as pessoas trouxeram sobre os grandes modelos de linguagem como o ChatGPT, esta é uma limitação que os historiadores evidenciaram com o processo de machine learning: como os modelos não compreendem o que estão lendo, eles podem chegar a conclusões absurdas.

Segundo Kaplan, é verdade que, com as fontes históricas atualmente disponíveis, a interpretação humana é necessária para fornecer contexto, embora ele ache que isso possa mudar quando for possível ler um número suficiente de documentos históricos somente por meio de máquinas.

Mas ele imagina um uso mais transformador (e potencialmente mais problemático) do machine learning. A IA generativa pode ser usada para fazer previsões que preencham lacunas vazias no registro histórico, como o número de aprendizes na oficina de um artesão veneziano, por exemplo. Isso é feito a partir de dados coletados de diversas fontes e não com base em registros individuais. Esse método pode trazer à tona mais perspectivas além daquelas da elite socioeconômica da época e local, mas é um processo que vai contra a prática histórica padrão, na qual as conclusões são baseadas em evidências existentes e disponíveis.

Mesmo assim, uma preocupação mais imediata é apresentada pelas redes neurais que criam registros falsos.

Isso é real?

Hoje, os usuários do YouTube podem assistir a um discurso de Richard Nixon, preparado para caso a missão lunar de 1969 terminasse em desastre, mas, felizmente, ele nunca precisou ser realizado. Os pesquisadores criaram esse vídeo feito com tecnologia deepfake para mostrar como a IA pode afetar nossa consciência coletiva da história. Em questão de segundos, é possível gerar imagens falsas de grandes eventos históricos como o desembarque da Normandia (também conhecido como Dia D), como o professor de história da Universidade do Nordeste (EUA) Dan Cohen analisou recentemente com alunos em uma aula dedicada a explorar como a mídia digital e a tecnologia estão moldando o estudo histórico. “[As fotos geradas por IA são] extremamente convincentes”, diz ele. “Você pode colocar um monte de gente na praia com um tanque e uma metralhadora, e fica perfeito”.

A história falsa e fabricada não é algo novo. Cohen dá como exemplo a maneira como Joseph Stalin ordenou que seus opositores fossem apagados dos livros de história. Mas a escala e a velocidade atual com que as falsificações podem ser criadas são impressionantes, e o problema não está somente na produção de imagens. A IA generativa consegue criar textos muito semelhantes a um discurso parlamentar da era vitoriana, como Cohen mostrou para seus alunos. Ao utilizar a IA para gerar exemplos de caligrafia ou tipografias antigas, também seria possível criar o que se pareceria convincentemente com um registro histórico escrito ou impresso.

Enquanto isso, chatbots de IA como o Character.ai e o Historical Figures Chat permitem que os usuários simulem interações com figuras históricas. Os historiadores mostraram suas preocupações quanto a esses chatbots, que podem, por exemplo, fazer com que alguns indivíduos pareçam menos racistas e mais arrependidos em relação a seus atos do que realmente eram.

Em outras palavras, existe o risco de que a IA, desde chatbots de personagens históricos até modelos que fazem previsões com base em registros históricos, cometa muitos erros. Alguns desses equívocos seriam anacronismos inofensivos: uma pergunta ao chatbot de Aristóteles no Character.ai sobre suas opiniões em relação às mulheres (que ele via como inferiores) gerou uma resposta de que elas “não deveriam ter redes sociais”. Mas outros erros podem ter consequências maiores, principalmente quando estão no meio de uma coletânea de documentos muito grande para um historiador verificar individualmente, ou se forem compartilhados por alguém com interesse por uma interpretação particular e parcial da história.

Mesmo que não haja um objetivo de dissimulação ou fraude deliberada, alguns estudiosos temem que os historiadores possam usar ferramentas com as quais não estão acostumados ou não entendem como funcionam. “Acho que há um grande risco nisso, porque nós, historiadores ou profissionais da área de ciências humanas, estamos efetivamente terceirizando a análise para outro setor, ou talvez para uma máquina”, diz Abraham Gibson, professor de história da Universidade do Texas, em San Antonio (EUA). Gibson diz que, até muito recentemente, alguns historiadores com quem ele falou não percebiam a importância da IA para o trabalho deles, mas agora estão cada vez mais considerando a possibilidade de delegar parte da interpretação da história a uma caixa preta, ou seja, uma máquina que eles sabem que é alimentada por dados e capaz de gerar produtos e resultados, mas cujo funcionamento eles não entendem completamente.