Como a Microsoft poderia usar o ChatGPT

Como a Microsoft poderia usar o ChatGPT

E mais: testadores do aspirador Roomba se sentem enganados depois que imagens íntimas foram parar no Facebook.

by MIT Technology Review

A Microsoft investiu US$10 bilhões na OpenAI, a startup que criou o chatbot viral ChatGPT, e está planejando integrá-lo nos produtos do Office e na pesquisa do Bing. Anteriormente, a gigante da tecnologia já havia investido pelo menos US$ 1 bilhão na OpenAI. Segundo o The Information, alguns desses recursos podem ser lançados ainda em março.

Isto é bem importante. Se tudo der certo, ferramentas poderosas de Inteligência Artificial (IA) logo estarão ao alcance das massas. Então, como seriam os produtos da Microsoft com a tecnologia do ChatGPT? Perguntamos à Microsoft e à OpenAI. Ambas se recusaram a comentar sobre como planejam integrar produtos movidos por IA às ferramentas da Microsoft, embora, com certeza, já estejam trabalhando nisso. No entanto, sabemos o suficiente para fazer algumas suposições fundamentadas. Dica: provavelmente são boas novas se você também acha chato criar apresentações em PowerPoint e responder a e-mails.

Vamos começar com a pesquisa online, o uso que mais chamou atenção. A popularidade do ChatGPT abalou o Google, que parece o considerar uma “séria ameaça” para o seu mecanismo de busca onipresente. Relatos afirmam que a Microsoft espera integrar o ChatGPT no seu (difamado) mecanismo de busca, o Bing.

De acordo com Melanie Mitchell, pesquisadora do Santa Fe Institute (SFI), uma organização de pesquisa sem fins lucrativos, ele poderia cuidar da interação com o usuário enquanto o Bing responde às perguntas das pessoas em linguagem natural. Ter uma pesquisa movida por IA pode significar que, ao fazer uma pergunta, em vez de obtermos uma lista de links, obteremos um parágrafo completo com a resposta.

Todavia, há uma boa razão pela qual o Google ainda não tomou a frente e incorporou seus poderosos modelos de linguagem em sua ferramenta de pesquisa. Modelos como o ChatGPT são conhecidos por produzirem conteúdo tendencioso, prejudicial e que contraria os fatos. Eles são ótimos em gerar uma linguagem fluida que parece ter sido escrita por um ser humano. Mas, eles não têm compreensão real do que estão produzindo e afirmam tanto fatos quanto falsidades com o mesmo nível alto de confiança.

Hoje em dia, quando as pessoas procuram informações na internet, recebem uma série de opções, podendo julgar por si mesmas quais resultados são confiáveis. Uma IA de bate-papo como o ChatGPT remove essa camada de “avaliação humana” e força as pessoas a simplesmente aceitarem os resultados sem ponderar quanto a sua veracidade, alerta Chirag Shah, professor de ciência da computação na Universidade de Washington (EUA) especializado em mecanismos de busca. Ele ainda acrescenta que as pessoas podem nem perceber quando esses sistemas de IA geram conteúdo tendencioso ou desinformação, acabando por disseminá-lo ainda mais.

A OpenAI foi enigmática sobre como treina seus modelos para serem mais precisos ao ser perguntada sobre o assunto. Um porta-voz disse que o ChatGPT era uma demonstração de pesquisa, atualizado com base no feedback do mundo real. Contudo, não está claro como isso funcionará na prática, e resultados precisos serão cruciais se a Microsoft quiser que as pessoas parem de “olhar no Google”.

Enquanto isso, é provável vermos aplicativos como o Outlook e o Office receberem uma “injeção de IA”, afirma Shah. O potencial do ChatGPT para ajudar as pessoas a escrever de forma mais fluente e rápida pode ser o uso ideal para a Microsoft.

Shah destaca que os modelos de linguagem podem ser integrados ao Word para facilitar o resumo de relatórios, a escrever propostas ou gerar ideias. Além disso, eles também poderiam dar melhores ferramentas de preenchimento automático aos programas de e-mail e ao Word. E não estamos falando apenas de palavras. A Microsoft já afirmou que também usará o DALL-E, o software da OpenAI que gera imagens a partir de textos, para criar imagens para apresentações em PowerPoint.

Também não estamos muito longe do dia em que grandes modelos de linguagem poderão responder a comandos de voz ou ler texto, como e-mails, acredita Shah. Isso poderia beneficiar pessoas com dificuldades de aprendizagem ou deficiências visuais.

A busca online também não é o único tipo de pesquisa que o aplicativo pode melhorar. A Microsoft poderia usá-lo para ajudar os usuários a encontrar e-mails e documentos.

Entretanto, a questão crucial que não está sendo considerada o suficiente é: será que este é um futuro que queremos?

Adotar tais tecnologias de modo impensado e automatizar nossas comunicações e ideias criativas pode fazer com que os seres humanos percam o controle para as máquinas. E há um risco de “volta ao monótono”, onde as mensagens enviadas perderão nossa personalidade, diz Mitchell.

Segundo ela, “os bots escreverão e-mails para os bots e os bots responderão a outros bots “. Não me parece um mundo legal”.

Os modelos de linguagem também são ótimos imitadores. Cada informação inserida no ChatGPT ajuda a aprofundar seu treinamento. No futuro, à medida que essas tecnologias forem incorporadas em nossas ferramentas diárias, elas poderão aprender nosso estilo e preferências de escrita. Mitchell adverte que elas poderiam até nos manipular para comprar coisas ou agir de uma certa maneira.

Também não está claro se isso realmente melhorará a produtividade, já que as pessoas ainda terão que editar e conferir a precisão do conteúdo gerado pela IA. Por outro lado, existe o risco de as pessoas confiarem cegamente nessas novas tecnologias, o que é um problema já reconhecido.

Mitchell aponta que “todos nós seremos os testadores beta dessas coisas”.

Testadores do aspirador Roomba se sentem enganados depois que imagens íntimas foram parar no Facebook

No final de 2022, publicamos uma história chocante sobre como algumas pessoas tiveram imagens íntimas coletadas por aspiradores Roomba, e que acabaram sendo vazadas online. Tais pessoas se ofereceram para testar os produtos, mas nunca lhes ocorreu que seus dados poderiam acabar vazando dessa maneira. Essa história trouxe um vislumbre interessante de como os algoritmos de IA que controlam dispositivos domésticos inteligentes são treinados.

O custo humano: desde a publicação do artigo, quase uma dúzia de testadores do Roomba se manifestaram. Eles se sentem enganados e indignados com como a iRobot, criadora do Roomba, usou os dados coletados. Eles dizem que não estava claro que a empresa compartilharia seus dados em uma ampla cadeia global de fornecimento de dados, onde tudo (e todos) capturados pelas câmeras frontais dos dispositivos poderia ser visto, e talvez comentado e analisado, por funcionários terceirizados mal pagos fora dos Estados Unidos, que poderiam capturar e compartilhar imagens quando quisessem.