by MIT Technology Review
Se as autoridades reguladoras não agirem agora, a expansão da Inteligência Artificial (IA) Generativa concentrará ainda mais o poder na mão das Big Techs. Esse é o argumento central de um novo relatório do instituto de pesquisa AI Now. E faz sentido. Para entender o porquê, considere que o atual crescimento da IA depende de duas coisas: grandes quantidades de dados e poder computacional suficiente para processá-los.
A disponibilidade desses recursos está restrita principalmente a empresas de grande porte. E embora algumas das inovações mais empolgantes, como o chatbot ChatGPT da OpenAI e a Stable Diffusion, a IA de geração de imagens da Stability.AI, sejam criadas por startups, elas dependem de acordos com as Big Techs que lhes concedem acesso a seus vastos dados e recursos de computação.
“Algumas grandes empresas de tecnologia estão prontas para consolidar o poder por meio da IA, em vez de promover sua democratização”, diz Sarah Myers West, diretora-executiva do AI Now Institute, uma organização de pesquisa sem fins lucrativos.
Atualmente, as grandes empresas de tecnologia têm um controle absoluto sobre a IA. Mas Myers West acredita que estamos realmente em um momento crucial. É o início de um novo ciclo de euforia tecnológica e isso significa que legisladores e reguladores têm uma oportunidade única de garantir que a próxima década da tecnologia de IA seja mais democrática e justa.
O que diferencia esse momento tecnológico dos anteriores é que temos uma melhor compreensão de todas as maneiras catastróficas pelas quais a IA pode levar a cenários terríveis. E os reguladores de todos os lugares estão prestando muita atenção.
A China acaba de divulgar um projeto de lei sobre IA generativa pedindo mais transparência e fiscalização. Já a União Europeia (UE) está em negociações para aprovar uma legislação sobre Inteligência Artificial, que exigirá que as empresas de tecnologia sejam mais transparentes sobre como funcionam esses sistemas. Além disso, a UE está planejando um projeto de lei para responsabilizá-las por eventuais danos decorrentes dessa tecnologia.
Os EUA tradicionalmente relutam em fiscalizar seu setor tecnológico. Mas isso está mudando. O governo Biden está buscando formas de supervisionar modelos de IA como o ChatGPT, por exemplo, exigindo que empresas de tecnologia realizem auditorias e avaliações de impacto ou exigindo que os sistemas de IA atendam a certos padrões antes de serem lançados. É uma das medidas mais concretas que o governo tomou para reduzir os danos da IA.
Enquanto isso, a presidente da Comissão Federal de Comércio dos EUA (FTC, pela sigla em inglês), Lina Khan, também ressaltou a vantagem que as Big Techs têm em relação ao uso de dados e poder computacional e prometeu tomar medidas para assegurar um ambiente de concorrência justa no setor de IA. A agência também sinalizou a possibilidade de conduzir investigações antitruste e reprimir práticas comerciais enganosas.
Esse novo foco no setor de IA é parcialmente influenciado pelo fato de que muitos membros do AI Now Institute, incluindo Myers West, já trabalharam ou colaboraram com a FTC.
Myers West diz que sua passagem pela FTC a ensinou que a regulamentação da IA não precisa começar do zero. Em vez de esperar por regulamentações específicas de IA, como a Lei de IA da UE, que levará anos para entrar em vigor, os reguladores devem intensificar a aplicação das leis existentes relacionadas à proteção de dados e à concorrência.
Como a IA como a conhecemos hoje depende em sua maioria de grandes quantidades de dados, a política de dados também é uma política de IA, diz Myers West.
Um exemplo disso é o ChatGPT que tem enfrentado uma intensa fiscalização por parte das autoridades de proteção de dados europeias e canadenses e foi bloqueado na Itália por supostamente extrair informações pessoais da web ilegalmente e usá-las de forma indevida.
A demanda por medidas regulatórias não vem apenas de autoridades governamentais. Algo inusitado aconteceu. Após décadas lutando contra a regulamentação com unhas e dentes, hoje, a maioria das empresas de tecnologia, incluindo a OpenAI, afirma apoiá-la.
A grande questão pela qual ainda não se tem um consenso é como isso deve ser feito. Embora as empresas de tecnologia afirmem que apoiam a regulamentação, elas ainda adotam uma postura de “realizar o lançamento no mercado primeiro, fazer perguntas depois” quando se trata de lançar produtos com tecnologia de IA. De modo geral, elas se apressam para lançar modelos de IA que geram imagens e textos como produtos, mesmo que esses modelos tenham grandes falhas: eles inventam bobagens, perpetuam preconceitos nocivos, infringem direitos autorais e contêm vulnerabilidades de segurança.
A iniciativa da Casa Branca de responder à questão sobre responsabilidade da IA com medidas pós-lançamento, como auditorias algorítmicas, não é suficiente para mitigar os danos da tecnologia, argumenta o relatório da AI Now. É necessária uma ação mais contundente e mais rápida para garantir que as empresas primeiro provem que seus modelos são seguros para serem lançados ao público, diz Myers West.
“Devemos ter muito cuidado com resoluções que não responsabilizem as empresas. Existem muitas abordagens de regulamentação que essencialmente transferem o ônus no público e nas autoridades de regulamentação para erradicar os danos causados pela IA”, diz ela.
E o mais importante, diz Myers West, as agências regulatórias precisam agir rapidamente.