A vice-presidente Kamala Harris se reuniu em 4 de maio com líderes de empresas de inteligência artificial, incluindo Google, Microsoft, OpenAI e Anthropic, para discutir ética e regulamentação na IA.
O lançamento no final do ano passado do popular chatbot de IA ChatGPT (até mesmo o presidente Joe Biden tentou, disseram autoridades da Casa Branca na quinta-feira) provocou uma onda de investimentos comerciais em ferramentas de IA que podem escrever textos convincentemente semelhantes aos humanos e produzir novas imagens, música e código de computador.
Mas a facilidade com que pode imitar os humanos também levou os governos de todo o mundo a considerar como poderia acabar com empregos, enganar as pessoas e espalhar a desinformação.
A administração Biden anunciou um investimento de US$ 140 milhões (aproximadamente R$ 698 milhões) para estabelecer sete novos institutos de pesquisa de IA.
Além disso, espera-se que o Escritório de Administração e Orçamento da Casa Branca emita orientações nos próximos meses sobre como as agências federais podem usar ferramentas de IA. Há também um compromisso independente dos principais desenvolvedores de IA de participar de uma avaliação pública de seus sistemas em agosto na convenção de hackers DEF CON em Las Vegas.
Mas a Casa Branca também precisa tomar medidas mais fortes, já que os sistemas de IA construídos por essas empresas estão sendo integrados a milhares de aplicativos de consumo, disse Adam Conner, do “Center for American Progress”.
“Acho que estamos em um momento que nos próximos meses realmente determinará se lideramos ou cedemos a liderança a outros países do mundo, como temos em outros espaços regulatórios de tecnologia, como privacidade ou regulamentação de grandes plataformas online”, disse Conner.
A reunião de quinta-feira foi projetada para a Vice-presidente Camala Harris e funcionários do governo discutirem os riscos que veem no atual desenvolvimento de IA com o CEO da Google, Sundar Pichai, o CEO da Microsoft, Satya Nadella, e os chefes de duas startups influentes: OpenAI, apoiada pela Microsoft, e Anthropic, apoiada pelo Google. A mensagem dos governantes para as empresas é que elas têm um papel a desempenhar na redução dos riscos e que podem trabalhar em conjunto com o governo.
A Sra. Harris disse em um comunicado após a reunião a portas fechadas que disse aos executivos que “o setor privado tem uma responsabilidade ética, moral e legal de garantir a segurança de seus produtos”.
As autoridades do Reino Unido também disseram na quinta-feira que estão analisando os riscos associados à IA. O órgão regulador da concorrência da Grã-Bretanha disse que está abrindo uma revisão do mercado de IA, com foco na tecnologia que sustenta chatbots como o ChatGPT, desenvolvido pela OpenAI.
O presidente Joe Biden observou no mês passado que a IA pode ajudar a lidar com doenças e mudanças climáticas, mas também pode prejudicar a segurança nacional e prejudicar a economia de maneiras desestabilizadoras. O Sr. Biden também estava atento ao evento dessa quinta-feira. “O presidente foi amplamente informado sobre o ChatGPT e sabe como funciona”, disse a secretária de imprensa da Casa Branca, Karine Jean-Pierre, a repórteres na coletiva de imprensa de quinta-feira.
Uma enxurrada de novas “IA generativas”, como chatbots e geradores de imagens, aumentou as preocupações éticas e sociais sobre sistemas automatizados.
Algumas das empresas, incluindo a OpenAI, mantêm segredo sobre os dados sobre os quais seus sistemas de IA foram treinados. Isso tornou mais difícil entender por que um chatbot está produzindo respostas tendenciosas ou falsas, bem como se está roubando obras protegidas por direitos autorais.
As empresas preocupadas em serem responsabilizadas por algo em seus dados de treinamento também podem não ter incentivos para rastreá-los rigorosamente, disse Margaret Mitchell, cientista-chefe de ética da startup de IA Hugging Face.
“Acho que pode não ser possível para a OpenAI realmente detalhar todos os seus dados de treinamento em um nível de detalhe que seria realmente útil em termos de algumas das preocupações sobre consentimento, privacidade e licenciamento”, disse Mitchell em entrevista na terça-feira. “Pelo que sei da cultura tecnológica, isso simplesmente não é feito.”
Teoricamente, algum tipo de lei de divulgação poderia forçar os provedores de IA a abrir seus sistemas para mais escrutínio de terceiros. Mas com os sistemas de IA sendo construídos sobre modelos anteriores, não será fácil para as empresas fornecer maior transparência.
“Acho que realmente caberá aos governos decidir se isso significa que você deve jogar fora todo o trabalho que fez ou não”, disse Mitchell. “Imagino que, pelo menos nos Estados Unidos, as decisões se inclinarão para as corporações e apoiarão o fato de que isso já foi feito. Teria ramificações tão grandes se todas essas empresas tivessem que jogar fora todo esse trabalho e começar de novo.”
Embora a Casa Branca tenha sinalizado na quinta-feira uma abordagem colaborativa com o setor, as empresas que constroem ou usam IA também estão enfrentando um escrutínio intenso de agências dos EUA, como a Comissão Federal de Comércio, que impõe leis de proteção ao consumidor e antitruste.
As empresas também enfrentam regras potencialmente mais rígidas na União Europeia, onde os negociadores estão dando os retoques finais nas regulamentações de IA propostas pela primeira vez há dois anos. As regras podem colocar o bloco de 27 nações na vanguarda do esforço global para estabelecer padrões para a tecnologia.
Quando a UE elaborou pela primeira vez sua proposta de regras de IA em 2021, o foco estava em controlar aplicativos de alto risco que ameaçam a segurança ou os direitos das pessoas, como escaneamento facial ao vivo ou sistemas de pontuação social do governo, que julgam as pessoas com base em seu comportamento. Chatbots mal foram mencionados.
Mas, refletindo a rapidez com que a tecnologia de IA se desenvolveu, os negociadores em Bruxelas têm se esforçado para atualizar suas propostas para levar em consideração os sistemas de IA de uso geral. As provisões adicionadas ao projeto de lei exigem que os chamados modelos de IA de fundação divulguem material de direitos autorais usado para treinar os sistemas, de acordo com um rascunho parcial recente da legislação obtido pela Associated Press.
Os modelos de fundação são uma subcategoria de IA de uso geral que inclui sistemas como o ChatGPT. Seus algoritmos são treinados em vastos conjuntos de dados.
Um comitê do Parlamento Europeu deve votar o projeto de lei na próxima semana, mas pode levar anos até que a Lei de IA entre em vigor.
Em outras partes da Europa, a Itália baniu temporariamente o ChatGPT devido a uma violação das rígidas regras europeias de privacidade, e o Conselho Europeu de Proteção de Dados criou uma força-tarefa de IA, em uma possível etapa inicial para elaborar regras comuns de privacidade de IA.
Nos EUA, colocar sistemas de IA para inspeção pública na conferência de hackers DEF CON pode ser uma nova maneira de testar riscos, embora o evento único possa não ser tão completo quanto uma auditoria prolongada, disse Heather Frase, membro sênior da Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown.
Juntamente com Google, Microsoft, OpenAI e Anthropic, as empresas que a Casa Branca diz que concordaram em participar incluem a Hugging Face, a fabricante de chips Nvidia e a Stability AI, conhecida por seu gerador de imagens Stable Diffusion.
“Esta seria uma maneira de pessoas muito habilidosas e criativas fazerem isso em uma espécie de grande explosão”, disse Frase.
Fonte: The hindu
