The National Times - Casa Branca estuda novas regulamentações para gigantes da IA

Casa Branca estuda novas regulamentações para gigantes da IA


Casa Branca estuda novas regulamentações para gigantes da IA
Casa Branca estuda novas regulamentações para gigantes da IA / foto: © AFP

As empresas líderes em Inteligência Artificial (IA) têm o dever "moral" de proteger a sociedade dos perigos potenciais desta tecnologia, disse, nesta quinta-feira (4), a vice-presidente Kamala Harris a diretores do Google, Microsoft, OpenAi e Anthropic.

Alterar tamanho do texto:

"O setor privado tem o dever ético, moral e legal de garantir a segurança de seus produtos", indicou Harris em nota após se reunir com Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI), Dario Amodei (Anthropic) e vários membros do governo.

Harris indicou que a IA tem o "poder de melhorar a vida cotidiana e abordar alguns dos maiores desafios da sociedade", mas também pode "aumentar drasticamente as ameaças à segurança, reduzir os direitos humanos e a privacidade e minar a confiança pública na democracia".

Ela disse que apoia, junto com o presidente Joe Biden, que passou rapidamente pela reunião, "novas potenciais regulamentações" e "nova legislação".

A Inteligência Artificial está presente há anos na vida cotidiana, das redes sociais aos eletrodomésticos de última geração até programas de recrutamento de pessoal.

Porém, o grande sucesso desde o fim do ano passado do ChatGPT, a interface de IA generativa da OpenAI, uma empresa emergente amplamente financiada pela Microsoft, foi o ponto de partida para uma corrida por sistemas cada vez mais intuitivos e eficientes, que são capazes de gerar textos, imagens e códigos de programação cada vez mais complexos.

"É bom tentarmos nos antecipar (sobre o tema da regulamentação). Não vai ser fácil, mas acho que podemos conseguir", disse Harris a jornalistas antes de entrar na Casa Branca.

O lançamento do ChatGPT provocou grade entusiasmo e preocupações em uma nova escala, em particular depois que Sam Altman, CEO da OpenAI, antecipou a próxima geração da chamada IA "geral", na qual os programas serão "mais inteligentes que os humanos em geral".

- Sem obrigações -

Os riscos da IA vão desde a discriminação até a automação de tarefas realizadas por humanos, roubo de propriedade intelectual ou desinformação sofisticada em grande escala, entre outros.

No final de 2022, a Casa Branca lançou um "Plano para uma Declaração de Direitos da IA", um pequeno documento que lista princípios gerais como proteção contra sistemas perigosos ou falíveis.

No início deste ano, o Instituto Nacional de Padrões e Tecnologia (NIST), um centro afiliado ao governo, projetou uma "estrutura de gerenciamento de risco" relacionada à IA.

O presidente Biden disse no mês passado que estas empresas "claramente (...) devem garantir que seus produtos sejam seguros antes de colocá-los à disposição do público em geral".

Porém, "estas diretrizes e declarações não obrigam as empresas envolvidas a fazerem nada", destacou David Harris, que foi diretor de pesquisas em IA da Meta.

"Os próprios patrões estão exigindo mais regulamentação", observou, embora o Facebook, apesar de ter "pedido publicamente" melhorar as leis que regem a confidencialidade dos dados pessoais, "ao mesmo tempo paga lobbies que lutam contra esses projetos de lei".

A Casa Branca anunciou, nesta quinta, novos investimentos em pesquisas sobre IA e novos métodos de avaliação dos sistemas atuais.

- "Dano real" -

As gigantes da IA não negam que existam riscos, mas temem que a inovação seja sufocada por leis restritivas demais.

"A IA será utilizada por atores maliciosos, e sim, vai causar danos", disse na quarta-feira o economista-chefe da Microsoft, Michael Schwarz, durante um painel no Fórum Econômico Mundial, segundo a Bloomberg.

Porém, pediu aos legisladores que não se apressem e que quando houver um "dano real", se certifiquem de que "os benefícios da regulamentação sejam maiores do que o preço para a sociedade".

"A última vez que enfrentamos semelhante agitação social devido às tecnologias foi no início da web 2.0, em 2002", disse na quarta-feira Lina Khan, presidente da Comissão Federal do Comércio, a agência de proteção ao consumidor dos EUA.

Do outro lado do Atlântico, a Europa espera liderar novamente o caminho para a regulamentação 'ad hoc' em torno da IA, como já fez com a lei de dados pessoais.

"Não é uma corrida. Estamos trabalhando junto com nossos colegas europeus", disse um alto funcionário da Casa Branca.

F.Jackson--TNT