Continua após publicidade

ChatGPT coloca governos em uma corrida para regular Inteligência Artificial

Projetos já tramitam na União Europeia e no Brasil – e até os EUA, a terra da não intervenção do Estado, planeja domesticar a IA, devido aos riscos que a tecnologia pode oferecer.

Por Bruno Carbinatto
7 jun 2023, 06h32
-
 (Brenna Oriá/Fotos: Getty Images/VOCÊ S/A)
Continua após publicidade

Enquanto as big techs disputam a hegemonia da inteligência artificial, começa outra corrida em paralelo: pela regulamentação da tecnologia.

Desde a viralização do ChatGPT, emergiram diversas preocupações sobre os impactos da IA. Não faltam temas: privacidade, direitos autorais, discriminação… além de fake news e da eventual substituição de profissionais de carne e osso pela ferramenta. Mais: se um robô é usado em um contexto médico ou jurídico, por exemplo, e comete um erro que causa danos a humanos, de quem é a responsabilidade?

(Fun fact: isso já aconteceu. Um advogado americano usou o ChatGPT para defender seu cliente em um processo contra a Avianca. A petição citava casos semelhantes, que justificariam a ação. Quando o juiz e a companhia aérea foram investigar as decisões, não encontraram as informações. A tecnologia havia inventado os exemplos. Agora, a Justiça decidirá como punir o advogado “tech”.)

Por enquanto, a União Europeia lidera a corrida da regulação. Desde 2021, o bloco discute uma lei para o tema, e a tramitação acabou acelerada pelo o boom do ChatGPT.

A essência da lei consiste em separar as aplicações da IA em quatro níveis, com base nos possíveis riscos que possam ter à vida e à segurança dos europeus. As regras de uso ficam mais rígidas de acordo com o nível – e o nível quatro é o banimento completo. Por exemplo, a tecnologia não poderá ser usada para reconhecimento facial em massa em ambientes públicos, por uma questão de privacidade (exceto em casos muito específicos de ameaça terrorista iminente).

Continua após a publicidade

O Brasil não está muito atrás: no começo de maio, um marco regulatório da IA foi enviado ao Senado. Ele segue a lógica europeia de classificação de riscos, mas dá um passo extra: possibilita a responsabilização do fornecedor ou do operador da ferramenta de IA em casos de danos específicos causados por seus produtos.

Até mesmo nos EUA – pouco afeito a intervenções estatais no mercado – parece haver consenso para a regulação. Em uma audiência recente no Congresso americano, políticos de ambos os partidos sugeriram até a criação de uma agência governamental para a tarefa. Por enquanto, porém, a discussão está apenas no campo das ideias.

Um dos participantes desta audiência foi Sam Altman, CEO da OpenAI (criadora do ChatGPT). Ele reconheceu a necessidade de alguma regulação e propôs que apenas empresas licenciadas pelo governo possam se aventurar nesse mercado – uma medida que, é claro, também daria vantagem à sua companhia ante possíveis novas concorrentes. Por outro lado, ele recentemente criticou a legislação europeia por ser dura demais – deputados por lá querem que o ChatGPT seja considerado de “alto risco”, tendo de seguir uma série de medidas de transparência e mitigação de danos.

Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Domine o fato. Confie na fonte.

10 grandes marcas em uma única assinatura digital

MELHOR
OFERTA

Digital Completo
Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 6,00/mês*

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$118,80, equivalente a 9,90/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.