Aniversário da Abril: Assine por apenas 1,99

ChatGPT coloca governos em uma corrida para regular Inteligência Artificial

Projetos já tramitam na União Europeia e no Brasil – e até os EUA, a terra da não intervenção do Estado, planeja domesticar a IA, devido aos riscos que a tecnologia pode oferecer.

Por Bruno Carbinatto 7 jun 2023, 06h32
-
 (Brenna Oriá/Fotos: Getty Images/VOCÊ S/A)
Continua após publicidade
  • Enquanto as big techs disputam a hegemonia da inteligência artificial, começa outra corrida em paralelo: pela regulamentação da tecnologia.

    Desde a viralização do ChatGPT, emergiram diversas preocupações sobre os impactos da IA. Não faltam temas: privacidade, direitos autorais, discriminação… além de fake news e da eventual substituição de profissionais de carne e osso pela ferramenta. Mais: se um robô é usado em um contexto médico ou jurídico, por exemplo, e comete um erro que causa danos a humanos, de quem é a responsabilidade?

    (Fun fact: isso já aconteceu. Um advogado americano usou o ChatGPT para defender seu cliente em um processo contra a Avianca. A petição citava casos semelhantes, que justificariam a ação. Quando o juiz e a companhia aérea foram investigar as decisões, não encontraram as informações. A tecnologia havia inventado os exemplos. Agora, a Justiça decidirá como punir o advogado “tech”.)

    Por enquanto, a União Europeia lidera a corrida da regulação. Desde 2021, o bloco discute uma lei para o tema, e a tramitação acabou acelerada pelo o boom do ChatGPT.

    A essência da lei consiste em separar as aplicações da IA em quatro níveis, com base nos possíveis riscos que possam ter à vida e à segurança dos europeus. As regras de uso ficam mais rígidas de acordo com o nível – e o nível quatro é o banimento completo. Por exemplo, a tecnologia não poderá ser usada para reconhecimento facial em massa em ambientes públicos, por uma questão de privacidade (exceto em casos muito específicos de ameaça terrorista iminente).

    Continua após a publicidade

    O Brasil não está muito atrás: no começo de maio, um marco regulatório da IA foi enviado ao Senado. Ele segue a lógica europeia de classificação de riscos, mas dá um passo extra: possibilita a responsabilização do fornecedor ou do operador da ferramenta de IA em casos de danos específicos causados por seus produtos.

    Até mesmo nos EUA – pouco afeito a intervenções estatais no mercado – parece haver consenso para a regulação. Em uma audiência recente no Congresso americano, políticos de ambos os partidos sugeriram até a criação de uma agência governamental para a tarefa. Por enquanto, porém, a discussão está apenas no campo das ideias.

    Um dos participantes desta audiência foi Sam Altman, CEO da OpenAI (criadora do ChatGPT). Ele reconheceu a necessidade de alguma regulação e propôs que apenas empresas licenciadas pelo governo possam se aventurar nesse mercado – uma medida que, é claro, também daria vantagem à sua companhia ante possíveis novas concorrentes. Por outro lado, ele recentemente criticou a legislação europeia por ser dura demais – deputados por lá querem que o ChatGPT seja considerado de “alto risco”, tendo de seguir uma série de medidas de transparência e mitigação de danos.

    Publicidade

    Matéria exclusiva para assinantes. Faça seu login

    Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

    10 grandes marcas em uma única assinatura digital