ChatGPT coloca governos em uma corrida para regular Inteligência Artificial
Projetos já tramitam na União Europeia e no Brasil – e até os EUA, a terra da não intervenção do Estado, planeja domesticar a IA, devido aos riscos que a tecnologia pode oferecer.
Enquanto as big techs disputam a hegemonia da inteligência artificial, começa outra corrida em paralelo: pela regulamentação da tecnologia.
Desde a viralização do ChatGPT, emergiram diversas preocupações sobre os impactos da IA. Não faltam temas: privacidade, direitos autorais, discriminação… além de fake news e da eventual substituição de profissionais de carne e osso pela ferramenta. Mais: se um robô é usado em um contexto médico ou jurídico, por exemplo, e comete um erro que causa danos a humanos, de quem é a responsabilidade?
(Fun fact: isso já aconteceu. Um advogado americano usou o ChatGPT para defender seu cliente em um processo contra a Avianca. A petição citava casos semelhantes, que justificariam a ação. Quando o juiz e a companhia aérea foram investigar as decisões, não encontraram as informações. A tecnologia havia inventado os exemplos. Agora, a Justiça decidirá como punir o advogado “tech”.)
Por enquanto, a União Europeia lidera a corrida da regulação. Desde 2021, o bloco discute uma lei para o tema, e a tramitação acabou acelerada pelo o boom do ChatGPT.
A essência da lei consiste em separar as aplicações da IA em quatro níveis, com base nos possíveis riscos que possam ter à vida e à segurança dos europeus. As regras de uso ficam mais rígidas de acordo com o nível – e o nível quatro é o banimento completo. Por exemplo, a tecnologia não poderá ser usada para reconhecimento facial em massa em ambientes públicos, por uma questão de privacidade (exceto em casos muito específicos de ameaça terrorista iminente).
O Brasil não está muito atrás: no começo de maio, um marco regulatório da IA foi enviado ao Senado. Ele segue a lógica europeia de classificação de riscos, mas dá um passo extra: possibilita a responsabilização do fornecedor ou do operador da ferramenta de IA em casos de danos específicos causados por seus produtos.
Até mesmo nos EUA – pouco afeito a intervenções estatais no mercado – parece haver consenso para a regulação. Em uma audiência recente no Congresso americano, políticos de ambos os partidos sugeriram até a criação de uma agência governamental para a tarefa. Por enquanto, porém, a discussão está apenas no campo das ideias.
Um dos participantes desta audiência foi Sam Altman, CEO da OpenAI (criadora do ChatGPT). Ele reconheceu a necessidade de alguma regulação e propôs que apenas empresas licenciadas pelo governo possam se aventurar nesse mercado – uma medida que, é claro, também daria vantagem à sua companhia ante possíveis novas concorrentes. Por outro lado, ele recentemente criticou a legislação europeia por ser dura demais – deputados por lá querem que o ChatGPT seja considerado de “alto risco”, tendo de seguir uma série de medidas de transparência e mitigação de danos.