“A transparência e a responsabilidade no uso de sistemas de IA devem ser pilares inegociáveis dessa regulamentação. Para garantir isso, os algoritmos precisam ser explicáveis e auditáveis, permitindo que decisões tomadas por máquinas possam ser compreendidas e questionadas.”
Vinicius Distefano Rodrigues.
A inteligência artificial (IA) tem desempenhado um papel transformador na sociedade contemporânea, impactando áreas essenciais como saúde, educação, indústria e segurança pública. Ao mesmo tempo em que oferece potencial para inovações significativas, essa tecnologia também provoca questionamentos importantes sobre seus riscos, incluindo preocupações éticas, jurídicas e sociais. Nesse cenário, diversos países têm se mobilizado para estabelecer regulamentações que equilibrem o avanço tecnológico e os direitos fundamentais. No Brasil, esse debate está em processo de construção, mas carrega desafios próprios que precisam ser enfrentados com urgência.
O Brasil deu passos iniciais relevantes nessa jornada, sendo a Estratégia Brasileira de Inteligência Artificial (EbIA) um marco nesse contexto. Lançada pelo Ministério da Ciência, Tecnologia e Inovações em 2021, a EbIA estabelece diretrizes para promover a pesquisa e o uso ético da IA no país, com foco em capacitação, inovação e proteção de dados. No entanto, sua implementação tem se mostrado tímida diante da complexidade do tema e às demandas que a tecnologia impõe.
Outro elemento de destaque é o Projeto de Lei 2338/2023, que propõe princípios e normas para assegurar o uso responsável da inteligência artificial. Entre as diretrizes destacam-se o combate à discriminação, a necessidade de transparência nos sistemas de IA e a atribuição de responsabilidades aos desenvolvedores e operadores da tecnologia. Além disso, a Lei Geral de Proteção de Dados (LGPD) figura como um instrumento essencial ao tratar da privacidade e segurança de dados pessoais – algo crucial para o funcionamento de sistemas de IA. Ainda assim, faltam iniciativas específicas voltadas diretamente aos desafios exclusivos da inteligência artificial.
Embora essas iniciativas sejam promissoras, o Brasil enfrenta dificuldades para acompanhar o ritmo de regulamentações mais avançadas, como as da União Europeia, cujo AI Act propõe a classificação dos sistemas de IA com base nos riscos que apresentam. Enquanto isso, o cenário brasileiro ainda carece de uma abordagem clara e integrada, o que deixa empresas, desenvolvedores e a sociedade em um ambiente de incerteza.
Apesar dos desafios, o Brasil tem potencial para construir uma regulamentação de IA sólida, que seja ao mesmo tempo inovadora e sensível à realidade local. Para isso, é essencial que o país defina prioridades claras. Uma estratégia promissora seria adotar uma regulamentação proporcional aos riscos, com maior vigilância sobre aplicações que impactam diretamente áreas críticas, como saúde pública, segurança e justiça.
Investir na pesquisa científica também será decisivo. Parcerias entre universidades, empresas e o governo podem fortalecer o desenvolvimento de tecnologias adaptadas às necessidades brasileiras. Além disso, o incentivo à criação de sandboxes regulatórios — espaços controlados para experimentação tecnológica — seria uma medida eficaz para fomentar soluções inovadoras sem expor a sociedade a riscos desnecessários.
Outro ponto crucial será a capacitação da força de trabalho. Com a ascensão da IA em diversos setores, será fundamental preparar profissionais capazes de lidar com essa nova realidade. Isso inclui desde a oferta de cursos técnicos e superiores até a inclusão de temas como ciência de dados, programação e ética em IA em escolas e universidades. Ao mesmo tempo, em um país marcado por desigualdades sociais, é indispensável promover a inclusão digital para ampliar o acesso às oportunidades que a economia digital pode oferecer.
Por outro lado, o Brasil não pode avançar sozinho. A inteligência artificial é uma tecnologia global, e sua regulamentação exige cooperação internacional. O Brasil deve intensificar sua atuação em fóruns e iniciativas globais, como a OCDE (Organização para a Cooperação e Desenvolvimento Econômico), buscando alinhar-se às melhores práticas e influenciar discussões que considerem as necessidades e especificidades dos países em desenvolvimento.
A transparência e a responsabilidade no uso de sistemas de IA devem ser pilares inegociáveis dessa regulamentação. Para garantir isso, os algoritmos precisam ser explicáveis e auditáveis, permitindo que decisões tomadas por máquinas possam ser compreendidas e questionadas. Além disso, a proteção dos dados pessoais deve ser ampliada, com normas específicas voltadas para o tratamento ético e seguro das informações que alimentam esses sistemas.
Finalmente, a regulamentação da IA no Brasil deve ir além de minimizar riscos: ela precisa também estimular o uso da tecnologia para resolver problemas sociais. A IA pode ser uma ferramenta valiosa no combate ao desmatamento, na otimização da produção agrícola ou na democratização do acesso a serviços de qualidade, como saúde e educação.
Conforme avança nesse campo, o Brasil tem a oportunidade de construir um modelo de regulamentação que sirva como referência, não só para outros países da América Latina, mas também para nações em desenvolvimento ao redor do mundo. A inteligência artificial tem o potencial de transformar sociedades, e cabe ao Brasil garantir que essa transformação esteja alinhada com os princípios de inclusão, justiça e inovação sustentável.
Vinicius é advogado – Legal Operator e Sócio de Serviço na Silva, Ciochetta e
Perlingeiro Sociedade de Advogados



