
As ações previstas no ACT incluem a troca de conhecimentos, experiências, estudos e pesquisas em inteligência artificial para apoiar o mapeamento de boas práticas em IA e outras iniciativas voltadas ao desenvolvimento e ao uso ético e responsável da ferramenta. A cooperação integra o eixo X do Plano Brasileiro de Inteligência Artificial (PBIA), que trata do apoio ao processo regulatório e de governança da IA. A atuação do MJSP está prevista na ação 50 do eixo X, que dispõe sobre os Guias Brasileiros de Inteligência Artificial Responsável.
O trabalho entre a USP e a Sedigi ocorre por meio de reuniões quinzenais entre a equipe da Secretaria e os professores Cristina Godoy Bernardo de Oliveira e João Paulo Cândia Veiga, do Centro de Inteligência Artificial e Aprendizado de Máquina (CIAAM). Entre as atividades realizadas durante o primeiro ano do ACT, destacam-se um evento e uma oficina realizados em parceria com a Escola Nacional de Administração Pública (Enap), para analisar o conhecimento dos servidores sobre inteligência artificial. Ao consultar servidores públicos, a pesquisa buscou mapear as necessidades e os desafios reais da administração pública brasileira. Esse diagnóstico é fundamental para que o futuro guia de uso ético seja efetivo e aplicável à realidade do serviço público. O próximo passo do acordo é a realização de uma consulta pública sobre o 1º Guia de Uso Ético de Inteligência Artificial (IA). O material está em elaboração, e a consulta será feita por meio da plataforma Brasil Participativo, ainda no primeiro trimestre deste ano.
Ao abrir a discussão, a Sedigi e a USP convidam a sociedade civil, a academia e o setor privado a contribuir ativamente para a definição dos limites éticos da IA no Brasil. Esse processo participativo é essencial para legitimar as regras que orientarão a inovação tecnológica no País, equilibrando o avanço científico e a proteção dos direitos digitais.
A participação ativa do MJSP neste acordo reforça o entendimento de que a inteligência artificial não é apenas uma questão de inovação tecnológica, mas também de direitos e garantias. O ministério, por meio da Sedigi, tem a atribuição de assegurar que as ferramentas de IA, especialmente aquelas utilizadas em contextos sensíveis, como segurança pública e acesso à Justiça, respeitem a legislação, como a Lei Geral de Proteção de Dados (LGPD), e não reproduzam vieses discriminatórios.
