Estamos prestes a viver um marco histórico
O marco legal da IA no Brasil pode finalmente sair do papel e trazer regras claras para o uso da inteligência artificial em empresas, governos e na vida das pessoas. Após ser aprovado no Senado em 2024, o projeto de Lei 2.338/2023, agora está sob avaliação de uma comissão especial na Câmara dos Deputados, com prioridade de votação.
Para ampliar o debate, a comissão também aprovou requerimentos para realizar audiências públicas em setores estratégicos como agronegócio, educação, saúde e infraestrutura, garantindo a participação da sociedade civil.
A ideia é simples de entender: assim como aconteceu com a LGPD no tema de proteção de dados, agora teremos diretrizes específicas para o desenvolvimento e uso da IA. O objetivo é garantir inovação, mas também segurança, transparência e responsabilidade.
Em outras palavras: a tecnologia não para, mas precisa ser guiada para não atropelar direitos e gerar mais riscos do que soluções.
O que muda para as empresas
Para o mundo corporativo, o marco legal da IA é um mapa de riscos e oportunidades. Entre os pontos mais relevantes, estão:
- Classificação de risco: sistemas de IA serão enquadrados em níveis de baixo a alto risco. Áreas como saúde, segurança, educação e crédito terão atenção especial.
- Transparência: empresas precisarão informar quando usam IA e explicar decisões automatizadas em até 15 dias, se solicitadas.
- Responsabilidade: haverá regras mais claras sobre vieses algorítmicos, proteção de dados e até direitos autorais em conteúdos usados para treinar modelos.
- Fiscalização: a Autoridade Nacional de Proteção de Dados (ANPD ) terá papel central, mas em parceria com novos conselhos especializados em IA.
- Penalidades: multas que podem chegar a R$ 50 milhões ou 2% do faturamento da empresa em caso de descumprimento.
Por que isso importa agora?
A regulação não é “coisa do futuro”: já afeta empresas de todos os portes. Startups que criam soluções com IA precisarão se adaptar desde o começo, enquanto grandes corporações terão de rever fluxos internos, contratos e até estratégias de inovação.
Por outro lado, também abre espaço para mais confiança e segurança jurídica. Imagine oferecer um produto com IA e poder dizer que ele segue normas claras de ética, transparência e governança? Isso protege a empresa, fortalece a marca diante de clientes e investidores.
Marco legal da IA em debate no Brasil: regras que podem mudar a forma como empresas usam inteligência artificial.
O Brasil não está sozinho nessa corrida
União Europeia, EUA e China já estão em diferentes estágios de regulação da IA, com diferentes prioridades: desde um controle maior do Estado, até acordos de cooperação entre empresas e governos. O Brasil, ao avançar nesse debate, mostra que quer estar entre os países que, além de consumir e produzir tecnologia, também estabelecem regras para o seu uso de forma ética e competitiva.
Isso significa que empresas brasileiras que se adequarem logo, estarão mais preparadas para competir globalmente.
E agora, o que fazer?
Algumas perguntas que toda empresa deveria começar a se fazer:
- Onde usamos IA hoje? (chatbots a análise de dados, softwares, automações).
- Qual o nível de risco desses usos? (baixa, média ou alta sensibilidade).
- Temos governança de dados suficiente para garantir transparência?
- Nossa equipe sabe explicar como a IA chega a determinadas decisões?
Responder a essas questões já é um primeiro passo para entrar em conformidade com o marco legal da IA e, mais do que isso, para criar negócios sustentáveis e confiáveis.
Na Orbital, acreditamos que inovação e responsabilidade precisam caminhar juntas. É por isso que atuamos em diferentes frentes — de squads de tecnologia a inteligência artificial aplicada — sempre com foco em clareza e resultado para o negócio.
Quer entender qual o próximo passo da sua empresa nesse novo cenário? Vamos conversar. Conheça nossos serviços.