Legislação Brasileira sobre o Uso de Inteligência Artificial nas Escolas de Ensino Fundamental e Médio: Análise do Projeto de Lei nº 2338/2023 e Implicações para Professores e Estudantes
A presente análise a legislação brasileira emergente sobre o uso de inteligência artificial (IA) no contexto educacional, com ênfase no Projeto de Lei nº 2338/2023 (PL 2338/23), conhecido como Marco Legal da Inteligência Artificial. Explora os principais artigos propostos, sua relevância para a proteção de direitos, transparência, classificação de risco de sistemas de IA e supervisão humana. Discute ainda como escolas podem elaborar políticas internas de uso ético e pedagógico da IA, respeitando princípios legais e promovendo práticas educacionais responsáveis. Conclui apontando diretrizes para gestores escolares e lacunas a serem enfrentadas na regulamentação da tecnologia na educação.
1. Introdução
A ascensão das tecnologias de inteligência artificial (IA) suscita desafios legais e pedagógicos no contexto educativo.
No Brasil, o Projeto de Lei nº 2338/2023, aprovado pelo Senado Federal e em tramitação na Câmara dos Deputados, constitui a principal iniciativa legislativa para criar um marco regulatório da IA, com impacto potencial em escolas de ensino fundamental e médio.
O PL busca equilibrar inovação tecnológica e proteção de direitos fundamentais, incluindo transparência, segurança de dados e supervisão humana dos sistemas de IA.
2. Marco Legal da IA: Estrutura e Princípios
O PL 2338/23 organiza-se em diversos capítulos que tratam da definição de IA, princípios éticos e direitos dos indivíduos afetados por sistemas de IA. Seus princípios incluem:
Transparência e explicabilidade: usuários devem ser informados quando interagem com sistemas de IA e compreender, em termos acessíveis, como decisões automatizadas são tomadas.
Supervisão humana: sistemas de IA de risco elevado requerem intervenção humana ativa, especialmente em decisões com impacto significativo sobre indivíduos.
Não discriminação e proteção de direitos fundamentais: a legislação proíbe práticas discriminatórias ou manipulações algorítmicas que possam prejudicar a dignidade ou liberdade de pessoas.
3. Classificação de Risco e Aplicações Educacionais
Uma das inovações do PL 2338/23 é a classificação de sistemas de IA segundo níveis de risco:
Risco excessivo: proibido; aplica-se a sistemas que exploram vulnerabilidades humanas, promovem manipulação comportamental ou violam direitos humanos.
Alto risco: inclui aplicações que impactam áreas críticas como educação, saúde e justiça, exigindo avaliações de impacto, governança e supervisão contínua.
Risco limitado: sistemas menos críticos podem ser usados, mas ainda devem cumprir princípios de transparência e responsabilidade.
No contexto escolar, ferramentas avaliativas automatizadas ou sistemas de recomendação pedagógica, por exemplo, podem ser considerados de alto risco, o que implicaria requisitos adicionais de governança e supervisão.
4. Direitos e Garantias dos Usuários
O projeto estabelece direitos para pessoas e grupos afetados por IA, incluindo:
direito à informação clara e acessível sobre a IA utilizada no processo interativo;
direito à revisão humana de decisões automatizadas quando estas afetem direitos dos indivíduos;
direito à não discriminação por vieses algorítmicos.
Esses dispositivos são relevantes no ambiente escolar para assegurar que estudantes e professores não sejam sujeitos a decisões automatizadas sem supervisão pedagógica ou legal adequada.
5. Políticas Práticas para Escolas
Além da legislação em si, as instituições devem desenvolver políticas internas de uso de IA que:
Mapeiem e classifiquem as ferramentas de IA usadas em atividades pedagógicas;
Exijam transparência e explicabilidade dos sistemas para professores, alunos e responsáveis;
Estabeleçam critérios claros de supervisão humana, garantindo que qualquer uso de IA com impacto avaliativo ou classificatório seja revisado por educadores;
Assegurem conformidade com a proteção de dados pessoais, em harmonia com a Lei Geral de Proteção de Dados (LGPD);
Promovam formação continuada de docentes para uso ético e pedagógico de IA.
6. Discussão
Embora o PL 2338/23 ainda esteja em tramitação e sujeito a alterações, sua estrutura evidencia uma orientação clara para regular aplicações de IA com base em risco e proteção de direitos humanos e pedagógicos.
A exigência de supervisão humana, por exemplo, pode ser vista como uma salvaguarda contra desumanização do processo educativo. Políticas escolares práticas, alinhadas com esses princípios, podem mitigar riscos e reforçar a função educativa da tecnologia sem comprometer a autonomia de professores e estudantes.
7. Conclusão
O Projeto de Lei nº 2338/23 representa um avanço significativo no esforço brasileiro de regular a inteligência artificial, incluindo seu uso potencialmente crítico no ambiente escolar.
A adoção de políticas internas eficazes será crucial para harmonizar a legislação com as práticas pedagógicas, garantindo que a IA seja ferramenta de apoio, e não de substituição ou discriminação.
À medida que a lei evolui, pesquisas empíricas e avaliações de impacto serão essenciais para ajustar diretrizes e assegurar que os princípios legais se traduzam em benefícios concretos para o ensino fundamental e médio.
Referências
Brasil. Senado Federal. Projeto de Lei nº 2.338/2023 — Marco Regulatório da Inteligência Artificial. Dados e estrutura do texto.
Library of Congress. Brazil advances discussions on bill to regulate AI use (análise internacional do PL).
Modulos.ai. Global AI Compliance Guide — Classificação de risco e impacto.
Mattos Filho. Regulatory framework for artificial intelligence — Direitos, transparência e não discriminação.
Facia.ai. Brazil’s AI Bill 2,338/2023: Governing AI Risks — Transparência e mecanismos de governança.
Comentários
Postar um comentário