NOTÍCIA
IA pode ser um instrumento poderoso, mas sua adoção deve estar intrinsecamente ligada ao respeito à privacidade e à proteção dos direitos dos estudantes
Por Isadora Diniz, Marco Orosz e Tiago Crespo* | O avanço da inteligência artificial (IA) em todos os setores é inevitável, e já é possível observar os seus impactos na educação. Ferramentas como sistemas de aprendizado adaptativo, tutores inteligentes e assistentes virtuais estão cada vez mais presentes nas escolas e universidades, permitindo maior personalização no processo de ensino e aprendizagem e potencializando a análise de desempenho dos estudantes.
Exemplos práticos desse uso incluem plataformas de aprendizagem adaptativa, como o uso de sistemas que ajustam automaticamente o nível das atividades conforme o desempenho individual do aluno, ou ainda tutores virtuais capazes de responder dúvidas em tempo real, proporcionando acompanhamento personalizado. Há instituições que utilizam IA para prever taxas de evasão escolar a partir da análise de comportamento digital dos estudantes, com o intuito de intervir preventivamente.
De maneira positiva, essas tecnologias oferecem oportunidades relevantes, como a possibilidade de identificar dificuldades de aprendizagem precocemente, apoiar estudantes com necessidades especiais e promover metodologias mais inclusivas.
No entanto, essa transformação não ocorre sem riscos. A coleta massiva de dados pessoais, muitas vezes sensíveis, e o uso de algoritmos para análise e tomada de decisões em contextos educacionais geram preocupações quanto à privacidade e ao respeito aos direitos fundamentais dos alunos.

Por um lado, a IA permite ganhos pedagógicos significativos. Por outro, pode produzir efeitos adversos (Foto: Shutterstock)
Somado a isso, temos potenciais regulamentações sobre o tema que certamente terão grande impacto na educação, como é o caso do Projeto de Lei 2338/2023, conhecido como ‘Marco Legal da Inteligência Artificial’.
A proposta, já aprovada no Senado e em análise pela Câmara dos Deputados, estabelece princípios como a centralidade da pessoa humana, a proteção de dados, a autodeterminação informativa, a transparência e a responsabilização. Além disso, reconhece que determinadas aplicações de IA — entre elas, a educação — configuram situações de alto risco, exigindo medidas adicionais de governança, explicabilidade e supervisão humana.
Em termos práticos, isso significa que instituições educacionais que empregarem IA deverão assegurar que os estudantes ou seus representantes legais compreendam como seus dados são tratados e tenham acesso a mecanismos efetivos para exercer os seus direitos, como questionar decisões automatizadas que afetem diretamente o seu processo de aprendizado ou sua trajetória acadêmica.
—————————–
Inteligência artificial na educação, das promessas à realidade
Sem tabus: como avaliar a educação midiática?
—————————–
A preocupação com a proteção de dados é ainda mais urgente quando se trata de crianças e adolescentes. Em maio de 2023, a Autoridade Nacional de Proteção de Dados (ANPD) publicou o Enunciado CD/ANPD nº 1, no qual esclarece que o tratamento de dados pessoais de menores pode se basear em qualquer uma das hipóteses legais da LGPD (arts. 7º ou 11), desde que prevaleça o princípio do melhor interesse dessa categoria de titulares, que deverá ser avaliado caso a caso.
Tais regulamentações ampliam a responsabilidade das instituições de ensino, em especial aquelas que realizam ensino à distância ou que têm boa parte de sua estrutura centralizada em plataformas digitais. Essas instituições devem adotar critérios claros de proporcionalidade, limitar a coleta de informações ao estritamente necessário e obter consentimento de forma destacada quando exigido.
No contexto do uso de IA, tais cuidados devem ser redobrados, já que algoritmos podem gerar perfis detalhados sobre o desempenho, o comportamento e até mesmo aspectos emocionais dos estudantes.
Por um lado, a IA permite ganhos pedagógicos significativos. Por outro, pode produzir efeitos adversos. Entre os principais riscos estão a falta de clareza quanto às decisões automatizadas, que dificulta a compreensão por parte de alunos e responsáveis; a possibilidade de viés algorítmico, capaz de reforçar desigualdades sociais ou educacionais; e a coleta excessiva de dados, que pode expor os estudantes a usos indevidos de suas informações.
Além disso, práticas de perfilamento automatizado podem gerar impactos psicológicos e sociais relevantes, especialmente em menores, que são considerados grupo vulnerável, tanto no contexto da Lei Geral de Proteção de Dados (LGPD) quanto no próprio PL 2338/2023.
Diante desse quadro, é imprescindível que as instituições de ensino adotem medidas de governança e segurança que conciliem inovação e responsabilidade.
A aplicação dos princípios de Privacy by Design e Privacy by Default deve nortear o desenvolvimento de sistemas educacionais baseados em IA, assegurando que a privacidade seja considerada desde a concepção da tecnologia e que, por padrão, sejam coletados apenas os dados estritamente necessários. Complementarmente, medidas como anonimização, pseudonimização e uso de criptografia devem ser priorizadas para reduzir vulnerabilidades e evitar acessos indevidos.
Além das salvaguardas técnicas, é fundamental investir em transparência e educação digital. Políticas de privacidade e termos de uso claros e acessíveis devem ser disponibilizados, possibilitando que estudantes e responsáveis compreendam os impactos do uso da IA em sua formação. A capacitação de professores e gestores também é indispensável, pois esses profissionais desempenham papel central na garantia de um ambiente educacional seguro, ético e em conformidade com a legislação.
—————————–
Educação entre guerra e algoritmos: a urgência de um uso humano da tecnologia
—————————–
Por fim, a governança da IA na educação exige monitoramento contínuo. Avaliações de impacto algorítmico, conforme previsto no PL 2338/2023, e revisões periódicas das práticas de coleta e uso de dados devem se tornar rotina nas instituições.
A criação de comitês internos de ética em tecnologia pode auxiliar na fiscalização das práticas, ampliando a participação da comunidade escolar nas decisões relacionadas ao uso da IA.
Diante desse contexto, conclui-se que a inteligência artificial pode ser um poderoso instrumento para transformar a educação brasileira, mas sua adoção deve estar intrinsecamente ligada ao respeito à privacidade e à proteção dos direitos dos estudantes. Somente com o compromisso efetivo das instituições de ensino será possível aproveitar os benefícios da IA sem comprometer a dignidade, a liberdade e a segurança dos alunos.
*Isadora Diniz, Marco Orosz e Tiago Crespo são advogados especialistas da área de compliance do escritório Finocchio & Ustra Sociedade de Advogados
——
Revista Educação: referência há 30 anos em reportagens jornalísticas e artigos exclusivos para profissionais da educação básica
——