Pular para o conteúdo
Documento que defende uso ético da IA na educação cita fontes inexistentes
Cinema
documento
que
defende
uso
ético
educação

Documento que defende uso ético da IA na educação cita fontes inexistentes

Publicado em 12 de setembro de 2025 às 19:03

2 min de leitura

IA não é tão confiável em contextos acadêmicos (ilustração: Vitor Pádua/Tecnoblog)

Resumo

• O relatório “Education Accord” de Terra Nova e Labrador, no Canadá, cita pelo menos 15 fontes inexistentes, incluindo um filme fictício chamado “Schoolyard Games”.

• Existe a suspeita de que a IA tenha sido usada na elaboração do documento, pois modelos de linguagem podem criar informações falsas, em um fenômeno conhecido como “alucinação”.

• Especialistas expressam preocupações sobre a confiabilidade do documento devido às citações inventadas.

Um documento com planos educacionais do governo da província de Terra Nova e Labrador, no Canadá, está no centro de uma polêmica: pelo menos 15 fontes citadas como referências não existem, o que levanta suspeitas de que ferramentas de inteligência artificial foram usadas na escrita.

O relatório, intitulado “Education Accord”, tem mais de 400 páginas e levou 18 meses para ser elaborado. Ironicamente, entre suas sugestões de medidas pedagógicas, ele inclui a capacitação de alunos e educadores com “conhecimentos básicos de IA, incluindo ética, privacidade de dados e uso responsável da tecnologia”.

Quais são as fontes falsas no documento?

O documento cita um filme produzido pela National Film Board do Canadá chamado “Schoolyard Games”, mas, segundo a entidade, esse filme simplesmente não existe. Curiosamente, um filme com esse mesmo nome é mencionado em um guia de escrita da Universidade de Vitória (Canadá). É um exemplo fictício, para ensinar como formatar citações corretamente.

Documento inclui uso ético de IA entre recomendações pedagógicas (foto: Stocksnap/Pixabay)

Aaron Tucker, professor assistente da Universidade Memorial de Terra Nova, disse não ter conseguido encontrar várias fontes citadas, mesmo procurando no Google, na biblioteca da instituição e em outros bancos de dados acadêmicos.

“Se [o relatório] foi feito por IA, eu não sei, mas inventar fontes é um sinal revelador do uso de inteligência artificial”, diz Tucker, que pesquisa a história da tecnologia no Canadá.

Por que as fontes falsas levantam suspeitas sobre o uso de IA?

Chatbots de IA, apesar de suas capacidades impressionantes de escrita, pesquisa e programação, podem “alucinar”, termo usado para descrever quando um robô cria um resultado aparentemente coerente, mas falso. Um tipo comum é justamente inventar informações, e isso é ainda mais acentuado quando se trata de nomes de obras como livros, artigos, filmes e discos, entre outros.

Isso acontece porque a IA generativa se baseia em modelos de linguagem em larga escala (LLMs), que são treinados para reconhecer padrões em quantidades enormes de textos, mas nem sempre são capazes de identificar se uma informação é verdadeira ou não.

Fonte: Tecnoblog

Leia também