
Suíços liberam modelo de IA totalmente aberto
Publicado em 3 de setembro de 2025 às 15:09
2 min de leituraFonte: Tecnoblog
Apertus é a primeira LLM de código-aberto da Suíça (imagem: divulgação/EPFL)
Resumo
• Um projeto suíço apresentou o Apertus, modelo de IA open source que aposta na transparência total de dados e processos.
• Disponível em versões de 8B e 70B parâmetros, o sistema libera pesos, código-fonte e todos os componentes sem qualquer restrição.
• A iniciativa pretende atender às leis europeias de proteção de dados e fortalecer a soberania digital, oferecendo alternativa pesquisa e empresas.
Uma joint-venture entre universidades suíças anunciou, nesta terça-feira (02/09), o lançamento do Apertus — “aberto”, em latim —, um modelo de linguagem (LLM) totalmente open source que busca ser uma alternativa transparente aos sistemas de IA das grandes empresas de tecnologia, como o ChatGPT da OpenAI.
O projeto, liderado pela Escola Politécnica Federal de Lausana (EPFL), deve fornecer acesso público irrestrito a todos os componentes, desde os dados de treinamento e código-fonte até os pesos do modelo e documentação técnica.
Segundo os desenvolvedores, o desempenho do sistema é comparável ao do Llama 3, da Meta, lançado no primeiro semestre de 2024. Entretanto, o foco é oferecer uma base segura e acessível para pesquisadores, setor público e empresas, especialmente europeias.
O modelo já está disponível para download em duas opções, com 8 bilhões e 70 bilhões de parâmetros, através do site da organização Swiss AI. A iniciativa também disponibiliza um chatbot com o modelo nacional.
Uma IA “totalmente aberta”?
A principal bandeira do Apertus, como já indica o nome, é a transparência. Enquanto muitos modelos, incluindo alguns de código aberto como o DeepSeek, da China, liberam partes de seu funcionamento, eles ainda mantêm em segredo os dados e métodos usados no treinamento.
O consórcio responsável pelo Apertus, por outro lado, publicou toda a documentação, incluindo os pesos do modelo — os parâmetros da IA para chegar aos resultados —, o código-fonte do processo de treinamento e os conjuntos de dados utilizados.
Tudo foi liberado sob uma licença permissiva de código aberto, que autoriza inclusive o uso comercial. Com isso, qualquer pessoa com recursos suficientes pode, teoricamente, recriar o modelo do zero.
Ao expor o processo, os criadores pretendem facilitar a identificação de vieses, falhas e “alucinações”, além de garantir conformidade com as rígidas leis de proteção de dados da Europa, como o Regulamento Geral sobre a Proteção de Dados (GDPR), forte inspiração da Lei Geral de Proteção de Dados (LGPD) brasileira.
Entre as big techs essa decisão ainda é polêmica. A Meta, que popularizou o acesso aos pesos treinados com a família de modelos Llama, estaria considerando, segundo o New York Times, fechá-los. Na contramão, a OpenAI, que ainda opera seu modelo mais avançado de forma fechada, pretende lançar um novo modelo para competir entre as IAs abertas.
Leia também
- Ransomware: o que é e como se proteger de ataques
Imagine ligar o computador e não conseguir abrir programas e arquivos, se deparando com uma mensagem na tela informando que seu PC foi “sequestrado” e será preciso pagar para resgatá-lo. Essa situação provavelmente envolve um ataque de ransomware.
- O que aconteceu com a teoria de cordas?
O texto abaixo saiu originalmente na Revista Questão de Ciência, em 2021.
- Adeus, 16 GB: gamers estão aderindo à RAM de 32 GB
PCs gamer com 32 GB de RAM podem superar os de 16 GB (imagem: Felipe Ventura/Tecnoblog)