Notícias
'O eixo da atuação editorial sai de uma lógica mais operacional e vai para uma lógica de governança', afirma bolsista do Ibict
O Instituto Brasileiro de Informação em Ciência e Tecnologia (Ibict) e a Editora Ibict lançaram a obra "Inteligência Artificial na editoração científica em Ciência Aberta: riscos, integridade científica e governança editorial".
O livro discute a integração da inteligência artificial (IA) nas etapas de escrita, avaliação, normalização, curadoria e publicação de pesquisas, com foco nos princípios da Ciência Aberta e da integridade acadêmica.
Desenvolvida por Bernardo Dionízio Vechi, Milton Shintaku, Maria Aniolly Queiroz Maia e Rosilene Paiva Marinho de Sousa, da Coordenação de Tecnologias para Informação (Cotec) do Ibict, a obra parte da realidade prática de que a automação já está presente no fluxo dos periódicos.
A publicação alerta para os riscos envolvidos e propõe que as decisões editoriais devem permanecer humanas, justificadas e documentadas.O material oferece subsídios para a construção de políticas editoriais consistentes e está disponível para download gratuito no portal da Editora Ibict.
Para aprofundar as discussões presentes no livro e entender os desafios urgentes trazidos por essas tecnologias, conversamos com o coautor Bernardo Dionízio Vechi. Bacharel em Biblioteconomia pela Universidade de Brasília (UnB), ele atua no Ibict como bolsista em projetos de pesquisa com foco em editoração científica, metadados, Ciência Aberta e sistemas de informação.
Confira a entrevista.
O que motivou a criação deste livro e como vocês avaliam o impacto inicial da Inteligência Artificial (IA) nesse cenário?
Bernardo Dionízio Vechi – A criação deste livro surgiu porque a Inteligência Artificial já deixou de ser uma hipótese na editoração científica. Ela já está presente no dia a dia de autores, editores e avaliadores. Então a discussão não podia mais ficar no campo da expectativa. Ela precisava entrar no campo da orientação.
Nós propomos essa obra porque ela nasce de uma composição de conhecimentos bem diferentes, mas muito complementares. Entre os autores, há atuação em editoração científica, metadados, sistemas de informação, Ciência Aberta e formação técnica em OJS, mas também há contribuição nas áreas de design e organização do conhecimento, propriedade intelectual, privacidade, proteção de dados e aspectos jurídicos da informação. Como a IA afeta várias dimensões do fluxo editorial ao mesmo tempo, a gente entendeu que era importante construir essa discussão de forma mais ampla e que ajudasse revistas e instituições a formular critérios mais claros sobre o uso de IA na gestão editorial.
Sobre o impacto inicial da IA, eu destacaria primeiro a entrada dela em várias etapas do fluxo editorial. Hoje ela aparece na preparação de manuscritos, na revisão linguística, na triagem inicial e até como apoio informal à avaliação. Isso pode trazer agilidade, mas também cria um ambiente mais instável, porque nem sempre esse uso vem acompanhado de regra clara.
Outro impacto importante é sobre a integridade científica. Os modelos de linguagem conseguem produzir textos muito fluentes e convincentes. O problema é que fluidez não é sinônimo de consistência científica. Um texto pode soar adequado e ainda assim conter erro factual, simplificação indevida ou conteúdo inventado.
Também existe a questão da produtividade. Em alguns pontos, a IA de fato acelera tarefas. Só que esse ganho não elimina a necessidade de revisão. Em muitos casos, ela altera sentido, perde nuance, padroniza demais a linguagem ou apaga elementos importantes do contexto. Por isso, o uso precisa vir sempre acompanhado de validação humana. E há um ponto mais profundo: a IA não muda só no ritmo do trabalho. Ela altera as bases de decisão do processo editorial. A partir do momento em que sistemas automatizados entram no fluxo, a revista precisa discutir transparência, responsabilidade e rastreabilidade.
Então, resumindo, o impacto inicial da IA foi abrir novas possibilidades de apoio técnico, mas também expor que o fluxo editorial precisa de regras mais claras para continuar confiável.
Vocês afirmam que a IA não altera apenas o ritmo do fazer editorial, mas promove uma mudança estrutural na governança. Poderiam explicar como o eixo da atuação do editor se desloca nesse sentido?
Bernardo Dionízio Vechi – Quando falamos em mudança estrutural, estamos dizendo que o Editor não pode mais ser visto apenas como alguém que organiza etapas e acompanha prazos. Com a IA, ele passa a ter uma função mais estratégica.
Antes, o foco estava muito concentrado na condução do fluxo. Agora, o Editor também precisa definir critérios de uso, estabelecer limites e responder por decisões tomadas em um ambiente mediado por tecnologia.
Como funciona essa visão na prática?
Bernardo Dionízio Vechi – Na prática, isso desloca a atuação editorial para três frentes. A primeira é a frente ética. O Editor passa a lidar de forma mais direta com perguntas sobre autoria, transparência, sigilo, responsabilidade e uso aceitável de ferramentas automatizadas. Já não basta perguntar se a tecnologia funciona. É preciso perguntar em que condições ela pode ser usada sem comprometer a integridade do processo.
A segunda é a frente institucional. O Editor precisa ajudar a transformar esse debate em política editorial concreta. Isso inclui definir quando o uso de IA deve ser declarado, em que situações ele não é aceitável e quais cuidados a revista vai exigir de pessoas autoras, pareceristas e da própria equipe editorial.
A terceira é a frente técnica. Não no sentido de programar sistemas, mas de compreender como essas ferramentas afetam o ambiente editorial. O Editor precisa saber que relatórios automáticos não são neutros, que há risco de viés, que há problema de confidencialidade e que há limites reais no uso desses sistemas como apoio à decisão.
Então eu diria que o eixo da atuação editorial sai de uma lógica mais operacional e vai para uma lógica de governança. O Editor continua acompanhando o fluxo, claro, mas agora também precisa sustentar critérios que mantenham esse processo legítimo, auditável e eticamente defensável, em diálogo com referências já consolidadas no campo da integridade científica, como o COPE, que vêm chamando atenção para a responsabilidade editorial diante do uso de novas tecnologias.
Quais seriam os cuidados essenciais que uma revista científica deveria tomar hoje para proteger seu fluxo editorial dos riscos da IA generativa?
Bernardo Dionízio Vechi - Penso que o primeiro cuidado é a revista não tratar a IA como uma ferramenta neutra, como se ela fosse só um apoio técnico e pronto. Porque, quando esse uso entra no fluxo editorial sem regra clara, ele começa a virar hábito antes mesmo de a revista decidir como quer lidar com ele.
Então, o começo de tudo é ter uma política editorial clara. A revista precisa dizer se aceita esse uso, em que situações, com quais limites e em quais etapas do processo. Isso precisa estar definido com alguma objetividade, porque senão cada pessoa passa a usar do seu jeito e o fluxo editorial perde consistência.
Tem também um ponto que eu considero bem básico, mas que precisa ser dito com clareza: IA não pode ser autora. Autoria envolve responsabilidade pelo que foi escrito, por eventuais erros, por correções futuras e pelas consequências da publicação. Isso é uma atribuição humana. Não dá para transferir isso para uma ferramenta.
Outro cuidado importante é a transparência. Se houve uso de IA, a revista precisa saber qual ferramenta foi usada, para quê e até onde ela interferiu no trabalho. Porque existe diferença entre um apoio mais pontual, como revisão de linguagem, e um uso que já afeta conteúdo, argumento, análise ou interpretação.
A avaliação por pares também é um ponto bem delicado hoje. A revista precisa orientar de forma explícita que pareceristas não devem inserir manuscritos em plataformas públicas de IA. Aí a questão não é só metodológica. É também uma questão de sigilo, de confidencialidade, proteção do conteúdo submetido e de soberania científica.
Outro ponto é não transformar resultado automatizado em decisão editorial. Relatório de similaridade, resumo gerado por sistema, classificação automática, tudo isso pode até ajudar em alguma medida. Mas ajuda não é decisão. A decisão editorial continua exigindo leitura, contexto e julgamento humano.
Também começa a aparecer uma preocupação mais técnica, mas que já precisa entrar no radar. É a possibilidade de manipulação de sistemas automatizados, com comandos ocultos, trechos invisíveis ou outros recursos pensados para influenciar triagens mediadas por IA. Talvez isso ainda não esteja em toda parte, mas já não é um tema que a editoria possa ignorar.
E eu colocaria ainda uma questão que considero central, que é a rastreabilidade. A revista precisa conseguir reconstruir o caminho de uma decisão, principalmente quando houve uso de tecnologia no processo. Isso passa por registro, controle de versões e documentação suficiente para responder a dúvidas ou questionamentos depois.
Acrescentaria ainda uma última dimensão, que é a formação. Equipes editoriais e pareceristas precisam desenvolver letramento em IA. Sem isso, a revista pode cair em dois extremos: ou confia demais na ferramenta ou rejeita o tema sem entender exatamente onde estão os riscos.
Então, no fim, eu resumiria assim: proteger o fluxo editorial hoje significa ter regra clara, exigir transparência, preservar o julgamento humano, cuidar do sigilo do processo, manter rastreabilidade e investir na formação da equipe.