Universidades suecas em crise de confiança
Setembro de 2019 | Pesquisa FAPESP

Parlamento cria agência para centralizar investigações sobre má conduta científica

Uma agência federal encarregada de investigar casos de fraude, plágio e manipulação de dados na Suécia deve começar a funcionar em janeiro de 2020. O Parlamento do país aprovou em junho a legislação que cria o novo órgão, batizado de Conselho de Má Conduta em Pesquisa. Caberá a ele apurar todos os casos suspeitos envolvendo pesquisas realizadas em instituições públicas e privadas do país e divulgar os resultados das investigações. Se as denúncias se confirmarem, agências de fomento, universidades e institutos de pesquisa decidirão a aplicação de sanções específicas aos pesquisadores. Até agora, as investigações eram feitas internamente e as instituições nem sempre tinham um entendimento convergente sobre o que constitui má conduta. Elas podiam eventualmente se aconselhar com um Comitê Central de Ética, sem compromisso de seguir suas orientações.“Em alguns casos, há alegações de que a investigação não foi feita de forma justa ou transparente. O novo sistema é um avanço”, disse à revista Nature Karin Åmossa, diretora da Associação Sueca de Pesquisadores e Professores Universitários.

A ideia de centralizar investigações de episódios de má conduta vem sendo discutida em vários países com o objetivo de garantir um padrão comum de apuração de denúncias e punições. Em 2017, a Dinamarca criou um órgão nesses mesmos moldes, que desde então já se debruçou sobre uma dezena de casos. No ano passado, uma comissão parlamentar de inquérito do Reino Unido propôs a criação de um comitê capaz de monitorar as investigações feitas pelas universidades, ante as evidências de que uma em cada quatro instituições não cumpre diretrizes de integridade científica que vigoram há sete anos. Países como Austrália e Canadá também dispõem de órgãos para acompanhar casos suspeitos, enquanto a China anunciou que irá centralizar essa tarefa no Ministério de Ciência e Tecnologia.

Tais iniciativas, idealizadas para preservar a confiança pública no trabalho dos cientistas, encarnam uma contradição, disse à Nature Nicholas Steneck, especialista em integridade científica que foi diretor do programa de Ética e Integridade na Pesquisa da Universidade de Michigan, nos Estados Unidos. “Se não se pode confiar nas universidades para fazer investigações responsáveis, por que deveríamos confiar a elas recursos para pesquisa?”, indaga Steneck. Na sua avaliação, a apuração dos casos deveria continuar a ser feita internamente, ainda que se possa implementar mudanças para torná-la mais eficiente, e não faz sentido atribuir a uma agência central a investigação até mesmo de casos que produzem prejuízos menores à integridade científica.

A FAPESP adota um modelo intermediário entre o proposto pela Suécia e o defendido por Steneck. Por um lado, o Código de Boas Práticas Científicas da Fundação estabelece que as instituições de pesquisa são as responsáveis principais pela promoção de uma cultura de boa conduta científica entre os pesquisadores e estudantes a ela vinculados, assim como pela prevenção, investigação e punição de más condutas científicas que ocorram em seu âmbito. Por outro lado, estabelece que a FAPESP é corresponsável por garantir que toda alegação de má conduta científica relacionada à pesquisa por ela apoiada seja adequadamente investigada e, se for o caso, sejam tomadas a seu respeito as medidas punitivas e corretivas cabíveis. Por isso, o Código define condições mínimas que a investigação pela instituição deve satisfazer para ser rigorosa, evitando-se conflitos de interesse e corporativismo, e justa, garantindo-se os direitos de defesa e presunção de inocência. E estabelece que o relatório detalhado e justificado da investigação de cada alegação de má conduta deve ser encaminhado à FAPESP, que pode avalizá-lo ou não.

Reputação
O governo da Suécia defende o novo sistema com o argumento de que delegar as investigações às universidades é uma fonte potencial de conflito de interesses. “Há dificuldade em realizar apurações imparciais, assim como se mostrou problemático para instituições de ensino superior examinarem suspeitas sobre seus pesquisadores enquanto protegem a própria reputação”, informou um comunicado do governo publicado em seu website. De acordo com Helene Knutsson, que propôs a criação da agência no ano passado quando era ministra da Pesquisa e da Educação Superior do país, o sistema busca aumentar a transparência e a segurança jurídica. “Ninguém deve duvidar da pesquisa da Suécia, assim como nenhum paciente deve arriscar-se a ser submetido a terapias que são resultado de fraudes”, disse.

Embora Knutsson não mencione episódios específicos, a erosão da confiança na capacidade das universidades se autorregularem se deve em grande medida ao escândalo envolvendo a passagem do cirurgião italiano Paolo Macchiarini pelo reputado Instituto Karolinska, em Estocolmo, entre 2010 e 2016. Macchiarini falsificou resultados de uma cirurgia experimental, um transplante de traqueia artificial, mas o Karolinska, conhecido por selecionar os vencedores do Prêmio Nobel de Medicina ou Fisiologia, inocentou o italiano em três investigações seguidas, mesmo admitindo que ele não havia cumprido os padrões de qualidade exigidos pela instituição. O caso só foi reaberto quando uma reportagem em uma revista norte-americana e um documentário da TV sueca mostraram que, além de maquiar os resultados desfavoráveis dos transplantes, ele também mentiu em seu currículo e inventou proezas na vida social – embora fosse casado, Macchiarini propôs casamento a uma jornalista e disse a ela que o papa Francisco celebraria a cerimônia. O escândalo derrubou três membros da direção do Karolinska que se omitiram, entre os quais o vice-reitor, Anders Hamsten.

Em 2017, um novo episódio mobilizou a comunidade científica sueca. Um artigo publicado um ano antes na revista Science por pesquisadores da Universidade de Uppsala sofreu retratação depois que uma investigação independente levantou evidências de que parte dos experimentos descritos nem sequer foi realizada. De autoria dos biólogos Peter Eklöv e Oona Lönnstedt, o estudo sustentava que a poluição por microplásticos no oceano causa problemas de crescimento à fauna marinha e a deixa mais vulnerável a predadores. A dupla mentiu ao informar que tinha aval de um comitê de ética de uso de animais para fazer a pesquisa e não foi capaz de fornecer os dados originais do experimento, com a desculpa de que o notebook em que estavam armazenados fora roubado. Antes da investigação independente, a Universidade de Uppsala havia avaliado o caso e, assim como aconteceu no Karolinska, inocentara a dupla de pesquisadores, agora proibida de receber financiamento público por quatro anos. Um artigo publicado por Lönnstedt em 2014 está sendo investigado também por suspeita de manipulação de dados.

Fonte: Pesquisa FAPESP

“Vejo casos demais em que nada acontece”
Julho de 2019 | Pesquisa FAPESP

Criador do blog Retraction Watch, o jornalista Ivan Oransky conta como o combate à má conduta científica evoluiu nos últimos anos

O jornalista norte-americano Ivan Oransky já tinha vários anos de carreira quando decidiu, com o colega Adam Marcus, também especializado na área da saúde, lançar um blog sobre um tema quase obscuro: as retratações de artigos científicos. A publicação de resultados é uma parte fundamental da ciência moderna. Milhões de papers são publicados anualmente no mundo e, às vezes, esses documentos contêm erros. Para retificá-los, existem expedientes como erratas e, em casos extremos, um artigo pode ser retratado, isto é, a revista que o publicou anuncia que os resultados nele descritos são cientificamente inexistentes. Uma parcela das retratações se deve à má conduta científica, como plágio, fabricação ou falsificação de dados.

Assim nasceu o blog Retraction Watch, hoje no radar de publicações acadêmicas e jornalísticas, cientistas e pessoas interessadas em questões relacionadas às boas práticas científicas, que alcança 150 mil visitantes únicos por mês. No primeiro post, em agosto de 2010, Oransky e Marcus justificaram a empreitada. Apesar de a ciência ter importantes mecanismos de autocorreção, esse processo pode ser muito demorado. Citaram, como exemplo, os 12 anos entre a publicação do notório paper de Andrew Wakefield, que ligava autismo a vacinas e sua retratação pela The Lancet, seis anos depois que suspeitas importantes sobre o trabalho haviam sido trazidas a público por um jornalista. Em segundo lugar, argumentaram que, exceto em casos como o de Wakefield, as retratações permanecem obscuras, daí a ideia de formar um repositório informal, que evoluiu para um banco de dados, hoje com 19,5 mil retratações. Em terceiro lugar, serviria como fonte para jornalistas interessados em reportar fraudes e o mau uso de recursos, além ajudar pessoas preocupadas em corrigir condutas inadequadas na ciência. Por último, os jornalistas queriam saber se as revistas tratavam consistentemente dessa questão: quanto tempo esperavam antes de publicar uma retratação, se periódicos com poucas retratações tinham uma revisão por pares de melhor qualidade ou se os erros eram escondidos.

Oransky, 46 anos, graduou-se em biologia na Universidade Harvard em 1994, onde entrou para o jornalismo pelo The Harvard Crimson, que editou. Também se formou em medicina na Universidade de Nova York, em 1998, na qual dá aulas de jornalismo. Com uma carreira de editor, principalmente na área da saúde, em veículos de comunicação como Reuters Health, Scientific American e The Scientist, hoje é vice-presidente e diretor editorial da Medscape, organização que fornece notícias e educação continuada na internet para médicos e profissionais da saúde. Frequentemente viaja a convite para falar de seu trabalho – já esteve no Brasil quatro vezes, nas reuniões do Brispe (Brazilian Meeting on Research Integrity, Science Publication Ethics). Em Lausanne, na Suíça, para participar de um debate sobre como reportar fraudes científicas no mundo na 11º Conferência Mundial de Jornalistas Científicos, Oransky conversou com Pesquisa FAPESP sobre seu trabalho.

Como foi a reação no início do Retraction Watch? Vocês enfrentaram resistências?
Certamente teve gente desconfiada, mas sempre contatamos os autores dos artigos científicos, desde o primeiro dia. Nem sempre querem falar conosco, mas nós os procuramos, assim como as instituições, quando isso é apropriado. O problema não era o nosso método, mas mais o foco em más notícias. Não sei se as pessoas mudaram ou se nós mudamos. Se olharmos os grandes casos, como o de Stapel [Diederick Stapel, professor de psicologia social da Universidade de Tilburg, na Holanda, teve 58 artigos retratados por manipulação de dados], ou, voltando um pouco, o de Hwang [o veterinário sul-coreano Hwang Woo-suk publicou dois artigos fraudulentos na revista Science, em 2004 e 2005, sobre clonagem de embriões humanos], vemos que acontece em todos os países. As pessoas notam que esses casos, apesar de serem raros, não são incrivelmente raros, então se acostumaram a falar disso. Mesmo a editora Elsevier, que não foi retratada favoravelmente em nossas reportagens, depois de um tempo declarou que o Retraction Watch era bom para a ciência. Há uma percepção de que não falar disso significa que as pessoas confiam menos ainda em ciência. Se elas se dispõem a falar, dizer que essas coisas acontecem e as providências estão sendo tomadas para que não se repitam, isso deveria aumentar a confiança.

Isso implica que as instituições façam algo a respeito da má conduta. A sua percepção é de que isso melhorou?
Eu sei que algumas retratações melhoraram, o que é bom; e algumas universidades estão sendo mais transparentes e soltando relatórios das investigações – mas muitas ainda não. Estão sob mais pressão por conta de canais como o PubPeer [site que permite a usuários discutir e revisar artigos científicos] e nós. Hoje há jornais importantes, revistas, rádio e TV tratando desses assuntos, então é mais difícil para as universidades não fazerem nada, pois alguém vai notar. Um ponto interessante para mim é que, em alguns desses casos, as evidências de má conduta eram claras. Ninguém questionava, todos tratavam como algo menor, até haver algum acontecimento externo que expusesse o problema. Veja Anil Potti, da Universidade Duke, um caso grande [médico indiano radicado nos Estados Unidos que teve 11 artigos retratados e seis corrigidos por má conduta em pesquisa sobre tratamentos contra câncer; a universidade foi acusada de ignorar evidências de manipulação de dados em uma investigação realizada em 2010]. Todos ignoraram os indícios de má conduta até que um repórter da revista Cancer Letter recebeu a documentação de uma proposta de auxílio à pesquisa no qual Potti mentiu que havia sido um Rhodes Scholar [bolsista de programa internacional da Universidade de Oxford, no Reino Unido] e pensou que talvez ele estivesse mentindo também sobre outras coisas. E daí o novelo se desfez. Ou sobre o cirurgião italiano Paolo Macchiarini [acusado de publicar informações inverídicas em seu currículo e divulgar dados enviesados sobre o desempenho dos transplantes em sete artigos científicos, três deles já retratados]. Muitas pessoas escreveram sobre ele, mas Macchiarini conseguia se desvencilhar. Então foi feito um documentário grande na Suécia, muito bem realizado. Uma semana depois, a revista Vanity Fair publicou uma matéria com uma produtora de TV que trabalhava em um programa sobre o cirurgião e teria sido seduzida por ele, que mentiu dizendo que era cirurgião do papa, entre outras coisas. De repente, o médico passou a ser visto como um grande mentiroso. Então pensaram: talvez ele também tenha praticado má conduta. Gostaria que isso não fosse necessário. Não é que ache que não devamos expor pessoas que se comportam mal. Gostaria que fosse suficiente tratar de problemas com a pesquisa. Frequentemente não é suficiente.

Sempre ou só nesses casos com “estrelas”?
Vejo casos demais em que nada acontece. Centenas, milhares de comentários sobre problemas em artigos no PubPeer. Correspondências entre as revistas e as instituições, em que as instituições pedem retratações, as revistas não fazem nada, ou demoram dois ou três anos para reagir. Não conseguimos cobrir nem uma fração mínima, ninguém consegue. Sem a publicidade, sem a pressão do público, nada acontece.

A retratação diz mais respeito aos pesquisadores e às revistas, mas e o papel das instituições que deveriam estar coibindo esses comportamentos?
Começamos a trabalhar com C. K. Gunsalus, professora da Universidade de Illinois, para analisar os relatórios das investigações institucionais. Muitos são terríveis: não fazem as perguntas que deveriam, não respondem adequadamente às questões, não têm as pessoas certas nos comitês. Como Potti, que foi inocentado inicialmente. Só o pegaram depois da segunda investigação. Solicitamos documentos via lei de acesso à informação sempre que podemos. Publicamos no ano passado no JAMA [The Journal of the American Medical Association] um checklist sobre como investigar alegações de má conduta. Muita gente começou a usar nosso checklist para avaliar os relatórios e a usar nossa base de dados, isso é muito gratificante. É parte da solução. Podemos continuar a descrever o problema, e continuaremos, mas estamos fazendo isso há nove anos. Se pudermos ajudar com algumas soluções, ainda melhor. Talvez nossas soluções não sejam as certas, mas as pessoas precisam tentar. A conferência mundial de integridade na pesquisa é uma organização de fato, agora. O que traz seus próprios desafios. Quando se transforma em um campo em si mesmo, passa a enfrentar problemas como os outros. É interessante de se ver.

Como vocês se tornaram um banco de dados, além de um site de jornalismo?
Éramos bem conhecidos no ramo da saúde, então imediatamente começamos a produzir artigos de interesse para outros veículos, que passaram a nos entrevistar uma semana depois de lançarmos o site. Nos tornamos fonte – foi uma estratégia muito eficaz, não intencional. Isso foi na mesma época do caso Stapel. Havia muito interesse. Demos sorte. O nosso legado é o banco de dados. Só tivemos a ideia depois de quatro anos. Mantínhamos listas imensas de retratações para cobrir, mas não estávamos dando conta. No início, eram cinco, seis dúzias de retratações por ano, agora são 1.400. Quando aceitamos a ideia de que não conseguiríamos cobrir tudo, ficou muito mais fácil porque passamos a focar no que considerávamos importante. Se outras pessoas quisessem cobrir parte dos casos, ótimo. Soltamos diariamente um boletim, porque consideramos essa curadoria uma parte muito importante do que fazemos, contar para as pessoas que outras coisas estão acontecendo. Todo dia há ao menos três ou quatro itens na newsletter, às vezes cinco, dos quais apenas um é nosso. Há outras pessoas trabalhando nesse meio e consideramos parte do nosso trabalho expor nossos leitores ao que eles estão fazendo. E esperamos que façam o mesmo conosco.

Como alimentam o banco de dados? Usam inteligência artificial?
Não, é tudo manual. Temos uma pesquisadora, atualmente apenas em meio período, que fez uma tese de doutorado sobre retratação. Ela sabe mais disso do que eu. Tem de ser assim, manual, porque as editoras são muito ruins nisso.

É intencional?
Dou a eles o benefício da dúvida. Eu aviso os problemas que vejo: às vezes corrigem, às vezes pioram, ou ignoram. Muitas retratações não estão corretamente identificadas. As editoras poderiam fazer isso muito facilmente se quisessem, mas aparentemente não querem. Ou não é uma prioridade. Então tem que ser feito à mão. Se um algoritmo capturasse a maior parte dos casos, não precisaríamos do banco de dados. Poderíamos fazer a curadoria, ler e classificar, mas seria menos trabalhoso do que efetivamente encontrá-las. Dois anos atrás um programador disse que faria uma captura de casos para nós. Algum tempo depois ele voltou dizendo ter descoberto algo fascinante: a revista Annals of Surgery teria mais retratações do que qualquer outra no mundo. Não batia com o que nós víamos, então pedi para ver os dados. Em cirurgias, faz-se uma retração dos tecidos [em inglês, retraction, mesma palavra para retratação], então nessa revista de cirurgia havia uma grande incidência de papers com “retraction” no título. O trabalho não é simples, teria que refinar muito a busca. O cruzamento de dados perde muitas retratações. Queríamos que o banco de dados cobrisse tudo, que não tivesse que ser à mão, até porque temos outras coisas para fazer.

Vocês organizam e oferecem o banco de dados de retratações, fazem reportagens sobre esses temas e ainda uma curadoria sobre o que outros veículos estão publicando. Vocês procuram um equilíbrio? Os casos de má conduta dão muita leitura…
Tem que ter um equilíbrio. Por isso temos o banco de dados, fizemos a checklist, itens na categoria que chamamos de “fazendo a coisa certa”. Criamos um prêmio [DiRT Award – dirt significa sujeira, ao mesmo tempo é acrônimo para Doing the right thing, fazendo a coisa certa], geralmente concedido a cientistas honestos que retrataram artigos por erro involuntário ou por fraudes cometidas por terceiros em seus trabalhos, erros que eles quiseram corrigir. Queremos incentivar as pessoas a agirem corretamente. O perigo é quando pesquisadores fingem que isso não acontece; se noticiar esses casos têm ou não um efeito negativo sobre a percepção sobre a ciência é uma pergunta em aberto. O problema não está em acontecer coisas ruins. Está em negá-las, ou fingir que não existem. Esse é o equilíbrio que buscamos.

Nesses quase 10 anos, o que mudou no mundo da má conduta?
Em 2010, uma retratação era suficiente para render uma reportagem. Em 2014, já tinha que ser um número grande de retratações, ou uma tendência, como revisão por pares fake. Hoje em dia, é um acordo entre as partes de US$ 112 milhões. É fácil olhar para o aumento das retratações e achar que a má conduta está aumentando. Acontece que as pessoas estão olhando mais para isso. A incidência de autismo vem subindo substancialmente nos Estados Unidos e no mundo: pode estar aumentando, mas claramente isso também ocorre porque as pessoas estão prestando mais atenção nessa questão, mudou a definição. As pessoas entendem isso, e precisamos manter esse equilíbrio no Retraction Watch. Inclusive pela nossa integridade.

A parceria com a revista Science ajudou na credibilidade do trabalho? Como funciona?
Acho que mitigamos a desconfiança conosco pelos nossos métodos e também porque Adam e eu éramos jornalistas com mais de 10 anos de experiência, tempo integral. Certas comunidades já nos conheciam, confiaram na gente. Nós tínhamos – e continuamos construindo – um portfólio que não é só sobre má conduta. Para a Science, vendemos pautas como free-lancers. Eles estão interessados em histórias que nós gostaríamos de contar, com mais tempo e mais recursos, alcançar um público mais amplo. Já colaboramos mais, mas hoje estamos com menos recursos.

Como vocês organizam seu trabalho?
Já recebemos financiamento, o que nos permitia ter uma equipe, fazer mais reportagens. Hoje, somos Adam, Alison Abritis, nossa pesquisadora em regime de meio período, e eu. Adam faz boa parte dos textos, fizemos essa divisão. Eu faço a newsletter todos os dias. Amo, não parece trabalho, mas toma muito tempo e há algum estresse envolvido. A busca por financiamento é cansativa. Hoje estamos sem tempo. Eu tenho um novo trabalho, no Medscape. Mas, de alguma maneira, o Retraction Watch se tornou a minha identidade.

Para onde o Retraction Watch quer ir agora?
O objetivo é a sustentabilidade. Adam e eu podemos continuar a fazer isso de graça, foi assim que começamos, por algum tempo recebemos alguma remuneração, mas estamos de volta ao voluntariado. Tem outros custos, não muitos: o site, o banco de dados – cuja aparência é de 1988, mas mesmo assim precisa de manutenção, às vezes, novas funções – uma remuneração para nossa pesquisadora. Tudo isso é transparente, publicamos no site as fontes de financiamento e os custos. Quero chegar a um ponto em que não precisemos estar constantemente procurando financiamento. É a meta de toda organização sem fins lucrativos. Acho que estamos fazendo algo suficientemente valioso, então continuar a fazê-lo seria muito bom. Não que eu não queira fazer mais coisas. Gostaria de expandir, ter mais repórteres, entrar mais nas questões legais, que têm um potencial enorme de crescimento, advogados estão cada vez mais envolvidos nessa área. Gostaríamos de fazer uma newsletter, um website para eles. Seria poderoso. O importante é que seja sustentável. Se alguém assumisse, eu já estaria feliz. O que quero é que esse trabalho continue.

Confira a notícia aqui

Transparência em baixa
Junho de 2019 | Pesquisa FAPESP

A maioria das universidades de pesquisa de países da União Europeia vem descumprindo uma norma estabelecida pelo bloco em 2014, que determina a divulgação de resultados de ensaios clínicos até 12 meses após sua conclusão. Um levantamento divulgado em abril mostrou que foram difundidos como deveriam apenas 17% dos 940 ensaios registrados por 30 grandes universidades de pesquisa europeias. O cumprimento da regra foi maior nas três universidades do Reino Unido analisadas: 93% dos resultados de ensaios feitos pela Universidade de Oxford e o King’s College London e 81% dos do University College London foram apresentados. Já a Universidade Médica de Viena deu publicidade aos achados de apenas 7% dos 188 ensaios de que participou. A Áustria, de todo modo, saiu-se melhor do que França, Itália, Suécia e Noruega. As sete universidades desses países avaliadas no estudo não divulgaram os resultados de seus ensaios. “As grandes universidades da Europa não estão se esforçando para cumprir suas obrigações éticas, científicas e regulatórias”, diz o autor do levantamento, o cientista político Till Bruckner, que coordena o TranspariMED, grupo do Reino Unido que promove campanhas para ampliar a transparência na pesquisa médica.

Confira a notícia aqui

Punição por práticas comerciais enganosas
Maio de 2019 | Pesquisa FAPESP

A Omics International, editora de revistas acadêmicas sediada em Hyderabad, na Índia, foi condenada em uma ação movida pela Comissão Federal de Comércio (FTC) dos Estados Unidos, sob acusação de adotar políticas comerciais enganosas, que violam a legislação do país. Um juiz do estado de Nevada, onde a empresa indiana mantém um endereço postal, ordenou que a Omics pague US$ 50 milhões à FTC e abandone práticas consideradas predatórias. A principal delas é promover em território norte-americano congressos e conferências talhados para arrecadar dinheiro de pesquisadores.

Quando os eventos são anunciados, a editora convida pesquisadores da área para submeter trabalhos ou fazer palestras. Mas se eles aceitam e enviam seus manuscritos, são surpreendidos com a publicação instantânea em revistas de anais de conferências, sem que se faça uma revisão por pares autêntica. A conta, sobre a qual ninguém havia falado, finalmente aparece: os autores são cobrados a pagar taxas que alcançam milhares de dólares. E não adianta reclamar do valor e pedir a retirada dos artigos. Os pedidos são ignorados e as cobranças reiteradas. Segundo a FTC, a Omics tem o costume de listar nomes de editores que não têm nenhum vínculo com suas revistas nem sabem que estão sendo mencionados.

A editora foi criada em 2007 e publica mais de 700 periódicos de acesso aberto. Quem comemorou a condenação foi o bibliotecário Jeffrey Beall, conhecido por criar uma lista na internet com periódicos predatórios, revistas de baixa importância e reputação que publicam artigos sem qualidade em troca de dinheiro – a chamada “Lista de Beall” acabou sendo removida pelo autor para evitar ações judiciais. “Existem centenas de editores predatórios, mas a Omics é o império do mal”, disse o bibliotecário ao jornal The New York Times. O advogado da editora, Kishore Vattikoti, anunciou que vai recorrer da condenação e solicitar que o caso seja avaliado por um júri. Ele argumenta que o juiz de Nevada não poderia ter tomado a decisão sozinho. O desafio para a FTC agora é identificar bens e contas bancárias que a empresa tenha nos Estados Unidos para receber os US$ 50 milhões. Caso a Omics insista em políticas predatórias, a comissão vai pedir que suas revistas sejam removidas da internet e promete contatar hotéis e centros de convenção onde a empresa faz suas conferências para alertar sobre suas práticas.

Confira a notícia aqui

Por que autores procuram revistas predatórias?
Abril de 2019 | Pesquisa FAPESP

O que leva um autor a publicar um artigo em uma revista predatória, aquele tipo de periódico que faz avaliação frouxa da qualidade dos papers e parece mais interessado em arrecadar dinheiro do que em manter boa reputação? Em busca de respostas, a pesquisadora Tove Faber Frandsen, especialista em ciência da informação da Universidade do Sul da Dinamarca, analisou um conjunto de trabalhos científicos acerca do problema.

Em um artigo de revisão publicado em janeiro na revista Learned Publishing, ela mostra que existem dois tipos de autores que recorrem a esse tipo de revista. De um lado, há pesquisadores mal informados, em geral em início de carreira, que são atraídos pela facilidade em publicar nesses títulos, sem necessariamente se dar conta de que suas práticas são antiéticas. De outro, há os mal-intencionados, que conhecem a natureza desses periódicos e buscam inflar artificialmente sua produção acadêmica, frequentemente para obter promoções na carreira. Segundo Frandsen, autores antiéticos costumam alegar falta de atenção para justificar suas escolhas. “Mas o fato é que eles procuram ativamente um jeito de publicar artigos com menos barreiras”, disse. A pesquisadora contesta o uso do adjetivo “predatório” no caso dos mal-intencionados, porque não existiria uma vítima enganada ou capturada: há autores que sabem o que estão fazendo e buscam tirar benefícios da prática.

Embora muitas revistas predatórias sejam editadas em países como Índia e Nigéria, o uso dessas publicações não se restringe a nações em desenvolvimento. Frandsen menciona um estudo feito em 2017 por pesquisadores da Universidade de Ottawa, no Canadá, segundo o qual um número significativo de papers publicados em revistas predatórias da área biomédica tinham autores de países desenvolvidos, inclusive alguns afiliados a universidades de alto nível. Da mesma forma, cita levantamento realizado por duas emissoras públicas de televisão da Alemanha que identificou 5 mil pesquisadores do país publicando em revistas predatórias.

“Pelo menos duas abordagens diferentes para o problema são necessárias”, escreveu. Para os mal informados, as estratégias adequadas envolvem oferecer mentoria, a fim de que eles possam usar ferramentas disponíveis para avaliar a qualidade de periódicos científicos, e treinamento para que sejam capazes de atender às expectativas de revistas de alta qualidade. Já para o grupo dos mal-intencionados, a recomendação é revogar políticas de progressão na carreira baseadas na quantidade de artigos publicados e punir quem utiliza de propósito periódicos predatórios.

Confira a notícia aqui

Um algoritmo para avaliar a credibilidade de pesquisas
Março de 2019 | Pesquisa FAPESP

Pentágono quer desenvolver ferramenta capaz de predizer se são fidedignos os resultados de estudos em ciências sociais e do comportamento

O departamento de Defesa (DoD) dos Estados Unidos investirá US$ 7,6 milhões no desenvolvimento de um sistema de inteligência artificial capaz de avaliar a credibilidade de estudos em ciências sociais e do comportamento. Batizado de Score, sigla para Sistematizando a Confiança em Evidências e em Pesquisa Aberta, o programa vai durar três anos. O objetivo do Pentágono é criar uma ferramenta automatizada que atribua uma pontuação a resultados de pesquisas em disciplinas como psicologia, antropologia e sociologia, de acordo com o grau estimado de confiança. A classificação busca orientar usuários de informações científicas sobre o nível de incerteza das conclusões apresentadas.

Segundo o antropólogo Adam Russell, coordenador da iniciativa, o Pentágono com frequência aproveita evidências coletadas por cientistas sociais e psicólogos para desenhar planos relacionados a desafios de segurança nacional, construir modelos envolvendo sistemas sociais humanos e orientar investimentos. “No entanto, trabalhos empíricos recentes e meta-análises mostram que a capacidade de reproduzir ou replicar esses resultados de forma independente varia de forma dramática”, escreveu Russell, que é gerente de programas da Darpa, a agência de pesquisa do Pentágono. Ele se refere à chamada “crise da reprodutibilidade”, uma sucessão de casos de artigos científicos, sobretudo em áreas como medicina, ciências da vida e psicologia, que caíram em descrédito porque seus resultados não foram confirmados em experimentos subsequentes. Um dos escândalos envolveu Diederick Stapel, professor de psicologia social da Universidade de Tilburg, na Holanda, que teve 30 artigos retratados por manipulação de dados (ver Pesquisa FAPESP nº 190). Há três anos, uma colaboração internacional para investigar estudos de psicologia experimental só conseguiu reproduzir resultados obtidos em 36 dos 100 artigos avaliados.

O objetivo não é substituir o homem pela máquina, mas combinar o trabalho dos dois, diz o antropólogo Adam Russell.

No mês passado, a Darpa anunciou que o programa terá como parceiro o Centro para Ciência Aberta (COS), organização não governamental vinculada à Universidade de Virgínia que tem experiência em replicação de experimentos científicos. O COS tornou-se conhecido por liderar, entre 2013 e 2018, a Iniciativa de Reprodutibilidade, um esforço para avaliar se 50 potenciais medicamentos contra câncer descritos em artigos científicos tinham mesmo chance de chegar às farmácias. “Avaliações sobre a credibilidade de pesquisa podem ajudar cientistas a selecionar objetos de investigação, agências a tomar decisões sobre o que financiar e formuladores de políticas públicas a selecionar as melhores evidências”, disse o biólogo Tim Errington, pesquisador do COS.

O programa Score será dividido em quatro fases. Primeiro, será montado um banco de dados com resultados de cerca de 30 mil artigos científicos, abastecido também com evidências extraídas dos próprios papers e informações de outras fontes, como o número de citações recebidas por cada trabalho, se seus dados primários estão disponíveis publicamente e se a pesquisa foi pré-registrada – uma garantia de que não houve alteração da hipótese a ser testada durante o curso do experimento. Essa etapa terá a colaboração de pesquisadores das universidades de Siracusa e da Pensilvânia. Em seguida, 3 mil desses artigos serão selecionados e especialistas se debruçarão sobre eles, atribuindo a cada um uma pontuação sobre a possibilidade aparente de terem os resultados replicados.

A ideia é prestar atenção especial em parâmetros que se relacionam com a qualidade dos resultados, como o tamanho de amostras, eventual conflito de interesses, reputação do autor e de sua instituição, entre outros. Depois, os procedimentos usados pelos especialistas para dar pontos a cada artigo serão analisados por cientistas da computação e servirão como base para a construção de algoritmos que reproduzam de forma automática o método adotado. Por fim, times de pesquisadores tentarão refazer os experimentos dos 3 mil artigos a fim de avaliar se o algoritmo é mesmo capaz de predizer se são ou não replicáveis. “A proposta não é substituir homens por máquinas, mas encontrar a melhor maneira de combinar o trabalho dos dois”, disse Russell à revista Nature.

Há, naturalmente, o risco de fracasso. A Iniciativa de Reprodutibilidade, liderada pelo COS, mobilizou dezenas de times de cientistas e acabou gerando frutos restritos. Dificuldades para conseguir reunir condições apropriadas fizeram com que o programa se encerrasse depois de analisar menos da metade dos 50 estudos previstos. Ainda assim, de uma leva inicial de 10 estudos avaliados, apenas cinco foram considerados fidedignos – os demais chegaram a resultados inconclusos ou negativos. Adam Russell, o coordenador do Score, tem experiência em projetos com esse tipo de complexidade. Antes de trabalhar no DoD, gerenciou programas na Iarpa, agência vinculada ao escritório do diretor nacional de inteligência dos Estados Unidos especializada em projetos de alto risco envolvendo inovações. O órgão financia pesquisas em empresas e universidades envolvendo especialistas em matemática, ciência da computação, neurociência, psicologia cognitiva, entre outras.

Para o psicólogo Brian Nosek, professor da Universidade de Virgínia e líder do COS, existe a chance de que o esforço dê errado e o programa falhe em fornecer uma visão fiel sobre a credibilidade de pesquisas, caso não consiga criar um banco de dados robusto ou realizar experimentos de reprodução de alta qualidade. Mas ele considera que o risco vale a pena. “Qualquer que seja o resultado, vamos aprender muito sobre os processos da ciência e como melhorá-los.”

Confira a notícia aqui