Cientistas desenvolvem kits didáticos para estimular educação científica
29 de agosto de 2014 | em Jornal da Ciência

29 de agosto de 2014 | em Jornal da Ciência

O Ministério da Educação (MEC) deve começar a distribuir, a partir de 2015, kits didáticos às escolas públicas do ensino médio  na tentativa de estimular a educação científica em sala de aula. Inicialmente, os kits atendem às áreas de biologia, física, matemática e química.

Os aparelhos, como microscópios disponíveis em kit de Biologia para estudar organismos vivos, foram desenvolvidos por uma equipe de cientistas das áreas de física, química, biologia e matemática da Universidade de São Paulo (USP), Universidade Estadual de Campinas (Unicamp) e da Universidade Federal do Rio de Janeiro (UFRJ), que criaram um projeto piloto para produção de kits didáticos. Todos os kits possuem patentes e propriedade intelectual para evitar que sejam copiados por outros países.

Um dos responsáveis pelo projeto, o físico e Acadêmico Vanderlei Bagnato, professor titular do Instituto de Física de São Carlos (IFSC), da USP, disse que foi fechado um acordo com o MEC para o fornecimento de pelo menos 1 milhão de kits que devem ser distribuídos em 22 mil escolas do ensino médio, pelo menos. A intenção é que os kits sejam utilizados em experimentos científicos, em sala de aula, ou laboratórios que devem ser montados por cada instituição.

O setor jurídico do MEC confirma o acordo. Segundo fontes da área jurídica do Ministério, a negociação encontra-se em fase de tramitação na USP desde julho último. A previsão é de que o material comece a ser distribuído a partir do próximo ano para atender o ano letivo de 2015, na tentativa de melhorar o ensino de ciência na educação básica. Preferiram, porém, não falar sobre o volume encomendado de kits.

Na avaliação de Bagnato, os kits são "autossuficientes" para o aprendizado dos alunos. Isso porque dão informações didáticas sobre as leis básicas de vários temas e liberdade para o aluno inovar e criar ideias baseados nos conceitos estipulados no material.

Os cientistas começam também a desenvolver kits das áreas de geologia e geofísica para o ensino fundamental, ainda sem acordo fechado com o MEC. No caso da geofísica, por exemplo, a ideia é levar conhecimento prático sobre o planeta terra mostrando como funcionam as zonas climáticas, por exemplo.

Equipe de cientistas

Além do físico Vanderlei Bagnato do IFSC da USP, a equipe é formada pelo físico Moyses Nussenzveig, professor aposentado do Instituto de Física da UFRJ, e o físico Carlos Henrique de Brito Cruz, do Instituto de Física da Unicamp e diretor científico da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp). Da USP, os cientistas são Beatriz Barbuy, do Instituto de Astronomia, as biólogas Mayana Zatz e Eliana Dessen; o químico Henrique Toma; e o matemático Eduardo Colli.

A apresentação dos kits foi realizada por Bagnato em 19 de agosto, durante o II Encontro Regional de Membros Afiliados da Academia Brasileira de Ciências (ABC) na Universidade Presbiteriana Mackenzie, unidade de Higienópolis, em São Paulo (SP).

A iniciativa é considerada positiva por acadêmicos e cientistas. Na ocasião, o vice-presidente da ABC, Hernan Chaimovich, presente ao evento, defendeu a necessidade de escalonar a distribuição do projeto a fim de beneficiar todas as crianças brasileiras, superior a 22 milhões.

Por sua vez, Bagnato informou ao Jornal da Ciência que no acordo fechado com o MEC foi considerado todo o público do ensino médio de escolas públicas. Ou seja, todas escolas públicas devem receber os kits.

Bagnato acrescentou que a intenção é escalonar a produção de kits para atender a todas as escolas brasileiras do ensino médio e fundamental, fechando acordos também com escolas privadas. O custo de cada kit gira em torno de 100 reais.

Já o professor do Instituto de Química da USP, Guilherme Marson, que também participou do evento da ABC, disse que a apresentação dos kits em sala de aula aumenta o "poder de difusão" do conhecimento científico perante aos alunos. Defendeu, porém, a necessidade de formar os professores para que os frutos sejam colhidos em longo prazo. "O esforço dos kits aumenta o poder de difusão, mas é preciso formar os professores."

Para viabilizar a produção dos equipamentos, a equipe de cientistas criou um consórcio, inicialmente, com mais de 20 empresas especializadas,  sob o guarda-chuva da Educar Inovação Tecnológica LTDA, alocada em São Carlos, interior de São Paulo.

Para atender às encomendas públicas, no caso do MEC, Bagnato adiantou que o órgão, porém, terá de fazer licitação.

Treinamento de professores

Conforme Bagnato, a preparação dos professores é um requisito para o uso dos kits em sala de aula. Nesse caso, informou, será montado um programa de educação à distância para o treinamento de professores. Inicialmente, serão treinados 22 mil docentes. "É um perigo mandar kits para escolas se os professores não sabem como usá-los", avaliou  Bagnato.

O treinamento dos professores, disse Bagnato, recebeu o apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), pelo Pibid (Programa Institucional de Bolsa de Iniciação à Docência). Esse programa foi criado pela Capes para o aperfeiçoamento e a valorização da formação de professores para educação básica. Os experimentos científicos também serão demonstrados  em programas da TV Escola.

Teste nas escolas

Os kits passaram por testes em algumas escolas do País. Segundo Bagnato, foram entregues 6 mil kits a várias escolas do País, iniciativa que gerou 1,8 mil relatórios com sugestão de alunos, professores e etc. "Baseada nessas informações, a maioria dos kits já foi adequada."

Conforme o professor titular do IFSC, o desenvolvimento dos kits partiu da ideia de ressuscitar o chamado projeto Cientistas do Amanhã, da Fundação Brasileira para o Desenvolvimento do Ensino de Ciências (Fundeb) que durou décadas. "Eram kits de ciência vendidos em bancas de jornal como gibis", recorda. 

Foto: a esquerda para a direita: Eduardo Colli, Vanderlei Bagnato, Moyses Nussenzveig e Henrique Toma (em cima);
Eliana Dessen, Mayana Zatz e Beatriz Barbuy (em baixo)

Fonte: Jornal da Ciência

 

Sharing the Wealth
By Jef Akst | May 1, 2014

noticia 2

By Jef Akst | May 1, 2014

In February 2013, the US Office of Science and Technology Policy issued a memorandum to federal departments and agencies directing those that contribute more than $100 million annually to research to develop a plan for increasing public access to study findings. Data generated by federally funded research should be made “publicly accessible to search, retrieve, and analyze,” the letter read. The Fair Access to Science and Technology Research (FASTR) Act, introduced to Congress the same month, aims to codify the mandate. The European Commission has similarly recommended, and announced that it would soon require, that its member states pass policies to ensure the digital accessibility of research data supported by public funds.   

While these initiatives are being met with some resistance—the Frontiers in Innovation, Research, Science and Technology (FIRST) Act, for example, which would limit public access to federally funded research results, is also currently making its way through the US Congress—there is a clear push for widespread sharing of research findings. This attitude has driven the creation of more than 600 data repositories that enable sharing among the science community and often the public, with more than 200 of those focusing on data from the life sciences. Many universities and research institutions are launching their own repositories, while clinical data from health-care centers, Big Pharma, and even patients themselves are also being made accessible. 

“It’s becoming clearer and clearer how important it is to share,” says Harvard University’s George Church, who for the better part of the past decade has helped run the open-access Personal Genome Project (PGP), which houses the whole-genome sequences of more than 200 people and trait data on thousands more. “More data is better.” 

Unfortunately, having access to oceans of data isn’t enough. To retrieve useful information from such large data sets, researchers must also devise new analyses and creative ways to ask relevant biological questions. Some companies have developed online competitions that challenge participants to develop the best disease-prediction models or to establish research standards. Other efforts aim to build data commons that can be analyzed and updated in real time. 

“In many ways, [researchers are] using technology to bring science back towards how it used to be, where it was this very vital, living conversation among minds,” says Nathan Pearson, principal genome scientist at Ingenuity (now a division of Qiagen), in Redwood City, California, which offers web-based tools for functional annotation and comparison of genomic data and recently invited the online community to help analyze genomic data from myopia patients and healthy controls. “Along the same lines, I think it’s also important to start to speed up the idea of publishing, opening data to the community for discussion in this ongoing way.” 

“It’s really hard to accelerate research when we use methods of communication which function as if [we are] talking between two tin cans,” agrees Stephen Friend, president and cofounder of Sage Bionetworks, a Seattle-based nonprofit that provides infrastructures for sharing data and runs competitions for extracting new information from the data. “The goal [is] to be able to change how medical research is done.” 

Share and compare

Some digital repositories specialize in certain types of information, such as genomes, plasmids, or protein structures. Others, like figshare and Dryad, collect any data that researchers want to upload. Meanwhile, patients are increasingly willing to openly share information about themselves for research, and the widespread adoption of electronic health records is making anonymized data more widely available. “It’s possible to have biomedical research going on in an open, collaborative way that has up until now been very difficult to do,” says Friend. 

Last year, Sage joined forces with the Dialogue for Reverse Engineering Assessments and Methods (DREAM) to run “challenges” that provide researchers with a collection of data and ask them to design models of cancer progression, to develop standards for identifying meaningful mutations, or to find biomarkers for the early detection of disease, among other goals. The challenges run on an open platform that allows algorithms to be shared as they are created, inviting other teams to improve upon the reigning champions. 

Other groups have designed similar data challenges. Last October, researchers at Ingenuity launched the open collaborative analysis of 111 whole genomes from the Personal Genome Project and invited anyone with an Internet connection to manipulate the basic inputs of a prediction model of myopia, or nearsightedness. Though the company has received no direct submissions yet, the feedback has been positive, says Ingenuity’s Pearson. “[It] points the way to what this kind of data can do,” he says. “The question today isn’t, ‘What can my genome do for me?’ but, ‘What can our genomes do for everyone?’” 

Competition may prove particularly effective in defining various research standards. An ongoing DREAM challenge, for example, calls on competitors to refine models aimed at differentiating tumor mutations that are meaningful from those that are merely coincidental, a practice known as mutation calling. In the same vein, Steven Brenner of the University of California, Berkeley, and John Moult of the University of Maryland have organized a collection of challenges called the Critical Assessment of Genome Interpretation (CAGI), which provides genomic data sets for researchers to use in the design of models for assessing the functional significance of genetic differences. “There hadn’t been good independent evaluations of . . . [the] three dozen or more methods for looking at a given variant in the genome,” says Brenner. “The CAGI experiment was designed to try to figure out what was state-of-the-art.” 

Having run about 10 such challenges each year for the past three years, Brenner says the take-home message is, unfortunately, that no one way of analyzing genomes suffices in all circumstances. In this sense, the CAGI challenges can provide an important service to the scientific community by evaluating how well the predictors fared, and which strategy works best for a given data set or question. “We’re not looking for winners and losers so much as we’re trying to figure out what happened,” Brenner says. 

Straight from the clinic 

The increasingly common use of electronic health records (EHRs) has made a previously inaccessible trove of biomedical data available to researchers. The US Health Information Technology for Economic and Clinical Health (HITECH) Act, enacted in 2009 as part of the economic stimulus package, earmarked more than $20 billion in federal funding to subsidize the adoption of EHRs over the following decade, and Medicare and Medicaid now offer monetary incentives to health-care providers that use EHRs. 

“There’s a real increase in the availability of electronic health data, which makes it the right time to be able to think about how to use that data to do better research,” says Rachael Fleurence, a program director at the Patient-Centered Outcomes Research Institute (PCORI), which was established by the 2010 Patient Protection and Affordable Care Act. 

Many private health-care institutions are now building infrastructure to streamline the use of their data. Allowing researchers to query across a number of different hospitals or providing basic information on sample size for a given disease or drug makes it easier to assess whether obtaining the data is worth the cumbersome approval processes involved in obtaining and researching human health data. “More and more, they’re making these repositories of clinical information available for mining and doing research,” says John Brownstein of Harvard Medical School and Children’s Hospital Boston. 

In many ways, researchers are using technology to bring science back towards how it used to be, where it was this very vital, living conversation among minds.—­Nathan Pearson, Ingenuity 

Insurance companies are also beginning to release data to researchers. As part of its Research Program on Genes, Environment, and Health (RPGEH), Kaiser Permanente, in partnership with the University of California, San Francisco, has collected, and made available to qualified researchers, data on more than 400,000 Northern California patients, including genotyping information and measurements of telomere length for some of the 200,000 customers who have donated saliva or blood samples. And in February 2014, Kaiser contributed genetic and health information on 78,000 individuals averaging age 63—a data set developed with UCSF called GERA (Genetic Epidemiology Research on Aging)—to the National Center for Biotechnology Information’s Database of Genotypes and Phenotypes (dbGaP). 

Integrating data from different health-care sources will be an ongoing challenge, one to which PCORI devoted more than $100 million in December 2013. The National Patient-Centered Clinical Research Network (PCORnet) is a nationwide initiative to build and expand patient networks and collect patient data. The funds will be distributed to 11 health centers, hospitals, and other “clinical-data research networks,” as well as 18 “patient-powered research networks,” such as patient advocacy groups, with the intention of sharing the data collected by each group across the entire network. National Institutes of Health (NIH) Director Francis Collins, who serves on PCORI’s board of governors, touted the potential of PCORnet in a blog post following its public announcement: “This initiative will provide an unprecedented opportunity to streamline clinical trials, empower patients, and build a solid foundation for personalized medicine.” 

Patient participation

Citizens serve as yet another new source of abundant biomedical data at researchers’ disposal. More than 400,000 customers of personal-genomics biotech 23andMe have granted company researchers access to their data to study genomic variation underlying certain diseases. Many also contribute additional phenotypic data to support the research. The patient-networking site PatientsLikeMe similarly attracts thousands of citizens who are willing to share their data with each other, with researchers, or even with the whole world by making their profiles public. 

“This is the most enthusiastic cohort I’ve ever seen,” says Church. “[Citizens] want to participate. They want to see changes in their lives and family.” 

Church and Harvard psychologist Steven Pinker launched the PGP in 2005, when the human draft genome was only four years old and cheap sequencing was still far from reality. Today, the Boston-based initiative has about 200 full-genome sequences and 400 partials available for study, and an additional 2,000 people have contributed trait data, health records, and/or medical histories. And in the last year and a half, parallel PGPs have launched in Canada, the U.K., and Korea. The data is made freely available for research, and PGP participants must first go through an extensive consent process that includes a test to demonstrate that they understand the risks. (See “Ethical Considerations” below.) Nevertheless, Church says, the project has always attracted more participants than needed. 

Marty Tenenbaum of Palo Alto, California-based Cancer Commons is also finding patients to be a valuable data supply. In the past few years, the nonprofit company has been collecting data directly from cancer patients on their treatment and biomarkers. With a couple thousand in the database so far, Tenenbaum is now teaming up with health-care providers to get more detailed information. The long-term goal, he says, is to open the database to biostatisticians to look for patterns, then feed that information back to the patients and their doctors to help inform diagnoses and treatments. “We’ve got to find a way to capture all of the learning that happens in community oncology settings,” says Tenenbaum. 

More and more groups are now accepting data directly from the patient community. Ingenuity invites people in possession of their full-genome sequences to upload them through the Empowered Genome Community, and last fall, Sage Bionetworks announced BRIDGE, a cloud-based platform that allows patients to donate information on their health and permit its use in open research. “The goal is to try to turn anecdotes that citizens have into real signals that scientists can use as knowledge,” says Friend, who hopes to eventually run challenges on the data collected in this way. 

“If you build the right system, the patients could tell you stuff you didn’t know you were going to get,” says Paul Wicks, a research scientist at PatientsLikeMe. “It could be groundbreaking.” 

ETHICAL CONSIDERATIONS

While the idea of data sharing is for the most part accepted as an important step in science’s evolution, whether or not to do it openly remains a matter of debate. Many data repositories are open access, including GenBank, figshare, and Dryad, and many researchers advocate for the sharing of data with no restrictions. In February, the open-access publisher PLOS even mandated that, with a few exceptions, submitting authors must make their data freely available and provide a statement with their publication explaining how researchers can gain access. Databases of patient information, on the other hand, often have firewalls in place to ensure security. “We have to protect the privacy of the individuals who donate DNA data to scientific research enterprises,” says David Haussler, who helped launch the University of California, Santa Cruz’s Cancer Genomics Hub in May 2012 to collate data generated as part of the Cancer Genome Atlas. 

The goal is still widespread sharing, and for qualified researchers, the process can be as simple as submitting a proposal. At the Yale University Open Data Access (YODA) project, where Harlan Krumholz and his colleagues are collecting clinical data from willing pharmaceutical companies, there will be little in terms of peer review to assess the value of the projects. “We’re not there to be gatekeepers but facilitators,” Krumholz says of the review process. “My hope is that everybody gets approved.” 

But ensuring patient privacy may be easier said than done. Even if the data are de-identified—meaning that they lack obvious identifiers such as names, addresses, and social security and medical record numbers, as well as specific dates—it’s unlikely that information can be kept truly private, says bioethicist Arthur Caplan of the New York University Langone Medical Center. “With a high degree of certainty, [one can] deduce the identity of a person from a full genome,” he says. “So I think we may want to up the penalties on violation of privacy. But pretending like we can do it through anonymization and de-identification and delinking, I don’t know, I’m skeptical.” 

Harvard’s George Church felt the same way when he helped launch the Personal Genome Project (PGP) in 2005. So he put the focus on educating would-be participants, developing a thorough consenting process that teaches patients how “their identities can be easily associated with their genetic, medical, and trait data,” a risk they must demonstrate they understand and accept in order to qualify, Church says. “PGP emphasizes that current forms of ‘de-identification’ create the allure of false security for the patients and threats of punishment for scientists who share, intentionally or accidentally.” 

Steven Brenner of the University of California, Berkeley, chair of the Critical Assessment of Genome Interpretation (CAGI), agrees that caution is required. “We need to think hard about models of collecting and disseminating data that either better protect or better inform [patients] and which give researchers greater access to data to actually do the research.” 

From: The Scientist 

Especialista recomenda revisão de normas sobre exposição a mercúrio
Por Viviane Monteiro | 20 de agosto de 2014

A exposição ao metal tóxico em níveis elevados pode provocar danos irreversíveis à visão, com prejuízos à retina

exposicao ao mercurio

Por Viviane Monteiro | 20 de agosto de 2014

As normas internacionais relacionadas à exposição humana ao vapor do mercúrio em ambientes de trabalho estão ultrapassadas e precisam ser revisadas para conter casos de intoxicação de trabalhadores ao metal tóxico.

 

A recomendação é da pesquisadora Dora Ventura, do Departamento de Psicologia Experimental do Instituto de Psicologia da Universidade de São Paulo (USP) e vice-presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC), em palestra proferida nesta terça-feira, 19, no 2º Encontro Regional de Membros Afiliados da Academia Brasileira de Ciências (ABC), na unidade do Makenzie, em Higienópolis, São Paulo. 

“O sujeito que está exposto cronicamente (ao mercúrio) fica numa situação em que as normas não são seguras. São ditas seguras, mas não são”, disse Dora que discorreu sobre o tema: Impactos da exposição ao mercúrio na visão humana.

Com base nos parâmetros internacionais, a legislação brasileira estabelece o limite de 35 microgramas por gramas de mercúrio (35 μg de Hg/g) na urina do trabalhador exposto ao metal tóxico no ambiente de trabalho.

Embora toda população esteja potencialmente exposta ao mercúrio encontrado no meio ambiente, o risco maior ocorre no ambiente de trabalho nas indústrias de cloro-álcali; aparelhos de medição de uso doméstico, clínico e industrial como termômetros (temperatura), esfignomanômetros (pressão sangüínea), barômetros (pressão); lâmpadas fluorescentes; interruptores elétricos e eletrônicos (interruptores de correntes); e instrumentos de controle industrial (termostatos e pressostatos). 

Perda de visão 

A exposição ao metal tóxico em níveis elevados pode provocar danos irreversíveis à visão prejudicando a retina e o córtex visual, além de outros alvos do organismo, segundo informações de Dora, que fundou o Laboratório da Visão da USP, em 1990, dedicado à pesquisa aplicada em psicofísica e eletrofisiologia visual clínica para o estudo de doenças neurodegenerativas do sistema visual.

Durante 10 anos, aproximadamente, Dora pesquisou, com outros pesquisadores, o impacto do mercúrio em um grupo de 120 trabalhadores aposentados por invalidez em razão da intoxicação mercurial de duas indústrias de lâmpadas fluorescentes, em São Paulo. Todos os trabalhadores foram submetidos a testes de visão e grande parte deles teve perdas visuais de forma irreversível. Ou seja, tiveram prejuízos na visão de cores e de contrastes, assim como o campo visual. 

Além da exposição humana ao mercúrio, os pesquisadores estudam outras doenças que afetam o sistema visual, como diabetes, doenças neurológicas e outras. 

“Na indústria de lâmpadas florescentes que a gente estudou o descaso com a exposição ao mercúrio era total. Depois que alguns indivíduos ficaram muito intoxicados e começaram a se aposentar por invalidez e o episódio começou a virar um escândalo, as empresas começaram a ter mais cuidado e buscar proteção”, disse Dora, preferindo não citar o nome da empresa até porque a intenção do grupo é gerar dados científicos e não denunciar empresas. 

No geral, segundo entende a pesquisadora, os níveis de exposição ao mercúrio estabelecidos nas normas brasileiras e internacionais não são seguros. No caso do Brasil, disse, existem vários trabalhadores em situação de risco em empresas de lâmpadas florescentes, além de outros segmentos nos quais o mercúrio é utilizado. 

Para a pesquisadora, os métodos de avaliação utilizados em sua pesquisa são mais sensíveis do que aqueles utilizados na elaboração das legislações sobre a exposição do mercúrio, em 1994. 

“Nossos testes são muitos sensíveis e modernos, desenvolvidos com técnicas computacionais bem avançadas. São instrumentos melhores do que os usados na época em que as normas foram definidas,” comparou. 

Riscos em outras áreas 

Outro risco da exposição ao mercúrio ocorre nos consultórios odontológicos e na extração do ouro, o que acarreta prejuízos consideráveis ao meio ambiente. 

No caso de consultórios odontológicos, a amálgama feita com mercúrio para fechar uma cavidade dentária ainda é o melhor método considerado pelos dentistas, apesar de riscos de intoxicação. A máscara utilizada pelos profissionais, conforme Dora, é insuficiente para impedir a intoxicação que acontece pela inalação do vapor do metal tóxico. “O pior momento é quando se usa o motorzinho para retirar a obturação porque a temperatura aquece a liga e libera o vapor de mercúrio.” 

Foto: Dago Nogueira 

Fonte: Jornal da Ciência

Cientistas recomendam melhoria do projeto sobre acesso ao patrimônio genético
Por Viviane Monteiro | 13 de agosto de 2014

Projeto de lei tramita em caráter de urgência. SBPC pede audiências públicas para aperfeiçoar texto.

patrimonio geneticoPor Viviane Monteiro | 13 de agosto de 2014

Em defesa do aperfeiçoamento da proposta que regulamenta o acesso ao patrimônio genético, a proteção e o acesso ao conhecimento tradicional associado para fins de pesquisa e desenvolvimento tecnológico, a comunidade científica pede cautela na tramitação do Projeto de Lei (PL) no 7735/2014, que tramita em caráter de urgência constitucional no Congresso Nacional. Isso significa que a Câmara dos Deputados e o Senado Federal têm 45 dias, cada um, para analisar o texto. Após esse prazo, o projeto tranca a pauta dos plenários.

A proposta do Palácio do Planalto foi encaminhada ao Congresso no fim de junho último. Trata-se de um assunto complexo que envolve várias áreas de interesses. Dentre as quais, empresas, de olho no desenvolvimento tecnológico e na elaboração de produtos com viés econômico, e pesquisadores.

Interessa também a povos indígenas e comunidades tradicionais, detentores de conhecimentos sobre o uso de plantas para fins medicinais, de cosméticos ou de outra natureza. Esses conhecimentos geralmente despertam o interesse de indústrias farmacêuticas e de cosméticos para elaboração de produtos com maior valor agregado. Aliás, esse é um dos motivos pelos quais órgãos internacionais recomendam a proteção desses conhecimentos na tentativa de evitar que sejam explorados indevidamente pelo setor industrial.

Na prática, o PL 7735 prevê a substituição parcial da medida provisória (MP) nº 2.186-16 de 2001 que regulamenta a chamada Convenção sobre Diversidade Biológica (CDB), acordo internacional aprovado durante a ECO-92, Conferência das Nações Unidas sobre Meio Ambiente e Desenvolvimento (CNUMAD), realizada em 1992. Tal acordo precisa ser regularizado por leis nacionais. Vale lembrar que essa legislação não envolve o patrimônio genético humano.

A substituição da medida provisória  é parcial porque a parte relacionada ao acesso ao patrimônio genético ou conhecimento tradicional associado para alimentação e agropecuária, seja para fins  de pesquisa científica, bioprospecção ou desenvolvimento tecnológico, permanece regulada pela MP, uma das críticas ao projeto.

Falhas no projeto

Apesar de reconhecer avanços significativos no projeto de lei, a antropóloga Manuela Carneiro da Cunha, membro da Academia Brasileira de Ciências (ABC), aponta “falhas consideráveis” em relação à proteção dos direitos de povos indígenas e de comunidades relacionadas aos conhecimentos tracionais.

Isso porque o texto não prevê uma distribuição “equitativa e justa”, seja monetária ou não, em eventuais benefícios derivados de produtos desenvolvidos a partir de conhecimentos tradicionais, ignorando pontos da CDB e da Convenção 169, da Organização Internacional do Trabalho (OIT) sobre Povos Indígenas e Tribais, em vigor no Brasil desde 2003.

Conforme reforça Manuela, a CDB estabelece a necessidade de um consentimento “prévio e fundamentado” dos povos indígenas e comunidades tradicionais para o acesso ao conhecimento tradicional, além da “repartição justa e equitativa” de eventuais benefícios, em “termos mutuamente acordados”.

“No projeto de lei, porém, vários dispositivos ignoram esses direitos. Entre eles, o fato do pesquisador prescindir do consentimento informado para iniciar a pesquisa; do usuário poder simplesmente decidir sozinho a forma monetária ou não da repartição de benefícios; e na fixação em lei de percentagens de repartição de benefícios que não respeitam nem a especificidade de cada caso, nem a busca de ‘termos mutuamente acordados’”, pontua Manuela, professora aposentada da Universidade de São Paulo (USP) e professora emérita da Universidade de Chicago, em documento – encaminhado à Associação Brasileira de Antropologia (ABA) – assinado com Juliana Santilli, promotora de justiça do Ministério Público do Distrito Federal e Territórios.

Em defesa de um consenso entre as partes envolvidas no PL 7735, a antropóloga sugere incluir no projeto de lei a participação efetiva de povos indígenas e comunidades quilombolas e tradicionais no Conselho de Gestão do Patrimônio Genético (CGEN), presidido pelo Ministério do Meio Ambiente (MMA), na Gestão do Fundo Nacional de Repartição de Benefícios e no desenvolvimento do Programa Nacional de Repartição de Benefícios.

Posição da SBPC

Reforçando tal posicionamento, a Sociedade Brasileira para o Progresso da Ciência (SBPC) considera fundamental ampliar as discussões sobre a proposta e o aperfeiçoamento do PL 7735. Com essa visão, a sociedade científica encaminhou, em julho último, carta à presidente Dilma Rousseff solicitando a retirada de caráter de urgência da tramitação do projeto de lei. Até agora, o pedido não foi atendido.

Na carta, a SBPC reconhece avanços significativos no PL, mas alerta que a tramitação do texto deve permitir audiências públicas com a participação da comunidade científica e de outros representantes da sociedade impactados pelo tema. E assim, permitir uma análise mais cuidadosa do PL e seu aperfeiçoamento.

Para a SBPC, a legislação brasileira deve estimular a pesquisa científica, o desenvolvimento tecnológico e a inovação “com a nossa imensa” biodiversidade. Deve também reconhecer e proteger os conhecimentos tradicionais dos quais os povos indígenas e comunidades são detentores, trazendo benefícios para toda a sociedade brasileira.

Dentre os avanços no PL 7735, cientistas destacam o ponto que institui o cadastro eletrônico para os pesquisadores. Hoje as regras exigem autorizações prévias do CGEN. “Essa medida, que suprime a necessidade de autorização prévia, tende a desonerar e agilizar as pesquisas sobre a biodiversidade brasileira”, diz Manuela.

Tramitação

A tramitação do PL depende de uma Comissão Especial para analisar as emendas parlamentares, que até o dia 11 de agosto somam 137. No momento, o PL está parado na Câmara, aguardando a instalação da Comissão que, por sua vez, depende da indicação de membros pelos partidos. Faltam apenas indicações de dois partidos, entre elas, a do próprio partido do governo, o PT. A partir desta segunda-feira, 11/08, o PL passa a trancar a pauta do Plenário da Câmara.

Fonte: Jornal da Ciência

Certification No Guarantee of Animal Welfare
By Kerry Grens | August 26, 2014

noticia coelho

A report from an animal rights group finds accredited labs violate animal welfare rules more often than non-accredited facilities.

By Kerry Grens | August 26, 2014

 

Organizations accredited for abiding by certain standards of care for their laboratory animals had more violations than institutions that didn’t have such accreditation, according to a study presented at the 9th World Congress on Alternatives and Animal Use in the Life Sciences this week (August 25).

 

“Accreditation has become more of a PR [public relations] tool than a meaningful oversight mechanism,” coauthor Justin Goodman, a director at People for the Ethical Treatment of Animals (PETA) and an adjunct instructor of sociology at Marymount University, told Science. “You certainly can’t say that animals are better off in these facilities.”

 

Research facilities pay the Association for Assessment and Accreditation of Laboratory Animal Care International (AAALAC) to accredit them for complying with the Animal Welfare Act. Goodman and his colleagues analyzed inspection reports from the US Department of Agriculture, including more than 800 facilities visited by the federal agency between 2010 and 2011. Accredited organizations were more likely to end up with a violation than non-accredited organizations, Goodman’s team found.

 

AAALAC’s Executive Director Christian Newcomer told Science the data were inappropriate because accredited facilities are often larger and perform more complex work than non-accredited ones. Regardless, “I can guarantee this study will generate discussion within AAALAC,” he said. “It won’t be discounted just because it was conducted by PETA.”

According to PETA, Goodman’s report will appear in the Journal of Applied Animal Welfare Science in September.

 

From: The Scientist