Notícias

Jornal Eletrônico da SBPC/PE #10 Ano: 2

Estrela inativaEstrela inativaEstrela inativaEstrela inativaEstrela inativa
 

 

 


 

Notícias:

ELEIÇÕES NA SBPC: VOTAÇÃO VAI ATÉ O PRÓXIMO DIA 20!

PALESTRA NA ACADEMIA PERNAMBUCANA DE CIÊNCIAS (APC): “MEDINDO O TEMPO ATRAVÉS DOS TEMPOS”

ESPAÇO CIÊNCIA PARTICIPOU DE BATISMO DO ASTEROIDE ITACURUBA.
Site do Espaço Ciência

ASSOCIAÇÃO DOS ENGENHEIROS DE PESCA DE PERNAMBUCO ALERTA DOS PREJUIZOS CAUSADOS COM AS ENCHENTES DA MATA SUL E A ESTIAGEM PROLONGADA NO ESTADO, SUGERINDO INVESTIMENTO COMPENSATÓRIO      
Rodolfo Rangel*

TEREMOS PROFESSORES NO FUTURO?
Priscila Cruz, UOL Educação

BRASIL NA ZONA DO REBAIXAMENTO EM RANKING DE COMPETITIVIDADE
BBC

PARCERIA ENTRE UNIVERSIDADE E INDÚSTRIA PRODUZ GANHOS PARA TODOS
Agência Fapesp

A MIOPIA DOS INDICADORES BIBLIOMÉTRICOS
Lilian Nassi-Calò*, SciELO em Perspectiva

EXEMPLO DE UMA EQUAÇÃO MATEMÁTICA
Marcelo Viana - UOL Educaçãol

TECNOLOGIA DA IBM PERMITE CHIPS DE 5 NANÔMETROS COM 30 BILHÕES DE TRANSISTORES
Gustavo Sumares, Olhar Digital

UNIVERSO CURVO MINA TEORIA DA RELATIVIDADE
Site Inovação Tecnológica

ÁGUAS EM DISPUTA (RIO SÃO FRANCISCO)
Maíra Mathias, Revista POLI, Saúde, Educação e Trabalho – Ano IX, n. 51 – mai./jun. 2017

BOLO DE ANIVERSÁRIO DE CINCO ANOS DO NOVO CÓDIGO FLORESTAL É AGRIDOCE
Por Vicente Gomes da Silva e Fabio M. Ferreira, Consultor Jurídico

ENTIDADES DEFENDEM VETO DE MEDIDAS PROVISÓRIAS QUE ALTERAM LIMITES DE FLORESTA E PARQUE NA AMAZÔNIA
Ecodebate

DESASTRES CLIMÁTICOS ABREN DEBATE SOCIOAMBIENTAL EN AMÉRICA LATINA
Fabiana Frayssinet, Inter Press Service Agencia de Notícias

RISE OF THE MACHINES: WHO IS THE ‘INTERNET OF THINGS’ GOOD FOR?
Adam Greenfield, The Guardian

PUT SCIENCE ON THE FRONTLINE IN EMERGENCIES
Anita Makri, SciDev.Net

PRÊMIO RICARDO FERREIRA AO MÉRITO CIENTÍFICO: CIÊNCIAS HUMANAS, LETRAS E SOCIAIS, EDIÇÃO 2017
Facepe

 


 

ELEIÇÕES NA SBPC: VOTAÇÃO VAI ATÉ O PRÓXIMO DIA 20!

Ao sócio ativo, a recomendação é que vote o quanto antes e avise aos seus colegas que a votação está em andamento
A votação das eleições 2017 na SBPC vai até o próximo dia 20 de junho. Ao sócio ativo, a recomendação é que vote o quanto antes e avise aos seus colegas que a votação está em andamento.
Caso não tenham recebido a cédula, os sócios ativos podem acessar o site da SBPC e solicitar login e senha ou entrar em contato, pelo e-mail:

Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo. ou pelo telefone (11) 3355.2130.

Mais informações sobre o processo eleitoral estão disponíveis no site da SBPC: http://portal.sbpcnet.org.br/eleicoes-2017/

Participe!
SBPC

 


PALESTRA NA ACADEMIA PERNAMBUCANA DE CIÊNCIAS (APC): “MEDINDO O TEMPO ATRAVÉS DOS TEMPOS”

A APC tem a grata satisfação de convidar V.Sa. para a reunião de 17 de junho de 2017 (sábado), às 9h30m no Círculo Militar do Recife situado na Avenida Agamenon Magalhães, Boa Vista, com estacionamento interno.

Palestra: “MEDINDO O TEMPO ATRAVÉS DOS TEMPOS
A palestra tratará de como as medidas do tempo e os relógios avançaram ao longo dos anos.

Palestrante: JOSÉ ANTÔNIO ALEIXO DA SILVA
Engenheiro Agrônomo (UFRPE), MSc em Mensuração Florestal (UFV-MG), PhD e Post-doctor em Biometria e Manejo Florestal (Universidade da Georgia UGA-USA), Visiting Professor da Universidade da Georgia-USA e da Universidade Técnica de Berlin-Alemanha. Membro da Academia Pernambucana de Ciências, Academia Pernambucana de Ciência Agronômica e Academia Brasileira de Ciência Agronômica, Diretor da Sociedade Brasileira para o Progresso da Ciência (SBPC), Pesquisador 1C do CNPq e Professor Titular do Departamento de Ciência Florestal da UFRPE.

***


ESPAÇO CIÊNCIA PARTICIPOU DE BATISMO DO ASTEROIDE ITACURUBA.
Site do Espaço Ciência


Foto: OASI/Impacton


A sexta-feira (02) foi uma data marcante para o projeto de consolidação do município de Itacuruba como Polo Astronômico. Nesta data, as pesquisadoras Daniela Lazzaro e Terezinha de Jesus Alvarenga, do Observatório Nacional, estiveram na cidade para entregar a placa de “batismo” do asteroide 10468, que passou se chamar Itacuruba.

O Ciência Móvel, projeto itinerante do Espaço Ciência, também esteve em Itacuruba durante todo o dia junto com a Caravana Notáveis Cientistas de Pernambuco e o Planetário Inflável. A equipe da Universidade Federal Rural de Pernambuco, com o projeto “Desvendando o Céu Austral” coordenado pelo astrônomo Dr. Antonio Carlos Miranda, promoveu uma oficina alegre e educativa de montagem e lançamento de foguetes, além de observações astronômicas na Praça Central da cidade.

“Com essa conquista, Itacuruba leva para o mundo uma vocação e patrimônio raros. Levar o Espaço Ciência, por meio do Ciência Móvel, a Itacuruba e outras cidades do interior do Estado faz parte da nossa estratégia de Ciência, Tecnologia e Inovação, que visa promover o conhecimento e a disseminação da Ciência como instrumento transformador”, diz a secretária de Ciência, Tecnologia e Inovação de Pernambuco, Lúcia Melo.

Ocorreram visitas ao Observatório Astronômico do Sertão de Itaparica (OASI), guiadas pelas pesquisadoras Terezinha e Daniela. As pesquisadoras coordenam o chamado projeto IMPACTON que, desde a implantação do OASI, entre 2003 e 2004, analisa e monitora asteroides, sobretudo os que oferecem maior risco ao planeta.

O PROJETO – O ano de 2011 marca a primeira observação feita pelo OASI. Desde então, ele tem se destacado mundialmente. No ano passado, recebeu certificado da ESA (Agência Espacial Europeia) por ter sido o único a observar um asteroide que passou próximo à Terra. O telescópio do OASI é o segundo maior telescópio em solo brasileiro, perdendo somente para o observatório do Pico dos Dias em Brasópolis/MG.

O asteroide 10468, descoberto em 1981, ganhou o nome de Itacuruba durante o congresso científico “Asteroids, Comets, Meteors – ACM”, no Uruguai, como uma homenagem “aos moradores da cidade” onde se desenvolve o projeto. “A palavra Itacuruba provém do tupi itakuruba, que significa grão de pedra, seixo. A composição de itá (pedra) e kuruba (grão) nos remete às partículas de asteroides e cometas”, ressalta o diretor do Espaço Ciência, Antonio Carlos Pavão.

O agora denominado asteroide Itacuruba está localizado no cinturão principal de asteroides, região do Sistema Solar entre os planetas Marte e Júpiter. Tem um período orbital de 3,58 anos em torno do Sol e um tamanho estimado entre 2 a 5 km de diâmetro.

A solenidade de batismo aconteceu às 16 horas, quando o prefeito Bernardo Ferraz recebeu das mãos das pesquisadoras, a placa comemorativa. Antonio Carlos Pavão, diretor do Espaço Ciência, e Alexandre Stamford, representante da SECTI (Secretaria Estadual de Ciência, Tecnologia e Inovação) também esteve acompanhando a solenidade. Nesse momento, também foi lançado um concurso para estudantes da cidade sobre o Asteroide.

Fechando a programação, as coordenadoras do IMPACTON ministram palestra para os presentes sobre o projeto, o OASI e o Asteroide Itacuruba.

 



ASSOCIAÇÃO DOS ENGENHEIROS DE PESCA DE PERNAMBUCO ALERTA DOS PREJUIZOS CAUSADOS COM AS ENCHENTES DA MATA SUL E A ESTIAGEM PROLONGADA NO ESTADO, SUGERINDO INVESTIMENTO COMPENSATÓRIO      
Rodolfo Rangel*

A conclusão da única obra de barragem de contenção de chuvas e prevenção de enchentes em Palmares, a barragem de Serro Azul, não foi suficiente para evitar mais uma vez uma catástrofe na região. As outras obras de Igarapeba, Panelas e Guabiraba, que completavam um conjunto de ações para evitar as catástrofes ambientais que se repetem na história, foram paralisadas em 2015, devido principalmente a falta de compromisso assumindo pela contrapartida do Governo de Pernambuco, frustrando a expectativa gerada da gestão governamental pelo povo guerreiro da mata Sul que precisa além da continuidade dessas obras para construção dessas barragens de contenção de enchentes, evitando novas catástrofes nos próximos anos, para não voltar a prejudicar milhares de agricultores e pescadores, necessita também de uma gestão complementar de recuperação e desenvolvimento da aquicultura familiar e apoio a pesca artesanal local, com investimentos governamentais em assistência técnica com reparos de viveiros com serviços de terraplanagem no movimento de terra e implantação de sistema de drenagem de viveiros e custeio com alevinos, pós-larvas e ração na ordem de oito milhões de reais  a partir de agosto próximos.

Para ter uma ideia as últimas enchentes ocasionadas na zona da mata Sul de Pernambuco, trouxeram prejuízos incalculáveis para a agropecuária. Somente no setor da aquicultura, com criação de organismos aquáticos de peixes e camarão de água doce, presume-se que cerca de 6 % da produção do Estado, ou seja próximo a um mil e quinhentas toneladas de pescado/ano, tenha sofrido prejuízos na atividade de cultivos, na aquicultura continental. Isto representa para o setor um prejuízo direto de dez milhões de reais com perda de pescado, causando prejuízos diretos a mil e quinhentos produtores da aquicultura familiares e auxiliares.  

Hoje no estado de Pernambuco, pressupõe-se que exista cerca 1300 estabelecimentos em atividades de viveiros na aquicultura familiar e de médio e grandes produtores de peixes e/ou camarão de água doce com diferentes perfis tecnológicos. Cerca de 400 desses, estão na zona da mata Sul e adjacência de Pernambuco, onde predomina a atividade de aquicultura familiar em viveiros com abrangência média de 1/10 do hectare de espelho d’água, com apoios municipais, e na maioria das vezes do Programa de Aceleração do Crescimento do Governo Federal na aquisição de tratores de tipo retroescavadeira, e bem orientados por profissionais habilitados da Engenharia de Pesca da Secretaria Executiva de Agricultura Familiar na construção de viveiros.

Existe a necessidade de aporte de recursos financeiros para continuar as ações de expansão e reparos nas construções de viveiros familiares, sobretudo, nos municípios que tem vocação para crescimento da aquicultura familiar, em destaque em: Catente, Palmares, Amaraji, Belém de Maria, Gameleira e Quipapá, além dos municípios adjacentes:  Escada, Serinhaém, Cabo, Ipojuca, Rio Formoso e Barreiros.

Paradoxalmente, a gestão climática ocorrida pela estiagem prolongada no Estado, trouxe consequências negativas na produção da  pesca artesanal continental nesses últimos seis anos, que houve perdas de cerca de 8% da produção, acumulando um  prejuízo a pescadores artesanais de dez milhões de reais representando perdas de duas mil toneladas pescado/ano, representando a uma desocupação da mão de obra da classe  trabalhadora das comunidades tradicionais, que exercem a atividade de subemprego em cerca de três mil pescadores e pescadoras  .

Também a gestão governamental, deve se preparar para um momento posterior que atinja a normalidade hídrica nos reservatórios, com a inclusão da  gestão da pesca  continental em todo Estado, povoando aqueles ambientes hídricos  que estejam saindo do colapso,  e a médio prazo,  adquirir e repovoar esses ambientes com sete milhões de alevinos de espécies tambaqui , curimatãs, tilápias oriundas da reprodução natural  e  espécies sanitárias com carpa prateada, cabeça grande e carpa chinesas e cerca de quinhentas canoas, apetrechos de pesca, valorizando a pesca artesanal continental com uma estimativa orçamentária Estimado de seis milhões de reais.  

Em função das catástrofes ambiental das enchentes e da estiagem prolongada no semiárido, ocorreram perdas consideráveis de três mil toneladas de pescado na pesca e aquicultura nos últimos anos, existe a necessidade orçamentária de um investimento compensatório próximo a quatorze milhões de reais.

Finalmente, existe viabilidade econômica, social e ambiental na atuação de recuperação da pesca e aquicultura em Pernambuco ocasionada pelas enchentes da mata sul e o período prolongado da estiagem no Estado, gerando cerca quatro mil toneladas de pescado/ano recuperando quatro mil e quinhentos mil empregos diretos e indiretos e gerando renda no equivalente a cerca de vinte milhões de reais/ano em Pernambuco.
                  
*Rodolfo Rangel, Presidente da AEP-PE - Associação dos Engenheiros de Pesca de Pernambuco



TEREMOS PROFESSORES NO FUTURO?
Priscila Cruz, UOL Educação, 07.06.2017

Quando eu era criança, tínhamos aquela ideia de que os anos 2000 viriam acompanhados de carros voadores, teletransporte e todas aquelas parafernálias domésticas que víamos no desenho dos Jetsons. Essa ideia de um futuro repleto de robôs fez – e ainda faz! – parte do imaginário de muita gente. Quem nunca ouviu dizer que as máquinas substituiriam os professores em sala de aula e que logo, logo, não precisaríamos de seres humanos ensinando?

Enfim, estamos em 2017, e, mesmo com o rápido avanço da educação à distância, essas imagens tecnológicas de uma escola quase artificial não se tornaram realidade. Por duas razões: primeiro porque não há tecnologia que substitua um bom professor e porque nosso problema não é o fato de as máquinas substituírem gente, mas sim a falta de seres humanos na docência. A primeira razão vai merecer outro texto aqui neste espaço. Quero falar aqui da segunda.

A crônica falta de atratividade da carreira de professor está fazendo com que cada vez menos jovens invistam nela como futuro profissional, comprometendo, consequentemente, o futuro da educação brasileira e do próprio país.

A questão é complexa. Uma pesquisa do professor José Marcelino de Rezende Pinto, da Universidade de São Paulo (USP), divulgada há três anos, mostra que o número de pessoas que ingressam nos cursos de formação docente do Ensino Superior no país seria suficiente para suprir a demanda de professores na Educação Básica – porém, o que falta é interesse em lecionar (saiba mais aqui). Temos profissionais suficientes para ocupar vagas em todas as disciplinas (com exceção de física) nas escolas de todo o Brasil, porém as condições da profissão repelem grande parte dos potenciais docentes. Ou seja: mesmo com o diploma em mãos, o professor escolhe outro caminho profissional em detrimento de estar em sala de aula.

Vale destacar que o problema, no entanto, não é só nosso. Na semana passada, na Inglaterra, pude conversar com vários especialistas justamente sobre esse tema. As pesquisas internacionais mostram que os ingleses estão diante de uma crise de recrutamento de professores que se agravou nos últimos quatro anos, de acordo com um relatório do Câmara dos Comuns do Parlamento (equivalente à Câmara dos Deputados no Brasil) – veja.

Outro relatório do governo indica que 29% das 1.055 vagas para formação em física não foram preenchidas entre 2015 e 2016.

Uma das consequências é a superlotação das classes inglesas, realidade que conhecemos muito bem aqui no Brasil, especialmente nas grandes cidades. Um estudo divulgado em março pela Association of School and College Leaders sobre a crise de financiamento na área mostra que a média de alunos por turma vem subindo com a queda de número de docentes – veja.

Os efeitos disso nós estamos quase cansados de saber: alunos sem professor em algumas disciplinas ou assistindo às aulas de um docente não formado na matéria que leciona.

Hoje, no Brasil, 46,3% dos professores do ensino médio lecionam conteúdos de uma área na qual não se formaram. É praticamente metade dos 494 mil docentes que atuam na etapa em escolas públicas e privadas. Os dados do Censo Escolar 2015 tabulados pelo movimento Todos Pela Educação (disponíveis no Observatório do PNE) também mostram que um terço (32,3%) só dá aulas justamente de matérias nas quais não é diplomado. O pior é que o quadro não muda há anos. Desde 2012, estamos estagnados.
Na Inglaterra é diferente? Nada disso. Os dados mostram que a taxa de professores temporários em escolas públicas duplicou entre 2011 e 2014 (de 0,5% para 1,2%), tamanha a dificuldade para encontrar professores. Dados da Association of School and College Leaders mostram ainda que três em cada quatro diretores estão pedindo para que os professores passem a dar aulas de disciplinas em que não são especialistas. No caso específico das aulas de física, o número de aulas ministradas por professores sem formação na área aumentou de 21% para 28% entre 2010 e 2014 no país. Outros dados dão conta de que muitos docentes têm deixado a Inglaterra para lecionar em outros países – saiba mais.

Brasil, Inglaterra. Tão diferentes e enfrentando o mesmo problema, cujas raízes são as mesmas. Por que não há professores tanto em terras britânicas como brasileiras? A primeira coisa que vem em mente quando perguntamos isso é: `Ah, mas o salário do professor é muito baixo... É claro que ninguém quer seguir essa profissão!`. É a mais pura verdade: nossos docentes recebem em média o equivalente à metade (52,5%) do salário dos outros profissionais de nível superior. Em reais, para ficar bem claro: enquanto os docentes da rede pública têm média salarial de R$ 3.846,40, um advogado, engenheiro ou qualquer outro diplomado recebe em média R$ 7.325,10.

O problema, porém, é muito mais complexo do que apenas a questão salarial. Os jovens respondem: embora 37,6% dos estudantes de ensino médio já tenham pensado em seguir carreira no magistério, 23,5% já desistiram da ideia. E por quê? Porque reconhecem que os alunos não respeitam os professores (20,9%) e também porque acreditam que a sociedade não valorize a profissão (14,2%). O salário, é claro, também afasta: 17,7% dos jovens acham a remuneração inicial muito baixa. Os dados são da pesquisa Repensar o Ensino Médio – veja.

O diagnóstico foi feito, e está na boca daqueles que seriam os futuros professores: a juventude. É preciso o entendimento da sociedade brasileira de que o professor é o profissional-chave para o desenvolvimento do país. Tal expectativa precisa ser criada para que tenhamos políticas públicas que atendam a essa demanda fundamental, observando a estrutura da formação inicial, a qualidade da formação continuada e as condições de trabalho que, sabemos, são precárias.

Se essas providências não forem tomadas com urgência, no andar dessa grande carruagem chamada Brasil, a resposta para a pergunta que dá título a essa coluna pode não ser positiva. Precisamos de mais professores – e, para isso, precisamos que mais jovens queiram abraçar essa profissão essencial, dando-lhe o valor transversal que ela tem para o desenvolvimento da nossa sociedade.

 


 

BRASIL NA ZONA DO REBAIXAMENTO EM RANKING DE COMPETITIVIDADE
BBC -  02/06/2017

O Brasil está próximo da lanterna da competitividade global, de acordo com um relatório compilado pela Fundação Dom Cabral, em parceria com o instituto suíço IMD.

Segundo o levantamento anual, apenas Venezuela e Mongólia estão em situação pior do que o Brasil.

O país está na 61ª posição dentre as 63 economias avaliadas. De acordo com o diretor do estudo, o professor Arturo Bris, a piora no desempenho deve-se à crise política no país. Em 2016 o Brasil figurava na 57ª posição, mas caiu quatro pontos porque seus indicadores políticos e econômicos pioraram.

No topo do ranking estão Hong Kong e Suíça, já haviam garantido o primeiro e segundo lugar na edição passada, seguidos por Cingapura e Estados Unidos, respectivamente, que trocaram de posição em relação à análise anterior.

Prosperidade

O ranking, que é publicado desde 1989, avalia o perfil dos países com base em quatro pilares: desempenho econômico, eficiência de governo, eficiência empresarial e infraestrutura.

Por meio de uma estimativa baseada em estatísticas compiladas sobre essas categorias, cada país é comparado com o outro. Os dados utilizados para a edição atual são referentes ao período de janeiro a abril deste ano.

No desempenho econômico, o Brasil recuou da posição 55 para a 59, na eficiência do governo piorou de 61 para 62, na eficiência empresarial foi de 51 para 49 e, na infraestrutura, caiu de 46 para 51.

A intenção do estudo é servir de referência para a criação de políticas públicas que gerem prosperidade para os indivíduos do país. No caso do Brasil, o país está falhando porque a crise de desgoverno não estão levando em consideração o interesse da sociedade, explica Bris: "O Brasil é o caso clássico em que o setor público é um obstáculo à competitividade do país."

O estudo avalia que os objetivos brasileiros devem ser: acelerar a retomada econômica, modernizar e facilitar as leis, aprovar reformas-chave e reconquistar a confiança internacional. Para isso, é necessário desenvolver e implementar uma estratégia de competitividade digital, além de aumentar a eficiência e qualidade do sistema educacional.

"Competitividade é sobre criar empregos, estimular a prosperidade de uma nação", resume Bris.

Falta de visão de longo prazo

De acordo com o estudo, a maior vulnerabilidade do Brasil é a falta de visão de longo prazo, como políticas de melhora da qualidade da educação pública e de inserção na economia digital. Esses aspectos do investimento público são avaliados sob o tema infraestrutura e recuaram também. A educação caiu de 51 para 55 e a infraestrutura científica retrocedeu de 36 para 41.

"Primeiramente há que se combater a corrupção e se começar pelas escolas. O país precisa retomar a reforma do sistema educacional. Isso não é para o curto prazo, isso é para o longo. Essa é definitivamente uma das principais vulnerabilidades do país", afirma o professor. "O investimento em educação primária tem sido muito ineficiente, sem conquistas. É necessária uma reforma maciça."

O instituto também lançou um ranking que mede a competitividade digital dos países. Nesse novo índice, o Brasil foi avaliado na 55ª posição, caindo um ponto em relação a 2016.

 


 

PARCERIA ENTRE UNIVERSIDADE E INDÚSTRIA PRODUZ GANHOS PARA TODOS
Agência Fapesp -  22.05.2017

Dois mundos


De um lado uma indústria ávida por solucionar problemas internos com inovação e aumentar a produtividade. Do outro, pesquisadores com conhecimento científico e capacidade técnica.

Assim, qualquer esforço para reunir indústria e centros de pesquisa em parcerias duradouras pode resultar em ganhos para ambas as partes.

"Ao reunir indústria e centro de pesquisa, todos saem ganhando. A indústria entra com a parte monetária e nós [universidade] com os recursos humanos. Antigamente, achava-se que quem trabalhasse com a indústria estava vendendo a universidade. Porém, provamos o contrário. Desde o começo, mostramos que para que houvesse o desenvolvimento do país e da universidade era preciso que a indústria utilizasse o conhecimento acadêmico," afirmou o professor Elson Longo, do Centro de Pesquisa para o Desenvolvimento de Materiais Funcionais (CDMF).

Para ficar em apenas um exemplo dos benefícios financeiros e tecnológicos dessa cooperação, a longa parceria entre o CDMF e a Companhia Siderúrgica Nacional (CSN) gera recursos financeiros para o centro de pesquisa de R$ 100 milhões por ano. Desde 1995, quando começou a parceria, foram 32 patentes depositadas e 132 artigos científicos publicados.

Os ganhos para a indústria também são enormes. Os centros de pesquisa têm capacidade de analisar e resolver problemas que baixam a produtividade, desenvolvendo soluções inovadoras a partir de pesquisa e conhecimento científico.


"Brinco que fazemos o papel de bombeiros ao extinguir alguns problemas das indústrias. Observo, no entanto, que muitas vezes, a indústria não sabe onde estão os laboratórios nas universidades que podem contribuir para o desenvolvimento de pesquisas. Precisamos quebrar essa barreira entre esses dois mundos," disse Ernesto Chaves Pereira, também do CDMF.


Os dois pesquisadores falaram sobre a parceria universidade-indústria em uma palestra durante a EXPOMAFE - Feira Internacional de Máquinas-Ferramenta e Automação Industrial, realizada em São Paulo na semana passada.


De soluções simples a soluções mundiais


Muitas vezes, o trabalho dos pesquisadores está em desenvolver soluções simples tiradas de uma boa dose de observação.


Ernesto conta que, em uma ocasião, uma multinacional buscou o CDMF para solucionar um problema de retrabalho por corrosão de peças: "Era um galpão enorme de peças armazenadas e a empresa tinha um prejuízo imenso. A solução que demos? Feche a porta e proteja as peças da sujeira. Com isso, a empresa deixou de gastar muito dinheiro."


Já a parceria com empresas como Dow Química, Petrobras e White Martins levou ao desenvolvimento de novos materiais. Para a White Martins, por exemplo, a equipe de pesquisadores desenvolveu um material refratário que gerou um ganho econômico de R$ 32 milhões para a empresa em cinco anos e passou a ser usado por várias indústrias no mundo.


"A indústria de vidro sabia que poderia triplicar a produção se usasse uma atmosfera de oxigênio. Fizemos isso, desenvolvemos um novo refratário e a indústria em todo o mundo utiliza os refratários desenvolvidos no nosso laboratório", disse o professor Elson.


As parcerias também são firmadas com pequenas empresas ou polos manufatureiros. É o caso das empresas de cerâmica dos polos de Pedreira e Porto Ferreira, do interior do Estado de São Paulo. "Melhoramos o produto em resistência mecânica. Com isso adquirimos um conceito mais elevado de cerâmica para o polo", exemplificou o professor Elson.

***

Workshop busca caminhos para ampliar interação academia-indústria
Mauro Bellesa, Boletim IEA, Edição 249 — 07.06.2017

O workshop "Ciência & Indústria - Construindo Novos Caminhos em Tempos Desafiadores" realiza-se no dia 19 de junho, das 8h30 às 17h30, no IEA; o encontro faz parte da série "Strategic Workshops" e é organizado por Pró-Reitoria de Pesquisa, IEA, Núcleo de Política e Gestão Tecnológica e IEA, com apoio da Academia de Ciências do Estado de São Paulo.

Tanque de Provas Numérico (Centro de Simulações), parceria da USP com a Petrobras, que é uma das principais clientes, ao lado da Braspetro, da Marinha do Brasil e da Vale


A USP conta com uma grande comunidade dedicada à pesquisa básica e aplicada, realizada com o apoio das agências estatais de fomento e com grande potencial para desenvolvimento e inovação (DI), além de possibilidades expressivas para inserção no setor industrial.


Nem sempre, no entanto, há o suficiente cuidado em disponibilizar os conhecimentos construídos no âmbito acadêmico - graças a expressivos recursos provenientes de impostos - à sociedade em geral e em especial à indústria.


Encontrar caminhos para eliminar essa distorção é o objetivo do workshop Ciência & Indústria - Construindo Novos Caminhos em Tempos Desafiadores, que se realiza no dia 19 de junho, das 8h30 às 17h30, na antiga sala do Conselho Universitário, com transmissão ao vivo pela internet. (Leia a programação abaixo.)


O encontro faz parte da série Strategic Workshops, iniciativa da Pró-Reitoria de Pesquisa (PRP) da USP e do IEA, com apoio da Academia de Ciências do Estado de São Paulo (Aciesp). Desta vez a organização inclui também o Núcleo de Política e Gestão Tecnológica (PGT) da USP. O encontro é gratuito e aberto ao público, mas requer inscrição previa via formulário online.


Diálogo


O intuito dos organizadores do workshop é acelerar a discussão sobre a interação academia-indústria no âmbito da USP. Para isso, convidaram para dialogar representantes de unidades da Universidade que se destacam em pesquisa, desenvolvimento e inovação - nas áreas tecnológica, social, educacional e de gestão -, de empresas e de entidades públicas e privadas relacionadas com a questão.


A expectativa é que o encontro colabore na identificação de rumos mais eficientes para as atividades em parceria entre os dois setores, além de estimular debates que contribuam para superar as dúvidas existentes sobre a aproximação entre academia e indústria.


Segundo os responsáveis pelo workshop, essa aproximação é benéfica para a academia e a indústria e poderá abrir novas oportunidades de financiamento à pesquisa básica independente na Universidade, fora do âmbito das agências estatais de fomento. "Também permitirá o aprimoramento na formação dos alunos e maior absorção dos egressos pela indústria, principalmente nas áreas de pesquisas básica, ainda pouco conhecidas pelas empresas."


Riscos


Para a comissão organizadora, devido ao relativo distanciamento entre academia e indústria, a nação e os brasileiros que investem na geração do conhecimento "correm o risco de não usufruir de produtos essenciais, que poderiam melhorar as condições socioeconômicas do Brasil e promover o país à sua tão esperada projeção internacional".


Não somente o Brasil perde com essa situação: "A USP é que mais perde nesse processo". Por isso, os responsáveis pelo workshop consideram de forte interesse que a comunidade uspiana "entenda melhor seu potencial para DI, utilizando-o efetivamente em benefício da nação".


Entre os meios para isso, sugerem que os pesquisadores da USP "explorem melhor sua Agência de Inovação (Auspin) e as agências de fomento, contribuindo também para superar uma lacuna que o Brasil sofre desde seus primórdios: a condução de uma economia fracamente baseada no conhecimento gerado em suas próprias universidades".


Estímulos


Eles ressaltam, porém, que as agências de fomento estaduais e federais estimulam e investem seriamente em pesquisa, desenvolvimento e inovação. "Em São Paulo, com destaque à Fapesp, também o governo estadual procura estimular a academia à cooperação, através de mecanismos como o Plano Diretor de Ciência, Tecnologia e Inovação em São Paulo, em fase final de elaboração."


Várias indústrias nacionais e multinacionais também têm procurado estimular a comunidade acadêmica com a proposição de projetos de alto nível científico e oferta de recursos, segundo a comissão organizadora. "Dentro dessa rica atmosfera, a comunidade acadêmica deve buscar meios para melhor explorar essa disposição favorável das agências de fomento e do setor industrial, sempre preservando suas atividades de pesquisa básica, essenciais para o sucesso desse processo."


Ao falar em "indústria", a organização do encontro refere-se ao conjunto de atividades produtivas e de pesquisa, desenvolvimento e inovação realizadas fora do âmbito acadêmico tanto pela iniciativa pública quanto pela privada, abrangendo todos os setores econômicos, entre os quais: industriais, do agronegócio, extrativista, de serviços, sociais, educacionais, culturais e artísticos, de gestão e governamentais (municipais, estaduais e federais).


A coordenação do workshop é de Guilherme Ary Plonski, vice-diretor do IEA e coordenador científico do PGT-USP; Tito José Bonagamba, diretor do Instituto de Física de São Carlos (IFSC); e Antonio Mauro Saraiva, da Escola Politécnica (Poli). Os três e Hamilton Varela, assessor técnico da PRP-USP, são os organizadores.


PROGRAMAÇÃO


8h30   Abertura - A Visão do Governo do Estado de São Paulo e da USP
•    Márcio França, vice-governador e secretário de Desenvolvimento Econômico, Ciência, Tecnologia e Inovação do Estado de São Paulo
•    Marco Antônio Zago, reitor da USP
•    Cristovam Buarque, senador (PPS-DF), presidente da Comissão de Ciência, Tecnologia, Comunicação e Inovação do Senado
•    José Eduardo Krieger, pró-reitor de Pesquisa da USP
•    Paulo Saldiva, diretor do IEA
•    Marcos Buckeridge, presidente da Academia de Ciências do Estado de São Paulo (Aciesp)


9h    1ª Sessão - Quebrando Barreiras Conceituais e Regulatórias
•    Luiz Davidovich, presidente da Academia Brasileira de Ciências (ABC)
•    Helena Nader, presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC)
•    Cristovam Buarque, senador (PPS-DF), presidente da Comissão de Ciência, Tecnologia, Comunicação e Inovação do Senado
•    Álvaro Toubes Prata, secretário de Desenvolvimento Tecnológico e Inovação do MCTIC (a confirmar)
o    Moderador: Marcos Buckeridge, presidente da Academia de Ciências do Estado de São Paulo (Aciesp)


11h    2ª Sessão - Como Estimular a Demanda da Indústria por Ciência
•    Luiz Araújo de Moraes Mello, diretor presidente do Instituto Tecnológico Vale e gerente executivo de Tecnologia e Inovação da Vale S.A.
•    Gianna Sagazio, diretora de Inovação da Confederação Nacional da Indústria (CNI) e coordenadora executiva da Mobilização Empresarial pela Inovação (MEI)
•    Cláudio Pinhanez, líder do Social Data Analytics Group da IBM (Research-Brazil)
•    Eduardo Santos, gerente de Relacionamento com a Comunidade de C&T da Petrobras
•    Jarbas Caiado de Castro Neto, do Instituto de Física de São Carlos (IFSC) da USP e presidente da Opto Eletrônica
o    Moderador: Vanderlei Salvador Bagnato, coordenador da Agência USP de Inovação (Auspin)


12h30    Intervalo


14h    3ª Sessão - Interação Ciência & Indústria como Fator Estratégico de Desenvolvimento: O Papel das Agências de Fomento
•    Carlos Américo Pacheco, diretor presidente do Conselho Técnico-Administrativo da Fapesp
•    Mário Neto Borges, presidente do CNPq
•   Jorge Almeida Guimarães, diretor presidente da Empresa Brasileira de Pesquisa e Inovação Industrial (Embrapii)
•    Oswaldo Massambani, titular da Superintendência Regional da Finep em São Paulo
o    Moderador: Glaucius Oliva, do Instituto de Física de São Carlos (IFSC) da USP


16h    4ª Sessão - Rompendo Barreiras e Traçando Perspectivas
(Encerramento, Discussão Geral e Recomendaçoes)
•    Moderadores: Guilherme Ary Plonski,vice-diretor do IEA e coordenador científico do PGT-USP, e Tito José Bonagamba, diretor do Instituto de Física de São Carlos (IFSC) da USP


 Ciência & Indústria - Construindo Novos Caminhos em Tempos Desafiadores
19 de junho - 8h30
Antiga Sala do Conselho Universitário, rua da Praça do Relógio, 109, térreo, Cidade Universitária, São Paulo
Evento gratuito, aberto ao público e com inscrição prévia via formulário online
Transmissão ao vivo pela internet (sem necessidade de inscrição)
Mais informações: Sandra Sedini (Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo.), telefone: (11) 3091-1678
Página do evento: www.iea.usp.br/eventos/ciencia-e-industria-construindo-novos-caminhos

 

 

A MIOPIA DOS INDICADORES BIBLIOMÉTRICOS
Lilian Nassi-Calò*, SciELO em Perspectiva, 01.06.2017

 
A utilização de indicadores bibliométricos para avaliação da ciência é uma prática ubíqua, a despeito de não existir uma relação inequívoca entre citações e qualidade, impacto ou mérito científico. Quando se considera a inovação – característica inerente da pesquisa científica – a relação é ainda mais desconexa.
Esta é a opinião de pesquisadores da Georgia State University, em Atlanta, GA, EUA, e do Departamento de Gestão Econômica, Estratégia e Inovação da Universidade de Leuven, na Bélgica, de acordo com uma recente publicação na Nature1. Paula Stephan, Reinhilde Veuglers e Jian Wang observaram que especialistas que integram comitês científicos de instituições de pesquisa em vários países ainda utilizam largamente indicadores bibliométricos baseados em citações – como o Fator de Impacto, índice h, e citações aferidas pelo Google Scholar – como proxies para avaliar qualidade e impacto da pesquisa de candidatos a contratação e projeção na carreira. Iniciativas como a San Francisco Declaration on Research Assessment2, de 2012, e o Manifesto de Leiden3, de 2015, embora de ampla repercussão e apoio por parte de inúmeras instituições de pesquisa e agências de fomento em todo o mundo, na realidade pouco mudaram a forma de avaliação da ciência e dos cientistas. Afinal, os índices bibliométricos proveem uma forma simples (em muitos casos, simplista) e conveniente de avaliar um grande número de candidatos, propostas ou artigos.

As limitações do Fator de Impacto (FI) e dos indicadores similares de desempenho de periódicos na função de avaliar artigos individuais e pesquisadores são conhecidas por todos. Segundo Stephan, mesmo agências de fomento que não solicitam especificamente informar o FI do periódico na lista de publicações, utilizam este indicador, bem como o número de citações e o índice h para ranquear propostas. Os próprios pesquisadores contribuem para este círculo vicioso. Ao serem solicitados a identificarem suas publicações mais relevantes, eles geralmente as selecionam com base nos índices de citações, ao invés de atribuir aos artigos sua verdadeira importância acadêmica ou uma descoberta particularmente inovadora.

O artigo menciona o uso em larga escala de indicadores baseados em citações para progressão na carreira e contratações. Ademais da Itália, República Checa, Flandres (Noroeste da Bélgica) e China, os autores citam o programa Qualis do Ministério da Educação do Brasil, que utiliza o FI para definir a alocação de recursos para a pesquisa, o que, em particular, penaliza os periódicos do Brasil. Ressalva é feita ao Research Excellence Framework do Reino Unido, segundo os autores, uma rara exceção que explicitamente recomenda não utilizar o FI nas avaliações.

A inovação requer tempo

Os cientistas anseiam fazer descobertas inovadoras, e em nome delas, diz-se que podem até incorrer em práticas antiéticas e superestimar resultados preliminares. Stephen e colaboradores, entretanto, acreditam que na verdade o uso excessivo de índices bibliométricos com janelas curtas de aferição (2-3 anos) pode desencorajar a publicação de resultados inovadores. Para testar sua hipótese, os autores analisaram as citações no Web of Science de mais de 660 mil artigos publicados entre 2001-2015 categorizados em pesquisa com alto, moderado e nenhum grau de inovação. Como proxy para grau de inovação, os pesquisadores avaliaram a lista de referências dos artigos em busca de padrões insólitos de combinação. Desta análise, os autores chegaram à concussão de que os artigos altamente inovadores levam mais tempo para serem citados em comparação aos medianamente inovadores e aos não inovadores. Entre os artigos altamente inovadores, dois tipos de comportamento foram observados: ou tornavam-se artigos altamente citados – as citações começam a aumentar após 3-4 anos e se mantém em ritmo crescente até 15 anos após a publicação – ou eram ignorados, em comparação aos artigos com nenhum grau de inovação. Porém, é importante notar que nos 3 anos após a publicação, a probabilidade de um artigo altamente inovador estar entre os 1% mais citados é inferior à probabilidade para artigos com nenhum grau de inovação. Isso levou os autores a concluir que o sistema atual de avaliação da pesquisa subestima trabalhos que possivelmente terão alto impacto na avaliação em longo prazo. É importante também ressaltar que artigos que se revelaram de alto impacto no decorrer do tempo foram publicados em periódicos de menor FI. Assim, Stephen e colaboradores1 concluem que “quanto mais estamos ligados a indicadores bibliométricos de curto prazo, mais longe estamos de recompensar a pesquisa com alto potencial de ir além das fronteiras – e aqueles que o fazem”.

Entretanto, esta observação não é totalmente sem precedentes. Em 2014, um artigo de John Ioannidis4 publicado também na Nature procurou investigar se, na opinião dos pesquisadores, seu trabalho mais citado era seu melhor trabalho. A pesquisa, objeto de um post neste blog5, na verdade trouxe mais questionamentos do que respostas, como por exemplo, a dificuldade de identificar precocemente um artigo inovador com base em indicadores bibliométricos com janelas de 2-3 anos, ou quando são citados por artigos de outras áreas menos afins. Porém, na ocasião, uma das conclusões do autor foi a necessidade de se recorrer a outros índices além das métricas baseadas em citações para complementar a avaliação da ciência.

Recomendações à comunidade científica

A fim de encorajar os pesquisadores a empreender domínios mais inovadores da ciência, é necessário fomentar uma mudança de postura da comunidade científica como um todo com o objetivo de restringir o uso indiscriminado de indicadores bibliométricos de curto prazo.

Pesquisadores – Restringir o uso do FI e índices baseados em citações para orientar a escolha de tópicos e onde submeter artigos. Não incluir tais indicadores em CV e propostas de auxílio à pesquisa.

Agências de fomento – Prover múltiplas formas para avaliar as publicações de pesquisadores e instituições. Excluir medidas de citações e FI de propostas de auxílio à pesquisa, e não permitir que sejam discutidas pelos pareceristas. Incluir especialistas de outras áreas em comitês de avaliação e periodicamente avaliar o desempenho dos candidatos às propostas de auxílio à pesquisa utilizando índices com janelas de 5-10 anos.

Pareceristas – Buscar avaliar o trabalho deixando de lado as métricas, especialmente as de curto prazo.

Editores – Procurar ignorar as métricas usadas para avaliar publicações. Propor métricas que considerem maior intervalo de tempo.

Universidades – Adotar como prática nos comitês de avaliação que os membros realmente leiam a pesquisa dos candidatos e não apenas seus índices bibliométricos, a exemplo do que é feito no REF do Reino Unido. Ao avaliar candidatos, enfatizar como os pesquisadores abordam determinadas questões propostas. Neste sentido, aplica-se a consideração de Antônio Augusto P. Videira6, Professor de Filosofia da Ciência da UFRJ: “Deveria causar surpresa o fato de que o uso de um indicador torne elegível um ou outro autor pelo fato de que tenha publicado em um periódico de FI mais alto, de que é mais importante saber onde ele publicou do que ler seu trabalho”.

Os autores do estudo acreditam que “se realmente a comunidade acadêmica deseja criar avaliações mais objetivas, todos aqueles envolvidos – desde pesquisadores em início de carreira até os presidentes das agências de fomento – devem usar indicadores qualitativos e quantitativos de forma responsável […] de forma a evitar o uso de indicadores que penalize os pesquisadores e projetos que tem o maior potencial para romper fronteiras”.

Notas

1. STEPHAN, P., VEUGELERS, R. and WANG, J. Reviewers are blinkered by bibliometrics. Nature [online]. 2017, vol. 544, no. 7651, pp. 411-412 [viewed 14 May 2017]. DOI: 10.1038/544411a. Available from: http://www.nature.com/news/reviewers-are-blinkered-by-bibliometrics-1.21877

2. The San Francisco Declaration on Research Assessment (DORA) [online]. San Francisco Declaration on Research Assessment (DORA) [viewed 14 May 2017]. Available from: http://www.ascb.org/dora/

3. HICKS, D., et al. Bibliometrics: The Leiden Manifesto for research metrics. Nature [online]. 2015, vol. 520, nº 7548, pp. 429-431 [viewed 14 May 2017]. DOI: 10.1038/520429a. Available from: http://www.nature.com/news/bibliometrics-the-leiden-manifesto-for-research-metrics-1.17351

4. IOANNIDIS, J. P. A., et al. Bibliometrics: Is your most cited work your best? Nature [online]. 2014, vol. 514, nº 7524, pp. 561-562 [viewed 14 May 2017]. DOI: 10.1038/514561a. Available from: http://www.nature.com/news/bibliometrics-is-your-most-cited-work-your-best-1.16217#assess

5. NASSI-CALÒ, L. Artigo investiga: seu trabalho mais citado é seu melhor trabalho? [online]. SciELO em Perspectiva, 2014 [viewed 14 May 2017]. Available from: http://blog.scielo.org/blog/2014/11/24/artigo-investiga-seu-trabalho-mais-citado-e-seu-melhor-trabalho/

6. Videira A. A. P. Declaração recomenda eliminar o uso do Fator de Impacto na avaliação de pesquisa [online]. Estudos de CTS – Estudos sociais e conceituais de ciência, tecnologia e sociedade, 2013 [viewed 14 May 2017]. Available from: http://estudosdects.wordpress.com/2013/07/29/declaracao-recomenda-eliminar-o-uso-do-fator-de-impacto-na-avaliacao-de-pesquisa/

Referências
HICKS, D., et al. Bibliometrics: The Leiden Manifesto for research metrics. Nature [online]. 2015, vol. 520, nº 7548, pp. 429-431 [viewed 14 May 2017]. DOI: 10.1038/520429a. Available from: http://www.nature.com/news/bibliometrics-the-leiden-manifesto-for-research-metrics-1.17351
IOANNIDIS, J. P. A., et al. Bibliometrics: Is your most cited work your best? Nature [online]. 2014, vol. 514, nº 7524, pp. 561-562 [viewed 14 May 2017]. DOI: 10.1038/514561a. Available from: http://www.nature.com/news/bibliometrics-is-your-most-cited-work-your-best-1.16217#assess

NASSI-CALÒ, L. Artigo investiga: seu trabalho mais citado é seu melhor trabalho? [online].
SciELO em Perspectiva, 2014 [viewed 14 May 2017]. Available from: http://blog.scielo.org/blog/2014/11/24/artigo-investiga-seu-trabalho-mais-citado-e-seu-melhor-trabalho/

STEPHAN, P., VEUGELERS, R. and WANG, J. Reviewers are blinkered by bibliometrics. Nature [online]. 2017, vol. 544, no. 7651, pp. 411-412 [viewed 14 May 2017]. DOI: 10.1038/544411a. Available from: http://www.nature.com/news/reviewers-are-blinkered-by-bibliometrics-1.21877

The San Francisco Declaration on Research Assessment (DORA) [online]. San Francisco Declaration on Research Assessment (DORA) [viewed 14 May 2017]. Available from: http://www.ascb.org/dora/

Videira A. A. P. Declaração recomenda eliminar o uso do Fator de Impacto na avaliação de pesquisa [online]. Estudos de CTS – Estudos sociais e conceituais de ciência, tecnologia e sociedade, 2013 [viewed 14 May 2017]. Available from: http://estudosdects.wordpress.com/2013/07/29/declaracao-recomenda-eliminar-o-uso-do-fator-de-impacto-na-avaliacao-de-pesquisa/
 
* Lilian Nassi-Calò é química pelo Instituto de Química da USP e doutora em Bioquímica pela mesma instituição, a seguir foi bolsista da Fundação Alexander von Humboldt em Wuerzburg, Alemanha. Após concluir seus estudos, foi docente e pesquisadora no IQ-USP. Trabalhou na iniciativa privada como química industrial e atualmente é Coordenadora de Comunicação Científica na BIREME/OPAS/OMS e colaboradora do SciELO.
 
 


EXEMPLO DE UMA EQUAÇÃO MATEMÁTICA
Marcelo Viana - UOL Educação - 02/06/2017

Em 1858, o jovem antiquário escocês Alexander Henri Rhind comprou no Egito um papiro -documento escrito num tipo de papel feito com o caule de uma planta aquática - que fora encontrado nas ruínas de Tebas, a antiga capital dos faraós. Rhind esperava que o clima do país ajudasse a curar a sua tuberculose, mas não deu certo: morreu cinco anos depois, e o papiro foi vendido ao British Museum, de Londres.


O papiro de Rhind contém uma coleção de problemas de aritmética, álgebra, geometria e outros temas. Datado de 1550 a.C., é um dos mais antigos documentos matemáticos conhecidos. O autor, o escriba Ahmes, explica ali que é cópia de um texto ainda mais antigo, que se perdeu. O texto contém alguns erros, mas não é possível saber se são obra de Ahmes ou se apenas os deixou passar.


Os primeiros problemas tratam de frações. Devem ter sido difíceis na época, porque os egípcios nunca desenvolveram uma boa notação para frações. Tirando 2/3, que tinha direito a um símbolo especial, eles só reconheciam frações com numerador 1. Por exemplo, o resultado da divisão de 31 por 51, que representamos como 31/51, para eles era 1/2 1/17 1/34 1/51 (porque 31/51 é igual a 1/2 mais 1/17 mais 1/34 mais 1/51). Dá para imaginar a loucura que seria fazer contas com tal notação! Acho provável que os alunos egípcios não adorassem aulas de frações...


A notação moderna é muito melhor. Mas as frações continuam sendo um dos tópicos da matemática mais impopulares e difíceis de ensinar. Por quê?


Para as crianças pequenas, nos primeiros anos de escolaridade, o `bicho papão` da matemática não existe: elas gostam da disciplina e se divertem genuinamente com os seus mistérios. No livro What`s math got to do with it? a pesquisadora Jo Boaler, da Universidade Stanford, escreve que crianças são naturalmente curiosas e querem dar sentido às coisas, mas a escola elimina esse tendência. `Crianças começam os estudos com talento inato para resolver problemas, mas muitos estudos mostram que elas são melhores nisso antes de terem aulas de matemática`, afirma.


As ideias matemáticas (contagem, forma, ordem etc) ensinadas nos primeiros anos da escolaridade estão naturalmente presentes na vivência da criança. Isso muda ao final do primeiro ciclo escolar, quando os ensinamentos vão se tornando mais abstratos. A relação com a vida real continua existindo, claro, mas passa a ser necessário evidenciá-la. A maior parte das vezes a escola falha nessa tarefa, e é aí que perdemos a atenção dos jovens. Recentemente me foi apontado que isso coincide com o momento em que as frações chegam à sala de aula. Uma observação intrigante!


Os problemas com o ensino de frações não são uma exclusividade brasileira. Em artigo publicado em 2011 na revista Notices da Sociedade Americana de Matemática, o professor H. Wu da Universidade da Califórnia, Berkeley analisa as dificuldades com o ensino de frações no sistema dos Estados Unidos, e elas são muito parecidas com as nossas.


A professora Boaler ilustra o problema com a seguinte questão, tirada de um estudo realizado nos Estados Unidos: qual dos números 1, 2, 19 e 21 aproxima melhor o valor de 12/13 + 7/8? Observe que 12/13 é quase igual a 1 (se cortar uma pizza em 13 fatias e comer 12 delas, está comendo quase uma pizza inteira, certo?) e, do mesmo modo, 7/8 também é quase igual a 1. Portanto, a resposta certa é 1+1, que é 2. Mas nesse estudo apenas 24% dos alunos de treze anos acertaram: a grande maioria escolheu as respostas 19 ou 21, que são totalmente disparatadas. Para responder a esta questão é necessário entender o que as frações significam. Não basta saber fazer contas, é preciso pensar!
Ouvi este exemplo de um diretor e professor de matemática, durante a reunião de pais numa escola. Foi muito interessante observar a reação dos adultos. Alguns levantaram a mão, entusiasmados porque sabiam a resposta. Mas ficou claro que a maioria nem sequer estava tentando pensar (`a escola é do meu filho e eu é que tenho que responder perguntas de matemática?!`), como se saber responder a questões como esta fosse completamente inútil ou proibitivamente difícil. Não é. Chegando a casa depois da reunião, fiz a pergunta ao meu filho. Ele não estudou frações, ainda não sabia o significado de 12/13 e 7/8. Mas expliquei com fatias de pizza - tema que lhe interessa muitíssimo! - e ele chegou à resposta certa com naturalidade.


A professora Boaler também propõe o seguinte problema. Uma pessoa que está de dieta compra 6 fatias de presunto light que, juntas, pesam 1/3 de um quilo. Mas a dieta só permite que ela coma 1/8 de quilo. Quantas fatias de presunto a pessoa pode comer? Respostas pelo e-mail Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo. são muito bem-vindas!

 


 

 

TECNOLOGIA DA IBM PERMITE CHIPS DE 5 NANÔMETROS COM 30 BILHÕES DE TRANSISTORES
Gustavo Sumares, Olhar Digital, 05.06.2017

 

Quando foi lançado, o Snapdragon 835 chamou atenção por ser um dos primeiros processadores fabricados no processo de 10 nanômetros a estar amplamente disponível ao público. No entanto, uma tecnologia desenvolvida pela IBM e pelas suas fabricantes de processadores (a Samsung e a GlobalFoundries) permite fabricar processadores num processo de apenas cinco nanômetros.


RECOMENDADO PARA VOCÊ

Segundo a IBM, essa inovação oferece um aumento de até 40% na performance dos processadores (na comparação com chips de cinco nanômetros) usando a mesma quantidade de energia. E processadores produzidos com o processo de cinco nanômetros podem atingir o mesmo desempenho dos de 10 nanômetros economizando 75% de energia. Ou seja, eles oferecem desempenho bem melhor com muito menos energia.


Moore vive


O anúncio da IBM representa um novo fôlego para a Lei de Moore, a diretriz que dita o desenvolvimento da indústria de semicondutores desde a década de 1960. Nos anos recentes, acreditava-se que ela estivesse atingindo seu limite, já que era quase impossível continuar encolhendo o tamanho dos processadores.


Para atingir esse novo "encolhimento" do processo de fabricação dos chips, a IBM teve que desenvolver uma nova arquitetura de processadores; segundo a empresa, a arquitetura FinFET, que é usada para processadores de até sete nanômetros, não funciona bem para esse novo tamanho. A empresa desenvolveu um método que usa "fatias" de folhas de silício de proporções nanométricas.


Essas folhas são então gravadas com a tecnologia de litografia extrema em ultravioleta (EUV, na sigla em inglês). Com essa nova técnica, a empresa conseguiu colocar cerca de 30 bilhões de transistores em um chip que tem aproximadamente o tamanho de uma unha.


Importância e aplicações


Além de representar um avanço notável para a IBM, o sucesso da técnica também serve de alívio para a indústria de semicondutores como um todo: ela demonstra que ainda é possível extrair mais desempenho dos processadores por meio do encolhimento do processo de fabricação. Assim, os pesquisadores ainda não precisarão inventar novos métodos de computação para conseguir mais performance.


De acordo com o Engadget, esses novos processadores ainda estão bem longe de chegar ao mercado. Mesmo os chips de sete nanômetros só devem aparecer em dispositivos voltados para o consumidor final em 2018. No entanto, quando eles chegarem, tanto a performance quanto a duração da bateria dos smartphones devem melhorar consideravelmente. Ainda de acordo com a IBM, essa inovação também pode ser aplicada a sistemas de computação cognitiva e dispositivos de "internet das coisas".

 

 


UNIVERSO CURVO MINA TEORIA DA RELATIVIDADE
Site Inovação Tecnológica -  02.06.2017

O horizonte de eventos dos buracos negros tem sido alvo de intensos debates entre os físicos.[Imagem: NASA]

Singularidade gravitacional

Físicos demonstraram que as singularidades - que se acredita só serem encontradas no centro dos buracos negros e fora do alcance de qualquer técnica observacional - podem existir em espaços tridimensionais altamente curvos.

Esta é a primeira vez que uma singularidade nua - ou singularidade exposta - foi prevista em um espaço tridimensional.

Isto é importante porque uma singularidade nua interfere com a Teoria Geral da Relatividade de Einstein, detonando inteiramente com as leis da física que conhecemos - uma singularidade gravitacional é um ponto do espaço-tempo no qual a massa (associada com a densidade) e a curvatura do espaço-tempo (associada com o campo gravitacional) de um corpo são infinitas.

Singularidades nuas

A Teoria Geral da Relatividade de Einstein nos diz que a matéria deforma o espaço-tempo ao seu redor, e o que chamamos de gravidade é o efeito dessa deformação. Nos 100 anos desde a sua publicação, a Relatividade Geral passou por todos os testes às quais foi submetida, mas a existência de singularidades é considerada uma de suas principais limitações.

Imagem do espaço (1 + 1)-dimensional anti-de Sitter embutido em um espaço plano (1 + 2)-dimensional. [Imagem: Wikipedia]

A Relatividade Geral prevê que as singularidades existem no centro dos buracos negros e que estão cercadas por um horizonte de eventos - o "ponto sem volta", onde a força gravitacional se torna tão forte que a fuga é impossível, o que significa que elas não podem ser observadas a partir do lado de fora.

Essa impossibilidade de observação é conhecida como "conjectura da censura cósmica". Se for mesmo verdadeira, a censura cósmica significa que, fora dos buracos negros, as singularidades não teriam qualquer efeito mensurável, e as previsões da Relatividade Geral permaneceriam válidas.

Mais recentemente, os físicos vêm usando simulações computacionais para prever a existência de singularidades nuas, ou expostas, ou seja, singularidades que existem fora de um horizonte de eventos. Elas invalidariam a conjectura da censura cósmica e, por extensão, a capacidade da Relatividade Geral de explicar o universo como uma teoria autônoma. No entanto, todas essas previsões até agora vinham sendo modeladas em universos que existem em muitas dimensões - cinco ou mais.

As teorias dos multi-universos e do holograma cósmico usam os espaços anti-de Sitter em suas simulações - algumas delas já concluíram pelo surgimento do Universo sem um Big Bang. [Imagem: Univ.Florida

Novas teorias sobre o Universo

Toby Crisford e Jorge Santos, da Universidade de Cambridge, no Reino Unido, previram agora pela primeira vez a existência de uma singularidade nua em um universo de quatro dimensões - três dimensões espaciais, mais o tempo.

Os cálculos mostram que uma singularidade nua pode se formar em um tipo especial de espaço curvo conhecido como "espaço anti-de Sitter", no qual o universo tem a forma de uma sela de montaria. De acordo com a Relatividade Geral, os universos podem ter várias formas, e o espaço anti-de Sitter é uma dessas formas possíveis - os físicos acreditam que o nosso Universo é plano.

Embora os resultados não sejam diretamente aplicáveis ao nosso Universo, já que "forçar" uma singularidade não é um procedimento que se possa simular em um espaço plano, eles abrem novas oportunidades para estudar outras teorias para entender o universo. Uma dessas teorias poderia envolver a gravidade quântica, que fornece novas equações próximas de uma singularidade.

"A singularidade nua que vimos provavelmente iria desaparecer se incluíssemos partículas carregadas em nossa simulação - isso é algo que estamos investigando atualmente," disse Jorge Santos. "Se verdadeira, ela poderá implicar em uma conexão entre a conjectura da censura cósmica e a conjectura da gravidade fraca, que diz que qualquer teoria consistente da gravidade quântica deve conter partículas suficientemente carregadas. Em um espaço anti-de Sitter, a conjectura da censura cósmica poderia ser salva pela conjectura da gravidade fraca."


Bibliografia:

Violating the Weak Cosmic Censorship Conjecture in Four-Dimensional Anti-de Sitter Space
Toby Crisford, Jorge E. Santos
Physical Review Letters
Vol.: 118, 181101
DOI: 10.1103/PhysRevLett.118.181101

 


ÁGUAS EM DISPUTA (RIO SÃO FRANCISCO)
Maíra Mathias, Revista POLI, Saúde, Educação e Trabalho – Ano IX, n. 51 – mai./jun. 2017

 A maior agenda de privatizações do saneamento da história do país desperta preocupação entre especialistas que apontam o aumento dos conflitos por água como consequência.



Velho Chico, novos problemas

Nem mesmo a transposição do rio São Francisco ficou incólume à agenda de privatizações do governo federal. Desde outubro do ano passado, o Ministério da Integração Nacional noticia a intenção de criar parcerias público-privadas para a gestão dos canais que levarão as águas do Velho Chico para o semiárido nordestino. Em nota enviada à Poli, a pasta afirmou que já havia solicitado ao BNDES “estudos de viabilidade de parceria com ente privado para operação e manutenção dos canais” e acrescentou que havia recebido, por sua vez, uma solicitação da Secretaria Especial do PPI (que tem status de ministério) para prestar informações sobre o Projeto de Integração do Rio São Francisco, nome oficial das obras de transposição.

Com 477 quilômetros de extensão em dois eixos de transferência de água, o empreendimento promete abastecer 12 milhões de pessoas em 390 municípios nos estados de Pernambuco, Ceará, Paraíba e Rio Grande do Norte. O Eixo Norte vai do município de Cabrobó (PE) até Cajazeiras (PB), mede 260 quilômetros e, segundo o governo federal, deve ficar pronto no segundo semestre. No dia 10 de março, uma parte do Eixo Leste foi inaugurado. Com 217 quilômetros, o canal vai de Floresta (PE) até Monteiro (PB). As obras começaram em 2007, no segundo mandato do presidente Lula, com previsão de conclusão em 2012, já no governo Dilma Rousseff, que foi afastada do Planalto com aproximadamente 90% dos canais concluídos.

“Atualmente, a Codevasf [Companhia de Desenvolvimento do Vale do São Francisco] é a responsável pela gestão dessas águas. Mas isso ficou muito tempo indefinido e até hoje não há nenhum desenho de como seria essa gestão. Agora entra a discussão da privatização das águas da transposição. Com isso, você acha que essas águas vão para quem? Para acabar com a sede da população do Nordeste é que não”, avalia o engenheiro André Monteiro, do Centro de Pesquisas Aggeu Magalhães (CPqAM/Fiocruz Pernambuco).

Segundo o pesquisador, que se dedica a estudar os conflitos por água decorrentes das obras da transposição, o acesso à água no semiárido historicamente se baseou na concentração do recurso natural na mão de poucos e poderosos. A região tem 70% da sua geologia cristalina, ou seja, as rochas que dão origem ao solo estão praticamente na superfície. Quando chove, pouca água se infiltra no subsolo e há um escoamento muito intenso. Desde o Império, a estratégia foi tentar ‘segurar’ a água que escoava pelo solo através do represamento. Os grandes açudes construídos pelo poder público ou eram instalados dentro das terras de fazendeiros ou, depois de prontos, eram apropriadas por eles. A promessa do fim da sede foi, desde sempre, o motor da chamada ‘indústria da seca’ – um dos sustentáculos do coronelismo.

“Hoje a transposição é fato consumado. E a grande questão – tornada invisível de propósito – continua sendo discutir os projetos em disputa. Essa água vai para onde e será usada para qual fim? A vazão disponível será suficiente para tudo?”, questiona Monteiro. Segundo ele, uma pista foi dada pela Federação das Indústrias da Paraíba. Em fevereiro, a entidade promoveu um seminário sobre “gestão estratégica das águas”. O caso de ‘sucesso’ apresentado no evento foi a transposição do rio Colorado, nos Estados Unidos. Feita entre as décadas de 1930 e 1950, a obra serviu como impulso para a expansão da fronteira agrícola na região, que concentra grandes latifúndios monocultores. “A Federação deixou claro que está se articulando para transformar o semiárido num Colorado. É um projeto que tem tudo para conjugar concentração de água, de terra e de poder”, alerta o pesquisador.

Uma parte da conclusão de que a transposição do São Francisco é uma obra feita principalmente para atender a interesses econômicos se deve ao histórico do projeto. Sempre que entrevistado, o engenheiro João Suassuna, pesquisador da Fundação Joaquim Nabuco (Fundaj), retoma o ano de 2004, quando os debates estimulados pelo governo Lula levaram a recomendações técnicas que desagradaram Brasília. “O presidente queria saber como o São Francisco poderia contribuir para solucionar o problema de abastecimento de água no semiárido nordestino. Quarenta expoentes da hidrologia nacional passaram três dias em Recife em um evento que a SBPC [Sociedade Brasileira para o Progresso da Ciência] promoveu para discutir a transposição. Dessa reunião saiu uma proposta: o governo deveria investir na construção de uma infraestrutura que integrasse as diversas represas e açudes que existem no interior do Nordeste. Essa proposta considerava o São Francisco como uma fonte de abastecimento complementar e a transposição como uma decisão que deveria ser tomada somente após a conclusão dessas obras, quando haveria uma nova avaliação do déficit de água na região”, conta.

Isso porque, desde aquela época, já se sabia que o São Francisco tinha limitações hídricas. O máximo de vazão que o projeto pode fornecer são 127m³/s, que podem ser retirados quando a represa de Sobradinho estiver com 94% do seu volume preenchido. “Mas a cada dez anos, Sobradinho enche apenas quatro. Investiram até agora R$ 10 bilhões em um projeto que irá funcionar em sua plenitude 40% do tempo. É muito pouco”, constata Suassuna. A transposição hoje está retirando do rio 26,4 m³/s. E a situação se agravou: Sobradinho está com 15% do seu volume preenchido quando no final de abril, mês em que se encerra o período chuvoso, esse volume precisa ser de 60% no mínimo. Segundo o pesquisador da Fundação Joaquim Nabuco, a perspectiva é que Sobradinho atinja seu volume morto no final de novembro.

Esses números estavam no centro do diagnóstico do Comitê da Bacia Hidrográfica do São Francisco (CBHSF). Os comitês de bacia são organismos colegiados em que representantes do governo, dos usuários e da sociedade civil arbitram conflitos pelo uso da água, dentre outras prerrogativas. Em 2004, o CBHSF impôs uma condição para aprovar a obra: que as águas da transposição fossem destinadas somente para o abastecimento humano e dessedentação animal – usos prioritários de acordo com a Lei de Águas. “Infelizmente essa deliberação foi literalmente tratorada no âmbito do Sistema Nacional dos Recursos Hídricos e aprovada no estilo do rolo compressor pelo governo à época, ameaçando reproduzir novo elefante branco em nossa megalômana cultura de grandes e problemáticas obras”, critica Anivaldo Miranda, atual presidente do Comitê, onde representa a ONG Instituto Ecoengenho. Ele informou que também em  relação à decisão de privatizar a gestão dos canais o CBHSF não foi consultado.

“Quando as discussões começaram e o governo federal viu que a água da transposição ia ser usada apenas para abastecimento humano e dessedentação animal, levou o plano para análise em Brasília. Para surpresa de todos, o parecer voltou nos seguintes termos: o governo não aceitava apenas esses usos e aquela discussão não deveria ser feita no âmbito do Comitê de Bacia mas pelo Conselho Nacional de Recursos Hídricos onde, não por acaso, o governo tem a maioria dos assentos. E assim passou o projeto da transposição incluindo o uso para o agronegócio”, conta Suassuna.Outro órgão que faz parte dessa história é a Agência Nacional de Águas (ANA). João Suassuna conta que partiu de lá uma proposta em sintonia com o que já tinha sido sugerido pela SBPC. O Atlas Nordeste de Abastecimento Urbano de Água, de 2006, mapeou várias fontes hídricas e propôs que se fizesse sua interligação. “Essa alternativa tinha uma abrangência de 34 milhões de pessoas. Já a proposta da transposição visa o abastecimento de 12 milhões. A proposta da ANA custava, em 2006, R$ 3,3 bilhões. A transposição naquela época custava o dobro - R$ 6,6 bilhões –, valor que hoje bate os R$ 10 bilhões. Quando essas propostas foram apresentadas ao PAC [Programa de Aceleração do Crescimento] para buscar financiamento venceu a proposta mais cara, a que atinge menos pessoas. A gente lamenta – e lamenta muito – porque, visivelmente, a transposição do São Francisco não foi feita para abastecer populações”, diz o engenheiro.

Especialista em convivência com o semiárido, Suassuna cita outros elementos que corroboram essa conclusão. Já foi construído um canal que liga o Porto de Pecém à represa do Castanhão, que vai receber as águas do São Francisco. “Para quê? Estão construindo uma siderúrgica em Pecém, a Ceará Steel, que sozinha consome tanta água quanto um município de 90 mil habitantes”, cita ele. Já André Monteiro lembra que ao longo dos canais, existem 160 sistemas de abastecimento de água de comunidades urbanas que estão a cinco quilômetros de cada margem. “Se houver uma comunidade a seis quilômetros, ela não vai receber água. E a população difusa, espalhada pelo interior, não tem nem compromisso [do governo] de que vai acessar essa água”, diz.

A região Nordeste enfrenta a maior crise hídrica de sua história. A estiagem, que já dura seis anos, é potencializada pela falta de planejamento e uso predatório do recurso natural. “O que está acontecendo hoje? Quando se constrói uma grande represa no Nordeste, a primeira coisa que se faz é uma irrigação desenfreada no seu entorno. Vazamentos acontecem e ninguém liga. Além disso, a demanda cresce: há 10 anos, a represa do Boqueirão abastecia Campina Grande e oito municípios. Hoje ela abastece 18 municípios além de Campina Grande. Boqueirão está com 2% apenas. Campina Grande está sendo atendida por frotas de caminhão pipa”, lamenta Suassuna. Em meio a tudo isso, a solução apresentada é trazer água do São Francisco. “Mas essa água vem de uma parte do rio que também já está praticamente seca. E quando chegar à represa, ela vai continuar sendo mal gerida”, aponta ele, que defende que o governo faça um levantamento das demandas de água para beber na região que está recebendo as águas da transposição e também ao longo da Bacia do São Francisco para que se saiba exatamente qual volume do rio pode ser liberado em segurança. “Sem isso, podem estar levando um volume muito maior do que a capacidade que o rio tem de fornecê-lo. É possível que já estejam cobrindo um santo e descobrindo outro”.

Falar em água no São Francisco exige um olhar sistêmico que enxergue não apenas o rio, mas o aquífero que existe embaixo dele, as lagoas, os afluentes, a vegetação nas encostas. Desde as nascentes à foz, o rio sofre há décadas um processo de degradação agravado desde o final dos anos 1970 pela expansão do agronegócio para o oeste baiano, ponta de lança da fronteira agrícola conhecida como Matopiba, que abarca ainda Maranhão, Piauí e Tocantins. O aquífero Urucuia é responsável por mais da metade das vazões de base do rio São Francisco que chegam a Sobradinho. “Quando chove, graças à vegetação nativa a água infiltra e forma lençóis freáticos no subsolo e há um fluxo de água desses lençóis para a calha do rio São Francisco, que a gente chama de vazões de base. Esse fluxo acontece constantemente a centímetros por dia. O que está fazendo o pessoal do agronegócio? Estão cavando poços profundos e captando água diretamente do aquífero para abastecer sistemas de alto consumo, caso dos pivôs centrais de irrigação. Um pivô central pode consumir algo em torno de 2,6 mil m³/hora. Numa região em que o fluxo d’água está acontecendo a centímetros por dia, retirar 2,6 mil m³/hora faz com que essa vazão de base fique reduzida, ela chega ao ponto de interromper”, explica Suassuna.

“O aquífero Urucuia é o que mantém o São Francisco vivo. Ele existe graças à cobertura vegetal nativa, que é o cerrado. O cerrado brasileiro é essa grande esponja, como se fala, que abastece oito bacias hidrográficas. Mas graças ao agronegócio, o cerrado só tem atualmente 40% de cobertura vegetal, ou seja, já destruímos 60% e é por isso que alguns especialistas falam na ‘extinção inexorável do São Francisco’ [a tese é de um grupo de mais de 100 pesquisadores que fizeram um estudo coordenado pela Universidade Federal do Vale do São Francisco]. Porque sem a cobertura vegetal, não tem alimentação dos aquíferos, aí você tem uma redução da vazão. Além disso, o solo sem vegetação produz o carreamento dos sedimentos para o rio causando o assoreamento”, alerta, por sua vez, André Monteiro.

A redução do volume de água aumenta a poluição das águas do Velho Chico. O projeto da transposição previa fazer tratamento sanitário. Uma Caravana de Saneamento promovida pelos ministérios públicos estaduais da Bahia, Sergipe e Alagoas percorreu 14 cidades da bacia do São Francisco que receberam obras. Os promotores notaram que o saneamento era uma das principais variáveis em termos de degradação e que a maioria dos municípios da região não tinha plano de saneamento básico. “Nenhuma estação de tratamento de esgoto está funcionando e até aterros sanitários que foram construídos tinham se transformado em lixão. Do ponto de vista da revitalização, o impacto foi nulo até o momento”, diz Monteiro, que participou de algumas caravanas.

O foco do pesquisador da Fiocruz, no entanto, é o impacto que as obras tiveram nas vidas das pessoas. “Grandes empreendimentos produzem experiências coletivas muito violentas. Afetam o meio ambiente, as terras, os meios de produção e os modos de vida, produzindo perdas materiais e simbólicas que, em geral, levam a sofrimento e agravos. Alcoolismo, depressão, abuso de drogas, prostituição. Diversos grupos e territórios têm sofrido em decorrência das obras da transposição. São indígenas, quilombolas e pequenos produtores. É importante entender que há conflito mesmo entre as pessoas que estão recebendo as obras. É uma coisa da qual pouco se fala”, sublinha Monteiro. A etapa atual do estudo é acompanhar os conflitos por essas águas. “Já tem invasões de terra. Por exemplo, empresários de Floresta [PE] interessados na produção de celulose estão em conflito com indígenas cujo território fica ao lado de um dos canais”.

Não por acaso, a água tem sido o epicentro de uma escalada de violência no país. O relatório ‘Conflitos no Campo Brasil 2016’, divulgado em abril pela Comissão Pastoral da Terra (CPT), aponta que entre 2015 e 2016, as disputas por água aumentaram 27%, somando 172 casos. Desde que começou a registrar os dados, em 2007, a CPT calcula um aumento de 97,7% nesses embates, que estão atingindo cada vez mais pessoas. Em 2007, foram 164 mil. Em 2016 esse número saltou para 222 mil, um acréscimo de 35,8%. A CPT conclui que o cenário conflagrado é um desdobramento de duas lógicas de gestão, apropriação e uso da água: a econômica, que enxerga a água como commodity, e a dos povos, que têm na água um bem essencial à reprodução das condições dignas de vida.

“A grande diferença do Brasil no mundo é sua biodiversidade e suas águas. Nós temos biomas riquíssimos que são celeiros produtores de água. Estudos mostram como a floresta amazônica produz chuva e como o cerrado produz água. Mas a partir da inserção subordinada do país na economia mundial, nossa prioridade passou a ser produzir commodities: carnes, grãos, celulose, minérios. Estamos queimando, vendendo barato os nossos biomas e as nossas águas. É preciso rever urgentemente esse modelo”, defende André Monteiro. “Água, daqui para frente, tem que ser considerada uma questão de segurança nacional. Utilizar pivô central para produzir soja e esquecer que tem gente com sede é o mesmo que decretar o sacrifício do povo em nome do superávit”, conclui João Suassuna.

 


BOLO DE ANIVERSÁRIO DE CINCO ANOS DO NOVO CÓDIGO FLORESTAL É AGRIDOCE
Por Vicente Gomes da Silva e Fabio M. Ferreira, Consultor Jurídico, 03.06.2017

 

 O dia 25 de maio de 2017 ficou marcado como o aniversário de cinco anos da Lei 12.651/2012, conhecida como Novo Código Florestal. Esse “novo” código veio em substituição a Lei 4.771/1965[1], que por sua vez instituía o nosso tradicional Código Florestal Brasileiro.

Na época da instituição do Código Florestal original, falar em sustentabilidade não era tão comum quanto nos dias atuais. O momento social e político era outro, basta lembrar que a referida lei foi promulgada por Castello Branco.

As relações do homem com o meio ambiente estão em constante evolução, e dependem de variáveis econômicas, ecológicas e sociais. Nesses mais de 50 anos, muitas leis e muitos entendimentos jurisprudenciais foram alterados, sendo que se tornou essencial a elaboração de um novo marco legal que trouxesse maior segurança jurídica ao país, implementando novos institutos, sobretudo tecnológicos, que não estavam ao nosso alcance em outras épocas.

Essa pauta ambiental foi ganhando corpo na década de 90, quando as preocupações com o aquecimento global, o efeito estufa, o derretimento das calotas polares, o desaparecimento de espécies de animais e o desmatamento ambiental tiveram a atenção popular que sempre mereceram.

Desta forma, em 2012, depois de anos de debate (tanto no âmbito do Congresso Nacional como em diversos Órgãos ambientais), o Brasil aprovou o seu novo Código Florestal, trazendo novos institutos, consolidando a legislação ambiental, e atualizando as normas para se adaptarem às necessidades que o país passou a possuir. É interessante frisar que, além de ter servido ao propósito acima, a nova lei serviu também de resposta aos nossos observadores internacionais, uma vez que o Brasil se tornou vitrine ambiental em virtude da nossa ampla preservação, e teve grande atenção no ano de 2012 em virtude da realização da Conferência das Nações Unidas sobre Desenvolvimento Natural, conhecida também como Rio+20.

Entre os institutos que ganharam destaque com a Lei 12.651, podemos citar o Cadastro Ambiental Rural (CAR), as Cotas de Reserva Ambiental (CRA), o Programa de Regularização Ambiental (PRA), e o Pagamento por Serviços Ambientais (PSA). Além disso, a lei cuidou de resguardar o direito adquirido daqueles proprietários que averbaram suas reservas legais de acordo com a lei vigente à época, criando a figura da área rural consolidada, fundamental para o funcionamento da legislação e para a segurança jurídica.
O CAR foi definido como um registro público eletrônico de âmbito nacional, obrigatório para todos os imóveis rurais, com a finalidade de integrar as informações ambientais das propriedades e posses rurais. Até 30 de abril de 2017[2], já foram cadastrados, mais de 4.1 milhões de imóveis rurais, totalizando uma área de 407.999.690 hectares inseridos na base de dados do sistema. Ou seja, o trabalho de mapeamento da cobertura vegetal e da atividade rural no Brasil ficou muito facilitado, pois as informações são fornecidas pelo próprio proprietário. De certa forma, o sistema se assemelha ao Imposto de Renda, onde as informações são fornecidas diretamente pelo contribuinte, o que não o isenta de fiscalização e eventual autuação em caso de infrações.

O CAR foi bem-sucedido, estando em sua fase final de implantação, passando-se agora ao início da implementação dos Programas de Regularização Ambiental naquelas propriedades que possuem passivo ambiental a ser recomposto.

Apesar disso, ainda existem algumas dificuldades jurídicas à implementação do PRA, ao exemplo do Estado de São Paulo, onde o programa está suspenso por força de decisão judicial desde maio de 2016, uma vez que o Ministério Público Federal questiona sua legalidade.

Mesmo passando por intensos debates e anos de amadurecimento, o Código Florestal de 2012 sofre críticas, tanto por parte de ambientalistas como por parte do setor do agronegócio. Uns dizem que houve retrocesso ambiental, o que seria vedado pela Constituição, e outros dizem que o Código é muito rígido na proteção ambiental, o que engessa o desenvolvimento do país e impede a competição em pé de igualdade com o mercado americano e chinês, por exemplo. Afirmam, ainda, que nossa previsão de Reserva Legal de 80% em áreas de florestas em bioma amazônico não possui paralelo em nenhum outro país, e que tamanha limitação violaria o direito de usufruto da propriedade particular.

No entanto, o fortalecimento da democracia demanda a assunção dos riscos da tomada de decisão. Se é certo que a vinculação constitucional deve assegurar certas garantias nesse processo, é correto também que ela não pode levar a uma despolitização dos assuntos mais relevantes, nem passar a ilusão de que, recorrendo-se ao Judiciário, é possível proteger a coletividade do risco decisório.

A única certeza que ambos os lados possuem é que as discussões precisam de um ponto final, e esse ponto só será dado pelo Supremo Tribunal Federal. Hoje, o ministro Fux é relator de diversos processos que tratam da constitucionalidade do Código Florestal, entre elas as ADIs 4.901, 4.902, 4.903 e 4.937. Em contrapartida dessas Ações questionatórias, foi ajuizada também uma Ação Declaratória de Constitucionalidade, sob o 42 no STF, que busca exatamente o que o nome sugere, a declaração de constitucionalidade do novo Código Florestal. Apesar de um pedido liminar pela constitucionalidade da norma, o referido pedido ainda não apreciado pelo ministro Fux, que deve levar todos os processos mencionados juntos a julgamento nos próximos meses.

Assim, o bolo do aniversário de cinco anos do Novo Código Florestal é agridoce: o CAR superou as expectativas, e a consolidação das leis ambientais foi festejada, no entanto, diversos institutos estão sendo questionados pelo Ministério Público Federal, atrasando a implementação da norma e causando insegurança jurídica. Resta saber se a instância máxima do Poder Judiciário, que já foi provocada, se posicionará a favor da norma aprovada pelos representantes do povo, ou contra ela.

[1] http://www.planalto.gov.br/ccivil_03/leis/L4771.htm
[2] http://www.florestal.gov.br/numeros-do-car



 

ENTIDADES DEFENDEM VETO DE MEDIDAS PROVISÓRIAS QUE ALTERAM LIMITES DE FLORESTA E PARQUE NA AMAZÔNIA
Ecodebate, 06.06.2017

 

No Dia Mundial do Meio Ambiente, celebrado ontem (5), entidades da sociedade civil e governamentais pedem ao presidente Michel Temer que vete integralmente as Medidas Provisórias (MPs) 756/2016 e 758/2016, que tratam da alteração de limites da Floresta Nacional de Jamanxim e do Parque Nacional de Jamanxim, no oeste do Pará.

Para o diretor executivo do WWF-Brasil, Maurício Voivodic, sancionar essas MPs abre um precedente muito perigoso para que outras áreas protegidas na Amazônia venham a ser reduzidas.

“Mais do que o efeito no local de se reduzir essas áreas, isso é uma mensagem muito ruim que o governo passa para a sociedade de que a atividade ilegal de grilagem, de madeireiros ilegais que está realmente acontecendo em uma dessa áreas, vai ser premiada com a redução dessa área protegida. Ou seja, se você grilar um área protegida, o governo depois reduz essa proteção e dá a área que você grilou”, disse ele.

Segundo Voivodic, as áreas protegidas deveriam aumentar já que o Brasil tem compromissos internacionais, firmado em convenções do clima e da biodiversidade. “Nos últimos dois anos, a taxa de desmatamento na Amazônia aumentou 60%. Mas dentre esses compromissos o principal é reduzir o desmatamento, reduzir as emissões. Só que com esse sinal vai realmente na direção oposta do que o Brasil vinha se propondo e do que o brasileiro quer, que é uma Amazônia protegida”, afirmou.

Acordo de Paris

Entre as metas brasileiras no Acordo de Paris sobre mudanças climáticas está zerar o desmatamento ilegal na Amazônia e recuperar 12 milhões de hectares de florestas. As MPs retiram de proteção 406 mil hectares da Floresta Nacional do Jamanxim, no Pará, e 102 mil hectares do Parque Nacional do Jamanxim, na mesma região, além de 10 mil hectares do Parque Nacional de São Joaquim, em Santa Catarina. A perda refere-se a uma área equivalente a quatro vezes o município de São Paulo ou o território do Distrito Federal.

O Ministério do Meio Ambiente (MMA) e o Instituto Chico Mendes de Conservação da Biodiversidade (ICMBio) também pediram veto às MPs. “A área onde se localiza Jamanxim tem sido palco de frequentes conflitos fundiários e de atividades ilegais de extração de madeira e minérios, associadas à grilagem de terra e à ausência de regramento ambiental, com reflexos na escalada da criminalidade e da violência contra agentes públicos. Os textos aprovados prejudicam a implantação das políticas de governo adequadas para enfrentar essas questões”, diz o MMA, em nota, lembrando também que a valorização da floresta em pé têm importância central nos compromissos assumidos no Acordo de Paris.

Coalização pede que MPs sejam vetadas

A Coalizão Brasil Clima, Florestas e Agricultura, movimento composto por empresas e entidades do agronegócio, também solicitou, em carta ao presidente Michel Temer, que vete as MPs aprovadas pelo Congresso Nacional. O grupo entende que as medidas colocam em risco a reputação do próprio agronegócio brasileiro, que tem se esforçado para vender uma imagem internacional “verde”. “As medidas aprovadas pelo Senado afetarão a segurança jurídica e prejudicarão os investimentos no país, afastando investidores e consumidores exigentes de sistemas produtivos sustentáveis”, diz a carta.
“A aprovação dessas MPs vai na direção contrária à proteção do meio ambiente e ao combate ao desmatamento crescente nos biomas brasileiros e compromete a credibilidade das necessárias iniciativas de desenvolvimento econômico no País. Essas medidas, que trazem danos irreparáveis à biodiversidade e ao clima, resultarão no beneficiamento de alguns poucos indivíduos em detrimento do interesse nacional”, afirma a carta da Coalizão, argumentando ainda que a regularização fundiária de áreas que apresentaram desmatamento ilegal não pode ser autorizada pelo governo.

Cálculos do Instituto de Pesquisa Ambiental da Amazônia (Ipam), citados pela Coalizão, indicam que, até 2030, a redução da floresta nacional pode resultar em 140 milhões de toneladas de CO2 (dióxido de carbono, também conhecido como gás carbônico) a mais na atmosfera. Isso equivale a mais do que o dobro de tudo o que todos os automóveis do Brasil emitiram em 2015.

Segundo o diretor executivo do WWF-Brasil, o texto aprovado no Congresso e que está pronto para sanção presidencial, descaracteriza o propósito original das medidas provisórias encaminhadas pelo governo federal, que era de substituição de uma área da floresta nacional por uma unidade de conservação menos restritiva, só que compensando com o aumento de área do parque nacional, que é de maior restrição. Ao chegar à Câmara dos Deputados, a medida foi modificada, diminuindo as áreas protegidas.

Texto foi alterado

“Até antes de apresentar as medidas, o texto que o MMA estava defendendo já foi modificado por forças no próprio Executivo, de outros ministérios, mas continuou com a lógica de uma compensação. Quando o MMA começou essa conversa, várias Organizações Não Governamentais, inclusive o WWF, alertaram que isso não ia terminar bem. Ao entrar em um Congresso como esse que temos hoje, com troca de favores, interesse para além do interesse nacional, é esse tipo de coisa que acontece. O MMA abriu a conversa com uma lógica interessante, mas avaliou mal os riscos políticos”, disse Voivodic.

O presidente Temer tem até o dia 19 de junho para sancionar ou vetar as MPs.

Por Andreia Verdélio, da Agência Brasil, in EcoDebate, ISSN 2446-9394, 06/06/2017

***
EM MEIO À CRISE, PROJETOS DE INTERESSE DO AGRONEGÓCIO SÃO APROVADOS EM SEQUÊNCIA NA CÂMARA E NO SENADO
André Antunes – EPSJV/Fiocruz e Ecodebate, 08.06.2017
Em meio à crise, ruralistas obtêm vitórias no Congresso
Projetos de interesse do agronegócio são aprovados em sequência na Câmara e no Senado. Ambientalistas denunciam o uso da legislação ambiental como moeda de troca pelo governo para garantir apoio parlamentar

Parlamentares da oposição protestam contra aprovação das MPs 756 e 758 na Câmara Foto: Alex Ferreira/Câmara dos Deputados


Mesmo na crise há oportunidades. É o que diz uma máxima do capitalismo. Essa lição tem sido levada às últimas consequências pela bancada que representa os interesses do agronegócio no Congresso Nacional. Vários projetos que beneficiam ruralistas avançaram na Câmara e no Senado em um espaço de poucos dias, em meio à crise deflagrada pela divulgação das delações da JBS, que implicaram diretamente o presidente Michel Temer, além do senador Aécio Neves (PSDB-MG) e o deputado Rodrigo Rocha Loures (PMDB-PR). Grupos ambientalistas alertam que, enfraquecido pelas denúncias e em busca de apoio, o governo deu carta branca para que parlamentares da base votassem projetos de seu interesse, oportunidade que a bancada ruralista não deixou escapar.


‘MP da grilagem’?


O último episódio do avanço da agenda do agronegócio no Congresso aconteceu na última quinta-feira (01/06) com a aprovação, pelo Senado, da Medida Provisória 759/16, que estabelece regras para a regularização de terras da União ocupadas na Amazônia Legal e novos procedimentos para regularização fundiária urbana. A medida, que agora segue para sanção presidencial, havia sido aprovada na Câmara no dia 24 de maio, em sessão esvaziada por deputados da oposição que abandonaram o plenário em protesto contra a emissão, pelo presidente, de um decreto autorizando o emprego das Forças Armadas para “garantia da lei e da ordem” no Distrito Federal entre os dias 24 e 31 de maio.


A medida foi apelidada de “MP da grilagem” por movimentos sociais do campo e grupos ambientalistas, principalmente devido às alterações que ela faz no texto da lei 11.952/09, que regulamentou, no segundo mandato Lula, o ‘Terra Legal’, programa de regularização de terras da União ocupadas irregularmente na Amazônia Legal.


“No discurso a ideia era dar segurança jurídica para pequenos produtores, posseiros que ocupavam determinadas áreas, mas sem titulação. Mas há estudos que já levantam que boa parte dos beneficiários são grandes propriedades, que muitas vezes utilizavam o ‘Terra Legal’ para legalizar terras griladas”, afirma Karina Kato, professora do Programa de Pós-Graduação de Ciências Sociais em Desenvolvimento, Agricultura e Sociedade (CPDA) da Universidade Federal Rural do Rio de Janeiro (UFRRJ).


A MP aprovada agora é uma “versão piorada” do programa, de acordo com o advogado Mauricio Guetta, do Instituto Socioambiental (ISA). Relatada pelo senador Romero Jucá (PMDB-RR), além de ampliar a abrangência do programa para todo o território nacional, flexibilizou os critérios para regularização.  “Antes as salvaguardas ambientais eram pré-requisito para essa regularização, então o proprietário teria que ter a sua área de preservação permanente devidamente preservada, assim como a reserva legal, ter licenciamento ambiental se fosse o caso, enfim, deveria respeitar toda a legislação; hoje, pelo texto que foi aprovado na Câmara, bastaria a inscrição no cadastro ambiental rural sem que haja necessidade de cumprir, de fato, a legislação”, alerta.


Além disso, a MP ampliou de 1,5 mil para 2,5 mil hectares o tamanho máximo das propriedades passíveis de serem regularizadas. “O que o Romero Jucá fez foi estender para o latifúndio, inclusive permitindo que pessoas donas de outras propriedades façam essa regularização a preço de banana”, critica Guetta e adverte: “Essa medida, fatalmente, vai parar no Supremo, a gente não tem dúvida”.


Presidente da Frente Parlamentar da Agropecuária (FPA), o deputado Nilson Leitão (PSDB-MT) discorda da análise de que a MP é um incentivo à grilagem. “O Brasil é o país que mais tem terras para assentamentos em todos os países do mundo, e não regulariza, simplesmente não consegue regularizar essas áreas, o que é um crime com o produtor, seja ele pequeno, médio ou grande”, afirma. Ele acredita que há um excesso de burocracia para regularização fundiária no país. “Isso é o que essa esquerda socialista quer. Ela quer justamente que você não tenha o documento da sua propriedade para continuar promovendo invasão. O Estado é que tem que ser competente para resolver de quem é a propriedade, e não continuar criando novos donos a cada invasão”, protesta o deputado.


Segundo ele, o fato de a medida ter sido aprovada em meio ao Ocupa Brasília e com o plenário esvaziado não a deslegitima. “Aquilo não foi protesto, foi uma baderna que construíram em Brasília, uma destruição de prédios públicos. Quando eles [os deputados da oposição] abandonam o plenário, deixam de representar com o voto deles aquela parte da sociedade que concorda com eles. A democracia é isso, a maioria ganha, a minoria perde”, avalia.


No dia anterior à manifestação do dia 24 em Brasília, o Senado já havia aprovado outras duas medidas provisórias de interesse dos ruralistas. A primeira foi a MP 756, que reduziu em 487 mil hectares os limites da Floresta Nacional do Jamanxim, no sudoeste do Pará, criando uma Área de Proteção Ambiental (APA) do Jamanxim. A APA é um tipo de unidade de conservação que permite a compra e venda de terras em seu interior, a agricultura, a pecuária e a mineração.  Já a MP 758 retirou 101 mil hectares do Parque Nacional do Jamanxim também para criação de uma APA, que vai se chamar Rio Branco.


“Essa é uma área que vem sendo muito disputada para escoamento da soja”, explica Karina Kato. “Ela sai hoje pelo porto de Paranaguá, mas como a exportação cresceu muito nos últimos anos está congestionado. Quanto mais cara ela chega no mercado internacional, menor competitividade ela vai ter. Então uma das propostas de alternativa para o escoamento é via Pará, e essa área do Jamanxim é justamente no entorno da ferrovia Ferrogrão, que eles querem usar para escoar a produção”, diz a professora do CPDA. Essa é outra questão que deve parar no STF, segundo Maurício Guetta. “A Constituição é explícita ao determinar que redução de unidade de conservação só pode ser feita através de lei, no sentido estrito. É outra medida que vai acabar no Supremo, gerando insegurança jurídica naquela região”, aponta.


A data da aprovação das MPs 756 e 758 no Senado, 23 de maio, coincide com a de uma reunião da Frente Parlamentar da Agropecuária em que os integrantes da bancada decidiram que manteriam o apoio aos projetos do governo de Michel Temer apesar das denúncias que o atingiram.


Em matéria do Canal Rural sobre a decisão, o deputado Marcos Montes (PSD-MG) afirmou: “O presidente não tinha uma aprovação popular e nós sabemos disso. No entanto, ele tinha aprovação dentro do Congresso e se a aprovação persistir, vai permitir que a gente avance nas reformas, o que é ideal para o Brasil. O que nós não podemos perder é a governabilidade, porque os avanços, através das reformas, têm que acontecer”.


Questionado pelo Portal EPSJV se o apoio da bancada ruralista ao governo tinha relação com a aprovação das medidas provisórias, o presidente da FPA, deputado Nilson Leitão afirmou que “não tem nada a ver uma coisa com a outra”. “O Michel Temer, com todos os problemas que tem vivido, conseguiu tirar esse desequilíbrio desse debate esquerda e direita e trazer equilíbrio. Eu acho que o que precisava fazer era tirar esse debate ideológico. Quando você tira esse debate ideológico, qualquer presidente que vier não vai ter mais condições de desequilibrar esse debate”, tergiversa.


No entanto, a aprovação sucessiva de projetos de interesse dos ruralistas em meio à crise do governo Temer e os riscos que isso traz para a legislação ambiental são motivos de preocupação para Maurício Guetta. “O governo Temer está buscando manter o apoio que tem no Congresso, na base do governo. Para isso, ele vai fazer as concessões que forem demandadas dele, independente do nível de barbaridade que se pretenda estabelecer. Me parece que o que está ocorrendo hoje é um processo de barganha dessas bancadas, e a bancada ruralista, devido ao seu número expressivo de parlamentares, tem esticado muito a corda”, aponta.


Flexibilização do licenciamento ambiental em pauta
A flexibilização do licenciamento ambiental é outra pauta de interesse da bancada ruralista que avança no Congresso. Essa semana deve ir à votação na Comissão de Finanças e Tributação (CFT) da Câmara o PL 3.729/04, que é objeto de disputa entre o governo a bancada ruralista.


O projeto vinha sofrendo críticas por parte do ministro do Meio Ambiente, Sarney Filho, que vinha defendendo que o governo apresentasse um projeto próprio sobre o tema para ser votado no plenário da Câmara. A delação da JBS enfraqueceu a posição do governo, no entanto, e a bancada ruralista, que controla a comissão que vota a matéria na Casa, dá mostras de que deve obter mais uma “vitória” no Congresso.


Segundo o deputado Nilson Leitão, a matéria, que estava na pauta da comissão na semana passada, foi retirada por falta de consenso em torno de alguns itens do projeto, que ele acredita que deve ser atingido até a próxima reunião da comissão, marcada para quarta-feira (07/06). “O ponto que nós mais criticamos, que deve ser retirado do texto, é exatamente a dependência de órgãos que não está ligada diretamente à questão da liberação da licença, mas que fica condicionante à sua aprovação pra que a licença possa ser liberada, como o Iphan e a Funai, por exemplo. É uma burocracia desnecessária e que vem atrapalhar e muito”, diz Leitão.


Em nota técnica, o Ministério Público Federal fez diversos questionamentos ao processo de discussão e ao conteúdo do projeto de lei, citando entre os principais “pontos críticos” do texto a “falta de diálogo adequado com a sociedade civil” e uma “deficiente participação popular” nos debates. O MPF questionou ainda a fixação de “prazos exíguos e caráter meramente consultivo das autoridades envolvidas, possibilitando a aprovação dos licenciamentos sem a manifestação (ou com parecer contrário) de outros órgãos envolvidos no processo, especialmente o Iphan, a Funai, a Fundação Palmares, a SPU e o ICMBio, bem como seus equivalentes em âmbito estadual” e o estabelecimento de “prazos rígidos e insuficientes” para a realização de análises pelas autoridades licenciadoras, órgãos “notoriamente carentes de recursos humanos e financeiros para o adequado desempenho de suas funções”, bem como mesmo com parecer contrário dessas instituições.


O exemplo da Funai ilustra o problema identificado pelo MPF, segundo Maurício Guetta. “A Funai tinha parcos 14 funcionários para cuidar de licenciamento ambiental no Brasil inteiro. São quase 300 processos de licenciamento altamente complexos”, exemplifica. E o que já era ruim ficou pior sob a gestão do agora ex-ministro Osmar Serraglio no Ministério da Justiça. “Ele, que inclusive integra a Frente Parlamentar da Agropecuária , reduziu para oito funcionários, deixando o órgão em estado de calamidade. É evidente que com esse déficit ficou impossível cumprir qualquer prazo que se estabeleça”, critica, completando que o desmonte dos órgãos justifica, no discurso, o enfraquecimento da sua participação no licenciamento.


Outro ponto crítico do projeto em análise na Câmara diz respeito à previsão de isenção de licenciamento ambiental concedida a atividades como a agricultura, a pecuária e a silvicultura. “A lei não pode dispensar do licenciamento atividades de forma irrestrita assim, a priori. Para algumas atividades de menor impacto, pode até haver um licenciamento mais simplificado, mas um latifúndio que utilize agrotóxicos, que promova supressão de vegetação, que escasseie manaciais de água para suas atividades, isso gera um impacto significativo e esse empreendimento deve ser objeto de licenciamento rigoroso. A gente defende que haja proporcionalidade”, ressalta Guetta.


Segundo o advogado, essa questão já foi inclusive alvo de uma decisão do STF, em 2001, quando o tribunal julgou uma Ação Direta de Inconstitucionalidade (Adin) sobre uma lei estadual de Santa Catarina que isentava algumas atividades de licenciamento ambiental. “E o Supremo considerou que essa dispensa geral e irrestrita, independentemente do porte, do potencial poluidor e do local da atividade, é incompatível com a Constituição, e declarou a inconstitucionalidade dessa norma de Santa Catarina”, resgata Guetta.


A flexibilização da legislação sobre o licenciamento ambiental é um dos principais itens da agenda da bancada ruralista no Congresso, e o PL 3.729/04 é só uma das frentes de disputa. Em abril do ano passado a Comissão de Constituição e Justiça do Senado aprovou a PEC 65/2012, de autoria do senador Acir Gurgacz (PDT-RO) e relatada pelo atual ministro da Agricultura, Blairo Maggi (PR-MT), que estabelece que a partir da apresentação de um Estudo de Impacto Ambiental (EIA) as obras de um empreendimento possam começar.  A PEC, que aguarda para ser votada em plenário, segundo seus críticos, acaba, na prática, com o processo de licenciamento ambiental. “A ideia é acabar com a necessidade de aguardar as etapas do licenciamento para construir, porque hoje só se consegue construir a partir da segunda etapa, que é a etapa de instalação. Essa PEC, na medida em que já permite a construção a partir de um estudo que as próprias empresas pagam para uma consultoria fazer, desmonta de fato o licenciamento. Porque depois que a obra está construída, nenhum governo consegue desmontar”, afirma Karina Kato.

 


DESASTRES CLIMÁTICOS ABREN DEBATE SOCIOAMBIENTAL EN AMÉRICA LATINA
Fabiana Frayssinet, Inter Press Service Agencia de Notícias, 31.05.2017

Uno de los valles de Cusco, en Perú, en el área de Machu Picchu, en donde la deforestación en sus montañas es visible. El retorno a los cultivos tradicionales es una de las respuestas para mitigar el impacto del cambio climático en la agricultura, indican los expertos. Crédito: Fabiana Frayssinet/IPS


LIMA, 31 may 2017 (IPS) - El aumento de los desastres climáticos en América Latina, que según organismos internacionales representan 70 por ciento de sus emergencias, impulsa un debate socioambiental en la región que busca profundizar sobre las causas yrespuestas ante estos eventos extremos.


La advertencia de la Organización de Naciones Unidas para la Alimentación y la Agricultura (FAO) y otras instituciones multilaterales, es que la variabilidad climática incrementará la frecuencia y magnitud de los eventos extremos.


Según el Índice de Riesgo Climático Global, durante el periodo 1996-2015 cuatro de los 10 países más afectados en el mundo son de América Latina y el Caribe: Honduras (primero de todos), Haití (tercero), Nicaragua (cuarto) y Guatemala (noveno).


Perú sufrió entre marzo y abril inundaciones y deslizamientos, debido al fenómeno de “El Niño costero”, generado por el calentamiento de las aguas del litoral, con un saldo de más de 100 muertos, un millón de personas afectadas, 7.000 productores rurales damnificados (80 por ciento pequeños agricultores) e incalculables daños de infraestructura.


Las lluvias también dañaron más de 60.000 hectáreas e inutilizaron 18.000.


“Los cambios en patrones en precipitaciones y de temperatura continuarán. No necesariamente habrá efectos de desastres naturales evidentes, pero si cambio en el crecimiento de los cultivos, en el comportamiento de alguna plaga o enfermedades que podrían llegar a surgir o cambios en la productividad”, señaló Fernando Castro Verastegui, coordinador de Políticas de Desarrollo Rural y Seguridad Alimentaria de FAO en Perú.


“Tenemos que desarrollar bastante investigación para el desarrollo de nuevas variedades de cultivos que se adapten, tenemos que desarrollar prácticas que generen resiliencia en el productor, y adaptación a este cambio climático”, apuntó.


Entre 2003 y 2013, la FAO estima que 22 por ciento de las pérdidas y daños causados por desastres de mediana y alta intensidad en países del Sur en desarrollo afectaron al sector agrícola.
Esta situación cobra especial importancia en esta región, que es una gran productora mundial de alimentos. Ese sector, del que depende prácticamente un tercio de la población latinoamericana activa, sufrió13 por ciento de los daños causados por desastres.


La FAO y la Oficina de Naciones Unidas para la Reducción del Riesgo de Desastres ayudan a la región a desarrollar una Estrategia Regional de Gestión del Riesgo de Desastres en el sector agrícola y la seguridad alimentaria y nutricional, a solicitud de la Comunidad de Estados Latinoamericanos y Caribeños.


“Es un proceso irreversible, pero tenemos oportunidades de desarrollar nuevas tecnologías. Básicamente a partir de semillas que permitan una mejor adaptación y buenas prácticas agrícolas que nos permitan hacer un mejor manejo del cultivo y podamos hacer frente a este cambio climático”, explicó Castro Verastegui.


“El cambio climático no solamente es negativo, también genera oportunidades”, afirmó.


Como ejemplo, dijo que en zonas alto-andinas de Perú no eran aptas para cultivar algunas hortalizas y tubérculos y las alteraciones climáticas generan oportunidades de hacerlo.


Castro Verastegui también apuesta al rescate de las tradiciones de la agricultura familiar y a su fortalecimiento para enfrentar estos problemas.

 

Mapa del Índice de Riesgo Climático Global, durante el periodo 1996-2015, donde cuatro de los 10 países más afectados pertenecen a América Latina y el Caribe, señalados en color granate, con Honduras encabezando el ranking. Crédito: German Watch

Augusto Castro Carpio, director del Instituto de Ciencias de la Naturaleza, Territorio y Energías Renovables de la Pontificia Universidad Católica del Perú, consideró que en su país y en otros de la región el Estado no está en capacidad de enfrentar estos eventos climáticos.


“Creo que tenemos que pensarlo con mucho cuidado en toda América Latina, porque fenómenos de este tipo se van a repetir por todas partes y los Estados tienen que prepararse”, dijo a IPS.


“El Estado peruano ha perdido un punto y medio del PIB con esto. Esto nos vuelve a sumir en la pobreza esto genera problemas. Esperemos que el gobierno lo utilice para hacer una reconstrucción del país, pero tomando en cuenta las normas para cuestiones ambientales”, advirtió como una de las situaciones que se repiten en la región.


Como consecuencia del calentamiento global, crece el interés de las ciencias sociales en el impacto del fenómeno desde hace una década.


Gabriela Merlinsky, del Instituto de Investigaciones Gino Germani de la Universidad de Buenos Aires, lo atribuyó “al interés legítimo que tenemos las ciencias sociales en esos temas” y a que los cambios ambientales globales “son producto de la intervención humana”.


También al llamado del sector científico de que las ciencias sociales intervengan.
“La relación sociedad-naturaleza es la que está definiendo este proceso de aceleración en la tasa de extracción de los recursos naturales y de formas de uso de los recursos y del suelo, que implican mayores riesgos ambientales”, dijo a IPS.


Su análisis, partiendo de las experiencias en el Cono Sur, “tiene que ver con identificar contextos de mayor vulnerabilidad frente a los efectos del cambio climático”.


“El aspecto peligroso de esto es que se vuelva un discurso globalizante por el cual echemos la culpa de todos los males al cambio climático y no tomemos en cuenta aquellos elementos estructurales de nuestra sociedad que hacen por ejemplo, que nos inundemos más”, puntualizó.


Citó el caso de Argentina, donde hay una recurrencia de inundaciones en diferentes ciudades costeras y sobretodo en la región de la Pampa.


“Lo que ha habido es una intensificación del monocultivo, en particular la producción sojera que absorbe mucho menos agua que otro cultivo. El agua queda retenida en el suelo y hay un elevamiento de los niveles de las cuencas hidrológicas lo que son las napas freáticas. Eso aumenta la exposición a las inundaciones”, explicó.


Por eso para la investigadora, que integra un Grupo de Trabajo sobre Ecología Política del Consejo Latinoamericano de Ciencias Sociales (Clacso), lo que está detrás de esos problemas “es la vieja cuestión del capitalismo y del avance despiadado sobre los recursos naturales” y los “serios problemas de regulación” de parte del Estado.


“La crisis, más que una crisis ambiental, es una crisis ecopolítica.  Es una crisis de regulación, es una crisis de horizonte, y es una crisis en relación a modos de hacer políticas que no toman en cuenta las demandas sociales”, concluyó Merlinsky.


La colombiana Catalina Toro analizó que algo similar ocurre con los fenómenos climáticos de su país, que en abril causaron en Mocoa, en el amazónico departamento de Putumayo, devastadores aludes sobre viviendas, con el saldo de más de 300 muertos, además de  miles de desplazados.


Fue una de las mayores catástrofes sufridas en Colombia en tiempos recientes.


Mientras los medios culpan a El Niño de estas lluvias extremas, “lo que decimos nosotros es que no es un desastre natural”, aseguró a IPS esta académica de la Facultad de Derecho, Ciencias Políticas y Sociales de la Universidad Nacional de Colombia.


“Son lugares completamente deforestados, lugares donde los desplazados de los desplazados, son obligados a asentarse en unas condiciones bastantes frágiles al lado de los ríos”, subrayó Toro, quien también participa como una de las coordinadoras en el grupo de Clacso.


A su juicio, “estos problemas tienen que ver con la deforestación, la ampliación de la frontera agrícola, la construcción de carreteras, la exploración petrolera y minera, que va moviendo los ecosistemas y afectando de manera muy fuerte toda esa zona que es un bosque húmedo tropical que de por sí ya está bastante intervenido por la colonización”.


Para Toro ese “modelo de desarrollo depredador extractivo” corre el grave peligro de ampliarse, ahora que concluyó el conflicto armado entre el gobierno y las Fuerzas Armadas Revolucionarias de Colombia (FARC) y es posible penetrar y explotar  territorios de gran valor ecológico, antes vedados por la guerra.
Editado por Estrella Gutiérrez

 


RISE OF THE MACHINES: WHO IS THE ‘INTERNET OF THINGS’ GOOD FOR?
Adam Greenfield, The Guardian, 06.06.2017

Interconnected technology is now an inescapable reality – ordering our groceries, monitoring our cities and sucking up vast amounts of data along the way. The promise is that it will benefit us all – but how can it?


In San Francisco, a young engineer hopes to “optimise” his life through sensors that track his heart rate, respiration and sleep cycle. In Copenhagen, a bus running two minutes behind schedule transmits its location and passenger count to the municipal traffic signal network, which extends the time of the green light at each of the next three intersections long enough for its driver to make up some time. In Davao City in the Philippines, an unsecured webcam overlooks the storeroom of a fast food stand, allowing anyone to peer in on all its comings and goings.


Lose yourself in a great story: Sign up for the long read email


From politics to fashion, international investigations to new thinking, culture to crime - we’ll bring you the biggest ideas and the arguments that matter
Read more


What links these wildly different circumstances is a vision of connected devices now being sold to us as the “internet of things”. The technologist Mike Kuniavsky, a pioneer of this idea, characterises it as a state of being in which “computation and data communication [are] embedded in, and distributed through, our entire environment”. I prefer to see it for what it is: the colonisation of everyday life by information processing.


Though it can often feel as if this colonisation proceeds of its own momentum, distinct ambitions are being served wherever and however the internet of things appears. The internet of things isn’t a single technology. About all that connects the various devices, services, vendors and efforts involved is the end goal they serve: capturing data that can then be used to measure and control the world around us.
Whenever a project has such imperial designs on our everyday lives, it is vital that we ask just what ideas underpin it and whose interests it serves. Although the internet of things retains a certain sprawling and formless quality, we can get a far more concrete sense of what it involves by looking at how it appears at each of three scales: that of our bodies (where the effort is referred to as the “quantified self”), our homes (“the smart home”) and our public spaces (“the smart city”). Each of these examples illuminates a different aspect of the challenge presented to us by the internet of things, and each has something distinct to teach us.


At the most intimate scale, the internet of things is visible in the form of wearable biometric sensors. The simplest of these are little more than networked digital pedometers, which count steps, measure the distance a person has traversed, and furnish an estimate of the calories burned in the course of this activity. More elaborate models measure heart rate, breathing, skin temperature and even perspiration.

Advertisement


If wearable biometric devices such as Fitbits and Apple Watches are, in theory, aimed at rigorous self-mastery, the colonization of the domestic environment by similarly networked products and services is intended to deliver a very different experience: convenience. The aim of such “smart home” efforts is to short-circuit the process of reflection that stands between having a desire and fulfilling that desire by buying something.


Right now, the perfect example of this is a gadget being sold by Amazon, known as the Dash Button. Many internet-of-things devices are little more than some conventional object with networked connectivity tacked on. The Dash Button is the precise opposite, a thing in the world that could not have existed without the internet. I cannot improve on Amazon’s own description of this curious object and how it works, so I’ll repeat it here: “Amazon Dash Button is a Wi-Fi-connected device that reorders your favourite item with the press of a button. To use Dash Button, simply download the Amazon app from the Apple App Store or Google Play Store. Then, sign into your Amazon Prime account, connect Dash Button to Wi-Fi, and select the product you want to reorder. Once connected, a single press on Dash Button automatically places your order.”


In other words: single-purpose electronic devices, each dedicated to an individual branded item, that you press when you’re running low. Pressing a Dash Button specific to your preferred pet food, washing powder or bottled water automatically composes an order request to Amazon for that one product.


I don’t for a second want to downplay the value of such a product for people who have ageing parents to look after, or kids to drop off at daycare, or for whom simply getting in the car to pick up some cat food may take an hour or more out of their day. But the benefit to the individual customer is tiny compared with what Amazon gains. Sure, you never run out of cat food. But Amazon gets data on the time and place of your need, as well as its frequency and intensity, and that data has value. It is an asset, and you can be sure that Amazon will exploit it in every way its terms and conditions permit – including by using it to develop behavioural models that map our desires in high resolution, so as to target them with even greater efficiency in the future.


Advertisement


Again, the aim of devices such as the Dash Button is to permit the user to accomplish commercial transactions with as little conscious thought as possible – not even the few moments it takes to tap out commands on the touchscreen of a phone or tablet. The data on what the industry calls “conversion” is as clear as it is unremitting: with every box to tick or form to fill, the percentage of users that make it all the way to checkout tumbles. The fewer steps there are in a transaction, the more likely people are to spend their money.


Manufacturers, enticed by the revenue potential of conquering the domestic environment, keep trying to eliminate these steps, in the hope that one of their connected products will become as essential to everyday life as the smartphone. The recent industry push toward the “smart home” is simply the latest version of this.


For the moment, this strategy is centred on so-called smart speakers, a first generation of which have now reached the market. These products include the Amazon Echo and Google Home, each of which is supposed to function as the command hub of a connected domestic environment. Amazon’s Echo is a simple cylinder, while the Google Home is a bevelled ovoid. But the physical form of such speakers is all but irrelevant, as their primary job is to function as a branded “virtual assistant”, providing a simple, integrated way to access the numerous digital controls scattered throughout the contemporary home – from lighting and entertainment to security, heating, cooling and ventilation systems.


Google, Microsoft, Amazon and Apple each offer their own such assistant, based on natural-language speech recognition. Most are given female names, voices and personalities, presumably based on research indicating that users of all genders prefer to interact with women. Apple’s is called Siri and will, according to reports, soon be getting its own device, Amazon’s Alexa, and Microsoft’s Cortana, while one simply addresses Google’s Home offering as “Google.”


At first, such devices seem harmless enough. They sit patiently and quietly at the periphery of our awareness, and we only speak to them when we need them. But when we consider them more carefully, a more problematic picture emerges.


This is how Google’s assistant works: you mention to it that you’re in the mood for Italian food, and then, in the words of one New York Times article, it “will then respond with some suggestions for tables to reserve at Italian restaurants using, for example, the OpenTable app”.


This example shows that though the choices these assistants offer us are presented as neutral, they are based on numerous inbuilt assumptions that many of us would question if we were to truly scrutinise them.


Advertisement


Ask restaurateurs and front-of-house workers what they think of OpenTable, for example, and you will swiftly learn that one person’s convenience is another’s accelerated pace of work, or worse. You’ll learn that restaurants offering reservations via the service are, according to the website Serious Eats, “required to use the company’s proprietary floor-management system, which means leasing hardware and using OpenTable-specific software”, and that OpenTable retains ownership of all the data generated in this way. You’ll also learn that OpenTable takes a cut on reservations per seated diner, which obviously adds up to a significant amount on a busy night.


Conscientious diners have therefore been known to bypass the ostensible convenience of OpenTable, and make whatever reservations they have to by phone. By contrast, Google Home’s frictionless default to making reservations via OpenTable normalises the choice to use that service.


This is not accidental. It reflects the largely preconscious valuations, priorities and internalised beliefs of the people who devised Google Home. As throughout the industry, that is a remarkably homogeneous cohort of young designers and engineers. But more important than the degree of similarity they bear to one another is how different they are from everyone else.


Internet-of-things devices are generally conceived by people who have completely assimilated services such as Uber, Airbnb and Apple Pay into their daily lives, at a time when figures from the Washington DC-based Pew Research Center suggest that a significant percentage of the population has never used or even heard of them. For the people who design these products, these services are normal, and so, over time, they become normalised for everyone else.


Advertisement


There are other challenges presented by this way of interacting with networked information. It’s difficult, for example, for a user to determine whether the options they are being offered by a virtual assistant result from what the industry calls an “organic” return – something that legitimately came up as the result of a search process – or from paid placement. But the main problem with the virtual assistant is that it fosters an approach to the world that is literally thoughtless, leaving users disinclined to sit out any prolonged frustration of desire, and ever less critical about the processes that result in gratification.


Virtual assistants are listening to everything that transpires in their presence, and are doing so at all times. As voice-activated interfaces, they must be constantly attentive in order to detect when the “wake word” that rouses them is spoken. In this way, they are able to harvest data that might be used to refine targeted advertising, or for other commercial purposes that are only disclosed deep in the terms and conditions that govern their use. The logic operating here is that of preemptive capture: the notion that companies such as Amazon and Google might as well trawl up everything they can, because no one knows what value might be derived from it in the future.


This leads to situations that might be comical, were it not for what they imply about the networking of our domestic environments. These stories circulate as cautionary tales: one of the best-known was the time the US National Public Radio network aired a story about the Amazon Echo, and various cues spoken on the broadcast were interpreted as commands by Echos belonging to members of the audience, causing domestic chaos.


Put aside for one moment the question of disproportionate benefit – the idea that you as the user derive a little convenience from your embrace of a virtual assistant, while its provider gets everything – all the data about your life and all its value. Let’s simply consider what gets lost in the ideology of convenience that underlies this conception of the internet of things. Are the constraints presented to us by life in the non-connected world really so onerous? Is it really so difficult to wait until you get home before you preheat the oven? And is it worth giving away so much, just to be able to do so remotely?
M ost of us are by now aware that our mobile phones are constantly harvesting information about our whereabouts and activities. But we tend to be relatively ignorant of the degree to which the contemporary streetscape has also been enabled to collect information. This development is often called the “smart city”. If the ambition beneath the instrumentation of the body is ostensible self-mastery, and that of the home is convenience, the ambition at the heart of the smart city is nothing other than control – the desire to achieve a more efficient use of space, energy and other resources.

Advertisement


A broad range of networked information-gathering devices are increasingly being deployed in public space, including CCTV cameras; advertisements and vending machines equipped with biometric sensors; and the indoor micropositioning systems known as “beacons” that, when combined with a smartphone app, send signals providing information about nearby products and services.


The picture we are left with is that of our surroundings furiously vacuuming up information, every square metre of seemingly banal pavement yielding so much data about its uses and its users that nobody yet knows what to do with it all. And it is at this scale of activity that the guiding ideology of the internet of things comes into clearest focus.


The strongest and most explicit articulation of this ideology in the definition of a smart city has been offered by the house journal of the engineering company Siemens: “Several decades from now, cities will have countless autonomous, intelligently functioning IT systems that will have perfect knowledge of users’ habits and energy consumption, and provide optimum service ... The goal of such a city is to optimally regulate and control resources by means of autonomous IT systems.”


There is a clear philosophical position, even a worldview, behind all of this: that the world is in principle perfectly knowable, its contents enumerable and their relations capable of being meaningfully encoded in a technical system, without bias or distortion. As applied to the affairs of cities, this is effectively an argument that there is one and only one correct solution to each identified need; that this solution can be arrived at algorithmically, via the operations of a technical system furnished with the proper inputs; and that this solution is something that can be encoded in public policy, without distortion. (Left unstated, but strongly implicit, is the presumption that whatever policies are arrived at in this way will be applied transparently, dispassionately and in a manner free from politics.)
Every aspect of this argument is questionable. Perhaps most obviously, the claim that anything at all is perfectly knowable is perverse. However thoroughly sensors might be deployed in a city, they will only ever capture what is amenable to being captured. In other words, they will not be able to pick up every single piece of information necessary to the formulation of sound civic policy.


Other, all-too-human distortions inevitably colour the data collected. For instance, people may consciously adapt to produce metrics favourable to them. A police officer under pressure to “make quota” may focus on infractions that she would ordinarily overlook, while conversely, her precinct commander, under pressure to present the city as ever-safer, may downwardly classify a felony assault as a simple misdemeanour. This is the phenomenon known to viewers of The Wire as “juking the stats,” and it is particularly likely to occur when financial or other incentives depend on achieving a performance threshold.


There is also the question of interpretation. Advocates of smart cities often seem to proceed as if it is self-evident that each of our acts has a single, salient meaning, which can be recognised, made sense of and acted upon remotely by an automated system, without any possibility of error. The most prominent advocates of this approach appear to believe that no particular act of interpretation is involved in making use of any data retrieved from the world in this way.


Advertisement


But data is never “just” data, and to assert otherwise is to lend inherently political and interested decisions an unmerited gloss of scientific objectivity. The truth is that data is easily skewed, depending on how it is collected. Different values for air pollution in a given location can be produced by varying the height at which a sensor is mounted by a few metres. Perceptions of risk in a neighbourhood can be transformed by slightly altering the taxonomy used to classify reported crimes. And anyone who has ever worked in opinion polling knows how sensitive the results are to the precise wording of a survey.


The bold claim of “perfect” knowledge appears incompatible with the messy reality of all known information-processing systems, the human individuals and institutions that make use of them and, more broadly, with the world as we experience it. In fact, it is astonishing that any experienced engineer would ever be so unwary as to claim perfection on behalf of any computational system, no matter how powerful.


The notion that there is one and only one solution to urban problems is also deeply puzzling. Cities are made up of individuals and communities who often have competing preferences, and it is impossible to fully satisfy all of them at the same time.


That such a solution, if it even existed, could be arrived at algorithmically is also implausible. Assume, for the sake of argument, that there did exist a master formula capable of balancing the needs of all of a city’s competing constituencies. It certainly would be convenient if this golden mean could be determined automatically and consistently. But the wholesale surrender of municipal management to an algorithmic toolset seems to place an undue amount of trust in the party responsible for authoring the algorithm.

If the formulas behind this vision of future cities turn out to be anything like the ones used in the current generation of computational models, life-altering decisions will hinge on the interaction of poorly defined and subjective values. The output generated by such a procedure may turn on half-clever abstractions, in which complex circumstances resistant to direct measurement are reduced to more easily determined proxy values: average walking speed stands in for the “pace” of urban life, while the number of patent applications constitutes an index of “innovation”, and so on.

Quite simply, we need to understand that creating an algorithm intended to guide the distribution of civic resources is itself a political act. And, at least for now, nowhere in the current smart-city literature is there any suggestion that either algorithms or their designers would be subject to the ordinary processes of democratic accountability.

Advertisement

And finally, it is difficult to believe that any such findings would ever be translated into public policy in a manner free from politics. Policy recommendations derived from computational models are only rarely applied to questions as politically sensitive as resource allocation without some intermediate tuning taking place. Inconvenient results may be suppressed, arbitrarily overridden by more heavily weighted decision factors, or simply ignored.

As matters now stand, the claim of perfect competence that is implicit in most smart-city rhetoric is incommensurate with everything we know about the way technical systems work. It also flies in the face of everything we know about how cities work. The architects of the smart city have failed to reckon with the reality of power, and the ability of elites to suppress policy directions that don’t serve their interests. At best, the technocratic notion that the analysis of sensor-derived data would ever be permitted to drive municipal policy is naive. At worst, though, it ignores the lessons of history.

So, yes: the internet of things presents many new possibilities, and it would be foolish to dismiss those possibilities out of hand. But we would also be wise to approach the entire domain with scepticism, and in particular to resist the attempts of companies to gather ever more data about our lives – no matter how much ease, convenience and self-mastery we are told they are offering us.

This is an adapted extract from Radical Technologies: The Design of Everyday Life by Adam Greenfield, published this week by Verso.

  • Follow the Long Read on Twitter at @gdnlongread, or sign up to the long read weekly email here.

https://www.theguardian.com/technology/2017/jun/06/internet-of-things-smart-home-smart-city

 


 

PUT SCIENCE ON THE FRONTLINE IN EMERGENCIES
Anita Makri, SciDev.Net, 05.06.2017

You have a mission to help people caught up in an emergency – would you put scientific research on your to-do list?

 
The answer isn’t an obvious ‘yes’. While the work of humanitarian and other NGOs may be guided by the products of science, scientific research tends not to be high on the agenda.
 
This is why, for the past three years, I’ve been more than intrigued to follow the Scientific Days events organised by the medical charity Medicins Sans Frontières (MSF) to showcase research and innovation from the field. You simply don’t get NGOs openly reporting frontline research very often.

 
And since it is so rare, I found myself asking this year, whether the science on show reaches others who could make use of it – and whether research conducted outside MSF feeds into their own thinking.

 
Held over the past two weeks in the UK, Malawi and India, MSF’s Scientific Days focused on infectious diseases and innovation – including an app that helps the charity map remote areas and the making of a bespoke autoclave to sterilise equipment for complex surgery.

 

“Wherever we’re working, we’re never working in a vacuum, we generally try to cooperate and work with ministries of health...and with other medical organisations” Vickie Hawkins, Executive Director, MSF-UK

 

When I noticed a shortage of references during the presentations to similar work outside MSF – arguably standard practice in scientific reporting – I wondered how much of the unique research on show goes beyond improving the charity’s own practices in the field, for example to link up with the wider research base.

 
The first answer came from MSF’s field research webpage, which states that it “has published articles in over 100 peer-reviewed journals and they have often changed clinical practice and been used for humanitarian advocacy”.

 
Javid Abdelmoneim, chair of trustees at MSF-UK, gave me the example of multi-drug resistant tuberculosis (MDR TB).


“We've done research that has resulted in reducing the regimen for MDR TB from two years to nine months, and having had that adopted by the WHO as a global standard.”


Vickie Hawkins, MSF-UK’s executive director, spoke more directly to how the research feeds into the policy systems in countries where the charity works.

 
“Wherever we’re working, we’re never working in a vacuum,” she told me. “We generally try to cooperate and work with ministries of health – share our information so it can feed into the bigger picture the ministry is responsible for providing. And we cooperate in that with other medical organisations.”

 
Hawkins added that much of the published research presented was co-produced by health ministries.
 
Still, the question of how MSF’s science relates to others’ kept nagging me — the research may have an impact, but why couldn’t I see signs of cross-referencing with what others are doing?

 
Abdelmoneim says part of the answer is in the unique nature of the charity’s work. “We're doing a lot of things that are so innovative that there is no one else to compare it with,” he told me, citing text message surveillance methods developed with the WHO and health ministry in Sierra Leone. In other cases, he added, the science is specific to MSF’s work.

 
Aid agency sources agree the charity does more than other NGOs on research, often pushing boundaries to try new approaches. When it comes to health, they fill a big gap, often in places where no one else dares to tread.

 
The charity’s work also touches on the political – for years it has campaigned on access to drugs, and now vocally opposes Europe’s migration policies – which the research also feeds into.  “MSF is a credible voice because we link it [evidence] to our medical work,” Hawkins says. “If we talk about the case of refugees and migrants, medical data can demonstrate that government policies are causing harm to people.”

 

What I heard did enough to overturn an initial impression that this vital frontline science might be lacking the visibility that would help both itself and others in the field.


But humanitarianism remains a field with a weaker tradition of evidence than health and medicine have — and even when evidence exists, it does frustratingly little to change things, one aid agency veteran told me.

NGOs are in a hurry, and are often under pressure to prove, rather than question, their approaches. These are among a few reasons why NGOs and academic research make uneasy bedfellows.


In such an environment, MSF’s science is all the more important, and makes an argument for why it’s worth the investment.


 

PRÊMIO RICARDO FERREIRA AO MÉRITO CIENTÍFICO: CIÊNCIAS HUMANAS, LETRAS E SOCIAIS, EDIÇÃO 2017
Facepe

COMUNICADO

 A FACEPE concederá este ano o primeiro Prêmio Ricardo Ferreira ao Mérito Científico, a um destacado pesquisador com atuação em Pernambuco e contribuição científica de reconhecido impacto nacional na grande área das Ciências Humanas, Letras e Sociais.

Conforme estabelecido pela Resolução 002/2014 do Conselho Superior, foi designado pela Presidência da FACEPE um Comitê de Busca, o qual deverá colher indicações de candidatos por meio de consulta a instituições, analisa-las e submeter uma lista de dois a três nomes para escolha e decisão pelo Conselho Superior da FACEPE.

Foi instituído pela Resolução nº 001/2017 o Comitê de Busca do Prêmio Honorífico “Prêmio Ricardo Ferreira ao Mérito Científico: Ciências Humanas, Letras e Sociais”, edição 2017.

Em sua primeira reunião, o Comitê de Busca decidiu que deveria ser providenciada ampla divulgação desta oportunidade e que, considerando o perfil de potenciais candidatos, as indicações devem ser encaminhadas por programas de pós-graduação e por instituições com tradição de pesquisa nas áreas relacionadas a esta edição do Prêmio: Ciências Humanas, Letras e Sociais.
 
O Prêmio será entregue durante a Semana Nacional de Ciência e Tecnologia, em outubro do corrente ano. Em atendimento ao calendário, o Comitê de Busca deve entregar as indicações ao Conselho Superior até o final de julho.
 
Assim sendo, as indicações solicitadas às instituições precisam ser recebidas na FACEPE, aos cuidados de Mônica Mendonça, no período de 17/04/2017 a 02/06/2017.

As indicações submetidas ao Comitê de Busca pelas entidades qualificadas deverão ser devidamente justificadas e acompanhadas de currículo descritivo detalhado de cada candidato, bem como, de lista assinada por 20 pesquisadores com reconhecida e comprovada atuação na grande área do Prêmio, explicitando apoio à referida indicação. Cada pesquisador deve apoiar somente um dos nomes indicados.
 
Qualquer dúvida sobre a Premiação pode ser remetida ao email Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo. ou esclarecida pelo telefone nº 3181 4612.

http://www.facepe.br/premio-ricardo-ferreira-ao-merito-cientifico-2017-comunicado/

http://www.facepe.br/instituido-o-comite-de-busca-do-premio-ricardo-ferreira-ao-merito-cientifico-ciencias-humanas-letras-e-sociais-edicao-2017/ 

 

 


SECRETARIA REGIONAL DE PERNAMBUCO

Prof. Marcos Antonio Lucena - Secretário Regional

Profa. Rejane Mansur Nogueira - Secretária Adjunta

 

José Antônio Aleixo da Silva (Editor)Professor titular da UFRPE e membro da Diretoria da SBPC.

Bianca Pinto Cardoso
Designer do Jornal

 

Sobre a SBPC-PE

Somos uma Secretaria Regional da Sociedade Brasileira para o Progresso da Ciência (SBPC), entidade civil e sem fins lucrativos voltada para a defesa do avanço científico, tecnológico e do desenvolvimento educacional e cultural do Brasil.

© 2016 SPBC Regional Pernambuco. Todos os direitos reservados. Desenvolvido por Dev3code

Search