teia de ideia [mídia e tecnologia]

Francisco Rolfsen Belda

Entrega de pauta de jornalismo científico

com 28 comentários

Publique, a seguir, um comentário com as informações que compõe o relatório de pauta de sua reportagem sobre tema científico para o 3o bimestre. Seu material de pesquisa deve contemplar os seguintes elementos:

  1. Assunto, problema envolvido e abordagem adotada
  2. Conceitos e teorias científicas relacionadas ao tema
  3. Artigos e trabalhos publicados em periódicos especializados
  4. Reportagens e notícias recentes publicadas na impressa
  5. Dados estatísticos sobre o assunto (tabelas, gráficos, quadros etc.)
  6. Mini-currículo de pesquisadores científicos a serem entrevistados
  7. Outros personagens e fontes de informação incluídos na pauta
  8. Lista de referências utlizadas em sua pesquisa (links, obras etc.)

Escrito por Francisco Rolfsen Belda

20/08/2012 às 18:52

Publicado em Jornalismo Científico

28 Respostas para 'Entrega de pauta de jornalismo científico'

Acompanhe os comentários com RSS ou TrackBack para 'Entrega de pauta de jornalismo científico'.

  1. PAUTA DE JORNALISMO CIENTÍFICO

    TEMA: HOMEOPATIA X ALOPATIA

    1. Assunto, problema envolvido e abordagem adotada.
    O assunto a ser desenvolvido nesta reportagem científica é método homeopático de tratamento x o método alopático. Pretende-se abordar o surgimento de cada um deles e em seguida confrontar suas práticas, ou seja, se são eficientes ou não.

    2. Conceitos e teorias científicas relacionadas ao tema.
    Link: http://www.homeozulian.med.br/
    No seguinte link, de um site especializado na homeopatia, estão descritas as características deste método e como tais medicamentos reagem no organismo, além de descrever as diferenças entre a homeopatia e a alopatia.

    Link:http://www.syntonia.com/textos/textossaude/textoshomeopatia/surgimentodahomeopatia.htm
    Neste link podemos entender mais sobre o surgimento da homeopatia, a história de seu criador, Samuel Friedrich Christian Hahnemann e os quatro princípios fundamentais deste método.

    Link: http://www.ruymadsen.com.br/basesdahomeopatia.pdf
    Neste link é apresentado um método da Liga de Homeopatia dos Estudantes de Medicina da Universidade Estadual de Campinas.

    Link: http://www.unipharmus.com.br/faq/o-que-e-alopatia-e-diferente-de-homeopatia/
    No seguinte link podemos compreender o que a alopatia e no que ela se difere da homeopatia.

    Link: http://www.aph.org.br/conteudo.php?_p=32&_cnt=27
    Neste link também é possível compreender as diferenças entre os métodos homeopáticos e alopáticos.

    3. Artigos e trabalhos publicados em periódicos especializados.
    Link: http://www.cff.org.br/sistemas/geral/revista/pdf/87/3.pdf
    Neste link podemos ler uma entrevista da farmacêutica Maria Izabel de Almeida Prado, que a mais de dez anos implantou na USP o curso de especialização em Farmácia Homeopática.

    Link: http://www.feg.unesp.br/~ojs/index.php/ijhdr/article/viewFile/85/70
    Artigo publicado na revista Cultura Homeopática falando sobre o que o meio homeopático produz.
    Link:http://www.scielo.br/scielo.php?pid=S010055022010000100010&script=sci_arttext
    Reportagem publicada na Revista Brasileira de Educação Médica, falando sobre a prática da homeopatia no Sistema Único de Saúde.

    4. Reportagens e notícias recentes publicadas na impressa.
    Link: http://www1.folha.uol.com.br/folha/publifolha/ult10037u350908.shtml
    Neste link podemos ler uma reportagem publicada no dia 04/12/2007 no jornal Folha Online, onde o médico homeopata Paulo Rosenbaun conta a história da homeopatia no Brasil.

    Link: http://www.estadao.com.br/noticias/impresso,ativistas-contra-a-homeopatia-vao-tomar-overdose-no-proximo-sabado-5,672944,0.htm
    Reportagem publicada no Jornal Estadão no dia 30/01/2011 falando sobre um protesto que aconteceu no mundo todo onde ativistas anti-homeopatia tomaram uma overdose de medicamentos homeopáticos.

    5. Dados estatísticos sobre o assunto (tabelas, gráficos, quadros etc.)
    Link: http://www.pediatriasaopaulo.usp.br/upload/pdf/1233.pdf
    Matéria publicada na revista Pediatria no ano de 2008 onde são observadas as evidências científicas dos tratamentos homeopático e alopático.

    6. Mini-currículo de pesquisadores científicos a serem entrevistados.

    7. Outros personagens e fontes de informação incluídos na pauta.

    8. Lista de referências utilizadas em sua pesquisa (links, obras etc.)
    Link: http://www.cesaho.com.br/publicacoes/arquivos/artigo_32_cesaho.pdf
    Link: http://www.cesaho.com.br/publicacoes/arquivos/artigo_48_cesaho.pdf

    Mariana Lemes

    21/08/2012 em 15:38

  2. Jornalismo Científico
    Trabalho prático do 3o bimestre 2012: Produzir uma pauta para Jornalismo Científico
    Retranca: nanotecnologia na visão
    Pauteiro: Francisco de Assis Bergamim
    Código: 03509-055
    Data: 24-08-2012
    Abordagem: A matéria deve enfocar a invenção de nova técnica para tratamento de uma doença que causa perda de visão, a partir de drogas existentes no mercado, mas que são conduzidas ao local da doença pela técnica inventada em Araraquara por equipe de pesquisadores.
    Dados conhecidos: A degeneração macular relacionada à idade (DMRI) é uma doença que causa perda da visão central, atrapalhando atividades simples como ler, assistir TV e dirigir. Ela é a principal causa da perda severa de visão em pessoas com mais de 65 anos nos Estados Unidos e outros países ocidentais. Mais de 1,6 milhões de pessoas nos EUA atualmente têm um ou ambos os olhos afetados pelo estágio avançado da DMRI. Após o surgimento de DMRI avançada em um olho, o risco de desenvolvimento no segundo olho em 5 anos é de 43%, segundo dados conhecidos, e o impacto é substancial. Aumento destes números é esperado à medida que a proporção da população com mais de 65 anos aumente. Aspectos sociais e econômicos atuais associaram esse aumento da expectativa de vida a uma manutenção desses indivíduos na faixa da população economicamente ativa. Há, ainda, um aumento exponencial com o avanço da idade, acometendo 2/3 da população acima de 90 anos.
    A degeneração macular é uma doença complexa que compreende alterações progressivas da retina, estrutura localizada no fundo do olho, responsável pela captação dos estímulos luminosos e transformação em sinal elétrico para o cérebro. A mácula, porção central da retina, responsável pela visão central e de detalhes, é a principal região acometida. A degeneração macular é a principal causa de cegueira irreversível nos países desenvolvidos.
    Além da idade, outros fatores de risco são: história familiar, pele clara, tabagismo, hipertensão arterial, obesidade, baixo consumo de vitaminas, doença cardiovascular e exposição solar. A boa notícia é que o recente aumento da incidência da degeneração macular foi acompanhado por uma sensível evolução nos métodos diagnósticos e, principalmente, no tratamento desta doença. Mudanças significativas têm surgido nos últimos anos no cenário da Oftalmologia.
    A forma mais comum, e menos grave, de degeneração macular é a forma seca. Esta se caracteriza pelo acúmulo de resíduos do metabolismo celular da retina, que se depositam sob a forma de drusas e que, aliado a graus variáveis de atrofia do tecido retiniano, causam uma perda visual central, de progressão lenta, podendo dificultar a realização de algumas atividades como ler e escrever ou a identificação de traços de fisionomia.
    Já a forma mais grave da doença, a forma úmida, acomete cerca de 10% dos indivíduos com degeneração macular e ocorre quando, além das alterações da forma seca, surgem também hemorragias e acúmulo de líquido devido ao surgimento de vasos sanguíneos anormais sob a retina, atribuível ao desenvolvimento de neovasculização coroideia, ou seja, na membrana fina na camada intermédia do olho entre a esclerótica e a retina, rica em vasos sanguíneos, e que fornece nutrientes ao tecido ocular, incluindo os bastonetes e cones da retina. Nesse momento, há uma perda visual de progressão rápida ou até mesmo súbita.
    Até poucos anos, os tratamentos disponíveis para a forma úmida da degeneração macular apresentavam baixa eficácia e era frequente haver pacientes em plena atividade útil sofrerem perda visual progressiva, com grande limitação de sua qualidade de vida. Hoje, as novas medicações comumente aplicadas sob a forma de injeções intraoculares, propiciaram a interrupção da perda visual ou até mesmo a recuperação visual. Para isso, o diagnóstico precoce da forma úmida, mais rara e mais grave, é de grande importância para imediata instituição do tratamento, a fim de que seja reduzido o risco de perda permanente de visão.
    Mesmo sendo uma doença grave e de crescente incidência, a degeneração macular é ainda desconhecida pela maioria das pessoas e ainda necessitando de tratamentos definitivos.
    Uso de injeções intravítreas, ou seja, dentro do globo ocular, de medicamentos para tratamento de degeneração macular relacionada à idade tem melhorado significativamente o prognóstico dos pacientes que passam por este tratamento. Estes medicamentos inibem o crescimento de vasos sanguíneos anormais sob a retina. Dois medicamentos recentes têm revolucionado o tratamento da DMRI nos últimos anos melhorando e muito o prognóstico dos pacientes e, com isso, obtendo grande popularidade e tendo seu uso disseminado rapidamente. As drogas Avastin, com o princípio ativo Bevacizumabe, e Lucentis, com o princípio ativo Ranibizumabe, segundo pesquisa financiada pelo Departamento de Saúde dos Estados Unidos que envolveu 1208 pacientes, demonstrou que após um ano de tratamento, as duas drogas tiveram eficácia semelhante se administradas de acordo com o mesmo cronograma de tratamento. Também não houve diferença significativa entre as taxas de efeitos adversos entre as duas drogas. O Ranibizumabe tem custo significativamente superior ao Bevacizumabe; essa diferença pode ser de 35 a 40 vezes dependendo de sua apresentação. A terapia de Bevacizumabe é amplamente usada em todo o mundo atualmente. O Bevacizumabe, ou Avastin, é amplamente utilizado também no tratamento de alguns tumores cancerígenos, como o colorretal metastático, de pulmão, renal matastático e Glioblastoma, a forma de tumor maligno mais comum no cérebro, que na maioria dos casos é letal. O medicamento age inibindo a formação de vasos sanguíneos anormais que alimentam o tumor. Já o medicamento Ranibizumabe, ou Lucentis, é um fármaco usado especificamente para tratar a lesão da retina. Ambos são derivados do mesmo anticorpo monoclonal, ou seja, clonados a partir de um único linfócito e que produzem sempre os mesmos anticorpos em resposta a um agente causador da doença.
    Apesar dos resultados promissores das duas drogas e da semelhança entre ambas, as posologias, tanto de Bevacizumabe quanto de Ranibizumabe requerem administrações através de injeções intravítreas mensais por tempo indeterminado, o que aumenta o risco de complicações oculares tais como descolamento de retina, hemorragia vítrea, endoftalmite e uveítes, além de se tornar uma tratamento de alto custo e com pouca adesão dos pacientes, o que exclui, especialmente em países subdesenvolvidos, o acesso de milhares de pacientes ao tratamento. Isso vai contra a prerrogativa da saúde pública.
    Há uma grave desvantagem causada pelos efeitos colaterais dos dois medicamentos, que provocam mancha de sangue no olho; dor no olho; pequenas partículas ou manchas na visão; sangramento no olho; aumento da pressão do olho; inflamação; irritação; catarata; distúrbio visual; inflamação ou infecção na margem das pálpebras; vermelhidão do olho; olho seco; capacidade e acuidade visual diminuída. Porém, as complicações podem ser diminuídas com a diminuição do volume de medicamento aplicado.
    Nos últimos 20 anos a administração intravítrea (dentro do olho) do medicamento tem sido amplamente utilizada e tem demonstrado melhorar o tratamento de diversas patologias oftalmológicas. A via de administração intravítrea permite alcançar elevada concentração da droga no vítreo, fator que agrava os efeitos colaterais. No entanto, muitas drogas são rapidamente eliminadas do humor vítreo e para atingir e manter a eficácia terapêutica são necessárias aplicações repetidas. Esse processo aumenta o risco dos mais efeitos adversos, como endoftalmite (grave inflamação no globo ocular) e descolamento de retina.
    A solução parece estar no desenvolvimento e utilização de sistemas de liberação controlada de drogas para administração intravítrea, que reduziu em pelo menos um terço a necessidade de injeções dentro do globo ocular, decorrente da permanência de concentração ocular terapêutica por mais tempo. Entre eles, os sistemas de partículas, tais como lipossomas (pequenas vesículas esféricas que se arranjam espontaneamente em meio aquoso) têm sido amplamente estudados. Os lipossomas são facilmente injetáveis e permitem aumentar o tempo de permanência de diversas drogas no vítreo. O papel dos lipossomas é manter a droga encapsulada, permitindo a liberação lenta da droga na cavidade vítrea via difusão para a retina danificada ou afetada. Lipossomas são biodegradáveis e biocompatíveis e já são usadas amplamente em oncologia e em outras áreas da medicina. Esse conceito fez com que houvesse diminuição de efeitos colaterais sem que houvesse perda de eficácia. Antibióticos, antifúngicos, imunomediadores e antineoplásicos são usados em forma de lipossomos com diminuição significativa de toxicidade. Além disso, a técnica reduz os riscos, o custo e aumenta a adesão do paciente ao tratamento, o que é de grande interesse em se tratando de saúde pública.
    Um estudo desenvolvido em Araraquara, em parceria de uma equipe de médicos oftalmologistas conduzida pelo oftalmologista José Augusto Cardillo e do Departamento de Fármacos e Medicamentos da Faculdade de Ciências Farmacêuticas da UNESP de Araraquara, chefiada pelo Professor Doutor Anselmo Gomes de Oliveira, propõe a utilização do sistema de liberação controlada da droga por meio de lipossomas para avaliar a segurança e eficácia da proposta. O estudo foi feito demonstrando o resultado do tratamento proposto comparado à apresentação convencional comercialmente disponível. Um detalhado protocolo de procedimentos foi determinado para que os dados apurados fossem o mais preciso possível. O grupo de pesquisadores da Unesp foi incumbido do meio condutor da droga, ou seja, do lipossoma, enquanto os pesquisadores oftalmologistas administraram a droga e realizaram os exames para obtenção dos resultados.
    Até aqui os dados e técnicas são conhecidos. A invenção realizada em Araraquara é a adição de outros compostos com estruturas químicas aceitáveis do ponto de vista farmacêutico. A opção do grupo de pesquisadores foi revestir os lipossomas com polímeros e copolímeros convencionais sensíveis a estímulos do meio em que se encontram veiculados, especialmente os polímeros e copolímeros termosensíveis. É um trabalho de nanotecnologia. A virtude da linha de pesquisa das equipes é que o composto por eles preparado está exatamente na sensibilidade à temperatura que a estrutura apresenta. Corretamente manipulados no arranjo de seus átomos, o polímero e o copolímero, podem mudar de estado entre baixa viscosidade e alta viscosidade exatamente na transição entre 36 e 37 graus centígrados. Essa transição de fases pode ser favorecida pelas temperaturas um pouco mais acentuadas, caso existam processos inflamatórios ou infecciosos locais. Em processo inflamatório, o composto ativa a liberação de doses maiores do medicamento; já em temperatura corporal normal, 36º, a droga é liberada conforme foi programada. Curiosamente um dos componentes das camadas que controlam a liberação da droga, escolhido pelas equipes, é um fosfolipídio encontrado na soja, porque tem a habilidade de se deformar sem romper a estrutura.
    A equipe concluiu que a técnica permite também a determinação de regime de dose diferenciada para tratamento específico de terminado paciente para atendimento de uma prescrição médica específica. Como a dose necessária de tratamento pode variar de pessoa para pessoa, dependendo da idade, do estado geral de saúde e do agravamento da doença específica, pode acontecer que os médicos prescrevam algum tratamento que comece com um nível menos elevado de droga para produzir a resposta desejada e aumente gradualmente a dose até que o efeito desejado seja atingido. Outra conclusão, também desejada, é que a técnica reduziu em pelo menos um terço a necessidade de injeções dentro do globo ocular.
    A invenção está levando seus desenvolvedores a apresentá-la em congressos de oftalmologia no mundo todo. O oftalmologista José Augusto Cardillo já palestrou em congressos em países como Estados Unidos, Alemanha, Espanha, China, Índia, Itália e outros. O invento está patenteado.

    Encaminhamento: Mostrar a invenção de uma técnica revolucionária de nanotecnologia para tratamento de uma doença que causa perda de visão, elaborada em Araraquara por pesquisadores locais. Descrever a doença, os tratamentos até então conhecidos e a novidade que a invenção apresenta. Destacar a diminuição dos efeitos colaterais, o menor uso de drogas, e a redução do custo do tratamento.

    Fontes:
    Médico Oftalmologistas José Augusto Cardillo
    Professor Doutor Anselmo Gomes de Oliveira, Chefe do Departamento de Fármacos e Medicamentos da Faculdade de Ciências Farmacêuticas da UNESP de Araraquara

    Francisco de Assis Bergamim

    24/08/2012 em 17:26

  3. Patrícia Lelli Ferreira
    4º ano de jornalismo
    Cód.: 3509-047

    Relatório de pauta

    1.Assunto: Buracos negros

    Problema envolvido: O que a ciência conhece hoje sobre buracos negros? Até que ponto realmente os buracos negros existem e como reconhecê-los?

    Abordagem adotada: Irei entrevistar pesquisadores da área de Astronomia, para saber mais sobre o que é um buraco negro, do que ele é feito, como ele é reconhecido, o que eles fazem no universo, como eles surgem, entre outras dúvidas sobre esse fenômeno que ainda desafia a ciência.

    2.Conceito de buraco negro pelo Glossário de termos científicos (http://pt.scribd.com/doc/85977107/117/Glossario-de-termos-cientificos)

    BURACO NEGRO. Objeto cujo imenso campo gravitacional suga qualquer coisa, até mesmo a luz, que se aproxime demasiado.

    – Teoria científica sobre buracos negros tirada do livro “Buraco Negro: O Supremo Desconhecível” do autor John Taylor, 2ª edição, Editora Francisco Alves:

    (Taylor, 1981, pág.48) “É pela explosão de uma supernova que uma estrela de grande massa pode tornar-se estrela de nêutrons e, assim, atingir uma situação de repouso tranquilo. Mas existe apenas uma explosão desse tipo a cada cem anos em cada galáxia. Apesar disso, já é suficiente para que os elementos mais pesados que o ferro, formados na explosão, nos permitam dispor de quantidades adequadas de urânio e outros elementos densos, aqui na Terra, acumulados a partir de restos estilhaçados da supernova. Existem, porém, muito mais estrelas de grande massa do que corpos ainda em condensação a partir de material interestelar, de modo que poucas entre elas atingirão a paz e a segurança de uma estrela anã preta ou de uma estrela de nêutrons. O que ocorre com uma estrela incapaz de chegar a uma velhice tranquila, como anã ou estrela de nêutrons? A resposta com que deparamos é verdadeiramente intrigante: ela simplesmente desaparece! Transforma-se naquilo que hoje denominamos buraco negro. No entanto, ela ainda exerce influência sobre sua vizinhança, um tanto á moda de um homem invisível. Este vê e ouve, embora não seja visto; a ficção geralmente permite que ele fale e derrube alguns objetos, denunciando a posição onde se encontra. Isso tudo muito se assemelha aos efeitos do buraco negro, mas ocorre que o buraco negro abre um leque de experiências tão fantástico que é difícil de acreditar. Ele ocupa um ponto tão além de tudo aquilo que se conhece até hoje na natureza e transforma a ciência em ficção científica. Contudo, os buracos negros são tão estranhos e esotéricos que nem mesmo os autores de ficção científica ousaram utilizá-los em seus vôos imaginários.”

    (Taylor, 1981, pág.48) “Um objeto preto é aquele que absorve toda a luz que incide sobre ele e não reflete luz alguma; só será invisível se de modo algum afetar a luz, mas permitindo que os raios luminosos o atravessem imperturbáveis, como no caso de uma lâmina de vidro translúscido.”

    – Teoria Científica sobre buracos negros tirada do livro “Gravidade, Buracos Negros e o Universo” de Iain Nicolson, 1ª edição, Editora Francisco Alves:

    (Nicolson, 1983, pág 173) “Os buracos negros vêm sendo invocados para “explicar” tal variedade de fenômenos astronômicos que existe o perigo de serem encarados com uma solução para todos os problemas não resolvidos na astrofísica. Casos convincentes do envolvimento dos buracos negros podem ser apresentados em muitas circunstâncias, mas devemos levar em conta que, no momento, não existe qualquer prova conclusiva de que os buracos negros realmente existem.”

    (Nicolson, 1983, pág 179) “Se a estrela e seu companheiro buraco negro estiverem suficientemente próximos, a estrela será distorcida pela atração gravitacional e teria lugar significativo fluxo de matéria da estrela em direção ao buraco.”

    (Nicolson, 1983, pág 179) “O campo gravitacional de um buraco negro é tão poderoso que a matéria que caia diretamente nele está viajando a uma grande fração da velocidade da luz no momento em que se aproxima do horizonte dos eventos.”

    3.Artigos tirados do site da Revista Scientific American (www.scientificamerican.com):

    Buracos Negros estão em toda parte

    Os buracos negros, mesmo os realmente extremamente maciças, são pequenas – alfinetadas positivamente microscópicos espalhados por toda a vastidão do espaço-tempo. Mesmo o maior, talvez dez bilhões de vezes a massa do nosso Sol, têm horizontes de eventos (a superfície de dentro da qual nenhuma luz pode sempre surgir) que chegam a apenas cerca da órbita de Netuno. Isso é um mero 4.500 milhões quilômetros (ou 0,00047 anos-luz), absolutamente nada em comparação com a escala de galáxias – cujos componentes estelar pode chegar através de mais de 100.000 anos-luz. E nada do que existe maciças na Via Láctea, onde o buraco negro é muito maior apenas alguns 4-5000000 massas solares, à espreita, perto do centro galáctico. Seu horizonte de eventos é apenas um pouco maior do que o raio do nosso sol.
    A maioria dos buracos em nossa galáxia são talvez 4 ou 5 massas solares, e eles são pequeninos, com horizontes de apenas cerca de 12 km de raio. Mas tem de haver dezenas de milhares deles, os restos inevitáveis da vida curtos de grandes estrelas. Em vez ironicamente, porém, evidência astronômica da existência desses objetos é em pé de tanta certeza que a evidência de seus primos supermassivos, sentado imperiosamente no centro de todas as galáxias aparentemente. As observações astronômicas mais promissores de baixo buracos negros de massa vem do estudo dos sistemas binários, onde uma estrela companheira visível está sendo comido por algo um pouco mais obscuro. O protótipo é o binário de raios-X conhecido como Cygnus X-1, descoberto na década de 1970. Ele consiste de uma estrela gigante azul em uma órbita de seis dias com um objeto indiretamente visto cerca de dez vezes a massa do sol. Esse corpo é, aparentemente, puxando o material da estrela e girando-a em um disco de matéria quente que brilha com raios-X fótons. Grande demais para ser uma estrela de nêutrons (que entrará em colapso de um buraco negro, se mais de 3 massas solares) ou anã branca (limitado a cerca de 1,4 massas solares), este companheiro se encaixa no projeto de um buraco negro.
    Não é um negócio feito, porém, as incertezas permanecem nas medidas deste sistema. O brilho absoluto da estrela azul tornando-se extremamente difícil de definir a natureza de seu companheiro. Outros tipos de binários, conhecidos como raios-X moles transientes, podem apresentar sinalizações mais claras para estelar buracos negros de massa. Nestes sistemas de uma estrela mais modesto porte orbita perto de um companheiro invisível maciço, mas fluxos de matéria em toda a ele apenas ocasionalmente – queima-se em raios-X para cerca de seis meses em cada 10 a 50 anos. Este oferece ampla oportunidade para os astrônomos para inspecionar os objetos quando eles são essencialmente dormindo, desembaraçar a luz dos dois corpos. Nestes casos que se parece com os companheiros são muito grande para ser estrelas de nêutrons, e provavelmente alguns buracos negros 10 vezes a massa do sol.
    Ainda há pessoas que questionam se os buracos negros deste tamanho são realmente o que nós pensamos que eles são. Alguns desse ceticismo é baseada na ciência que, embora não comprovada, não é totalmente implausível. Por exemplo, certas teorias de campo para a força nuclear forte permitir o confinamento de nêutrons e prótons em densidades mais baixas do que normalmente consideradas, resultando na formação de objetos que são estrelas de nêutrons ou buracos nem negros. Estes poderiam ser tão grandes quanto 100 sóis, mas apenas 40% maior do que no raio do horizonte de eventos de um buraco negro de massa equivalente. A característica distintiva para os astrônomos seria essa diferença de raio, e, claro, a presença de uma superfície realmente observável, em vez de um horizonte de eventos.
    Por outro lado, a existência de buracos negros supermassivos – milhões a dezenas de milhares de milhões de vezes a massa do Sol, é mais seguro em pé de muito, já que realmente não há teorias alternativas plausíveis para a existência de tal enormemente enorme, mas ainda objetos extremamente compactos no universo. Eles também são forças extremamente potentes em geral em todo o cosmos, produzindo quantidades colossais de energia nos centros de muitas galáxias, que barris para fora como grandes frentes de radiação e partículas, e até mesmo como ultra-relativistas vigas ou jatos de matéria se estendem por centenas de milhares de pessoas de anos-luz. A energia vem da destruição da matéria que está enlaçado por seus poços de gravidade assustadoramente íngremes, e varreu o espaço-tempo girando em sua vizinhança.
    O buraco negro gigante no centro da Via Láctea foi preso de uma forma especialmente espetacular – observando o que ele faz para a órbita de estrelas próximas. As animações aqui consistem em dados reais tomadas pelo grupo Reinhard Genzel de no Max-Planck-Institut für extraterrestrische Physik, e mostra o movimento das estrelas no centro da galáxia durante um período de 16 anos, de 1992 a 2008 (Genzel, juntamente com Andrea Ghez e seu grupo na UCLA recentemente dividiu o Prêmio Crafoord por seu trabalho pioneiro sobre a localização e caracterização do buraco negro no centro da nossa galáxia).
    Há muitas evidências de outros também, a partir de observações de rádio de comprimento de onda do centro galáctico, para raios-X de dados que revelam acontecimentos quase que diariamente ‘incendiar’ a partir desta região – uma possível assinatura de asteróide do tamanho de pedaços de matéria recebendo picado imediatamente fora do evento horizonte.
    Alguns dos hoje mais importantes questões astrofísicas são como buracos negros como esta origem, e como eles se relacionam com o ambiente específico galáctico ao redor deles – o mesmo tipo de ambiente que nós somos uma parte. Isso levanta a possibilidade de sonoridade estranha, mas fascinante, é concebível que há uma conexão entre a natureza desses lugares extraordinários e as condições que dão origem à vida no universo?

    Autor: Caleb Scharf.
    http://blogs.scientificamerican.com/life-unbounded/2012/06/11/black-holes-are-everywhere/

    Buracos Negros ao Resgate

    Dez anos atrás, o universo estava em apuros.
    Ou melhor, os nossos insignificantes teorias humanas sobre a natureza de todas as estrelas e galáxias no universo estavam em apuros. Neste momento, conseguiu descobrir uma série de coisas notáveis sobre nosso entorno cósmico. Nós tínhamos detectado minutos não-uniformidades nos restos do campo de radiação primordial conhecida como radiação cósmica de fundo, e tivemos evidências cada vez mais convincentes de que a matéria normal – as coisas que são feitas de – equivale a apenas um quinto do total da massa crua do universo. O resto é a matéria escura, um material obscuro que raramente interage partícula para partícula, mas é enorme o suficiente para que sua gravidade dita muito do movimento de estrelas em galáxias e as estruturas colossais de aglomerados de galáxias e superaglomerados.
    Armado com essas observações, e com os nossos modelos de como esses recursos se traduzem em crescimento a semeadura e gravitacional da estrutura do universo, poderíamos construir realidades virtuais em que galáxias e estrelas que surgem e preencher um cosmos imaginários. Estas simulações poderia então ser comparado a nossos grandes mapas cosmológicos e nossas contagens estatísticas de todos os lugares claros e escuros em torno de nós. Foi uma forma de confirmar as nossas ideias, comparar universos virtuais para o real. E esse era o problema, porque a maioria destes modelos não parecia como a coisa real.
    O fato era que as simulações superproduzido estrelas e superproduzido grandes galáxias brilhantes. Eles não produzem um cosmos que parecia como a nossa. Debates giram sobre a possível causa. Era possível que os algoritmos de computador usados para simular a produção de estrelas nas galáxias virtuais foram profundamente falho. Também foi possível que nos faltava um componente crítico, uma fonte de energia adicional que amortecer o processo no universo real, nanismo galáxias e regular os nascimentos estelares de nebulosa virtual. Mas o que poderia ser? Pode ser a energia das próprias estrelas – sóis enormes chamas através de seu combustível nuclear rapidamente e explodindo como supernovas poderia impor um limite de velocidade na formação de gerações subsequentes. Ele também pode ser outra coisa que estava espreitando nos becos escuros e salas de trás do cosmos.
    Buracos negros supermassivos há muito suspeito de ser um elemento perturbador. Como escrevi na última parte desta série, quando consomem matéria que pode ser incrivelmente, lançando energia de volta para o universo circundante. Dentro de aglomerados de galáxias que vemos eles soprando bolhas e gerar ondas no gás intergaláctico, fenômenos que retardam a condensação desse gás em nebulosa fresco e novas estrelas. Em outros lugares, vemos a lavagem de radiação e partículas de galáxias cheias, uma força esporádica, mas potente. Parecia uma solução promissora, mas ainda estava incompleto.
    Eu estava pessoalmente convencido do papel que esses buracos gigantes jogar em ‘poda’ galáxias e estrelas quando meus colegas e eu tropeçou em uma grande pista no passado profundo cósmica. Para buracos negros para fornecer o elo perdido, eles precisavam ter ajudado a prejudicar o crescimento das galáxias maiores muito. E isso significava que eles precisavam para ter sido envolvido desde o início, algo que foi confirmado. Felizmente, tínhamos descoberto apenas uma situação tal em um lugar cerca de 12 bilhões de anos luz de distância, no início da manhã de evolução galáctica.
    Ele tem um nome terrivelmente chato de 4C 41,17. A fonte de ondas de rádio intensas tão longe que a luz é esticada, desviada para o vermelho, por um factor de 3,8, devido à expansão do universo. Usando o telescópio Keck, no Havaí gigante, uma exposição de sete horas nos permitiu fazer uma imagem do que era originalmente a luz ultravioleta inundações deste sistema – revelando uma cena tumultuosa de gás fluindo e refluindo. Profundas imagens infravermelhas também mostrou uma massa colossal de poeira de estrelas, 600 milhões de vezes a massa do nosso Sol em grãos ricos em carbono, uma impressão digital de uma orgia de nascimento e morte estelar. E, então, usado em órbita da NASA Chandra X-ray Observatory por 40 horas para recolher a simples sussurro de raios-X, um total de apenas 150 12000000000 anos de idade fótons. Mas isso foi tudo o que precisávamos, porque revelou toda a história.
    Bem dentro desta galáxia adolescente era um buraco negro supermassivo. Uma vez que a matéria foi consumido expelindo electrões na próxima da velocidade da luz. Como essas partículas fugiu estavam reunidos os cósmica de fundo de radiação, os fótons primordiais. Mas 12 bilhões de anos atrás o universo era mais compacto, a radiação de fundo era mais quente do que é hoje, e por isso, quando esses encontros aconteceu a troca de energia foi muito mais eficiente do que é hoje. Elétrons acelerados buracos negros primordiais impulsionado fótons em raios-X, e os raios-X foram penetrando a escuridão desta galáxia jovem, modificando sua produção de novas estrelas.
    Foi uma descoberta emocionante. Uma demonstração viva de que nós realmente precisamos buracos negros, que não eram meros espectadores no jogo da evolução cósmica, mas os jogadores centrais, hoje, ontem, e todos os ontens antes disso.
    O número de estrelas no universo, ea própria natureza das galáxias, tem uma dívida enorme com o comportamento dos fenômenos mais extremos e fantástico de astrofísicos. Dez anos atrás, eles ajudaram a resolver parte de um mistério, quem sabe o que vai aprender sobre eles em seguida.

    Autor: Caleb Scharf.
    http://blogs.scientificamerican.com/life-unbounded/2012/08/14/black-holes-to-the-rescue/

    Talvez os Buracos Negros realmente não existem

    Em 28 de março de 2011, o Telescópio de Alerta de ruptura Swift detectou um evento de raios gama que, em contraste com o observado anteriormente qualquer explosão de raios gama, manteve-se brilhante e altamente variável para 48 horas. A emissão de raios gama foi acompanhada pela emissão de raios-x e brilhante que continuaram durante duas semanas. Astrofísicos atribuído este evento para o rompimento das marés de uma estrela por um buraco negro no centro de uma galáxia distante. Eu diria que, no entanto, que teria sido mais preciso para descrever este evento como o rompimento das marés de uma estrela por um objeto compacto. Esta distinção é importante porque o modelo de buraco negro tem sérios problemas. O evento de março dá apoio a uma ideia herética: que os buracos negros não existem.
    O brilho da raios gama e raio-x emissões sugere que eles estão vindo de um jato de partículas carregadas que se movem a uma velocidade próxima à da luz, mas não há nenhuma razão óbvia por que a interrupção de maré de estrela por um buraco negro deve dar origem a como um jato. De fato, a comunidade astrofísica tem se esforçado para explicar a onipresença observado de jatos. A ideia principal é a de que, na presença de um campo magnético externo, a energia electromagnética é extraído a partir de um buraco negro rotativo e utilizados para acelerar partículas carregadas. A fonte do campo pode ser o disco de material que roda em torno do buraco negro. No entanto, os discos não geram campos magnéticos com a forma correta de produzir bem-colimado feixes de partículas.
    Mais profundamente, há razões fundamentais pelas quais nenhum objeto compacto pode ser um buraco negro. O problema é que as soluções da relatividade geral de Einstein equações que contêm horizontes de eventos são inconsistentes com a mecânica quântica. Por exemplo, esses espaços-tempos não possuem um tempo universal, que é necessário para a mecânica quântica a fazer sentido. Astrofísicos veio a aceitar a idéia de buraco negro, porque o colapso gravitacional de massas suficientemente grandes não pode ser interrompido por meios ordinários. Mas Pawel Mazur e eu percebi há algum tempo que os efeitos quânticos gravitacionais modificar o processo de colapso.
    Matéria ordinária será convertida em energia de vácuo quando é compactado para o ponto onde a relatividade geral prevê que um horizonte de eventos se começam a formar. Em contraste com ordinário massa-energia, energia do vácuo é gravitacionalmente repulsiva, por isso seria agir para parar o colapso e estabilizar o objeto. Na superfície de tais objectos, existe uma camada de transição entre a energia de vácuo grande do interior e a energia de vácuo muito pequena cosmológica. Em 2000, eu e meus colegas sugeriram que esta camada de transição representa uma transição de fase contínuo quântica do vácuo. Em 2003, George Musser escreveu em Scientific American sobre o conceito e sugeriu o nome “estrelas de cristal”. Mas eu prefiro o nome de “estrelas de energia escura”.
    Baixo consumo de energia partículas que entram uma estrela energia escura não desaparecem, mas seguir uma trajetória curva e sair da superfície da mesma forma que a luz faz em uma lente de desfocagem. Por outro lado, a superfície é opaca para partículas elementares que têm energias superiores a um determinado limiar. Este é um resultado do facto de que perto de uma transição de fase contínua, existem grandes flutuações na densidade de energia, que no caso de uma estrela de energia escura significa, na vizinhança da superfície. Porque os quarks dentro dos prótons e nêutrons têm energias que ultrapassem o limite de opacidade, prótons e nêutrons caindo sobre a superfície de uma estrela de energia escura irá decair em pósitrons, elétrons e raios gama. Na verdade, pode-se fazer uso de cromodinâmica quântica (QCD) para prever o espectro de energia dos produtos de decaimento [4]. O resultado é que, para ambos os léptons e raios gama do espectro estende-se a uma energia de vários MeV. Assim, o modelo predictes que a matéria que cai sobre a superfície de uma estrela de energia escura irá resultar na produção de alta velocidade e positrões electrões e raios gama. 28 de março evento Swift é talvez a evidência mais clara até o momento deste processo.
    Estrelas de energia escura pode facilmente explicar jatos. Seu momento angular é realizada por vórtices spacetime concentrados perto do eixo de rotação. Como resultado de um campo magnético externo vai ser enrolada à volta desse núcleo vórtice num padrão barbeiro pólos. Injeção de elétrons e pósitrons nucleons decaimento em uma estrela de energia rotativa escuro resultará em um jato lépton altamente colimado. Tal jacto um tem uma estrutura muito semelhante à observada nos jactos emergentes a partir dos centros de muitas galáxias distantes. O que é único sobre o 28 de março evento Swift é que podemos ver pela primeira vez que a formação desse tipo de jato é completamente de acordo com o que seria esperado em uma estrela de energia escura.
    Chegamos na figura a seguir. Quando a matéria de uma estrela vizinha atinge a superfície de uma estrela de energia escura, que é instantaneamente convertido em raios gama, elétrons e pósitrons, a maioria dos que têm energias no keV 100 a faixa de MeV poucos. Demora cerca de um minuto para estas partículas para preencher o interior do objecto compacto e formar um jacto. Porque os raios gamma-off pode dispersar os pósitrons magneticamente guiadas e electrões, uma explosão de raios gama dirigidas ao longo do eixo de rotação vai inicialmente acompanhar a jacto. Após o fornecimento de raios gama é esgotado, a emissão de vigas de raios-x vai persistir enquanto o fornecimento de electrões e positrões dura.
    Eu duvido que este evento só vai desalojar os buracos negros como modelo padrão a comunidade astrofísica para objetos compactos. Por outro lado, as propriedades únicas de 28 de março de eventos, em conjunto com outras formas que a teoria estrela escura da energia podem ser testados, num futuro próximo, como directos observações VLBI milímetros dos objetos massivos compactos no centro da própria e próxima galáxias, em breve poderá permitir que a comunidade astrofísica para ver que os buracos negros são estrelas realmente cristal.

    Autor: George Chapline.
    http://blogs.scientificamerican.com/guest-blog/2011/07/28/maybe-black-holes-dont-really-exist/

    4.Notícia da Revista Época de 31/08/2011:

    Nasa descobre buracos negros próximos da Terra

    Eles estão a 160 milhões de anos-luz do nosso planeta e são os buracos negros supermassivos mais próximos de nós descobertos até hoje

    Os astrônomos descobriram o primeiro par de buracos negros supermassivos em uma galáxia espiral similar a da Via Láctea, a cerca de 160 milhões de anos-luz de distância. Apesar da distância ser difícil de se imaginar – 1 ano-luz tem quase 10 trilhões de quilômetros, e ainda temos que multiplicar isso por 160 milhões – são os buracos negros supermassivos mais próximos da Terra descobertos até hoje, segundo a Nasa.
    Os buracos negros se encontram próximo do centro da galáxia espiral NGC 3393 e foram identificados graças às observações realizadas pelo observatório de raios-X Chandra.
    A Nasa calcula que os dois estão 490 anos-luz separados entre si. Isso é um indício de que ambos podem ser remanescentes da fusão de duas galáxias de massa desigual há mais de 1 bilhão de anos.
    “Se esta galáxia não estivesse tão perto, não teríamos tido nenhuma possibilidade de ver os dois buracos negros separados como os vimos”, disse o cientista Pepi Fabbiano, do Centro de Atrofísica Harvard-Smithsonian, em Cambridge, Massachusetts, provando que a noção de “perto” da Nasa é bem diferente da nossa. “Esta galáxia está bem diante de nossos narizes no que se refere aos padrões cósmicos”, afirmou.
    As observações anteriores em frequência raios-X e em outras longitudes de onda faziam crer que havia apenas um buraco negro supermassivo no centro da galáxia NGC 3393. No entanto, um olhar de longo alcance realizado com os potentes instrumentos de Chandra permitiu aos pesquisadores detectar e separar os buracos negros.
    Os buracos negros são objetos tão densos que a força da gravidade que geram não deixa escapar nada, nem sequer a luz, e engolem tanto matéria, visível ou escura, que cai em seu campo de ação. Alguns podem ter um tamanho “estelar” e se supõe que procedem da explosão de uma estrela gigante, uma supernova. Outros têm um tamanho equivalente ao de bilhões de sóis e se denominam “supermassivos”.
    http://revistaepoca.globo.com/Ciencia-e-tecnologia/noticia/2011/08/nasa-descobre-buracos-negros-proximos-da-terra.html

    – Notícia tirada do jornal O Globo – Ciência:

    Buracos negros gigantes podem estar à deriva no espaço

    Monstros cósmicos teriam sido expulsos do núcleo de galáxias em processo de fusão

    RIO – Buracos negros com milhões e até bilhões de vezes a massa do Sol podem estar flutuando à deriva na escuridão do espaço intergaláctico, viajando a velocidades de até milhões de quilômetros por hora. Estes gigantescos monstros cósmicos teriam sido expulsos do núcleo de galáxias por poderosas ondas gravitacionais durante seu processo de fusão, indica estudo feito com base em dados do observatório espacial de raios x Chandra, da Nasa.
    É difícil acreditar que um buraco negro supermaciço com milhões de vezes a massa do Sol possa ser movido, muito menos expulso de uma galáxia a velocidades enormes – diz Francesca Civano, do Centro Harvard-Smithsonian de Astrofísica (CfA) e principal autora do estudo, que será publicado no próximo dia 10 no “The Astrophysical Journal”. – Estes novos dados, no entanto, apoiam a ideia de que as ondas gravitacionais, fissuras no tecido do espaço-tempo previstas por Albert Einstein, mas nunca detectadas diretamente, podem exercer uma força poderosa.
    Civano e sua equipe chegaram à conclusão com base no comportamento de um sistema conhecido como CID-42, localizado a cerca de 4 bilhões de anos-luz da Terra. Observações em luz visível feitas com o telescópio espacial Hubble e os telescópios em terra Magellan e VLT identificaram duas fortes e distintas fontes de luz no objeto, que acredita-se ser fruto da fusão recente de duas galáxias. Os dados sugerem que as fontes de luz estão se afastando a uma velocidade de pelo menos 5 milhões de quilômetros por hora.
    Enquanto isso, observações prévias do Chandra haviam detectado uma brilhante emissão de raios x na região, provavelmente causada por material superaquecido sendo devorado por um ou mais buracos negros. Estas observações, no entanto, não tinham resolução suficiente para identificar se as emissões vinham de uma ou das duas fontes de luz visível. Para esclarecer a dúvida, a câmera de alta resolução do Chandra foi apontada diretamente para o CID-42, e os dados mostraram que as emissões de raios x vinham de apenas uma das fontes de luz.
    Diante disso, os astrônomos acreditam que quando as duas galáxias colidiram, os buracos negros supermaciços em seus núcleos também se chocaram. Eles então teriam se fundido em um único buraco negro gigantesco, mas as intensas ondas gravitacionais do processo teriam também provocado um “coice” que acabou por lançá-lo rumo para fora da galáxia resultante. Já a outra fonte de luz visível seria um brilhante aglomerado de estrelas deixado para trás pela fusão das galáxias.
    Embora também acreditem que a expulsão de um buraco negro gigante pelo “coice” de ondas gravitacionais seja um evento raro, os astrônomos acreditam que, dada a vastidão do Universo, muitos deles podem estar viajando à deriva no espaço intergaláctico.
    Estes buracos negros seriam totalmente invisíveis para nós, já que eles já teriam consumido todo gás em volta deles depois de terem sido expulsos de sua galáxia – destaca Laura Blecha, também do CfA e coautora do estudo.
    http://oglobo.globo.com/ciencia/buracos-negros-gigantes-podem-estar-deriva-no-espaco-5134030#ixzz24gOo42UY

    – Notícia tirada do site do G1 – Ciência e Saúde do dia 13/06/2012:

    Nasa lança telescópio que irá mapear buracos negros

    NuSTAR permanecerá por dois anos no espaço.
    Sonda vai detectar emissões de raios X com resolução jamais vista.

    A Nasa colocou em órbita o telescópio nuclear NuSTAR na tarde desta quarta-feira (13). A sonda vai detectar as emissões de raios X e mapear buracos negros com resolução jamais vista.
    O NuSTAR (Matriz de Telescópios Eletroscópicos Nucleares) foi instalado no foguete Pegasus, que seguiu acoplado a um avião usado como trampolim para o projétil.
    O foguete decolou a 11,9 mil metros de altura sobre as ilhas Marshall, no Oceano Pacífico equatorial, e se desprendeu do avião às 13h17 do horário de Brasília.
    O NuSTAR possui espelhos e detectores de raios X que, segundo os responsáveis pelo projeto, permitirá anos de descobertas astronômicas.
    Durante dois anos, o NuSTAR, que permanecerá a 550 quilômetros da Terra, buscará buracos negros, rastros de supernovas e as partículas emitidas pelos maciços buracos negros que viajam em velocidades próximas à da luz.
    http://g1.globo.com/ciencia-e-saude/noticia/2012/06/nasa-lanca-telescopio-que-ira-mapear-buracos-negros.html

    – Notícia tirada do site do G1 – Ciência e Saúde do dia 09/02/2012:

    Novo estudo explica luzes de buraco negro no centro da Via Láctea

    Pesquisa sugere que nuvem de asteroides cause o fenômeno.

    Uma pesquisa publicada pela revista “Monthly Notices of the Royal Astronomical Society” traz uma explicação para um fenômeno que acontece no centro da Via Láctea.
    Lá fica um buraco negro supermassivo chamado Sagitário A*. A região é estudada pelo Observatório Chandra de Raios X, da Nasa, e pelo Telescópio Muito Grande (VLT, na sigla em inglês), que faz observações em infravermelho.
    Há anos, os cientistas percebem a liberação de luzes em raios X a partir do buraco negro, mas nunca souberam explicar por que isso acontece.
    O novo estudo sugere que, em volta de Sagitário A*, existe uma nuvem com trilhões de asteróides e cometas que se desprenderam de suas estrelas mães. Quando um desses corpos celestes passa perto – cerca de 150 milhões de quilômetros, mesma distância entre a Terra e o Sol – desse buraco negro, é quebrado em pequenos pedaços.
    Os fragmentos seriam então vaporizados pelo atrito ao passar pela camada de gás quente. Nesse processo, segundo a teoria, são liberadas as luzes que os cientistas observavam havia anos.
    http://g1.globo.com/ciencia-e-saude/noticia/2012/02/novo-estudo-explica-luzes-de-buraco-negro-no-centro-da-lactea.html

    – Notícia tirada do site do G1 – Ciência e Saúde do dia 25/08/2011:

    Satélite da Nasa ‘flagra’ buraco negro engolindo estrela

    Fenômeno acontece a 3,9 bilhões de anos-luz de distância da Terra.
    Estudos sobre o fenômeno foram publicados na revista ‘Nature’.

    Um buraco negro dentro de uma galáxia a 3,9 bilhões de anos-luz de distância da Terra foi “flagrado” por um telescópio da Nasa ao engolir uma estrela que se aproximou demais. Dois estudos sobre o fenômenro foram publicados na edição desta semana da revista “Nature”.
    O “acidente” cósmico tem causado o envio de raios X à Terra desde março de 2011. A galáxia está localizada na direção da constelação do Dragão. Os gases da estrela acabam sendo “engolidos” e ficam girando na região do buraco negro. Um feixe de partículas é formado no local e um dos lados do feixe está virado em direção da Terra, permitindo que o satélite Swift detecte o fenômeno.
    Segundo os astrônomos, os centros da maioria das galáxias possuem buracos negros gigantes – com milhões de vezes a massa do Sol. No caso da Via Láctea, o buraco negro tem uma massa igual a de 4 milhões de sóis. Os dados do Swift mostram que o buraco negro pesquisado é duas vezes maior do que o da nossa galáxia.
    http://g1.globo.com/ciencia-e-saude/noticia/2011/08/satelite-da-nasa-flagra-buraco-negro-engolindo-estrela.html

    5.Números tirados de um trecho do livro “Gravidade, Buracos Negros e o Universo” de Iain Nicolson, 1ª edição, Editora Francisco Alves:

    (Nicolson, 1983, pág 180) “Cisne X-1 é uma poderosa fonte de raios X descoberta em 1970 pelo satélite NASA Uhuru, que fez o primeiro levantamento completo do céu com raios X. No ano seguinte ficou demonstrado que Cisne X-1 coincide em posição com uma estrela supergigante, azul e quente, conhecida pelo número HDE 226868. As investigações levadas a termo por C.T, Bolton, do Observatório David Dunlap, mostraram que a HDE 226868 é um binário de linha única com período orbital de 5,6 dias. A estrela visível possui uma massa entre 20 e 30 massas solares e temperatura em torno de 25.000° Kelvin, tornando-a uma estrela altamente luminosa, facilmente visível na faixa de uns 8 mil anos-luz. Avaliações da massa da companheira invisível a colocaram entre 5 a 15 massas solares, mas investigações minuciosas a respeito da maneira com o débito luminoso da HDE 226868 varia – estas variações, devidas à distorção da estrela, foram estudadas pela primeira vez no início da década de 70 por V.M Lyutiy – permitiram fixar melhor essa massa entre 8 e 11 massas solares. Tal valor é bastante excessivo no que se refere à massa máxima permitida para uma anã branca ou uma estrela-nêutron e a resposta pode ser perfeitamente a presença de um buraco negro. O buraco negro não pode ser menor do que cerca de 300 km de diâmetro.”

    Obs.: Os gráficos eu mandei em anexo por e-mail.

    6.Pesquisador e Professor Dr. Marcelo Adorna Fernandes:
    – Docente do Departamento de Ecologia e Biologia Evolutiva da UFSCar.
    – Atua na área de Geologia e Paleontologia.
    – Foi professor de Ciências Naturais no colégio Progresso de Araraquara.
    – Amante estudioso da astronomia.
    – Fone: 3351-8752
    – E-mail: mafernandes@ufscar.br

    Pesquisador Gustavo Rojas:

    – Astrofísico do Departamento de Física da UFSCar.
    – Atua na área de astronomia, coordena grupos de estudos na área e orienta os alunos que querem participar da Olimpíada Brasileira de Astronomia.
    – Fone: 3351-9795 ou 9155-4847

    Currículo Lattes:
    Físico da Universidade Federal de São Carlos (2008), foi Professor Substituto no Departamento de Física da UFSCar (2007-2008). Bacharel em Física (2000), Mestre em Astronomia (2003) e Doutor em Astronomia (2008) pela Universidade de São Paulo. Tem experiência na área de Astronomia, com ênfase em Astronomia Óptica, atuando principalmente nos seguintes temas: estrelas pré-sequência principal, espectroscopia óptica, raios-x e estrutura circunstelar. Atualmente desenvolve atividades de ensino de Astronomia e divulgação científica na UFSCar. É representante brasileiro do ESON (ESO Science Outreach Network) e do GTTP (Galileo Teacher Training Program).

    7.Monitores e docentes do Observatório de Astronomia da USP:
    -Professor Jorge Honel – responsável pelo Observatório.
    -Fone: 3373-9191 e 3373-9192

    8.Links:

    http://eternosaprendizes.com/2010/03/23/como-interagem-os-buracos-negros-supermassivos-e-a-materia-escura-que-os-cerca/

    http://www.portaldoastronomo.org/noticia.php?id=538

    http://blogs.scientificamerican.com/life-unbounded/2012/06/11/black-holes-are-everywhere/

    http://blogs.scientificamerican.com/life-unbounded/2012/08/14/black-holes-to-the-rescue/

    http://blogs.scientificamerican.com/guest-blog/2011/07/28/maybe-black-holes-dont-really-exist/

    http://revistaepoca.globo.com/Ciencia-e-tecnologia/noticia/2011/08/nasa-descobre-buracos-negros-proximos-da-terra.html

    http://oglobo.globo.com/ciencia/buracos-negros-gigantes-podem-estar-deriva-no-espaco-5134030#ixzz24gOo42UY

    http://g1.globo.com/ciencia-e-saude/noticia/2012/06/nasa-lanca-telescopio-que-ira-mapear-buracos-negros.html

    http://g1.globo.com/ciencia-e-saude/noticia/2012/02/novo-estudo-explica-luzes-de-buraco-negro-no-centro-da-lactea.html

    http://g1.globo.com/ciencia-e-saude/noticia/2011/08/satelite-da-nasa-flagra-buraco-negro-engolindo-estrela.html

    http://www.scientificamerican.com

    Obras:

    TAYLOR, J. Buraco Negro: O Supremo Desconhecível. Rio de Janeiro: Francisco Alves, 1981.

    NICOLSON, I. Gravidade, Buracos Negros e o Universo. Rio de Janeiro: Francisco Alves, 1983.

    Patrícia Lelli

    26/08/2012 em 18:13

  4. O enfoque da matéria é falar um pouco sobre o que é o estudo da cristalografia, como foi que chegou estas pesquisas ao Brasil e agregar novos conteúdos, novas pesquisas e aplicações. O interessante sobre o assunto é que ele é pouco sondado pelo jornalismo e seria interessante fazer uma matéria sobre o assunto que há muito tempo está sendo estudado e poucos conhecem, pois em 1912 que foi descoberto que se poderia determinar nos cristais a forma e o tamanho do padrão de repetição dos seus átomos conhecidas também como células unitárias através da passagem de raios X pela amostra. A cristalografia tem muita representatividade sócio-política para pesquisas e desenvolvimentos e ajuda também na economia global.
    Para abordar o assunto de uma forma plena e substancial serão necessários a entrevista com a Doutora Yvonne Mascarenhas que é uma das fundadoras da Associação de Cristalografia do Brasil e foi por muito tempo membro titular, o seu nome tem muita importância sobre a Cristalografia no Brasil e também é conhecida mundialmente por suas pesquisas,teses e publicações.Seu curriculum esta disponível neste link https://uspdigital.usp.br/tycho/CurriculoLattesMostrar?codpub=D7A0A5E3B4DD.Serão necessários mecanismos de busca na internet para averiguar dados, números e documentos e talvez sites de órgãos de governo que tratam do tema, como por exemplo, o site da Associação Brasileira de Cristalografia (ABCr). http://www.abcristalografia.org.br/
    Para a execução da matéria a doutora Yvonne Mascarenhas será entrevistada para abordar um pouco sobre como surgiu a idéia da cristalografia em pesquisas aqui no Brasil e no mundo, ela pode explicar melhor o que é sociedade de cristalografia e por que ela existe e também comentar o porque o Laboratório Nacional de Luz Sincrontron é importante para o estudo da Cristalografia em São Carlos .
    A entrevista será feita na Universidade de São Paulo (Usp) localizada em São Carlos.A entrevistada mesmo sendo aposentada é acessível, pois encontra se disponível na USP no Ciências Web e caso não encontre a entrevistada no local é sempre possível encontrar algum assessor que saiba informar o paradeiro da entrevistada.As informações obtidas para a matéria além da senhora Yvonne que já foi avisada e concederá a entrevista, será através de relatórios, livros biográficos, técnicos e principalmente livros de referência (dicionários).Os dados conhecidos sobre a Cristalografia no Brasil podem ser encontrados no site http://www.infopedia.pt/$cristalografia é onde aborda um pouco como surgiu este estudo e quando ela foi fundada no Brasil
    “O Grupo de Cristalografia faz suas atividades de pesquisa, ensino e extensão, nas áreas de Cristalografia Estrutural, Cristalografia em Ciência dos Materiais, Cristalografia de Proteínas, Modelagem Molecular, Biologia Molecular e Planejamento Racional de Fármacos e Vacinas” http://www.abcristalografia.org.br/.
    “As Áreas da Cristalografia são : Difração de raios-X em monocristais, Estrutura de Moléculas Pequenas, Difração de raios-X por materiais policristalinos, Método de Rietveld, Espalhamento de raios-X a baixos-ângulos, Cristalografia de proteínas, Biologia Molecular, Sequenciamento genômico, Bioquímica de Proteínas, Planejamento Racional de Fármacos e Vacinas, Química Medicinal e Computacional, Modelagem Molecular de Proteínas.” http://www.ccs.unicamp.br/cursos/ie521/cristalografia.ppt.
    Os artigos sobre a cristalografia são encontrados neste pequeno artigo que explica como funcionam os laboratórios de cristalografia e justifica que os projetos científicos em desenvolvimento ,contam sempre com o apoio financeiro de órgãos de fomento estadual http://web.if.usp.br/pesquisa/sites/default/files/CRISTAL_FAP.pdf.
    Esta publicação fala sobre a parceria da indústria brasileira de medicamentos junto com a associação brasileira de cristalografia que pode contribuir com o desenvolvimento de medicamentos sólidos e controle da formulação dos comprimidos sólidos convencionais http://labcacc3.iq.unesp.br/PDF/texto_-_a_industria_brasileira.pdf
    As matérias produzidas sobre a cristalografia aqui no Brasil abordam pouco conteúdo sobre o estudo em si e dá mais destaque aos pesquisadores em termos de pauta, do que as pesquisas feitas. O assunto é sempre atual, pois sempre estão sendo feitas pesquisas no campo da cristalografia e a periodicidade no jornal e revista é quase inexistente,algumas matérias são encontradas em fóruns ,sites ou Blog de instituições acadêmicas .Matérias produzidas :Conta sobre vida da senhora Yvonne Mascarenhas e fala um pouco sobre a cristalografia http://www.abc.org.br/article.php3?id_article=1885.
    Ciclo de palestras que contou com a participação do estudo da cristalografia “Cristalografia e as grandes fontes internacionais de raios X e nêutrons” http://www.usp.br/agen/?p=97351 .Dados estatísticos sobre o assunto (tabelas, gráficos, quadros etc.) podem ser encontrados no link a seguir que é possível entender um pouco sobre os eixos cristalográficos, sobre como os sistemas cristalinos funcionam e parâmetros e leis que existem no estudo da cristalografia http://www.uel.br/projetos/geocienciasnaweb/notacao.pdf .

    Referências :www.abcristalografia.org.br/
    http://www.infopedia.pt/$cristalografia
    http://www.ccs.unicamp.br/cursos/ie521/cristalografia.ppt
    http://www.ige.unicamp.br/site/…/Estrutura_cristalina_(aula_5)_folheto.pdf
    http://www.priberam.pt/dlpo/default.aspx?pal=cristalografia
    http://web.if.usp.br/pesquisa/sites/default/files/CRISTAL_FAP.pdf.
    http://www.abc.org.br/article.php3?id_article=1885
    http://www.uel.br/projetos/geocienciasnaweb/notacao.pdf
    https://uspdigital.usp.br/tycho/CurriculoLattesMostrar?codpub=D7A0A5E3B4DD

    Camila Fernanda Servo

    27/08/2012 em 10:11

  5. Tema: Remédios para emagrecer.

    Abordagem: Reação no organismo (composição) e comportamento das pessoas (psicológico).

    Conceitos:
    (Evandro Murer) Especialista em Teorias e Métodos de Pesquisa em Educação Física, Esportes e Lazer na UNICAMP.

    “Os Remédios para Emagrecer são quase todos à base de Anfetaminas, que foram sintetizadas em laboratório, a partir de 1928, para combater a obesidade, a depressão e a congestão nasal. Nas décadas de 60 e 70, o uso de anfetaminas tornou-se muito popular entre os jovens para reduzir o sono e aumentar a disposição física, principalmente nos bailes de carnaval e nas provas escolares. Mas, a sua principal indicação terapêutica continua sendo no tratamento da obesidade, fazendo parte de quase todas as fórmulas redutoras do apetite”.

    As Anfetaminas e seus Mecanismos

    As Anfetaminas são estimulantes do SNC (Sistema Nervoso Central), capazes de gerar quadros de euforia, provocar a vigília, atuar como anorexígenos e aumentar a atividade autônoma dos indivíduos. Algumas são capazes de atuar no sistema serotoninérgico [alterações cerebrais de serotonina quando da oferta de nutrientes (carboidratos, proteínas e aminoácidos). Utilizando a estratégia nutricional, o foco é o aminoácido precursor da serotonina cerebral: o triptofano; sendo um aminoácido essencial, é possível sua modulação via dieta]; aumentando a liberação de dois importantes neurotransmissores, a noradrenalina e a dopamina. [influenciam o humor, ansiedade, sono e alimentação junto com a Serotonina, Dopamina e Adrenalina].

    *Serotonina: uma molécula envolvida na comunicação entre neurônios.
    *Triptofano: substância responsável pela sensação do bem-estar; componentes das proteínas dos seres vivos.
    *Dopamina: é um importante neurotransmissor no cérebro, produzido por um grupo de células nervosas, chamadas de Neurónios Pré-Sinapticos, que atuam no cérebro promovendo, entre outros efeitos, a sensação de prazer e a sensação de motivação.

    A biodisponibilidade aumentada desses neurotransmissores nas fendas sinápticas reduz o sono e a fome e provoca um estado de agitação psicomotora. Os usuários ficam mais desinibidos, excitados e hiperativos.

    São diversos os tipos de anfetaminas no mundo, não existindo uma única substância que as caracterize.

    As anfetaminas causam taquicardia, dilatação excessiva das pupilas e palidez, além de também causarem insônia e perda de apetite. O uso contínuo da droga pode levar à degeneração das células cerebrais, causando lesões irreversíveis ao cérebro.

    As Principais Indicações para o Uso de Remédios para Emagrecer
    • Presença de hábitos alimentares claramente patológicos, tais como bulemia, hiperfagia, e compulsão alimentar;
    • Incapacidade de ingerir dietas hipocalóricas para que haja uma redução do peso;
    • Obesidades mórbidas, com risco para o pacientes.

    “Os remédios mais empregados para a perda de peso são os “supressores de apetite”, que promovem perdas de peso reduzindo o apetite e aumentando a sensação de plenitude. Estes medicamentos reduzem o apetite por aumento da serotonina ou das catecolaminas, substâncias cerebrais (neurotransmissores) que afetam o estado emocional e o apetite”.

    Pág: (117) http://www.fef.unicamp.br/departamentos/deafa/qvaf/livros/alimen_saudavel_ql_af/alimen_saudavel/alimen_saudavel_cap12.pdf

    Artigos publicados:

    Essa matéria foi publicada em 08/04/2011. Dr. Marcio C. Mancini (Presidente do Departamento de Obesidade da Sociedade Brasileira de Endocrinologia e Metabologia (SBEM)
    A matéria apresenta os seguintes tópicos:

    – A Visão Distorcida e o Preconceito em Relação a Remédios para Emagrecer.
    – O apetite é regulado no cérebro.
    – Eficácia das medicações.
    – Projeto Diretrizes da Associação Médica Brasileira é apoiado pelo Ministério da Saúde.
    – Experiência clínica de especialistas e custo-efetividade do tratamento farmacológico.
    – Graves consequências da retirada desses medicamentos.
    – Muitos outros remédios com aumento do risco cardiovascular.

    Link: http://www.endocrino.org.br/artigo-medicamentos-para-emagrecer/

    No site R7 saiu uma reportagem da Revista VEJA publicada em 21/09/2011.
    “Veja anuncia remédio como emagrecedor “milagroso” e prejudica diabéticos”.
    “Revista diz que remédio faz milagres na perda de peso, e quem precisa dele não acha mais”.

    Link: http://noticias.r7.com/saude/noticias/veja-anuncia-remedio-como-emagrecedor-milagroso-e-prejudica-diabeticos-20110921.html

    No Fantástico publicado 12/02/2012: “Médicos prometem emagrecimento rápido à base de remédios proibidos”. “Em todo o Brasil, médicos atraem centenas de pacientes, porque prometem emagrecimento rápido, à base de remédios. Só que eles não seguem a lei e usam remédios e combinações proibidas”.

    Link: http://fantastico.globo.com/Jornalismo/FANT/0,,MUL1678365-15605,00.html

    Esse site MDEMULHER ele apresenta várias dietas para as mulheres, são inúmeras as informações que contém.

    Link: http://mdemulher.abril.com.br/dieta/

    Link: http://www.fenafar.org.br/portal/medicamentos/62-medicaments/939-senado-promove-debate-sobre-proibicao-de-remedios-para-emagrecer.html

    Fontes:

    Ladisney Antonio Assaiante
    Formado: Biomedicina
    Faculdade: Unimar – Universidade de Marília – SP.
    Local onde trabalha: Irmandade da Santa Casa Misericórdia de Guariba.

    Dayan Tadeu Siquieri Okubo
    Formado: Médico
    Faculdade: Universidade Federal de Viçosa – MG
    Local onde trabalha: Irmandade da Santa Casa Misericórdia de Guariba.

    Pedro Junior Petrassi
    Psicólogo

    Referências utilizadas na pesquisa.
    • Projeto Acadêmico de Evandro Murer, Especialista em Teorias e Métodos de Pesquisa em Educação Física, Esportes e Lazer na UNICAMP.
    • Página R7
    • Globo (Fantástico)
    • Abril (Revista MdeMulher)

    TAMIRIS MARCHI BUNHOLA

    27/08/2012 em 14:36

  6. Proposta

    Fazer uma reportagem científica sobre os benefícios da natação para quem têm problemas respiratórios (especialmente asma e bronquite). Colocar, também, no texto, versões que demonstrem riscos, como a quantidade exagerada de cloro na água das piscinas. Explicar como funciona o aparelho respiratório humano. Buscar especialistas para informar, e personagens para ilustrar a matéria.

    Dados conhecidos

    Segundo o que diz no artigo de Priscila Gonçalves Soares e José de Fátima Juvêncio (http://www.editoraufjf.com.br/revista/index.php/revistainstrumento/article/view/461/429), existem indícios de que a asma seja causada devido à alergia a alguma substância inócua, ou seja, que não é nociva e que não provoca danos. Já a bronquite é caracterizada como uma inflamação dos brônquios (tubos responsáveis por ligar a traqueia aos pulmões) e que ocorre, em geral, como consequência de uma infecção.

    Para esses tipos de doença, então, é indicada a natação, já que ela induz a bronco constrição (estado no qual o músculo liso – tecido muscular de contração involuntária e lenta-, presente na parede brônquica, se contrai levando a uma redução na passagem de ar pelas vias aéreas), conforme citado no artigo de Alfred Bernard (http://cev.org.br/biblioteca/asma-natacao-pesando-os-beneficios-os-riscos/).

    Dessa forma, a natação fortalece os músculos da parede torácica (onde estão localizados os pulmões), o que permite a elasticidade deles e os torna capazes de absorver uma maior quantidade de oxigênio, melhorando significativamente o processo respiratório (como demonstrado no link http://www.ruadireita.com/desporto/info/os-beneficios-da-natacao/).

    Entretanto, alguns médicos, e inclusive o autor do artigo “Asma e Natação: Pesando os Benefícios e os Riscos”, Alfred Bernard, acreditam que, muitas vezes, a natação pode ser prejudicial às pessoas que tem problemas na respiração devido à presença de cloro nas piscinas. A dica dada pelo articulista é, portanto, que os asmáticos, por exemplo, que tem as vias nasais mais sensíveis, evitem locais onde haja níveis excessivos de cloro, tanto na água quanto no ar.

    Conceitos relacionados ao tema

    – Bronco constrição – é o estado no qual o músculo liso (tecido muscular de contração involuntária e lenta), presente na parede brônquica, se contrai levando a uma redução na passagem de ar pelas vias aéreas.

    – Osmolaridade – é a quantidade de partículas dissolvidas em um determinado solvente. No caso, é a natação que desenvolve a função de diminuir a quantidade de partículas dissolvidas no muco das vias aéreas.

    – Hiper-Responsividade Brônquica (HRB) – é o aumento anormal na limitação ao fluxo aéreo, após a exposição a um determinado estímulo (teste com metacolina). (http://www.misodor.com/ASMABRO.php).

    – Metacolina – é uma substância segura e de rápida eliminação pelo organismo. (http://www.pneumolab.com.br/exames/teste-de-broncoprovocacao-por-metacolina/).

    – Água clorada – para obter água clorada acrescente duas gotas de água sanitária ou hipoclorito de sódio 2,5% em um litro de água limpa. (http://www.cpamn.embrapa.br/apicultura/glossario.php).
    – Cloro – é o principal agente de saúde pública, utilizado devido as suas características desinfetantes. (http://www.clorosur.org/?a=canal&id=35).

    – Cloro usado como biocida – substância conservante que impede o ataque de fungos e bactérias a todo tipo de material orgânico.

    – Asma atópica – Incide preferencialmente sobre as crianças, adolescentes e adultos jovens. Pode ser hereditária e pode surgir acompanhada de outras afecções. Manifesta-se após a fixação de um determinado alergeno (substância que pode desencadear uma reação alérgica) no chamado órgão-alvo, ou seja, no tecido que recebe o alergeno (preferencialmente a mucosa brônquica). (http://biologia-ap.no.comunidades.net/index.php?pagina=1388185235)

    – Sistema respiratório humano – é constituído por um par de pulmões e por vários órgãos que conduzem o ar para dentro e para fora das cavidades pulmonares. Esses órgãos são as fossas nasais, a faringe, a laringe, a traqueia, os brônquios, os bronquíolos e os alvéolos pulmonares. (http://www.mundovestibular.com.br/articles/6111/1/Sistema-Respiratorio/Paacutegina1.html).

    – Árvore respiratória ou árvore brônquica – é o conjunto altamente ramificado de bronquíolos. (http://www.afh.bio.br/resp/resp1.asp).

    – Diafragma – é um músculo estriado esquelético em forma de cúpula e principal responsável pela respiração humana; O tecido muscular estriado ou esquelético é formado por fibras musculares cilíndricas, finas e que podem medir vários centímetros de comprimento.

    – Brônquios – são tubos aeríferos responsáveis por ligar a traqueia aos pulmões, sendo que cada brônquio inicia na bifurcação da traqueia e vai até o hilo do pulmão correspondente. Os brônquios são estruturas móveis e elásticas como a traqueia. Eles são revestidos internamente por uma túnica mucosa. (http://bloganatomiahumana.blogspot.com.br/2009/06/bronquios.html).

    – Substância inócua – não causa dano, não é nocivo.

    – Dispneia – (falta de ar) – é o termo usado para designar a sensação de dificuldade respiratória, experimentada por pacientes acometidos por diversas moléstias, e indivíduos sadios, em condições de exercício extremo. (http://www.fmrp.usp.br/revista/2004/vol37n3e4/2_dispneia.pdf).

    – Espasmo da musculatura lisa dos brônquios – Asma – A característica mais importante é a contração involuntária intermitente da musculatura lisa que circunda os brônquios e bronquíolos. O processo pode ser desencadeado por diversos motivos (alergias e alterações dos padrões de exposição aos microrganismos). (http://www.unifesp.br/dmorfo/histologia/ensino/pulmao/patologias.htm).

    – Edema do revestimento mucoso – é um acúmulo anormal de líquido nos pulmões que leva à falta de ar. (http://www.minhavida.com.br/saude/temas/edema-pulmonar).

    – Tórax – Os pulmões se localizam no interior do tórax. As costelas, que formam a caixa torácica, inclinam-se para a frente pela ação do músculo intercostal, provocando um aumento do volume da cavidade torácica. O volume do tórax também aumenta pela contração para baixo dos músculos do diafragma. Quando o tórax se expande, os pulmões começam a encher-se de ar durante a inspiração. O relaxamento dos músculos do tórax permite que estes voltem ao seu estado natural, forçando o ar a sair dos pulmões. (http://www.webciencia.com/11_30respiracao.htm#ixzz24VFMzLVN).

    – Pressão intrapleural – é a quantidade de pressão negativa (em torno de -4 mmHg) necessária nos espaços intrapleurais para evitar o colapso pulmonar, mantendo, assim, os pulmões expandidos. No final da inspiração profunda, esta pressão é tão grande que pode chegar a-12 ou -18 mmHg. (http://pt.scribd.com/doc/6706634/Aula-Respiratorio-1).

    Possíveis entrevistados

    – entrevista com Priscila Gonçalves Soares (bacharel e licenciada em Educação Física pela Universidade Federal de Viçosa e especialista em Fisiologia do Exercício e Treinamento de Força pelo Centro Universitário de Volta Redonda) através do e-mail priscilagsoares@yahoo.com.br.

    – entrevista com Maurício Tadeu Frajácomo, coordenador do curso de Educação Física do Centro Universitário de Araraquara – UNIARA. Ele é responsável pelas disciplinas “Teoria e Prática dos Esportes Aquáticos” (2ª série) e “Teoria e Prática do Judô” (3ª série), tem licenciatura plena em Educação Física pela Fundação Educacional de São Carlos – FESC e especialização em Treinamento e Técnico Desportivo pela Fundação Padre Albino, é mestre em Educação Ambiental e Meio Ambiente pela UNIARA, fez Pedagogia pela FAPI e foi, durante muitos anos, técnico desportivo na modalidade de natação, onde atuou em diversos clubes no estado de São Paulo e também na capital do Ceará. Contato através do site (http://www.uniara.com.br/graduacao/educacao_fisica/contato.php) ou Assessoria de Imprensa da UNIARA pelo telefone 3301-7100.

    – entrevista com Guido Felloni Tsuha, médico especialista em Medicina Esportiva. Contato pelo telefone 3214-8118.

    – entrevista com Fernando César Aere, médico especialista em Otorrinolaringologia. Contato pelo telefone 3336-5711.

    – em uma academia de esportes, entrevistar um aluno de natação que seja saudável e não tenha problemas respiratórios e um aluno que tenha começada a praticar por causa de asma ou bronquite. Sugestões: SOMA TOTAL Natação e Hidroginástica (3336-4999), Health Club Total (3335-1570) e Academia Bem Viver (3322-5107).

    Referências/Pesquisa

    http://www.divirta-se.uai.com.br/html/sessao_42/2011/02/20/ficha_saudeplena_fitness/id_sessao=42&id_noticia=34946/ficha_saudeplena_fitness.shtml

    http://www.jornallivre.com.br/155463/os-beneficios-da-natacao-para-voce-e-para-o-bebe.html

    http://www.sociedadedocorpo.com.br/index.php?option=com_content&view=article&id=51&Itemid=12

    http://redetutorial.com.br/saude/beneficios-da-natacao-para-quem-tem-problemas-de-saude.html

    http://www1.folha.uol.com.br/equilibrioesaude/991786-hidroginastica-20-ajuda-a-evitar-risco-ligado-a-osteoporose.shtml

    http://cev.org.br/biblioteca/asma-natacao-pesando-os-beneficios-os-riscos/

    http://zerohora.clicrbs.com.br/rs/noticia/2010/07/menos-procurada-no-inverno-natacao-traz-beneficios-a-quem-sofre-de-problemas-cardiorrespiratorios-2985204.html

    http://www.ruadireita.com/desporto/info/os-beneficios-da-natacao/

    http://www.editoraufjf.com.br/revista/index.php/revistainstrumento/article/view/461/429

    Laís Françoso

    27/08/2012 em 15:26

  7. Tema: Aparelho desenvolvido pelo Instituto de Física de São Carlos detecta e inicia tratamento do câncer de pele

    Informações
    O Grupo de Ótica do Instituto de Física de São Carlos (IFSC-USP) desenvolveu, em parceria com a empresa MM Optics, também de São Carlos (SP), um aparelho que detecta e inicia o tratamento de carcinoma, um tumor maligno desenvolvido nas células epiteliais, que formam o epitélio. Trata-se do câncer de pele com maior ocorrência no Brasil, com mais de 130 mil casos por ano, correspondendo a 25% dos casos de tumores malignos no país, segundo dados do INCA – Instituto Nacional de Câncer.
    O Lince, como foi batizado, representa uma alternativa de tratamento à cirurgia, com eficácia aproximada de 90% de cura nos casos em que foi aplicado. A base de tratamento do Lince é a Terapia Fotodinâmica (PDT – Photodynamic Therapy), que consiste da interação de três elementos: luz (laser, LED ou lâmpadas de filtro), a aplicação de uma substância fotossensibilizadora (que reage com a emissão da luz) e o oxigênio molecular (presente nos tecidos). No caso do Lince, é utilizada uma luz LED azul para o diagnóstico e uma luz LED vermelha para o tratamento.
    O desenvolvimento do Lince faz parte do programa “Terapia Fotodinâmica Brasil”, que teve financiamento pelo BNDES (Banco Nacional de Desenvolvimento Econômico e Social) aprovado em 2010. Atualmente, os principais parceiros do projeto são o Hospital Amaral Carvalho, de Jaú (SP), e o Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto (FMRP/USP), mas o objetivo é expandir o projeto em âmbito nacional, com expectativa de tratamento para 4 mil pessoas em 100 centros espalhados pelo Brasil.

    Bases científicas
    O epitélio ou tecido epitelial é um tecido formado por células justapostas (intimamente ligadas entre si) que tem a função de revestir e proteger a camada externa do corpo, através da barreira eficaz que é formada pela união das células epiteliais. Ele protege o corpo contra desidratação, contágio bacteriano, fúngico e viral, regulação térmica, absorção de nutrientes e oxigênio.
    Como as células do tecido epitelial da pele são muito unidas, este epitélio é chamado estratificado, o que significa que ele é formado por várias camadas de células, aumentando a proteção. O epitélio simples, por exemplo, que forma o revestimento de vasos sanguíneos, é formado por apenas uma camada de células.
    O carcinoma, ou câncer de pele não-melanoma, representa a maior parte dos casos no Brasil, mas tem um alto índice de cura, principalmente pela facilidade de diagnóstico precoce. Os sintomas aparecem como feridas na pele que demoram mais de quatro semanas para cicatrizar e manchas que coçam, ardem, descamam ou sangram.

    Abordagem
    Explicar o funcionamento do aparelho Lince, detalhando os princípios físicos químicos e/ou biológicos envolvidos no seu funcionamento. Também abordar vantagens desse tipo de tratamento, eficácia e possíveis efeitos colaterais.

    Reportagens publicadas na imprensa
    – Portal Prefeitura de São Carlos (6/8/12): http://www.saocarlosoficial.com.br/saude/?n=Parceria+entre+o+IFSC/USP+e+Hospital+Amaral+Carvalho+ja+ofereceu+tratamento+gratuito+para+mais+de+500+pacientes_T1ZBTEURA5
    – Portal São Carlos Agora (27/5/11): http://www.saocarlosagora.com.br/cidade/noticia/2011/05/27/18187/usp-e-mmoptics-desenvolvem-equipamento-que-detecta-e-inicia-tratamento-de-cancer-de-pele-em-cerca-de-cinco-horas/imprimir/
    – Assessoria de Comunicação do IFSC (sem data): http://www.ifsc.usp.br/index.php?option=com_content&view=article&id=733:anvisa-autoriza-fabricacao-de-aparelho-que-age-contra-cancer-de-pele&catid=7:noticias&Itemid=224
    – Portal São Carlos em Rede (9/8/12): http://www.saocarlosemrede.com.br/noticias/item/19631-parceria-entre-ifsc-e-hospital-amaral-carvalho-j%C3%A1-tratou-500-pacientes-com-c%C3%A2ncer-de-pele
    – Portal R7.com (8/1/10): http://noticias.r7.com/saude/noticias/bndes-financiara-pesquisa-para-tratar-cancer-de-pele-20100108.html
    – Portal R7.com (6/8/12): http://www.isaude.net/pt-BR/noticia/30036/geral/aparelho-faz-diagnostico-e-tratamento-do-cancer-de-pele-em-uma-mesma-plataforma
    – Portal EPTV.com (28/8/11): http://www.viaeptv.com/epnoticia/noticias/NOT,3,3,365867,Aparelho+que+diagnostica+e+trata+o+cancer+de+pele+chegara+a+100+hospitais+do+pais.aspx

    Fontes
    – Hilde Harb Buzzá: mestre em Física e doutoranda com tese em Terapia Fotodinâmica. Currículo Plataforma Lattes: http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4243295E0
    – Um integrante da equipe de coordenação médica do grupo do IFSC, ainda a confirmar.Daniel Bonini: clínico geral e doutor em Terapia Fotodinâmica. Currículo Plataforma Lattes: http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4759785U2

    Referências:
    http://www2.inca.gov.br/wps/wcm/connect/tiposdecancer/site/home/pele_nao_melanoma/
    http://www.sbfisica.org.br/fne/Vol2/Num2/a02.pdf
    http://www.portaleducacao.com.br/biologia/artigos/10494/o-que-sao-celulas-neoplasicas

    Cássio Leonardo Carrara

    27/08/2012 em 15:52

  8. Assunto:

    O efeito da Quimioterapia no organismo, Como é feito, quais as causas provocadas, se é aplicada em todos os casos de câncer, quais os medicamentos usados para o tratamento.

    Problemas envolvidos:

    A Quimioterapia é necessária para o tratamento do câncer, mas em contra partida causa muitos males ao organismo.

    Abordagem:

    Quero abordar os males que a Quimioterapia causa, o porquê causa, se existem outros tratamentos, há quanto tempo a Quimioterapia é usada, se a quimioterapia é usada em todos os casos e estágios da doenças, quais os tipos e porque são tantos.
    Algumas sugestões de perguntas:

    – Quanto tempo demora todo o tratamento?
    – Como é feita uma aplicação de quimioterapia?
    – Existem cuidados especiais para o paciente em tratamento?
    – Quais os efeitos colaterais da quimioterapia?
    – Existe outro tipo de tratamento além da quimioterapia?
    – A quimioterapia é indicada em todos os casos de câncer?

    O CÂNCER
    Câncer é um crescimento descontrolado de células de um tecido que invadem, se locomovem ou fazem a metástase e destroem, localmente e à distância, outros tecidos sãos do organismo. Em outras palavras, câncer é o termo que se emprega para definir um grupo de enfermidades com um denominador comum: a transformação da célula normal em outra que se comporta de maneira muito perigosa para o corpo humano. Também utiliza-se a palavra neoplasia mas esta , assim como a definçãotumor, pode significar uma série de afecções benignas.
    Muitas das drogas quimioterápicas trabalham prejudicando a mitose celular (veja também divisão celular), efetivamente, afetando as células de crescimento rápido. Como estas drogas causam danos celulares, elas são chamadas de citotóxicas ou citotásticas. Algumas destas drogas levam a célula à apoptose (também chamada de morte celular programada). Isto significa que outras células de divisão rápida como aquelas responsáveis pelo crescimento do cabelo e substituição do epitélio da parede do intestino são também afetadas. Entretanto, algumas drogas têm efeitos colaterais menores que outras, possibilitando ao médico ajustar o tratamento, trazendo vantagens aos pacientes.
    Como a quimioterapia afeta a divisão celular, tumores com alto grau de crescimento (como leucemia mielóide aguda e linfomas agressivos, incluindo Linfoma de Hodgkin, são mais sensíveis a este tratamento, pois apresentam uma grande proporção de células-alvos sofrendo divisão celular. Já os tumores com baixo grau de crescimento, como os linfomas indolentes, têm uma tendência a responder mais modestamente à quimioterapia.
    Drogas afetam tumores “jovens” (mais diferenciados) mais efetivamente, porque os mecanismos que regulam o crescimento celular estão mais preservados. Com a posterior geração de tumores celulares, a diferenciação é perdida, o crescimento torna-se menos regulado e os tumores tornam-se menos responsivos à maioria de agentes quimioterápicos. Perto do centro de tumores sólidos, a divisão celular cessa, tornando-os insensíveis à quimioterapia. Outro problema com os tumores sólidos é o fato dos agentes quimioterápicos geralmente não atingirem o núcleo, ou seja, o centro do tumor. Soluções para estes problemas incluem a radioterapia e a cirurgia criada por uma bauer.
    Com o tempo, a células cancerígenas tornaram-se mais resistentes ao tratamento de quimioterapia. Recentemente, cientistas identificaram pequenas bombas na área de superfície das células cancerígenas que movem ativamente a quimioterapia de dentro da célula para fora. Pesquisas com a glicoproteína-P e outras bombas efluentes de quimioterapia estão em andamento, assim como medicamentos que inibem a função da p-glycoproteína, que estão sendo testados desde junho de 2007.

    A QUIMIOTERAPIA

    A quimioterapia é o método que utiliza compostos químicos, chamados quimioterápicos, no tratamento de doenças causadas por agentes biológicos. Quando aplicada ao câncer, a quimioterapia é chamada de quimioterapia antineoplásica ou quimioterapia antiblástica.

    O primeiro quimioterápico antineoplásico foi desenvolvido a partir do gás mostarda, usado nas duas Guerras Mundiais como arma química. Após a exposição de soldados a este agente, observou-se que eles desenvolveram hipoplasia medular e linfóide, o que levou ao seu uso no tratamento dos linfomas malignos. A partir da publicação, em 1946, dos estudos clínicos feitos com o gás mostarda e das observações sobre os efeitos do ácido fólico em crianças com leucemias, verificou-se avanço crescente da quimioterapia antineoplásica. Atualmente, quimioterápicos mais ativos e menos tóxicos encontram-se disponíveis para uso na prática clínica. Os avanços verificados nas últimas décadas, na área da quimioterapia antineoplásica, têm facilitado consideravelmente a aplicação de outros tipos de tratamento de câncer e permitido maior número de curas.

    Tipos de quimioterapia
    ? Poliquimioterapia: É a associação de vários citotóxicos que atuam com diferentes mecanismos de ação, sinergicamente, com a finalidade de diminuir a dose de cada fármaco individual e aumentar a potência terapêutica de todas as substâncias juntas. Esta associação de quimioterápicos costuma ser definida segundo o tipo de fármacos que formam a associação, dose e tempo de administração, formando um esquema de quimioterapia.
    ? Quimioterapia adjuvante: É a quimioterapia que se administra geralmente depois de um tratamento principal, como por exemplo, a cirurgia, para diminuir a incidência de disseminação a distância do câncer.
    ? Quimioterapia neoadjuvante ou de indução: É a quimioterapia que se inicia antes de qualquer tratamento cirúrgico ou de radioterapia, com a finalidade de avaliar a efetividade in vivo do tratamento. A quimioterapia neoadjuvante diminui o estado tumoral, podendo melhorar os resultados da cirurgia e da radioterapia e, em alguns casos, a resposta obtida para chegar à cirurgia, é fator prognóstico.
    ? Radioquimioterapia concomitante: Também chamada quimioradioterapia, costuma ser administrada em conjunto com a radioterapia, com a finalidade de potencilizar os efeitos da radiação ou de atuar especificamente com ela, otimizando o efeito local da radiação.
    – Mecanismos de ação e classificação das drogas antineoplásicas
    Para uma pesquisa mais específica pretendo abordar os temas:
    – Tipos e finalidades da quimioterapia
    – Toxicidade dos quimioterápicos
    – Critérios para aplicação da quimioterapia
    – Resistência aos quimioterápicos
    – Principais drogas utilizadas no tratamento do câncer

    Artigos e trabalhos publicados em periódicos especializados:

    Um artigo publicado em 26/08/2009 mostra uma pesquisa feita no Brasil sobre Assistência à Saúde da Criança com Câncer na Produção Científica Brasileira
    O objetivo da pesquisa foi mapear as produções científicas brasileiras da temática de câncer em crianças.
    (http://www.inca.gov.br/rbc/n_56/v01/pdf/11_revisao_de_literatura_assistencia_saude_crianca_cancer.pdf)

    Outro artigo é sobre A eficácia da acupuntura na diminuição dos efeitos da quimioterapia
    Trabalho de pós-graduação em acupuntura de Valnice Machado Portela, Dayana Priscila Maia Meji, da Faculdade Ávila
    Este trabalho fala sobre a acupuntura clássica e mostra-se um mecanismo adicional para o tratamento das reações
    adversas, após o tratamento de quimoterapia antineoplásica em câncer de mama, diminuindo
    as náuseas e vômitos.
    (http://portalbiocursos.com.br/artigos/acupuntura/01.pdf)

    Reportagens e notícias recentes publicadas na impressa:

    Publicada pela revista Galileu em junho de 2012
    Remédio ajuda quimioterapia a combater câncer de próstata
    A matéria fala sobre a autorização do FDA (Administração Americana de Alimentos e Remédios, em inglês) para a utilização de um remédio para pacientes com câncer de próstata avançado. Essas pessoas já passaram por quimioterapia, mas o câncer continua em metástase..
    Publicado pela revisa Super Interessante em fevereiro de 2012
    A matéria fala sobre a descoberta de um tratamento que combate apenas as células cancerígenas e mantém as células sadias, essa descoberta foi feita por uma estudante chinesa de apenas 17 anos
    (http://super.abril.com.br/blogs/superblog/tag/cancer/)

    Dados estatísticos:

    O quadro abaixo mostra exemplos de efeitos tóxicos dos quimioterápicos, conforme a época em que se manifestam após a aplicação.
    Precoces*
    (de 0 a 3 dias) Imediatos
    (de 7 a 21 dias) Tardios
    (meses) Ultra-Tardios
    (meses ou anos)
    • Náuseas
    • Vômitos
    • Mal estar
    • Adinamia
    • Artralgias
    • Agitação
    • Exantemas
    • Flebites • Mielossupressão granulocitopenia plaquetopenia anemia
    • Mucosites
    • Cistite hemorrágica devida à ciclofosfamida
    • Imunossupressão
    • Potencialização dos efeitos das radiações devida à actinomicina D, à adriamicina e ao 5-fluoruracil • Miocardiopatia devida aos antracícliclos e outros
    • Hiperpigmentação e esclerodermia causadas pela bleomicina
    • Alopecia
    • Pneumonite devida à bleomicina
    • Imunossupressão
    • Neurotoxidade causada pela vincristina, pela vimblastina e pela cisplatina
    • Nefrotoxidade devida à cisplatina • Infertilidade
    • Carcinogênese
    • Mutagênese
    • Distúrbio do crescimento em crianças
    • Seqüelas no sistema nervoso central
    • Fibrose/cirrose hepática devida ao metotrexato
    * Síndrome da toxicidade precoce (Delgado 1983)

    No site do Hospital Amaral Carvalho tem um infográfico explica quais os tipos de câncer mais comuns em homens mulheres e crianças. – (http://www.accamargo.org.br/tudo-sobre-o-cancer/)

    Mini-currículo de pesquisadores científicos a serem entrevistados

    Ainda não consegui entrar em contato com os profissionais que quero entrevistar, são eles:
    O coordenador do setor de radioterapia da Santa Casa de São Carlos
    A Coordenadora da Rede Feminina de combate ao câncer de São Carlos
    Um pesquisador da USP de São Carlos

    Outros personagens e fontes de informação

    Uma jovem que teve câncer na faringe e fez quimioterapia por um tempo, perdeu cabelo e inda tem uma alimentação controlada pois seus rins e fígado ainda não se recuperaram totalmente.

    Lista de referências utilizadas

    (INCA) – http://www.inca.gov.br/conteudo_view.asp?ID=101
    (Hospital do câncer São Paulo) http://www.accamargo.org.br/
    (Drauzio Varella)http://drauziovarella.com.br/doencas-e-sintomas/quimioterapia-visao-atual/
    (Clinica São Carlos)http://www.clinicasaocarlos.com.br/esp_quimioterapia.asp
    (Santa Casa de São Carlos) – http://www.santacasasaocarlos.com.br/site-home_full
    (Rede Feminina de combate ao câncer) http://www.redefemininaesp.org.br/redes.php?pag=9&busca=
    http://super.abril.com.br/blogs/superblog/tag/cancer/)
    (http://www.accamargo.org.br/tudo-sobre-o-cancer/
    (http://portalbiocursos.com.br/artigos/acupuntura/01.pdf)
    http://www.inca.gov.br/rbc/n_56/v01/pdf/11_revisao_de_literatura_assistencia_saude_crianca_cancer.pdf)

    erica

    27/08/2012 em 16:00

  9. Abordagem

    Biomecatrônica pode beneficiar controle motor de idosos e deficientes

    Pernas e braços biônicos se afastam da ficção científica rumo à vida real. Ao redor do mundo, já se notícia, por exemplo, soldados amputados por ferimentos de guerra recebendo membros artificiais que controlam através do pensamento. Na Escola Politécnica (Poli) da USP, é o Laboratório de Biomecatrônica que estuda este campo promissor.

    Com a colaboração de outras unidades, o grupo desenvolve dispositivos para entender o controle motor humano e que poderão ajudar diversos segmentos da população, incluindo idosos com dificuldade de movimento. Estudos multidisciplinares com modelos de exoesqueleto humano de membros inferiores e superiores buscam entender o controle motor nos aspectos biológicos, psciológicos e neurofisiológicos.

    Arturo Forner Cordero, espanhol de nascimento e que está no Brasil há três anos, lidera o recém-criado laboratório (2010), que trabalha atualmente com três projetos: o controle dos membros superiores, com um exoesqueleto do cotovelo; o controle dos membros inferiores, com um exoesqueleto do joelho; e um núcleo de estudos avançados em reabilitação de pessoas que tiveram Acidente Vascular Cerebral (AVC). Este último envolve, além da Poli, Faculdade de Medicina (FMUSP), Escola de Engenharia de São Carlos (EESC) e Escola de Artes, Ciências e Humanidades (EACH), todas da USP.

    Novas respostas

    O estudo é focado no Sistema Nervoso Periférico (SNP), que dentre outras ações, conduz o impulso nervoso gerado no encéfalo até o orgão motor, envolvendo nervos e músculos. Há pesquisas semelhantes sobre o assunto em outras universidades do Brasil e principalmente no mundo, mas o foco e o método desenvolvido no laboratório é único. Segundo Forner, “a ideia não é replicar no Brasil o que se faz no mundo, mas fazer algo diferente, com uma nova linha de pesquisa e de pensamento”, afirma. A novidade do Laboratório de Biomecatrônica da Poli é tentar responder a perguntas do tipo “como funciona o ser humano no sentido motor?”.

    Com o desenvolvimento dessa pesquisa, o professor espera proporcionar melhor qualidade de vida para a população, já que com o aumento da expectativa de vida, alguns problemas motores podem ser ocasionados por conta da idade avançada. “Queremos que a população viva mais e melhor”, afirma otimista. Além de idosos, outro grupo que se beneficiará da pesquisa são os deficientes físicos. Neste sentido, Forner espera “que o deficiente físico tenha mais independência nas suas tarefas do dia a dia”.

    Exoesqueleto Superior

    Este foi o primeiro projeto desenvolvido no laboratório, e deve ser concluído totalmente no final de 2013. O responsável é o mestrando Andrey Miranda, que o iniciou ainda na graduação, como trabalho de conclusão de curso, já orientado por Forner. O próximo passo é expandir a pesquisa para além da articulação do cotovelo, abordando também as articulações do ombro e do punho. “A longo prazo – cerca de 40 a 50 anos – a expectativa é que cada pessoa tenha um exoesqueleto deste em casa, use-o para ir ao trabalho, fazer as atividades do dia a dia e que antes de dormir coloque o ‘braço’ na tomada e deixe carregando”, afirma.

    Forner espera, até o fim do projeto, diminuir o peso do exoesqueleto. “Hoje ele pesa cerca de 2,5 quilos, e a ideia é que seja de pouco menos de um quilo”, planeja. Para isso, será utilizado material em fibra de carbono, mais leve e resistente que os atuais, e será buscado aperfeiçoamento de outros dispositivos do exoesqueleto.

    No próprio corpo

    “A mãe do exoesqueleto do joelho é a Camila Souit”, indica o professor ao falar sobre o projeto do exoesqueleto inferior. A estudante está no último ano de engenharia mecânica e trabalha no joelho para seu trabalho de conclusão de curso. Assim como Andrey, ela pretende continuar o projeto na pós-graduação. Camila não colhe os louros sozinha e faz questão de citar o colega de projeto, Leonardo Lopes Malgueiro, que também se formará este ano.

    Forner também procura diminuir o peso do equipamento e diz que em breve iniciará a fase de testes. “Primeiro vamos acoplar ao nosso próprio corpo, estudar os resultados e somente numa fase bem mais pra frente vamos testar em pacientes ou em pessoas com deficiência”, conta.

    Projeto Humanis

    O projeto Humanis consiste em estudar a simbiose homem máquina, algo maior e mais abrangente do que a relação servil que humanos impõem às máquinas. Seria uma cooperação baseada na inteligência artificial. O grupo é composto não só por engenheiros, mas pessoas da área da comunicação, física, biologia e psicologia.

    Segundo um dos coordenadores, o professor José Reinaldo Silva, “essa pesquisa, com essa abrangência, não existe em nenhum lugar do mundo. Há algo semelhante no Arizona, mas ligada apenas na parte da engenharia. Seremos pioneiros”, afirma.

    O estudo desta simbiose engloba diversos departamentos e laboratórios da Poli, além do Laboratório de Biomecatrônica, a fim de aproveitar as múltiplas pesquisas sobre o controle motor humano. Agregará, ainda, pesquisas com o sistema nervoso central, neurônios e a parte cerebral, onde se dá o controle de dispositivos mecânicos comandados apenas pelo pensamento.

    O Humanis está sendo desenvolvido na Poli e deve ser aprovado em breve para receber verbas de pesquisa. No fim deste semestre, está previsto um workshop do grupo para explicar as ideias do projeto e divulgá-lo no meio científico.

    – Artigos e trabalhos publicados em periódicos especializados

    Dissertacao_Luis_Filipe_Rossi.pdf (3.92 Mbytes)

    Resumo

    Diversos trabalhos relacionados ao desenvolvimento de dispositivos robóticos biomecatrônicos estão sendo realizados em vários laboratórios no mundo. Apesar desta crescente tendência, devido a uma falta de padronização nas tecnologias utilizadas, em especial no sistema de sensoriamento e controle, há uma grande divergência nos sistemas resultantes. De forma a se conseguir atender os requisitos dos projetos, muito tempo é despendido no desenvolvimento de sistemas de sensoriamento e controle dedicados. Dentro deste cenário, neste trabalho foi projetado e implementado um sistema de sensoriamento e controle modular específico para sistemas robóticos. Este foi desenvolvido de forma a poder ser utilizado em diversos projetos reduzindo o esforço para a sua implementação. O referido sistema foi dividido em três módulos: Processador Central, Nós e Rede de Comunicação. Foi dada uma especial atenção no aspecto relacionado à comunicação por ser um fator-chave para se conseguir manter compatibilidade entre diferentes sistemas. Uma rede de comunicação denominada R-Bone foi desenvolvida pelo fato de que os sistemas existentes não atendem aos requisitos propostos. Uma descrição conceitual do sistema projetado é apresentada e a sua implementação detalhada. Todos os aspectos técnicos relevantes foram descritos de forma a facilitar a sua replicação por outros grupos. Um driver para sistema operacional Linux foi desenvolvido em conjunto com uma camada de abstração para simplificar o seu uso. Os testes realizados demonstraram que o sistema desenvolvido atende os requisitos propostos, mantendo uma condição de estabilidade adequada em seu tempo de resposta, baixa latência e pouca defasagem entre os sinais coletados pelos sensores. De forma a contribuir para uma possível padronização dos sistemas utilizados na área, todos os arquivos e informações relevantes para a replicação do sistema proposto foram disponibilizados sob a licença GNU LGPL em um servidor SVN.

    – Reportagens e notícias recentes publicadas na impressa

    Folha de São Paulo

    Avanços oferecem opção antes impensável aos amputados
    Próteses cobram preço do que restou do membro real

    Por ALEXIS OKEOWO

    Ann Kornhauser caminhava na rua quando, de repente, os ossos de seu pé esquerdo estalaram. O motivo foi um raro tumor, que fez com que os médicos tivessem que amputar metade de seu pé.
    A prótese que ela recebeu lhe causava dores constantes. Seu médico lhe ofereceu uma solução. Os membros artificiais, segundo ele, haviam melhorado muito, e ela poderia se beneficiar de um dos modelos modernos -mas ele só encaixaria se a perna dela fosse amputada abaixo do joelho.
    A ideia de perder o resto da perna, que era saudável, parecia absurda e assustadora. Mas após dois anos de desconforto, Kornhauser decidiu fazer isso.
    “Tudo o que a minha família disse foi: ‘Você vai ficar sem uma perna’. Mas eles não sabiam o que eu sabia”, contou ela. “Eu sabia que as pessoas corriam maratonas em cima delas. Eu sabia que teria uma vida.”
    Isso foi há cinco anos. Numa recente entrevista, essa alegre avó de 63 anos arregaçou a calça cinza para revelar uma perna com uma pele de silicone customizada e um tornozelo que pode ser ajustado a várias alturas de saltos. “Fui capaz de caminhar outra vez”, disse ela. “E ela parece real.”
    Com o avanço tecnológico dos membros artificiais, muitos amputados estão, como Kornhauser, tomando uma decisão antes impensável. Ao invés de fazer de tudo para preservar o que restou dos membros, alguns estão optando por amputá-los mais.
    Próteses biônicas, ou realistas, com peles customizadas, motores e microchips que replicam os movimentos humanos naturais estão expulsando os modelos anteriores do mercado. O velocista sul-africano Oscar Pistorius, duplo amputado, chegou a ser acusado de ter uma vantagem injusta nas pistas por correr com lâminas de fibra de carbono.
    Poucos amputados “têm vontade de que o membro artificial pareça humano”, disse Hugh Herr, chefe do grupo de pesquisas em biomecatrônica do Laboratório de Mídia do Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês), que está desenvolvendo aparelhos robóticos para uso corporal. “Eles querem que pareça interessante e tenha uma beleza de máquina.”
    O major do Exército David Rozelle disse que seu médico ficou horrorizado quando ele pediu a amputação de 23 centímetros de sua perna, para que ele pudesse se beneficiar de uma nova prótese abaixo do joelho. O major tinha tido o pé direito estraçalhado por uma mina no Iraque.
    “A comunidade médica está inteiramente focada em salvar membros”, disse Rozelle, 39. “Há, na verdade, uma desvantagem em ter um comprimento de membro adicional, porque você não consegue se encaixar corretamente nos dispositivos protéticos.”
    Ele fez a operação e agora possui vários modelos de sofisticadas pernas robóticas, utilizadas para atividades cotidianas e para praticar esportes, como o esqui. Muitos amputados que optam pelas cirurgias mais agressivas são esportistas como Rozelle, e querem retomar as suas atividades.
    As famílias dos amputados, compreensivelmente preocupadas, raramente se entusiasmam com os procedimentos drásticos. Para Michael LaForgia, foi complicado convencer a mulher.
    Maratonista e gerente de programa do JPMorgan Chase em Smithtown, Nova York, LaForgia contraiu uma meningite bacteriana em 2005, e em decorrência disso perdeu os dedos do pé esquerdo e os dedos, calcanhar e arco do pé direito. Os médicos tentaram reconstruir o pé direito com músculos removidos das costas, mas ele não conseguia calçar sapatos normais, correr, pedalar ou continuar a treinar os times de beisebol e futebol dos seus filhos.
    LaForgia ficou “aliviado e animado” por amputar a perna direita um ano e meio depois, para receber uma prótese de alta atividade. Ele mais tarde recebeu uma prótese parcial para o pé esquerdo que lhe permitiu correr. “Eu quis me livrar daquele pé. Ele simbolizava tudo o que eu não conseguia fazer”, disse.
    A tecnologia para próteses está avançando rapidamente. Pesquisadores financiados pela Agência de Pesquisa de Projetos Avançados de Defesa dos EUA estão trabalhando para criar novas próteses para soldados com amputações na extremidade superior. A meta é produzir membros artificiais que veteranos possam controlar com o cérebro. A revista “Nature” recentemente relatou uma experiência em que duas pessoas com lesões cerebrais severas efetivamente controlavam um braço protético apenas com seu pensamento.
    Para o ultramaratonista Amy Palmiero-Winters, 39, que perdeu uma perna em um acidente de moto, os amputados “estão percebendo que podem fazer tudo o que faziam antes”.

    Portal Uol

    O professor Hugh Herr, amputado das duas pernas, desenvolveu e testou uma prótese

    Prótese pode permitir que deficientes levem uma vida normal. Por Matheus Gonçalves O professor Hugh Herr, amputado das duas pernas, desenvolveu e testou uma prótese que está sendo considerada a mais avançada já construída. Além de ser tão eficiente quanto pernas biológicas, a prótese poderá no futuro ser ajustada a partir de um aplicativo do iPhone.Segundo a página de Ciência do site The Register, as pernas funcionam com baterias de lítio-íon e podem ser configuradas para aumentar sua performance em saltos e em corridas.
    Professor Hugh Herr exibe seus modelos de próteses já desenvolvidos. (Créditos: Forbes.com)Herr, que leciona biomecatrônica no MIT, perdeu as duas pernas por causa do gelo em uma expedição de alpinismo em 1982, quando tinha apenas 17 anos.Depois disso, dedicou boa parte do seu tempo buscando criar a prótese ideal, tendo desenvolvido toda uma gama de diferentes pernas cibernéticas.O fato de não ter os membros inferiores é uma oportunidade”, diz ele. Entre o que sobrou da minha perna e o chão, eu posso criar qualquer coisa que eu quiser. Os únicos limites são as leis da física e da minha imaginação.” – disse Herr.À revista eletrônica Forbes.com, o professor declarou que não existem pessoas com deficiência, apenas tecnologias deficientes”.Herr também desenvolveu diversos acessórios para as pernas biônicas, dando às próteses habilidades como aumentar o tamanho da pessoa, garras para escaladas em penhascos de gelo, ou molas feitas em fibra de carbono para corridas.Mas a obra prima do professor é a PowerFoot, que é uma prótese capaz de empurrar o corpo como fazem os pés naturais ao executarem um passo normal. Existem sensores que permitem que a perna sinta o que está acontecendo, fazendo ela apontar os pés para baixo quando a pessoa está descendo uma escada, por exemplo, ou se desligar quando percebe que o usuário cruzou as pernas.O modelo PowerFoot pode ser ajustado para aumentar a eficiência ao correr, a partir de um telefone celular que tenha Bluetooth.Herr promete a criação de um aplicativo do iPhone para facilitar esse processo em um futuro próximo.

    -Pesquisadores científicos a serem entrevistados

    Camila Souit – “A mãe do exoesqueleto do joelho”.

    Formação:

    Está graduando engenharia mecânica na Escola Politécnica da USP. Participou do Projeto Global do PACE (Partners for the Advancement of Collaborative Engineering Education) sob supervisão da General Motors e do Departamento de Engenharia Automotiva da instituição e foi aluna monitora de uma disciplina da graduação. Objetiva participar em uma linha de pesquisa até se formar e posteriormente atuar na área industrial.

    *Coordenador do projeto: Jose Reinaldo Silva

    Formação acadêmica/Titulação:

    2006: Livre-docência. Universidade de São Paulo, USP, Brasil. Título: Modelagem e Design de Sistemas Automatizados, Ano de obtenção: 2006. Palavras-chave: Automacao de Sistemas; Analysis of domains; Mecatrônica (Sistemas); modeling and design methods; Redes de Petri Estendidas Hierarquicas; Planning Systems.
    1994 – 1995: Pós-Doutorado . University of Waterloo. Bolsista do(a): Fundação de Amparo À Pesquisa do Estado de São Paulo ,FAPESP ,Brasil . Grande área: Engenharias / área: Engenharia Mecânica / Subárea: Engenharia de Controle e Automação Mecânica / Especialidade: Design de Sistemas. Grande área: Engenharias / área: Engenharia Elétrica / Subárea: Engenharia de Sistemas / Especialidade: Sistemas discretos e distribuídos. Grande área: Ciências Exatas e da Terra / área: Ciência da Computação / Subárea: Inteligência Artificial.
    1988 – 1992: Doutorado em Engenharia Elétrica . Universidade de São Paulo, USP, Brasil. Título: Uma formalização do processo de design baseado em metáforas:Sua aplicação na automatização de Sistemas de Eventos Discretos, Ano de Obtenção: 1992. Orientador: Carlos José Pereira de Lucena. Palavras-chave: Automacao de Design; Automacao de Sistemas; Design Estruturado; Design de Sistemas Discretos; Design de Sistemas Integrados; Redes de Petri Estendidas Hierarquicas. Grande área: Engenharias / área: Engenharia Mecânica / Subárea: Engenharia Mecatrônica / Especialidade: Modelagem e Design de Sistemas Discretos. Grande área: Engenharias / área: Engenharia Elétrica / Subárea: Eletrônica Industrial, Sistemas e Controles Eletrônicos. Grande área: Ciências Exatas e da Terra / área: Ciência da Computação / Subárea: Sistemas de Computação / Especialidade: Sistemas de Informação.
    1982 – 1985: Mestrado em Física . Universidade Federal de Pernambuco, UFPE, Brasil. Título: O METODO DE FATORIZACAO APLICADO A PROBLEMAS MODELO DE ESTADOS META- ESTAVEIS NO HIDROGENIO, Ano de Obtenção: 1985. Orientador: SILVIO ROBERTO ACIOLI CANUTO. Palavras-chave: Automacao de Design; Automacao de Sistemas; Comunicacao Entre Agentes; Design Por Objetos; Estados Quasi-Ligados; Fatorizacao. Grande área: Ciências Exatas e da Terra / área: Física / Subárea: Física Atômica e Molecular / Especialidade: Estrutura Eletrônica de átomos e Moléculas; Teoria.
    1986 – 1987: Mestrado profissionalizante em Interdisciplinary Computer Science . Mills College. Título: Intelligent System Solver for Physics, Ano de Obtenção: 1987. Orientador: Robert Street. Bolsista do(a): Mills College . Grande área: Ciências Exatas e da Terra / área: Ciência da Computação / Subárea: Sistemas de Computação.
    1974 – 1980: Graduação em Fisica . Universidade Federal da Bahia, UFBA, Brasil.

    *Arturo Forner Cordero, lidera o recém-criado laboratório (2010).

    O Prof Arturo Forner-Cordero, se formou em Ingeniería Superior de Telecomunicaciones pela Universidade Politécnica de Valencia, Espanha (1992), doutorado em Mechanical Engineering (Biomechanics) pela Twente University of Technology nos Países Baixos (2003) e pós-doutorado na Katholieke Universiteit Leuven em Bélgica (2005). Em 2006 ganhou uma prestigiosa vaga do programa Ramón y Cajal para o Consejo Superior de Investigaciones Científicas em Espanha. Atualmente é Professor Livre-Docente na Escola Politécnica da Universidade de São Paulo, e dirige o Laboratório de Biomecatrônica do Departamento de Engenharia Mecatrônica e Sistemas Mecânicos. Suas linhas de atuação em pesquisa e desenvolvimento tecnológico envolvem os seguintes temas: Biomecatrônica, Biomecânica, Biorobôtica e Controle Motor. Publicou mais de 25 artigos científicos em revistas internacionais e foi co-autor de 10 livros além de participar em múltiplos congressos como palestrante, convidado ou organizador. Foi coordenador cientifico do projeto europeu ESBiRRo desenvolvendo o controle da marcha de um robô bípede e um exoesqueleto de membro inferior. Orientou vários alunos de formatura, mestrado e uma tese doutoral sobre o estudo do controle motor por meio de exoesqueletos. Atualmente coordena dois projetos para o estudo do controle motor dos membros superiore (FAPESP) e inferiores (CNPq) além de participar no Nucleo de Apoio a Pesquisa da USP Núcleo de Estudos Avançados em Reabilitação (NEAR) (Fonte: Currículo Lattes)

    -Lista de referências utlizadas na pesquisa

    http://www1.folha.uol.com.br/fsp/newyorktimes/46675-avancos-oferecem-opcao-antes-impensavel-aos-amputados.shtml

    http://g1.globo.com/Noticias/Tecnologia/0,,MUL36501-6174,00-NOVA+PROTESE+DA+EMPURRAO+A+CAMINHADA.html

    http://revistaepoca.globo.com/Revista/Epoca/0,,EMI120557-15257,00-O+NOVO+HOMEM+BIONICO.html

    http://frank_william.dihitt.com.br/n/ciencia/2012/06/02/bioeletronica-primeiro-circuito-integrado-quimico-1
    http://www.youblisher.com/p/164693-Jornal-Inclusao-Brasil-5-Edicao/

    http://reviproject.wordpress.com/2010/04/02/biomecatrnica-festo/

    http://www.diariodasaude.com.br/topics.php?tag=Pr%F3teses

    http://veja.abril.com.br/especiais/tecnologia_2005/p_046.html

    http://www.teses.usp.br/teses/disponiveis/3/3140/tde-10052012-121527/pt-br.php

    Karine Teixeira

    27/08/2012 em 16:19

  10. Corrente Elétrica- Os processos para a transformação da energia elétrica.

    Quando ouvimos falar em corrente elétrica não sabemos ao certo o tamanho da dimensão que a mesma pode abranger em diversos caminhos da tecnologia e de suas mais profundas curiosidades.Acredito que é assim com a maioria dos temas que serão abordados, sabemos um pouco mas não o suficiente para realmente determinarmos algo.
    Então neste início de relatório de pauta, algumas informações já serão abordadas, talvez não tão aprofundadas, mas, brevemente sim, com depoimentos de profissionais da área que com certeza irá complementar o que falta de maneira mais concreta.
    Assim considero a corrente elétrica um assunto muito importante para ser abordado, mas, o mais interessante ainda é sabermos qual o caminho, o processo que se dá até chegar a energia elétrica em nossas casas. Parece simples, ou complicado, depende do ponto de vista das pessoas,mas realmente eu diria que é incrível todo o percurso que ela faz para chegar numa finalização que chamamos de luz.
    “A energia gerada pelas usinas não está numa forma apropriada para o consumo.Para que ocorram poucas perdas na transmissão por longas distâncias, no local em que a usina produz a energia, ela é transformada, ou seja, sua tensão é modificada.
    Assim, a tensão enviada da usina até os centros de consumo é muito alta.Existem linhas de transmissão de energia que operam com 80,000; 150,000;250,000;e até 750,000 v.
    Obviamente, esta tensão é extremamente perigosa: se fosse levada diretamente até nossa casa, não precisaríamos sequer tocar nos fios para levar choques mortais.
    A simples aproximação de um fio com tais tensões faria com que saltassem faíscas, fulminando-nos instantaneamente.
    Assim, a energia, para chegar até nossas casas, passa por uma série de transformações, entrando em ação, dispositivos que, justamente por sua função, são denominados transformadores.”
    “A energia elétrica pode ser produzida através de diferentes fontes de energia, carvão mineral, derivados do petróleo, bagaço de cana, entre outros.
    Depois de produzida, a energia elétrica vai para as cidades através das linhas e torres de transmissão de alta tensão.Essas linhas e torres são aquelas que você pode ver nas estradas, que levam a energia por longas distâncias.Quando a eletricidade chega as cidades, ela passa pelos transformadores de tensão nas subestações que diminuem a voltagem. A partir daí, a energia elétrica segue pela rede de distribuição, onde os fios instalados nos postes que levam a energia até a sua rua.
    Antes de entrar nas casas, a energia elétrica ainda passa pelos transformadores de distribuição(também instalados nos postes) que rebaixam a voltagem para 127 0u 220 volts.Em seguida, ela vai para a caixa do seu medidor de enrgia elétrica, que é o seu relógio de luz. É ele que mede o consumo de energia de cada residência.
    A energia elétrica está sujeita as interrupções.Durante todo esse caminho, as linhas de transmissão e as redes de distribuição estào sujeitas aos raios, às tempestades e aos ventos fortes.Galhos de árvores também chegam a tocar os cabos elétricos em vários pontos da rede.
    Esses fatores são os grandes responsáveis pela interrupção do fornecimento de energia.
    A necessidade de manutenção ou ampliação da rede também causa interrupções programadas”.
    Mais adiante entrevistarei profissionais da área da rede de energia que confirmarão minha pré- pesquisa e também irão complementar com precisão informações sobre toda a rede de energia.Pretendo falar com algum engenheiro elétrico da empresa CPFL, e também um professor de eletricidade, podendo provavelmente aumentar a quantia de fontes.
    Brevemente também mostrarei de forma mais dinâmica e animadora um infográfico com apresentações explicando com detalhes todo o percurso da rede de energia elétrica.
    As referências foram utilizadas no google- por meio dos tópicos- alternativa econômica-energia; como a energia até nossas casas.
    Deixo claro que este é apenas um início da pesquisa, e que realmente tive que pesquisar e aproveitar informações destas referências.

    Renata Toffino

    27/08/2012 em 16:26

  11. Assunto: Biofiltro consome gás do efeito estufa em aterro sanitário

    Informações: Um sistema de biofiltros para estudar o comportamento de cobertura em aterros sanitários é testado em pesquisa da Escola Politécnica (Poli) da USP. A cobertura possui bactérias que oxidam e consomem o gás metano (CH4), causador do efeito estufa na atmosfera, que escapa pela cobertura dos aterros sem passar pelo sistema de drenagem, impedindo seu descarte no ambiente. Os pesquisadores também desenvolvem um método para medir a quantidade de metano oxidado, de forma a possibilitar a venda de créditos de carbono.
    O estudo tem financiamento da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp), a participação do Instituto de Ciências Biomédicas (ICB) da USP e colaboração da prefeitura da cidade de Campinas (interior de São Paulo). O professor da Poli, Fernando Marinho, que coordena a pesquisa aponta que apenas 30% dos municípios brasileiros descartam seu lixo em aterros sanitários, de acordo com a Associação Brasileira das Empresas de Limpeza Pública e Resíduos Especiais. “Esses resíduos emitem metano (CH4) e gás carbônico (CO2), gases que contribuem para o aumento do efeito estufa”, alerta.

    “A instalação de aterros sanitários permite minimizar emissões nocivas, mas como o lixo é um material muito compressível, ele se movimenta, formando trincas nas coberturas e permitindo o escape dos gases”. Os operadores de aterros concebidos a partir de um projeto de engenharia tem a opção de capturar o gás de lixo (biogás) e queimá-lo, podendo ainda gerar energia. Após este processo apenas CO2 é emitido. “Há uma redução da poluição atmosférica, porque o gás carbônico é 21 vezes menos potente para gerar o efeito estufa que o metano”, conta o professor. “No entanto, a queima para geração de energia não tem sido uma iniciativa interessante em termos estritamente econômicos”.
    O biofiltro é formado por uma colônia de bactérias bastante comum em solos com matéria orgânica. A ideia é criar condições na parte superior do sistema de cobertura de modo a permitir que a colônia se desenvolva e seja eficiente no consumo do metano. “A cobertura metanotrófica (que oxida o metano) é formada por um solo onde se acrescenta matéria orgânica com o objetivo de inocular a bactéria. Assim as bactérias oxidam o metano, gerando gás carbônico e água”, destaca Marinho. “O ideal é que a camada do biofiltro fique acima da cobertura final do aterro sanitário ou de qualquer cobertura projetada, mesmo que em lixões.”
    Medições
    Os pesquisadores medem a quantidade de metano que entra no biofiltro e a que é oxidada ao longo dele. “Para utilizar o biogás e submeter o biofiltro a condições climáticas idênticas a de um aterro em funcionamento, o sistema foi instalado no aterro sanitário Delta 1, em Campinas”, diz o professor. O sistema é periodicamente monitorado, medindo-se parâmetros tais como: temperatura, umidade do solo, pressão da água, concentrações dos gases ao longo do biofiltro, além de outros. “As medições de concentrações são feitas entre pontos do aterro cuja diferença indica o quanto foi oxidado, ou seja, deixou de sair para a atmosfera.”

    Aparelhagem utilizada para medição do gás metano que passa pelo biofiltro
    O objetivo das medições é criar um procedimento que possa ser usado no cálculo dos créditos de carbono (valores pagos a projetos que reduzem as emissões do efeito estufa). “Capturar o metano que iria escapar sem controle pelo sistema de cobertura é o objetivo, pois o cálculo de queima já é feito em alguns aterros no Brasil”, aponta Marinho. “No entanto, não existe nenhuma quantificação dos processos de oxidação na cobertura”.
    Além dos experimentos com a cobertura e o sistema de medição em Campinas, com a colaboração da prefeitura da cidade, os pesquisadores já desenvolveram estudos e estão em contato com outros grupos que estudam o mesmo processo nos municípios do Rio de Janeiro (RJ), Caxias do Sul (RS) e Recife (PE). Essas cidades manifestaram interesse em implantar iniciativas semelhantes.
    De acordo com o professor, o sistema pode ser adotado em qualquer local em que haja deposição de resíduo sólido urbano e onde haja interesse em projetar uma cobertura. “Se for planejada a colocação de uma cobertura apropriada para finalização de aterros ou lixões, o biofiltro pode ser incluído”, ressalta. “O aumento nos custos é pequeno e é compensado pelo ganho ambiental.

    Abordagem:Informar como foi feita essa pesquisa e qual a necessidade da mesma

    Notícias na imprensa e artigos publicados (links):

    Gráficos: não há gráficos estatísticos

    Minicurrículo do pesquisador: Fernando Antônio Medeiros Marinho

    Possui graduação em Engenharia Civil pela Universidade de Pernambuco (1983), mestrado em Mecânica dos Solos pela Pontifícia Universidade Católica do Rio de Janeiro (1986), doutorado em Geotecnia pela University of London – Imperial College (1994) e pós doutorado na Arizona State University (2008). Atualmente é professor livre docente da Universidade de São Paulo. Tem experiência na área Geotécnica, atuando principalmente nos seguintes temas: solos não saturados, efeito do clima em obras geotécnicas, coberturas de aterros de resíduos, estudos experimentais de campo e laboratório, estabilidade de taludes, fluxo em meios porosos.

    https://uspdigital.usp.br/tycho/CurriculoLattesMostrar?codpub=F7A2AD48B41F

    Referências: as referências são os textos publicados

  12. 1.Assunto, problema envolvido e abordagem adotada

    – Câmara Hiperbárica
    – Equipamento destinado as pessoas que se submeterão a sessões de oxigenoterapiahiperbárica (OHB) a fim de respirar oxigênio 100% puro a pressoes superiores a pressão ao nível do mar.
    A possível inalação de oxigênio puro na ressão atmosférica não caracteriza o tratamento de OHB, portanto, os pacientes devem ser pressurizados no interior de uma câmara hiperbárica para que a terapia surta o efeito esperado.
    – A base fisiológica do tratamento é a oxigenação dos tecidos e para tanto o oxigênio pode ser levado até eles através do sangue de duas maneiras: quimicamente ligado a hemoglobina ou fisiscamente dissolvido no plasma.
    Segundo a Lei de Henry, a quantidade de gás que entra em dissolução em um liquido orgânico é diretamente
    2.Conceitos e teorias científicas relacionadas ao tema
    3.Artigos e trabalhos publicados em periódicos especializados
    4.Reportagens e notícias recentes publicadas na impressa
    5.Mini-currículo de pesquisadores científicos a serem entrevistados
    7.Outros personagens e fontes de informação incluídos na pauta
    8.Lista de referências utlizadas em sua pesquisa (links, obras etc.)

    andreza palanca

    27/08/2012 em 18:25

  13. 1. Assunto, problema envolvido e abordagem adotada

    Assunto
    Câmara Hiperbárica

    Problema envolvido
    Equipamento destinado as pessoas que se submeterão a sessões de oxigenoterapiahiperbárica (OHB) a fim de respirar oxigênio 100% puro a pressões superiores a pressão ao nível do mar.

    Abordagem adotada
    A possível inalação de oxigênio puro na pressão atmosférica não caracteriza o tratamento de OHB, portanto, os pacientes devem ser pressurizados no interior de uma câmara hiperbárica para que a terapia surta o efeito esperado.

    2. Conceitos e teorias científicas relacionadas ao tema
    A base fisiológica do tratamento é a oxigenação dos tecidos e para tanto o oxigênio pode ser levado até eles através do sangue de duas maneiras: quimicamente ligado a hemoglobina ou fisicamente dissolvido no plasma.
    Segundo a Lei de Henry, a quantidade de gás que entra em dissolução em um líquido orgânico é diretamente proporcional a pressão parcial desse gás a qual o líquido está exposto, ou seja, quanto maior a pressão parcial do oxigênio (ppO2), maior será sua quantidade, daí a necessidade de pressões acima da atmosfera.

    3. Artigos e trabalhos publicados em periódicos especializados
    http://www.seawaydiver.com.br/artigo4.asp
    http://www.jvascbr.com.br/03-02-03/03-02-03-169/03-02-03-169.pdf
    http://iantdbrasil.com.br/index.php/midia/artigos/184-operacao-de-camera-hiperbarica
    http://www.sbmh.com.br/web/index.php/artigos-cientificos-e-publicacoes

    4. Reportagens e notícias recentes publicadas na impressa
    http://www.folhacidade.net/ver-noticia/deputado-se-reune-com-secretario-de-saude-e-pede-solucao-para-tratamento-em-camara-hiperbarica—
    http://www.portalk3.com.br/Artigo/politica/dimas-ramalho-pede-solucao-para-tratamento-em-camara-hiperbarica
    http://www.planetaempreendedor.com.br/?p=7753
    http://passofirme.wordpress.com/2012/06/06/oxigenoterapia-hiperbarica-ativa-circulacao-e-cicatrizacao-de-feridas-em-pes-diabeticos/
    http://www.redelajeado.com.br/2012/04/12/instituto-de-oxigenoterapia-hiperbarica-dobra-capacidade-de-atendimento/

    5. Mini-currículo de pesquisadores científicos a serem entrevistados
    Dr° Luis Claúdio Lapena Barreto – Médico Cirurgião Plástico e Hiperbarista

    6. Outros personagens e fontes de informação incluídos na pauta
    Rosimeire Montesino – Enfermeira Hiperbarista
    Silvia Raptoni Santana – Paciente
    Isaura Pinati – Paciente

    7.Lista de referências utlizadas em sua pesquisa (links, obras etc.)
    http://www.hiperbarica.com.br/?system=news&eid=150
    http://www.ecotecmed.com.br/ohb.htm

    andreza palanca

    27/08/2012 em 18:27

  14. Professor,

    Desculpa mas nao consigo postar meu trabalho … ja mandei um monte de vezes e so apareceu pra mim um que esta incompleto. De qualquer forma estou levando no pen drive a noite.

    Obrigada

    andreza palanca

    27/08/2012 em 18:29

  15. O enfoque da matéria é falar um pouco sobre o que é o estudo da cristalografia, como foi que chegou estas pesquisas ao Brasil e agregar novos conteúdos, novas pesquisas e aplicações. O interessante sobre o assunto é que ele é pouco sondado pelo jornalismo e seria interessante fazer uma matéria sobre o assunto que há muito tempo está sendo estudado e poucos conhecem, pois em 1912 que foi descoberto que se poderia determinar nos cristais a forma e o tamanho do padrão de repetição dos seus átomos conhecidas também como células unitárias através da passagem de raios X pela amostra. A cristalografia tem muita representatividade sócio-política para pesquisas e desenvolvimentos e ajuda também na economia global. Para abordar o assunto de uma forma plena e substancial serão necessários a entrevista com a Doutora Yvonne Mascarenhas que é uma das fundadoras da Associação de Cristalografia do Brasil e foi por muito tempo membro titular, o seu nome tem muita importância sobre a Cristalografia no Brasil e também é conhecida mundialmente por suas pesquisas,teses e publicações.Seu curriculum esta disponível neste link https://uspdigital.usp.br/tycho/CurriculoLattesMostrar?codpub=D7A0A5E3B4DD.
    Serão necessários mecanismos de busca na internet para averiguar dados, números e documentos e talvez sites de órgãos de governo que tratam do tema, como por exemplo o site da Associação Brasileira de Cristalografia (ABCr). http://www.abcristalografia.org.br/Para a execução da matéria a doutora Yvonne Mascarenhas será entrevistada para abordar um pouco sobre como surgiu a idéia da cristalografia em pesquisas aqui no Brasil e no mundo, ela pode explicar melhor o que é sociedade de cristalografia e por que ela existe e também comentar o porque o Laboratório Nacional de Luz Sincrontron é importante para o estudo da Cristalografia em São Carlos .
    A entrevista será feita na Universidade de São Paulo (Usp) localizada em São Carlos.A entrevistada mesmo sendo aposentada é acessível, pois encontra se disponível na USP no Ciências Web e caso não encontre a entrevistada no local é sempre possível encontrar algum assessor que saiba informar o paradeiro da entrevistada.As informações obtidas para a matéria além da senhora Yvonne que já foi avisada e concederá a entrevista, será através de relatórios, livros biográficos, técnicos e principalmente livros de referência (dicionários).Os dados conhecidos sobre a Cristalografia no Brasil podem ser encontrados no site http://www.infopedia.pt/$cristalografia é onde aborda um pouco como surgiu este estudo e quando ela foi fundada no Brasil
    “O Grupo de Cristalografia faz suas atividades de pesquisa, ensino e extensão, nas áreas de Cristalografia Estrutural, Cristalografia em Ciência dos Materiais, Cristalografia de Proteínas, Modelagem Molecular, Biologia Molecular e Planejamento Racional de Fármacos e Vacinas” http://www.abcristalografia.org.br/.
    “As Áreas da Cristalografia são : Difração de raios-X em monocristais, Estrutura de Moléculas Pequenas, Difração de raios-X por materiais policristalinos, Método de Rietveld, Espalhamento de raios-X a baixos-ângulos, Cristalografia de proteínas, Biologia Molecular, Sequenciamento genômico, Bioquímica de Proteínas, Planejamento Racional de Fármacos e Vacinas, Química Medicinal e Computacional, Modelagem Molecular de Proteínas.” http://www.ccs.unicamp.br/cursos/ie521/cristalografia.ppt.
    Os artigos sobre a cristalografia são encontrados neste pequeno artigo que explica como funcionam os laboratórios de cristalografia e justifica que os projetos científicos em desenvolvimento ,contam sempre com o apoio financeiro de órgãos de fomento estadual http://web.if.usp.br/pesquisa/sites/default/files/CRISTAL_FAP.pdf.
    Esta publicação fala sobre a parceria da indústria brasileira de medicamentos junto com a associação brasileira de cristalografia que pode contribuir com o desenvolvimento de medicamentos sólidos e controle da formulação dos comprimidos sólidos convencionais http://labcacc3.iq.unesp.br/PDF/texto_-_a_industria_brasileira.pdf
    As matérias produzidas sobre a cristalografia aqui no Brasil abordam pouco conteúdo sobre o estudo em si e dá mais destaque aos pesquisadores em termos de pauta, do que as pesquisas feitas. O assunto é sempre atual, pois sempre estão sendo feitas pesquisas no campo da cristalografia e a periodicidade no jornal e revista é quase inexistente, algumas matérias são encontradas em fóruns ,sites ou Blog de instituições acadêmicas .
    Matérias produzidas :Conta sobre vida da senhora Yvonne Mascarenhas e fala um pouco sobre a cristalografia http://www.abc.org.br/article.php3?id_article=1885.
    Ciclo de palestras que contou com a participação do estudo da cristalografia “Cristalografia e as grandes fontes internacionais de raios X e nêutrons” http://www.usp.br/agen/?p=97351 .
    Dados estatísticos sobre o assunto (tabelas, gráficos, quadros etc.) podem ser encontrados no link a seguir que é possível entender um pouco sobre os eixos cristalográficos, sobre como os sistemas cristalinos funcionam e parâmetros e leis que existem no estudo da cristalografia http://www.uel.br/projetos/geocienciasnaweb/notacao.pdf .

    Referências :www.abcristalografia.org.br/
    http://www.infopedia.pt/$cristalografia
    http://www.ccs.unicamp.br/cursos/ie521/cristalografia.ppt
    http://www.ige.unicamp.br/site/…/Estrutura_cristalina_(aula_5)_folheto.pdf
    http://www.priberam.pt/dlpo/default.aspx?pal=cristalografia
    http://web.if.usp.br/pesquisa/sites/default/files/CRISTAL_FAP.pdf.
    http://www.abc.org.br/article.php3?id_article=1885
    http://www.uel.br/projetos/geocienciasnaweb/notacao.pdf
    https://uspdigital.usp.br/tycho/CurriculoLattesMostrar?codpub=D7A0A5E3B4DD

    Camila Servo

    27/08/2012 em 19:10

  16. Iridologia: saúde analisada através dos olhos

    Editoria: Saúde

    Dados Conhecidos:

    O ser humano cada vez mais busca seu bem estar, e apesar dos avanços da ciência, da tecnologia, muitas pessoas começaram a se voltar para a medicina alternativa ou chamada também holística. O interesse por esses tratamentos mais naturais, acompanhados de uma alimentação saudável passou a crescer, aliadas a técnicas como a acupuntura, homeopatia, a iridologia.
    O tema proposto é a Iridologia que é um estudo onde o iridólogo observa os sinais da íris (membrana colorida que abriga a pupila dos olhos) e são vistas mudanças de cores, desenhos, pontos, buracos, para ser analisadas alterações no organismo como emocionais, nutricionais, nervosas, psíquicas, orgânicas e metabólicas.
    O hábito de examinar a íris existe desde a prática na antiga Grécia e China, mas a iridologia começa a ficar conhecida no século 19, pelo húngaro Ignatz Peczely que descobriu por acidente aos dez anos de idade. Ignatz encontrou uma coruja presa na cerca, e ele tentou ajudá-la, quando ela acabou agarrando na mão do jovem, e na tentativa de se livrar dela acabou quebrando uma das patas. Imediatamente ao olhar para o animal observou uma listra negra surgindo na íris. Peczley cuidou da ave até que se recuperasse e durante os processos de melhora, observou alterações no sinal da íris como um pequeno ponto preto, cercado por linhas brancas e sombras.
    O menino se tornou médico, e teve a oportunidade de observar a íris de seus pacientes antes e depois das cirurgias, que futuramente resultou na preparação de um mapa topográfico da íris. E desde o século 19, vários cientistas e terapeutas passaram a estudar a íris ampliando o conhecimento, o olho através dos tempos foi proclamado como o espelho da alma sendo permitido com esses estudos visualizar o que esta de errado com nossa saúde, utilizando hoje equipamentos fotográficos avançados que captam imagens da íris para avaliação.
    Depois de analisada, “costuma-se recomendar técnicas terapêuticas alternativas como a fitoterapia (tratamento por meio de plantas medicinais), florais (essências de flores usadas para reequilíbrio emocional e energético), tratamento ortomolecular (baseado na restauração dos níveis de vitamina e minerais) e acupuntura, entre outros.” A pós o processo de tratamento a melhora pode ser vista entre 3 a 9 meses.
    Apesar do crescente uso da prática desse sistema, muitos ainda não aceitam. Segundo o Conselho de Medicina do Estado de São Paulo, a iridologia não é uma especialidade médica tampouco um procedimento cientificamente reconhecido, portanto, o órgão desaconselha sua prática.
    A iridologia é uma grande aliada na prevenção de desordens crônicas, merece ser reconhecida, mostrando grande eficiência com as terapias naturais. Cada pessoa nasce com uma íris diferente, com marcas individuais, essa é uma prática de 3.000 anos de idade, que está sendo reconhecida pelos cientistas, permitindo analisar a saúde de uma maneira nova.

    Frase do especialista americano Denny Johnson: “O olho é um farol de luz que flui e afeta profundamente a cada uma das células do corpo, inundando-o com um chuveiro de vitalidade invisível”.

    A angulação a ser mostrada é:
    – O que a iridologia pode fazer?
    – A iridologia é confiável?
    – A iridologia será descartada futuramente ou não?
    – Opinião de outro médico sobre a medicina alternativa.
    – Comentários de pacientes que fizeram o tratamento.

    Contatos:

    Dr. Rogério A. Napimoga
    Especialidade: Terap. Ortomolecular, Acupuntura e Iridologia
    Telefone: (16) 3382-6136
    Rua José Bonifácio, 1610, bairro Vila Santa Cruz , Matão-SP
    E-mail: rogerio.nap@ig.com.br

    Pacientes do Dr. Rogério para a entrevista:

    Vanessa Falconi – Fisioterapeuta

    Elizete Siqueira – Esteticista

    Dr. Norival José Pazeto
    Cirurgião geral
    Especialidade: Oftalmologia
    Telefone: (16)3382-2545/(16)3382-6548
    Avenida Padre Nelson, 1048 – bairro Nova Matão

    Referências Bibliográficas

    Sites:

    Os quatro links abaixo se referem sobre explicações, exemplos, os tratamento da Iridologia, alguns com imagens ou mapas do globo ocular:

    http://curapelanatureza.blogspot.com.br/2008/03/iridologia-diagnstico-preciso-e.html

    http://bemtratar.com/artigos/iridologia-diagnosticar-atraves-olhos

    http://luizmeira.com/iris.htm

    http://www.senado.gov.br/portaldoservidor/jornal/jornal74/terapia_alternativa_iridologia.aspx

    http://noticias.uol.com.br/saude/ultimas-noticias/redacao/2012/08/04/iridologia-analisa-a-sua-saude-e-o-seu-equilibrio-energetico-por-meio-das-iris.htm
    Matéria da uol saúde, muito legal a reportagem, as imagens dos olhos e o mapa foram tirados desse site.

    http://www.jornalfloripatotal.com.br/detalhe.asp?id=870&autor=CLAUDE%20PASTEUR%20FARIA
    Colunista Claude Pasteur Faria – Jornal Floripa Total – contra a Iridologia.

    http://super.abril.com.br/ciencia/medicina-alternativa-444331.shtml
    Revista Super Interessante falando sobre a medicina alternativa. Mais contra do que a favor.

    http://www.pacientesonline.com.br/
    Site muito bacana vale a pena acessar.

    Vídeos no youtube:

    http://www.youtube.com/watch?v=5ZSQk3JqyRU&feature=related

    Entrevista sobre iridologia com a Dra. Rosana Bergmann no programa Vida e Saúde, RBS TV.

    http://www.youtube.com/watch?feature=endscreen&v=7Vast0WxVz0&NR=1

    Celso Battelo falando sobre Iridologia no programa Manhã Gazeta. Muito interessante com muitas imagens de olhos sendo analisadas pelo médico com explicações.

    Livros:

    IRIDOLOGIA IRISDIAGNOSE O Que Os Olhos Podem Revelar – CELSO BATTELLO.
    Livro impresso com encartes de fotos de íris e mapas. Acompanha o CD eletrônico, com mais de 200 fotos numa sequência didática e pedagógica das principais escolas iridológicas, fundamentadas na Escola Celso Batello, uma das mais respeitadas no mundo inteiro. Escola esta que faz do Brasil, segundo John Andrews: “A estufa da pesquisa científica em Iridologia”.

    PSICOIRIDOLOGIA – Jung e o Método RayId – Celso Battello – “A junção destes dois métodos como proposto por Celso Battello nesta obra, amplia a escala de conhecimento daqueles profissionais que se propõe a desvendar a mente e o comportamento humano. Uma obra simples, mas de grande conteúdo.”

    Iridologia: a Íris Revela Sua Saúde – Manuel Lezaeta Acharan

    Mirieli Coutinho

    27/08/2012 em 19:18

  17. – Assunto, problema envolvido e abordagem adotada: teste para descobrir se um bebê é portador da síndrome de down. O texto tem por intento relatar passo a passo como é feito o exame genético para descobrir se a criança possui ou não a doença.

    – Conceitos e teorias científicas relacionadas ao tema: genética, cromossomos, cariótipo, doenças ligadas aos cromossomos, síndrome de down.

    – Artigos e trabalhos publicados em periódicos especializados:

    http://ojs.c3sl.ufpr.br/ojs-2.2.4/index.php/psicologia/article/viewArticle/3304

    http://www.scielosp.org/pdf/rpsp/v7n1/1056.pdf

    http://www.scielo.br/pdf/hcsm/v16n2/06.pdf

    http://www.moreirajr.com.br/revistas.asp?id_materia=3093&fase=imprime

    – Reportagens e notícias recentes publicadas na impressa:

    http://topicos.estadao.com.br/sindrome-de-down

    http://www.fiocruz.br/ccs/cgi/cgilua.exe/sys/start.htm?from_info_index=241&infoid=657&sid=3

    – Dados estatísticos sobre o assunto (tabelas, gráficos, quadros etc.):

    http://www.bbc.co.uk/portuguese/noticias/story/2003/08/printable/000000_numerosdownlmp.shtml

    http://www.google.com.br/imgres?hl=pt-BR&sa=X&biw=1024&bih=677&tbm=isch&prmd=imvns&tbnid=6z12HHaMSFKi_M:&imgrefurl=http://www.scielo.br/scielo.php%3Fpid%3DS0102-311X2003000400020%26script%3Dsci_arttext&imgurl=http://www.scielo.br/img/revistas/csp/v19n4/16847f1.gif&w=388&h=341&ei=ieo6UKWoOurD0QHXg4HABw&zoom=1&iact=hc&vpx=547&vpy=150&dur=2084&hovh=210&hovw=240&tx=122&ty=83&sig=104575423167914269101&page=1&tbnh=151&tbnw=172&start=0&ndsp=12&ved=1t:429,r:2,s:0,i:79

    http://www.google.com.br/imgres?hl=pt-BR&sa=X&biw=1024&bih=677&tbm=isch&prmd=imvns&tbnid=Dc4-_Y_Ke2bGnM:&imgrefurl=http://profjabiorritmo.blogspot.com/2011/03/normal-e-ser-diferente.html&imgurl=http://cienciahoje.uol.com.br/colunas/bioconexoes/imagens/normalser03.jpg&w=394&h=452&ei=ieo6UKWoOurD0QHXg4HABw&zoom=1&iact=hc&vpx=488&vpy=312&dur=2262&hovh=240&hovw=210&tx=106&ty=100&sig=104575423167914269101&page=2&tbnh=150&tbnw=131&start=12&ndsp=20&ved=1t:429,r:7,s:12,i:136

    http://www.google.com.br/imgres?hl=pt-BR&sa=X&biw=1024&bih=677&tbm=isch&prmd=imvns&tbnid=uDfFFGgunLWIuM:&imgrefurl=http://educaofsicaadaptadaeeducaoespecial.blogspot.com/2010/09/sindrome-de-down-causas-tratamento.html&imgurl=http://www.portalsaofrancisco.com.br/alfa/sindrome-de-down/imagens/sindrome-de-down-9.jpg&w=400&h=297&ei=ieo6UKWoOurD0QHXg4HABw&zoom=1&iact=hc&vpx=93&vpy=196&dur=2446&hovh=193&hovw=261&tx=171&ty=78&sig=104575423167914269101&page=2&tbnh=154&tbnw=209&start=12&ndsp=20&ved=1t:429,r:10,s:12,i:146

    – Mini-currículo de pesquisadores científicos a serem entrevistados: Renata Aquino, funcionária do laboratório de citogenética da Uniara.

    – Outros personagens e fontes de informação incluídos na pauta: a princípio, não haverá outros intrevistados.

    – Lista de referências utlizadas em sua pesquisa (links, obras etc.):

    http://educacao.uol.com.br/biologia/genetica-como-as-pesquisas-geneticas-estao-presentes-no-cotidiano.jhtm

    http://pt.wikibooks.org/wiki/Introdu%C3%A7%C3%A3o_%C3%A0_Biologia/Gen%C3%A9tica

    http://www.sobiologia.com.br/conteudos/Genetica/leismendel.php

    http://dreyfus.ib.usp.br/

    Christiano K.O.D.A.

    27/08/2012 em 19:26

  18. Pauta: Como funciona um balão de ar quente.
    Pauteiro: Tiago da Mata – 03509-039.
    Data: 27/08/2012.

    Abordagem: A matéria explicará com detalher como funciona um balão de ar quente. Porém primeiramente deve explicar o que é um balão e seus principais componentes. O foco principal da matéria, o ciêntífico da matérias, será a explicação de um físico sobre os princípios científicos básicos da engenhosa “máquina de voar”, o que faz o balão subir ou descer. Deve conter informações precisas, vindas de profissionais da área, pilotos, físicos, entre outros.
    Dados conhecidos: O balão de ar quente é considerado a primeira máquina de voar, porém, diferente dos aviões, ele não é totalmente “pilotável”. O balão segue o curso do vento e o piloto somente tem o controle de “subir ou descer”. Basicamente, o balão é composto, pelo envelope, que é o balão, o pano, que é preso através de cabos de aço a um cesto, feito em sua maioria de vime. Neste cesto, o piloto conta com um tipo de maçarico, ligado a tanques de gás. Primeiramente, para um balão levantar voo, é preciso inflá-lo com ar e quando praticamente cheio, o piloto começa a enchê-lo com ar quente, o que faz o balão subir. A quantidade de fogo que o maçarico libera é o que vai fazer o balão subir. Já em voo, para perder altitude, o piloto tem uma corda, que quando “puxada”, abre uma espécie de tampa que fica na parte de cima do balão, liberando o ar quente, e com menos ar quente, o balão desce.
    A matéria conterá maiores detalhes sobre o assunto, e se possível trará pesos, medidas, temperatura, formulas e tudo o que é necessário e o que faz um balão voar.
    http://ciencia.hsw.uol.com.br/baloes-de-ar-quente.htm
    http://super.abril.com.br/esporte/como-funciona-balao-446025.shtml
    Fonte principal: Físico, José Abel Hoyos Neto, professor de física da USP de São Carlos.
    Possui graduação em Física – Licenciatura pela Universidade Estadual de Campinas (2003), graduação em Física pela Universidade Estadual de Campinas (2000) e doutorado em Física pela Universidade Estadual de Campinas (2005). Atualmente é autáquico do Instituto de Física de São Carlos/USP e professor da Universidade de São Paulo. Tem experiência na área de Física, com ênfase em Física, atuando principalmente nos seguintes temas: transições de fase, sistemas fortemente correlacionados.

    Tiago da Mata

    27/08/2012 em 19:38

  19. RELATÓRIO DE PAUTA:

    Assunto: Bioeletroquímica

    Pretende-se apresentar o que é esta nova e grande área de pesquisa, a Bioeletroquímica. Apresentar seus benefícios e complicações dentro da abordagem que terá como foco a pesquisa desenvolvida por alunos de pós graduação do Instituto de Química de São Carlos (IQSQ) da USP.
    O grupo está produzindo uma Biobateria que é uma Biocélula que usa glicose como combustível e consegue gerar 100mW quando faz a transformação de energia química para energia elétrica. O segredo que dá funcionamento a esta tecnologia é a maneira como enzimas são presas em um dos polos das biobaterias.
    O grupo conta com a colaboração da Bióloga Profª Drª Maria Camila Almeida. (Lattes: http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4761483H3).
    A novidade é a criação de baterias implantáveis que poderão gerar energia para marca-passos, bombas de insulinas, implantes neurais, bioestimuladores elétricos, liberação controlada de fármacos, entre outros incontáveis benefícios.
    Pretende-se conhecer, além de como a pesquisa se iniciou e em que etapa se encontra, os maiores desafios, projeção para aplicações em humanos, e verificar a existência do interesse em comercialização e popularização desta tecnologia, e de que forma isso poderá ser feito; Conhecer um pouco do cenário da Bioeletroquímica no Brasil e no mundo;
    Pretende-se ainda, projetar um infográfico que explique como acontece a transformação da energia química para energia elétrica no organismo dos ratos, já que são estes os animais utilizados para os testes, conhecidos como Ratos Ciborg.
    O grupo usa um blog para fazer suas divulgações. O endereço é o http://bioeletro.blogspot.com.br.
    Este link leva à notícia dos Ratos Ciborg:
    http://bioeletro.blogspot.com.br/2012/08/rato-ciborg-cientistas-da-usp-fazem.html
    O professor responsável pelo laboratório é o prof. Frank Crespilho e o Lattes dele pode ser visualizado no endereço: http://buscatextual.cnpq.br/buscatextual/visualizacv.do?metodo=apresentar&id=K4764194A8
    O e-mail do professor é: frankcrespilho@gmail.com
    Um dos responsáveis pelo blog, é o Roberto Luz (e-mail: luzufabc@gmail.com)

    A pesquisa tem um início bastante recente. No portal da Revista Pesquisa FAPESP é possível conferir algumas informações interessantes, inclusive o resumo do projeto.
    http://www.bv.fapesp.br/pt/bolsas/136588/estudo-bioeletroquimico-enzima-glicose-oxidase/

    Para o levantamento de conceitos e teorias científicas relacionados ao tema foi utilizado o portal da empresa PDAMED, que desenvolve softwares médicos que facilitam o acesso a conteúdos do cotidiano profissional dos médicos, e neste caso, foi fonte de pesquisa para aprimorar os conhecimentos sobre o tema que pretende-se explorar. O portal da empresa pode ser acessado através do link: http://www.pdamed.com.br

    Estes são os conceitos relacionadas ao tema e que foram pesquisados:
    Energia; Eletricidade; Combustão; Combustível; Biocélula; Glicose; Nanopartícula; Molécula;
    Enzimas; Bioânodos; Biocátodos; Catalizador; Oxidação; Baterias; Bioeletroquímica;

    Para entender melhor as diferença entre a bioeletroquímica convencional, a eletroquímica fundamental e a nanobioeletroquímica, utilizou-se este arquivo, produzido pelo professor Crespilho:
    https://sites.google.com/site/frankcrespilho/Bioeletroqumica.pdf

    Outros links utilizados durante a pesquisa:
    https://www.facebook.com/BioEletroquimica
    http://bioelectrochemistry.iqsc.usp.br/

    A editora Springer lançará um livro sobre bioeletroquímica e nanociência :
    http://bioeletro.blogspot.com.br/2012/04/grupo-de-bioeletroquimica-e-interfaces.html

    Não há muito material informativo ou estatístico produzido sobre este assunto já que o projeto iniciou sua vigência no dia primeiro do mês de Agosto (algumas semanas atrás) e deve perdurar até final de julho de 2014.

    Nilton Storino

    27/08/2012 em 19:47

  20. 1. Assunto, problema envolvido e abordagem adotada

    RPG (Reeducação Postural Global) – Mostrar como a RPG age no músculo e influencia de forma muito positiva em regiões doloridas corrigindo a postura.

    2. Conceitos e teorias científicas relacionadas ao tema
    A RPG é um método de fisioterapia que trata as desarmonias do corpo humano levando em consideração as necessidades individuais de cada paciente, já que cada organismo reage de maneira diferente às agressões que sofre.
    É uma técnica revolucionária que considera os sistemas muscular, sensitivo e esquelético como um todo e procura tratar, de forma individualizada, os músculos que se diferenciam na estrutura.
    Criada na França, em 1980, pelo fisioterapeuta francês Philippe E. Souchard, a RPG é uma técnica realizada, exclusivamente, por fisioterapeutas.

    Técnica
    Dores nas costas, nas articulações, noites mal dormidas, tensões musculares, etc. Quem nunca passou por pelo menos uma dessas desagradáveis experiências?
    A terapia RPG trata esses e muitos outros problemas com bons resultados, por meio da reeducação do corpo.
    Exemplo: quando sofremos uma contusão, a primeira reação é fazer com que o corpo tente proteger a lesão para não sentirmos dor. Por isso criamos automaticamente um mecanismo de “compensação” para evitar o problema inicial. É o que acontece quando torcemos o tornozelo.
    Para não termos dores, enrijecemos a musculatura e transferimos para a outra perna o apoio corporal e mancamos. Com isso, criamos uma série de compensações em todo o corpo.
    Para se obter um resultado positivo com RPG são necessárias sessões semanais de uma hora, podendo haver exceções nos casos de maior gravidade. O tratamento é indicado para todas as faixas etárias.
    Para preservar a originalidade, a integridade, e a qualidade do ensino do método, a marca R.P.G. foi objeto de registro no INPI no Brasil em 21/12/1999.
    (Com informações do portal Nacional de Fisioterapia/ http://www.fisioterapiaquintana.com.br/v1/index.php?option=com_content&view=article&id=21:o-que-e-rpg&catid=1:artigos&Itemid=8)

    3. Artigos e trabalhos publicados em periódicos especializados
    – RPG ajuda a diminuir dores e melhora a qualidade de vida: Escrito pelo fisioterapeuta Evaldo Bósio (http://www.minhavida.com.br/fitness/materias/11449-rpg–ajuda-a-diminuir-dores-e-melhora-a-qualidade-de-vida)
    – RPG na adolescência: Pelo fisioterapeuta Adilson Heracles Casadei (http://www.reeducacaoposturalglobal.com.br/artigo04.asp)
    – A contribuição da RPG no combate a D.O.R.T.: Escrito pelo fisioterapeuta Adilson Heracles Casedei (http://www.reeducacaoposturalglobal.com.br/artigo05.asp)
    4. Reportagens e notícias recentes publicadas na impressa
    – RPG e fisioterapia fazem bem mais do que corrigir a postura: Além de lesões, tratamentos combatem labirintite e até pneumonia. Por Minha Vida (http://www.minhavida.com.br/saude/materias/4968-rpg-e-fisioterapia-fazem-bem-mais-do-que-corrigir-a-postura).
    – Método Rolfing combate as tensões crônicas e organiza a postura. Por Folha de S. Paulo (http://www1.folha.uol.com.br/equilibrioesaude/810145-metodo-rolfing-combate-as-tensoes-cronicas-e-organiza-a-postura.shtml).
    – RPG: descubra o que ela pode fazer por você. Por Revista Veja (http://boaforma.abril.com.br/comportamento/saude-mulher/rpg-descubra-ela-pode-fazer-voce-500684.shtml).

    5. Dados estatísticos sobre o assunto (tabelas, gráficos, quadros etc.)
    O método de tratamento com rpg é totalmente isento de medicamentos e consiste de manipulações vertebrais e de membros, visando a liberação e alongamento total de músculos que com o passar dos anos ficaram encurtados causando os desvios posturais.
    Estas manipulações são sincronizadas com respiração específica para cada caso. É solicitado ao paciente um determinado tipo de respiração, como p. ex.: respiração abdominal, respiração apical etc. Assim haverá um ajuste entre respiração e postura. Isto é necessário, pois o principal músculo da respiração (músculo diafragma) tem uma grande importância em muitos desvios.
    Desta forma a Reeducação Postural Global trata o paciente globalmente, ou seja, o corpo todo é tratado. (http://www.drgilberto.com/rpg.html)

    6. Mini-currículo de pesquisadores científicos a serem entrevistados
    Juliana Campanari – Fisioterapeuta com especialidade em RPG pela USP.
    Thomaz Santini – Fisioterapeuta formado pela UNESP
    7. Outros personagens e fontes de informação incluídos na pauta
    Indicações da fisioterapeuta Juliana Campanari.

    8. Lista de referências utilizada em sua pesquisa (links, obras etc.)
    – Portal Nacional da Fisioterapia: (www.fisioterapiaquintana.com.br)
    – Sociedade Brasileira de RPG: Reeducação Postural Global (http://www.sbrpg.com.br/);

    – Instituto Philippe Souchard – Site oficial do método Reeducação Postural Global – RPG, no Brasil: (http://www.rpgsouchardinst.com.br/rpg/index.html) ;

    – Philippe Emmanuel Souchard é autor de 17 livros sobre o RPG, na maioria traduzidos em Português, Inglês, Alemão, Italiano e Espanhol. (Link para acessar o material de Philippe, que poderá ser fonte de pesquisa no desenvolvimento da reportagem: http://www.rpgsouchardinst.com.br/livros/index.html);

    Jessica Mendes

    27/08/2012 em 19:52

  21. DADOS DA PAUTA:
    RELAÇÃO ENTRE A MATEMÁTICA E A MÚSICA:

    Enfoque:

    Abordar como a matemática e a música se relacionam dentre muitas de suas áreas. Dentre as áreas em que a matemática e a música se relacionam estão: na construção de um instrumento, que envolve a proporção áurea, na afinação, na harmonia, no compasso e nas escalas musicais.
    Outros pontos que podem ser abordados, que além de envolver a matemática, envolvem também a computação, é em relação à gravação, codificação e distribuição da musica eletronicamente.
    Dados conhecidos:
    A relação entre a matemática e a música está presente em muitas áreas, como na construção de um instrumento, que envolve a proporção áurea, na afinação, na harmonia, no compasso e nas escalas musicais.
    Os teóricos da música com frequência usam a matemática para entender a estrutura musical e comunicar novas maneiras de ouvir música. Isto levou a aplicações musicais da teoria dos conjuntos, álgebra abstrata e teoria dos números. Os estudiosos da música também usaram a matemática para entender as escalas musicais, e alguns compositores incorporaram a proporção áurea e Números Fibonacci em seus trabalhos.

    Escalas:
    Escala Cromática:
    A Escala cromática possui 12 sons e foi criada pelos ocidentais através do estudo das frequências sonoras. A escala é formada pelas 7 notas padrão da escala diatônica acrescidas dos 5 tons intermediários.
    Dó – Dó+ – Ré – Ré+ – Mi – Fá – Fá+ – Sol – Sol+ – Lá – Lá+ – Si
    Para melhor entendermos a escala cromática, podemos pegar o padrão da escala de dó maior e inserir os cinco sons existentes entre as notas que têm entre si o intervalo de um tom. No violão, basta seguir melodicamente casa por casa (semitom por semitom) até a 12 nota, a partir do que se repetirá a escala. No piano, tocamos todas as teclas (brancas e pretas, sem pular nenhuma) melodicamente.
    Esta escala serve de embasamento para alguns estilos musicais como a música serial, aleatória e dodecafônica e microtonal.
    Escala Diatônica:
    A Escala diatônica é uma escala de oito notas, com cinco intervalos de tons e dois intervalos de semitons entre as notas. Este padrão se repete a cada “oitava” nota numa sequência tonal de qualquer escala. A escala diatônica é típica da música ocidental e remete à fundação da tradição da música europeia. As escalas modernas maior e menor são diatônicas, assim como todos os sete modos tonais utilizados atualmente.
    Ex: A frequência das notas se dobradas permanecem as mesmas e estas passam a se repetir na escala musical.

    Entrevistados:
    Prof. Dr. Carlos Biasi – ICMC – USP São Carlos.
    Prof. Dr. Gustavo Buscaglia – ICMC – USP São Carlos.
    Noemi Rocha – Música e aluna de quinto ano de matemática pelo ICMC.

    Glossário:

    Escala: É uma sequência ordenada de tons pela frequência vibratória de sons, (normalmente do som de frequência mais baixa para o de frequência mais alta), que consiste na manutenção de determinados intervalos entre as suas notas.
    Frequência: É uma grandeza física ondulatória que indica o número de ocorrências de um evento (ciclos, voltas, oscilações, etc) em um determinado intervalo de tempo.

    Harmonia:

    Compasso musical:

    Número Fibonacci:

    Proporção áurea:

    Bibliografia:

    http://www.maths.surrey.ac.uk/hosted-sites/R.Knott/Fibonacci/fibInArt.html#music
    http://www.musimathics.com/

  22. Pauta – Jornalismo Científico
    Luan Emílio Faustino 03509-044

    Assunto: Nanotecnologia

    Problemática: Ao passo que a nanotecnologia pode trazer muitos avanços em vários setores como: medicina, agricultura, softwares e outros, ela também pode ser usada para disseminar o terror com armas químicas e biológicas. Ou seja, assim como a maioria das tecnologias que surgem com a promessa de trazer progresso, existe também a preocupação com o uso que a tecnologia pode adquirir. No caso da nanotecnologia o risco é maior, pois as possibilidades de aplicação dela são infinitas.

    Abordagem: Embora o nome “nanotecnologia” faça parte do nosso cotidiano, são poucas as pessoas que sabem efetivamente o que ela é sobre tudo como ela funciona. Para apresentar o assunto de forma leve e atraente a matéria irá mesclar os conceitos científicos restritos ao universo acadêmico com os filmes de ficção cientifica que estão ao alcance de todos. A ideia é mostrar que da mesma forma que a arte imita a vida, a vida também pode imitar a arte.

    Conceitos e teorias científicas relacionadas ao tema:
    O prefixo “nano” vem do grego e significa “anão”. Um nanometro (nm) equivale à bilionésima parte de um metro (10E-9m). Para se ter uma idéia de tamanho, um fio de cabelo humano tem 80.000nm de largura e uma célula sanguínea de glóbulo vermelho tem aproximadamente 7.000nm de largura. Uma outra comparação que dá uma idéia da escala nanométrica é a relação entre o planeta terra, uma bola de futebol e uma molécula de carbono 60, conhecida como buckyball. A terra é aproximadamente cem milhões de vezes maior que uma bola de futebol, que é aproximadamente cem milhões de vezes maior que um molécula de buckyball (fulereno).

    Artigos e trabalhos publicados em periódicos especializados

    De medos, conflitos e dúvidas: será tão boa assim a tal Nanotecnologia?
    É fato: as pessoas têm medo do que é novo. Quase sempre foi assim, e nada indica para nós que isso vá mudar em breve. Temos alguns muitos exemplos na história sobre a rejeição das pessoas ao novo, mas quero lembrar apenas um: a tecnologia nuclear.
    O caso das tecnologias nucleares é um bom exemplo de como um desenvolvimento pode suscitar medos, muitas vezes até corretos. Nos primórdios, a energia nuclear era uma promessa de energia barata, abundante e até, de certo modo, infinita. As promessas de um futuro incrível ficaram abaladas logo no seu início pelo primeiro grande fato público do uso do potencial nuclear, as bombas atômicas americanas na Segunda Guerra Mundial. Mas, de qualquer forma, o tempo passou, e o mundo continuava precisando de energia, e as usinas nucleares começaram a ser instaladas, até que o famoso acidente de Chernobyl, em 1986, definiu a opinião pública sobre a energia nuclear: ela é realmente perigosa. Ainda no Brasil, tivemos o fatídico caso de Goiânia, ainda marcado na memória de muitas pessoas do nosso país. Grupos ambientalistas e sociais passaram a se opor frontalmente a qualquer avanço na área, a construção de muitas usinas foi cancelada, governos que ainda não tinham domínio da tecnologia nuclear cancelaram programas de pesquisa e assim por diante.
    Não quero aqui parecer defensor da energia nuclear, ou qualquer coisa do gênero, mas preciso admitir que tenho ainda dúvidas sobre todos os medos gerados. Se, por um lado, o uso massivo da tecnologia nuclear (a produção de energia) possa ser questionado por muitos aspectos, até econômicos, os seus benefícios na área médica são incontestáveis. Até hoje, a mais disseminada técnica de imageamento interno do corpo humano – a imagem de Raios X – é fruto de pesquisas na área nuclear; o tratamento de câncer por radioterapia, a irradiação de medicamentos, a detecção precoce de tumores – todas essas tecnologias muito bem vindas são fruto dos estudos na área nuclear. Há ainda benefícios pouco conhecidos de grande parte da população: na análise de materiais, na determinação de datas em arqueologia, e até mesmo na agricultura, há um grande numero de aplicações de técnicas nucleares extremamente benéficas, que advém dos mesmos trabalhos de pesquisa, do início do século XX, que resultaram também no uso energético, nas bombas atômicas e nos acidentes nucleares.
    Então, qual é o juízo que devo ter? A tecnologia nuclear é boa ou ruim? Talvez, a melhor resposta a essa pergunta é que os avanços científicos nunca são “bons” ou “ruins”. No meu entender, o que faz das tecnologias algo bom ou ruim são os indivíduos que as utilizam. Posso pensar aqui novamente no episódio de Goiânia: o acidente nuclear aconteceu por causa do descarte inadequado de uma peça utilizada em tratamento hospitalar. Vejam que ironia, uma peça utilizada para tratamento de doentes com câncer – uma conseqüência boa – provocou o maior acidente nuclear da história do Brasil, pela irresponsabilidade de indivíduos que deviam ter destinado corretamente a peça como lixo nuclear, e não o fizeram
    Também não quero, nesse curto espaço, defender se o uso da tecnologia nuclear é “mais boa”, ou “mais ruim”, discussão tão comum. O que quero é constatar que, por conta dos medos causados na população pelo mau uso da tecnologia nuclear, as dúvidas da população vieram a desestruturar em grande parte os programas de pesquisa em energia nuclear. Isso aconteceu particularmente no Brasil, fazendo com que competências nacionais ou fossem desestimuladas a trabalhar na área, ou – muito pior – procurassem abrigo em outros institutos de pesquisa no exterior, diminuindo a nossa massa pensante. Hoje é patente a dificuldade nacional de reerguer essa competência, seja para a produção de energia, seja para o desenvolvimento de outras aplicações. Ainda há competências instaladas, como as desenvolvidas no nosso centro, a Embrapa Instrumentação Agropecuária, ou no Centro de Energia Nuclear na Agricultura – CENA – da Universidade de São Paulo. Porém, para toda a comunidade que trabalha na área, é consenso que estamos muito aquém daquilo que poderíamos ter, se houvesse nesse tema uma relação melhor, ou menos conflituosa, com a população em geral.
    Faço essa análise para pensar no que vejo hoje acontecer na minha área de pesquisa, nanociência e nanotecnologia. Apesar de a nanociência não ser algo assim tão novo (talvez o nome seja, mas estudos em ciência coloidal, que abrangem muito do que chamamos hoje de nanociência, existem desde o século XIX), a nanotecnologia surgiu como uma área geradora de riquezas há bem pouco tempo, e boa parte da população não tem visão clara do que ela significa. Há alguns produtos frutos da nanotecnologia, como os chips ou os HDs de computadores, que estão tão bem estabelecidos que não há nenhuma correlação em grande escala da palavra “nanotecnologia” com esses produtos. Mas, em outros, o nome tem sido utilizado claramente como diferencial de mercado: o nome “nano” já batizou muitos cosméticos, produtos de limpeza, eletrodomésticos, roupas, entre outros. É justamente nestes produtos que tem-se visto, recentemente, um medo dos impactos não conhecidos da nanotecnologia. Há a preocupação de que, por exemplo, as interações com a pele destes nanocosméticos sejam de tal forma novas que possam incluir mais efeitos deletérios que benéficos. Pensando um pouco mais no que temos hoje feito na Embrapa Instrumentação Agropecuária, na área de nanotecnologia, certas tecnologias de aplicação massiva, como pesticidas ou fertilizantes nanoencapsulados, são fonte de muita dúvida acerca do seu comportamento eventualmente nocivo em campo, ou das suas possíveis interações com indivíduos potencialmente em contato, como aplicadores.
    As preocupações são legítimas, isso é verdade. Nenhuma tecnologia que tenha um possível desdobramento nocivo pode ser utilizada sem uma avaliação criteriosa que possa certificar em quais condições os benefícios são mais vantajosos que os possíveis riscos. Essa preocupação também é nossa, e pessoalmente, não tenho interesse de fugir desse tema. Porém, é assustadora a posição de alguns grupos sociais, que vêm tratando os possíveis riscos da nanotecnologia como algo tão pernicioso, que defendem uma moratória de todas as atividades na área, até que tenhamos certeza dos seus riscos. O tema é sério e assustador: para os mais interessados, uma busca na internet com os temos “nanotecnologia” e “moratória” dará uma quantidade surpreendente de documentos relacionados, mesmo em português. No lado mais brando da discussão, há grupos que defendem uma posição restritiva ao uso da nanotecnologia, por meio de normas rígidas, ou rotulagem específica de produtos. Todos esses grupos, de uma forma ou de outra, tem atuado nos círculos de decisão política e entre formadores de opinião, com atividades bastante regulares.
    Não posso concordar com essa posição por vários motivos: primeiramente, a área que consideramos hoje como nanotecnologia é muito plural: há pesquisas na área de eletrônica, química fina, novos materiais, farmacêutica e cosmética, apenas para citar as mais conhecidas. Essa pluralidade impossibilita qualquer atitude restritiva que tenha sentido em todas as áreas: é verdade que uma regulamentação mais rígida para a aprovação de um cosmético “nano” possa ser algo coerente, porém, o que dizer de áreas que vem utilizando nanopartículas, como vários ramos da química fina, há pelo menos 50 anos? Como normatizar, dentro do mesmo conceito, os riscos possíveis ao usuário de um celular com bateria nanotecnológica, e os inerentes a um filtro solar com nanopartículas? Tentar classificar nanotecnologia como uma área coesa e única, como alguns vêm tentando, a meu ver é um erro.
    Em segundo lugar, não posso aceitar a confusão comum entre financiamento à pesquisa / formação de recursos humanos com a entrada eventualmente irregular de novos produtos no mercado. Muito do que é alegado como ações de má fé dos fabricantes destes novos produtos, não informando os riscos dos seus produtos – o que implicaria na necessidade de uma regulamentação mais restritiva – não significa que devemos parar as ações de pesquisa na área, como advogam alguns. Mesmo a “moratória industrial”, como alguns defendem, pode significar uma queda crítica de interesse na pesquisa e disponibilidade de financiamento na área.
    A necessidade de mantermos a pesquisa e os investimentos em nanotecnologia no Brasil é gritante, para que seja possível formar competências que dêem ao país alguma competitividade internacional nesses temas. Essa discussão, a da necessidade da pesquisa em temas estratégicos, ainda que polêmicos, foi em grande parte levantada na recente – e bem divulgada – discussão sobre o uso de células tronco embrionárias em pesquisa, mesmo que neste tema outros aspectos éticos fossem também levantados.
    Por fim, meu temor é que, dessas dúvidas, a área de Nanotecnologia, uma portadora de futuro e um diferencial de futuro para o Brasil, seja contaminada por um sentimento de medo injustificado em muitos casos que, à semelhança da energia nuclear, gere mais repulsa quanto a seus riscos que apreço a seus benefícios, contaminando a estrutura de pesquisa e de formação de recursos humanos. Nesse momento em que estamos, seria extremamente triste que o Brasil perdesse capacidade estratégica de atuar em Nanotecnologia por falta de apoio e pela nossa falta de capacidade de divulgar o quão importante é hoje a área para o país.

    Autor Caue Ribeiro
    Pesquisador da Embrapa Instrumentação Agropecuária

    A Nanotecnologia na Agricultura

    Odílio B. G. de Assis
    Luiz H. C. Mattoso
    Pesquisadores da Embrapa Instrumentação Agropecuária

    Os avanços científicos têm ocorrido de forma extremamente intensa nos últimos tempos, sendo assimilados cada vez mais rápido no cotidiano das pessoas. A nanotecnologia é um dos avanços mais recentes, que está se concretizando a cada dia, tendo já várias centenas de produtos disponíveis no mercado. Ela surgiu decorrente da combinação e evolução de diversos campos do conhecimento humano, incluindo a química, a física, a ciência dos materiais, a biologia, a eletrônica, a computação, dentre outros.
    Tal como já aconteceu com a eletricidade e os computadores, a nanotecnologia estará em breve presente em quase todas as facetas da vida diária, e por ser uma ciência integrada, oferece a oportunidade de interferir em diversos segmentos econômicos e a agricultura não é uma exceção.
    A totalidade dos países desenvolvidos investe recursos vultuosos na nanotecnologia nas mais diversas áreas do conhecimento. Porém, nos países em desenvolvimento, como o Brasil, é na agricultura para a produção de alimentos, fibras e energia que a aplicação de nanotecnologia poderá trazer impactos sem precedentes, já que segundo dados das Nações Unidas, haverá um número estimado de seis bilhões de pessoas no planeta nos próximos anos. Esses benefícios não serão somente do ponto de vista econômico, mas direta ou mesmo indiretamente, também prometem ser do aumento na qualidade de vida, incremento da produção de alimentos por área cultivada, melhoria da qualidade dos processos agroindustriais e o acesso a novos produtos por um maior número de consumidores.
    Diversos países de economia de base agropecuária como o Brasil, a Índia, a Tailândia, o México, África do Sul e a Argentina, entre outros, têm estabelecido programas específicos de nanotecnologia e nanociências em grande parte focados em aplicações no setor agroindustrial, meio ambiente e alimentício.

    O que é Nanotecnologia?

    A nanotecnologia pode ser considerada como um conjunto de atividades ou mecanismos que ocorrem em uma escala extremamente pequena, mas que tem implicações no mundo real. Esses mecanismos estão além da percepção dos olhos humanos e operam em uma escala chamada nanométrica. Um nanômetro é a bilionésima parte de um metro, ou seja, se dividirmos o diâmetro de um fio de cabelo humano em 80 mil partes, teremos um nanômetro = uma parte, veja figura ilustrativa de um escala de tamanhos.
    A nanoteconologia foi prevista em 1959 pelo físico norte americano Richard Feynman, quando discorria sobre a possibilidade de em um futuro não distante, se investigar a construção de dispositivos pela manipulação átomo a átomo.
    A possibilidade de manipular átomos e moléculas é hoje uma realidade e abre um novo mundo de possibilidades. A chamada “ciência dos materiais” é um conceito fundamental neste contexto. Além das aplicações da nanotecnologia já largamente empregada nos semicondutores e circuitos integrados (chips) dos computadores e laptops, estão uma série de outras em dispositivos como polímeros condutores, filmes finos com reações ou interações enzimáticas específicas, membranas permeáveis de alta seletividade, compósitos sintetizados pela combinação de porções orgânicas e inorgânicas, respostas decorrentes de interações mecânicas e biológicas ou biológicas e eletrônicas, estão entre as muitas possíveis combinações decorrentes da nanotecnologia. Integração é a palavra de ordem nas mais variadas áreas do conhecimento, mais em particular a conhecida como BANG que vem de: Bits (computação), Átomos (nanotecnologia), Neurônios (cognitiva) e Genes (biotecnologia). Um exemplo é a biologia integrada com tecnologia eletrônica, criando a possibilidade de ferramentas analíticas e implantes que interliguem computadores e dispositivos avançados com conexões neurais, o que será sem dúvida de real benefício ao ser humano.

    Nanotecnologia na Agricultura

    Assim como nas demais áreas da ciência e do conhecimento, a nanotecnologia é de extrema importância para a agricultura, pecuária e para o agronegócio de um modo geral. A nanotecnologia é atualmente um negócio mundial de bilhões de dólares que atrai a cada dia mais investimentos, devendo chegar a um trilhão de dólares na próxima década, devido ao seu enorme potencial de aplicação tecnológica nos mais variados setores industriais. O agronegócio é sem dúvida uma das áreas onde o nosso país tem maior competitividade, graças às nossas características e oportunidades de questões vinculadas aos recursos naturais, clima e agricultura tropical.
    A nanotecnologia poderá gerar uma melhora de qualidade associado ao monitoramento e redução de danos ambiental. Beneficiará o emprego da agricultura de precisão, a rastreabilidade dos produtos, a certificação, a produção de biocombustíveis, a indústria de insumos (fertilizantes, pesticidas) e de medicamentos para uso veterinário, a indústria de alimentos, assim como vários outros setores vinculados à agroindústria serão inevitavelmente beneficiados pelos avanços da nanotecnologia.
    Para se ter uma noção da importância dessa ciência na atividade agropecuária, os recursos mundiais aplicados diretamente em pesquisa e desenvolvimento de processos e produtos baseados em nanotecnologia na agroindústria e em alimentos foram de 410 milhões de dólares em 2006 e estimam-se montantes da ordem de 5,8 bilhões de dólares a serem aplicados por volta de 2012. No Brasil, segundo dados oficiais (Agência Brasil, 2007), o investimento público geral pesquisa em nanotecnologia (não somente em agricultura e alimentos), no biênio 2005-2006 foi da ordem de R$ 74 milhões, e valores similares deverão ser aplicados em 2007-2008, sendo destes apenas uma pequena fração exclusiva para o agronegócio.
    O objetivo da nanoteconologia neste segmento é aprimorar essa intervenção humana, através do uso de dispositivos sensores, elevando o controle sobre os eventos e facilitando a tomada de decisões para obtenção de uma melhor rastreabilidade, produtividade e qualidade. Temos como exemplo, a agricultura de precisão, que consegue hoje agregar e adaptar tecnologias avançadas para melhorar a eficiência da produção.
    Neste segmento, está se tornando cada vez mais acessíveis tratores com computadores de bordo, providos de sistemas automáticos de aquisição de dados, de comunicadores RF, de sistema de mapeamento espacial e em tempo real de características de plantio e colheita, além da possibilidade de agregar sensores de análises químicas e biológicas e dispositivos inteligentes para a dispersão de agrotóxicos, e sistemas de liberação controlada de pesticidas e fertilizantes, entre outros recursos disponíveis.
    Os sistemas de posicionamento global (GPS), têm tido seus preços gradualmente reduzidos e estão se tornando acessórios populares, precisos e personalizados. A tendência é a da confecção de módulos cada vez menores, que possam ser integrados em pacotes permitindo acompanhar em tempo real a localização e as condições de um produto colhido ou transportado.

    A nanotecnologia também trabalha no desenvolvimento de biossensores e transdutores de alta sensitividade que permitem a identificação e quantificação de compostos químicos, orgânicos ou demais impurezas ou alterações de composição, sejam em plantas ou frutos, como também em solos.
    Dispositivos controladores de irrigação ou sensores de alto desempenho como as chamadas “línguas” e “narizes” e “olhos” eletrônicos, já em desenvolvimento na Embrapa, deverão invadir mercado brevemente gerando uma enorme possibilidade de análises e tomadas de decisões.

    Nanotecnologia na Indústria de Alimentos

    De forma geral, pode-se dizer que o foco da nanotecnologia na agricultura e em alimentos, de certa forma difere das tradicionais aplicações de nanotecnologia nas demais engenharias ou áreas técnicas. Em alimentos, por estes serem muitas vezes órgãos vivos e perecíveis, técnicas múltiplas são requeridas e boas práticas não devem ser ignoradas e sim implementadas nos diversos segmentos da cadeia. Na Embrapa, por exemplo, já se encontra em desenvolvimento revestimentos comestíveis e embalagens inteligentes que aplicados diretamente a frutos e hortaliças prolongam a vida do produto e garantem a qualidade nutricional.
    Segundo o prêmio Nobel Richard Smalley, em 2005 os processos relacionados à produção e industria alimentícia envolvendo a nanotecnologia, já excedeu a casa dos 2 bilhões de dólares no mundo e sua estimativa é que deverá facilmente atingir montantes superiores a 20 bilhões de dólares por volta de 2010.
    A nanotecnologia na indústria de alimentos não tem apenas o objetivo de preservação e aumento da qualidade. O mercado e o apelo ao consumo também têm sido muito importantes neste contexto. Já existem nanopartículas ou formulações coloidais diversas, que adicionados a alimentos industrializados e em bebidas, destacam cores e alteram sabores, estimulando o consumo e, por conseguinte, elevando o lucro.
    Embora há muitas possibilidades de aplicações da nanotecnologia, há ainda limitações naturais de mercado, seja por serem economicamente inviáveis ou por sua complexidade, dificultando a adoção em escala industrial. De qualquer forma, o avanço tecnológico é um fenômeno irreversível e a nanotecnologia aplicada na agroindústria é assumida como uma inovação bem-vinda. Para tanto a Embrapa está participando de um esforço nacional encabeçado pela CAPES com a participação de várias universidades e institutos de pesquisa de todo o país para trabalharem na avaliação de impactos da nanotecnologia e auxiliarem na definição de uma regulamentação que permita a certificação e garantia de qualidade e da segurança dos produtos nanotecnológicos para a saúde humana e o meio-ambiente.

    Nanotecnologia no Brasil

    No contexto mundial os Estados Unidos são sem dúvidas, o líder em pesquisa em nanotecnologia. Dados mostram que de 1985 a 1997 foram aplicados 452 milhões de dólares em pesquisa de miniaturização e desenvolvimento de novos produtos com base na pesquisa de nanotecnologia. Nos EUA foi criado em 1996 a NSF – National Nanofabrication Users Network, uma ampla rede de informações que não somente identifica demandas na área, mas organiza os laboratórios atuantes na captação e distribuição de recursos. A Ásia igualmente, principalmente Japão, China e Coréia do Sul já tem programas ousados e significativos montantes de recursos destinados à área de nanotecnologia,
    No Brasil, pesquisa e recursos voltados para a nanotecnologia são mais recentes e escassos. No entanto já temos uma série de universidades, institutos e grupos de pesquisa atuando em aspectos da nanotecnologia.
    A Embrapa (Empresa Brasileira de Pesquisa Agropecuária), contudo foi uma das instituições pioneiras em pesquisas de nanotecnologia voltada a agronegócio na área na América do Sul. A unidade da Embrapa Instrumentação, localizada em São Carlos, SP foi um dos primeiros institutos de pesquisa a visualizar aplicações de nanotecnologia no Brasil. Com a aquisição de seu primeiro microscópio de força atômica e tunelamento em 1996, tornou-se possível à visualização de objetos em nano escala, permitindo intervenções e alterações de dispositivos na escala atômica assim como acompanhar reações e realizar medidas de força e adesões sobre superfícies virtualmente planas. Os trabalhos pioneiros estabeleceram a base para o desenvolvimento de uma série de sensores, compósitos e filmes finos. A partir de então a unidade de São Carlos tem qualificado e formado pesquisadores na área, contando hoje com um grupo de excelência apto para acompanhar e promover avanços do conhecimento sobre o tema.
    Mais recentemente, a Embrapa Instrumentação Agropecuária obteve resultado inédito na nanotecnologia voltada ao agronegócio ao desenvolver um sistema sensor, conhecido como Língua Eletrônica, pelo qual camadas de macromoléculas produzidas com controle nanométrico, apresentam altíssima área superficial e permitem uma sensibilidade que pode chegar a 1.000 ao de uma língua humana. Trabalhos em andamento demonstram o potencial da língua eletrônica na caracterização de cafés, sucos, leite, vinho e água.
    A Embrapa Instrumentação Agropecuária também mantém a linhas de pesquisas no desenvolvimento de sistema de liberação controlada de pesticidas e fertilizantes; em sensores de identificação e quantificação de bactérias em água e alimentos; em sensores descartáveis e de baixíssimo custo para quantificação de etileno, identificando no local da colheita o grau de maturação de frutos e no desenvolvimento de filmes comestíveis, ultrafinos e invisíveis, que atuam como embalagens ativas diretamente sobre frutos e legumes minimamente processados, elevando a vida útil, preservando a aparência do produto sem perdas das qualidades nutricionais.

    Brasil carece investimentos em nanotecnologias para o agronegócio
    A nanotecnologia é atualmente um negócio de 100 bilhões de dólares que possui a previsão de um enorme crescimento, devendo atingir 1 trilhão até 2011, devido ao seu potencial de aplicação nos mais variados setores industriais, e ao impacto que seus resultados podem dar ao desenvolvimento tecnológico e econômico. O Brasil, embora em menor proporção, tem se esforçado para não ficar de fora da corrida por esta tecnologia. Em 2001 foi lançada a Iniciativa Brasileira em Nanotecnologia pelo governo federal para procurar organizar e formar redes de pesquisa, que estão atuando desde então no tema.
    O agronegócio é certamente umas áreas onde o nosso país pode ter a maior competitividade em nanotecnologia, graças as especificidades e oportunidades de questões vinculadas aos nossos recursos naturais, clima e agricultura tropical. Adicionalmente, as universidades e demais instituições de pesquisa do nosso país, tais como a Embrapa, Empresa Brasileira de Pesquisa Agropecuária possuem grupos de excelência de pesquisadores altamente capacitados para promover avanços do conhecimento neste tema. No entanto, até recentemente o país ainda não tinha priorizado recursos para explorar as potencialidades da nanotecnologia para o agronegócio, embora estudos recentes, com, por exemplo, os da universidade de Toronto (The University of Toronto Joint Centre for Bioethic), classificasse a agricultura e alimentos como a segunda área onde as aplicações de nanotecnologia possuem o maior potencial de impacto. De qualquer forma, a Embrapa tem insistido no tema, tendo colocado a nanotecnologia como uma das de sua área prioritária.

    O Laboratório Nacional de Nanotecnologia para o Agronegócio

    A Melhor notícia no setor hoje é a iniciativa do Ministério da Ciência e Tecnologia através da FINEP (Financiadora de Estudos e Projetos) do governo Federal de Criar em São Carlos, SP, o primeiro Laboratório Nacional de Nanotecnologia para o Agronegócio (LNNA), no qual estão sendo investidos recursos de R$ 4 milhões. A contemplada é a Embrapa Instrumentação Agropecuária, unidade da Empresa Brasileira de Pesquisa Agropecuária, vinculada ao Ministério da Agricultura, Pecuária e Abastecimento, que com esta ação pretende impulsionar as pesquisas no setor agropecuário para garantir sua competitividade.
    O LNNA está iniciando suas atividades com a aquisição de equipamentos, sendo a maior parte importada, planejamento das ações e a organização de uma Rede de Pesquisa em Nanotecnologia para o Agronegócio, que já conta com a participação de vários 17 Centros de pesquisa da Embrapa, além de Universidades, e 15 Institutos e grupos de excelência de todo o país, continuando aberta para a colaboração tanto com a academia como com empresas privadas para o desenvolvimento de produtos nanotecnológicos.
    O LNNA é certamente um marco na consolidação de uma infra-estrutura de equipamentos avançados e dedicados a Nanotecnologia, que dará condições ao nosso país de avançar e gerar inovações nesta área tão promissora.
    As principais linhas de pesquisas que serão inicialmente contempladas pelo LNNA incluem o desenvolvimento de sensores e biossensores, aplicados ao controle de qualidade, certificação e rastreabilidade de alimentos; desenvolvimento de novos usos de produtos agrícolas, caracterização e síntese de novos materiais, como polímeros e materiais nanoestruturados com propriedades específicas, filmes finos e superfícies para fabricação de embalagens inteligentes, comestíveis e superfícies ativas; nanopartículas, compósitos e fibras para o desenvolvimento de materiais reforçados, usando produtos naturais, como fibras de sisal, juta, coco, curauá, bagaço de cana e outras para aplicações industriais; nanopartículas orgânicas e inorgânicas para liberação controlada de nutrientes e pesticidas em solos e plantas, de fármacos para uso veterinário; desenvolvimento de metodologias de nanomanipulação e nanocaracterização de materiais; nanobiotecnologia para caracterização de material genético e nanomanipulação gênica; caracterização de materiais de interesse do agronegócio para obtenção de informações inéditas sobre partículas de solos e plantas, bactérias e patógenos de interesse agrícola.
    Além das atividades ligadas ao desenvolvimento de projetos de pesquisas, o Laboratório Nacional de Nanotecnologia para o Agronegócio funcionará em forma de “facility” para colaborações científicas e prestação de serviços para instituições públicas e iniciativa privada, buscando ser um instrumento de desenvolvimento científico e tecnológico importante para o país gerar inovações em nanotecnologia.

    —————————–

    Nanotecnologia – Não tão distante quanto acreditamos

    Autor: Caue Ribeiro de Oliveira
    Pesquisador da Embrapa Instrumentação Agropecuária, São Carlos,
    email: caue@cnpdia.embrapa.br, fone: (16) 2107 2915

    É cada vez mais comum ver nos meios de comunicação termos associado à nanotecnologia, como “nanopartículas”, “nanoestruturas”, “nanocápsulas” e até “nanorrobôs”. Mas, afinal, o que pessoas leigas entendem por nanotecnologia? Num site de internet , dedicado a explicar ciência para “não iniciados”, nanotecnologia foi definida mais pelo que se pretende fazer do que propriamente do que ela é: “Nos próximos 50 anos, as máquinas ficarão cada vez menores, tão pequenas que milhares dessas máquinas minúsculas caberiam no ponto final desta frase”.De certa forma, a idéia inicial é essa, mesmo. Construir sistemas funcionais na escala nanométrica (a nanoescala), que corresponde à milionésima parte do milímetro. Mas, esse conceito, posto de forma tão direta, tem levado muitas pessoas a questionamentos: se pudermos construir máquinas tão pequenas, que não podem nem ser claramente percebidas, que tipo de armas militares podem surgir dessas tecnologias? Se essas coisas são tão pequenas, elas não poderiam então interagir livremente com as células do corpo, e a que isso levaria? E se, de alguma forma, essas máquinas tão pequenas ganhassem alguma estratégia de auto-replicação, ou reprodução, não seria possível criar um “vírus mecânico”?

    Muitos desses medos vêm da confusão normal que acontece quando qualquer desenvolvimento humano, que promete algo realmente inovador, surge. De forma geral, qualquer grande desenvolvimento pode gerar grandes benefícios ou grandes malefícios, dependendo estritamente de quem se utiliza do conhecimento. Ao conhecimento fundamental – a ciência – serão necessárias novas etapas de aprendizado para a aplicação – a tecnologia – que, enfim, poderá chegar nas nossas casas com, espero, benefícios.

    Portanto, é necessário definir, do que entendemos por nanotecnologia, o que corresponde à ciência e à tecnologia. Nanociência e nanotecnologia, ainda que sejam termos que parecem iguais, não são sinônimos. Quando falamos em nanociência, estamos aprendendo sobre a estrutura básica da matéria, ou seja, aquele estágio que fica muito próximo do estado atômico – molecular, mas que já caracteriza a existência de um sólido. Por esse conceito, a nanociência pode até ser algo muito antigo – na verdade, estudamos a estrutura da matéria à pelo menos um século! – porém a Nanotecnologia, essa sim, é algo novo. Ela se caracteriza quando conseguimos manipular esses conceitos para que se tornem em produtos ou serviços, que é o que chamamos tecnologia. Assim, estamos pensando em tecnologias cujo diferencial reside em algo – uma partícula, uma interface, uma distância entre materiais – que se constitui na nanoescala. Ou seja, Nanotecnologia não é o puro e simples uso de coisas pequenas. É algo que vai além, e que aqui convencionamos chamar de nanoestratégias.

    Exemplificando o que queremos dizer: com certeza, uma das mais assustadoras características da nanoescala é que partículas nesses tamanhos (da ordem de 50 nm para baixo) apresentam certas propriedades típicas de estruturas moleculares. Essa característica torna metais em isolantes, ou “quase-semicondutores”, e confunde o nosso senso de propriedades intrínsecas da matéria, um conceito tão comum na nossa formação escolar básica. Essa é uma propriedade do material na nanoescala, que pode ter ou não alguma aplicação. O que quero dizer com isso é que o fato de uma propriedade existir por si só não lhe dá uma aplicação imediata. Novamente no caso dos metais, um metal normalmente é interessante do ponto de vista tecnológico, entre outras coisas, por ser um bom condutor. Pois bem, nesta visão e por essa propriedade da nanoescala, um metal possivelmente isolante perderia uma propriedade de interesse. Mas, de novo, isso é ciência – estamos confundindo o entender melhor a estrutura dos materiais com aquilo que queremos ou esperamos dele. Outra noção prática do que acontece nessas partículas tão pequenas é a mudança da cor que observamos em alguns materiais. Aplicando o fenômeno, temos, por exemplo, semicondutores cuja cor é ajustada apenas pela modificação do tamanho da partícula, permitindo assim projetar sistemas emissores de luz com alto brilho . Cores mais brilhantes e vivas, isso sim, parece ser uma tecnologia bastante prática – se você tiver uma televisão de plasma ou LCD pense que parte dessa idéia é responsável pelas belíssimas cores que você vê, e também pelo dinheiro que você gastou.

    Porém, quando enveredamos por essa senda das novas propriedades tão comum nas discussões sobre nanotecnologia, esquecemos de novo que isso é apenas parte da história. Falar em nanoestratégias é observar os vários nanocaminhos que já foram alcançados, de uma forma ou outra, para obter-se uma determinada propriedade. Isso acontece com nossa construção tecnológica, mas acontece também na natureza – e sempre é bom lembrar que desde o começo da história da humanidade, nós copiamos as estratégias da natureza para as nossas realizações.

    Por exemplo: copiamos o João-de-Barro, que faz um ninho com fibras e barro, e construímos nossas casas. Por milênios fizemos casas de pau-a-pique e tijolos de barro cru reforçados com palha, que nada mais eram que a cópia estrita de uma construção de passarinhos. Depois, começamos a copiar a mesma idéia em tecnologias mais específicas, por exemplo, os chamados materiais compósitos – que muitos conhecem como plásticos reforçados com fibra de vidro. Temos de partes de carros a de aviões feitos com essa tecnologia, que nada mais é que a cópia do que um dia um passarinho nos contou.

    O que a nanociência fez por nós foi também revelar outras estratégias – nanoestratégias – que a natureza utiliza a milhões de anos, e que, na maioria dos casos nós desconhecemos. Vejamos o material que compõe as conchas marinhas. O molusco tece a concha intercalando camadas em torno de 50 nm de um material orgânico contra um inorgânico de mesma espessura, geralmente carbonato de cálcio, fazendo uma superposição cuja resistência mecânica é muito superior do que a dos dois materiais separados! Essa mesma estratégia explica o porquê conchas marinhas têm cores tão vibrantes, e efeitos visuais tão intensos contra a luz. O mais interessante é que essa estratégia a natureza desenvolveu em milhões de anos de evolução, para gerar um material cujas propriedades são macroscópicas, ou seja, nós vemos a cor das conchas, e sentimos sua resistência quando tentamos quebrá-la. Porém, as propriedades na grande escala são fruto de uma nanoestratégia.

    Um sistema nanométrico muito comum para todos nós são as argilas. Elas estão no nosso dia – a – dia, mas normalmente não pensamos nelas como nanopartículas ou nanoestruturas, mesmo porque a olho nu, elas se parecem com qualquer amostra do que chamamos genericamente de solo. Uma descrição mais detalhada desse material, na realidade um subproduto do intemperismo (as chuvas, vento, etc., durante milhões de anos), é de estruturas de inúmeras placas de 100 a 500 nm de largura, com espessura de cerca de um nm, empilhadas regularmente, mas independentes. Esta característica estrutural das argilas explica muitas de suas propriedades: na presença de água, muitas das argilas são esfoliadas, isso é, uma fina camada de água separa essas placas umas das outras, formando uma pasta, de consistência pegajosa, que é fácil de moldar. Essa propriedade permitiu que muitos dos primeiros instrumentos feitos pelo homem fossem de argila queimada em fornos – o chamado barro cozido – e até hoje, utilizamos esta mesma estratégia para moldar peças muito comuns do nosso cotidiano, como os tijolos e telhas de construção civil.

    Porém, se conhecemos esse caráter das argilas, podemos copiar a natureza e pensar num sistema, que utilize argilas esfoliadas no meio de camadas de polímeros (os plásticos que estamos acostumados no cotidiano), copiando a estratégia dos moluscos. Mas também estamos copiando a estratégia do João de Barro: estamos reforçando um material com outro, formando um compósito. Há muito trabalho de pesquisa a partir dessa idéia, e os resultados são surpreendentes – vislumbram-se materiais plásticos de altíssima resistência mecânica, que podem abrir espaço para peças de engenharia de grande leveza e resistência. O grande investimento da indústria de polímeros no desenvolvimento de nanocompósitos, que é como chamamos estes materiais, comprova o potencial da nanoestratégia. Mas, lembrando novamente, estamos aqui interessados num produto de material plástico com uma resistência ao desgaste muito maior que o convencional. Ou seja, um produto como outros tantos que usamos, com uma propriedade diferenciada advinda de uma nanoestratégia.

    Nem sempre as alternativas da nanotecnologia são estratégias inovadoras, na profundidade do termo. Muitas vezes são visões incrementais que quase sempre determinam o sucesso de uma iniciativa. Assim, como no caso das argilas, modificar a visão que fazemos de um material pode fazer toda a diferença. Há um outro exemplo: as zeólitas são minerais bem conhecidos, largamente utilizados nas indústrias. São encontradas na natureza em diversas formas. A principal característica das zéólitas é que, ainda que normalmente encontradas como partículas grandes, às vezes até de milímetros de tamanho, elas são formadas internamente por redes de poros nanométricos, em geral abaixo de um nm, que determinam suas propriedades. Elas são extremamente importantes na indústria de catalisadores, utilizados para acelerar reações químicas. Nas palavras do Dr. Eaglesham (no momento desta declaração, presidente da Materials Research Society): “materiais catalisadores são nanoestruturados há cerca de um século, e sua indústria (U$ 100 bilhões) é estimada como uma indústria futura de U$ 1 trilhão”. A visão destes materiais como diferenciados por uma nanoestratégia será fundamental para atingir esses valores futuros.

    Mas, a esta altura do texto, a pergunta mais evidente é “qual é a direta relação de tantas informações e a agricultura?”. Afinal, a Embrapa – e a nossa unidade – Embrapa Instrumentação Agropecuária – tem uma missão muito clara no Brasil, voltada para o desenvolvimento do agronegócio. E temos fomentado a pesquisa em Nanotecnologia, temos uma Rede de pesquisadores em nanotecnologia para a agricultura… Enfim, como podemos entender a relação da Nanotecnologia e os nossos interesses?

    As relações são muito imediatas, diretas ou não. No caso da indústria de catalisadores, ela é o cerne da produtividade da indústria química, inclusive da produção de fertilizantes, pesticidas bem como de conservantes de alimentos e similares. Variações no preço de produtos químicos impactam imediatamente atividades agrícolas. Este é um impacto indireto da nanotecnologia no agronegócio.

    Mas as mesmas zeólitas, comentadas há pouco, podem levar a um grande impacto direto. Alguns tipos de zeólitas apresentam uma alta capacidade de retenção de amônio proveniente de uréia (um composto muito utilizado como fertilizante) justamente por sua estrutura nanoporosa. Isso as tornou num insumo ideal para redução da quantidade de fertilizantes a se aplicar numa cultura e ainda com aumento da produtividade! Estudos da Embrapa demonstraram que numa cultura de hortaliças, este ganho é da ordem de 20% em produtividade . Este é um bom exemplo de uma nanoestratégia da natureza, que vira nanotecnologia quando a utilizamos em nosso benefício.

    É importante frisar este ponto: ainda que a característica nanométrica destes materiais esteja lá há muito tempo, a nanotecnologia somente aparece quando utilizamos conscientemente esta característica para gerar um diferencial. E veja que diferencial! Países em desenvolvimento, como é o caso do Brasil, normalmente importam a maior parte dos seus agroquímicos. Se quisermos então pensar num impacto rápido da nanotecnologia, o uso de zeólitas para administração mais racional de fertilizantes é um ganho com fortes motivações financeiras, além das ambientais (menor contaminação do solo e das águas subterrâneas) e sociais (menores riscos de contaminação dos trabalhadores do campo).

    Bem, este é só o começo de toda uma discussão. Mas, pensemos, talvez a nanotecnologia não esteja tão distante de nós como imaginamos.

    Reportagens e notícias recentes publicadas na impressa

    Governo tenta alavancar nanotecnologia nacional
    Redação do Site Inovação Tecnológica – 02/08/2012
    Micro e nanotecnologias
    “O Brasil tem que dar esse passo, tem que criar uma infraestrutura que permita, tanto ao pesquisador industrializar a tecnologia, como às empresas terem acesso a uma rede de conhecimento para converter ideias de seus setores de desenvolvimento em produtos”.
    A avaliação é do físico Flávio Plentz, que assumiu, nesta semana, a coordenação geral de micro e nanotecnologias do Ministério da Ciência, Tecnologia e Inovação (CGNT/MCTI).
    Para Plentz, esses avanços viriam em um momento de maturidade do cenário nacional.
    “Nos últimos anos, o Brasil deu um salto muito grande em formação de recursos humanos, em produção de trabalhos científicos e em publicação de artigos”, diz. “Se não está completamente consolidado, esse sistema está em um patamar muito melhor do que ocupava em um passado recente.”
    SisNano
    O coordenador tem a expectativa de que o Sistema Nacional de Laboratórios em Nanotecnologias (SisNano) promova a interação entre pesquisadores e empresas que trabalhem com matérias em escala atômica.
    • Governo cria o SisNano – Sistema de Laboratórios em Nanotecnologias
    “Na verdade, vai ser uma rede de laboratórios financiada pelo ministério, que deve formar uma base de infraestrutura para pesquisa e desenvolvimento em nano”, adianta.
    A próxima etapa para a implantação do SisNano deve ocorrer no fim de agosto, quando o Comitê Consultivo de Nanotecnologia analisar as primeiras propostas de instituições interessadas em compor a rede.
    Comitê de Nanotecnologias
    Já para integrar a gestão das atividades, o coordenador do CGNT considera fundamental a atuação do Comitê Interministerial de Nanotecnologias (CIN), fundado em 9 de julho para organizar as ações do governo.
    “Esse comitê coloca a nanotecnologia num outro nível de ação governamental, porque ele vai poder criar um determinado programa a partir de conhecimentos e recursos de oito ministérios”, analisa Plentz. “Isso vai dar uma consistência, uma robustez bem maior para as ações do MCTI e do governo federal”.
    O MCTI coordena o grupo, com participação dos ministérios da Agricultura, Pecuária e Abastecimento (Mapa), da Defesa (MD), do Desenvolvimento, Indústria e Comércio Exterior (Mdic), da Educação (MEC), do Meio Ambiente (MMA), de Minas e Energia (MME) e da Saúde (MS).
    Para aproximar o País das potências mundiais no setor, o MCTI instituiu em fevereiro o Centro Brasil-China de Pesquisa e Inovação em Nanotecnologia (CBC-Nano). A formatação da rede cooperativa está na pauta de uma comitiva brasileira com viagem programada para a Ásia em setembro.

    Sebrae-SP e Desenvolve SP anunciam investimento a empresas inovadoras

    24 de agosto de 2012 – O Governo do Estado de São Paulo, por meio da Desenvolve SP e em parceria com a Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia, lançou nesta sexta-feira o programa “São Paulo Inova”, de apoio a empresas paulistas de base tecnológica e de perfil inovador, inclusive as em estágio inicial de operação (startups).
    O programa será composto por três linhas de financiamento operadas pela Desenvolve SP, duas delas com juros zero, e um termo de cooperação para a constituição de um fundo de investimento para empresas startups e de inovação tecnológica. Será um total de R$ 250 milhões, sendo R$ 100 milhões destinados ao Fundo de Investimento e R$ 150 milhões em recursos para as linhas de financiamento.
    O Governador de São Paulo, Geraldo Alckmin, afirmou: “Já temos 11 parcerias com o Sebrae-SP. É um grande parceiro do desenvolvimento do Estado. O São Paulo Inova é emprego, renda, qualidade de vida e competitividade internacional. Esse é o DNA de São Paulo.”
    “Para trabalhar com micro e pequenas empresas é preciso, além de competência, ter paixão. E nós nos sensibilizamos com este programa, muito focado no desenvolvimento das empresas paulistas”, disse Alencar Burti, presidente do Conselho Deliberativo do Sebrae-SP. “Nós do Sebrae-SP aceitamos participar do Fundo de Inovação Paulista porque acreditamos que esta ação vai se integrar plenamente à atividades que já desenvolvemos em prol das micro e pequenas empresas”, completou.
    Fundo de Inovação Paulista
    O Governo do Estado, em parceria com o Sebrae-SP e outros potenciais investidores, promoverá a constituição do “Fundo Inovação Paulista”, por meio de gestor a ser selecionado por processo público coordenado pela FINEP. O objetivo do Fundo é fomentar as empresas de perfil inovador com potencial para geração de novos produtos, agregando valor e beneficiando a economia e a população paulista.
    “Esse programa vai incentivar a produção científica e tecnológica em São Paulo, oferecendo o apoio financeiro necessário para que essas empresas cresçam. Além disso, o Sebrae-SP contribuirá com sua experiência em gestão empresarial por meio de seus produtos ligados à inovação”, afirma Bruno Caetano, diretor-superintendente do Sebrae-SP.
    Os investimentos do Fundo irão principalmente para empresas com faturamento anual de até R$ 3,6 milhões, inclusive as em estágio inicial de operação (startups), podendo atender também empresas com faturamento de até R$ 18 milhões. Os projetos serão avaliados pelo gestor do Fundo e aprovado pelo comitê formado pelos investidores. Entre as ciências que serão contempladas, preferencialmente, estão nanotecnologia, fotônica, ciências da vida e TI.
    O Fundo contará com patrimônio de R$ 100 milhões, sendo até R$ 25 milhões da Desenvolve SP, e terá participação do Sebrae-SP, da Fapesp, do FINEP e eventuais investidores.
    Os projetos das pequenas empresas candidatas ao benefício serão avaliados pelo comitê formado pelos investidores. Entre as ciências que serão foco de investimento estão nanotecnologia, fotônica, ciências da vida, tecnologia da informação, biotecnologia e comunicação.

    25/08/2012
    Nanofibras e nanotubos afetam homem e meio ambiente
    Redação do Diário da Saúde
    Riscos da nanotecnologia
    A nanotecnologia é muito promissora, mas as minúsculas partículas e fibras com que ela lida podem representar danos sérios à saúde e ao meio ambiente.
    Dois estudos científicos divulgados nesta semana trazem resultados preocupantes, sobretudo para trabalhadores que lidam diretamente com os nanoprodutos.
    Nanofibras, nanotubos e nanopartículas já são utilizados nos mais diversos tipos de produtos, de cremes de beleza e protetores solares a produtos esportivos e até asas de aviões.
    Contudo, até hoje não existem normatizações para controle do uso e da exposição a esses produtos.

    O objeto maior, em primeiro plano, é um fio de cabelo humano, contrastatando com as minúsculas dimensões das nanofibras. [Imagem: Hegde/Dahiya/Kamath]
    Nanofibras nos pulmões
    Ken Donaldson e sua equipe da Universidade de Edimburgo, na Escócia, analisaram o impacto das nanofibras, partes constituintes das famosas fibras de carbono e outros materiais de alta tecnologia.
    Os estudos indicam que, por serem pequenas demais, essas fibras individuais, podem ser inaladas e atingir a cavidade pulmonar.
    Isso pode levar aomesotelioma, o mesmo tipo de câncer causado pelo amianto, ou asbesto, que está banido em quase todo o mundo.
    “A preocupação surgiu porque esses novos tipos de nanofibras, feitos pela indústria da nanotecnologia, podem representar um risco porque têm formatos similares aos asbestos,” disse o Dr. Donaldson.
    O estudo, publicado na revista científica Toxicology Sciences, é importante por analisar os diversos tamanhos de nanofibras, permitindo avaliações iniciais das dimensões seguras para sua fabricação.
    Nanotubos no meio ambiente
    Já a equipe do Dr. Baolin Deng, da Universidade de Missouri, analisou os bem mais conhecidos nanotubos de carbono.
    Pequenos tubos ocos feitos de carbono, os nanotubos estão entre os materiais mais fortes da Terra, e são usados para reforçar materiais compósitos, na eletrônica e até em pesquisas na saúde, como no combate a tumores.
    Contudo, eles também têm seus riscos: os pesquisadores descobriram que os nanotubos de carbono são tóxicos para os animais aquáticos.
    A equipe salienta que é urgente criar normatizações que evitem que o material seja liberado no ambiente.
    • Nanotubos de carbono são bons para tecnologia, não para suas células
    “O lado promissor dos nanotubos de carbono deve ser equilibrado com cautela e preparação,” disse o Dr. Baolin. “Nós não sabemos o suficiente sobre seus efeitos sobre o ambiente e a saúde humana.”
    O pesquisador destaca que, ao contrário do que dizem as teorias, os nanotubos de carbono disponíveis comercialmente não são feitos unicamente de carbono: eles possuem níquel, cromo e outros metais em sua composição, materiais adquiridos durante o processo de fabricação, sendo estes os principais responsáveis pelos efeitos danosos dos nanotubos à vida aquática.

    05/03/2012
    Organização Mundial da Saúde vai mapear riscos da Nanotecnologia
    Informe ENSP

    Riscos da nanotecnologia para os trabalhadores
    O crescimento e o investimento nos estudos e na manipulação dos nanomateriais, além da abrangência do seu uso, tornam cada vez mais necessário o desenvolvimento de pesquisas que analisem os impactos que essas substâncias podem causar.
    A nanotecnologia já está presente em diversas áreas, como a saúde, a eletrônica, as ciências da computação, a física, a química, a biologia, a engenharia etc.
    Preocupada com esses fatores e, principalmente, com os potenciais riscos a que os trabalhadores que lidam diretamente com as estruturas em escala nanométrica podem estar submetidos, a Organização Mundial da Saúde (OMS) compôs um grupo para desenvolver diretrizes para proteger os trabalhadores contra potenciais riscos dos nanomateriais manufaturados.
    Por exemplo, recentemente uma pesquisa mostrou que um dos materiais mais famosos da era da nanotecnologia, chamado grafeno, pode ser danoso para os trabalhadores:
    • Nanopartículas e grafeno oferecem riscos à saúde
    Participação brasileira
    As orientações da OMS visam facilitar melhorias na saúde e segurança ocupacional dos trabalhadores potencialmente expostos a nanomateriais em uma ampla gama de ambientes de produção.
    As diretrizes vão incorporar elementos de gestão e de avaliação de riscos e questões contextuais, buscando fornecer recomendações para melhorar a segurança e proteger a saúde dos trabalhadores que utilizam nanomateriais em todos os países e, especialmente, em países de baixa e média renda.
    O pesquisador do Centro de Estudos da Saúde do Trabalhador e Ecologia Humana (Cesteh/ENSP), Willian Waissmann, foi um dos designados pela OMS para compor esse grupo.
    No Brasil, Willian tem a companhia da codiretora da Fundação Jorge Duprat Figueiredo de Segurança e Medicina do Trabalho (Fundacentro), Arline Sydneia Abel Arcuri, no desenvolvimento do trabalho.
    Nesta entrevista, ele fala sobre o desenvolvimento e o investimento da nanotecnologia no País, os objetivos do grupo composto pela OMS, além da necessidade de a população ter acesso às discussões sobre o tema. Confira.
    O senhor é um dos representantes do Brasil no Grupo de Desenvolvimento e Orientações para a Composição de Diretrizes sobre como Proteger os Trabalhadores contra Potenciais Riscos dos Nanomateriais Manufaturados. O País está preparado para integrar essa composição?
    Willian Waissmann: Em termos gerais, tanto no Brasil quanto na maioria dos países, há um diferencial muito grande entre o investimento e o desenvolvimento de materiais para a nanotecnologia, em relação ao fomento para estudos sobre potenciais consequências não desejáveis desses materiais.
    Digo ‘potenciais consequências não desejáveis’ porque várias das consequências possíveis são desejáveis. Mesmo assim, não podemos deixar de pensar nos potenciais riscos desses materiais à população em geral, ao ambiente, ou até mesmo aos trabalhadores que lidam diretamente com as substâncias.
    Na realidade, sempre houve a presença de partículas naturais ultrafinas nessa escala. Mas o que temos na atualidade vem da década de 1990, que é o desenvolvimento formal de materiais que adquirem ou podem ter propriedades especiais justamente por estarem na escala nano.
    A partir disso, há o desenvolvimento de objetos e produtos com uma utilização importante e tentar entender suas consequências e formas de difusão não é um processo fácil, tendo em vista o aporte financeiro e as questões técnicas necessárias.
    Qual a intenção da OMS em organizar um grupo para avaliar os potenciais riscos dos nanomateriais?
    Willian Waissmann: A OMS busca lidar com os potenciais riscos ocupacionais dos nanomateriais para os trabalhadores e, com isso, quer, efetivamente, conformar uma diretriz mais pontual, mas não como uma recomendação formal, e sim traçar linhas gerais de proteção voltadas para os aspectos mais importantes e menos importantes da utilização, além de buscar responder as perguntas em relação às pesquisas, aos trabalhos com esse tipo de produto e à produção desse material.
    As diretrizes irão incorporar elementos de gestão de risco, avaliação de riscos e questões contextuais, buscando fornecer recomendações para melhorar a segurança e proteger a saúde dos trabalhadores que utilizam nanomateriais em todos os países e, especialmente, em países de baixa e média renda.
    A Organização Pan-Americana de Saúde (Opas) também possui essa preocupação e temos, do ponto de vista da nanotoxicologia, uma série de laboratórios e escolas no mundo inteiro voltadas para o campo. Inclusive, já faz parte de pequenos trechos de normas internacionais, seja em normas da Organização Mundial do Comércio, ou em trechos de normas europeias, ou em normas de recomendação norte-americanas.
    Com isso, podemos observar que já temos movimentos sobre o que vem sendo desenvolvido pelos nanomateriais – que são substâncias que agem de forma diferenciada.
    Como será o trabalho desse Grupo?
    Willian Waissmann: Como passo inicial para o desenvolvimento das diretrizes, a OMS preparou um documento propondo o conteúdo e foco das Diretrizes. Esse documento será utilizado pelo Grupo de Desenvolvimento de Orientação para identificar questões-chave a serem abordadas pelas Diretrizes.
    A forma pela qual a OMS está compondo o grupo é interessante, pois está inserida num departamento de Saúde Pública e Meio Ambiente, entendendo que os produtos existem, e com o objetivo de operar com foco na saúde e no trabalho, não só lidando com a toxicologia, mas com a governança no campo, sugerindo recomendações e traçando as perguntas que devem ser respondidas. Ao se estabelecerem as principais perguntas, você dá rumo para que uma grande gama de pesquisadores e a própria população comecem a se posicionar.
    Outro aspecto muito importante e que faz parte do que estamos analisando é sobre como atender a opinião de atores-chave, além de entender como se sentem, como ocorre o debate na sociedade brasileira sobre a questão nanotecnológica, sobre a questão dos riscos. Sabe-se que esse tipo de discussão tem sido muito frágil, mas quando digo isso é porque na maioria das vezes não há debate social efetivo dentro de um espaço. Sabemos que esse processo está começando, mas é interessante que a gente possa desde já traçar as respostas para todas essas questões

    5- Dados estatísticos sobre o assunto (tabelas, gráficos, quadros etc.)

    6- Mini-currículo de pesquisadores científicos a serem entrevistados
    PESQUISADORES DA EMBRAPA – INSTRUMENTAÇÃO AGROPECUÁRIA –
    Breve perfil dos possíveis entrevistados.

    Caue Ribeiro
    É Engenheiro de Materiais (ênfase Materiais Cerâmicos) pela Universidade Federal de São Carlos (1999), mestre em Ciência e Engenharia dos Materiais pela Universidade Federal de São Carlos (2002) e doutor em Química pela Universidade Federal de São Carlos (2005). Desde 2007 é Pesquisador A da EMBRAPA Instrumentação e orientador credenciado no Programa de Pós Graduação em Quimica da Universidade Federal de São Carlos, orientando atualmente 4 mestrandos, 6 doutorandos e ministrando disciplinas. Trabalha ativamente no Fórum de Competitividade em Nanotecnologia instituído pelo MDIC, no Grupo de Trabalho Mercado, desde a sua criação. É assessor ad-hoc de diferentes agências de fomento e de revistas científicas especializadas, e membro do comitê editorial de três revistas científicas. É lider da Rede de Nanotecnologia para o agronegócio – Rede AgroNano – mantida pela Embrapa e articulando cerca de 150 pesquisadores ao todo de várias unidades da Embrapa e Universidades, e têm interesses de pesquisa nas áreas de síntese de nanocristais de óxidos cerâmicos, estudos de crescimento de cristais em colóides de nanopartículas, atividade catalítica de nanopartículas, aplicações de nanopartículas em fertilizantes.

    José Manoel Marconcini
    Possui graduação em Engenharia de Materiais pela Universidade Federal de São Carlos (1995) com ênfase em Materiais Poliméricos. Realizou trabalho na área de Biomateriais, na avaliação da qualidade de cimentos acrílicos ósseos, em equipe multidisciplinar no IOT-HC-FMUSP e na Universidade Federal de São Carlos (UFSCar), entre 1994 e 1996. Realizou o mestrado em Química, área de concentração Físico-Química, pela Universidade Federal de Mato Grosso do Sul (2000) no tema de Imobilização de enzimas em derivados de celulose. O doutorado foi realizado em Química pela Universidade Federal de São Carlos (2005), na área de Blendas de Poliolefinas e PET reciclados. Foi bolsista de desenvolvimento tecnológico Industrial (DTI) do Instituto de Tecnologia para o Desenvolvimento- LACTEC, em Curitiba – PR, trabalhando no tema de Desenvolvimento de metodologias de análise de polímeros por infravermelho com reflectância total atenuada (FTIR-ATR) e ressonância magnética nuclear (RMN) (2006). Atualmente, é pesquisador da Embrapa Instrumentação Agropecuária – CNPDIA, atuando na área de Nanotecnologia, com Materiais Compósitos e Novos Materiais. Tem experiência na área de Engenharia de Materiais, com ênfase em Polímeros, atuando principalmente nos seguintes temas: blendas poliméricas, reciclagem, poliolefinas recicladas, PET reciclado, celulose, enzimas imobilizadas e nanocompósitos de matriz polimérica.

    7- Outros personagens e fontes de informação incluídos na pauta:

    Breve resumo da sinopse: “O filme passa-se em Washington no ano de 2054. A divisão pré-crime conseguiu acabar com os assassinatos, nesse setor da polícia o futuro é visualizado antecipadamente por paranormais, os precogs, e o culpado é punido antes que o crime seja cometido.”

    Embora o filme seja mega ficção, existem elementos nele que já previam o surgimento da nanotecnologia, o mais interessante é que o filme gravado em 2002, projetava um futuro em 2054 na época surreal, que hoje em 2012 já é uma realidade.

    8- Lista de referências utilizadas em sua pesquisa (links, obras etc.)

    Definição e conceito de nanotecnologia: http://nanotech.ica.ele.puc-rio.br/nano_introducao.asp

    Luan Emilio

    27/08/2012 em 19:56

  23. Qual a importância dos tratamentos psicológicos e sua eficácia

    Inicialmente com a pesquisa prévia estou analisando e destacando juntamente com minhas fontes quais são os maiores problemas que são encaminhados por diversos médicos ao tratamento psicológico. Posto isso será elaborado um gráfico com os principais destaques dos motivos mais inerentes que levam ao tratamento psicológico que vai desde problemas familiares, socialização, transtorno bipolar, TOC, depressão, ansiedade e demais razões que possam ser relevantes para o arquivo. Qual a faixa etária com maior abrangência, analisar também se só o tratamento psicológico é necessário ou dependendo dos casos tem se a necessidade de remédios.
    O tema proposto inicialmente é muito grande mais conforme os resultados forem aparecendo serão “recortados” para a finalização do artigo científico que será constituído do real problema do porquê de tratamentos psicológicos serem indicados suas causas e consequências.
    Não se pretende dizer neste artigo o certo ou errado quanto o uso de tratamento psicológico ou até mesmo de medicamentos, mais sim explicar o porquê isso ocorre e destacar as possíveis nuâncias para se ter o melhoramentos para essas “doenças”, fazendo assim que o leitor entenda o seu problema ou de alguém de sua família ou de amigos, colegas.
    Essa base tem como referência diversos artigos apresentados por universidades importantes do Brasil como Universidade São Francisco, neste caso foi realizado um estudo especificamente dos atendidos pela Universidade conforme o link: http://www3.mackenzie.br/editora/index.php/ptp/article/view/1185/883.
    No artigo proposto acontecerá a mesma coisa mais o diferencial é que será utilizado clinicas particulares como a Clínica Integrada de Psicologia com a psicóloga Gracilei Pereira (conferir cadastro no órgão no link: http://www.crpsp.org.br/portal/psicologo/psicadastrado.aspx utilizar o número do CRP 0016124) que atua no campo familiar e individual a 30 anos na cidade de Novo Horizonte.
    A psicóloga destacara quais são os “problemas” que mais tem sido atingido a população especifica, mais, também mostra a realidade do País, visto que a maioria das pessoas que procuram esses tratamentos tem quase o mesmo problema.
    Com as informações de causa destacarei quais são os maiores problemas e soluções apontadas.
    Além disso, explicar como funciona essa dinâmica entre psicólogo e paciente, como se aplica os ensinamentos técnicos, qual a importância da família, o porquê de casos de abandono do tratamento e demais pontos que estão sendo levantados analisados e estudados.
    Por fim o artigo pretende traçar um perfil dos problemas mais decorrentes quanto à procura de tais serviços e com isso apresentar um dado que possa engrandecer e “desconstruir” certo “tabu”, do qual quando a pessoa é encaminhada a tratamento muitas vezes tem preconceito quanto a psicologia por pensarem que isso é coisa para “gente louca”, contudo a psicologia é indicada principalmente ao estilo de vida como destaca esse artigo: http://www.brasilescola.com/doencas/doencas-psicologicas.htm.
    Contudo ainda, a finalização do artigo proposto tende-se demonstrar e explicar se realmente como dizem os especialistas, de que muitos dos problemas causados em nossa vida “ajudam” a desencadear tais fatores problemáticos como é destacado nesta matéria da revista Super Interessante http://super.abril.com.br/saude/psicologos-cura-pela-palavra-447602.shtml e acima de tudo mostrar o que é verdade e mentira de tratamentos psicológicos.

    Evandro Goular

    27/08/2012 em 20:07

  24. 1. Assunto, problema envolvido e abordagem adotada:

    Assunto: Pesquisadores da Faculdade de Ciências Farmacêutica da UNESP em Araraquara querem transformar o AZT, um dos medicamentos mais usados pelos pacientes com HIV em uma composição nasal. Testes já mostram que pelo nariz o remédio pode agir mais rápido no organismo e assim diminuir os efeitos colaterais.

    Problema envolvido: AxZT (azidotimidina), também conhecido como zidovudina, o medicamento foi o primeiro a trazer benefícios contra a doença. “Segundo dados no último relatório da ONU – Programa Conjunto das Nações Unidas sobre HIV/AIDS (Unaids) indica que mais de 34 milhões de pessoas vivem com HIV no mundo, sendo 30,07 milhões de adultos, 16,7 milhões de mulheres e 3,4 milhões de menores de 15 anos”.

    Abordagem adotada: O tema a ser desenvolvido está relacionado ao tratamento de pessoas soro positivo pelo vírus da AIDS. A abordagem inicial da matéria pretende falar sobre o estudo do departamento de farmácia da UNESP que desenvolveram AZT nasal. A idéia é começar com um personagem que fala dos problemas que tem com os medicamentos, repercutir os efeitos colaterais e problemas de estômago que os medicamentos do coquetel provocam. Entrevistar também uma médica infectologista para explicar as reações que esses remédios provocam, sua eficácia e como prevenir a infecção pelo HIV. Depois falar com a pesquisadora do projeto, sobre o uso e as estratégias desse medicamento. Entrevistar a orientadora do estudo para falar sobre a linha de pesquisa, absorção do medicamento por via oral, e também falar sobre o diferencial desse novo medicamento, como ele age no organismo da pessoa, seus efeitos colaterais.

    2. Conceitos e teorias científicas relacionadas ao tema:

    No estudo, o AZT foi envolvido por uma estrutura de tamanho nanométrico (milésima parte de um milímetro) em uma formulação composta por água, óleo e tensoativo, substância que torna possível à mistura da água destes dois elementos que melhoram a adesão e a absorção pela mucosa nasal. Por este novo esquema, o fármaco não passa pelo trato gastrintestinal e é liberado diretamente na corrente sanguínea, o que pode reduzir os efeitos adversos.

    3. Artigos e trabalhos publicados em periódicos especializados:

    Projeto Acadêmico (tese de mestrado) da Universidade Estadual Paulista “Julio de Mesquita Filho” – Faculdade de Ciências Farmacêuticas Campus de Araraquara.
    Tema: “Desenvolvimento e caracterização de sistemas nanoestruturados para potencial administração nasal de zidovudina”.
    http://www.posgraduacao.fcfar.unesp.br/cienciasfarmaceuticas/Disertacoes/2008/flavia_chiva-completo.pdf

    Estudo tema: “Drogas Anti-VIH: Passado, Presente e Perspectivas Futuras”
    “Histórico das drogas Anti-VIH”
    “Combinação de medicamentos (Coquetel e Drogas)”
    http://www.scielo.br/pdf/qn/v26n3/15663.pdf

    Trabalho Acadêmico em Saúde
    Revista Universo Edu
    “Terapia antiretroviral e assistência farmacêutica aos portadores do HIV”
    http://revista.universo.edu.br/index.php/1reta2/article/view/346/228

    4. Reportagens e notícias recentes publicadas na impressa:

    Notícia publicada em 2009, no site do Jornal Estadão “Pesquisadores da Universidade Estadual Paulista (UNESP) criaram uma fórmula para administrar por via nasal o AZT, medicamento usado no coquetel antiaids. O objetivo é tornar a absorção mais eficaz e reduzir efeitos colaterais”, link para conteúdo completo da notícia:
    http://www.estadao.com.br/noticias/geral,pesquisadores-da-unesp-desenvolvem-azt-de-uso-nasal,369468,0.htm

    Reportagem publicada no Diário de São Paulo Online/SP, no dia 17/07/2012, com o enfoque na aprovação do primeiro remédio que previne infecção por HIV, sobre o tema “Remédio é esperança contra a AIDS”, link para a notícia: http://www.diariosp.com.br/noticia/detalhe/27881/Remedio+e+esperanca+contra+a+Aids

    Notícia relacionada à 19ª Conferência Internacional da AIDS, em Washington, com o tema “Cura da AIDS: Conferência fala sobre como erradicar a doença”, acessado em 26/07/2012, link para assuntos relacionados à conferência: http://www.aids2012.org/

    Reportagem publicada na página do G1 (ciência e saúde), em 21/11/2011, mostrando dados da ONU sobre a AIDS no mundo, com o tema “Número de pessoas com HIV chega a 34 milhões no mundo, diz ONU”, a matéria contempla com gráficos e dados em comparativos de 2010 a 2011, link: http://g1.globo.com/ciencia-e-saude/noticia/2011/11/numero-de-pessoas-com-hiv-chega-34-milhoes-no-mundo-diz-onu.html

    Reportagem publicada no site do Ministério da Saúde, falando da AIDS no Brasil, link para o conteúdo: http://www.aids.gov.br/pagina/aids-no-brasil

    5. Dados estatísticos sobre o assunto (tabelas, gráficos, quadros etc.):

    Tentei entrar em contato com a Assessoria de Comunicação do Ministério da Saúde em Brasília/DF, porém não houve retorno e informação sobre novos dados da doença no Brasil. Abaixo segue algumas reportagens com dados atualizados sobre a AIDS no Brasil e no Mundo, minha pesquisa foi baseada em dados do site da Rede Globo.

    Reportagem publicada pelo programa “Globo Ciência” no dia 04/08/2012, com o tema “Confira quais são os números de casos de AIDS no Brasil e no mundo”. Link para acesso da matéria:
    http://redeglobo.globo.com/globociencia/noticia/2012/08/confira-quais-sao-os-numeros-de-casos-de-aids-no-brasil-e-no-mundo.html

    Outra matéria também publicada pelo o G1 (ciência e saúde), em 21/11/2011, mostra dados em forma de gráficos “pessoas infectadas pelo HIV até o ano de 2010”, e também outro gráfico sobre “novas infecções e mortes por complicações ligadas à AIDS em 2010”. Link para visualização da matéria e dos gráficos:
    http://g1.globo.com/ciencia-e-saude/noticia/2011/11/numero-de-pessoas-com-hiv-chega-34-milhoes-no-mundo-diz-onu.html

    6. Mini-currículo de pesquisadores científicos a serem entrevistados:

    Flávia Chiva Carvalho
    Pesquisadora/Estudante
    Diretório dos Grupos de Pesquisa no Brasil – CNPQ:
    http://dgp.cnpq.br/buscaoperacional/detalheest.jsp?est=3119063906096827
    “Grupos de pesquisa que atua: Sistemas de liberação de fármacos para tratamento de doenças tropicais e emergentes – UNESP”.
    http://www.posgraduacao.fcfar.unesp.br/cienciasfarmaceuticas/Disertacoes/2008/flavia_chiva-completo.pdf

    Professora Dra. Maria Palmira Daflon Gremião
    Orientadora da Pesquisa
    (16) 3301-6961
    Plataforma Lattes:
    http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4780111A7
    “Possui graduação em Farmácia pela Universidade Federal Fluminense (1981), mestrado em Fármacos e Medicamento pela Universidade de São Paulo (1987) e doutorado em Ciências Biológicas (Bioquímica) pela Universidade de São Paulo (1995). Atualmente é professora assistente doutora da Faculdade de Ciências Farmacêuticas da Universidade Estadual Paulista (UNESP). Atua na área de pesquisa em Farmacotécnica e Tecnologia Farmacêutica, principalmente nos seguintes temas: Desenvolvimento de Sistemas de Liberação Controlada de Fármacos e Nanotecnologia Farmacêutica”.

    7. Outros personagens e fontes de informação incluídos na pauta:

    Dra. Ana Lúcia Bernardo Soares
    Especialidade: infectologista
    CRM: SP 49384

    Personagem soropositivo (nome preservado)
    Tem o vírus HIV há mais dez anos, toma em média oito tipos de medicamentos por dia que fazem parte do coquetel.

    Maristela Garmes
    Assessoria de Imprensa UNESP
    (11) 5627-0329

    8. Lista de referências utilizadas em sua pesquisa (links, obras etc.):

    Manual Merck (Edição de Saúde para a família) – Infecção pelo vírus da imunodeficiência.
    http://www.manualmerck.net/?id=213

    Dissertação mestrado – “Desenvolvimento e caracterização de sistemas nanoestruturados para potencial administração nasal de zidovudina”.
    http://www.posgraduacao.fcfar.unesp.br/cienciasfarmaceuticas/Disertacoes/2008/flavia_chiva-completo.pdf

    Definição do medicamento AZT.
    http://www.medicinanet.com.br/bula/5556/zidovudina.htm

    Os demais links e/ou obras utilizados na pesquisa constam nos tópicos acima, todos devidamente marcados e sublinhados com o link para o material utilizado e pesquisado.

    Luis Gustavo Rizzo

    27/08/2012 em 20:19

  25. Assunto:
    O efeito da Quimioterapia no organismo, Como é feito, quais as causas provocadas, se é aplicada em todos os casos de câncer, quais os medicamentos usados para o tratamento.
    Problemas envolvidos:
    A Quimioterapia é necessária para o tratamento do câncer, mas em contra partida causa muitos males ao organismo.
    Abordagem:
    Quero abordar os males que a Quimioterapia causa, o porquê causa, se existem outros tratamentos, há quanto tempo a Quimioterapia é usada, se a quimioterapia é usada em todos os casos e estágios da doenças, quais os tipos e porque são tantos.
    Algumas sugestões de perguntas:
    – Quanto tempo demora todo o tratamento?
    – Como é feita uma aplicação de quimioterapia?
    – Existem cuidados especiais para o paciente em tratamento?
    – Quais os efeitos colaterais da quimioterapia?
    – Existe outro tipo de tratamento além da quimioterapia?
    – A quimioterapia é indicada em todos os casos de câncer?

    O CÂNCER
    Câncer é um crescimento descontrolado de células de um tecido que invadem, se locomovem ou fazem a metástase e destroem, localmente e à distância, outros tecidos sãos do organismo. Em outras palavras, câncer é o termo que se emprega para definir um grupo de enfermidades com um denominador comum: a transformação da célula normal em outra que se comporta de maneira muito perigosa para o corpo humano. Também utiliza-se a palavra neoplasia mas esta , assim como a definçãotumor, pode significar uma série de afecções benignas.
    Muitas das drogas quimioterápicas trabalham prejudicando a mitose celular (veja também divisão celular), efetivamente, afetando as células de crescimento rápido. Como estas drogas causam danos celulares, elas são chamadas de citotóxicas ou citotásticas. Algumas destas drogas levam a célula à apoptose (também chamada de morte celular programada). Isto significa que outras células de divisão rápida como aquelas responsáveis pelo crescimento do cabelo e substituição do epitélio da parede do intestino são também afetadas. Entretanto, algumas drogas têm efeitos colaterais menores que outras, possibilitando ao médico ajustar o tratamento, trazendo vantagens aos pacientes.
    Como a quimioterapia afeta a divisão celular, tumores com alto grau de crescimento (como leucemia mielóide aguda e linfomas agressivos, incluindo Linfoma de Hodgkin, são mais sensíveis a este tratamento, pois apresentam uma grande proporção de células-alvos sofrendo divisão celular. Já os tumores com baixo grau de crescimento, como os linfomas indolentes, têm uma tendência a responder mais modestamente à quimioterapia.
    Drogas afetam tumores “jovens” (mais diferenciados) mais efetivamente, porque os mecanismos que regulam o crescimento celular estão mais preservados. Com a posterior geração de tumores celulares, a diferenciação é perdida, o crescimento torna-se menos regulado e os tumores tornam-se menos responsivos à maioria de agentes quimioterápicos. Perto do centro de tumores sólidos, a divisão celular cessa, tornando-os insensíveis à quimioterapia. Outro problema com os tumores sólidos é o fato dos agentes quimioterápicos geralmente não atingirem o núcleo, ou seja, o centro do tumor. Soluções para estes problemas incluem a radioterapia e a cirurgia criada por uma bauer.
    Com o tempo, a células cancerígenas tornaram-se mais resistentes ao tratamento de quimioterapia. Recentemente, cientistas identificaram pequenas bombas na área de superfície das células cancerígenas que movem ativamente a quimioterapia de dentro da célula para fora. Pesquisas com a glicoproteína-P e outras bombas efluentes de quimioterapia estão em andamento, assim como medicamentos que inibem a função da p-glycoproteína, que estão sendo testados desde junho de 2007.

    A QUIMIOTERAPIA

    A quimioterapia é o método que utiliza compostos químicos, chamados quimioterápicos, no tratamento de doenças causadas por agentes biológicos. Quando aplicada ao câncer, a quimioterapia é chamada de quimioterapia antineoplásica ou quimioterapia antiblástica.

    O primeiro quimioterápico antineoplásico foi desenvolvido a partir do gás mostarda, usado nas duas Guerras Mundiais como arma química. Após a exposição de soldados a este agente, observou-se que eles desenvolveram hipoplasia medular e linfóide, o que levou ao seu uso no tratamento dos linfomas malignos. A partir da publicação, em 1946, dos estudos clínicos feitos com o gás mostarda e das observações sobre os efeitos do ácido fólico em crianças com leucemias, verificou-se avanço crescente da quimioterapia antineoplásica. Atualmente, quimioterápicos mais ativos e menos tóxicos encontram-se disponíveis para uso na prática clínica. Os avanços verificados nas últimas décadas, na área da quimioterapia antineoplásica, têm facilitado consideravelmente a aplicação de outros tipos de tratamento de câncer e permitido maior número de curas.

    Tipos de quimioterapia
    ? Poliquimioterapia: É a associação de vários citotóxicos que atuam com diferentes mecanismos de ação, sinergicamente, com a finalidade de diminuir a dose de cada fármaco individual e aumentar a potência terapêutica de todas as substâncias juntas. Esta associação de quimioterápicos costuma ser definida segundo o tipo de fármacos que formam a associação, dose e tempo de administração, formando um esquema de quimioterapia.
    ? Quimioterapia adjuvante: É a quimioterapia que se administra geralmente depois de um tratamento principal, como por exemplo, a cirurgia, para diminuir a incidência de disseminação a distância do câncer.
    ? Quimioterapia neoadjuvante ou de indução: É a quimioterapia que se inicia antes de qualquer tratamento cirúrgico ou de radioterapia, com a finalidade de avaliar a efetividade in vivo do tratamento. A quimioterapia neoadjuvante diminui o estado tumoral, podendo melhorar os resultados da cirurgia e da radioterapia e, em alguns casos, a resposta obtida para chegar à cirurgia, é fator prognóstico.
    ? Radioquimioterapia concomitante: Também chamada quimioradioterapia, costuma ser administrada em conjunto com a radioterapia, com a finalidade de potencilizar os efeitos da radiação ou de atuar especificamente com ela, otimizando o efeito local da radiação.
    – Mecanismos de ação e classificação das drogas antineoplásicas
    Para uma pesquisa mais específica pretendo abordar os temas:
    – Tipos e finalidades da quimioterapia
    – Toxicidade dos quimioterápicos
    – Critérios para aplicação da quimioterapia
    – Resistência aos quimioterápicos
    – Principais drogas utilizadas no tratamento do câncer

    Artigos e trabalhos publicados em periódicos especializados:

    Um artigo publicado em 26/08/2009 mostra uma pesquisa feita no Brasil sobre Assistência à Saúde da Criança com Câncer na Produção Científica Brasileira
    O objetivo da pesquisa foi mapear as produções científicas brasileiras da temática de câncer em crianças.
    (http://www.inca.gov.br/rbc/n_56/v01/pdf/11_revisao_de_literatura_assistencia_saude_crianca_cancer.pdf)

    Outro artigo é sobre A eficácia da acupuntura na diminuição dos efeitos da quimioterapia
    Trabalho de pós-graduação em acupuntura de Valnice Machado Portela, Dayana Priscila Maia Meji, da Faculdade Ávila
    Este trabalho fala sobre a acupuntura clássica e mostra-se um mecanismo adicional para o tratamento das reações
    adversas, após o tratamento de quimoterapia antineoplásica em câncer de mama, diminuindo
    as náuseas e vômitos.
    (http://portalbiocursos.com.br/artigos/acupuntura/01.pdf)

    Reportagens e notícias recentes publicadas na impressa:

    Publicada pela revista Galileu em junho de 2012
    Remédio ajuda quimioterapia a combater câncer de próstata
    A matéria fala sobre a autorização do FDA (Administração Americana de Alimentos e Remédios, em inglês) para a utilização de um remédio para pacientes com câncer de próstata avançado. Essas pessoas já passaram por quimioterapia, mas o câncer continua em metástase..
    Publicado pela revisa Super Interessante em fevereiro de 2012
    A matéria fala sobre a descoberta de um tratamento que combate apenas as células cancerígenas e mantém as células sadias, essa descoberta foi feita por uma estudante chinesa de apenas 17 anos
    (http://super.abril.com.br/blogs/superblog/tag/cancer/)

    Dados estatísticos:
    O quadro abaixo mostra exemplos de efeitos tóxicos dos quimioterápicos, conforme a época em que se manifestam após a aplicação.
    Precoces*
    (de 0 a 3 dias) Imediatos
    (de 7 a 21 dias) Tardios
    (meses) Ultra-Tardios
    (meses ou anos)
    • Náuseas
    • Vômitos
    • Mal estar
    • Adinamia
    • Artralgias
    • Agitação
    • Exantemas
    • Flebites • Mielossupressão granulocitopenia plaquetopenia anemia
    • Mucosites
    • Cistite hemorrágica devida à ciclofosfamida
    • Imunossupressão
    • Potencialização dos efeitos das radiações devida à actinomicina D, à adriamicina e ao 5-fluoruracil • Miocardiopatia devida aos antracícliclos e outros
    • Hiperpigmentação e esclerodermia causadas pela bleomicina
    • Alopecia
    • Pneumonite devida à bleomicina
    • Imunossupressão
    • Neurotoxidade causada pela vincristina, pela vimblastina e pela cisplatina
    • Nefrotoxidade devida à cisplatina • Infertilidade
    • Carcinogênese
    • Mutagênese
    • Distúrbio do crescimento em crianças
    • Seqüelas no sistema nervoso central
    • Fibrose/cirrose hepática devida ao metotrexato
    * Síndrome da toxicidade precoce (Delgado 1983)

    No site do Hospital Amaral Carvalho tem um infográfico explica quais os tipos de câncer mais comuns em homens mulheres e crianças. – (http://www.accamargo.org.br/tudo-sobre-o-cancer/)

    Mini-currículo de pesquisadores científicos a serem entrevistados

    Ainda não consegui entrar em contato com os profissionais que quero entrevistar, são eles:
    O coordenador do setor de radioterapia da Santa Casa de São Carlos
    A Coordenadora da Rede Feminina de combate ao câncer de São Carlos
    Um pesquisador da USP de São Carlos

    Outros personagens e fontes de informação

    Uma jovem que teve câncer na faringe e fez quimioterapia por um tempo, perdeu cabelo e inda tem uma alimentação controlada pois seus rins e fígado ainda não se recuperaram totalmente.

    Lista de referências utilizadas

    (INCA) – http://www.inca.gov.br/conteudo_view.asp?ID=101
    (Hospital do câncer São Paulo) http://www.accamargo.org.br/
    (Drauzio Varella)http://drauziovarella.com.br/doencas-e-sintomas/quimioterapia-visao-atual/
    (Clinica São Carlos)http://www.clinicasaocarlos.com.br/esp_quimioterapia.asp
    (Santa Casa de São Carlos) – http://www.santacasasaocarlos.com.br/site-home_full
    (Rede Feminina de combate ao câncer) http://www.redefemininaesp.org.br/redes.php?pag=9&busca=
    http://super.abril.com.br/blogs/superblog/tag/cancer/)
    (http://www.accamargo.org.br/tudo-sobre-o-cancer/
    (http://portalbiocursos.com.br/artigos/acupuntura/01.pdf)
    http://www.inca.gov.br/rbc/n_56/v01/pdf/11_revisao_de_literatura_assistencia_saude_crianca_cancer.pdf)

    erica

    27/08/2012 em 20:21

  26. Pauteiro: Lucas Zampieri

    Assunto, problema envolvido e abordagem adotada:

    Assunto: O que acontece quando o veneno de cobra entra em contato com a corrente sanguínea?

    Problema envolvido:
    – reações ao veneno
    – soros e vacinas
    – estrutura do veneno / estrutura do sangue / modificação das estruturas quando ocorre o contato

    Abordagem: a idéia da matéria é mostrar o que acontece quando o veneno da cobra entra em contato com a nossa corrente sanguínea, retratar as conseqüências, as mudanças estruturais, demonstrar o que é o veneno e também como inibir e combatê-lo ,os efeitos quando ele já está em contato com o organismo humano,também quais as cobras venenosa e quais as mais perigosas.

    Conceitos e teorias científicas relacionadas ao tema:
    – Quais são as cobras venenosas?

    fonte: Revista Super interessante

    Bothrops:
    É o grupo onde se enquadram a jararaca, a urutu, a jararacuçu, a cotiara e a jararaca pintada. Essas cobras têm a cauda terminada em extremidade lisa, são responsáveis por aproximadamente 88% dos casos que de mordidas no Brasil e são encontradas nas regiões Sul e Sudeste.

    Lachesis:
    Apresenta uma única espécie brasileira que vive na Floresta Amazônica e na Mata Atlântica: a surucucu. É a maior cobra peçonhenta do Brasil, chegando a medir quatro metros de comprimento. Sua cauda termina de forma lisa, mas suas escamas são arrepiadas.

    Crotalus:
    Formado por uma espécie que é muito conhecida como cascavel, serpente que possui uma cauda terminada com um guizo, que faz o popular “barulho de cascavel”. Essa cobra responde por cerca de 8% dos casos de mordidas venenosas do Brasil.

    Micrurus
    Conhecidas melhor por corais-verdadeiras possuem cerca de trinta espécies. Quase todas possuem anéis vermelhos no corpo, geralmente alternados com anéis pretos e esbranquiçados. Seus dentes são localizados na parte anterior da boca e medem cerca de oitenta centímetros de comprimento.

    Invasão das cobras nas áreas urbanas:

    Fonte: Jornal O Globo

    Por causa do desmatamento, os moradores brasileiros que se localizam perto das matas vêm enfrentando um problema assustador: cobras. Sem alimento e sem espaço, elas têm invadido terrenos baldios e casas. A derrubada da floresta e o desequilíbrio ambiental são apontados pelo Ibama como a principal causa do problema.

    Com a perda do ambiente, do habitat da floresta, deixa de existir a presa que o animal se alimenta, que são os animais silvestres, e passam a vir para as áreas urbanas.

    Fontes (Conceitos e teorias científicas relacionadas ao tema/Artigos e trabalhos publicados em periódicos especializados/Reportagens e notícias recentes publicadas na impressa/Dados estatísticos sobre o assunto (tabelas, gráficos, quadros etc.)

    Links e publicações:
    http://www.infoescola.com/repteis/cobras-peconhentas-venenosas/

    http://brasiluniversodigital.blogspot.com.br/2012/07/o-que-acontece-quando-veneno-de-cobra.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+blogspot/lmDyN+%28Brasil+Universo+Digital%29

    http://www.invivo.fiocruz.br/cgi/cgilua.exe/sys/start.htm?infoid=1065&sid=8

    http://diariodebiologia.com/2010/06/como-e-feito-o-soro-para-picada-de-cobras/

    http://mmspf.msdonline.com.br/pacientes/manual_merck/secao_24/cap_287.html

    Revista Planeta: matéria – VENENO DE COBRA Uma toxina que pode MATAR ou CURAR

    Revista Globo Rural: matéria – Um bote a serviço da vida.

    http://hypescience.com/as-10-cobras-mais-venenosas-do-mundo/

    http://globotv.globo.com/rede-globo/globo-natureza/v/globo-natureza-cobras-venenosas/1889621/

    http://www.ibama.gov.br/

    Livros:
    Cobras – Guia Prático
    Autor: Editora Nobel
    Editora: Nobel
    Cobras
    Autor: Ciranda Cultural
    Editora: Ciranda Cultural (Infanto-Juvenil)
    Cobras e lagartos
    Autor: Barraclough, Susan
    Editora: Europa
    Serpentes da Mata Atlântica
    Autor: Eterovic, André e outros
    Editora: Holos
    Serpentes do Pantanal
    Autor: Eterovic, André e outros
    Editora: Holos
    Métodos em Toxinologia – Toxinas de serpentes
    Autor: Selistre de Araújo, Heloisa S.
    Editora: Edufscar
    Serpentes peçonhentas brasileiras
    Autor: Borges
    Editora: Atheneu
    Insetos, aranhas e serpentes
    Autor: Preston-Mafham, Ken
    Editora: Edições 70
    Conhecendo Cobras
    Autor: Frederick, Robert
    Editora: Todolivros
    As Cobras – mundo incrível
    Autor: Parsons, Alexandra
    Editora: Globo

    Mini-currículo de pesquisadores científicos a serem entrevistados:

    Fonte: Uniara

    Orivaldo Pereira Ramos é graduado em Ciências Biológicas – modalidade médica – pela Faculdade de Ciências da Saúde “Barão de Mauá” e mestre em Análises Clínicas pela Universidade Estadual Paulista – Unesp. Ministra aulas no ensino superior desde 1990. Atualmente desenvolve pesquisas na área de Bioquímica Laboratorial. É delegado do Conselho Regional de Biomedicina da 1.ª região.

    Adalberto Gonçalves Cunha é bacharel e licenciado em Ciências Biológicas pela Universidade Federal de São Carlos – UFSCar – e especialista em Educação pela mesma instituição e em Biologia Celular e Histologia Aplicadas às Ciências Biológicas e da Saúde pela Escola Paulista de Medicina – Ufesp. Atualmente desenvolve pesquisas na área ambiental: Análise das empresas da região de Araraquara e suas relações com a questão ambiental.

    Outros personagens e fontes de informação incluídos na pauta:

    Paulo Almeida – Biólogo
    Ricardo César – Farmacêutico

    Lucas Zampieri

    27/08/2012 em 20:26

  27. O assunto a ser abordado por esta reportagem científica é a relação do cérebro humano com as tecnologias incorporadas ao cotidiano. A matéria deve trazer uma discussão que aborde os problemas que envolvem o uso de dispositivos tecnológicos, como celulares e redes sociais, no nosso dia a dia, e os benefícios que a mesma tecnologia pode trazer ao ser humano.

    Estão relacionados ao tema as teorias defendidas por neurocientistas, como Nicholas Carr, que defende que estamos cada vez mais superficiais ao ficarmos dependentes da tecnologia, e por Miguel Nicolelis, que, por outro lado, defende a neuroprótese, utilizada por pessoas para controlar atividades motoras com ajuda de computadores.

    Podem servir de base para a condução da matéria os artigos relacionados dos dois estudiosos publicados em periódicos científicos.

    Is Google Making Us Stupid? What the Internet is doing to our brains, por Nicholas Carr, publicado em agosto de 2008 na The Atlantic http://www.theatlantic.com/magazine/archive/2008/07/is-google-making-us-stupid/306868/

    Projeto Andar de novo, por Miguel Nicolelis, publicada em agosto de 2012, na Scientific American, após ter sido publicado em março, na revista Brasileiros http://www.revistabrasileiros.com.br/2012/03/03/projeto-andar-de-novo/

    Matérias recentes publicadas na mídia sobre o assunto:

    Nicholas Carr: ‘Precisamos olhar criticamente a tecnologia’: http://oglobo.globo.com/blogs/prosa/posts/2012/02/11/nicholas-carr-precisamos-olhar-criticamente-tecnologia-431040.asp

    ‘Integração entre cérebro e máquinas vai influenciar evolução’: http://www.estadao.com.br/noticias/vidae,integracao-entre-cerebro-e-maquinas-vai-influenciar-evolucao,663729,0.htm

    Além disso, um bom material para pesquisa sobre o assunto são os livros dos dois autores: “Muito Além do Nosso Eu”, de Nicolelis, e “The Shallows”, de Carr.

    Para analisar o assunto e participar da discussão, uma fonte próxima e interessante é o neurocientista da Unifesp, Esper Abrão Cavalheiro. Atualmente é Professor Titular da Universidade Federal de São Paulo. Foi presidente do CNPQ e secretário de políticas e programas de ciência e tecnologia do Ministério da Ciência e Tecnologia. Ele defende a importância de se criar grupos de pesquisa em torno das tecnologias convergentes.

    Disciplina de Neurologia Experimental (UNIFESP-EPM)?Laboratório de Neurologia Experimental
    tel: 5549-2064?
    e-mail: esper.nexp@epm.br

    Felipe Turioni

    28/08/2012 em 1:43

  28. Pauteira/Repórter: Naira Paschoal
    Editoria: Ciência e Tecnologia
    Retranca: Advergames/Games interativos

    Dados conhecidos e apuração:
    Mais do que qualquer outra área do entretenimento, o mercado mundial de games cresce anualmente em média de 10% e projeta de crescimento para 73 bilhões de dólares até 2013.

    Em um cenário onde as pessoas estão saturadas por serem bombardeadas por milhares de mensagens publicitárias a cada segundo, os games na Internet estão se tornando cada vez mais comuns, a partir do surgimento dos Advergames.

    Advergame é o nome dado a estratégia de comunicação mercadológica que usa jogos, como ferramenta para divulgar e promover marcas, produtos e empresas.
    Fonte: http://www.nawebcriacaodesites.com.br/advergame.htm
    Porém precisamos ir mais a fundo e descobrir onde surgiram os advergames, ou games criativos (também assim denominados).
    Advergame (fusão das palavras inglesas Advertise = propaganda e videogame = jogo eletrônico ou simplesmente game = jogo) é o nome dado a estratégia de comunicação mercadológica (ferramenta do marketing) que usa jogos, em particular os eletrônicos, como ferramentas para divulgar e promover marcas, produtos, organizações e/ou pontos de vista.
    O termo “advergames” foi inventado em Janeiro de 2000 por Anthony Giallourakis e posteriormente mencionado pela coluna “Jargon Watch” da revista Wired em 2001. Ele foi aplicado à vários jogos livres online encomendados por empresas maiores.
    Podem ser considerados advergames desde jogos exclusivamente desenvolvidos com fins publicitários até jogos diversos que contenham mensagens publicitárias em sua interface, sem ter uma relação direta de sua estratégia de jogabilidade com seu conteúdo.
    Os advergames teoricamente promovem tráfego repetido para websites e reforçam as marcas. Os usuários que optam por registrar -se para concorrerem a prêmios pode ajudar os vendedores a coletarem dados de clientes. Os jogadores também podem convidar seus amigos para participarem, que podem auxiliar a promoção por buzz marketing ou marketing viral.
    Assim, tendo em vista principalmente a grande evolução tecnológica, o mercado começa a criar um déficit de profissionais eficientes e gabaritados para trabalhar nesta área.
    Os advergames, são principalmente conhecidos pela sua interatividade com o público, e em feiras tecnológicas e do mundo dos games, esta é a área que chama mais a atenção dos visitantes. O Brasil atualmente conta com apenas seis beta testers gabaritados e qualificados especificamente para esta área.
    Em nosso país os games interativos ficaram populares principalmente pela chegada de videogames como no Nintendo Wii e o novo play station, mas esses games, por melhores que sejam trazem riscos a saúde de seus jogadores, que muitas vezes adotam uma postura incorreta e tempos depois precisam do auxílio de fisioterapeutas para o tratamento de lesões crônicas que o uso excessivo dos games pode trazer.
    Com o desenvolvimento de novos softwares para games virtuais, online e offline, os jogos ficam cada vez mais realistas e sofisticados, podendo também trazer riscos ao psicológico de algumas pessoas, que fazem uso abusivo de games que tratam sobre realidade virtual.

    Informações sobre a tese de desenvolvimento de advergames em: http://ufpe.academia.edu/LuisVasconcelos/Papers/1131705/Prototipagem_em_Papel_como_Ferramenta_de_Desenvolvimento_de_Advergames_Sociais

    Abordagem/Enfoque:
    Um dos poucos beta testers certificados do país se encontra em Araraquara, o intuito é abordá-lo para analisar como os gráficos, softwares, mobilidade e interatividade tem modificado com o passar dos anos. Além de tudo buscar quais eram os erros mais comuns de se achar antigamente nos jogos e quais o erros mais comuns de se encontrar atualmente.
    Descobrir se a linguagem publicitária utilizada nos games atualmente tem interferido de formas concisas na atenção de jogadores assíduos ou não, e se este tipo de marketing tem realmente trazido bons resultados para as empresas que fazem uso deste recuso para o marketing de sua empresa.
    Mesmo sabendo que advergames/games interativos, podem trazer riscos a saúde, buscar com um profissional da área, como o desenvolvimento de softwares de jogos interativos podem colaborar para o tratamento fisioterapeutico de doenças como artrite ou até mesmo como pós cirúrgico.

    Fontes:
    David Ferreira- Beta tester, dono da empresa snooping interativa.
    Flávio Heleno Batista- Desenvolvedor de Software para games e plataformas interativas, formado em Ciências da Computação pela Universidade de São Paulo.
    -Fisioterapeuta que faz uso destes softwares no tratamento de seus pacientes-

    Naira Paschoal

    28/08/2012 em 15:52

Deixe uma resposta