Antes de começar os exercícios na academia, ou de comer uma fatia de bolo na festa do escritório, os diabéticos utilizam um dispositivo portátil para medir a quantidade de açúcar no sangue. Assim, podem controlar a ingestão de alimentos ou de insulina, prevenindo quedas e picos de glicose, típicos da doença. O baixo custo desses equipamentos, que permitem checar diariamente os níveis de glicose, tem beneficiado enormemente os diabéticos, principalmente se for considerado como era a vida dessas pessoas há uma década, quando a doença era considerada mais grave e havia menos controle sobre ela.
A qualidade de vida – propiciada aos diabéticos pelas tecnologias que, de modo fácil e barato, oferecem informações sobre o corpo – nos dá idéia das mudanças que estão ocorrendo na medicina: previsão, prevenção e adaptação às necessidades das pessoas, além de lhes permitir maior controle sobre a própria saúde. De fato, essas novas tecnologias já vêm alterando os rumos da medicina.
Um aspecto crítico para essas mudanças na medicina é a miniaturização de tecnologias para exames diagnósticos realizados com porções reduzidas de sangue, ou mesmo de algumas células retiradas de tecidos doentes. Essas possibilidades, construídas em escalas micro e nanométrica, podem manipular um grande número de moléculas biológicas, de forma rápida, precisa e barata. A combinação de custo e desempenho abre novas possibilidades para o estudo e o tratamento de doenças, permitindo que o corpo humano seja visto como um sistema dinâmico de interações moleculares. Medidas realizadas em diversos sistemas são, posteriormente, integradas em modelos computacionais para revelar os primeiros indícios de possíveis problemas. Quando essas informações são combinadas a novas terapias baseadas em nanotecnologia, o tratamento pode ser direcionado exclusivamente para problemas específicos, sem efeitos colaterais mais sérios.
Embora possamos prever que a medicina se apoiará completamente sobre esses princípios, a pesquisa com câncer nos oferece exemplos atuais de como a tecnologia em escala ultra-reduzida fornece os dados para uma visão ampla dos sistemas de doenças.
JEN CHRISTIANSEN, FONTE: LEROY HOOD
CÉLULAS DA PRÓSTATA contêm grupos de proteínas (pontos brancos) que interagem (linhas) entre si, formando pequenas redes; alterações nos níveis celulares de certas proteínas acompanham a mudança de saúde para doença. Nos primeiros estágios do câncer de próstata, as células mostram um aumento nos níveis de MAPK8, proteína que regula o movimento da célula. Nos estágios mais avançados, os níveis de SDC1 são 16 vezes mais altos que nos estágios iniciais. As quantidades relativas dessas duas proteínas podem fornecer indícios da presença da doença e de como ela está progredindo.
Medicina de Sistemas
A modelagem de um sistema requer grande volume de dados, e os seres vivos estão repletos de informações que poderiam ser descritas como digitais: podem ser medidas, quantificadas e programadas dentro de modelos. Essas informações biológicas começam com o código genético do corpo. Todas as células do organismo carregam uma cópia completa do genoma que é formado por três bilhões de pares de bases de DNA, as letras do alfabeto genético. Essas letras codificam cerca de 25 mil genes que representam instruções para o funcionamento de células e tecidos. No interior de cada célula, os genes são transcritos para uma forma mais fácil de ser transportada: fragmentos discretos de RNA mensageiro. Esses RNAs carregam todas as instruções necessárias para que os mecanismos celulares possam ler o RNA e, rapidamente, produzir grandes quantidades de cadeias de aminoácidos, de acordo com as instruções codificadas. Essas cadeias de aminoácidos, desdobram-se em proteínas, as máquinas moleculares tridimensionais que executam a maioria das funções vitais.
Em um sistema biológico, como o corpo humano, todos esses dados são transmitidos, processados, integrados e, finalmente, executados pelas redes de proteínas, que interagem entre si e com outras moléculas biologicamente relevantes, no interior das células. Quando todo o sistema é interpretado como uma rede de eventos inter-relacionados, as doenças podem se manifestar como conseqüência de distúrbios que modificam os padrões normais de informação dessas redes. A causa inicial poderia ser uma falha do sistema, como alterações aleatórias do DNA, que alteram uma instrução codificada, ou mesmo alguma influência ambiental externa, como a radiação ultravioleta do Sol, capaz de provocar danos ao DNA e, eventualmente, provocar melanoma. Quando uma disfunção inicial produz vibrações, os padrões de informação continuam a mudar e, assim, explicam a natureza da doença de forma mecânica.
É um desafio construir um modelo computacional preciso de uma rede biológica. A tarefa pode exigir a integração de milhões de medidas de RNA mensageiro e níveis de proteínas para capturar de forma abrangente a dinâmica da transição de sistemas saudáveis para doentes. Mas um modelo preciso, capaz de prever corretamente os efeitos de disfunções, pode ser o ponto de partida para mudanças drásticas na compreensão de doenças, condições de saúde e outros padrões interpretados pela medicina.
Nas últimas décadas, de todas as doenças, o câncer foi a mais investigada, ainda que tenha sido tradicionalmente caracterizado por aspectos comuns como tamanho e localização em determinado órgão ou tecido, além da presença ou não de metástases – migração de células cancerosas a partir de um tumor primário para outros tecidos e órgãos. Quanto mais avançado estiver o câncer, de acordo com “estágios” do diagnóstico, mais desalentador será o prognóstico para o paciente. Mas mesmo esses critérios convencionais ainda apresentam muitas contradições. Pacientes diagnosticados com cânceres idênticos, submetidos a tratamento-padrão semelhante de radioterapia e quimioterapia, freqüentemente respondem de maneira bem diferente – um grupo de pacientes pode se recuperar totalmente, enquanto outro pode não resistir.
Medidas em larga escala de concentrações de RNA mensageiro e de proteínas em tumores que sofreram biopsia revelam quanto essas abordagens mais tradicionais são inadequadas. Dois cânceres, aparentemente do mesmo tipo, mas em pacientes diferentes, apresentam sistemas de redes com perturbações bem diferentes. Com base nessas análises moleculares, muitos cânceres, anteriormente considerados diagnosticados como uma mesma doença, agora são diagnosticados como doenças diferentes.
Cerca de 80% dos tumores de próstata crescem tão lentamente que não provocam danos aos seus portadores. Os 20% restantes, entretanto, se desenvolvem rapidamente, invadindo tecidos vizinhos e se espalhando para órgãos distantes, com resultados fatais para o paciente. Nosso grupo de pesquisa está tentando identificar as redes perturbadas por doença nas células da próstata que caracterizam esses principais tipos de câncer. Assim, o médico poderá identificar, já no início, o tipo de câncer do paciente. Essas informações poderiam poupar 80% dos pacientes de cirurgias, radioterapia e quimioterapia, além de dores, incontinência urinária e impotência que acompanham esses tratamentos.
Estamos analisando redes dentro da próstata que separam em subtipos os 20% dos cânceres mais agressivos que podem exigir tratamentos distintos. Por exemplo, ao analisarmos as redes características de câncer da próstata, tanto nos primeiros estágios quanto em metástase, podemos identificar uma proteína secretada no sangue que parece ser um excelente marcador para câncer metastático. Ferramentas desse tipo, capazes de tipificar doenças como o câncer de próstata em subtipos precisos, permitem que o médico escolha as terapias mais adequadas a cada paciente.
Detectando a Doença
Embora as análises de RNAs mensageiros e de proteínas dos tecidos tumorais possam informar sobre a natureza de um câncer conhecido, a abordagem de sistemas pode também ser aplicada para distinguir entre saúde e doença. O sangue percorre todos os órgãos do corpo, transportando proteínas e outras moléculas. Por isso, permite uma excelente visão de todo o corpo. A capacidade de se detectar um desequilíbrio em determinadas proteínas ou RNAs mensageiros pode servir para sinalizar a presença de doenças e determinar sua localização e natureza.
Nosso grupo de pesquisa tem chamado a atenção para o desafio de se usar o sangue para avaliar o status de todo o sistema orgânico, comparando populações de RNA mensageiro produzidas por 50 ou mais órgãos isoladamente. Descobrimos que cada órgão tem 50 ou mais tipos de RNA mensageiro que são produzidos apenas naquele órgão. Alguns desses RNAs codificam proteínas específicas do órgão, que são secretadas na corrente sangüínea, e os níveis de cada uma dessas proteínas mostram como estão funcionando as redes que controlam sua produção no interior daquele órgão. Quando essas redes são perturbadas por doença, os níveis das proteínas correspondentes são alterados. Essas alterações permitem a identificação de uma determinada doença, já que cada uma delas afeta diferentes redes biológicas de modo característico.
Se pudermos avaliar o nível de aproximadamente 25 proteínas de cada uma dessas “impressões digitais” específicas do órgão, as análises computacionais permitirão detectar todas as doenças pela identificação das redes perturbadas, com um simples exame de sangue. Além do diagnóstico precoce – muito importante quando se trata de câncer – essa abordagem pode permitir sua tipificação em diferentes subtipos para se prever como o câncer irá progredir e responder à terapia. Provamos inicialmente esse princípio ao estudarmos a evolução da doença de príon em camundongos.
Inoculamos em camundongos proteínas de príon infectado, que causam uma doença degenerativa do cérebro, semelhante à “doença da vaca louca”. Em seguida, analisamos populações totais de RNAs mensageiros do cérebro de animais infectados e de um grupo de animais de controle, em dez estágios, na fase inicial da doença. Com esses dados, identificamos 300 RNAs mensageiros variáveis que codificavam o núcleo da proteína da doença de príon. Cerca de 200 desses RNAs pertenciam a quatro redes biológicas que explicavam praticamente todos os aspectos conhecidos da doença. Os outros 100 descreveram previamente diferentes aspectos da doença de príon até então desconhecidos. Estudos dessas redes biológicas perturbadas também permitiram a identificação de quatro proteínas do sangue que prognosticam a doença de príon antes do aparecimento de qualquer tipo de sintoma, o que poderia servir como marcador diagnóstico pré-sintomático, com óbvios benefícios para a medicina preventiva.
Esses estudos exigiram cerca de 30 milhões de medidas, e desenvolvemos uma série de programas computacionais para analisar, integrar e finalmente modelar essa enorme quantidade de dados. Desenvolver modelos preventivos de doenças e traduzi-los em ferramentas úteis para a medicina requer métodos rápidos, sensíveis e, o mais importante, baratos. Tanto para o seqüenciamento de DNA quanto para medir a concentração de proteínas e de RNA mensageiro.
Medindo Moléculas
Muitos cientistas têm observado que os avanços tecnológicos no seqüenciamento do DNA se espelharam na lei de Moore para microprocessadores: isto é, o número de elementos funcionais que podem ser colocados em um chip por custo unitário tem dobrado a cada 18 meses nas últimas décadas. De fato, as novas gerações de seqüenciadores de DNA estão aumentando a velocidade de leitura muito mais rapidamente que o previsto pela lei de Moore. O primeiro genoma humano seqüenciado demorou três ou quatro anos para ficar pronto e custou cerca de US$ 300 milhões. Acreditamos que em 10 anos uma seqüência do genoma humano individual vai custar menos de US$ 1 mil, 300 mil vezes menos, e poderá ser feito em apenas um dia. Na próxima década, avanços similares em outras tecnologias biomédicas relevantes possibilitarão o aparecimento de uma medicina previsiva e personalizada.
Atualmente, um exame para medir níveis de proteína para diagnóstico de câncer, como o antígeno específico da próstata (PSA) no sangue de um paciente, custa cerca de US$ 50. Considerando que a medicina de sistemas deverá exigir dados de um grande número de proteínas, o preço deverá cair sensivelmente. O tempo gasto para se obter essas medidas também tem seu custo. Um exame de sangue pode demorar de horas a alguns dias. Em parte devido aos vários passos necessários para separar os componentes do sangue: células, plasma, proteínas e outras moléculas a serem analisados por métodos de precisão variável.
A miniaturização extrema pode fornecer dados muito mais precisos e rápidos que as tecnologias atuais. Várias micro e nanotecnologias têm mostrado aplicabilidade como ferramentas de pesquisa na coleta de dados necessários para fornecer uma visão sistêmica da informação biológica. No atendimento a pacientes, entretanto, as demandas na medicina por uma abrangência dos sistemas exigirão que cada medida de uma proteína custe centavos – meta que provavelmente não será alcançada por muitas dessas nanotecnologias.
Dois pesquisadores da nossa equipe (Heath e Hood) desenvolveram um chip de quatro centímetros de largura que examina níveis de proteínas em uma gota de sangue, empregando uma variante altamente miniaturizada das estratégias convencionais de detecção de proteínas. Como o chip é feito somente de vidro, plástico e reagentes tem custo baixo. Nosso dispositivo recebe cerca de dois microlitros de sangue; separa as células do plasma e, em poucos minutos, mede algumas proteínas logo após a coleta de sangue. O custo projetado ao se usar a versão protótipo talvez seja de US$ 0,05 a US$ 0,10 por proteína testada, mas quando totalmente desenvolvida, essa tecnologia deverá ser capaz de satisfazer as demandas de custo da medicina de sistemas.
Ainda levará tempo para podermos estender a capacidade do chip para medir centenas de milhares de proteínas; mas os avanços nos projetos microfluídicos, na química de superfície e na ciência das medidas, estão rapidamente preenchendo a lacuna entre o que é possível hoje e o que será necessário para concretizar uma nova medicina previsiva e personalizada. Stephen R. Quake e Axel Scherer, nossos colegas do California Institute of Technology, desenvolveram um sistema microfluídico que integra diretamente válvulas e bombas em um chip. A sondagem miniaturizada, desenvolvida por eles, permite que reagentes químicos, biomoléculas e amostras biológicas sejam direcionadas precisamente em qualquer uma das inúmeras câmaras individuais do chip, sendo que cada câmara representa uma medida separada e independente. A idéia desenvolvida por eles transforma não só um laboratório em um chip, mas vários laboratórios em um único chip, o que pode reduzir ainda mais os custos.
Tecnologias extremamente miniaturizadas também têm implicações importantes em terapias e prevenção de doenças. A compreensão dos sistemas perturbados poderá, enfim, fornecer metas para novas terapias que devem permitir à dinâmica de redes recuperar sua normalidade. Em curto prazo, a visão de sistemas poderá ajudar a manipular fármacos existentes com maior eficiência, pela combinação de drogas ideais para cada paciente. Além disso, a nanotecnologia deve reduzir a quantidade de medicamentos necessários para tratar o câncer.
Pequenas, mas bem Orientadas
As nanopartículas terapêuticas são muito pequenas quando comparadas à maioria dos objetos que nos cercam; mas grandes, se comparadas a uma molécula. Como elas trabalham nessa escala diminuta, seu comportamento na corrente sangüínea pode ser controlado com precisão. As nanopartículas podem variar de um a 100 nanometros e ser incluídas em uma série de agentes terapêuticos existentes, de drogas quimioterápicas a cadeias curtas de RNA interferente (siRNA) – silenciadores de genes.
Esses dispositivos minúsculos podem ser encapsulados em materiais sintéticos como polímeros ou moléculas análogas a lipídeos; e agentes com alvos específicos, como anticorpos e outras moléculas criadas para se ligarem a proteínas celulares específicas, podem ser adicionados à superfície da partícula. Essa flexibilidade torna a nanoterapia particularmente versátil e capaz de realizar funções complexas, no local e no tempo certos, no sistema de um paciente.
Um dos maiores desafios no desenvolvimento e uso de medicamentos para combater o câncer é conseguir levá-los aos tecidos doentes sem danificar outros órgãos. O tamanho da nanopartícula lhe confere propriedades especiais que determinam seu movimento no interior e através de tumores. Nanopartículas menores que 10 nm, como certas drogas formadas por pequenas moléculas, são rapidamente eliminadas pelo rim, enquanto partículas maiores, de 100 nm, têm dificuldade de se mover pelo tumor. Partículas na faixa de 10 nm a 100 nm viajam pela corrente sangüínea à procura de tumores, embora sejam incapazes de escapar para a maioria dos tecidos sadios pelas paredes dos vasos sangüíneos. Pelo fato de tumores terem vasos sangüíneos anormais com paredes crivadas de poros grandes, as nanopartículas escapam para os tecidos que envolvem o tumor. Como resultado, tendem a se acumular nos tumores, enquanto minimizam os efeitos em outras partes do corpo, evitando os tradicionais e terríveis efeitos colaterais provocados por drogas anticâncer.
Mesmo quando um medicamento padrão consegue penetrar nas células tumorais, proteínas da bomba celular podem ejetar a droga antes que ela comece a agir, como um mecanismo natural de resistência a drogas. Nanopartículas penetram na célula por endocitose, processo natural que cria uma bolsa de membrana celular em torno de um objeto estranho, levando-o para dentro da célula, protegendo a carga de partículas das bombas celulares.
Certos tratamentos para o câncer, que agora estão sendo considerados como nanopartículas, já existem há algum tempo e ilustram algumas vantagens básicas dessas partículas para se atingir células tumorais, enquanto minimizam os efeitos nos tecidos sadios. A doxorrubicina lipossomal, por exemplo, é um composto quimioterápico tradicional, dentro de uma cápsula de lipídeo, que tem sido usado para o tratamento do câncer ovariano e do mieloma múltiplo. A versão da droga revestida por lipídio apresenta muito menos toxicidade para o coração que a doxorrubicina sem revestimento, embora um novo efeito colateral tenha sido observado, a toxicidade da pele.
Novas nanopartículas, como por exemplo a IT- 101, que já passaram pela fase I dos testes clínicos de segurança para humanos, apresentam maior complexidade que lhes confere múltiplas funções. A IT-101 é uma partícula de 30 nm, formada por polímeros unidos à pequena molécula de camptotecina, que é muito semelhante a duas drogas quimioterápicas aprovadas pelo FDA (Food and Drug Administration): irinotecan e topotecan. As partículas de IT-101 foram criadas para circular na corrente sangüínea do paciente e lá permanecer durante 40 horas ou mais, enquanto a camptotecina sozinha pode circular apenas por alguns minutos. Esse longo período de circulação é suficiente para que as nanopartículas de IT-101 penetrem o tumor e lá permaneçam. Depois, elas atingem as células tumorais e, lentamente, liberam a camptotecina, intensifi cando seu efeito. Quando a droga é liberada, outros componentes da nanopartícula – os polímeros – se separam e são eliminados pelos rins, sem causar dano.
Nos testes clínicos chegou-se a uma dosagem ideal da droga, que permitiu ótimos resultados, sem os efeitos típicos da quimioterapia, como vômito, diarréia e perda de cabelo, e sem novos efeitos colaterais. Manter uma ótima qualidade de vida durante o tratamento é animador, e embora a fase I tenha se concentrado na segurança, os testes também indicaram que a droga foi eficaz. Esses resultados são alentadores porque os testes de segurança da terapia padrão apresentaram muitos problemas para os pacientes. Após completar os seis meses de testes, diversos pacientes continuaram usando a droga em doses menores e, entre os que sobreviveram por mais de um ano, estavam pacientes que acabaram desenvolvendo estágios avançados de câncer de pulmão, pâncreas e rins.
Como os efeitos colaterais da IT-101 são reduzidos, essa droga será testada na fase II (eficácia) em mulheres diagnosticadas com câncer ovariano e que passaram por quimioterapia. Em vez de simplesmente “esperar para ver” o progresso da doença, a IT- 101 será ministrada como uma terapia de manutenção, com a expectativa de prevenir o progresso da doença. Os resultados dos testes com a IT-101 e a busca por novos resultados a partir de testes com outros tratamentos, baseados em nanopartículas estão começando a formar um cenário mais amplo sobre as possibilidades dessas novas terapias. De fato, as novas gerações de nanopartículas sintéticas, muito mais sofisticadas, nos dão uma idéia do potencial dessa tecnologia e da importância que essas drogas terão na nova forma – baseada em sistemas – de diagnóstico de doenças e seus tratamentos.
A Calando Pharmaceuticals, em Pasadena, Califórnia, começou a testar, em 2008, um sistema de liberação de siRNA inventado por um de nós (Davis) que ilustra essa nova abordagem. Proteínas na superfície das partículas se ligam a receptores específicos que ocorrem em alta concentração na superfície de células cancerosas. Dentro das células, as partículas liberam moléculas de siRNA, feitas sob medida para se combinar com um gene específico e inibir a produção da proteína codificada por ele.
Essa nanoterapia multifuncional, entretanto, é apenas o começo. Uma vez que os princípios da função da nanopartícula estejam estabelecidos, o conceito pode ser aplicado para criar conjuntos de terapias baseados na associação adequada de drogas, cada uma com suas próprias taxas de liberação. Por exemplo, se desejarmos inibir uma proteína que torna certa droga anticâncer ineficiente, uma opção será criar uma nanopartícula que libere siRNA para inibir o gene para aquela proteína e, só depois, liberar a droga no corpo do paciente. Quando compreendermos melhor a transição molecular entre a saúde e a doença, a abordagem da nanopartícula provavelmente terá papel cada vez mais importante no tratamento das doenças no âmbito molecular.
O Grande Cenário
A abordagem de sistemas baseia-se na idéia de que a análise da dinâmica de redes perturbadas por doenças e uma melhor compreensão dos mecanismos da doença podem transformar todas as práticas médicas – melhores diagnósticos, abordagens novas e mais eficazes para terapias e até para a prevenção. Essa abordagem de doenças baseada na biologia de sistemas está promovendo o desenvolvimento de novas tecnologias, incluindo microfluídicas, nanotecnologias, novos equipamentos para visualização e medição, e avanços computacionais que, juntos, poderão analisar, integrar e modelar, um grande número de informações biológicas.
Nos próximos 10 ou 20 anos, uma medicina previsível e personalizada será radicalmente transformada por, pelo menos, duas novas abordagens. A seqüência do genoma humano individual nos permitirá determinar com precisão cada vez maior o futuro da saúde de qualquer pessoa. Dados de proteínas do sangue, obtidos a baixo custo, permitirão avaliar, regularmente e de maneira abrangente, a saúde das pessoas.
A medicina preventiva começa com a identificação das proteínas de uma rede doente que, se perturbada, restaurará o comportamento normal da rede e no final levará a drogas profiláticas que previnem doenças. Por exemplo, uma mulher com alto risco de desenvolver câncer de ovário (40% de chance), que aos 30 anos começa a fazer nanoterapia especialmente desenvolvida para contrabalançar a fonte molecular de risco, pode reduzir a 2% as chances de desenvolver a doença.
Conhecendo as causas que podem levar a doenças, as pessoas poderão participar de maneira mais efetiva de decisões relacionadas à própria saúde; como os diabéticos que se valem de dispositivos eletrônicos e de informações que os auxiliam no controle do seu bem-estar cotidiano.
A compreensão de uma forma de medicina que é previsível, personalizada, preventiva e participativa, terá grandes implicações para a sociedade. A indústria farmacêutica terá de alterar fundamentalmente seus planos de negócios, que atualmente têm falhado, para fornecer drogas altamente eficazes e a custos reais. Essas tecnologias emergentes também levarão à digitalização da medicina – capacidade para extrair informações relevantes sobre doenças, a partir de uma única molécula, uma única célula ou uma única pessoa, da mesma forma como as tecnologias da informação e da comunicação vêm se digitalizando nos últimos 15 anos. Como resultado dessas novas tecnologias de alta produção e baixo custo, os gastos com a saúde deverão cair drasticamente, tornando esse tipo de medicina acessível a todos, mesmo nos países em desenvolvimento.
Para o câncer, as promessas mais animadoras para os próximos 10 anos deverão ser: primeiro, o diagnóstico pré-sintomático do sangue para identificar cânceres incipientes que podem ser tratados com terapia convencional; segundo, estratificação de tumores de tecidos específicos – de mama ou próstata – em tipos distintos, que poderão ser combatidos com medicamentos que proporcionam elevadas taxas de cura; e terceiro, a identificação de redes perturbadas por doenças permitirá o desenvolvimento mais rápido de medicamentos mais baratos e eficientes. Essa nova abordagem para a medicina tem, portanto, potencial para transformar a saúde praticamente para todo mundo.
Figura 1:
NANOPARTÍCULAS DESENVOLVIDAS para transportar cargas terapêuticas são salpicadas com proteínas que atuam como chaves para permitir sua entrada nas células tumorais.
FONTE: SCIENTIFIC AMERICAN BRASIL
quarta-feira, 11 de novembro de 2009
Microfluídica na prática
Empresas inovadoras na área de saúde estão trabalhando nos chamados “labs on a chip”, que são pequenos dispositivos baseados para diagnóstico de uma ou mais doenças, em geral com base em uma pequena amostra de sangue ou saliva.
Em áreas remotas de países em desenvolvimento, dificilmente há equipamentos e profissionais de saúde com condições adequadas para o tratamento da população. Exames periódicos então, nem pensar. Por isso, muitas fatalidades são causadas por doenças facilmente tratáveis, mas que não são diagnosticadas até que seja tarde demais. Daí o investimento de pesquisadores e empresas em tecnologia que facilite e barateie o diagnóstico de doenças comuns o mais cedo possível.
A Diagnostics for All, uma startup americana criada por pesquisadores do MIT e de Harvard, criou um chip desses com diversos aspectos interessantes:
* O chip usa microfluídica para direcionar o movimento de uma amostra de sangue para diversos pontos onde reagentes químicos específicos estão depositados para o diagnóstico de cada doença. Assim, não há a necessidade de energia para execução dos testes.
* Os diagnósticos são visuais: se uma doença é detectada, um pedaço do chip muda de cor. Assim, não é preciso equipamento nem pessoal especializado para análise da amostra de sangue. O próprio paciente pode interpretar seu exame, como naqueles kits de gravidez de farmácia.
* O chip é feito de *papel comum*, o que torna sua produção muito mais barata que a de chips feitos de materiais tradicionais, e facilita seu armazenamento e distribuição em lugares remotos.
Chip de Diagnóstico
A Diagnostics for All ganhou um prêmio de inovação de US$100 mil em 2008, numa prestigiosa competição de planos de negócios organizada pelo MIT. Ah, eles são uma organização sem fins lucrativos, e foi a primeira vez que essa c0mpetição teve um vencedor desse tipo. O chip ainda não está no mercado, mas o potencial é enorme.
Em áreas remotas de países em desenvolvimento, dificilmente há equipamentos e profissionais de saúde com condições adequadas para o tratamento da população. Exames periódicos então, nem pensar. Por isso, muitas fatalidades são causadas por doenças facilmente tratáveis, mas que não são diagnosticadas até que seja tarde demais. Daí o investimento de pesquisadores e empresas em tecnologia que facilite e barateie o diagnóstico de doenças comuns o mais cedo possível.
A Diagnostics for All, uma startup americana criada por pesquisadores do MIT e de Harvard, criou um chip desses com diversos aspectos interessantes:
* O chip usa microfluídica para direcionar o movimento de uma amostra de sangue para diversos pontos onde reagentes químicos específicos estão depositados para o diagnóstico de cada doença. Assim, não há a necessidade de energia para execução dos testes.
* Os diagnósticos são visuais: se uma doença é detectada, um pedaço do chip muda de cor. Assim, não é preciso equipamento nem pessoal especializado para análise da amostra de sangue. O próprio paciente pode interpretar seu exame, como naqueles kits de gravidez de farmácia.
* O chip é feito de *papel comum*, o que torna sua produção muito mais barata que a de chips feitos de materiais tradicionais, e facilita seu armazenamento e distribuição em lugares remotos.
Chip de Diagnóstico
A Diagnostics for All ganhou um prêmio de inovação de US$100 mil em 2008, numa prestigiosa competição de planos de negócios organizada pelo MIT. Ah, eles são uma organização sem fins lucrativos, e foi a primeira vez que essa c0mpetição teve um vencedor desse tipo. O chip ainda não está no mercado, mas o potencial é enorme.
sábado, 7 de novembro de 2009
LOCALIZANDO A ATIVIDADE CEREBRAL VIA MAGNETOENCEFALOGRAFIA
O estudo das relações entre o campo magnético e os seres vivos é dividido, metodologicamente, em duas áreas: a magnetobiologia e o biomagnetismo (1). A primeira trata dos possíveis efeitos produzidos por esse campo sobre os seres vivos. O biomagnetismo, por sua vez, ocupa-se das medidas diretas de campos magnéticos gerados pelos próprios seres vivos para, então, encontrar novas informações que possam ser úteis ao entendimento de sistemas biofísicos, desde diagnósticos clínicos até a terapia. Por necessitar de instrumental altamente sensível, desenvolvido somente na década de 1970, o biomagnetismo é relativamente novo quando comparado a outras áreas interdisciplinares que envolvem a física.
Dentre os principais campos de pesquisa, podemos destacar o neuromagnetismo, o cardiomagnetismo, o gastromagnetismo, a biosusceptibilidade magnética e o pneumomagnetismo (2).
Neste artigo, estamos interessados na descrição da magnetoencefalografia (MEG) que, conforme o próprio nome indica, refere-se ao estudo dos campos magnéticos produzidos pelo cérebro. Esses campos aparecem devido à atividade elétrica neuronal, que é caracterizada pela passagem de corrente elétrica ao longo da estrutura dos neurônios, em resposta ao gradiente de concentração de diferentes eletrólitos através da membrana de uma célula nervosa. Essa corrente elétrica altera as concentrações de certos íons, fazendo surgir um potencial de ação que se propaga ao longo da célula nervosa e que, por sua vez, faz aparecer um campo magnético de intensidade e sentido bem definidos.
Semelhante ao eletroencefalograma (EEG), primeiramente registrado em 1929, pelo psiquiatra alemão Hans Berger (1873-1941), a magnetoencefalografia (MEG) mede, de maneira não-invasiva, a propagação de um estímulo nervoso no cérebro. No entanto, os sinais magnéticos associados a essa corrente são tênues, bem menos intensos que seus equivalentes elétricos, estando na faixa de nT (10-9T) a fT (10-15T), o que corresponde a aproximadamente um bilionésimo do campo magnético da Terra, que é de 20 mT em nossa região.
Além do campo magnético terrestre, existem outras fontes de campos magnéticos provenientes de ruído urbano, denominadas de "ruídos magnéticos ambientais", que dificultam as medidas biomagnéticas. Dentre as várias fontes, as mais comuns e mais intensas são: as redes elétricas, as antenas de comunicação, e os deslocamentos de grandes massas magnéticas como carros e elevadores.
Em razão dessa série de complicadores, o surgimento da MEG só aconteceu 40 anos depois dos primeiros traçados eletroencefalográficos, ou seja, no final da década de 1960. Em um estudo pioneiro, David Cohen (3), então coordenador do Francis Bitter Magnetic Laboratory, integrado ao Massachusetts Institute of Technology (MIT), mediu a atividade magnética cerebral utilizando indutores magnéticos alojados em uma câmara magneticamente blindada.
Um ano mais tarde, James Zimmerman (4) apresentou, pela primeira vez, detectores de fluxo magnético altamente sensíveis, mediante a utilização de materiais supercondutores, conhecidos como Superconducting Quantum Interference Devices (SQUIDs), e registrou a atividade cardíaca de seres humanos. Em 1972, o próprio doutor Cohen registrou, com a tecnologia dos SQUIDs, a atividade espontânea alfa cerebral em humanos (5).
Desde então, a MEG vem sofrendo avanços constantes na detecção de sinais cerebrais, com o desenvolvimento de novas tecnologias que possibilitaram a construção de sistemas altamente eficientes. Além disso, a modelagem das fontes de corrente, com algoritmos robustos, permite à MEG aliar a alta resolução espacial da ressonância magnética à excelente resolução temporal da eletroencefalografia, inferior a 10 ms.
A utilização da MEG também passa pela necessidade clínica, em especial de pacientes que serão submetidos à intervenção cirúrgica. Nesses casos, o mapeamento pré-cirúrgico de regiões corticais eloqüentes, como áreas motoras, somato-sensoriais e de linguagem, é imperativo. É indispensável buscar manter a integridade funcional de regiões subjacentes e adjacentes àquelas que serão cirurgicamente removidas.
Além do mapeamento pré-cirúrgico, a MEG tem se destacado na investigação de processos cerebrais complexos. Como exemplo dessa aplicação, foi investigado, em um trabalho recente, o envolvimento de padrões oscilatórios cerebrais em tarefas de navegação em seres humanos assintomáticos. Para estudar esse problema, uma cidade em realidade virtual foi criada, por meio de um programa comercial, Duke Nuken 3D (3D Realms, Inc.). Usando um mouse para navegar, medimos os padrões de oscilação neuronal espontânea que estivessem relacionados à atividade cognitiva de navegação. Como conclusão, acreditamos que os ritmos do tipo teta, cuja freqüência está entre 4-7 Hz, têm um papel fundamental no ato de mover-se por entre ambientes familiares ou não (6).
Dentre os principais campos de pesquisa, podemos destacar o neuromagnetismo, o cardiomagnetismo, o gastromagnetismo, a biosusceptibilidade magnética e o pneumomagnetismo (2).
Neste artigo, estamos interessados na descrição da magnetoencefalografia (MEG) que, conforme o próprio nome indica, refere-se ao estudo dos campos magnéticos produzidos pelo cérebro. Esses campos aparecem devido à atividade elétrica neuronal, que é caracterizada pela passagem de corrente elétrica ao longo da estrutura dos neurônios, em resposta ao gradiente de concentração de diferentes eletrólitos através da membrana de uma célula nervosa. Essa corrente elétrica altera as concentrações de certos íons, fazendo surgir um potencial de ação que se propaga ao longo da célula nervosa e que, por sua vez, faz aparecer um campo magnético de intensidade e sentido bem definidos.
Semelhante ao eletroencefalograma (EEG), primeiramente registrado em 1929, pelo psiquiatra alemão Hans Berger (1873-1941), a magnetoencefalografia (MEG) mede, de maneira não-invasiva, a propagação de um estímulo nervoso no cérebro. No entanto, os sinais magnéticos associados a essa corrente são tênues, bem menos intensos que seus equivalentes elétricos, estando na faixa de nT (10-9T) a fT (10-15T), o que corresponde a aproximadamente um bilionésimo do campo magnético da Terra, que é de 20 mT em nossa região.
Além do campo magnético terrestre, existem outras fontes de campos magnéticos provenientes de ruído urbano, denominadas de "ruídos magnéticos ambientais", que dificultam as medidas biomagnéticas. Dentre as várias fontes, as mais comuns e mais intensas são: as redes elétricas, as antenas de comunicação, e os deslocamentos de grandes massas magnéticas como carros e elevadores.
Em razão dessa série de complicadores, o surgimento da MEG só aconteceu 40 anos depois dos primeiros traçados eletroencefalográficos, ou seja, no final da década de 1960. Em um estudo pioneiro, David Cohen (3), então coordenador do Francis Bitter Magnetic Laboratory, integrado ao Massachusetts Institute of Technology (MIT), mediu a atividade magnética cerebral utilizando indutores magnéticos alojados em uma câmara magneticamente blindada.
Um ano mais tarde, James Zimmerman (4) apresentou, pela primeira vez, detectores de fluxo magnético altamente sensíveis, mediante a utilização de materiais supercondutores, conhecidos como Superconducting Quantum Interference Devices (SQUIDs), e registrou a atividade cardíaca de seres humanos. Em 1972, o próprio doutor Cohen registrou, com a tecnologia dos SQUIDs, a atividade espontânea alfa cerebral em humanos (5).
Desde então, a MEG vem sofrendo avanços constantes na detecção de sinais cerebrais, com o desenvolvimento de novas tecnologias que possibilitaram a construção de sistemas altamente eficientes. Além disso, a modelagem das fontes de corrente, com algoritmos robustos, permite à MEG aliar a alta resolução espacial da ressonância magnética à excelente resolução temporal da eletroencefalografia, inferior a 10 ms.
A utilização da MEG também passa pela necessidade clínica, em especial de pacientes que serão submetidos à intervenção cirúrgica. Nesses casos, o mapeamento pré-cirúrgico de regiões corticais eloqüentes, como áreas motoras, somato-sensoriais e de linguagem, é imperativo. É indispensável buscar manter a integridade funcional de regiões subjacentes e adjacentes àquelas que serão cirurgicamente removidas.
Além do mapeamento pré-cirúrgico, a MEG tem se destacado na investigação de processos cerebrais complexos. Como exemplo dessa aplicação, foi investigado, em um trabalho recente, o envolvimento de padrões oscilatórios cerebrais em tarefas de navegação em seres humanos assintomáticos. Para estudar esse problema, uma cidade em realidade virtual foi criada, por meio de um programa comercial, Duke Nuken 3D (3D Realms, Inc.). Usando um mouse para navegar, medimos os padrões de oscilação neuronal espontânea que estivessem relacionados à atividade cognitiva de navegação. Como conclusão, acreditamos que os ritmos do tipo teta, cuja freqüência está entre 4-7 Hz, têm um papel fundamental no ato de mover-se por entre ambientes familiares ou não (6).
Cérebro masculino vê mulher de biquíni como objeto, aponta estudo Publicidade
Cérebro masculino vê mulher de biquíni como objeto, aponta estudo
Publicidade
EDUARDO GERAQUE
enviado especial da Folha de S.Paulo a Chicago
Os homens podem não dizer isso explicitamente, mas há ocasiões em que todos tendem a pensar nas mulheres como objetos --principalmente quando elas estão de biquíni e não mostram o rosto. É isso o que acaba de mostrar um experimento realizado nos Estados Unidos com 21 homens heterossexuais estudantes de pós-graduação, apresentado em Chicago, na reunião anual da AAAS (Sociedade Americana para o Avanço da Ciência).
Talvez seja esse o efeito que explica sucesso que dançarinas mascaradas --como as personagens Tiazinha e Feiticeira-- costumam ter na televisão brasileira. O experimento usou máquinas de ressonância magnética para mostrar que os circuitos cerebrais ativados nos homens durante a observação de um corpo feminino sensual desprovido de identidade são os mesmos que os permitem de reconhecer uma ferramenta, um objeto inanimado.
SXC
Pesquisadores usaram máquinas de ressonância magnética para medir atividade cerebral
Pesquisadores usaram máquinas de ressonância magnética para medir atividade cerebral
"Tecnicamente, podemos usar uma espécie de eufemismo neurológico e dizer que o homem não tem essa atitude de uma forma premeditada. É algo que ele não racionaliza", afirma Susan Fiske, professora de Psicologia da Universidade de Princeton, uma das mentoras do experimento. Ela mostrou que o córtex pré-motor dos homens --uma das partes do cérebro mais envolvidas no reconhecimento-- foi a área cerebral mais ativada nos voluntários que observavam fotografias de um colo feminino.
Essa parte do cérebro também é acionada quando é feita uma interpretação mecânica de uma imagem -em oposição a interpretações sociais.
Questionada pela Folha sobre o possível viés cultural que o estudo possa ter --só americanos participaram do experimento-- Fiske disse não crer que o resultado mudaria se o experimento fosse feito em países, como o Brasil, onde mulheres de biquíni são comuns.
Fiske selecionou seus voluntários após aplicar um questionário a todos. Eles também precisaram passar por análises neurológicas. Só então os participantes puderam ser submetidos ao teste dentro de uma máquina de ressonância magnética funcional, que registra as atividades cerebrais.
Praia ou escritório
No total do teste, cada participante ficou diante de 160 imagens. Elas eram de mulheres e de homens. Nos dois casos, foram apresentadas durante o experimento fotos com roupas de trabalho e também em trajes de banho.
Imagens de rostos humanos, para medir a capacidade de reconhecimento de cada participante do teste, também foram exibidas.
Basicamente, a intenção era medir o grau de bem-estar dos voluntários após terem visto imagens de mulheres e de homens, tanto com o corpo exposto quanto coberto com roupas de trabalho. As imagens não eram pornográficas nem eróticas, disse Fiske. Os registros foram tabulados por meio de análises estatísticas de uso corrente por psicólogos.
De acordo com a pesquisadora americana, os seus resultados apresentados agora têm algumas implicações práticas. "Um dos desdobramentos pode ser o fato de que um patrão, por exemplo, pode beneficiar certas companheiras de trabalho em detrimento dos demais funcionários da empresa, dependendo de como ele idealiza aquele corpo", diz a psicóloga.
Susan Fiske afirma que seus resultados também indicam que atitudes machistas de intimidação estão relacionadas com uma menor ativação de uma área do cérebro estudada por ela e envolvida na racionalização do pensamento, o córtex pré-frontal médio. "O sexismo hostil prediz uma menor ativação do córtex pré-frontal médio", afirma a pesquisadora.
Publicidade
EDUARDO GERAQUE
enviado especial da Folha de S.Paulo a Chicago
Os homens podem não dizer isso explicitamente, mas há ocasiões em que todos tendem a pensar nas mulheres como objetos --principalmente quando elas estão de biquíni e não mostram o rosto. É isso o que acaba de mostrar um experimento realizado nos Estados Unidos com 21 homens heterossexuais estudantes de pós-graduação, apresentado em Chicago, na reunião anual da AAAS (Sociedade Americana para o Avanço da Ciência).
Talvez seja esse o efeito que explica sucesso que dançarinas mascaradas --como as personagens Tiazinha e Feiticeira-- costumam ter na televisão brasileira. O experimento usou máquinas de ressonância magnética para mostrar que os circuitos cerebrais ativados nos homens durante a observação de um corpo feminino sensual desprovido de identidade são os mesmos que os permitem de reconhecer uma ferramenta, um objeto inanimado.
SXC
Pesquisadores usaram máquinas de ressonância magnética para medir atividade cerebral
Pesquisadores usaram máquinas de ressonância magnética para medir atividade cerebral
"Tecnicamente, podemos usar uma espécie de eufemismo neurológico e dizer que o homem não tem essa atitude de uma forma premeditada. É algo que ele não racionaliza", afirma Susan Fiske, professora de Psicologia da Universidade de Princeton, uma das mentoras do experimento. Ela mostrou que o córtex pré-motor dos homens --uma das partes do cérebro mais envolvidas no reconhecimento-- foi a área cerebral mais ativada nos voluntários que observavam fotografias de um colo feminino.
Essa parte do cérebro também é acionada quando é feita uma interpretação mecânica de uma imagem -em oposição a interpretações sociais.
Questionada pela Folha sobre o possível viés cultural que o estudo possa ter --só americanos participaram do experimento-- Fiske disse não crer que o resultado mudaria se o experimento fosse feito em países, como o Brasil, onde mulheres de biquíni são comuns.
Fiske selecionou seus voluntários após aplicar um questionário a todos. Eles também precisaram passar por análises neurológicas. Só então os participantes puderam ser submetidos ao teste dentro de uma máquina de ressonância magnética funcional, que registra as atividades cerebrais.
Praia ou escritório
No total do teste, cada participante ficou diante de 160 imagens. Elas eram de mulheres e de homens. Nos dois casos, foram apresentadas durante o experimento fotos com roupas de trabalho e também em trajes de banho.
Imagens de rostos humanos, para medir a capacidade de reconhecimento de cada participante do teste, também foram exibidas.
Basicamente, a intenção era medir o grau de bem-estar dos voluntários após terem visto imagens de mulheres e de homens, tanto com o corpo exposto quanto coberto com roupas de trabalho. As imagens não eram pornográficas nem eróticas, disse Fiske. Os registros foram tabulados por meio de análises estatísticas de uso corrente por psicólogos.
De acordo com a pesquisadora americana, os seus resultados apresentados agora têm algumas implicações práticas. "Um dos desdobramentos pode ser o fato de que um patrão, por exemplo, pode beneficiar certas companheiras de trabalho em detrimento dos demais funcionários da empresa, dependendo de como ele idealiza aquele corpo", diz a psicóloga.
Susan Fiske afirma que seus resultados também indicam que atitudes machistas de intimidação estão relacionadas com uma menor ativação de uma área do cérebro estudada por ela e envolvida na racionalização do pensamento, o córtex pré-frontal médio. "O sexismo hostil prediz uma menor ativação do córtex pré-frontal médio", afirma a pesquisadora.
Engenharia Acústica
ACÚSTICA
A ACÚSTICA é a ciência que estuda a produção, transmissão e efeitos do som. É conhecida mundialmente como a ciência-arte, pois os conceitos físicos e os modelos matemáticos são tão complexos que ainda não se dispõe de recursos para predizer, com segurança, os meios de sua produção, transmissão e seus efeitos sobre as estruturas. Assim, nesse assunto, é a experimentação, a observação, o bom senso e a vivência diária que muitas vezes prevalece sobre a técnica. Cada caso deve ser analisado individualmente, com critérios bem definidos.
A acústica musical, que diz respeito a invenção e construção de instrumentos musicais, é considerada como arte pura. Evidentemente não estamos nos referindo a aparelhos eletrônicos, mas sim aqueles que são construídos para percussão, corda ou sopro. Antônio Stradivari (1644-1737), que ficou conhecido como "Stradivarius", fabricante de violinos italiano, o mais famoso de um grupo de notáveis artesãos de Cremona, introduziu constantes inovações nos seus instrumentos, ganhando celebridade mundial pela qualidade acústica que seus instrumentos apresentavam. Construiu mais de 1000 violinos, dos quais restam uns 400.
A Acústica Arquitetônica trata da construção de salas e edifícios de acordo com certos princípios acústicos que propiciam o controle da reverberação (efeito das múltiplas reflexões das ondas sonoras). Isto é particularmente importante em cinemas, estúdios e auditórios, onde todos devem ouvir o orador, ou executantes, claramente e sem ecos, de modo a permitir a intelegibilidade do assunto tratado. Quando a performance de um espetáculo se dá ao ar livre, pela utilização de conchas acústicas, a importância dos conhecimentos arquitetônicos devem ser dirigidos para a reflexão do som, de modo a atender ao objetivo esperado.
A Engenharia Acústica é aquela que particularmente interessa a todos os tipos de industria, pois trata da medição, avaliação, especificação e controle do som, para eliminar ou minimizar os efeitos nocivos do ruído a saúde dos animais (em particular do homem) e a estabilidade de estruturas. Trata também dos modelos dos sistemas sonoros e seus componentes, tais como microfones, fones de ouvido e alto-falantes, estruturas ressonantes e amortecedoras (silenciadoras), e interessa muito às comunicações.
O RUÍDO (sensação psicológica do som, considerado indesejável ou inadequado) é considerado nocivo à saúde; pois está comprovado que perturba o ritmo biológico normal do indivíduo. As pessoas expostas a certos tipos de ruído acabam adquirindo diversas anomalias, entre as quais: a perda auditiva, o stress, a impotência sexual, a irritabilidade, a perda do poder de concentração e da criatividade , levando as pessoas a cometer erros, com riscos potenciais de acidentes e prejuízos à produção.
A parte da física que estuda o som, denominada ACÚSTICA, vem se aprimorando em dois tópicos básicos: o ISOLAMENTO acústico e a ABSORÇÃO acústica. Embora para o leigo possam parecer a mesma coisa, há, tecnicamente, diferenças fundamentais.
A ACÚSTICA é a ciência que estuda a produção, transmissão e efeitos do som. É conhecida mundialmente como a ciência-arte, pois os conceitos físicos e os modelos matemáticos são tão complexos que ainda não se dispõe de recursos para predizer, com segurança, os meios de sua produção, transmissão e seus efeitos sobre as estruturas. Assim, nesse assunto, é a experimentação, a observação, o bom senso e a vivência diária que muitas vezes prevalece sobre a técnica. Cada caso deve ser analisado individualmente, com critérios bem definidos.
A acústica musical, que diz respeito a invenção e construção de instrumentos musicais, é considerada como arte pura. Evidentemente não estamos nos referindo a aparelhos eletrônicos, mas sim aqueles que são construídos para percussão, corda ou sopro. Antônio Stradivari (1644-1737), que ficou conhecido como "Stradivarius", fabricante de violinos italiano, o mais famoso de um grupo de notáveis artesãos de Cremona, introduziu constantes inovações nos seus instrumentos, ganhando celebridade mundial pela qualidade acústica que seus instrumentos apresentavam. Construiu mais de 1000 violinos, dos quais restam uns 400.
A Acústica Arquitetônica trata da construção de salas e edifícios de acordo com certos princípios acústicos que propiciam o controle da reverberação (efeito das múltiplas reflexões das ondas sonoras). Isto é particularmente importante em cinemas, estúdios e auditórios, onde todos devem ouvir o orador, ou executantes, claramente e sem ecos, de modo a permitir a intelegibilidade do assunto tratado. Quando a performance de um espetáculo se dá ao ar livre, pela utilização de conchas acústicas, a importância dos conhecimentos arquitetônicos devem ser dirigidos para a reflexão do som, de modo a atender ao objetivo esperado.
A Engenharia Acústica é aquela que particularmente interessa a todos os tipos de industria, pois trata da medição, avaliação, especificação e controle do som, para eliminar ou minimizar os efeitos nocivos do ruído a saúde dos animais (em particular do homem) e a estabilidade de estruturas. Trata também dos modelos dos sistemas sonoros e seus componentes, tais como microfones, fones de ouvido e alto-falantes, estruturas ressonantes e amortecedoras (silenciadoras), e interessa muito às comunicações.
O RUÍDO (sensação psicológica do som, considerado indesejável ou inadequado) é considerado nocivo à saúde; pois está comprovado que perturba o ritmo biológico normal do indivíduo. As pessoas expostas a certos tipos de ruído acabam adquirindo diversas anomalias, entre as quais: a perda auditiva, o stress, a impotência sexual, a irritabilidade, a perda do poder de concentração e da criatividade , levando as pessoas a cometer erros, com riscos potenciais de acidentes e prejuízos à produção.
A parte da física que estuda o som, denominada ACÚSTICA, vem se aprimorando em dois tópicos básicos: o ISOLAMENTO acústico e a ABSORÇÃO acústica. Embora para o leigo possam parecer a mesma coisa, há, tecnicamente, diferenças fundamentais.
Assinar:
Postagens (Atom)