Sabemos que, infelizmente, nenhuma máquina é cem por cento eficiente no quesito calor. Sempre há uma dissipação que reduz sua eficiência. Nos Estados Unidos, estima-se que até dois terços da energia consumida seja desperdiçada na forma de calor. Pensando nisso, alguns engenheiros desenvolveram um chip que converte calor remanescente em energia utilizável.

Os exemplos mais comuns de dissipação de calor que nos cercam são vários: aparelhos celulares, computadores, geladeiras, motores de automóveis, etc. A possibilidade de usar esse calor gerado para transformá-lo em mais energia é incrível. Continue lendo este artigo do Engenharia 360 para saber mais!

Como funciona o chip que converte calor dissipado em energia?

O responsável pela pesquisa do chip é Mathieu Francoeur, professor associado de Engenharia Mecânica da Universidade de Utah. Ele criou uma forma de produzir mais energia a partir de calor dissipado usando um chip de silício.

chip que converte calor
Imagem reproduzida de phys.org

Tal chip é um dispositivo que converte radiação térmica em energia. Antes, os pesquisadores já haviam descoberto que existe um limite teórico para quanta energia pode ser produzida por radiação térmica (calor). Porém, a equipe de Francoeur mostrou que eles são capazes de ir; além disso, se usarem um dispositivo com duas superfícies de silício muito próximas, em uma nanoescala.

A saber, o chip possui aproximadamente 5 mm por 5 mm. Nele, as placas de silício são separadas por um espaço de 100 nanômetros de espessura (um milésimo de um fio de cabelo humano). Quanto mais próximas, mais eletricidade podem gerar.

chip que converte calor
Imagem reproduzida de nano-magazine.com
chip que converte calor
Imagem reproduzida de nano-magazine.com

Veja Também: Revolução dos chips de IA, a nova fronteira da tecnologia

Aplicações futuras e benefícios

A esperança é de que, no futuro, essa tecnologia possa ser usada não só para resfriar dispositivos portáteis (um grande problema atual que contribui para danos na bateria do aparelho) como também para canalizar esse calor para a maior duração da bateria. Por exemplo, um notebook com bateria que dura cerca de 6 horas poderia atingir 9 horas de duração.

Outro benefício é o fato de melhorar a vida útil de processadores de computador, reduzindo o desgaste. Consequentemente, o dispositivo contribui para maior sustentabilidade e o meio ambiente agradece.


Fontes: Phys.org.

Imagens: Todos os Créditos reservados aos respectivos proprietários (sem direitos autorais pretendidos). Caso eventualmente você se considere titular de direitos sobre algumas das imagens em questão, por favor entre em contato com contato@engenharia360.com para que possa ser atribuído o respectivo crédito ou providenciada a sua remoção, conforme o caso.

Comentários

Engenharia 360

Larissa Fereguetti

Cientista e Engenheira de Saúde Pública, com mestrado, também doutorado em Modelagem Matemática e Computacional; com conhecimento em Sistemas Complexos, Redes e Epidemiologia; fascinada por tecnologia.

A rede 5G é poderosa e gera grandes expectativas sobre a internet atual. Para melhorar ainda mais, alguns engenheiros eletricistas da Universidade da Califórnia desenvolveram um transceptor que pode elevar o potencial do 5G.

O que o transceptor faz é aumentar as frequências de rádio para 100 gigahertz. O apetrecho foi denominado “transmissor-receptor” de ponta a pota. Ele consiste em um chip de silício de 4,4 milímetros quadrados e pode processar sinais digitais de forma rápida e eficiente no quesito de energia e arquitetura analógica.

transceptor sem fio | 5G
Imagem: olhardigital.com.br

O chip é chamado de “além de 5G” porque a taxa combinada de velocidade de dados que eles conseguiram atingir é duas ordens de magnitude maior que a capacidade do 5G. Além disso, ele opera em uma frequência mais alta, o que significa que é possível receber uma parcela maior da largura de banda oferecida pelas operadoras.

E o 6G?

No padrão 6G, espera-se que o funcionamento seja da 100 gigahertz. O transceptor desenvolvido é o primeiro a fornecer recursos de ponta nessa parte do espectro.

Nesse sentido, ter transmissores e receptores capazes de lidar com essas comunicações de dados de alta frequência será vital para inaugurar era sem fio dominada pela internet das coisas, veículos autônomos, banda larga amplamente expandida para streaming de conteúdo de vídeo de alta definição e mais.

transceptor sem fio
Imagem: techxplore.com

Para contornar problemas de limitações do processamento digital feito atualmente, os pesquisadores usaram uma arquitetura que modulou os bits digitais nos domínios analógico e de radiofrequência. Esse layout novo permite não só transmitir sinais na faixa de 100 gigahertz, como também permite consumir menos energia do que os sistemas atuais. Isso abre caminho para seu uso no mercado de eletrônicos.

De modo geral, a pesquisa abre portas para as tecnologias do futuro que dependem do 6G para funcionar. Espera-se que ela esteja no mercado em breve.


Fontes: Texchxplore.

Comentários

Engenharia 360

Larissa Fereguetti

Cientista e Engenheira de Saúde Pública, com mestrado, também doutorado em Modelagem Matemática e Computacional; com conhecimento em Sistemas Complexos, Redes e Epidemiologia; fascinada por tecnologia.

Você sabe de onde vem a água que abastece sua cidade? Muitas vezes, achamos que a exploração de poços só acontece em áreas rurais ou afastadas, mas a água subterrânea pode incluir uma parcela considerável do abastecimento urbano, além de ser insumo na agroindústria, por exemplo.

água subterrânea
Imagem: stanforddaily.com

Desafios na estimativa do impacto:

A exploração de poços, contudo, afeta diretamente o ciclo da água, podendo interferir na disponibilidade da água superficial, isto é, de rios e lagos, e também no regime de chuvas. Isso faz muito sentido quando vemos imagens clássicas do ciclo da água, mas contabilizar uma proporção direta é uma tarefa complexa.

Resultados das simulações:

O estudo abordou essa lacuna avaliando o impacto de 100 anos de declínio de águas subterrâneas nos Estados Unidos continentais sobre o comportamento de bacias hidrográficas simuladas. As perdas de armazenamento em subsuperfície reverberou em todos os sistemas hidrológicos, diminuindo o fluxo superficial e a evapotranspiração. Os declínios de evapotranspiração são focados em períodos limitados pela água e regiões de águas subterrâneas rasas. As perdas em vazão de rios, por sua vez, são generalizadas e se intensificam ao longo das redes de drenagem, muitas vezes ocorrendo longe do ponto de captação de água subterrânea. A abordagem integrada do trabalho ilustrou a sensibilidade das simulações da superfície terrestre aos níveis de armazenamento de água subterrânea e um caminho para avaliar essas conexões em modelos de larga escala.

poços
Imagem: advances.sciencemag.org

Mas quanto?

Trazendo um resumo dos números: o bombeamento de águas subterrâneas no século passado contribuiu com até 50% no declínio da vazão em alguns rios dos EUA. A pesquisa foi liderada por Laura Condon, do departamento de Hidrologia e Ciências Atmosféricas da Universidade do Arizona e o co-autor Reed Maxwell, de Geologia e Engenharia Geológica da Escola de Minas do Colorado.

Bombeamento de água subterrânea interfere na vazão de rios: veja efeitos nos EUA
Imagem: advances.sciencemag.org

Os cientistas concentraram-se particularmente nas bacias dos rios Colorado e Mississippi e analisaram exclusivamente os efeitos do bombeamento de água subterrânea passado, porque essas perdas já ocorreram. O Serviço Geológico dos EUA calculou a perda de água subterrânea ao longo do século XX como 800 km³, ou 649 milhões de acres. Essa quantidade de água é o equivalente a cobrir os estados de Montana, Idaho, Wyoming, Nevada, Utah, Colorado, Arizona e Novo México, além da maior parte da Califórnia, com água a aproximadamente 30 cm de profundidade.

O efeito do bombeamento exacerbado:

Essa comparação indica que, porque todo esse volume de água foi retirado do subsolo, a hidrologia da superfície terrestre também é afetada, principalmente secando pequenos córregos alimentados pela recarga subterrânea. Tudo isso reflete em efeitos na vegetação e microclima. É também alarmante, visto que a água subterrânea é frequentemente o componente mais lento do sistema hidrológico terrestre para se recuperar de perdas.

Bombeamento de água subterrânea interfere na vazão de rios: veja efeitos nos EUA
Imagem: advances.sciencemag.org

Fonte: Science Advances.

Comentários

Engenharia 360

Kamila Jessie

Doutora em Hidráulica e Saneamento pela Universidade de São Paulo (EESC/USP) e Mestre em Ciências pela mesma instituição; é formada em Engenharia Ambiental e Sanitária pelo Centro Federal de Educação Tecnológica de Minas Gerais (CEFET-MG) com período sanduíche na University of Ottawa, no Canadá; possui experiência em tratamentos físico-químicos de água e efluentes; atualmente, integra o Centro de Pesquisa em Óptica e Fotônica (CePOF) do Instituto de Física de São Carlos (USP), onde realiza estágio pós-doutoral no Biophotonics Lab.

Não é de hoje que nós vemos tecnologias modernas de scanners de olhos na ficção científica. Claro que muitas já estão presentes em nosso cotidiano, como o desbloqueio do celular pela face/olhos. Porém, a mais recente delas, chamada DeepEyedentification, vai mais além e faz a identificação com base no movimento que os olhos fazem.

A ideia foi baseada no fato de que alguns estudos sugerem que os movimentos dos olhos variam de indivíduo para indivíduo (quase como uma impressão digital). Isso significa que as pessoas têm diferentes padrões na forma de movimentar os olhos e isso pode ser usado para realizar a identificação.

DeepEyedentification
Imagem: medium.com

Os responsáveis pela tecnologia são pesquisadores da Universidade de Potsdam, na Alemanha. Para desenvolvê-la, eles estudaram os movimentos oculares involuntários e usaram deep learning para analisar os dados.

A ideia não é nova, mas sempre teve limitações. Por exemplo, muitos demoravam demais ou não eram precisos. No atual mundo apressado, isso seria algo que não daria certo. Até agora.

A inovadora tecnologia DeepEyedentification

O diferencial da DeepEyedentification é que ela não faz um pré-processamento dos dados como as outras (o que levava tempo). Ela treina uma rede convolucional profunda usando amostras brutas (coletadas a 1000 quadros por segundo). Isso leva não só a uma execução duas vezes maior que os métodos anteriores, como também tem melhor precisão e exige vídeos mais curtos.

DeepEyedentification
Imagem: caa.gov.qa

A coleta de dados foi realizada de duas formas diferentes: uma delas com os usuários lendo textos e outra com os usuários observando um ponto se movimentando aleatoriamente na tela do computador. Após gravar apenas um segundo o movimento dos olhos, o DeepEyedentification foi capaz de ter a mesma precisão do melhor modelo até então para esse tipo de identificação em 100 segundos de gravação. Com 5 segundos de gravação, a taxa de erro foi 10 vezes menor.

A intenção é de que essa técnica de identificação possa ser aprimorada e usada em larga escala, visto que é mais confiável e segura. Em comparação ao scanner de olho, por exemplo, ela é mais segura porque o indivíduo precisa movimentar os olhos e não somente permanecer com eles parados na frente do scanner. Também é mais difícil de ser falsificado porque é preciso que o indivíduo acompanhe o que acontece na tela em que está olhando, por exemplo. Porém, não se sabe exatamente quando isso deve chegar ao mercado.


Fontes: Techxplore.

Comentários

Engenharia 360

Larissa Fereguetti

Cientista e Engenheira de Saúde Pública, com mestrado, também doutorado em Modelagem Matemática e Computacional; com conhecimento em Sistemas Complexos, Redes e Epidemiologia; fascinada por tecnologia.

Os cursos de especialização, principalmente na área de engenharia, fazem parte da busca contínua por aprimoramento de diversos tipos de profissionais.

Até mesmo os profissionais mais experientes estão buscando por novos conhecimentos. Por isto, existem cursos de especializações para diversos públicos, com diversas durações.

MBA no Brasil:

A maioria dos cursos de especialização, como o MBA são voltados para profissionais experientes. Hoje, grande parte deles exige anos de experiência da área a ser cursada. Isso porque o intuito deste curso é gerar uma troca de experiências entre os alunos.

Uma das melhores opções no Brasil hoje é a Fundação Getúlio Vargas; Que conta com cursos que variam entre 38 mil reais e podem chegar até a 118 mil reais.

Outro instituto também renomados para este tipo de curso de especialização, é a FIA (Fundação Instituto de Administração), cujos valores variam de 30 mil a 80 mil reais.

TCC - Trabalho de Conclusão da Faculdade | curso MBA
Imagem reproduzida de Blog MBA USP Esalq

Mestrado na Europa:

É comum em se pensar é mais difícil para as pessoas mais experientes largarem os negócios que elas têm no Brasil para passar dois anos fazendo MBA na Europa.

Por isto faço a comparação com o mestrado: são cursos de especialização, com o intuito de aprimorar o conhecimento em uma determinada área, e introduzir o estudante com uma qualificação melhor ao mercado de trabalho.

Se você tem um passaporte europeu, a questão de preços ficou ainda mais fácil para você! Uma vez que, na Europa os preços são diferenciados para cidadãos Europeus. A taxa varia, de forma geral, de acordo com a universidade escolhida.

Alguns exemplos de cursos de especialização na Europa:

Um mestrado na Espanha tem valores em torno de 5 mil euros para cidadãos europeus, e 10 mil euros para cidadãos não europeus.

Em Paris, os mestrados giram em torno de 6 mil euros para cidadãos e 12 mil euros para não cidadãos.

Já um mestrado Portugal, tem o valor em torno de 3 mil euros para cidadãos europeus, e 14 mil euros para cidadãos não europeus. Porém, em algumas universidades de Portugal são concedidos descontos para nós, brasileiros, por falarmos a língua portuguesa. Com isto, os valores giram em torno de 7 mil euros.

Considerando o valor do câmbio de R$4,21; um curso de especialização na Europa sai a partir de R$21.050,00.

De maneira geral, um curso de especialização na Europa consegue, sim, ser mais barato do que algumas propostas de MBA no Brasil. Devemos considerar que toda a forma de aprimoramento profissional é válida, e devemos tentar nos manter sempre atualizados na nossa carreira.

Veja Também: O que é essencial nos cursos das universidades e o que deveria sair da grade curricular?


Fontes: Guia da Carreira

Comentários

Engenharia 360

Beatriz Zanut Barros

Engenheira de Energia; formada pela Universidade Presbiteriana Mackenzie; com Mestrado em Energia Renovável pela Universitat Politècnica de Catalunya, em Barcelona; profissional no setor de armazenamento de energia com vasta experiência em expansão de sistemas de transmissão e análise de mercado de energia em países latino-americanos.

Mais uma vez podemos estabelecer paralelos entre engenharia e medicina. Como? Engenheiros biomédicos desenvolveram um scanner portátil de tomografia de coerência óptica (OCT) de baixo custo que promete levar tecnologia preventiva à cegueira para diversas regiões de baixa renda.

Exames tradicionais:

Em uso desde a década de 1990, a imagem da OCT tornou-se o padrão para o diagnóstico de muitas doenças da retina, incluindo degeneração macular e retinopatia diabética, bem como para o glaucoma. Esses termos, por mais que estejam fora da nossa área de atuação, estão no nosso contexto, mesmo que seja como pacientes ou conhecidos de quem já lidou com isso.

No entanto, a OCT raramente é incluída como parte de um exame de triagem padrão, já que as máquinas podem custar mais de US $ 100.000 – o que significa que geralmente apenas os centros oftalmológicos maiores e melhor equipados as têm.

retina oct
Imagem: baysteyecare.com

Como funciona a OCT:

OCT é o análogo óptico do ultra-som, que funciona enviando ondas sonoras para os tecidos e medindo quanto tempo eles levam para voltar. Mas como a luz é muito mais rápida do que o som, o tempo de medição é mais difícil. Para cronometrar as ondas de luz que retornam do tecido que está sendo escaneado, os dispositivos da OCT usam um espectrômetro para determinar o quanto sua fase mudou em comparação com ondas de luz idênticas que viajaram na mesma distância, mas não interagiram com o tecido.

Os espectrômetros tradicionais são feitos principalmente de componentes metálicos cortados com precisão e luz direta através de uma série de lentes, espelhos e fendas de difração em forma de W. Embora essa configuração forneça um alto grau de precisão, pequenas mudanças mecânicas causadas por batidas ou até mesmo mudanças de temperatura podem criar desalinhamentos.

scanner retina
Imagem: alazartech.com

A novidade:

Graças a um espectrômetro reprojetado, impresso em 3D, o scanner OCT que foi desenvolvido é 15 vezes mais leve e menor que os sistemas comerciais atuais e é feito de peças que custam menos de um décimo do preço de varejo dos sistemas comerciais – tudo sem sacrificar a qualidade da imagem.

O novo design do equipamento leva a luz em um caminho circular dentro de uma caixa feita principalmente a partir de plástico impresso em 3D. Como o caminho da luz do espectrômetro é circular, quaisquer expansões ou contrações devido a mudanças de temperatura ocorrem simetricamente, equilibrando-se para manter os elementos óticos alinhados. O dispositivo também usa um detector maior no final da jornada da luz para tornar os desalinhamentos menos prováveis.

Resultados e perspectivas:

Em seu primeiro ensaio clínico, o novo scanner OCT produziu imagens de 120 retinas que eram 95% mais nítidas do que as tomadas pelos sistemas comerciais atuais, o que já era suficiente para um diagnóstico clínico preciso.

De acordo com a equipe, o objetivo central da pesquisa é tornar a OCT menos dispendiosa, para que mais clínicas possam pagar os dispositivos, aumentando o acesso à saúde nesse aspecto. A recuperação da visão pode ser muito difícil, portanto os pesquisadores reforçam a importância de investir em prevenção por meio de detecções precoces de risco.


FonteS: Engineers journal.

Comentários

Engenharia 360

Kamila Jessie

Doutora em Hidráulica e Saneamento pela Universidade de São Paulo (EESC/USP) e Mestre em Ciências pela mesma instituição; é formada em Engenharia Ambiental e Sanitária pelo Centro Federal de Educação Tecnológica de Minas Gerais (CEFET-MG) com período sanduíche na University of Ottawa, no Canadá; possui experiência em tratamentos físico-químicos de água e efluentes; atualmente, integra o Centro de Pesquisa em Óptica e Fotônica (CePOF) do Instituto de Física de São Carlos (USP), onde realiza estágio pós-doutoral no Biophotonics Lab.

Buscando uma maneira de otimizar essa utilização, um grupo de cientistas desenvolveu um inovador modelo de irrigação inteligente. A quantidade de água no mundo pode não estar se esgotando, mas a água potável está se tornando cada vez mais escassa e o tratamento da água é uma tarefa dispendiosa. E apenas 3% da água em nosso planeta é potável, e mais de 70% desse recurso é direcionado para a agricultura.

Irrigação
Imagem de wirestock em Freepik

Veja Também: Food Tech Sustentável na América Latina: Cultivando Alimentos através da Biodiversidade

O Modelo de Irrigação Inteligente: Uma Solução Eficiente

Um dos principais desafios enfrentados na irrigação convencional é o alto índice de desperdício de água. Muitas culturas são irrigadas com uma quantidade de água que excede significativamente suas necessidades reais. Esse excesso não apenas representa um desperdício precioso, mas também contribui para a poluição de aquíferos, lagos e oceanos, à medida que a água utilizada muitas vezes se mistura com substâncias como agrotóxicos e fertilizantes.

A resposta a esse problema vem na forma do modelo de irrigação inteligente, concebido pelos cientistas. Este modelo leva em consideração uma variedade de informações cruciais, incluindo dados sobre a fisiologia das plantas, as condições do solo em tempo real e as previsões meteorológicas. Com base nessas informações, ele pode auxiliar na tomada de decisões sobre quando e quanto irrigar, de maneira precisa e eficiente.

A economia de água proporcionada por esse novo método pode chegar a impressionantes 40%. Esse cálculo é possível graças à utilização de tecnologias avançadas, como big data e machine learning (aprendizado de máquinas), que permitem ao modelo processar e analisar grandes volumes de informações. O desenvolvimento deste modelo é resultado do trabalho de professores de Engenharia de Sistemas da Smith School of Chemical and Biomolecular Engineering, em colaboração com outros pesquisadores talentosos.

Irrigação
Imagem de wirestock em Freepik

Veja Também: O que é El Niño e como ele impacta a Indústria de Engenharia Brasileira?

Benefícios para a Sustentabilidade e Qualidade das Colheitas

Além dos benefícios diretos na economia de água, o modelo de irrigação inteligente também apresenta vantagens significativas para a qualidade das colheitas. O controle preciso da umidade do solo pode resultar em produtos agrícolas de maior qualidade. Como exemplo, podemos citar o cultivo de uvas, que pode resultar em vinhos de melhor qualidade quando a umidade é gerenciada de forma eficaz.

Os pesquisadores já haviam desenvolvido sensores para detectar as necessidades hídricas das plantas, mas esses sensores eram limitados, pois não podiam prever quando ocorreriam chuvas. Portanto, a inclusão das previsões meteorológicas no modelo de irrigação foi um passo crucial para alcançar resultados mais eficazes.

No âmbito do modelo, são utilizados dados meteorológicos históricos e técnicas de machine learning para avaliar tanto a incerteza nas previsões do tempo em tempo real quanto a incerteza relacionada à evapotranspiração da água. Além disso, um modelo físico é empregado para descrever as variações de umidade no solo com precisão.

O próximo desafio consiste em identificar o método mais adequado para cada cultura e calcular os benefícios econômicos de migrar para um sistema automatizado de irrigação. A expectativa é que esse modelo possa contribuir significativamente para uma agricultura mais inteligente e sustentável, preservando os recursos hídricos essenciais para a vida em nosso planeta.

Veja Também:


Fontes: Phys.org

Imagens: Todos os Créditos reservados aos respectivos proprietários (sem direitos autorais pretendidos). Caso eventualmente você se considere titular de direitos sobre algumas das imagens em questão, por favor entre em contato com contato@engenharia360.com para que possa ser atribuído o respectivo crédito ou providenciada a sua remoção, conforme o caso.

Comentários

Engenharia 360

Larissa Fereguetti

Cientista e Engenheira de Saúde Pública, com mestrado, também doutorado em Modelagem Matemática e Computacional; com conhecimento em Sistemas Complexos, Redes e Epidemiologia; fascinada por tecnologia.

Um novo sistema de controle para mão protética impressa em 3D está mostrando um avanço na realização de movimentos dos dedos, com alto grau de precisão e poucos requisitos de treinamento.

mão prostética
Imagem: robotics.sciencemag.org

Novidade em prótese manual:

A mão protética, recentemente testada por um grupo de sete participantes, requer treinamento mínimo. A tecnologia, especialistas esperam, melhorará muito a qualidade de vida dos amputados.

Controlados por sinais elétricos dos músculos de um ser humano, os participantes do teste, incluindo um amputado de membro superior, conseguiram testar toda a gama de movimentos do sistema.

O sistema protético de fácil utilização pode ser um grande passo para tornar esta tecnologia mais acessível. Esta abordagem “amigável” com o usuário no treinamento da prótese é muito importante.

mão prostética
Imagem: robotics.sciencemag.org

Alguns dados:

A motivação do trabalho cita que, nos EUA, existem aproximadamente 540.000 amputados de membros superiores, dentre os quais, de 50% a 60% usam mãos protéticas diariamente para tentar melhorar a sua qualidade de vida. Por isso, é uma alta prioridade para os fabricantes de próteses continuarem a investir no conforto dos seus produtos.

Embora os avanços para próteses estejam chegando rapidamente, muito trabalho ainda pode ser feito para melhorar a usabilidade e a acessibilidade dos modelos existentes e futuros.

Novo sistema de prótese manual promete maior precisão e treinamento mínimo
Imagem: interestingengineering.com

Superando limitações das próteses atuais:

A prótese mioelétrica comercialmente disponível, que normalmente capta sinais elétricos dos músculos, pode custar entre US $ 25.000 e US $ 75.000. Sim, tudo isso. E mesmo diante de tamanho custo, essas próteses exigem muito treinamento para atingir o uso eficaz.

Para superar essas limitações, pesquisadores da Escola de Engenharia da Universidade de Hiroshima, junto a colaboradores de Centro de Reabilitação Robótica do Instituto Hyogo de Tecnologia Assistiva do Japão, criaram uma prótese impressa em 3D mais adaptável.

A mão protética tem cinco dedos acionados de forma independente e usa um sistema de controle único alimentado pela “teoria da sinergia muscular”, que permite movimentos mais complexos.

O sistema essencialmente permite que diferentes dedos sejam movidos com mais eficácia do que os modelos existentes, tudo ao mesmo tempo. Isso facilita muito a realização de movimentos cotidianos, como segurar um caderno ou uma garrafa, por exemplo.

prótese manual
Imagem: robotics.sciencemag.org

Falando em números, os resultados do trabalho indicaram que, usando o novo sistema, os participantes puderam realizar 10 movimentos diferentes dos dedos com mais de 90% de precisão.

Uma das próximas áreas de foco para os pesquisadores é aliviar a fadiga sentida pelos usuários no uso prolongado do sistema protético.


Fontes: Science Robotics. Interesting Engineering.

Comentários

Engenharia 360

Kamila Jessie

Doutora em Hidráulica e Saneamento pela Universidade de São Paulo (EESC/USP) e Mestre em Ciências pela mesma instituição; é formada em Engenharia Ambiental e Sanitária pelo Centro Federal de Educação Tecnológica de Minas Gerais (CEFET-MG) com período sanduíche na University of Ottawa, no Canadá; possui experiência em tratamentos físico-químicos de água e efluentes; atualmente, integra o Centro de Pesquisa em Óptica e Fotônica (CePOF) do Instituto de Física de São Carlos (USP), onde realiza estágio pós-doutoral no Biophotonics Lab.

Uma das maiores dificuldades do cientista (e também dos engenheiros) é conseguir transmitir a informação de modo claro para quem não é da área. E isso não diz respeito só à população em geral, mas também a pesquisadores de áreas diferentes. Nesse sentido, uma solução encontrada para explicar uma pesquisa de grafeno para o público foi um jogo de simulação.

Os responsáveis pelo feito são pesquisadores liderados por Toma Susi da Universidade de Viena. Em sua pesquisa, eles usam o UltraSTEM (um microscópio eletrônico de ponta) para manipular materiais ligados com precisão atômica. Esses microscópios usam feixe de elétrons e permitem visualizar até átomos individuais. Para mostrar como isso funciona, eles fizeram uma apresentação realista da pesquisa: um jogo de simulação.

O jogo foi exibido no Museu Técnico de Viena e agora está disponível on-line. Com ele está a pesquisa mais recente em manipulação de impurezas do silício em nanotubos de carbono.

Como funciona o jogo da pesquisa de grafeno?

O microscópio eletrônico é controlado por computador. O contraste da imagem depende do quão espalhados estão os elétrons, o que é determinado pela carga do núcleo. Com o silício tendo mais prótons que o carbono, os pesquisadores podem identificar as impurezas.

Jogo de simulação é usado para explicar pesquisa de grafeno para o público
Imagem: phys.org

Além de gerar imagens, o feixe de elétrons do microscópio pode ser usado para mover os átomos (como já provado em pesquisas anteriores). O feixe de elétrons varre uma amostra de grafeno linha por linha, revelando a localização dos átomos de carbono que compõem a rede, bem como as impurezas mais brilhantes de silício.

Como o controle do microscópio é feito pelo computador, tudo vira um jogo em que o feixe de elétrons é direcionado pela movimentação do cursor do mouse. Quer pesquisa mais divertida que essa?

pesquisa de grafeno
Imagem: phys.org

Depois de o jogo ficar em exposição no museu juntamente a amostras usadas na pesquisa e informações científicas sobre o assunto, os pesquisadores querem alcançar um público maior. Para isso, estão lançando um site com o mesmo conteúdo (e uma versão online do jogo para navegador). Ele é chamado Atom Tractor Beam (os fãs de Star Trek piram, já que ele foi inspirado em um feixe de energia da série).

De modo geral, é importante ver a ciência se popularizando e chegando à compreensão de leigos na área. Além disso, o jogo também serve como uma forma de atrair o interesse de crianças e jovens pela ciência e pela Engenharia. Um exemplo que deve se seguido.


Fontes: Universidade de Viena; Phys.org

Comentários

Engenharia 360

Larissa Fereguetti

Cientista e Engenheira de Saúde Pública, com mestrado, também doutorado em Modelagem Matemática e Computacional; com conhecimento em Sistemas Complexos, Redes e Epidemiologia; fascinada por tecnologia.

Um dispositivo de imagens médicas capaz de criar representações em 3D de todo o corpo humano em apenas 20 segundos poderá em breve ser usado para uma ampla variedade de pesquisas e aplicações clínicas.

tomografia
Imagem: nature.com

O scanner modificado de emissão de pósitrons (PET) é mais rápido do que os PET convencionais, ou seja, aqueles aparelhos de tomografia com os quais você já deve ter se deparado em algum hospital ou na TV. Mas, falando de números, o que pode levar em média 20 minutos agora poderá ser realizado em segundos e requer menos exposição à radiação para a pessoa que está sendo fotografada.

Os pesquisadores, engenheiros biomédicos da Universidade da Califórnia em Davis, apresentaram o vídeo tirado pelo dispositivo no Simpósio de Pesquisa de Alto Risco e Alta Recompensa dos Institutos Nacionais de Saúde dos EUA em Bethesda, Maryland. No vídeo, em câmera lenta, você pode ver o rádiofármaco subindo pela veia da perna, entrar no ventrículo direito, ir para os pulmões através da artéria pulmonar e então retornar ao ventrículo esquerdo.

Como instrumentação, o equipamento pode ser útil ao escanear o corpo de crianças, que tendem a ficar inquietas no aparelho de tomografia e atrapalhar as medições. Além disso, também permite mapear com maior precisão o trajeto de compostos que se movem rápido pelo corpo.

Como funcionam os aparelhos de tomografia convencionais?

Os scanners PET convencionais detectam raios γ provenientes de traçadores radioativos que os médicos injetam na pessoa que está sendo fotografada. As células da pessoa capturam a molécula e a quebram, liberando dois raios γ. Um detector em forma de anel posicionado ao redor da pessoa mede o ângulo e a velocidade dos raios e reconstrói sua origem, criando um mapa 3D das células que estão metabolizando a molécula.

Entretanto, esse anel tem apenas 25 centímetros de espessura, o que só permite que os médicos visualizem uma pequena porção do corpo de cada vez. A captura de áreas maiores exige que eles dosem a pessoa com mais radiação. Outro inconveniente associado é que as moléculas radioativas usadas decaem rapidamente, o que significa que o sinal emitido desaparece rapidamente.

Solução do problema:

A equipe melhorou o desempenho do equipamento convencional conectando oito anéis de PET em um tubo de 2 metros de comprimento que pode fazer imagens de todo o corpo de uma só vez. Cria-se uma renderização em 1/40 do tempo de um scanner convencional, usando 1/40 da dose de radiação e reduzindo assim o riscos ela associado.


Fontes: Nature.

Comentários

Engenharia 360

Kamila Jessie

Doutora em Hidráulica e Saneamento pela Universidade de São Paulo (EESC/USP) e Mestre em Ciências pela mesma instituição; é formada em Engenharia Ambiental e Sanitária pelo Centro Federal de Educação Tecnológica de Minas Gerais (CEFET-MG) com período sanduíche na University of Ottawa, no Canadá; possui experiência em tratamentos físico-químicos de água e efluentes; atualmente, integra o Centro de Pesquisa em Óptica e Fotônica (CePOF) do Instituto de Física de São Carlos (USP), onde realiza estágio pós-doutoral no Biophotonics Lab.