Tecnologia antiga de 2.000 anos para revestimentos de metal superiores aos padrões de hoje

Tecnologia antiga de 2.000 anos para revestimentos de metal superiores aos padrões de hoje

A pesquisa mostrou que artesãos e artesãos 2.000 anos atrás usavam uma forma de tecnologia antiga para aplicar filmes finos de metal em estátuas e outros itens, que era superior aos padrões atuais para a produção de DVDs, células solares, dispositivos eletrônicos e outros produtos.

A incrível descoberta, publicada em julho de 2013 na revista Accounts of Chemical Research, confirmou "o alto nível de competência alcançado pelos artistas e artesãos desses tempos antigos que produziram objetos de uma qualidade artística que não poderia ser melhorada na antiguidade e ainda não foi alcançado nas modernas ”.

A douradura e a prata com fogo são processos antigos à base de mercúrio usados ​​para revestir os itens da superfície, como joias, estátuas e amuletos, com finas camadas de ouro ou prata. Embora fosse usado principalmente para decoração, às vezes era usado de forma fraudulenta para simular a aparência de ouro ou prata em um metal menos precioso.

Do ponto de vista tecnológico, o que os antigos douradores conseguiram há 2.000 anos foi tornar os revestimentos de metal incrivelmente finos, aderentes e uniformes, o que economizou metais caros e melhorou sua durabilidade, algo que nunca foi alcançado no mesmo padrão hoje.

Aparentemente, sem nenhum conhecimento sobre os processos físico-químicos, os antigos artesãos manipulavam metais sistematicamente para criar resultados espetaculares. Eles desenvolveram uma variedade de técnicas, incluindo o uso de mercúrio como cola para aplicar películas finas de metais, como ouro e prata, em objetos.

Embora os cientistas concluíssem que seus resultados eram importantes porque poderiam ajudar a preservar tesouros artísticos e outros do passado, as descobertas poderiam ter um significado ainda maior, pois mais uma vez demonstraram que havia um nível muito mais alto de compreensão e conhecimento de conceitos avançados e técnicas em nosso passado antigo do que aquilo que lhes é dado crédito. Outros exemplos de tecnologia antiga incluem o mecanismo de Antikythera de 2.000 anos, um antigo dispositivo metálico que consiste em uma combinação complexa de engrenagens que se acredita ter sido usada para calcular as posições de corpos celestes para determinar eclipses solares e lunares com precisão exata, e a Bateria de Bagdá, uma panela de barro encapsulando um cilindro de cobre com uma barra de ferro suspensa no centro que parece ser a forma mais antiga de uma bateria elétrica.

O nível de sofisticação presente 2.000 anos atrás e até mesmo antes é perplexo e levanta muitas questões sobre de onde o conhecimento veio e como ele se originou. Uma coisa é certa, nossos livros de história devem ser reescritos para incluir tais realizações significativas de nosso passado antigo e não simplesmente jogados de lado na cesta "muito difícil de entender".


    A história do bisturi: do sílex ao aço revestido de zircônio

    Nota do editor: O artigo a seguir é baseado em um pôster apresentado na Sessão de Pôster de História da Cirurgia no Congresso Clínico 2017 do American College of Surgeons (ACS) em San Diego, CA. A sessão é patrocinada anualmente pelo Grupo de História Cirúrgica. Para obter mais informações, visite o site da ACS.

    O bisturi, um dos primeiros instrumentos cirúrgicos, evoluiu ao longo de 10 milênios. Embora a palavra “bisturi” derive da palavra latina scallpellus, os instrumentos físicos que os cirurgiões usam hoje começaram como instrumentos cortantes de pedra e obsidiana durante a Idade da Pedra. À medida que a cirurgia se tornou uma profissão, as facas dedicadas a usos específicos também evoluíram. Barbeiros-cirurgiões embelezavam seus bisturis como parte da arte de seu ofício. Mais tarde, os cirurgiões valorizaram a velocidade e a nitidez. Os avanços atuais em tecnologia de bisturi incluem medidas de segurança adicionais e revestimentos de gemas e polímeros. O instrumento por excelência dos cirurgiões, o bisturi é o símbolo de longa data da disciplina. Traçar a história desta ferramenta reflete a evolução da cirurgia como cultura e como profissão.


    Uma retrospectiva da ascensão da indústria de telhados

    Este post é parte de uma série mensal que explora as aplicações históricas de materiais e sistemas de construção, usando recursos da Building Technology Heritage Library (BTHL), uma coleção online de catálogos da AEC, brochuras, publicações comerciais e muito mais. O BTHL é um projeto da Association for Preservation Technology, uma organização internacional de preservação de edifícios. Leia mais sobre o arquivo aqui.

    O papel do telhado não pode ser subestimado. Ele protege os interiores de um edifício e seus ocupantes das forças da natureza, protege os sistemas de utilidades vitais e ajuda a definir a estética do exterior. A necessidade do telhado gerou sua onipresença e, por extensão, fomentou um forte mercado para materiais de cobertura que variam em desempenho e características físicas.

    Esses materiais têm uma longa história e sua evolução foi em grande parte impulsionada pelo desempenho. Madeira e telhas de ardósia e telhas de argila foram a escolha predominante para telhados até meados do século 19, quando sistemas de metal e betuminoso de telhados tornaram possíveis aplicações de baixa inclinação. Durante o século 20, vários novos materiais foram desenvolvidos para telhados baixos e inclinados. Entre eles estava a telha asfáltica, que entrou em cena por volta da virada do século 20 e continua a ser o material de cobertura das casas. Após um período de experimentação de mercado com várias formas, padrões e texturas, a telha de asfalto evoluiu na forma para a versão de três abas popular hoje.

    Compósitos, como amianto e fibrocimento, rivalizaram com o asfalto por um tempo, apresentando melhor desempenho ao tentar replicar materiais tradicionais, como ardósia ou telha de barro. A imitação posteriormente tornou-se um tema na categoria de telhados, com os primeiros exemplos incluindo telhas de metal que reproduzem a aparência de telhas de argila e telhas de asfalto que simulam colmo. O século 20 também viu o desenvolvimento de materiais de cobertura com vários níveis de durabilidade e resistência ao fogo, bem como a introdução de componentes relacionados ao telhado, como calhas, calhas e rufos.

    Os folhetos, panfletos e periódicos a seguir da Biblioteca Digital do Patrimônio de Tecnologia de Construção exploram como os sistemas de cobertura evoluíram ao longo do século XX.

    H.M. Reynolds Shingle Co., 1910: The H.M. A Reynolds Company de Grand Rapids, Michigan, afirmou, no início do século 20, ter inventado a telha de asfalto. Como acontece com muitos produtos onipresentes, isso é difícil de provar. No entanto, a cobertura de asfalto laminado revestida com grânulos de ardósia estava disponível no final do século 19, então não é exagero ver como o material poderia ter sido usado para fazer telhas individuais logo depois - também torna ainda mais difícil descobrir quem, exatamente , fiz isso primeiro. As telhas de asfalto estavam amplamente disponíveis em 1910 e rapidamente substituíram as telhas de madeira devido à sua economia e resistência ao fogo. Ao longo do século 20, a telha asfáltica evoluiu para incluir uma variedade de formas e texturas, com o revestimento de ardósia triturado substituído por grânulos de cerâmica.

    Penrhyn Stone: telhados de ardósia de qualidade, J. W. Williams Slate Co., c. 1930: A ardósia tem sido um material de cobertura regionalmente proeminente no nordeste dos EUA e em partes próximas do Canadá devido à abundância de pedreiras de ardósia na área. A ardósia também se tornou popular no resto dos EUA em estilos de arquitetura residencial e comercial de época. A extrema durabilidade do material o tornou popular entre os proprietários institucionais. Também é bastante pesado, adequado para telhados íngremes, em vez de rasos. Da gama limitada de cores de ardósia, o vermelho é o mais raro e, portanto, é normalmente usado para acentos ornamentais.

    Manual de Barrett sobre coberturas e impermeabilização para arquitetos, engenheiros e construtores, Barrett Manufacturing Co., 1896: O desenvolvimento de telhados construídos - compreendendo camadas alternadas de tecido impregnado de asfalto e revestimentos betuminosos - mudou a forma de edifícios, literalmente, nas regiões temperadas dos Estados Unidos. O telhado de inclinação íngreme foi não são mais necessários para proteção contra chuva, e os telhados planos resultantes mudariam para sempre a escala e a aparência do ambiente construído. The Barrett Manufacturing Co., em Nova York, era um grande produtor de materiais para telhados construídos, e o BTHL apresenta os catálogos técnicos da empresa dos anos 1890 aos anos 1950.

    Produtos para telhados de aço da Republic, Republic Steel Co., c. 1939: Grandes painéis de telhado de aço eram particularmente populares para edifícios agrícolas e industriais. As ondulações permitiram que os painéis ocupassem distâncias maiores, o que reduziu o volume do material e o peso da estrutura, enquanto os revestimentos galvanizados deram aos painéis uma vida útil mais longa. O material, que teve origem no século 19, é muito utilizado até hoje.

    Certigrade Handbook of Red Cedar Shingles, Red Cedar Shingle Bureau, 1957: As telhas de cedro geralmente cobriam estruturas residenciais durante o século 19, mas foram suplantadas em popularidade no século 20 pelo asfalto. A tipologia de telhas foi revivida no século 21 para aplicações de telhados e revestimentos, normalmente em projetos de ponta.

    O Livro dos Telhados, Johns Manville, 1923: A combinação de amianto e cimento resultou em fibrocimento, que, quando aplicado como telhas, tornou-se um produto extremamente durável, pesando significativamente menos do que argila e telhas de ardósia. Telhas de fibrocimento que simulavam a aparência de ardósia e argila eram particularmente comuns. Uma variação popular era um fator de forma hexagonal em grande escala que produzia um padrão distinto.

    Sobre o autor

    Mike Jackson, FAIA, é arquiteto de Springfield, Illinois, e professor visitante de arquitetura na Universidade de Illinois Urbana – Champaign. Ele liderou a divisão de arquitetura da Agência de Preservação Histórica de Illinois por mais de 30 anos e agora defende o desenvolvimento da Biblioteca do Patrimônio de Tecnologia de Construção da Association for Preservation Technology, um arquivo online de documentos AEC anteriores a 1964.


    Identificando o problema antes de apontar novamente, retornar ao topo & # 9650

    A decisão de refazer o ponto está mais frequentemente relacionada a algum sinal óbvio de deterioração, como argamassa em desintegração, rachaduras nas juntas de argamassa, tijolos ou pedras soltas, paredes úmidas ou gesso danificado. É, entretanto, errôneo presumir que apenas o refazimento resolverá as deficiências que resultam de outros problemas. A causa raiz da deterioração & mdashleaking telhados ou calhas, assentamento diferencial do edifício, ação capilar causando aumento da umidade ou exposição ao clima extremo & mdash deve sempre ser tratada antes do início do trabalho.

    Os pedreiros praticam o uso de argamassa de cal para reparar o mármore histórico. Foto: arquivos NPS.

    Sem reparos adequados para eliminar a origem do problema, a deterioração da argamassa continuará e qualquer reforma será uma perda de tempo e dinheiro.


    Linha do tempo da nanotecnologia

    Esta linha do tempo apresenta exemplos pré-modernos de nanotecnologia, bem como descobertas e marcos da Era Moderna no campo da nanotecnologia.

    Exemplos Pré-modernos de Nanotecnologias

    Os primeiros exemplos de materiais nanoestruturados foram baseados na compreensão empírica dos artesãos e na manipulação de materiais. O uso de alto calor foi uma etapa comum em seus processos para produzir esses materiais com novas propriedades.

    A Copa Lycurgus no Museu Britânico, iluminada do lado de fora (deixou) e de dentro (direito)

    Século 4: o Taça Lycurgus (Roma) é um exemplo de vidro dicróico ouro coloidal e prata no vidro permitem que ele pareça verde opaco quando iluminado de fora, mas vermelho translúcido quando a luz incide de dentro. (Imagens à esquerda.)

    Tigela de lustreware policromada, 9º C, Iraque, Museu Britânico (©Trinitat Pradell 2008)

    Séculos 9 a 17: Resplandecente, cintilante Esmaltes cerâmicos “lustrosos” usados ​​no mundo islâmico, e mais tarde na Europa, continha prata ou cobre ou outras nanopartículas metálicas. (Imagem à direita.)

    A rosácea sul da Catedral de Notre Dame, cerca de 1250

    Séculos 6 a 15: Vibrante vitrais nas catedrais europeias, devido suas cores ricas a nanopartículas de cloreto de ouro e outros óxidos e cloretos de metal, nanopartículas de ouro também atuaram como purificadores de ar fotocatalíticos. (Imagem à esquerda.)

    Séculos 13 a 18: Lâminas de sabre “Damasco” continha nanotubos de carbono e nanofios de cementita - uma formulação de aço com alto teor de carbono que lhes dava força, resiliência, a capacidade de segurar uma borda afiada e um padrão moiré visível no aço que dá o nome às lâminas. (Imagens abaixo).

    (Deixou) Um sabre de Damasco (foto de Tina Fineberg para o New York Times). (Direito) Imagem de microscopia eletrônica de transmissão de alta resolução de nanotubos de carbono em um sabre de Damasco genuíno após a dissolução em ácido clorídrico, mostrando restos de nanofios de cementita encapsulados por nanotubos de carbono (barra de escala, 5 nm) (M. Reibold, P. Paufler, AA Levin, W. Kochmann, N. Pätzke e DC Meyer, Natureza 444, 286, 2006).

    Exemplos de descobertas e desenvolvimentos que possibilitam a nanotecnologia na era moderna

    Eles são baseados em uma compreensão e instrumentação científica cada vez mais sofisticada, bem como em experimentação.

    Colóide de ouro "Ruby" (Gold Bulletin 2007 40,4, p. 267)

    1857: Michael Faraday descobriu ouro “rubi” coloidal, demonstrando que o ouro nanoestruturado sob certas condições de iluminação produz soluções de cores diferentes.

    1936: Erwin Müller, trabalhando no Laboratório de Pesquisa da Siemens, inventou o microscópio de emissão de campo, permitindo imagens de materiais com resolução quase atômica.

    1947: John Bardeen, William Shockley e Walter Brattain da Bell Labs descobriram o transistor semicondutor e um conhecimento científico amplamente expandido de interfaces de semicondutores, lançando as bases para dispositivos eletrônicos e a Era da Informação.

    Transistor de 1947, Bell Labs

    1950: Victor La Mer e Robert Dinegar desenvolveram o teoria e um processo para o cultivo de materiais coloidais monodispersos. A capacidade controlada de fabricar coloides permite uma infinidade de usos industriais, como papéis, tintas e filmes finos especializados, até mesmo em tratamentos de diálise.

    1951: Erwin Müller foi o pioneiro do microscópio de íon de campo, um meio de obter imagens do arranjo dos átomos na superfície de uma ponta de metal afiada, ele primeiro fez a imagem dos átomos de tungstênio.

    1956: Arthur von Hippel, do MIT, introduziu muitos conceitos de - e cunhou o termo -“Engenharia molecular” como aplicado a dielétricos, ferroelétricos e piezoelétricos

    Jack Kilby, cerca de 1960.

    1958: Jack Kilby da Texas Instruments originou o conceito, projetou e construiu o primeiro circuito integrado, pelo qual recebeu o Prêmio Nobel em 2000. (Imagem à esquerda).

    Richard Feynman (arquivos Caltech)

    1959: Richard Feynman, do California Institute of Technology, deu o que é considerado a primeira palestra sobre tecnologia e engenharia em escala atômica, "Há muito espaço no fundo"em uma reunião da American Physical Society em Caltech. (Imagem à direita.)

    O primeiro gráfico público de Moore mostrando sua visão da indústria de semicondutores sendo capaz de "empinar mais componentes em circuitos integrados"

    1965: O cofundador da Intel Gordon Moore descrito em Eletrônicos revista várias tendências que ele previu no campo da eletrônica. Uma tendência agora conhecida como “Lei de Moore, ”Descreveu a densidade dos transistores em um chip integrado (IC) dobrando a cada 12 meses (posteriormente alterado para a cada 2 anos). Moore também viu os tamanhos e custos dos chips diminuindo com sua funcionalidade crescente - com um efeito transformador na maneira como as pessoas vivem e trabalham. O fato de a tendência básica que Moore imaginou ter continuado por 50 anos é em grande parte devido à crescente dependência da indústria de semicondutores na nanotecnologia à medida que os ICs e transistores se aproximam das dimensões atômicas.1974: Norio Taniguchi, professor da Universidade de Ciência de Tóquio, cunhou o termo nanotecnologia para descrever a usinagem de precisão de materiais dentro das tolerâncias dimensionais da escala atômica. (Veja o gráfico à esquerda.)

    1981: Gerd Binnig e Heinrich Rohrer do laboratório da IBM em Zurique inventaram o Microscópio de tunelamento de varredura, permitindo aos cientistas "ver" (criar imagens espaciais diretas de) átomos individuais pela primeira vez. Binnig e Rohrer ganharam o Prêmio Nobel por esta descoberta em 1986.

    1981: Alexei Ekimov, da Rússia, descobriu nanocristalino, semicondutor pontos quânticos em uma matriz de vidro e conduziu estudos pioneiros de suas propriedades eletrônicas e ópticas.

    1985: Os pesquisadores da Rice University Harold Kroto, Sean O’Brien, Robert Curl e Richard Smalley descobriram o Buckminsterfullerene (C60), mais comumente conhecido como o buckyball , que é uma molécula com formato semelhante a uma bola de futebol e composta inteiramente de carbono, assim como o grafite e o diamante. A equipe recebeu o Prêmio Nobel de Química de 1996 por seus papéis nessa descoberta e na classe das moléculas do fulereno de maneira mais geral. (Renderização do artista à direita.)

    1985: Louis Brus da Bell Labs descobriu nanocristais semicondutores coloidais (pontos quânticos), pelo qual compartilhou o Prêmio Kavli de Nanotecnologia de 2008.

    1986: Gerd Binnig, Calvin Quate e Christoph Gerber inventaram o microscópio de força atômica, que tem a capacidade de visualizar, medir e manipular materiais em frações de um nanômetro de tamanho, incluindo a medição de várias forças intrínsecas aos nanomateriais.

    1989: Don Eigler e Erhard Schweizer no Almaden Research Center da IBM manipulou 35 átomos de xenônio individuais para formar o logotipo da IBM. Essa demonstração da capacidade de manipular átomos com precisão deu início ao uso aplicado da nanotecnologia. (Imagem à esquerda.)

    Década de 1990: As primeiras empresas de nanotecnologia começaram a operar, por exemplo, Nanophase Technologies em 1989, Helix Energy Solutions Group em 1990, Zyvex em 1997, Nano-Tex em 1998….

    1991: Sumio Iijima da NEC é creditado com a descoberta do nanotubo de carbono (CNT), embora tenha havido observações iniciais de estruturas tubulares de carbono por outros também. Iijima compartilhou o Prêmio Kavli de Nanociência em 2008 por este avanço e outros avanços no campo. Os CNTs, como os fulerenos, são inteiramente compostos de carbono, mas em formato tubular. Eles exibem propriedades extraordinárias em termos de resistência, condutividade elétrica e térmica, entre outras. (Imagem abaixo)

    Nanotubos de carbono (cortesia, National Science Foundation). As propriedades dos CNTs estão sendo exploradas para aplicações em eletrônica, fotônica, tecidos multifuncionais, biologia (por exemplo, como um andaime para o crescimento de células ósseas) e comunicações. Veja um 2009 Descoberta Artigo de revista para outros exemplos Micrografia SEM de "papel" de nanotubo purificado em que os nanotubos são as fibras (barra de escala, 0,001 mm) (cortesia, NASA). Uma série de nanotubos de carbono alinhados, que podem atuar como uma antena de rádio para detectar luz em comprimentos de onda visíveis (barra de escala 0,001 mm) (cortesia, K. Kempa, Boston College).

    1992: C.T. Kresge e colegas da Mobil Oil descobriram o materiais catalíticos nanoestruturados MCM-41 e MCM-48, agora muito usado no refino de petróleo bruto, bem como para entrega de drogas, tratamento de água e outras aplicações variadas.

    MCM-41 é um nanomaterial de sílica de "peneira molecular mesoporosa" com um arranjo hexagonal ou "em forma de favo de mel" de seus poros cilíndricos retos, como mostrado nesta imagem TEM (cortesia de Thomas Pauly, Michigan State University). Esta imagem TEM de MCM-41 observa os poros cilíndricos retos conforme eles ficam perpendiculares ao eixo de visualização (cortesia de Thomas Pauly, Michigan State University).

    1993: Moungi Bawendi do MIT inventou um método para síntese controlada de nanocristais (pontos quânticos), abrindo caminho para aplicações que vão da computação à biologia, fotovoltaica e iluminação de alta eficiência. Nos anos seguintes, o trabalho de outros pesquisadores, como Louis Brus e Chris Murray, também contribuíram com métodos para sintetizar pontos quânticos.

    1998: O Grupo de Trabalho Interagências sobre Nanotecnologia (IWGN) foi formado pelo Conselho Nacional de Ciência e Tecnologia para investigar o estado da arte em ciência e tecnologia em nanoescala e prever possíveis desenvolvimentos futuros. O estudo e relatório do IWGN, Diretrizes da pesquisa em nanotecnologia: visão para a próxima década (1999) definiu a visão e levou diretamente à formação da U.S. National Nanotechnology Initiative em 2000.

    A progressão das etapas do uso de uma ponta de microscópio de tunelamento de varredura para "montar" uma molécula de carbonila de ferro, começando com as moléculas de Fe (ferro) e CO (monóxido de carbono) (UMA), juntando-se a eles para produzir FeCO (B), em seguida, adicionando uma segunda molécula de CO (C), para atingir a molécula FECO2 (D) (H.J. Lee, W. Ho, Ciência 286, 1719 [1999].)

    1999: Os pesquisadores da Universidade Cornell, Wilson Ho e Hyojune Lee, investigaram os segredos da ligação química por montagem de uma molécula [ferro carbonil Fe (CO) 2] a partir de componentes constituintes [ferro (Fe) e monóxido de carbono (CO)] com um microscópio de tunelamento de varredura. (Imagem à esquerda.)

    1999: Chad Mirkin da Northwestern University inventou nanolitografia dip-pen® (DPN®), levando à “escrita” reproduzível e manufaturada de circuitos eletrônicos, bem como padronização de biomateriais para pesquisa de biologia celular, nanoencriptografia e outras aplicações. (Imagem abaixo à direita.)

    Uso de DPN para depositar biomateriais © 2010 Nanoink

    1999 - início de 2000: Produtos de consumo fazendo uso da nanotecnologia começou a aparecer no mercado, incluindo pára-choques de automóvel com nanotecnologia leve que resistem a amassados ​​e arranhões, bolas de golfe que voam mais retas, raquetes de tênis que são mais rígidas (portanto, a bola rebate mais rápido), tacos de beisebol com melhor flexibilidade e " kick, "meias antibacterianas de nanoprate, filtros solares transparentes, roupas resistentes a manchas e rugas, cosméticos terapêuticos de penetração profunda, revestimentos de vidro resistentes a arranhões, baterias de recarga mais rápida para ferramentas elétricas sem fio e telas aprimoradas para televisores, telefones celulares, e câmeras digitais.

    2000: O presidente Clinton lançou a National Nanotechnology Initiative (NNI) para coordenar os esforços federais de P&D e promover a competitividade dos EUA em nanotecnologia. O Congresso financiou o NNI pela primeira vez no ano fiscal de 2001. O Subcomitê NSET do NSTC foi designado como o grupo interagências responsável pela coordenação do NNI.

    2003: O Congresso promulgou a Lei de Pesquisa e Desenvolvimento em Nanotecnologia do Século 21 (P.L. 108-153). A lei forneceu uma base estatutária para o NNI, estabeleceu programas, atribuiu responsabilidades de agências, autorizou níveis de financiamento e promoveu pesquisas para abordar questões-chave.

    Simulação por computador do crescimento de nanoconcha de ouro com núcleo de sílica e camada de ouro (cortesia N. Halas, Genome News Network, 2003)

    2003: Naomi Halas, Jennifer West, Rebekah Drezek e Renata Pasqualin na Rice University desenvolveram nanoconchas de ouro, que quando "ajustadas" em tamanho para absorver luz infravermelha, servem como uma plataforma para a descoberta, diagnóstico e tratamento integrados do câncer de mama sem biópsias invasivas, cirurgia ou radiação ou quimioterapia sistemicamente destrutiva.2004: A Comissão Europeia adoptou a Comunicação “Rumo a uma estratégia europeia de nanotecnologia, ”COM (2004) 338, que propôs a institucionalização dos esforços europeus de pesquisa e desenvolvimento em nanotecnologia e nanotecnologia dentro de uma estratégia integrada e responsável, e que estimulou planos de ação europeus e o financiamento contínuo de pesquisa e desenvolvimento em nanotecnologia. (Imagem à esquerda.)

    2004: Publicação da Royal Society da Grã-Bretanha e da Royal Academy of Engineering Nanociência e nanotecnologias: oportunidades e incertezas defendendo a necessidade de abordar as questões potenciais de saúde, ambientais, sociais, éticas e regulatórias associadas à nanotecnologia.

    2004: SUNY Albany lançou o primeiro programa de educação de nível universitário em nanotecnologia nos Estados Unidos, o Faculdade de Ciência e Engenharia em nanoescala.

    2005: Erik Winfree e Paul Rothemund do Instituto de Tecnologia da Califórnia desenvolveram teorias para Computação baseada em DNA e "automontagem algorítmica”Em que os cálculos são incorporados no processo de crescimento nanocristal.

    Nanocar com rodas giratórias de buckyball (crédito: RSC, 29 de março de 2006).

    2006: James Tour e colegas da Rice University construíram um carro em nanoescala feito de oligo (fenileno etinileno) com eixos alquinil e quatro rodas esféricas de fulereno C60 (fulereno). Em resposta ao aumento da temperatura, o nanocarro se moveu sobre uma superfície dourada como resultado do giro das rodas do fulereno, como em um carro convencional. Em temperaturas acima de 300 ° C, ele se movia rápido demais para que os químicos pudessem acompanhá-lo! (Imagem à esquerda.)

    2007: Angela Belcher e colegas do MIT construíram um bateria de íon de lítio com um tipo comum de vírus que não é prejudicial para os humanos, usando um processo de baixo custo e ambientalmente benigno. As baterias têm a mesma capacidade de energia e desempenho de energia que as baterias recarregáveis ​​de última geração, sendo consideradas para alimentar carros híbridos plugáveis, e também podem ser usadas para alimentar dispositivos eletrônicos pessoais. (Imagem à direita.)

    (Da esquerda para a direita) Os professores do MIT Yet-Ming Chiang, Angela Belcher e Paula Hammond exibem um filme carregado de vírus que pode servir como o ânodo de uma bateria. (Foto: Donna Coveney, MIT News.)

    2008: O primeiro oficial Estratégia NNI para Pesquisa Ambiental, Saúde e Segurança Relacionada à Nanotecnologia (EHS) foi publicado, com base em um processo de dois anos de investigações patrocinadas pelo NNI e diálogos públicos. Este documento de estratégia foi atualizado em 2011, após uma série de workshops e revisão pública.

    2009–2010: Nadrian Seeman e colegas da New York University criaram vários Dispositivos robóticos de montagem em nanoescala semelhantes a DNA. Um é um processo de criação de estruturas de DNA 3D usando sequências sintéticas de cristais de DNA que podem ser programados para se automontar usando “extremidades adesivas” e colocadas em uma ordem e orientação definidas. A nanoeletrônica pode se beneficiar: a flexibilidade e a densidade que os componentes em nanoescala 3D permitem podem permitir a montagem de peças que são menores, mais complexas e mais próximas. Outra criação de Seeman (com colegas da Universidade de Nanjing da China) é uma "linha de montagem de DNA". Por este trabalho, Seeman compartilhou o Prêmio Kavli de Nanociência em 2010.

    2010: A IBM usou uma ponta de silício medindo apenas alguns nanômetros em seu ápice (semelhante às pontas usadas em microscópios de força atômica) para retirar material de um substrato para criar um mapa de relevo 3D em nanoescala completo do mundo com um milésimo do tamanho de um grão de sal - em 2 minutos e 23 segundos. Esta atividade demonstrou uma metodologia de padronização poderosa para gerar padrões em nanoescala e estruturas tão pequenas quanto 15 nanômetros com custo e complexidade bastante reduzidos, abrindo novas perspectivas para áreas como eletrônica, optoeletrônica e medicina. (Imagem abaixo)

    Uma imagem renderizada de uma ponta de silício em nanoescala esculpindo o menor mapa em relevo do mundo a partir de um substrato de vidro molecular orgânico. O primeiro plano do meio é mostrado o Mar Mediterrâneo e a Europa. (Imagem cortesia de Materiais avançados.)


    2011:
    O Subcomitê NSET atualizou tanto o Plano Estratégico NNI e a Estratégia de Pesquisa Ambiental, de Saúde e Segurança da NNI, com base em extensas contribuições de workshops públicos e diálogo online com partes interessadas do governo, academia, ONGs e o público, entre outros.

    2012: O NNI lançou mais dois Iniciativas de assinatura de nanotecnologia (NSIs) - Nanosensores e a Nanotechnology Knowledge Infrastructure (NKI) - totalizando cinco NSIs.

    2013:
    -O NNI começa a próxima rodada de Planejamento estratégico, começando com o Workshop das partes interessadas.
    -Os pesquisadores de Stanford desenvolvem o primeiro computador de nanotubos de carbono.


    Linha do tempo histórica e tipos de pintura automotiva

    Qual é a primeira coisa que você nota quando vê um carro ou caminhão velho pela primeira vez? Se você for como a maioria das pessoas, a resposta provavelmente seria a tinta. Não apenas a cor, mas também a condição geral do acabamento da pintura. Tem um belo brilho de alto brilho ou uma “pátina” agradável e macia que só as mãos do tempo e a exposição ao sol e às intempéries podem produzir? É claro que tudo é subjetivo, pois seria de se esperar que uma restauração de alto padrão recém-concluída tivesse uma aparência impecável de espelho. Por outro lado, um carro ou caminhão que tem 40, 50, 60 anos ou até mais e ainda está usando o acabamento aplicado de fábrica é muito admirado e altamente valorizado por sua beleza, embora possa ser usado até o primer por muitos anos de amor amoroso polido ou mesmo exibindo com orgulho algumas corridas ou imperfeições que adquiriu nas mãos daquele pintor de linha de produção tantos anos antes.

    Na verdade, em muitos eventos de feiras, um carro ou caminhão não restaurado usando sua pintura original muitas vezes chama muito mais atenção dos admiradores do que um exemplar perfeitamente restaurado. O que é ainda mais notável quando admiramos esses acabamentos antigos e preservados é o fato de que essas tintas não eram realmente tão boas em comparação com o que está disponível hoje. Isso não quer dizer que essas tintas eram de qualidade inferior, pois os fabricantes geralmente usavam os melhores materiais disponíveis com qualquer que fosse a tecnologia de revestimentos da época permitida. Também é importante considerar que, à medida que as décadas avançaram para os anos 1950 e 1960, o tempo necessário para aplicar a tinta tornou-se cada vez mais um fator mais crítico na montagem de um carro e, com exceção de alguns dos carros de luxo mais caros, um poucas falhas como corridas, textura e pulverização excessiva foram consideradas aceitáveis ​​e realmente procuradas por algumas organizações de julgamento de feiras hoje.

    Nos primeiros dias do automóvel, os mestres artesãos de móveis e carruagens aplicaram meticulosamente esmalte à base de óleo primitivo ou primer de verniz e revestimentos de acabamento por escovar! Esses acabamentos tinham uma opacidade um tanto pobre que exigia várias camadas para cobertura e demorava semanas para secar. Eles usaram principalmente pigmentos de tinta que tendiam a ser de cores mais escuras. Esses revestimentos não resistiam muito bem às intempéries e à luz do sol e tendiam a ficar secos e quebradiços em pouco tempo. Como essas pinturas não duravam tanto tempo, naqueles dias, era comum um proprietário conseguir alguma tinta em uma loja de ferragens ou catálogo de pedidos pelo correio como Montgomery Ward, juntamente com um bom cabelo de cavalo ou uma escova de cerdas de porco e pintar o carro. Com a ideia de preservar o carro, algumas pessoas até faziam isso mais ou menos todos os anos ... com pincel, é claro!

    Vários fabricantes, incluindo a Ford na linha Modelo T, usaram uma combinação de escovar, mergulhar e até mesmo derramar para cobrir e proteger totalmente as várias partes de um carro ou caminhão. A década de 1920 viu o início da introdução do equipamento de pulverização e lacas e primários de nitrocelulose que foram desenvolvidos juntos para acelerar a aplicação e o tempo de secagem para uma semana ou menos, o que reduziu drasticamente o tempo necessário para pintar um carro, embora ainda exigisse muito trabalho e tempo consumir esfregar as mãos para conseguir um brilho. Isso não era especialmente verdadeiro na produção dos primeiros caminhões, no entanto, a maioria dos caminhões de 1920 a 1960 eram considerados peças simples de equipamento de trabalho construídas para serem usadas e abusadas, não para serem confundidas e mimadas. A great example of this is with 1930’s Model AA Ford trucks with that were built with dull, non-shiny, non-rubbed lacquer finishes. Rubbing-out was an extra-cost Ford AA truck option that according to a Ford service letter of 06-05-31 cost $15.00 extra for the cab, cowl and hood while a pickup bed cost $7.00. In addition to reduced dry times, nitrocellulose lacquers were more durable and allowed the use of brighter colored although more expensive pigments. Interestingly, although with constant improvements, the organic-based nitrocellulose lacquer was used by some manufacturers well into the later 1950s when it was replaced with the much more durable acrylic lacquers and primers which were synthetics.

    Appearing shortly after nitrocellulose lacquers were enamels or more specifically, alkyd enamels and primers. These were generally a thicker material which required fewer coats than lacquers and usually were baked onto a partially assembled vehicle body by passing it through a large oven. This baking hardens the enamel and “flows” it out for a great shine and greater durability. Many more brilliant colors were available with the enamels which became possible due to the use of organic pigments which were widely popular with some of the more flamboyant and attractive two and tri-toned 1950’s combinations. Eventually, the alkyd enamels too were replaced in the early 1960s by the new and superior acrylic enamels and primers favored by several manufacturers.

    Of course as we all know, any paint finish has a limited lifespan and with the harsh conditions it is exposed to, it is remarkable that it can last as long as it does given adequate care. With time and exposure, even the best lacquers will lose their luster, shrink and crack while enamels will fade out and become dull and chalky. These shortcomings and a move toward greater environmental friendliness led to the eventual changeover by most car and truck manufacturers to new base-clear, water-borne systems in the late 1970’s to early 1990s however this period was not without serious issues as many of us will recall the peeling clear coats of many vehicles from that era resulting in scores of cars and truck being repainted through factory warranty claims. Fortunately, the major paint manufactures quickly resolved those problems and the newer finishes are the most durable in history and require virtually no care to survive.

    What does this all mean to the owner of a vintage car or truck today who is planning for a paint job in the near future? To begin with, lacquer, while still available, is very difficult to buy today and is actually illegal for sale in certain areas of the country especially California. This is because of state and federally mandated VOC laws. VOC’s are Volatile Organic Compounds which are chemicals found in paints and solvents that are considered harmful to the environment and living creatures. In addition, with the limited life of a lacquer or enamel paint job and the clear superiority of some of the higher quality modern paints, unless you are striving for 100% authenticity on your restoration, it would probably be to your advantage to choose one of the modern alternatives to lacquer or enamel. With today’s modern paints, there are two major choices suitable for use on a vintage vehicle Single Stage Urethanes also known as Single Stage Urethane Enamels and Two-Stage Urethanes. These urethanes are extremely durable, chip resistant, and chemical resistant and retain their gloss without dulling or fading. The single stage products are only similar to the old air dry lacquers and enamels in that they are one coating with the color, gloss and UV protection all in one material and do not require a clear topcoat. That is, the color is all the way through. They are all 2K formulations which means that an activator must be added per the manufacturer’s instructions which will chemically cure and harden the paint. They can be color sanded and rubbed out to provide that hard to describe yet pleasing, softer “polished bowling ball” look of a genuine lacquer paint job that looks so right on the rounded contours of a restored older car or truck. The two-stage products also known as “base-clear” are also 2K formulations requiring an activator but consist of a thin, no gloss color only film “base” which is sprayed on then top coated with multiple coats of urethane clear. The clear is then responsible for all the UV resistance, gloss and protection of the paint coating. While the two stage base clears do provide an attractive, deep, high gloss finish on more modern vehicles and the clear can also be color sanded and buffed to a glass-like surface, they often can be too glossy and look out of place on an older car.

    Another two-stage, base-clear system is the “water-based” coatings that are rapidly growing in popularity especially in today’s VOC sensitive world. It should be noted however that it is only the color base coat that is water based. At this time, there are no known, successful water-based clear coats. They are still solvent based formulations although the paint manufacturers are working hard to introduce successful, water based clear product.


    Composition of Historic Stucco

    Before the mid-to-late nineteenth century, stucco consisted primarily of hydrated or slaked lime, water and sand, with straw or animal hair included as a binder. Natural cements were frequently used in stucco mixes after their discovery in the United States during the 1820s. Portland cement was first manufactured in the United States in 1871, and it gradually replaced natural cement. After about 1900, most stucco was composed primarily of portland cement, mixed with some lime. With the addition of portland cement, stucco became even more versatile and durable. No longer used just as a coating for a substantial material like masonry or log, stucco could now be applied over wood or metal lath attached to a light wood frame. With this increased strength, stucco ceased to be just a veneer and became a more integral part of the building structure.

    Caulking is not an appropriate method for repairing cracks in historic stucco. Photo: NPS files.

    Today, gypsum, which is hydrated calcium sulfate or sulfate of lime, has to a great extent replaced lime Gypsum is preferred because it hardens faster and has less shrinkage than lime. Lime is generally used only in the finish coat in contemporary stucco work.

    The composition of stucco depended on local custom and available materials. Stucco often contained substantial amounts of mud or clay, marble or brick dust, or even sawdust, and an array of additives ranging from animal blood or urine, to eggs, keratin or gluesize (animal hooves and horns), varnish, wheat paste, sugar, salt, sodium silicate, alum, tallow, linseed oil, beeswax, and wine, beer, or rye whiskey. Waxes, fats and oils were included to introduce water-repellent properties, sugary materials reduced the amount of water needed and slowed down the setting time, and alcohol acted as an air entrainer. All of these additives contributed to the strength and durability of the stucco.

    The appearance of much stucco was determined by the color of the sand&mdashor sometimes burnt clay&mdashused in the mix, but often stucco was also tinted with natural pigments, or the surface whitewashed or color-washed after stuccoing was completed. Brick dust could provide color, and other coloring materials that were not affected by lime, mostly mineral pigments, could be added to the mix for the final finish coat. Stucco was also marbled or marbleized&mdashstained to look like stone by diluting oil of vitriol (sulfuric acid) with water, and mixing this with a yellow ochre, or another color. As the twentieth century progressed, manufactured or synthetic pigments were added at the factory to some prepared stucco mixes.


    Is America the New Rome? – United States vs. the Roman Empire

    Share this Article

    The example of the first great republic in recorded history (509 B.C. to 29 B.C.) was omnipresent in the minds of America’s founders as they created a new republic centuries later. As a consequence of their deliberations and, perhaps, the “protection of divine Providence” as written in the Declaration of Independence, the United States of America, in the mind of many of the founders, was intended to be the modern equivalent of the Roman Republic. The Roman Republic ended with the infamous assassination of Julius Caesar in 27 B.C..

    After a protracted civil war, Octavian became the first “Imperator Caesar,” or Roman emperor. The subsequent period – post-republic – of Roman dominance is known in history as the “Roman Empire.” While Rome enjoyed an additional 500 years of world dominance and internal conflict under the Caesars, history reports its disintegration in the fifth century A.D. (476 A.D.) following the successful invasion of the barbarian Germanic tribes.


    How can 30-year-old receivers sound better than new ones?

    Since no one listens before they buy, selling today's receivers is a numbers game, and sound quality takes a back seat.

    />A 31-year-old Pioneer SX-1980 receiver, still sounding great today. Brent Butterworth

    It's a strange turn of events, but mainstream manufacturers long ago gave up on the idea of selling receivers on the basis of superior sound quality. I'm not claiming today's receivers sound "bad," but since almost no one ever listens to a receiver before they buy one, selling sound quality is next to impossible.

    Back in the days when brick-and-mortar stores ruled the retail market, audio companies took pride in their engineering skills and designed entire receivers in-house. Right up through the 1980s most of what was "under the hood" was designed and built by the company selling the receiver. That's no longer true the majority of today's gotta-have features--auto-setup, GUI menus, AirPlay, iPod/iPhone/iPad compatibility, home networking, HD Radio, Bluetooth, HDMI switching, digital-to-analog converters, Dolby and DTS surround processors--are sourced and manufactured by other companies. Industry insiders refer to the practice of cramming as many features as possible into the box as "checklist design." Sure, there are rare glimpses of original thinking going on--Pioneer's proprietary MCACC (Multi Channel Acoustic Calibration) auto-setup system is excellent--it's just that there's precious little unique technology in most receivers.

    It doesn't matter if those features are useful to the majority of buyers, or if they're easy to use no, the features are included to make the product more attractive to potential buyers. It's a numbers game, pure and simple. The receiver with the right combination of features is judged to be the best receiver.

    OK, so what's wrong with that? The receiver engineers have to devote the lion's share of their design skills and budget to making the features work. Every year receiver manufacturers pay out more and more money (in the form of royalties and licensing fees) to Apple, Audyssey, Bluetooth, HD Radio, XM-Sirius, Dolby, DTS and other companies, and those dollars consume an ever bigger chunk of the design budget. The engineers have to make do with whatever is left to make the receiver sound good. Retail prices of receivers, the ones that sell in big numbers, never go up. The $300 to $500 models are where most of the sales action is, just like 10, 20 or 30 years ago, when their $300 to $500 models weren't packed to the gills with the features I just listed. Something's got to go, and sound quality usually takes the hit.

    />The Pioneer SX-1980 housed a more massive power supply than the best of today's receivers. Brent Butterworth

    I don't blame Denon, Harman Kardon, Marantz, Onkyo, Pioneer, Sony, or Yamaha for making "good-enough-sounding" receivers, but it would be nice if they could occasionally offer one or two models with a minimal features set, and devote the maximum resources to making the thing sound as good as possible. Oh right, that's what high-end audio companies do!

    As luck would have it, my friend Brent Butterworth just wrote an article where he compared the sound of a 2009 Yamaha RX-V1800 receiver with a 1980 Pioneer SX-1980 and a 1978 Sony STR-V6 receiver. In blind tests, where the listeners did not know which receiver was playing, most preferred the sound of the ancient Pioneer. Butterworth said, "Even with all the levels carefully matched, and even in conditions where none of the receivers were ever pushed past their limits, the Pioneer SX-1980 simply beat the hell out of the other receivers." Gee, what a shock in three decades, the industry has gone backward!

    Right up through most of the 1990s power ratings differentiated models within a given manufacturer's lineup, but that's barely true anymore. In those days the least expensive models had 20 or 30 watts a channel, but now most low- to midprice receivers have around 100 watts per channel. For example, Pioneer's least expensive receiver, the VSX-521 ($250) is rated at 80 watts a channel its VSX-1021 ($550) only gets you to 90 watts: and by the time you reach the VSX-53 ($1,100) you're only up to 110 watts per channel! Doubling the budget to $2,200 gets you 140 watts per channel from their SC-37 receiver. Denon's brand-new $5,500 AVR-5308CI delivers 150 watts per channel! The 31-year-old Pioneer SX-1980 receiver Butterworth wrote about was rated at 270 watts per channel. He tested the Pioneer and confirmed the specifications: "It delivered 273.3 watts into 8 ohms and 338.0 watts into 4 ohms." It's a stereo receiver, but it totally blew away Denon's state-of-the-art flagship model in terms of power delivery!

    So if you care more about sound quality than features, look around for a great old receiver! Go ahead and hook up your Blu-ray player's HDMI output directly to your display and get state-of-the-art image quality, and the player's stereo analog outputs to the receiver, and you may get better sound than today's receivers.


    Assista o vídeo: Great Inventions, Gadgets and Technology! #28