Mostrando postagens com marcador Física. Mostrar todas as postagens
Mostrando postagens com marcador Física. Mostrar todas as postagens

Vaporização | Ebulição | Calefação e Sublimação

Vaporização | Ebulição | Calefação e Sublimação 

Vaporização é a conversão de uma substância originalmente em estado líquido ou sólido para o estado gasoso. Pode processar-se de várias formas. Chama-se evaporação a vaporização que se efetua naturalmente, quando algumas moléculas da superfície de um líquido se desprendem; ebulição é a que se produz rapidamente, com formação de bolhas de vapor no interior da massa líquida, mediante o emprego de um agente acelerador como o calor; calefação é a que se produz quando gotas de um líquido são lançadas sobre uma chapa quente; e sublimação é a conversão de um sólido diretamente para a fase de vapor.

Quando se abre um vidro de perfume, seu cheiro imediatamente pode ser sentido, em consequência da transformação de algumas moléculas do líquido em vapor. De forma análoga, as bolinhas de naftalina guardadas por muito tempo diminuem de tamanho devido à vaporização do material de que elas são feitas.

Qualquer que seja sua forma, só em  presença de calor ocorre a vaporização. É o calor que produz o aumento da energia cinética das moléculas do líquido ou sólido, e, portanto, da força de repulsão entre elas, o que facilita o desprendimento das moléculas na forma de vapor. Quando isto se dá na ausência de uma fonte calorífica, o calor é roubado ao ambiente ou ao próprio líquido: são fatos bem conhecidos, por exemplo, o frio produzido na mão pela vaporização do éter ou aquele que uma pessoa sente ao sair do banho.

Evaporação

Evaporação

Durante a evaporação, formam-se vapores na superfície do líquido em consequência do desprendimento e afastamento de algumas moléculas. A quantidade de moléculas transferidas na unidade de tempo é denominada velocidade de evaporação v. O inglês John Dalton verificou que a velocidade de evaporação (1) cresce com a temperatura, (2) varia com a volatilidade do líquido, (3) é proporcional à diferença entre a pressão máxima F do vapor e à pressão atual f desse vapor na atmosfera, (4) cresce com a agitação do ar, (5) é proporcional à superfície S de evaporação e (6) é inversamente proporcional à pressão H do gás que constitui a atmosfera livre. As leis de evaporação exprimem-se pela fórmula:

                      F - f
            v = B.S. _______         
                        H
onde v, S, F, f e H foram definidos acima, e B é uma constante que depende de outros fatores, como a natureza do líquido e a agitação do ar.

Ebulição

Ebulição

Processo de vaporização mais rápido que a evaporação, a ebulição caracteriza-se por ocorrer a uma temperatura constante. O processo obedece a três leis: (1) numa determinada pressão, a ebulição de um líquido puro dá-se a uma temperatura constante, chamada de temperatura de ebulição; (2) a temperatura do líquido é invariável durante todo o tempo da ebulição; e (3) durante a ebulição, a tensão do vapor saturante é igual à pressão da atmosfera ambiente acima do líquido. Denomina-se ponto de ebulição normal a temperatura em que ocorre a ebulição do líquido, sob uma pressão atmosférica normal (760mm de mercúrio).

Calefação

Calefação

Habitualmente, a calefação se produz quando um líquido entra em contato com um corpo cuja temperatura é muito mais elevada que o ponto de ebulição do líquido. Se, por exemplo, um pouco d'água é lançado sobre uma placa metálica aquecida ao rubro, formam-se diversas gotas mais ou menos esféricas que rolam sobre a placa sem com ela entrar em contato, e só lentamente se transformam em vapor, por irradiação. Esse fenômeno obedece a duas leis comprovadas experimentalmente: (1) o glóbulo calefeito não toca a superfície quente, admitindo-se que seja sustentado por uma densa fase de vapor do líquido a uma tensão considerável; (2) a temperatura do glóbulo é inferior à temperatura de ebulição do líquido. A calefação explica por que certas explosões em caldeiras se produzem depois de apagado o fogareiro, ou por que se pode mergulhar rapidamente a mão molhada em metal fundido sem consequências.

Sublimação
SublimaçãoOs sólidos, assim como líquidos, apresentam pressão de vapor, que aumenta com a elevação da temperatura. Se o vapor do sólido é constantemente removido, o sólido passará diretamente à fase de vapor, sem antes tornar-se líquido. Tal mudança é denominada sublimação. Como nos outros casos de vaporização, o processo absorve calor, que é chamado calor de sublimação. Para a maioria dos sólidos, a pressão de vapor é muito pequena, razão pela qual, à temperatura ambiente, a sublimação é praticamente desprezível. Para outros, no entanto, como o dióxido de carbono congelado (gelo seco), o iodo, o naftaleno e a cânfora, essa pressão é suficientemente grande para sublimá-los.

Armas Nucleares

Armas Nucleares

Armas Nucleares

Armas nucleares são as que utilizam os efeitos provocados pelas reações registradas no interior do núcleo atômico. Fazem parte do chamado trinômio NBQ (nucleares, biológicas, químicas), de destruição maciça.

No dia 5 de agosto de 1945 o presidente dos Estados Unidos, Harry S. Truman, ordenou que se desencadeasse o processo de lançamento da primeira bomba atômica. No dia seguinte uma bomba com vinte quilotons de potência caía sobre a cidade japonesa de Hiroxima. Um minuto e meio depois do lançamento formou-se uma bola de fogo a uma altura de 570m, que alcançou uma temperatura de 300.000o C. Morreram aproximadamente 240.000 pessoas. Era o ensaio da guerra atômica.

Fundamentos das armas nucleares
O conjunto de elementos que ocupam os últimos lugares do sistema periódico apresenta a tendência natural de emitir radiações ou partículas. Essa radioatividade natural é própria do grupo dos actinídeos, de que fazem parte os isótopos 235 e 238 do urânio, o plutônio e o tório.

A radioatividade natural produz a desintegração dos núcleos atômicos, que sucessivamente se transformam em outros pela perda de massa e chegam a formar séries em que cada elemento procede do anterior. A cada vez que se registra uma desintegração ocorre emissão de partículas e radiações, liberando-se grande quantidade de energia em forma de calor. Ao final do processo, que pode durar milhares de anos, os corpos convertem-se em chumbo estável. Na radioatividade artificial, provoca-se o processo de desintegração pelo bombardeio dos elementos com partículas adequadas, de modo a liberar energia.

Os elementos leves que ocupam os primeiros lugares da tabela periódica, como o hidrogênio ou o lítio, apresentam a propriedade oposta. Quando seus átomos são bombardeados, podem chegar a unir-se depois de entrarem em colisão, para formar um núcleo que é a soma dos anteriores. A massa perdida transforma-se em energia, liberada em forma de calor, com emissão de prótons e nêutrons. Ambos os fenômenos, a fissão e a fusão de núcleo, constituem a base teórica para o desenvolvimento das armas nucleares.

Uma explosão nuclear produz reações de fusão ou fissão, liberando instantaneamente grande quantidade de energia mecânica, térmica e de partículas ou radiações. Os elementos mais utilizados na fissão são o urânio 235 e o plutônio 239. Quando esses elementos são bombardeados com nêutrons, alguns de seus núcleos instáveis se cindem, emitem novos nêutrons e liberam energia. O processo, repetido sucessivas vezes, denomina-se reação em cadeia e, para consegui-lo, precisa-se de uma massa crítica ou mínima de elemento físsil. Na fusão nuclear, a liberação de energia produz-se depois da união de núcleos e tem uma potência cerca de sete vezes superior à fissão. Visto que se obtêm temperaturas de ordem astronômica, próximas das que se registram nas reações estelares, o processo denomina-se termonuclear.

Os produtos que se desprendem numa explosão nuclear são partículas e radiações, distribuindo-se nas categorias enumeradas a seguir.
Partículas alfa: possuem a estrutura dos núcleos de hélio. Trata-se de partículas relativamente lentas em seus deslocamentos (cinco por cento da velocidade da luz), com tamanho e carga elétrica relativamente elevados. Têm pouca penetração no corpo humano e seu maior perigo se acha no considerável poder de ionização, que apresenta grave risco para o organismo, ao converter, por exemplo, os átomos do ar em íons.
Partículas beta: são elétrons que se movem a grande velocidade (próxima à da luz), muito pequenas e com capacidade de penetração média. São detidas pelo plástico, pelo alumínio e pelo aço.
Radiações gama: são radiações de natureza eletromagnética que se deslocam à velocidade da luz. Têm grande capacidade de penetração e produzem ionização. As radiações gama atravessam o vidro e até mesmo chapas de aço de vários centímetros de espessura. No entanto, detêm-se diante do chumbo e do concreto. Seus efeitos no organismo humano são graves e podem manifestar-se a longo prazo.

Nêutrons: são partículas nucleares eletricamente neutras e emitidas a baixa velocidade (dez por cento da velocidade da luz) tanto em fissão como em fusão. Sua penetração é muito grande porque elas têm massa e são destituídas de carga. Os efeitos que provocam são muito graves.

Tipos de armas nucleares
Tipos de armas nucleares - A bomba atômica de fissão é uma arma que provoca uma imediata reação em cadeia. Constituem o material físsil o urânio e o plutônio, elementos que apresentam determinados valores de massa crítica que, no entanto, se encontram divididos em massas subcríticas antes da explosão. É necessário, portanto, dispor de um procedimento de união das massas subcríticas, que inicialmente estarão separadas por placas de chumbo e cádmio, de uma fonte de nêutrons e de um moderador, e de um refletor de nêutrons à base de zircônio, para assegurar que a massa se fissione.

A bomba atômica de fusão, de hidrogênio ou termonuclear também se conhece como bomba H. Seus componentes básicos são: o material físsil, constituído à base de um isótopo de hidrogênio; um elemento capaz de produzir temperatura de milhões de graus, que pode ser uma bomba atômica, em um catalisador (de partículas) ou lasers; e um elemento multiplicador de energia, como é outra bomba atômica, que se ativa com nêutrons liberados na fusão.

A bomba de nêutrons é um engenho de fusão em que se reduzem os efeitos mecânico e térmico ao máximo possível, para obter-se o maior efeito radioativo dos nêutrons. Essa bomba, por isso, recebeu o qualificativo de "limpa", uma vez que produz baixas humanas sem danificar o material bélico, que pode ser reaproveitado pelo atacante.

Efeitos das armas nucleares

Efeitos das armas nucleares

Ao produzir-se no ar a explosão nuclear, forma-se uma bola de fogo cujo centro situado no ponto de explosão e raio é variável. Esse primeiro fenômeno dura um décimo de segundo por megatons de energia (unidade equivalente a um milhão de toneladas de explosivo químico de grande potência). Sua consequência imediata sobre o organismo é a perda da visão.

Os efeitos mecânicos ocorrem como reflexo aproximado da metade da energia liberada. Cerca de três segundos depois da explosão, verifica-se enorme rajada de gases que dá origem a várias ondas. A primeira é a onda de choque, cuja pressão, registrada a 300m do centro da explosão, é da ordem de dez toneladas por centímetro quadrado. Em seguida se desloca uma onda de sucção de menor potência que a anterior e de sentido oposto. Depois avança a onda refletida, que provém do impacto da primeira contra o solo e, por último, registra-se a onda reforçada, soma da onda de choque com a refletida. Todas elas produzem esmagamentos, derrubada de edifícios e destruição das estruturas mais resistentes.

A bola de fogo libera energia calorífera até cerca de três segundos depois da explosão, em quantidade que alcança trinta por cento do total. A temperatura da bola chega a vários milhões de graus e as radiações térmicas produzem-se por impulsos, ultravioleta e infravermelho. As consequências térmicas consistem em incêndios, queimaduras, carbonizações etc.

Os efeitos radioativos, finalmente, são os que se mantêm com maior persistência depois da explosão. Registra-se uma radiação instantânea de nêutrons, partículas alfa, beta e raios gama; outra, também instantânea, induzida pelos componentes terrestres convertidos em radioatividade; e a chamada chuva radioativa, que dura várias horas e é produzida pela nuvem de resíduos. A radioatividade residual pode prolongar-se por semanas ou meses.

Perfil geo-estratégico
A diferença no grau de evolução da pesquisa nuclear nos diversos países fez com que só alguns deles disponham de armas nucleares em seus arsenais.

O desenvolvimento desse tipo de armamento iniciou-se nos Estados Unidos e imediatamente depois começou na então União Soviética. Foram essas duas potências que dominaram, desde suas primeiras etapas, a pesquisa sobre a energia nuclear e as que dotaram suas forças armadas de maior número de unidades nucleares. No final da década de 1980, também dispunham de armas atômicas os exércitos da França, Reino Unido, República Popular da China e Índia. Alguns outros estados também alcançaram nesse campo um desenvolvimento tecnológico que adquiriu proporções muito próximas às dos citados.

www.klimanaturali.org

Acústica | Física

Acústica | Física

Acústica | FísicaA acústica é a parte da física que trata do som e de tudo que a ele se refere. O fenômeno sonoro compreende aspectos da mais diversa índole, como a natureza, a produção, a propagação e a recepção do som. Na cadeia produção-recepção inclui-se a pessoa que recebe seu efeito, o que dá origem a complexos problemas de percepção.

A voz de uma pessoa, as notas de um violino, o trovão que ribomba durante a tempestade, a formação de imagens através dos ultra-sons - tudo isto são diferentes aspectos de fenômenos cujo estudo compete à acústica.

A acústica é uma ciência multidisciplinar - Assim, os físicos investigam a forma como o som é transmitido através da matéria; os engenheiros acústicos procuram obter uma reprodução fiel das ondas sonoras e aproveitá-las mediante dispositivos que transformam a energia acústica em mecânica ou elétrica; e os arquitetos estudam o isolamento e a absorção do som em edifícios. Em outros domínios, os músicos estudam as vibrações básicas, as misturas de sons, os harmônicos etc.; os médicos concentram seu interesse no ouvido e nas cordas vocais das pessoas, bem como na medição dos níveis de ruído; e os linguistas estudam a emissão dos sons pelo homem para chegar a sua forma mais simples, os fonemas.

Histórico da acústica
O estudo científico do som remonta à antiguidade, e atribuem-se a Pitágoras as primeiras experiências de análise dos sons. Por volta do século VI a.C. ele observou que a altura do som produzido por uma corda vibratória varia com o seu comprimento.

Durante a Idade Média não houve contribuições notáveis ao conhecimento científico da acústica. No século XVII, porém, realizaram-se consideráveis avanços. Em 1635, Pierre Gassendi mediu a velocidade do som no ar, encontrando um número próximo ao real. Por volta de 1650, Otto von Guericke demonstrou que o som não se propagava no vácuo, e em 1686, Sir Isaac Newton explicou os mecanismos de propagação. No princípio do século XVIII, Brook Taylor, reduzindo o movimento de uma corda vibratória a seus princípios mecânicos, produziu uma fórmula que em 1747 Jean le Rond d'Alembert viria a demonstrar em Pesquisas sobre as cordas vibratórias. Jakob I. Bernouilli e Leonhard Euler estudaram a vibração das hastes metálicas.

No início do século XIX determinou-se a velocidade do som em diferentes meios, e pouco depois Jean-Baptiste-Joseph Fourier analisou em profundidade os fenômenos ondulatórios que serviriam de base aos estudos do alemão Mathias Hermann. Mais tarde, Christian Doppler descobriu o efeito perturbador da velocidade sobre o som, e no fim do século foi criado o primeiro aparelho capaz de reproduzir um som previamente gravado (o fonógrafo de Thomas Alva Edison) e iniciaram-se as investigações no amplo campo que relaciona a acústica com a eletricidade, no qual se destacam as figuras de Edison e Alexander Graham Bell, o inventor do telefone.

No século XX desenvolveram-se várias técnicas que permitiram o transporte do som a grandes distâncias por meio da telefonia; a gravação e reprodução dos sons em fita magnética, discos e filmes; a produção de sons sintéticos, por via eletrônica; o emprego de ondas acústicas para a detecção de objetos, através do radar, do sonar (para localização de submarinos e cardumes) e dos ecógrafos (para diagnóstico em medicina interna); e muitas outras aplicações relacionadas com os ultra-sons.

Natureza do som
Quando um corpo vibratório modifica sua posição de repouso, ou de equilíbrio estático, movimenta o ar que o circunda. A compressão das partículas, em sua frente, e o vácuo correspondente, na parte posterior, a ele se transferem progressivamente e se afastam do foco. Quando o corpo modifica sua posição no sentido contrário, a compressão e o vácuo se reproduzem de modo inverso. O ar assim perturbado se movimenta segundo um modelo ondulatório. Os trens de ondas chegam através do ar ao ouvido, e produzem em seu interior a sensação auditiva, conhecida como som.

As partículas materiais submetidas a esse fenômeno movem-se na mesma direção que a onda. Trata-se, pois, de ondas longitudinais, que se afastam a partir da fonte em sentido radial. As ondas podem ser submetidas a processos físicos da mais diversa natureza, como a reflexão, a refração, a difração, a interferência ou a absorção. Para sua propagação é necessário que exista um meio, cuja densidade e temperatura determinem a velocidade do som emitido. A transmissão de ondas implica transferência de energia através do espaço.

Características dos sons
Chamam-se de sons simples aqueles que obedecem a modelos senoidais, e que correspondem, portanto, à representação da função trigonométrica seno. Em geral, cada um dos sons percebidos pelo ouvido humano é constituído por um conjunto de componentes sônicos simples, caracterizados por sua intensidade e frequência.

Define-se em geral a intensidade de um som como a quantidade média de energia transportada pela onda, por unidade de superfície e por unidade de tempo, através de uma superfície perpendicular à direção de propagação da onda. O valor dessa grandeza está relacionado à densidade do fluido em que as ondas se propagam, a sua amplitude e à velocidade.

Outras qualidades essenciais para se definir a natureza do som são a altura (distingue em graves ou agudas as sensações sonoras e está relacionada de perto à frequência) e o timbre. Essa última característica permite distinguir sons de igual altura e intensidade emitidos, por exemplo, por duas vozes ou dois instrumentos musicais diferentes, e está vinculado ao número de harmônicos que complementam um som simples, ou seja, são emitidos simultaneamente com esse último. A frequência de tais harmônicos é um múltiplo exato do som fundamental.

Velocidade
Entende-se por velocidade do som a rapidez da propagação das ondas acústicas em um dado meio. Por conseguinte, não se pode dizer que o som tenha uma só velocidade; ela é diferente para cada situação. Seu valor é determinado pelo meio, pela temperatura e pela pressão. A velocidade do som no ar, à temperatura de 20o C e pressão atmosférica normal, é de 344 metros por segundo; na água do mar, essa velocidade é de 1.490 m/s.

Medição
Os fenômenos relacionados com a intensidade do som abrangem um vasto campo. Assim, a relação entre a potência sonora de um suave murmúrio captado pelo ouvido e o estrondo produzido por um motor-foguete pode ser de 1 para 1017. A medição do som é realizada por comparação de potência, e sua unidade prática é o decibel (dB), submúltiplo da unidade sistemática, o bel (B).

O nível de potência do som é determinado pela fórmula N = 10 log W/Wo dB, onde W é a potência do som em watts e Wo a potência de referência. Em vista disso, define-se um som como a expressão de um excesso ou de uma falta de decibéis em relação a um valor prefixado.

Produção de ondas acústicas
O mecanismo de produção das ondas sonoras tem efeitos distintos, de acordo com o valor da frequência do fenômeno. As ondas de frequência inferior a vinte mil hertz são familiares e aparecem em três manifestações distintas: o ruído, a música e a voz humana. Acima desse valor, têm-se os ultra-sons, que alcançam frequências elevadíssimas. Imperceptíveis pelo ouvido humano, são porém captadas por alguns animais.

Dá-se o nome de ruído a todo som que, subjetivamente, seja classificado como desagradável ou indesejado. O ruído resulta da combinação de sons de uma única frequência, ou tons puros, e apresenta irregularidade no espectro (gama de frequências) contínuo ou no comprimento de onda. Por outro lado, a música é definida como uma sensação mental subjetiva e complexa, produzida por uma sucessão ou combinação de sons diferentes, que têm origem em corpos vibratórios, tais como cordas, membranas ou colunas de ar. Ao contrário do ruído, os sons musicais apresentam uma estrutura harmônica simples, de ondas regulares.

Os sons produzidos pela voz humana constituem ondas acústicas complexas. O sistema que os produz é formado por um conjunto que exerce a função de fole (diafragma, pulmões, brônquios e traqueia), um vibrador (laringe e cordas vocais), ressoadores (nariz, boca, garganta, cabeça etc.) e articuladores (lábios, língua, dentes e palato). A frequência da voz é determinada pelas cordas vocais.

Propagação das ondas acústicas
Tal como qualquer fenômeno de natureza ondulatória, as ondas que percorrem um meio material podem sofrer reflexão, refração, difração, dispersão, interferência ou absorção.

Assim, por exemplo, uma onda acústica é refletida sempre que existir descontinuidade ou mudança do meio em que se propaga. Fenômeno associado de perto à reflexão é o eco. Trata-se de um som definido ou distinguível que se escuta separado ou retardado, em resultado da reflexão da onda sonora. Quando o retardo é inferior a um décimo de segundo, o ouvido não percebe a separação e os sons se superpõem na forma de eco de reverberação. Esse processo acústico, fundamento do sonar, é aplicado na detecção de objetos e embarcações submersas, no transporte e na navegação.

Quando as ondas transmitidas encontram uma descontinuidade entre diferentes meios, uma parte delas se reflete e outra penetra no novo meio, produzindo-se um desvio na trajetória. Nisso consiste o fenômeno da refração.

Tem-se a difração quando as ondas contornam um obstáculo interposto na trajetória de propagação. A interferência resulta da superposição de ondas da mesma frequência e amplitude, que reforçam ou neutralizam as primitivas. A dispersão é consequência do choque de ondas curtas contra obstáculos grandes ou de ondas longas contra obstáculos pequenos.

Outros fenômenos acústicos de interesse são a filtragem, processo de eliminação de determinadas frequências; e a absorção, que é a perda de energia que ocorre sobretudo quando a onda se propaga através de um meio sólido ou líquido.

Recepção das ondas acústicas
Transmitidas através de diferentes meios, as ondas chegam enfim ao elemento sensível que as recebe e extrai a informação nelas contida. Quando a frequência varia de vinte a vinte mil hertz aproximadamente, o elemento sensível pode ser o ouvido humano. Abaixo do limite inferior situam-se as ondas subsônicas não audíveis; acima do limite superior, têm-se as ondas ultra-sônicas. Em ambos os casos, o elemento sensível se comporta como um transformador que converte a energia acústica em outro tipo de energia aproveitável.

O ouvido atua como um transdutor eletroacústico que modifica as vibrações recebidas e as converte em impulsos elétricos perceptíveis pelo nervo auditivo, mais sensível às mudanças de frequência que às de intensidade. De sua parte, o cérebro interpreta os impulsos, dando lugar à percepção do som.

O mecanismo que permite identificar e localizar a direção de uma fonte chama-se audição biaural e se deve à captação de diferentes intensidades acústicas do som que chega a cada um dos ouvidos.

As ondas ultra-sônicas não se propagam a grandes distâncias no ar, embora possam fazê-lo, com moderada atenuação, nos líquidos e nos sólidos. As frequências até 1013 Hz recebem o nome de sônicas; as situadas acima disso são conhecidas como hipersônicas. Estas últimas podem chegar até 1,25 x 1013 Hz.

Os ultra-sons têm múltiplas aplicações. Na indústria são empregados em solidificação, precipitação, aglomeração e emulsão de metais; nos laboratórios, destinam-se à detecção de imperfeições e ao estudo de propriedades mecânicas, físicas, químicas e metalúrgicas dos materiais; na medicina, à localização de tumores e ao diagnóstico; em oceanografia e hidrografia, às medições submarinas, ao levantamento cartográfico e à detecção de cardumes, embarcações e objetos submersos.

Acústica arquitetônica
Acústica arquitetônica
O controle e a correção de todos os aspectos negativos que possam afetar a adequada propagação e a boa recepção do som são os objetivos da acústica arquitetônica. Essa disciplina se ocupa do controle da reverberação, da redução e do isolamento do ruído e da absorção e distribuição do som.

A reverberação é a persistência do som num recinto, em consequência da reflexão em suas paredes. O fenômeno depende do tamanho e da forma do recinto, bem como da frequência do som. O chamado tempo de reverberação é o número de segundos transcorridos para que o ruído diminua em sessenta decibéis, uma vez extinta a fonte.

O ruído (vibrações, zumbidos etc.) pode ser reduzido com materiais absorventes, silenciadores e câmaras especiais, chamadas anecoicas. O ruído das estruturas, transmitido por paredes, tubulações etc., é amortecido por meio da interrupção da via de transmissão, com abafadores de som. Os ruídos de máquinas, por sua vez, são minorados com silenciadores e filtros que isolam os locais onde elas se acham instaladas.

Um recinto que conte com um tempo de reverberação ótimo, seja livre de ruídos estranhos e possua uma distribuição sonora regular pode ser considerado uma sala acústica ideal. A sala acústica deverá evitar os ecos, os focos pontuais de som, os pontos surdos e as sombras acústicas causadas por obstáculos. Todos esses critérios são levados em conta no projeto de teatros, salas de concerto e locais congêneres.

Relação Espaço-Tempo

Relação Espaço-Tempo

Relação Espaço-TempoO conceito de espaço-tempo, que relaciona duas categorias tratadas de forma independente pela física tradicional, foi postulado por Albert Einstein na teoria especial da relatividade, de 1905, e na teoria geral da relatividade, de 1915. O senso comum nunca admitiu conexão entre espaço e tempo. Até o fim do século XIX, acreditava-se que o espaço físico era um plano contínuo de três dimensões -- isto é, o conjunto de todos os pontos possíveis -- ao qual se aplicavam os postulados da geometria euclidiana. As coordenadas cartesianas pareciam naturalmente adaptadas a esse espaço. O tempo era visto então como independente do espaço, como um contínuo separado, unidimensional, totalmente homogêneo em sua extensão infinita. Qualquer "momento atual" no tempo poderia ser tomado como uma origem: a partir dessa origem, se media o tempo transcorrido ou a transcorrer até qualquer outro momento passado ou futuro. A mecânica clássica, expressa matematicamente com rigor por Isaac Newton, repousa sobre a ideia de espaço e tempo absolutos.

Para localizar especialmente um objeto, são suficientes três medidas: de comprimento, largura e altura. Assim, com um eixo de três coordenadas, se pode descrever a posição de um ponto no espaço. Para localizar um evento, que ocorre durante um intervalo determinado, exige-se a noção adicional de tempo. Assim, combinando o primeiro sistema, tridimensional, com a medida de tempo, chega-se à noção de espaço-tempo, tetradimensional.

As noções tradicionais sobre espaço e tempo absolutos, no entanto, são teóricas e não intuitivas, como frequentemente se acredita. Para o senso comum, elas são as únicas possíveis, pois se é muito simples pensar em comprimento e largura, e relativamente simples pensar em comprimento, largura e altura, imaginar um espaço tetradimensional é impossível. Para localizar um objeto no espaço, sabe-se que é necessário situá-lo em relação a outros objetos, que funcionam como sistema de referência, ou referencial espacial. O referencial ideal é o sistema de três eixos de coordenadas que partem de uma origem. Observe-se que quando alguém se refere a "um ponto fixo no espaço", na verdade está falando de um ponto cujas coordenadas espaciais, em determinado referencial, são constantes, ou seja, o objeto está em repouso em relação ao referencial. Da mesma forma, quando se diz que um corpo se desloca no espaço, trata-se de um corpo cujas coordenadas num referencial dado são variáveis. A noção de espaço, como a de movimento, é sempre relativa a um referencial espacial. Não existe, portanto, um padrão único ou absoluto de inércia.

A inexistência da inércia absoluta significa que não se pode afirmar que dois eventos ocorridos no mesmo lugar, mas em instantes diferentes, ocorreram realmente no mesmo lugar do espaço. Supondo por exemplo que uma bola ao quicar no interior de um trem em movimento toque o assoalho do veículo a cada segundo, ela será vista quicando sempre no mesmo lugar para um observador situado no interior do trem, ou seja, um observador para quem o assoalho do trem esteja em repouso relativo. Para um observador sentado à beira da estrada, no entanto, a bola vai quicar cada vez vários metros adiante da vez precedente, pois o assoalho do trem está em movimento em relação a ele.

O referencial espacial parece satisfatório para situar objetos, ou pontos, mas para situar os acontecimentos, ou os movimentos, é necessário acrescentar uma coordenada de tempo ao sistema de referência. Pode-se definir um referencial de espaço-tempo associando um relógio a cada ponto fixo de um sistema de coordenadas espaciais. Assim, se estabelece uma relação entre dois sistemas em movimento: caracteriza-se um evento ocorrido num sistema de comparação com outro evento, em outro sistema. O universo em que a coordenada de tempo de um sistema depende tanto da coordenada de tempo quando das coordenadas de espaço de um outro sistema em movimento relativo denomina-se universo de Minkowski e constitui a alteração essencial postulada pela teoria especial da relatividade em relação à física tradicional.

As noções de tempo e de repouso ficam também, dessa forma, associadas ao referencial, e se torna impossível afirmar a priori que o intervalo de tempo entre dois acontecimentos seja sempre, em todos os casos, independente do referencial. O que se pode afirmar é que se dois acontecimentos tiveram coordenadas de espaço (x, i e z) e de tempo (t) coincidentes, eles definem o mesmo ponto no espaço-tempo. O espaço-tempo é a única verdadeira ideia absoluta. A separação em duas noções diferentes -- espaço e tempo -- só é possível quando se escolhe um sistema de referência espacial: um acontecimento fica então localizado em relação a esse referencial. Mas, da mesma forma, pode-se escolher um sistema de quatro coordenadas. O acontecimento, assim, se torna em relação ao espaço-tempo, contínuo tetradimensional.

O universo de Minkowski contém uma classe distinta de sistemas de referência e tende a não ser afetado pela presença da matéria (massa) em seu interior. Em tal universo, todo conjunto de coordenadas, ou de eventos específicos de espaço-tempo, é descrito como um "aqui-agora", ou um ponto universal. Os intervalos aparentes de espaço e tempo entre eventos dependem da velocidade do observador, que não pode, em nenhum caso, exceder a velocidade da luz. Em qualquer sistema de referência inercial, todas as leis físicas permanecem inalteradas.

www.klimanaturali.org

Supercondutividade | Física

Supercondutividade | Física

Supercondutividade | FísicaSupercondutividade é a propriedade que apresentam certos materiais sólidos de perder bruscamente toda resistência à passagem da corrente elétrica quando resfriados abaixo de um ponto mínimo denominado temperatura de transição, ou temperatura crítica. Essa temperatura varia conforme o material, mas em geral situa-se abaixo de 20 K (-253°C). Outra propriedade fundamental dos supercondutores é a capacidade de evitar a penetração em seu interior de campos magnéticos, ou seja, são materiais perfeitamente diamagnéticos.

Uma das propriedades mais características dos materiais supercondutores é a levitação magnética, cientificamente denominada efeito Meissner, pela qual as forças do campo magnético gerado no interior desses materiais são repelidas por substâncias diamagnéticas. Ímãs colocados em suas proximidades se mantêm suspensos no ar a pequena distância de sua superfície.

O descobrimento da supercondutividade se deve ao holandês Heike Kamerlingh Onnes que, em 1911, enquanto trabalhava com amostras criogênicas de mercúrio metálico a temperaturas próximas do zero absoluto (0 K ou -273,13° C), nelas detectou um repentino desaparecimento da resistência à passagem da corrente elétrica. A descoberta tem utilíssimas aplicações técnicas, pois permite reduzir consideravelmente as perdas que, devido ao aquecimento, sofrem os circuitos elétricos, decorrentes da resistência à corrente dos condutores normais. Posteriormente, foram sucessivamente identificadas propriedades supercondutoras em 25 elementos químicos, entre eles o chumbo e o estanho, e milhares de ligas metálicas e compostos químicos.

A utilização industrial dos supercondutores, contudo, apresentava dificuldades de ordem prática, pois as temperaturas de transição para a supercondutividade, no caso dos materiais conhecidos, se situavam abaixo de 20 K. Para obtê-las, era necessário empregar dispendiosos e pouco práticos tanques de hélio líquido. Alguns desses materiais  - chamados supercondutores de tipo II - perdem suas propriedades e passam a um estado de condução normal quando expostos a campos magnéticos muito fortes, mesmo quando se mantém a temperatura bem abaixo do ponto de transição.

A supercondutividade foi explicada em 1957 como consequência do acoplamento de dois elétrons, partículas elementares de carga elétrica negativa  responsáveis pela condução elétrica, que constituem os pares de Cooper. Esses pares se movem nas superfícies dos microcristais da rede cristalina dos materiais supercondutores sem sofrerem colisões nem perturbações que reduzam a energia que transportam.

Até 1987 usavam-se os supercondutores principalmente para fazer fios condutores de correntes em magnetos supercondutores. Como os supercondutores só conservam suas propriedades a temperaturas muito baixas, era preciso refrigerar os magnetos a hélio líquido, processo caro e trabalhoso. Foi então que surgiram os novos materiais - as cerâmicas e ligas supercondutoras, que mantêm a supercondutividade a temperaturas muito menos baixas e podem, portanto, ser resfriadas com um material bem mais abundante e barato, o nitrogênio líquido.

A partir de então, multiplicaram-se os estudos sobre os supercondutores e pesquisaram-se numerosos novos materiais capazes de manter a supercondutividade a temperaturas cada vez mais altas. No Brasil, o Instituto de Física da Universidade de São Paulo empenhou-se nessa pesquisa e em 1987 físicos de São Carlos (SP) chegaram a conseguir supercondutividade a -170°C.

A supercondutividade a temperaturas mais altas abre possibilidades imensas para a tecnologia, pois entre as principais vantagens oferecidas por dispositivos fabricados com supercondutores se incluem a baixa dissipação de calor, a grande velocidade de operação e a alta sensibilidade. Com o avanço das pesquisas, pode vir a ser possível fabricar fios que transmitam eletricidade sem perda, baterias que não descarreguem, conexões entre pastilhas e placas de circuitos integrados que aumentem sua velocidade e reduzam o calor nos computadores, além de um sem-número de dispositivos até então impensáveis.

Em 1995, cientistas americanos criaram um novo tipo de material supercondutor, um filme capaz de conduzir cem vezes mais eletricidade do que qualquer material do gênero. Com capacidade para operar em fortes campos magnéticos, o novo material transporta um milhão de ampères por centímetro quadrado e é suficientemente flexível para ser conduzido através de cabos elétricos.

www.klimanaturali.org

Teoria dos Quanta

Teoria dos Quanta

Teoria dos QuantaA teoria dos quanta engloba o conjunto de princípios físicos capazes de descrever e explicar o comportamento da matéria e da luz nas escalas atômica e subatômica, por meio de interpretações que diferem daquelas sustentadas pela mecânica clássica e se baseiam na emissão descontínua de energia. A mecânica quântica busca descrever e explicar as propriedades das moléculas e átomos e de seus elementos constituintes: elétrons, prótons, nêutrons e partículas como os quarks. Essas propriedades incluem as interações das partículas entre si e com a radiação eletromagnética.

Influenciados pelas ideias de Newton, a maioria dos físicos do século XVIII acreditava que a luz consistia de partículas, chamadas corpúsculos, mas já começavam a acumular-se evidências da teoria ondulatória da luz, aceita quase universalmente no fim do século XIX. Em 1900 o físico alemão Max Planck formulou uma hipótese audaciosa, segundo a qual a radiação é emitida de forma descontínua, em minúsculos pacotes denominados quanta, teoria que representou um impulso fundamental à ciência contemporânea.

Radiação e Corpo Negro
Radiação e Corpo NegroNo século XIX, várias pesquisas baseadas em teorias da física clássica buscaram explicar o fenômeno da radiação, um tipo de energia capaz de propagar-se no espaço na ausência de meio material e que se apresenta sob diferentes formas (ondas eletromagnéticas, raios infravermelhos, luz visível, raios ultravioleta, raios X, raios gama). Essas interpretações partiam do estudo da radiação num corpo negro, radiador ideal hipotético capaz de absorver e reemitir toda a energia radiante que sobre ele incide.


As ideias da física clássica, no entanto, embora explicassem os fenômenos de interferência e difração relativamente à propagação de luz, não esclareciam a absorção e a emissão de luz. Todos os corpos irradiam energia eletromagnética na forma de calor; na verdade, um corpo emite radiação em todos os comprimentos de onda. A energia irradiada é máxima num comprimento de onda que depende da temperatura do corpo; quanto mais quente o corpo, mais curto o comprimento de onda para a radiação máxima.

Até o início do século XX acreditava-se que a energia irradiada por um corpo negro existia sob a forma de ondas eletromagnéticas contínuas. Essas pesquisas permitiram explicar o fenômeno do arco-íris e calcular a temperatura da superfície solar (leis de Stefan-Boltzmann e de Wien), mas não resultaram na formulação de uma expressão matemática universal da questão, que permitisse conhecer a composição do espectro formado por todos os comprimentos de onda em que se pode decompor a radiação em função da temperatura. Era preciso mudar a base de raciocínio. O físico alemão Max Planck foi o primeiro a pensar que a chave do problema podia estar na descontinuidade da energia radiante.

Teoria do Quantum de Ação de Planck

Teoria do Quantum de Ação de Planck

A partir de resultados experimentais, Planck enunciou, em 1900, uma fórmula matemática capaz de fixar o poder emissivo do corpo negro para todos os comprimentos de onda. Planck considerava as moléculas do corpo negro osciladores elétricos lineares (um oscilador harmônico ou linear é qualquer partícula oscilante na qual o deslocamento seja periódico e possa ser representado matematicamente como função senoidal do tempo). A elas aplicou as leis dos movimentos harmônicos e usou sua hipótese para determinar o estado microscópico do sistema e formular a teoria quântica. Planck concluiu que a energia radiante não é emitida de forma contínua, mas como múltiplos inteiros de uma quantidade, o quantum, ou seja, só podem ser emitidas certas quantidades discretas de energia e nunca valores intermediários. A energia de um quantum pode ser descrita pela fórmula  , em que   é a frequência (inversamente proporcional ao comprimento de onda) da radiação emitida ou absorvida, e h a constante universal de Planck, cujo valor é 6,63 x 10-34 joules por segundo.

A teoria de Planck segundo a qual a energia radiante é descontínua como a matéria, não só estava em contradição com as ideias admitidas até a época, como também com a natureza ondulatória dessa energia, comprovada em vários estudos experimentais. Por essa razão, Planck tentou conciliar sua teoria com a física clássica ao afirmar que, ainda que a emissão fosse descontínua, a absorção se mantinha contínua.

A teoria quântica de Planck foi usada em 1905 por Albert Einstein para explicar o efeito fotoelétrico -- a liberação de elétrons de alguns metais em função da incidência de luz ou outro tipo de radiação eletromagnética. Em 1887, Gustav Ludwig Hertz observara que determinados materiais emitiam cargas elétricas quando submetidos à ação da luz. Comprovou-se mais tarde que todos os metais apresentam esse efeito ao serem submetidos à ação de raios de comprimento de onda suficientemente pequeno. Para os metais alcalinos, o fenômeno ocorria dentro da gama visível de radiações. Esse efeito não era explicável com base na teoria ondulatória da luz.

Ao estudar o fenômeno a partir da teoria de Planck, Einstein concluiu que a energia luminosa emitida em forma de quanta conserva sua natureza descontínua durante a propagação e é absorvida da mesma maneira. De acordo com essa interpretação, a energia luminosa de frequência   era transportada por corpúsculos de energia  , chamados por Einstein de quanta de luz, mas posteriormente denominados fótons.

A energia   de um fóton incidente é empregada para realizar o trabalho de arrancar um elétron do átomo e para conferir-lhe energia cinética. Se um fóton não dispõe de energia suficiente, é impossível somar a energia de outro fóton para conseguir arrancar um elétron. Deduz-se assim que para o processo de liberação dos elétrons, a energia total dos raios que incidem sobre o metal não influi, mas sim sua frequência  , que determina a energia individual de cada fóton.

De acordo com esse modelo físico, ainda que um feixe de raios do intervalo vermelho do espectro eletromagnético (raios infravermelhos) tenha muita energia em conjunto, ou seja, muitos fótons, a energia de cada fóton é pequena, porque a luz vermelha, de grande comprimento de onda, tem baixa frequência e o valor de   (a energia do fóton) é pequeno, e como consequência essa energia não é suficiente para arrancar um elétron do metal. Essa explicação do fenômeno fotoelétrico foi a primeira confirmação da teoria quântica e valeu a Einstein o Prêmio Nobel de física em 1921.

Números Quânticos

Números Quânticos

Em 1913, Niels Bohr empregou a teoria de Planck para formular um modelo atômico no qual os elétrons giram em orbitais (níveis energéticos) em torno do núcleo, da mesma forma que os planetas gravitam em torno do Sol no sistema solar. Um átomo em seu estado fundamental apresenta elétrons em seus níveis energéticos mais baixos. Ao receber energia radiante ou resultante da colisão com outros elétrons, o elétron salta de seu nível energético para outro de maior energia e entra num estado excitado. Como essa é uma situação instável, o átomo, ao retornar a seu nível energético inicial, emite energia eletromagnética na forma de quanta de luz, ou fótons. Segundo Bohr, as únicas órbitas permitidas são aquelas para as quais o momento angular do elétron é um número inteiro n, número quântico principal, multiplicado por.

O alemão Arnold Sommerfeld modificou essa teoria e criou outro número quântico, o secundário ou orbital l, para tornar a órbita elíptica. Mais tarde se criou o número quântico magnético m, que indica a inclinação da órbita e o número quântico de spin s, que determina o sentido de rotação do elétron. A ordem dos valores que esses números podem adotar deu origem a uma distribuição de níveis e subníveis energéticos, a partir da qual pode-se determinar a estrutura eletrônica dos átomos e, consequentemente, a tabela periódica dos elementos.

Mecânica Quântica

Mecânica Quântica

Embora se aplicasse apenas ao átomo de hidrogênio, o modelo atômico de Bohr representou o ponto de partida para a elaboração do conceito de mecânica quântica. Em 1924, o francês Louis de Broglie postulou que, da mesma forma que as radiações, a matéria comporta-se ora como onda, ora como partícula, o que ficou evidenciado em experiências posteriores que demonstraram o fenômeno de difração de elétrons. Dois anos depois, Erwin Schrödinger descreveu esse comportamento mediante uma estrutura matemática denominada mecânica ondulatória.

Descartada a concepção tradicional do elétron como uma simples carga pontual num meio sem estrutura, passou-se a aceitar que essa partícula em movimento é sempre acompanhada de uma série de ondas que, em última análise, determinam sua direção. Para definir a natureza ondulatória do elétron, o alemão Werner Heisenberg enunciou em 1927 o princípio da incerteza, segundo o qual é impossível realizar qualquer medição numa partícula muito pequena sem afetar seu estado natural. Ao utilizar um supermicroscópio, por exemplo, para determinar a posição de um elétron, a radiação empregada, com um comprimento de onda muito pequeno e uma elevada energia, modificaria o momento e, portanto, a velocidade do elétron. Heisenberg adotou então uma interpretação que apenas indica as regiões do espaço nas quais é mais provável que o elétron se encontre.

Ao aplicar a mecânica quântica ao estudo do átomo, desapareceram as trajetórias deterministas dos primeiros modelos atômicos, que foram substituídas por expressões de probabilidade ou pelas equações de onda criadas por Erwin Schrödinger. Nesse sentido, a mecânica quântica não apenas eliminou os problemas lógicos da física teórica, como também permitiu resolver novos problemas, tais como a interpretação das forças de valência e de forças intermoleculares nas ligações químicas.

Eletrodinâmica Quântica

Eletrodinâmica Quântica

A extensão dos princípios quânticos às interações estabelecidas entre partículas atômicas carregadas e um campo eletromagnético torna a física atômica e nuclear um vasto campo de experimentação para essa teoria, em virtude do comportamento fundamentalmente eletromagnético dos átomos e das moléculas. Essa interpretação, conhecida como eletrodinâmica quântica, demonstrou sua eficácia na detecção de algumas partículas subatômicas com uma precisão de milionésimos.

Desde que, em 1931, o britânico Paul Adrien Dirac fundou as bases da eletrodinâmica quântica com a descoberta de uma equação explicativa do movimento de spin, ou rotação do elétron, que incorporava a teoria quântica e a da relatividade de Einstein, a física se aperfeiçoou até chegar à conclusão definitiva de que as partículas carregadas interagem por emissão e absorção de fótons. Esses fótons são virtuais, ou seja, os fenômenos a eles relacionados ocorrem como se esses corpúsculos existissem, embora não possam ser vistos ou detectados.

A interação de duas partículas carregadas ocorre em séries de processos de complexidade crescente. No caso mais simples apenas intervém um fóton. Num processo de segunda ordem são dois os fótons envolvidos, e assim sucessivamente. Esses processos correspondem a todas as formas possíveis nas quais as partículas podem interagir por intercâmbio de fótons virtuais, e cada um deles pode ser representado graficamente por meio do modelo de diagrama idealizado por Richard Feynman, físico americano que desenvolveu a eletrodinâmica quântica na forma como ela é mais conhecida. Segundo sua interpretação, a emissão e absorção de fótons são realizadas por partículas carregadas, como elétrons ou pósitrons.

Todos os fenômenos que ocorrem em sistemas microscópicos manifestam uma quantização. Isso quer dizer que se realizam de acordo com múltiplos de pequenos valores, os quanta.

www.klimanaturali.org

Fissão Nuclear

Fissão Nuclear

Fissão NuclearFissão nuclear é uma reação em que o núcleo de um átomo se fragmenta num par de produtos radioativos de massa atômica menor. Ocorre por processo natural, ou espontâneo, quando um átomo se desintegra espontaneamente para adquirir maior estabilidade interna; ou por processo induzido, no qual o núcleo captura um nêutron.

A reação de fissão nuclear foi obtida, pela primeira vez, em 1939, por Otto Hahn e Fritz Strassmann, quando pretendiam sintetizar elementos transurânicos, de número atômico superior a 92.

Urânio 238, urânio 235, plutônio, tório, protactínio, bismuto, chumbo, tálio, ouro e mercúrio são elementos físseis, ou seja, se fragmentam quando atingidos por nêutrons. No bombardeamento do U-235 com nêutrons lentos (cerca de 0,03 elétron-volt de energia), produz-se a reação de fissão, em que de dois elementos, cuja massa atômica fica compreendida entre 72 e 158, obtêm-se também nêutrons secundários, que provocam novas fissões, numa reação em cadeia capaz de produzir energia da ordem de 24.000 kWh para cada grama de U-235. Essa reação pode dar-se de forma controlada, nas usinas termonucleares, ou descontrolada, como no caso da bomba atômica.

Denomina-se massa crítica a menor quantidade de material físsil capaz de manter uma reação em cadeia. Os materiais físseis, como o urânio 235 e o plutônio 239, têm a propriedade de, ao absorverem nêutrons, fragmentarem-se em vários núcleos, simultaneamente, emitindo novos nêutrons. O processo se verifica com alta produção de energia e, para ser mantido, requer a presença de um número mínimo de átomos sob o alcance dos nêutrons de energia compatível.

No processo de fissão, os nêutrons emitidos se classificam em imediatos, por serem produzidos em tempo muito pequeno (possivelmente inferior a 10-4 segundo), os quais constituem mais de 99% do total; e retardados, que não chegam a totalizar um por cento, emitidos com intensidade decrescente durante vários segundos. Ainda que em pequena quantidade, esses nêutrons têm influência sobre o comportamento das reações nucleares mantidas por nêutrons térmicos e por essa razão desempenham importante papel nos sistemas de controle dos reatores, baseados em processos de reação em cadeia.

www.klimanaturali.org

Arquivo