Mostrando postagens com marcador Física. Mostrar todas as postagens
Mostrando postagens com marcador Física. Mostrar todas as postagens

Atomismo e Teoria Atômica

Atomismo e Teoria Atômica

Atomismo e Teoria Atômica

Atomismo, no sentido lato, é qualquer doutrina que explique fenômenos complexos em termos de partículas indivisíveis. Enquanto as chamadas teorias holísticas explicam as partes em relação ao todo, o atomismo se apresenta como uma teoria analítica, pois considera as formas observáveis na natureza como um agregado de entidades menores. Os objetos e relações do mundo real diferem, pois, dos objetos do mundo que conhecemos com os nossos sentidos.

Entre as teorias dos filósofos gregos sobre a composição da matéria, o atomismo foi aquela cujas intuições mais se aproximaram das modernas concepções científicas.

Atomismo clássico
A teoria atomista foi desenvolvida no século V a.C. por Leucipo de Mileto e seu discípulo Demócrito de Abdera. Com extraordinária simplicidade e rigor, Demócrito conciliou as constantes mudanças postuladas por Heráclito com a unidade e imutabilidade do ser propostas por Parmênides.

Segundo Demócrito, o todo, a realidade, se compõe não só de partículas indivisíveis ou "átomos" de natureza idêntica, respeitando nisso o ente de Parmênides em sua unidade, mas também de vácuo, tese que entra em aberta contradição com a ontologia parmenídea. Ambos, ente e não-ente ou vácuo, existem desde a eternidade em mútua interação e, assim, deram origem ao movimento, o que justifica o pensamento de Heráclito. Os átomos por si só apresentam as propriedades de tamanho, forma, impenetrabilidade e movimento, dando lugar, por meio de choques entre si, a corpos visíveis. Além disso, ao contrário dos corpos macroscópicos, os átomos não podem interpenetrar-se nem dividir-se, sendo as mudanças observadas em certos fenômenos químicos e físicos atribuídas pelos atomistas gregos a associações e dissociações de átomos. Nesse sentido, o sabor salgado dos alimentos era explicado pela disposição irregular de átomos grandes e pontiagudos.

Filosoficamente, o atomismo de Demócrito pode ser considerado como o ápice da filosofia da natureza desenvolvida pelos pensadores jônios. O filósofo ateniense Epicuro, criador do epicurismo, entre os séculos IV e III a.C. e o poeta romano Lucrécio, dois séculos depois, enriqueceram o atomismo de Leucipo e Demócrito, atribuindo aos átomos a propriedade do peso e postulando sua divisão em "partes mínimas", além de uma "espontaneidade interna",  no desvio ou declinação atômica que rompia a trajetória vertical do movimento dos átomos, o que, em termos morais, explicava a liberdade do indivíduo.

Desenvolvimentos posteriores
A doutrina atomista teve pouca repercussão na Idade Média, devido à predominância das ideias de Platão e Aristóteles. No século XVII, porém, essa doutrina foi recuperada por diversos autores, como o francês Pierre Gassendi, em sua interpretação mecanicista da realidade física, e pelo alemão Gottfried Wilhelm Leibniz, que lhe deu um sentido mais metafísico em sua obra Monadologia. Também os ingleses Robert Boyle e Isaac Newton aceitaram algumas ideias da doutrina atomística, ao sustentarem que as variações macroscópicas se deviam a mudanças ocorridas na escala submacroscópica. No século XX, com base no modelo da teoria atômica, o inglês Bertrand Russell postulou o chamado "atomismo lógico", em que transpôs para a lógica os conceitos analíticos subjacentes ao atomismo clássico.

Atomismo e teoria atômica
Ao comparar-se o atomismo grego com a ciência atual, é necessário destacar que o primeiro, dada a unidade de filosofia e ciência, pretendia tanto solucionar os problemas da mutabilidade e pluralidade na natureza quanto encontrar explicações para fenômenos específicos. Já a moderna teoria atômica tem seu interesse centrado na relação entre as propriedades dos átomos e o comportamento exibido por eles nos diversos fenômenos em que estão envolvidos. Através do controle das reações nucleares, alcançou-se um novo nível, no qual os átomos são descritos como constituídos por partículas elementares, as quais podem transformar-se em energia e esta, por sua vez, em partículas.

www.klimanaturali.org

Detector de Partículas

Detector de Partículas

Detector de PartículasDetector de partículas é um instrumento de alta precisão que permite determinar a densidade e a trajetória de diferentes manifestações de radiação num meio material. Os detectores são usados tanto para contar partículas radioativas que atravessam um ponto como para rastreá-las por meio dos traços que deixam sobre um fundo gasoso ou emulsionado.

Devido a sua facilidade de construção e manutenção, o contador Geiger-Müller, ou contador Geiger, usado para monitorizar a presença de radiação, é o tipo mais comum de detector de partículas.

Os instrumentos de detecção se diferenciam entre os elétricos e os de visualização direta. No primeiro grupo se enquadram o contador Geiger e a câmara de ionização, muito usada nos grandes laboratórios de física experimental. O contador Geiger se compõe de um arame que, disposto ao longo do eixo de um cilindro metálico cheio de gás, registra e amplifica a corrente elétrica produzida pela passagem de partículas através do gás. A câmara de ionização consiste num reservatório gasoso com eletrodos de polaridades opostas. A passagem de partículas pelo gás gera íons e elétrons, captados pelos eletrodos.

A câmara de Wilson, ou câmara de nuvem, é um detector do tipo visual no qual a passagem de uma partícula através de um gás saturado produz, por condensação, uma esteira de gotas que pode ser fotografada. A análise da fotografia obtida permite conhecer a trajetória tridimensional da partícula.

www.klimanaturali.org

Astrofísica | o que é Astrofísica?

Astrofísica | o que é Astrofísica?

Astrofísica | o que é Astrofísica?

A astrofísica é a parte da astronomia que estuda o comportamento dos corpos celestes, do ponto de vista das leis físicas. A diferenciação de especialidades dentro da astronomia foi resultado do enorme impulso recebido por essa ciência com o advento de novas técnicas como a fotografia, a fotometria e a espectroscopia. Os dados obtidos pela observação ao longo dos anos foram examinados à luz de novos fundamentos científicos, como a teoria da relatividade, a mecânica quântica e a física de partículas. Os princípios estabelecidos em épocas anteriores foram confirmados e aperfeiçoados, o que tornou possível responder a numerosas questões sobre a estrutura do universo.

Até o século XIX acreditava-se que nunca seria possível determinar a composição dos astros. Hoje em dia são conhecidos não só os elementos que os constituem e os processos físicos que ocorrem em seu interior mas também o modo como esses corpos celestes se formaram e evoluíram. Uma teoria sobre a origem do universo, fundamentada em observações e em experiências, é hoje plenamente aceita pelos cientistas.

Fotometria
No século II a.C. Hiparco de Niceia classificou as estrelas em seis grupos, de acordo com seu brilho. As de primeira magnitude eram as mais brilhantes, e as de sexta, as de menor brilho. Essa classificação, no entanto, só incluía os corpos celestes perceptíveis a olho nu. Atualmente utiliza-se uma escala de valores compreendidos entre -27, que corresponde ao astro mais brilhante (o Sol), e + 23, para as estrelas de brilho menos intenso, que, não obstante, podem ser fotografadas com o auxílio de um telescópio.

A unidade de medida da intensidade luminosa é a candela (cd), que corresponde à luminosidade de um corpo negro (corpo que absorve toda a radiação incidente em sua superfície) de 1/60 cm2 de superfície, à temperatura de 1.769o C. Assim, uma candela observada a um metro de distância teria uma magnitude de aproximadamente -14. Da mesma forma, uma diferença de cinco magnitudes se obtém multiplicando a intensidade luminosa por cem, de modo que, quando a diferença é de somente uma magnitude a razão entre as intensidades é de 10,4. Se chamarmos de I1, I2 as intensidades luminosas de duas estrelas e de m1, m2 suas respectivas magnitudes, verifica-se a seguinte relação matemática:

A magnitude de uma estrela se avalia com o olho humano, sensível principalmente aos comprimentos de onda correspondentes à cor amarela, situada na zona central do espectro visível. Para avaliar a magnitude de uma estrela pode-se recorrer também a procedimentos fotográficos, com os quais se mede o escurecimento de uma placa sensível principalmente ao azul. Consegue-se uma precisão ainda maior calculando a intensidade luminosa em função da intensidade elétrica a ela correspondente, produzida por efeito fotoelétrico quando a luz incide sobre uma lâmina metálica.

O brilho ou magnitude de uma estrela observada da Terra é, na realidade, um valor aparente, que depende de sua luminosidade absoluta (energia emitida em forma radiante por unidade de tempo) e de sua localização, já que o brilho de um emissor luminoso decresce com o quadrado da distância. Assim, conhecendo-se a magnitude aparente de um astro e sua distância, pode-se calcular sua magnitude absoluta. Existe uma escala para medir a magnitude estelar, cuja unidade é o brilho de uma estrela hipotética situada a uma distância de dez parsecs (aproximadamente 3,26 anos-luz ou 30,84 x 1012 quilômetros) da Terra. A magnitude absoluta de uma estrela tem especial importância no caso daqueles astros denominados variáveis cefeidas, cuja luminosidade varia periodicamente e de forma proporcional à sua magnitude absoluta. A medição da magnitude aparente e do período dessas estrelas permite calcular a distância que as separa da Terra.

Análise espectral
Pode-se obter informação sobre as estrelas por meio de análise da luz que elas emitem. Com esse procedimento, denominado análise espectral, foi possível identificar a presença do elemento químico hélio no Sol antes mesmo que ele fosse detectado na Terra.

Fundamento
A luz visível é um tipo de radiação eletromagnética, isto é, uma variação periódica dos campos elétrico e magnético, que se propaga no espaço a uma velocidade de 300.000 km/s. Os raios ultra-violeta, os raios X e as ondas de rádio são, também, formas de radiação eletromagnética. A diferença entre elas deve-se à frequência e ao comprimento de onda do movimento ondulatório próprio de cada uma dessas radiações. O espectro eletromagnético compreende comprimentos de onda que variam de 10-11cm, para os raios gama, a vários quilômetros, para as ondas de rádio. A luz visível ocupa uma faixa estreita desse espectro e compreende comprimentos de onda que variam em torno de 5 x 10-5cm, comprimento correspondente à luz amarela. Ondas mais longas correspondem à luz vermelha e outras, mais curtas, à luz azul. O comprimento de onda e a frequência se relacionam por meio da fórmula  , em que c é a velocidade da luz (3 x 1010cm/s),   é o comprimento de onda e f é a frequência. Segundo a mecânica quântica, a luz pode ser considerada ao mesmo tempo como uma onda eletromagnética ou como um fluxo de partículas, denominadas fótons. Essas entidades materiais se deslocam a uma velocidade c e possuem uma energia E dada por E = hf, onde h é a constante de Planck (h = 6,6 x 10-27 ergs.s) e f a frequência de onda.

Os átomos são constituídos por um núcleo e um envoltório, onde se encontram os elétrons, situados em vários níveis de energia, denominados níveis quânticos. Quando um elétron se desloca de um nível de energia superior para outro, inferior, ele emite um fóton, cuja energia corresponde à diferença entre as energias daqueles dois níveis. De forma análoga, um elétron pode capturar um fóton e saltar para um nível energético superior. Assim, se os níveis energéticos de um átomo são conhecidos, pode-se calcular a frequência da luz emitida ou absorvida por ele. Por meio da análise da luz emitida também se pode determinar a natureza do átomo emissor.

Espectros
Quando a luz solar incide sobre um prisma, ela se decompõe em cores - ondas eletromagnéticas de frequências diferentes -, formando o espectro visível. Com o auxílio do espectroscópio, que permite observar um espectro, e do espectrógrafo, que registra graficamente o espectro de diferentes elementos químicos, é possível comparar a luz proveniente dos astros a espectros de elementos conhecidos e estabelecer assim a composição química desses astros.

Uma fonte luminosa pode gerar três tipos de espectro diferentes: (1) os sólidos ou líquidos incandescentes, bem como os gases sob pressão e temperatura elevadas, apresentam um espectro contínuo, constituído por ondas eletromagnéticas de todas as frequências; (2) os gases, sob pressões e temperaturas inferiores, geram um espectro formado por faixas de frequência bem definidas, correspondentes aos saltos dos elétrons entre os diversos níveis quânticos de energia (cada elemento químico caracteriza-se por uma disposição particular desse conjunto de frequências). (3) quando a luz emitida por um objeto, que por si só produziria um espectro contínuo, atravessa um gás mais frio, a luz resultante forma um espectro onde aparecem raias escuras sobre um fundo contínuo, denominadas raias de absorção. Esse terceiro caso é muito comum no estudo das estrelas, já que a luz, emitida pelas zonas mais profundas e de maior temperatura do astro deve atravessar suas camadas, mais frias, para atingir o espaço.

Temperatura de uma estrela
A partir do espectro de uma estrela é possível determinar não só a sua composição, como também a temperatura de sua superfície. Para cada frequência, a estrela emite uma onda eletromagnética de determinada intensidade. Assim, para uma certa frequência fm, a intensidade de emissão é máxima. A freqüência fm e a temperatura do emissor (T) se relacionam por meio da fórmula fm = 5,89 x 1010T, chamada lei de Wien, na qual a frequência se mede em ciclos por segundo e a temperatura em graus Kelvin (K).

Em astrofísica, a temperatura efetiva de uma estrela corresponde à de um corpo negro que emita a mesma quantidade de energia por unidade de tempo e de superfície. Pela lei de Stefan-Boltzmann é possível calcular essa temperatura, que é dada por  , onde E é a energia emitida por unidade de tempo, D é o diâmetro de estrela e s é uma constante, equivalente a 5,672 x 10-12W.cm2, K-4.

Espectros infravermelho, ultravioleta e de raios X. A atmosfera terrestre atua como um filtro e deixa passar para a superfície do planeta somente as radiações correspondentes ao espectro visível e das ondas de rádio, com comprimentos entre 1mm e 18m. Entretanto, satélites artificiais localizados no espaço recolhem e investigam radiações de outros tipos. Assim, foi possível localizar estrelas em formação, cuja temperatura ainda não lhes permitia brilhar, mas que emitiam na faixa do infravermelho. Foram também identificadas estrelas de nêutrons que emitem raios X.

Efeito Doppler
Quando uma fonte sonora se desloca em relação ao receptor, este percebe um som mais grave ou mais agudo, segundo o emissor esteja, respectivamente, se afastando ou se aproximando. Esse fenômeno, conhecido como efeito Doppler, pode ser aplicado às radiações luminosas, de acordo com investigações realizadas pelo francês Armand-Hippolyte-Louis Fizeau. De acordo com esse princípio, as raias espectrais das estrelas que se afastam da Terra deslocam-se na direção do vermelho, de menor frequência. Esse efeito tem sido utilizado para demonstrar a rotação do Sol ao redor de seu eixo e para medir a velocidade das estrelas. Dessa forma, calculando-se a velocidade das galáxias mais distantes, foi possível demonstrar a teoria da expansão geral do universo.

Radioastronomia
A atmosfera terrestre é transparente às ondas de rádio com comprimentos entre 1mm e 18m. A análise dessas ondas, provenientes do espaço exterior, é objeto de estudo da radioastronomia, a qual tem fornecido dados valiosos sobre as zonas mais afastadas do universo.

Comparado com outras estrelas, o Sol é um fraco emissor de ondas de rádio e não interfere na recepção dos sinais de rádio gerados por essas estrelas. O inverso acontece com a radiação luminosa emitida por essas fontes, que só são observadas à noite. As ondas de rádio atravessam sem dificuldade a poeira interestelar, o que não acontece com a radiação luminosa. Consequentemente, os radiotelescópios são muito mais sensíveis que os telescópios ópticos e possibilitam o estudo de zonas mais afastadas do universo.

Os radiotelescópios, como os receptores de rádio comuns, se compõem de uma antena, geralmente localizada no foco de um espelho parabólico, que concentra as ondas de rádio; um amplificador e uma fita magnética.

Uma desvantagem desses equipamentos é seu baixo poder de resolução: enquanto um telescópio óptico de cinco metros de diâmetro apresenta um limite de resolução de dois centésimos de segundo, um radiotelescópio com as mesmas dimensões tem um limite de resolução de dez graus. Esse problema pode ser resolvido, em parte, pela conexão de dois radiotelescópios a um mesmo receptor e pela análise do espectro de interferências resultantes (radiointerferômetro).

Mediante as técnicas radioastronômicas, tornou-se possível a exploração das regiões mais afastadas do universo. De modo geral, gases em turbulência emitem grandes quantidades de ondas de rádio. Assim, a atmosfera mais externa do Sol é uma importante fonte dessas ondas eletromagnéticas, o mesmo acontecendo com as atmosferas de Vênus, Júpiter e Saturno. Fora do sistema solar, os radiotelescópios possibilitam o descobrimento de resíduos de supernovas e a observação de colisões intergalácticas, além da localização de um tipo de astro denominado radiogaláxia, que emite ondas de rádio de grande intensidade.

Finalmente, com a utilização dos radiointerferômetros tornou-se possível determinar a posição dos quasares, objetos celestes cuja natureza ainda não é perfeitamente conhecida.

www.klimanaturali.org

Teoria dos Erros

Teoria dos Erros

Teoria dos ErrosA teoria dos erros é o conjunto de processos empregados para a correção dos erros cometidos na realização de uma medida ou série de medidas. As medidas das quantidades físicas são representadas por números aproximados. A diferença entre o valor obtido na medição da grandeza física e seu verdadeiro valor constitui o que se chama erro absoluto ou verdadeiro. Esse desvio (que pode ser para mais ou para menos) raramente tem aplicação, pois seu valor exato é, em geral, desconhecido e pouco expressivo, estando condicionado à escala e à sensibilidade do aparelho de medição. Assim, se uma régua for graduada em centímetros, o erro absoluto é inferior a um centímetro. Se graduada em milímetros, o erro absoluto é inferior a um milímetro.

Uma das decisões mais difíceis que um pesquisador tem de assumir é a de rejeitar resultados experimentais muito divergentes, mediante a avaliação correta dos erros envolvidos nas experiências. Tais resultados podem ocorrer por acidente ou, com maior ou menor frequência, por falhas da habilidade ou dos cuidados do pesquisador.

É o erro relativo, contudo, que pode dar ideia da precisão de uma medição. Chama-se erro relativo a relação entre o erro absoluto e o valor exato da grandeza. Se numa medida de 25cm for cometido um erro absoluto de um centímetro e numa medida de cinquenta metros for cometido um erro de dez centímetros, tem-se, no primeiro caso, um erro relativo de 1/25, e, no segundo, 1/500. Ao se multiplicar esses resultados por 100, tem-se o erro percentual de cada caso, respectivamente 4% e 0,2%, o que mostra que a segunda medida foi mais perfeita que a primeira. O erro também se pode referir ao grau de incerteza previsto numa experiência e exprime-se em quantidades que se chamam desvio padrão, desvio médio ou erro provável.

Na prática, o que em termos gerais se determina é o erro aparente, ou seja, a diferença entre o valor objetivo na medida e o valor mais provável da quantidade física considerada, pois a determinação do erro de uma medida em relação ao verdadeiro valor da grandeza é impraticável. Esse valor mais provável é, em geral, a média aritmética de diversas medições. Com ele também se obtém o erro relativo - razão entre o erro aparente e o valor mais provável da medida.

Assim, os valores encontrados nos manuais ou tabelas não são verdadeiros ou exatos, pois constituem os resultados de experiências e contêm, portanto, incertezas. Cada constante química ou física representada pelos manuais constitui o melhor valor representativo de uma série de observações divergentes.

Denomina-se discrepância a diferença entre os valores de duas medidas de uma mesma grandeza obtidos por dois experimentadores diferentes. Essa diferença é, às vezes, incorretamente designada pela palavra erro. Os erros podem ser de dois tipos: sistemáticos e acidentais. Quando os erros sistemáticos de uma medida são pequenos, a medida é dita acurada e, quando os erros acidentais ou ocasionais são pequenos, a medida é precisa.

Erros sistemáticos
São erros provenientes de causas que influem do mesmo modo em cada observação com um dado aparelho, em um conjunto de medições. Por sua natureza, são erros regulares, algumas vezes chamados erros persistentes. Em muitos casos, permanecem com o mesmo valor durante toda a pesquisa,  sendo nesse caso denominados erros constantes.

Cada medida é afetada por um grande número de variáveis e os erros causados podem decorrer dos seguintes fatores: (1) instrumentos imperfeitos: os instrumentos ou algum de seus dispositivos ou escalas usadas podem ser incorretos ou defeituosos desde a construção como, por exemplo, um relógio com adiantamento ou atraso; (2) calibração imperfeita de uma aparelhagem; (3) colocação imperfeita da escala: por qualquer motivo, a escala de um instrumento de medida, ainda que perfeitamente graduada, pode ter sido deslocada de sua posição correta; (4) mecanismo defeituoso: é impossível a construção de um instrumento absolutamente perfeito, do ponto de vista mecânico: assim, por exemplo, os braços de uma balança não são rigorosamente iguais e, em consequência das variações de temperatura ambiente, os comprimentos relativos aos braços variam continuamente; (5) perturbações externas de natureza conhecida e inevitáveis: são frequentes os casos em que os erros persistentes são incorporados por causas externas cuja natureza é corretamente interpretada, mas se tornam de impossível anulação; assim, um corpo aquecido que está sendo submetido a uma pesquisa experimental irradia calor apesar de todas as precauções, provocando consequente imprecisão nos resultados; (6) condições experimentais: uso rotineiro de instrumentos em condições experimentais diferentes das condições em que foram calibrados; (7) técnica imperfeita, que corresponde à utilização de um método baseado em equação matemática não representativa da realidade física do fenômeno.

Conhecendo-se as causas que produzem os erros sistemáticos, é sempre possível tentar a sua eliminação pela adoção de cuidados e métodos de controle. Antes de colocar um instrumento em funcionamento, deve-se aferi-lo ou calibrá-lo por meio de comparação com um padrão de confiança. Elabora-se uma curva de calibração ou uma tabela de correção, com que se podem minimizar os erros. Cada aparelho de precisão deve ser frequentemente testado. Pode-se ainda fazer a correção dos erros sistemáticos através dos ensaios em branco, assim como escolher convenientemente, sempre que possível, um processo experimental que apresente a tendência de equilibrar os erros sistemáticos apresentados pelo aparelho.

Erros acidentais
Quando a medida de certa grandeza é repetida uma série de vezes, os valores resultantes podem não coincidir. Essas diferenças ou desvios irregulares são também chamados erros experimentais ou de observação. São erros aleatórios, isto é, variações que decorrem de fatores incontroláveis. Tanto as medidas mais simples como as mais complexas são acompanhadas desses erros, que procedem de causas fortuitas e variáveis.

Somente os erros acidentais permitem a aplicação de análise estatística aos dados obtidos. Para tal, supõe-se hipoteticamente a existência de uma população ou número extremamente grande de resultados obtidos pela repetição exaustiva das medidas. Qualquer conjunto de observações é considerado como a amostragem aleatória da população de medidas. É possível, por esse meio, reduzir o efeito dos erros aleatórios e estimar a incerteza que apresentam, pela aplicação de métodos estatísticos.

www.klimanaturali.org

Teoria dos Campos

Teoria dos Campos

Teoria dos Campos

Um princípio fundamental da eletricidade é a lei de Coulomb: a força com que duas cargas elétricas se atraem ou repelem varia diretamente segundo suas grandezas e inversamente ao quadrado da distância que as separa. Esse princípio apresenta diversos inconvenientes do ponto de vista intuitivo, pois pressupõe a propagação instantânea de interações físicas e não lhes explica a natureza. Tais inconvenientes podem ser superados pelo emprego do conceito físico de campo.

A noção de campo é dada pelo conjunto de valores de qualquer grandeza física em todos os pontos do espaço. Denomina-se "campo em um ponto e no tempo t" o valor da grandeza tomada em um ponto e instante determinados. Campo designa, portanto, uma posição do espaço na qual qualquer tipo de fenômeno físico é capaz de se manifestar à distância. Assim, o campo elétrico é aquele que se origina a partir de um sistema de cargas elétricas; o campo gravitacional se estabelece a partir da distribuição de massas e o campo de forças é gerado pela ação exercida sobre um corpo, de acordo com sua posição no espaço e com sua interação com outro corpo.

Ao invés de se considerar a ação de uma partícula sobre outra, pode-se supor que uma das partículas seria responsável pela criação de um campo, atuante no espaço ao seu redor, o qual, por sua vez, interagisse com uma segunda partícula. No caso da força elétrica, as cargas produziriam um campo elétrico, designado por E, que exerceria sobre a carga q uma força dada por F = q E. Na mecânica clássica, o campo é simplesmente uma maneira de se descrever uma interação, enquanto na mecânica relativística, segundo a qual não é possível a existência de ação direta entre partículas, esse termo se aplica a uma realidade física.

Do ponto de vista matemático, o campo se refere a uma função das coordenadas de pontos do espaço e do tempo ou, analogamente, ao conjunto de valores finitos e infinitos assumidos pelas variáveis de um sistema.

Tipos de Campo
Um campo pode ser classificado como escalar (quando a função correspondente se encontra totalmente especificada por meio de um número) ou vetorial (quando, além de sua grandeza, cumpre considerar também sua direção e sentido de atuação).

Por exemplo, o campo elétrico e o gravitacional são campos vetoriais, uma vez que a cada ponto do espaço corresponde um valor do vetor campo. A distribuição de temperaturas em um condutor é um campo escalar, porquanto a temperatura é uma grandeza escalar definida por um número. O campo se chama estacionário quando não depende do tempo.

As variações de um campo escalar com a posição são descritas mediante o gradiente de campo. Assim, se o campo é representado pela notação   (x, y, z), isto é, uma função das coordenadas espaciais cartesianas x, y e z, o gradiente de   é um campo vetorial, que tem como coordenadas as três derivadas de   em relação a x, y e z, representadas pela expressão

O gradiente de   recebe a denominação de campo conservativo, enquanto a função escalar que o define é chamada de potencial de campo. Nos campos conservativos, o trabalho necessário para deslocar uma partícula ao longo de uma trajetória depende somente de seus pontos iniciais e finais e não do caminho percorrido entre eles, podendo, por isso, ser calculado pela diferença entre os valores da energia potencial em ambos os extremos.

www.klimanaturali.org

Teoria da Relatividade, Relatividade Especial e Relatividade Geral

Teoria da Relatividade, Relatividade Especial e Relatividade Geral

Teoria da Relatividade, Relatividade Especial e Relatividade Geral

Teoria da relatividade é o modelo da física que, por meio de uma concepção generalizada dos sistemas naturais, descreve o movimento de corpos submetidos a velocidades semelhantes à da luz. Enunciada fundamentalmente por Albert Einstein, no início do século XX, a teoria da relatividade suscitou ampla renovação científica ao alterar algumas ideias básicas da física clássica e oferecer uma explicação coerente e unificada para grande número de fenômenos da natureza.

As hipóteses relativistas elaboradas por Albert Einstein no início do século XX para explicar a estrutura do cosmos transcenderam o âmbito científico e, com o passar dos anos, se transformaram num símbolo paradigmático da filosofia e do modo de entender o mundo durante o que se chamou de era da relativização.

Em virtude de sua complexidade e das datas de publicação dos trabalhos de Einstein, a teoria da relatividade se distingue entre o modelo especial, ou restrito, postulado em 1905 e apoiado em alguns trabalhos precursores, e a relatividade geral, publicada por Einstein entre 1912 e 1917, que inclui a noção de campo gravitacional e procura condensar num modelo único todas as manifestações físicas do universo.

Historicamente, a teoria da relatividade ampliou as ideias existentes no momento de sua aparição e englobou as teorias clássicas como um caso particular de suas propostas. Assim, a mecânica clássica, baseada nos princípios da dinâmica de Isaac Newton, e os fundamentos da eletricidade e do magnetismo, reunidos nas leis enunciadas por James Clerk Maxwell, constituem casos particulares da teoria relativista sob as condições especiais presentes em sistemas com componentes de movimento extremamente lento em comparação com a velocidade de deslocamento da luz.

Relatividade especial Relatividade especial
Nas últimas décadas do século XIX, o acúmulo de dados extraídos de numerosas experiências da física começaram a mostrar brechas e indeterminações nos modelos científicos da época. Esses modelos eram baseados em dois pilares principais: a teoria da gravitação universal de Newton e os princípios do eletromagnetismo propostos por Michael Faraday e resumidos nas equações de Maxwell.

Ambas as concepções, a mecânica e a eletromagnética, propunham um universo com partículas e campos de força que constituíam entes rígidos, mergulhados num espaço e tempo absolutos e de dimensões invariáveis. Dentro dessa concepção, tomava-se um sistema de referência único, em relação ao qual se determinariam os movimentos de todos os corpos. Esse sistema ideal se chamou éter cósmico.

A busca sem sucesso do éter em numerosas experiências estimulou o surgimento das futuras teorias. Os americanos Albert Abraham Michelson e Edward Williams Morley, por exemplo, fizeram uma pesquisa com o objetivo de descobrir a velocidade com que a Terra se deslocava através do éter cósmico, supostamente imóvel. Michelson e Morley conseguiram medir com grande precisão a velocidade da luz, o que apoiou as concepções de Einstein e a ideia segundo a qual o deslocamento das ondas luminosas tinha velocidade constante, invariável para qualquer observador em repouso ou dotado de movimento uniforme.

A descoberta da invariabilidade da velocidade da luz foi um golpe na noção do espaço e tempo absolutos. Isso inspirou os trabalhos de George Francis Fitzgerald e Hendrik Antoon Lorentz, dos quais se deduziu um conjunto de leis matemáticas, conhecidas como transformações de Lorentz, cujos resultados incluem as noções de contração da distância e dilatação do tempo.

Noções relativistas e suas consequências. O trabalho de Einstein, publicado em 1905 pela revista Annalen der Physik, deu uma resposta consistente ao problema da relatividade espaço-temporal sugerido por Lorentz e Fitzgerald. Os postulados principais da teoria da relatividade restrita são os que se seguem.

1 - As leis da natureza não variam entre os sistemas distintos, chamados inerciais, que se movem com velocidade constante, uns em relação aos outros.

2 - Não existe um sistema de referência absoluto, e o estudo dos fenômenos físicos terá que ser feito mediante variáveis relativas que expressam leis idênticas em diferentes sistemas inerciais.

Essas hipóteses, apoiadas pelas experiências de Michelson-Morley sobre a velocidade da luz, negaram a existência do éter cósmico e revelaram um princípio que se tornou fundamental na ciência do século XX: a velocidade da luz é inatingível por qualquer partícula material, e além disso é insuperável.

As consequências diretas da teoria restrita, apoiadas em rigorosa formulação matemática, revolucionaram os postulados da ciência. De maneira geral, um objeto material com velocidade próxima à da luz sofre efeitos surpreendentes: sua massa aumenta, o espaço se contrai e o tempo se dilata. Estes dois últimos efeitos se deduzem das equações de Lorentz.

As hipóteses de Einstein, em sua teoria restrita, se completaram com a equação da equivalência entre massa e energia como uma das manifestações paralelas do mesmo fenômeno. A lei da conversão entre matéria e energia, expressa pela equação matemática E = mc2, enuncia que a massa de uma partícula submetida a altas velocidades se transforma em energia pura, segundo um fator de conversão igual ao quadrado da velocidade da luz (c) no meio em que se realiza a experiência. Obteve-se a comprovação experimental dessa equação mediante o estudo das reações nucleares, que liberam colossais quantidades de energia resultantes da perda de massa do sistema. A conversão inversa, de energia em massa, que daria lugar à materialização de campos energéticos, nunca foi detectada em lugar algum do universo, embora modernas teorias cosmológicas tenham previsto a existência de buracos brancos que atuariam como criadores de matéria.

Os sistemas de referência exclusivamente espaciais, usados nas teorias clássicas, tiveram que ser completados por uma nova variável, o tempo, para satisfazer as novas hipóteses. O alemão Hermann Minkowski definiu o espaço tetradimensional como constituído de três direções de espaço e uma de tempo. O tempo seria o quarto eixo de referência. No espaço-tempo de Minkowski puderam ser representados os fenômenos referentes às teorias relativistas.

Relatividade geral

Relatividade geral

A principal limitação da relatividade especial era sua aplicação restrita a sistemas de referência inerciais, de velocidade retilínea e constante em relação uns aos outros. A generalização das hipóteses da relatividade restrita ampliou o princípio da invariabilidade das leis da natureza a qualquer sistema, inclusive os de tipo não inercial ou dotados de uma aceleração ou velocidade variável com relação aos sistemas inerciais.

Campos gravitacionais
O objetivo de Einstein, com a globalização dos postulados relativistas, foi desenvolver um modelo de campo gravitacional no qual definiu as características dos sistemas cinemáticos e dinâmicos em condições próximas ao limite da velocidade da luz. As ideias de Einstein foram enriquecidas por trabalhos de Hermann Bondi, Sir Fred Hoyle, Thomas Gold e Ernest Pascual Jordan.

Confirmação da teoria
As hipóteses de Einstein, apesar de sua brilhante demonstração teórica, só alcançaram pleno reconhecimento internacional depois do surgimento de provas experimentais de sua validade. Entre os principais resultados que apoiaram as hipóteses relativistas se incluem: a explicação das anomalias observadas desde o século XIX nas órbitas do Planeta Mercúrio, mediante a inclusão do conceito de campo gravitacional relativista, no qual a trajetória da luz se curva na presença de fortes campos gravitacionais; a interpretação dos fenômenos das partículas atômicas lançadas em alta velocidade no interior de aceleradores como ciclotrons e similares; e a construção de teorias cosmológicas da estrutura de sistemas galáticos e estelares e da forma e origem do universo.

As equações de Einstein permitiram prever a conversão de matéria em energia nos reatores e bombas nucleares. Nos últimos anos do século XX, outras previsões de Einstein na teoria da relatividade geral eram ainda objeto de pesquisa. Entre essas previsões se incluem a existência de ondas gravitacionais e dos buracos negros, objetos formados pelo colapso de estrelas de grande massa, dos quais nem a luz conseguiria escapar. Em maio de 1994, o telescópio espacial americano Hubble detectou pela primeira vez um objeto que correspondia às características de um buraco negro superdenso, situado a cinquenta milhões de anos-luz da Terra, na galáxia gigante M87.

www.klimanaturali.org

Radiações de Van Allen

Radiações de Van Allen

Radiações de Van AllenAs radiações de Van Allen são concentrações de partículas em regiões do campo magnético terrestre situadas bem acima da atmosfera. Mais intensas sobre o equador e praticamente ausentes nos polos terrestres, foram descobertas em 1958 pelo físico americano James Van Allen, a partir de dados coletados no espaço por satélites artificiais americanos. As radiações formam dois cinturões em forma de toroide, com centro no equador. O mais interno se estende entre as altitudes de mil e cinco mil quilômetros da superfície da Terra, com intensidade máxima aos três mil quilômetros, e o segundo entre 15.000 e 25.000km. Não há intervalo entre as duas regiões, que, na verdade, fundem-se gradualmente.

Durante os períodos de intensa atividade solar, partículas eletricamente carregadas lançadas pelo Sol conseguem romper a barreira formada pelos cinturões de radiação de Van Allen, na magnetosfera terrestre, e atingem a atmosfera, produzindo fenômenos como a aurora polar e as tempestades magnéticas.

O cinturão mais interno consiste sobretudo de prótons altamente energéticos, que se originam, presumivelmente, do decaimento de nêutrons produzidos quando raios cósmicos de alta energia oriundos do exterior do sistema solar colidem com átomos e moléculas da atmosfera terrestre. Uma parte desses nêutrons é ejetada para fora da atmosfera e, ao atravessar a região do cinturão, se desintegra em prótons e elétrons. Essas partículas se movem em trajetórias espirais ao longo de linhas de força do campo magnético terrestre.

O externo contém partículas eletricamente carregadas de origem tanto atmosférica quanto solar. As últimas são principalmente íons hélio trazidos pelo vento solar (jato de partículas que emana do Sol). Os prótons desse cinturão têm energia muito mais baixa do que os do cinturão interno, e seu fluxo é muito mais intenso. As partículas mais energéticas do cinturão externo são elétrons cujas energias atingem várias centenas de milhares de elétrons-volt.

www.klimanaturali.org

Vaporização | Ebulição | Calefação e Sublimação

Vaporização | Ebulição | Calefação e Sublimação 

Vaporização é a conversão de uma substância originalmente em estado líquido ou sólido para o estado gasoso. Pode processar-se de várias formas. Chama-se evaporação a vaporização que se efetua naturalmente, quando algumas moléculas da superfície de um líquido se desprendem; ebulição é a que se produz rapidamente, com formação de bolhas de vapor no interior da massa líquida, mediante o emprego de um agente acelerador como o calor; calefação é a que se produz quando gotas de um líquido são lançadas sobre uma chapa quente; e sublimação é a conversão de um sólido diretamente para a fase de vapor.

Quando se abre um vidro de perfume, seu cheiro imediatamente pode ser sentido, em consequência da transformação de algumas moléculas do líquido em vapor. De forma análoga, as bolinhas de naftalina guardadas por muito tempo diminuem de tamanho devido à vaporização do material de que elas são feitas.

Qualquer que seja sua forma, só em  presença de calor ocorre a vaporização. É o calor que produz o aumento da energia cinética das moléculas do líquido ou sólido, e, portanto, da força de repulsão entre elas, o que facilita o desprendimento das moléculas na forma de vapor. Quando isto se dá na ausência de uma fonte calorífica, o calor é roubado ao ambiente ou ao próprio líquido: são fatos bem conhecidos, por exemplo, o frio produzido na mão pela vaporização do éter ou aquele que uma pessoa sente ao sair do banho.

Evaporação

Evaporação

Durante a evaporação, formam-se vapores na superfície do líquido em consequência do desprendimento e afastamento de algumas moléculas. A quantidade de moléculas transferidas na unidade de tempo é denominada velocidade de evaporação v. O inglês John Dalton verificou que a velocidade de evaporação (1) cresce com a temperatura, (2) varia com a volatilidade do líquido, (3) é proporcional à diferença entre a pressão máxima F do vapor e à pressão atual f desse vapor na atmosfera, (4) cresce com a agitação do ar, (5) é proporcional à superfície S de evaporação e (6) é inversamente proporcional à pressão H do gás que constitui a atmosfera livre. As leis de evaporação exprimem-se pela fórmula:

                      F - f
            v = B.S. _______         
                        H
onde v, S, F, f e H foram definidos acima, e B é uma constante que depende de outros fatores, como a natureza do líquido e a agitação do ar.

Ebulição

Ebulição

Processo de vaporização mais rápido que a evaporação, a ebulição caracteriza-se por ocorrer a uma temperatura constante. O processo obedece a três leis: (1) numa determinada pressão, a ebulição de um líquido puro dá-se a uma temperatura constante, chamada de temperatura de ebulição; (2) a temperatura do líquido é invariável durante todo o tempo da ebulição; e (3) durante a ebulição, a tensão do vapor saturante é igual à pressão da atmosfera ambiente acima do líquido. Denomina-se ponto de ebulição normal a temperatura em que ocorre a ebulição do líquido, sob uma pressão atmosférica normal (760mm de mercúrio).

Calefação

Calefação

Habitualmente, a calefação se produz quando um líquido entra em contato com um corpo cuja temperatura é muito mais elevada que o ponto de ebulição do líquido. Se, por exemplo, um pouco d'água é lançado sobre uma placa metálica aquecida ao rubro, formam-se diversas gotas mais ou menos esféricas que rolam sobre a placa sem com ela entrar em contato, e só lentamente se transformam em vapor, por irradiação. Esse fenômeno obedece a duas leis comprovadas experimentalmente: (1) o glóbulo calefeito não toca a superfície quente, admitindo-se que seja sustentado por uma densa fase de vapor do líquido a uma tensão considerável; (2) a temperatura do glóbulo é inferior à temperatura de ebulição do líquido. A calefação explica por que certas explosões em caldeiras se produzem depois de apagado o fogareiro, ou por que se pode mergulhar rapidamente a mão molhada em metal fundido sem consequências.

Sublimação
SublimaçãoOs sólidos, assim como líquidos, apresentam pressão de vapor, que aumenta com a elevação da temperatura. Se o vapor do sólido é constantemente removido, o sólido passará diretamente à fase de vapor, sem antes tornar-se líquido. Tal mudança é denominada sublimação. Como nos outros casos de vaporização, o processo absorve calor, que é chamado calor de sublimação. Para a maioria dos sólidos, a pressão de vapor é muito pequena, razão pela qual, à temperatura ambiente, a sublimação é praticamente desprezível. Para outros, no entanto, como o dióxido de carbono congelado (gelo seco), o iodo, o naftaleno e a cânfora, essa pressão é suficientemente grande para sublimá-los.

Armas Nucleares

Armas Nucleares

Armas Nucleares

Armas nucleares são as que utilizam os efeitos provocados pelas reações registradas no interior do núcleo atômico. Fazem parte do chamado trinômio NBQ (nucleares, biológicas, químicas), de destruição maciça.

No dia 5 de agosto de 1945 o presidente dos Estados Unidos, Harry S. Truman, ordenou que se desencadeasse o processo de lançamento da primeira bomba atômica. No dia seguinte uma bomba com vinte quilotons de potência caía sobre a cidade japonesa de Hiroxima. Um minuto e meio depois do lançamento formou-se uma bola de fogo a uma altura de 570m, que alcançou uma temperatura de 300.000o C. Morreram aproximadamente 240.000 pessoas. Era o ensaio da guerra atômica.

Fundamentos das armas nucleares
O conjunto de elementos que ocupam os últimos lugares do sistema periódico apresenta a tendência natural de emitir radiações ou partículas. Essa radioatividade natural é própria do grupo dos actinídeos, de que fazem parte os isótopos 235 e 238 do urânio, o plutônio e o tório.

A radioatividade natural produz a desintegração dos núcleos atômicos, que sucessivamente se transformam em outros pela perda de massa e chegam a formar séries em que cada elemento procede do anterior. A cada vez que se registra uma desintegração ocorre emissão de partículas e radiações, liberando-se grande quantidade de energia em forma de calor. Ao final do processo, que pode durar milhares de anos, os corpos convertem-se em chumbo estável. Na radioatividade artificial, provoca-se o processo de desintegração pelo bombardeio dos elementos com partículas adequadas, de modo a liberar energia.

Os elementos leves que ocupam os primeiros lugares da tabela periódica, como o hidrogênio ou o lítio, apresentam a propriedade oposta. Quando seus átomos são bombardeados, podem chegar a unir-se depois de entrarem em colisão, para formar um núcleo que é a soma dos anteriores. A massa perdida transforma-se em energia, liberada em forma de calor, com emissão de prótons e nêutrons. Ambos os fenômenos, a fissão e a fusão de núcleo, constituem a base teórica para o desenvolvimento das armas nucleares.

Uma explosão nuclear produz reações de fusão ou fissão, liberando instantaneamente grande quantidade de energia mecânica, térmica e de partículas ou radiações. Os elementos mais utilizados na fissão são o urânio 235 e o plutônio 239. Quando esses elementos são bombardeados com nêutrons, alguns de seus núcleos instáveis se cindem, emitem novos nêutrons e liberam energia. O processo, repetido sucessivas vezes, denomina-se reação em cadeia e, para consegui-lo, precisa-se de uma massa crítica ou mínima de elemento físsil. Na fusão nuclear, a liberação de energia produz-se depois da união de núcleos e tem uma potência cerca de sete vezes superior à fissão. Visto que se obtêm temperaturas de ordem astronômica, próximas das que se registram nas reações estelares, o processo denomina-se termonuclear.

Os produtos que se desprendem numa explosão nuclear são partículas e radiações, distribuindo-se nas categorias enumeradas a seguir.
Partículas alfa: possuem a estrutura dos núcleos de hélio. Trata-se de partículas relativamente lentas em seus deslocamentos (cinco por cento da velocidade da luz), com tamanho e carga elétrica relativamente elevados. Têm pouca penetração no corpo humano e seu maior perigo se acha no considerável poder de ionização, que apresenta grave risco para o organismo, ao converter, por exemplo, os átomos do ar em íons.
Partículas beta: são elétrons que se movem a grande velocidade (próxima à da luz), muito pequenas e com capacidade de penetração média. São detidas pelo plástico, pelo alumínio e pelo aço.
Radiações gama: são radiações de natureza eletromagnética que se deslocam à velocidade da luz. Têm grande capacidade de penetração e produzem ionização. As radiações gama atravessam o vidro e até mesmo chapas de aço de vários centímetros de espessura. No entanto, detêm-se diante do chumbo e do concreto. Seus efeitos no organismo humano são graves e podem manifestar-se a longo prazo.

Nêutrons: são partículas nucleares eletricamente neutras e emitidas a baixa velocidade (dez por cento da velocidade da luz) tanto em fissão como em fusão. Sua penetração é muito grande porque elas têm massa e são destituídas de carga. Os efeitos que provocam são muito graves.

Tipos de armas nucleares
Tipos de armas nucleares - A bomba atômica de fissão é uma arma que provoca uma imediata reação em cadeia. Constituem o material físsil o urânio e o plutônio, elementos que apresentam determinados valores de massa crítica que, no entanto, se encontram divididos em massas subcríticas antes da explosão. É necessário, portanto, dispor de um procedimento de união das massas subcríticas, que inicialmente estarão separadas por placas de chumbo e cádmio, de uma fonte de nêutrons e de um moderador, e de um refletor de nêutrons à base de zircônio, para assegurar que a massa se fissione.

A bomba atômica de fusão, de hidrogênio ou termonuclear também se conhece como bomba H. Seus componentes básicos são: o material físsil, constituído à base de um isótopo de hidrogênio; um elemento capaz de produzir temperatura de milhões de graus, que pode ser uma bomba atômica, em um catalisador (de partículas) ou lasers; e um elemento multiplicador de energia, como é outra bomba atômica, que se ativa com nêutrons liberados na fusão.

A bomba de nêutrons é um engenho de fusão em que se reduzem os efeitos mecânico e térmico ao máximo possível, para obter-se o maior efeito radioativo dos nêutrons. Essa bomba, por isso, recebeu o qualificativo de "limpa", uma vez que produz baixas humanas sem danificar o material bélico, que pode ser reaproveitado pelo atacante.

Efeitos das armas nucleares

Efeitos das armas nucleares

Ao produzir-se no ar a explosão nuclear, forma-se uma bola de fogo cujo centro situado no ponto de explosão e raio é variável. Esse primeiro fenômeno dura um décimo de segundo por megatons de energia (unidade equivalente a um milhão de toneladas de explosivo químico de grande potência). Sua consequência imediata sobre o organismo é a perda da visão.

Os efeitos mecânicos ocorrem como reflexo aproximado da metade da energia liberada. Cerca de três segundos depois da explosão, verifica-se enorme rajada de gases que dá origem a várias ondas. A primeira é a onda de choque, cuja pressão, registrada a 300m do centro da explosão, é da ordem de dez toneladas por centímetro quadrado. Em seguida se desloca uma onda de sucção de menor potência que a anterior e de sentido oposto. Depois avança a onda refletida, que provém do impacto da primeira contra o solo e, por último, registra-se a onda reforçada, soma da onda de choque com a refletida. Todas elas produzem esmagamentos, derrubada de edifícios e destruição das estruturas mais resistentes.

A bola de fogo libera energia calorífera até cerca de três segundos depois da explosão, em quantidade que alcança trinta por cento do total. A temperatura da bola chega a vários milhões de graus e as radiações térmicas produzem-se por impulsos, ultravioleta e infravermelho. As consequências térmicas consistem em incêndios, queimaduras, carbonizações etc.

Os efeitos radioativos, finalmente, são os que se mantêm com maior persistência depois da explosão. Registra-se uma radiação instantânea de nêutrons, partículas alfa, beta e raios gama; outra, também instantânea, induzida pelos componentes terrestres convertidos em radioatividade; e a chamada chuva radioativa, que dura várias horas e é produzida pela nuvem de resíduos. A radioatividade residual pode prolongar-se por semanas ou meses.

Perfil geo-estratégico
A diferença no grau de evolução da pesquisa nuclear nos diversos países fez com que só alguns deles disponham de armas nucleares em seus arsenais.

O desenvolvimento desse tipo de armamento iniciou-se nos Estados Unidos e imediatamente depois começou na então União Soviética. Foram essas duas potências que dominaram, desde suas primeiras etapas, a pesquisa sobre a energia nuclear e as que dotaram suas forças armadas de maior número de unidades nucleares. No final da década de 1980, também dispunham de armas atômicas os exércitos da França, Reino Unido, República Popular da China e Índia. Alguns outros estados também alcançaram nesse campo um desenvolvimento tecnológico que adquiriu proporções muito próximas às dos citados.

www.klimanaturali.org

Acústica | Física

Acústica | Física

Acústica | FísicaA acústica é a parte da física que trata do som e de tudo que a ele se refere. O fenômeno sonoro compreende aspectos da mais diversa índole, como a natureza, a produção, a propagação e a recepção do som. Na cadeia produção-recepção inclui-se a pessoa que recebe seu efeito, o que dá origem a complexos problemas de percepção.

A voz de uma pessoa, as notas de um violino, o trovão que ribomba durante a tempestade, a formação de imagens através dos ultra-sons - tudo isto são diferentes aspectos de fenômenos cujo estudo compete à acústica.

A acústica é uma ciência multidisciplinar - Assim, os físicos investigam a forma como o som é transmitido através da matéria; os engenheiros acústicos procuram obter uma reprodução fiel das ondas sonoras e aproveitá-las mediante dispositivos que transformam a energia acústica em mecânica ou elétrica; e os arquitetos estudam o isolamento e a absorção do som em edifícios. Em outros domínios, os músicos estudam as vibrações básicas, as misturas de sons, os harmônicos etc.; os médicos concentram seu interesse no ouvido e nas cordas vocais das pessoas, bem como na medição dos níveis de ruído; e os linguistas estudam a emissão dos sons pelo homem para chegar a sua forma mais simples, os fonemas.

Histórico da acústica
O estudo científico do som remonta à antiguidade, e atribuem-se a Pitágoras as primeiras experiências de análise dos sons. Por volta do século VI a.C. ele observou que a altura do som produzido por uma corda vibratória varia com o seu comprimento.

Durante a Idade Média não houve contribuições notáveis ao conhecimento científico da acústica. No século XVII, porém, realizaram-se consideráveis avanços. Em 1635, Pierre Gassendi mediu a velocidade do som no ar, encontrando um número próximo ao real. Por volta de 1650, Otto von Guericke demonstrou que o som não se propagava no vácuo, e em 1686, Sir Isaac Newton explicou os mecanismos de propagação. No princípio do século XVIII, Brook Taylor, reduzindo o movimento de uma corda vibratória a seus princípios mecânicos, produziu uma fórmula que em 1747 Jean le Rond d'Alembert viria a demonstrar em Pesquisas sobre as cordas vibratórias. Jakob I. Bernouilli e Leonhard Euler estudaram a vibração das hastes metálicas.

No início do século XIX determinou-se a velocidade do som em diferentes meios, e pouco depois Jean-Baptiste-Joseph Fourier analisou em profundidade os fenômenos ondulatórios que serviriam de base aos estudos do alemão Mathias Hermann. Mais tarde, Christian Doppler descobriu o efeito perturbador da velocidade sobre o som, e no fim do século foi criado o primeiro aparelho capaz de reproduzir um som previamente gravado (o fonógrafo de Thomas Alva Edison) e iniciaram-se as investigações no amplo campo que relaciona a acústica com a eletricidade, no qual se destacam as figuras de Edison e Alexander Graham Bell, o inventor do telefone.

No século XX desenvolveram-se várias técnicas que permitiram o transporte do som a grandes distâncias por meio da telefonia; a gravação e reprodução dos sons em fita magnética, discos e filmes; a produção de sons sintéticos, por via eletrônica; o emprego de ondas acústicas para a detecção de objetos, através do radar, do sonar (para localização de submarinos e cardumes) e dos ecógrafos (para diagnóstico em medicina interna); e muitas outras aplicações relacionadas com os ultra-sons.

Natureza do som
Quando um corpo vibratório modifica sua posição de repouso, ou de equilíbrio estático, movimenta o ar que o circunda. A compressão das partículas, em sua frente, e o vácuo correspondente, na parte posterior, a ele se transferem progressivamente e se afastam do foco. Quando o corpo modifica sua posição no sentido contrário, a compressão e o vácuo se reproduzem de modo inverso. O ar assim perturbado se movimenta segundo um modelo ondulatório. Os trens de ondas chegam através do ar ao ouvido, e produzem em seu interior a sensação auditiva, conhecida como som.

As partículas materiais submetidas a esse fenômeno movem-se na mesma direção que a onda. Trata-se, pois, de ondas longitudinais, que se afastam a partir da fonte em sentido radial. As ondas podem ser submetidas a processos físicos da mais diversa natureza, como a reflexão, a refração, a difração, a interferência ou a absorção. Para sua propagação é necessário que exista um meio, cuja densidade e temperatura determinem a velocidade do som emitido. A transmissão de ondas implica transferência de energia através do espaço.

Características dos sons
Chamam-se de sons simples aqueles que obedecem a modelos senoidais, e que correspondem, portanto, à representação da função trigonométrica seno. Em geral, cada um dos sons percebidos pelo ouvido humano é constituído por um conjunto de componentes sônicos simples, caracterizados por sua intensidade e frequência.

Define-se em geral a intensidade de um som como a quantidade média de energia transportada pela onda, por unidade de superfície e por unidade de tempo, através de uma superfície perpendicular à direção de propagação da onda. O valor dessa grandeza está relacionado à densidade do fluido em que as ondas se propagam, a sua amplitude e à velocidade.

Outras qualidades essenciais para se definir a natureza do som são a altura (distingue em graves ou agudas as sensações sonoras e está relacionada de perto à frequência) e o timbre. Essa última característica permite distinguir sons de igual altura e intensidade emitidos, por exemplo, por duas vozes ou dois instrumentos musicais diferentes, e está vinculado ao número de harmônicos que complementam um som simples, ou seja, são emitidos simultaneamente com esse último. A frequência de tais harmônicos é um múltiplo exato do som fundamental.

Velocidade
Entende-se por velocidade do som a rapidez da propagação das ondas acústicas em um dado meio. Por conseguinte, não se pode dizer que o som tenha uma só velocidade; ela é diferente para cada situação. Seu valor é determinado pelo meio, pela temperatura e pela pressão. A velocidade do som no ar, à temperatura de 20o C e pressão atmosférica normal, é de 344 metros por segundo; na água do mar, essa velocidade é de 1.490 m/s.

Medição
Os fenômenos relacionados com a intensidade do som abrangem um vasto campo. Assim, a relação entre a potência sonora de um suave murmúrio captado pelo ouvido e o estrondo produzido por um motor-foguete pode ser de 1 para 1017. A medição do som é realizada por comparação de potência, e sua unidade prática é o decibel (dB), submúltiplo da unidade sistemática, o bel (B).

O nível de potência do som é determinado pela fórmula N = 10 log W/Wo dB, onde W é a potência do som em watts e Wo a potência de referência. Em vista disso, define-se um som como a expressão de um excesso ou de uma falta de decibéis em relação a um valor prefixado.

Produção de ondas acústicas
O mecanismo de produção das ondas sonoras tem efeitos distintos, de acordo com o valor da frequência do fenômeno. As ondas de frequência inferior a vinte mil hertz são familiares e aparecem em três manifestações distintas: o ruído, a música e a voz humana. Acima desse valor, têm-se os ultra-sons, que alcançam frequências elevadíssimas. Imperceptíveis pelo ouvido humano, são porém captadas por alguns animais.

Dá-se o nome de ruído a todo som que, subjetivamente, seja classificado como desagradável ou indesejado. O ruído resulta da combinação de sons de uma única frequência, ou tons puros, e apresenta irregularidade no espectro (gama de frequências) contínuo ou no comprimento de onda. Por outro lado, a música é definida como uma sensação mental subjetiva e complexa, produzida por uma sucessão ou combinação de sons diferentes, que têm origem em corpos vibratórios, tais como cordas, membranas ou colunas de ar. Ao contrário do ruído, os sons musicais apresentam uma estrutura harmônica simples, de ondas regulares.

Os sons produzidos pela voz humana constituem ondas acústicas complexas. O sistema que os produz é formado por um conjunto que exerce a função de fole (diafragma, pulmões, brônquios e traqueia), um vibrador (laringe e cordas vocais), ressoadores (nariz, boca, garganta, cabeça etc.) e articuladores (lábios, língua, dentes e palato). A frequência da voz é determinada pelas cordas vocais.

Propagação das ondas acústicas
Tal como qualquer fenômeno de natureza ondulatória, as ondas que percorrem um meio material podem sofrer reflexão, refração, difração, dispersão, interferência ou absorção.

Assim, por exemplo, uma onda acústica é refletida sempre que existir descontinuidade ou mudança do meio em que se propaga. Fenômeno associado de perto à reflexão é o eco. Trata-se de um som definido ou distinguível que se escuta separado ou retardado, em resultado da reflexão da onda sonora. Quando o retardo é inferior a um décimo de segundo, o ouvido não percebe a separação e os sons se superpõem na forma de eco de reverberação. Esse processo acústico, fundamento do sonar, é aplicado na detecção de objetos e embarcações submersas, no transporte e na navegação.

Quando as ondas transmitidas encontram uma descontinuidade entre diferentes meios, uma parte delas se reflete e outra penetra no novo meio, produzindo-se um desvio na trajetória. Nisso consiste o fenômeno da refração.

Tem-se a difração quando as ondas contornam um obstáculo interposto na trajetória de propagação. A interferência resulta da superposição de ondas da mesma frequência e amplitude, que reforçam ou neutralizam as primitivas. A dispersão é consequência do choque de ondas curtas contra obstáculos grandes ou de ondas longas contra obstáculos pequenos.

Outros fenômenos acústicos de interesse são a filtragem, processo de eliminação de determinadas frequências; e a absorção, que é a perda de energia que ocorre sobretudo quando a onda se propaga através de um meio sólido ou líquido.

Recepção das ondas acústicas
Transmitidas através de diferentes meios, as ondas chegam enfim ao elemento sensível que as recebe e extrai a informação nelas contida. Quando a frequência varia de vinte a vinte mil hertz aproximadamente, o elemento sensível pode ser o ouvido humano. Abaixo do limite inferior situam-se as ondas subsônicas não audíveis; acima do limite superior, têm-se as ondas ultra-sônicas. Em ambos os casos, o elemento sensível se comporta como um transformador que converte a energia acústica em outro tipo de energia aproveitável.

O ouvido atua como um transdutor eletroacústico que modifica as vibrações recebidas e as converte em impulsos elétricos perceptíveis pelo nervo auditivo, mais sensível às mudanças de frequência que às de intensidade. De sua parte, o cérebro interpreta os impulsos, dando lugar à percepção do som.

O mecanismo que permite identificar e localizar a direção de uma fonte chama-se audição biaural e se deve à captação de diferentes intensidades acústicas do som que chega a cada um dos ouvidos.

As ondas ultra-sônicas não se propagam a grandes distâncias no ar, embora possam fazê-lo, com moderada atenuação, nos líquidos e nos sólidos. As frequências até 1013 Hz recebem o nome de sônicas; as situadas acima disso são conhecidas como hipersônicas. Estas últimas podem chegar até 1,25 x 1013 Hz.

Os ultra-sons têm múltiplas aplicações. Na indústria são empregados em solidificação, precipitação, aglomeração e emulsão de metais; nos laboratórios, destinam-se à detecção de imperfeições e ao estudo de propriedades mecânicas, físicas, químicas e metalúrgicas dos materiais; na medicina, à localização de tumores e ao diagnóstico; em oceanografia e hidrografia, às medições submarinas, ao levantamento cartográfico e à detecção de cardumes, embarcações e objetos submersos.

Acústica arquitetônica
Acústica arquitetônica
O controle e a correção de todos os aspectos negativos que possam afetar a adequada propagação e a boa recepção do som são os objetivos da acústica arquitetônica. Essa disciplina se ocupa do controle da reverberação, da redução e do isolamento do ruído e da absorção e distribuição do som.

A reverberação é a persistência do som num recinto, em consequência da reflexão em suas paredes. O fenômeno depende do tamanho e da forma do recinto, bem como da frequência do som. O chamado tempo de reverberação é o número de segundos transcorridos para que o ruído diminua em sessenta decibéis, uma vez extinta a fonte.

O ruído (vibrações, zumbidos etc.) pode ser reduzido com materiais absorventes, silenciadores e câmaras especiais, chamadas anecoicas. O ruído das estruturas, transmitido por paredes, tubulações etc., é amortecido por meio da interrupção da via de transmissão, com abafadores de som. Os ruídos de máquinas, por sua vez, são minorados com silenciadores e filtros que isolam os locais onde elas se acham instaladas.

Um recinto que conte com um tempo de reverberação ótimo, seja livre de ruídos estranhos e possua uma distribuição sonora regular pode ser considerado uma sala acústica ideal. A sala acústica deverá evitar os ecos, os focos pontuais de som, os pontos surdos e as sombras acústicas causadas por obstáculos. Todos esses critérios são levados em conta no projeto de teatros, salas de concerto e locais congêneres.

Relação Espaço-Tempo

Relação Espaço-Tempo

Relação Espaço-TempoO conceito de espaço-tempo, que relaciona duas categorias tratadas de forma independente pela física tradicional, foi postulado por Albert Einstein na teoria especial da relatividade, de 1905, e na teoria geral da relatividade, de 1915. O senso comum nunca admitiu conexão entre espaço e tempo. Até o fim do século XIX, acreditava-se que o espaço físico era um plano contínuo de três dimensões -- isto é, o conjunto de todos os pontos possíveis -- ao qual se aplicavam os postulados da geometria euclidiana. As coordenadas cartesianas pareciam naturalmente adaptadas a esse espaço. O tempo era visto então como independente do espaço, como um contínuo separado, unidimensional, totalmente homogêneo em sua extensão infinita. Qualquer "momento atual" no tempo poderia ser tomado como uma origem: a partir dessa origem, se media o tempo transcorrido ou a transcorrer até qualquer outro momento passado ou futuro. A mecânica clássica, expressa matematicamente com rigor por Isaac Newton, repousa sobre a ideia de espaço e tempo absolutos.

Para localizar especialmente um objeto, são suficientes três medidas: de comprimento, largura e altura. Assim, com um eixo de três coordenadas, se pode descrever a posição de um ponto no espaço. Para localizar um evento, que ocorre durante um intervalo determinado, exige-se a noção adicional de tempo. Assim, combinando o primeiro sistema, tridimensional, com a medida de tempo, chega-se à noção de espaço-tempo, tetradimensional.

As noções tradicionais sobre espaço e tempo absolutos, no entanto, são teóricas e não intuitivas, como frequentemente se acredita. Para o senso comum, elas são as únicas possíveis, pois se é muito simples pensar em comprimento e largura, e relativamente simples pensar em comprimento, largura e altura, imaginar um espaço tetradimensional é impossível. Para localizar um objeto no espaço, sabe-se que é necessário situá-lo em relação a outros objetos, que funcionam como sistema de referência, ou referencial espacial. O referencial ideal é o sistema de três eixos de coordenadas que partem de uma origem. Observe-se que quando alguém se refere a "um ponto fixo no espaço", na verdade está falando de um ponto cujas coordenadas espaciais, em determinado referencial, são constantes, ou seja, o objeto está em repouso em relação ao referencial. Da mesma forma, quando se diz que um corpo se desloca no espaço, trata-se de um corpo cujas coordenadas num referencial dado são variáveis. A noção de espaço, como a de movimento, é sempre relativa a um referencial espacial. Não existe, portanto, um padrão único ou absoluto de inércia.

A inexistência da inércia absoluta significa que não se pode afirmar que dois eventos ocorridos no mesmo lugar, mas em instantes diferentes, ocorreram realmente no mesmo lugar do espaço. Supondo por exemplo que uma bola ao quicar no interior de um trem em movimento toque o assoalho do veículo a cada segundo, ela será vista quicando sempre no mesmo lugar para um observador situado no interior do trem, ou seja, um observador para quem o assoalho do trem esteja em repouso relativo. Para um observador sentado à beira da estrada, no entanto, a bola vai quicar cada vez vários metros adiante da vez precedente, pois o assoalho do trem está em movimento em relação a ele.

O referencial espacial parece satisfatório para situar objetos, ou pontos, mas para situar os acontecimentos, ou os movimentos, é necessário acrescentar uma coordenada de tempo ao sistema de referência. Pode-se definir um referencial de espaço-tempo associando um relógio a cada ponto fixo de um sistema de coordenadas espaciais. Assim, se estabelece uma relação entre dois sistemas em movimento: caracteriza-se um evento ocorrido num sistema de comparação com outro evento, em outro sistema. O universo em que a coordenada de tempo de um sistema depende tanto da coordenada de tempo quando das coordenadas de espaço de um outro sistema em movimento relativo denomina-se universo de Minkowski e constitui a alteração essencial postulada pela teoria especial da relatividade em relação à física tradicional.

As noções de tempo e de repouso ficam também, dessa forma, associadas ao referencial, e se torna impossível afirmar a priori que o intervalo de tempo entre dois acontecimentos seja sempre, em todos os casos, independente do referencial. O que se pode afirmar é que se dois acontecimentos tiveram coordenadas de espaço (x, i e z) e de tempo (t) coincidentes, eles definem o mesmo ponto no espaço-tempo. O espaço-tempo é a única verdadeira ideia absoluta. A separação em duas noções diferentes -- espaço e tempo -- só é possível quando se escolhe um sistema de referência espacial: um acontecimento fica então localizado em relação a esse referencial. Mas, da mesma forma, pode-se escolher um sistema de quatro coordenadas. O acontecimento, assim, se torna em relação ao espaço-tempo, contínuo tetradimensional.

O universo de Minkowski contém uma classe distinta de sistemas de referência e tende a não ser afetado pela presença da matéria (massa) em seu interior. Em tal universo, todo conjunto de coordenadas, ou de eventos específicos de espaço-tempo, é descrito como um "aqui-agora", ou um ponto universal. Os intervalos aparentes de espaço e tempo entre eventos dependem da velocidade do observador, que não pode, em nenhum caso, exceder a velocidade da luz. Em qualquer sistema de referência inercial, todas as leis físicas permanecem inalteradas.

www.klimanaturali.org

Supercondutividade | Física

Supercondutividade | Física

Supercondutividade | FísicaSupercondutividade é a propriedade que apresentam certos materiais sólidos de perder bruscamente toda resistência à passagem da corrente elétrica quando resfriados abaixo de um ponto mínimo denominado temperatura de transição, ou temperatura crítica. Essa temperatura varia conforme o material, mas em geral situa-se abaixo de 20 K (-253°C). Outra propriedade fundamental dos supercondutores é a capacidade de evitar a penetração em seu interior de campos magnéticos, ou seja, são materiais perfeitamente diamagnéticos.

Uma das propriedades mais características dos materiais supercondutores é a levitação magnética, cientificamente denominada efeito Meissner, pela qual as forças do campo magnético gerado no interior desses materiais são repelidas por substâncias diamagnéticas. Ímãs colocados em suas proximidades se mantêm suspensos no ar a pequena distância de sua superfície.

O descobrimento da supercondutividade se deve ao holandês Heike Kamerlingh Onnes que, em 1911, enquanto trabalhava com amostras criogênicas de mercúrio metálico a temperaturas próximas do zero absoluto (0 K ou -273,13° C), nelas detectou um repentino desaparecimento da resistência à passagem da corrente elétrica. A descoberta tem utilíssimas aplicações técnicas, pois permite reduzir consideravelmente as perdas que, devido ao aquecimento, sofrem os circuitos elétricos, decorrentes da resistência à corrente dos condutores normais. Posteriormente, foram sucessivamente identificadas propriedades supercondutoras em 25 elementos químicos, entre eles o chumbo e o estanho, e milhares de ligas metálicas e compostos químicos.

A utilização industrial dos supercondutores, contudo, apresentava dificuldades de ordem prática, pois as temperaturas de transição para a supercondutividade, no caso dos materiais conhecidos, se situavam abaixo de 20 K. Para obtê-las, era necessário empregar dispendiosos e pouco práticos tanques de hélio líquido. Alguns desses materiais  - chamados supercondutores de tipo II - perdem suas propriedades e passam a um estado de condução normal quando expostos a campos magnéticos muito fortes, mesmo quando se mantém a temperatura bem abaixo do ponto de transição.

A supercondutividade foi explicada em 1957 como consequência do acoplamento de dois elétrons, partículas elementares de carga elétrica negativa  responsáveis pela condução elétrica, que constituem os pares de Cooper. Esses pares se movem nas superfícies dos microcristais da rede cristalina dos materiais supercondutores sem sofrerem colisões nem perturbações que reduzam a energia que transportam.

Até 1987 usavam-se os supercondutores principalmente para fazer fios condutores de correntes em magnetos supercondutores. Como os supercondutores só conservam suas propriedades a temperaturas muito baixas, era preciso refrigerar os magnetos a hélio líquido, processo caro e trabalhoso. Foi então que surgiram os novos materiais - as cerâmicas e ligas supercondutoras, que mantêm a supercondutividade a temperaturas muito menos baixas e podem, portanto, ser resfriadas com um material bem mais abundante e barato, o nitrogênio líquido.

A partir de então, multiplicaram-se os estudos sobre os supercondutores e pesquisaram-se numerosos novos materiais capazes de manter a supercondutividade a temperaturas cada vez mais altas. No Brasil, o Instituto de Física da Universidade de São Paulo empenhou-se nessa pesquisa e em 1987 físicos de São Carlos (SP) chegaram a conseguir supercondutividade a -170°C.

A supercondutividade a temperaturas mais altas abre possibilidades imensas para a tecnologia, pois entre as principais vantagens oferecidas por dispositivos fabricados com supercondutores se incluem a baixa dissipação de calor, a grande velocidade de operação e a alta sensibilidade. Com o avanço das pesquisas, pode vir a ser possível fabricar fios que transmitam eletricidade sem perda, baterias que não descarreguem, conexões entre pastilhas e placas de circuitos integrados que aumentem sua velocidade e reduzam o calor nos computadores, além de um sem-número de dispositivos até então impensáveis.

Em 1995, cientistas americanos criaram um novo tipo de material supercondutor, um filme capaz de conduzir cem vezes mais eletricidade do que qualquer material do gênero. Com capacidade para operar em fortes campos magnéticos, o novo material transporta um milhão de ampères por centímetro quadrado e é suficientemente flexível para ser conduzido através de cabos elétricos.

www.klimanaturali.org

Teoria dos Quanta

Teoria dos Quanta

Teoria dos QuantaA teoria dos quanta engloba o conjunto de princípios físicos capazes de descrever e explicar o comportamento da matéria e da luz nas escalas atômica e subatômica, por meio de interpretações que diferem daquelas sustentadas pela mecânica clássica e se baseiam na emissão descontínua de energia. A mecânica quântica busca descrever e explicar as propriedades das moléculas e átomos e de seus elementos constituintes: elétrons, prótons, nêutrons e partículas como os quarks. Essas propriedades incluem as interações das partículas entre si e com a radiação eletromagnética.

Influenciados pelas ideias de Newton, a maioria dos físicos do século XVIII acreditava que a luz consistia de partículas, chamadas corpúsculos, mas já começavam a acumular-se evidências da teoria ondulatória da luz, aceita quase universalmente no fim do século XIX. Em 1900 o físico alemão Max Planck formulou uma hipótese audaciosa, segundo a qual a radiação é emitida de forma descontínua, em minúsculos pacotes denominados quanta, teoria que representou um impulso fundamental à ciência contemporânea.

Radiação e Corpo Negro
Radiação e Corpo NegroNo século XIX, várias pesquisas baseadas em teorias da física clássica buscaram explicar o fenômeno da radiação, um tipo de energia capaz de propagar-se no espaço na ausência de meio material e que se apresenta sob diferentes formas (ondas eletromagnéticas, raios infravermelhos, luz visível, raios ultravioleta, raios X, raios gama). Essas interpretações partiam do estudo da radiação num corpo negro, radiador ideal hipotético capaz de absorver e reemitir toda a energia radiante que sobre ele incide.


As ideias da física clássica, no entanto, embora explicassem os fenômenos de interferência e difração relativamente à propagação de luz, não esclareciam a absorção e a emissão de luz. Todos os corpos irradiam energia eletromagnética na forma de calor; na verdade, um corpo emite radiação em todos os comprimentos de onda. A energia irradiada é máxima num comprimento de onda que depende da temperatura do corpo; quanto mais quente o corpo, mais curto o comprimento de onda para a radiação máxima.

Até o início do século XX acreditava-se que a energia irradiada por um corpo negro existia sob a forma de ondas eletromagnéticas contínuas. Essas pesquisas permitiram explicar o fenômeno do arco-íris e calcular a temperatura da superfície solar (leis de Stefan-Boltzmann e de Wien), mas não resultaram na formulação de uma expressão matemática universal da questão, que permitisse conhecer a composição do espectro formado por todos os comprimentos de onda em que se pode decompor a radiação em função da temperatura. Era preciso mudar a base de raciocínio. O físico alemão Max Planck foi o primeiro a pensar que a chave do problema podia estar na descontinuidade da energia radiante.

Teoria do Quantum de Ação de Planck

Teoria do Quantum de Ação de Planck

A partir de resultados experimentais, Planck enunciou, em 1900, uma fórmula matemática capaz de fixar o poder emissivo do corpo negro para todos os comprimentos de onda. Planck considerava as moléculas do corpo negro osciladores elétricos lineares (um oscilador harmônico ou linear é qualquer partícula oscilante na qual o deslocamento seja periódico e possa ser representado matematicamente como função senoidal do tempo). A elas aplicou as leis dos movimentos harmônicos e usou sua hipótese para determinar o estado microscópico do sistema e formular a teoria quântica. Planck concluiu que a energia radiante não é emitida de forma contínua, mas como múltiplos inteiros de uma quantidade, o quantum, ou seja, só podem ser emitidas certas quantidades discretas de energia e nunca valores intermediários. A energia de um quantum pode ser descrita pela fórmula  , em que   é a frequência (inversamente proporcional ao comprimento de onda) da radiação emitida ou absorvida, e h a constante universal de Planck, cujo valor é 6,63 x 10-34 joules por segundo.

A teoria de Planck segundo a qual a energia radiante é descontínua como a matéria, não só estava em contradição com as ideias admitidas até a época, como também com a natureza ondulatória dessa energia, comprovada em vários estudos experimentais. Por essa razão, Planck tentou conciliar sua teoria com a física clássica ao afirmar que, ainda que a emissão fosse descontínua, a absorção se mantinha contínua.

A teoria quântica de Planck foi usada em 1905 por Albert Einstein para explicar o efeito fotoelétrico -- a liberação de elétrons de alguns metais em função da incidência de luz ou outro tipo de radiação eletromagnética. Em 1887, Gustav Ludwig Hertz observara que determinados materiais emitiam cargas elétricas quando submetidos à ação da luz. Comprovou-se mais tarde que todos os metais apresentam esse efeito ao serem submetidos à ação de raios de comprimento de onda suficientemente pequeno. Para os metais alcalinos, o fenômeno ocorria dentro da gama visível de radiações. Esse efeito não era explicável com base na teoria ondulatória da luz.

Ao estudar o fenômeno a partir da teoria de Planck, Einstein concluiu que a energia luminosa emitida em forma de quanta conserva sua natureza descontínua durante a propagação e é absorvida da mesma maneira. De acordo com essa interpretação, a energia luminosa de frequência   era transportada por corpúsculos de energia  , chamados por Einstein de quanta de luz, mas posteriormente denominados fótons.

A energia   de um fóton incidente é empregada para realizar o trabalho de arrancar um elétron do átomo e para conferir-lhe energia cinética. Se um fóton não dispõe de energia suficiente, é impossível somar a energia de outro fóton para conseguir arrancar um elétron. Deduz-se assim que para o processo de liberação dos elétrons, a energia total dos raios que incidem sobre o metal não influi, mas sim sua frequência  , que determina a energia individual de cada fóton.

De acordo com esse modelo físico, ainda que um feixe de raios do intervalo vermelho do espectro eletromagnético (raios infravermelhos) tenha muita energia em conjunto, ou seja, muitos fótons, a energia de cada fóton é pequena, porque a luz vermelha, de grande comprimento de onda, tem baixa frequência e o valor de   (a energia do fóton) é pequeno, e como consequência essa energia não é suficiente para arrancar um elétron do metal. Essa explicação do fenômeno fotoelétrico foi a primeira confirmação da teoria quântica e valeu a Einstein o Prêmio Nobel de física em 1921.

Números Quânticos

Números Quânticos

Em 1913, Niels Bohr empregou a teoria de Planck para formular um modelo atômico no qual os elétrons giram em orbitais (níveis energéticos) em torno do núcleo, da mesma forma que os planetas gravitam em torno do Sol no sistema solar. Um átomo em seu estado fundamental apresenta elétrons em seus níveis energéticos mais baixos. Ao receber energia radiante ou resultante da colisão com outros elétrons, o elétron salta de seu nível energético para outro de maior energia e entra num estado excitado. Como essa é uma situação instável, o átomo, ao retornar a seu nível energético inicial, emite energia eletromagnética na forma de quanta de luz, ou fótons. Segundo Bohr, as únicas órbitas permitidas são aquelas para as quais o momento angular do elétron é um número inteiro n, número quântico principal, multiplicado por.

O alemão Arnold Sommerfeld modificou essa teoria e criou outro número quântico, o secundário ou orbital l, para tornar a órbita elíptica. Mais tarde se criou o número quântico magnético m, que indica a inclinação da órbita e o número quântico de spin s, que determina o sentido de rotação do elétron. A ordem dos valores que esses números podem adotar deu origem a uma distribuição de níveis e subníveis energéticos, a partir da qual pode-se determinar a estrutura eletrônica dos átomos e, consequentemente, a tabela periódica dos elementos.

Mecânica Quântica

Mecânica Quântica

Embora se aplicasse apenas ao átomo de hidrogênio, o modelo atômico de Bohr representou o ponto de partida para a elaboração do conceito de mecânica quântica. Em 1924, o francês Louis de Broglie postulou que, da mesma forma que as radiações, a matéria comporta-se ora como onda, ora como partícula, o que ficou evidenciado em experiências posteriores que demonstraram o fenômeno de difração de elétrons. Dois anos depois, Erwin Schrödinger descreveu esse comportamento mediante uma estrutura matemática denominada mecânica ondulatória.

Descartada a concepção tradicional do elétron como uma simples carga pontual num meio sem estrutura, passou-se a aceitar que essa partícula em movimento é sempre acompanhada de uma série de ondas que, em última análise, determinam sua direção. Para definir a natureza ondulatória do elétron, o alemão Werner Heisenberg enunciou em 1927 o princípio da incerteza, segundo o qual é impossível realizar qualquer medição numa partícula muito pequena sem afetar seu estado natural. Ao utilizar um supermicroscópio, por exemplo, para determinar a posição de um elétron, a radiação empregada, com um comprimento de onda muito pequeno e uma elevada energia, modificaria o momento e, portanto, a velocidade do elétron. Heisenberg adotou então uma interpretação que apenas indica as regiões do espaço nas quais é mais provável que o elétron se encontre.

Ao aplicar a mecânica quântica ao estudo do átomo, desapareceram as trajetórias deterministas dos primeiros modelos atômicos, que foram substituídas por expressões de probabilidade ou pelas equações de onda criadas por Erwin Schrödinger. Nesse sentido, a mecânica quântica não apenas eliminou os problemas lógicos da física teórica, como também permitiu resolver novos problemas, tais como a interpretação das forças de valência e de forças intermoleculares nas ligações químicas.

Eletrodinâmica Quântica

Eletrodinâmica Quântica

A extensão dos princípios quânticos às interações estabelecidas entre partículas atômicas carregadas e um campo eletromagnético torna a física atômica e nuclear um vasto campo de experimentação para essa teoria, em virtude do comportamento fundamentalmente eletromagnético dos átomos e das moléculas. Essa interpretação, conhecida como eletrodinâmica quântica, demonstrou sua eficácia na detecção de algumas partículas subatômicas com uma precisão de milionésimos.

Desde que, em 1931, o britânico Paul Adrien Dirac fundou as bases da eletrodinâmica quântica com a descoberta de uma equação explicativa do movimento de spin, ou rotação do elétron, que incorporava a teoria quântica e a da relatividade de Einstein, a física se aperfeiçoou até chegar à conclusão definitiva de que as partículas carregadas interagem por emissão e absorção de fótons. Esses fótons são virtuais, ou seja, os fenômenos a eles relacionados ocorrem como se esses corpúsculos existissem, embora não possam ser vistos ou detectados.

A interação de duas partículas carregadas ocorre em séries de processos de complexidade crescente. No caso mais simples apenas intervém um fóton. Num processo de segunda ordem são dois os fótons envolvidos, e assim sucessivamente. Esses processos correspondem a todas as formas possíveis nas quais as partículas podem interagir por intercâmbio de fótons virtuais, e cada um deles pode ser representado graficamente por meio do modelo de diagrama idealizado por Richard Feynman, físico americano que desenvolveu a eletrodinâmica quântica na forma como ela é mais conhecida. Segundo sua interpretação, a emissão e absorção de fótons são realizadas por partículas carregadas, como elétrons ou pósitrons.

Todos os fenômenos que ocorrem em sistemas microscópicos manifestam uma quantização. Isso quer dizer que se realizam de acordo com múltiplos de pequenos valores, os quanta.

www.klimanaturali.org