Mostrando postagens com marcador Física. Mostrar todas as postagens
Mostrando postagens com marcador Física. Mostrar todas as postagens

Atomismo e Teoria Atômica

Atomismo e Teoria Atômica

Atomismo e Teoria Atômica

Atomismo, no sentido lato, é qualquer doutrina que explique fenômenos complexos em termos de partículas indivisíveis. Enquanto as chamadas teorias holísticas explicam as partes em relação ao todo, o atomismo se apresenta como uma teoria analítica, pois considera as formas observáveis na natureza como um agregado de entidades menores. Os objetos e relações do mundo real diferem, pois, dos objetos do mundo que conhecemos com os nossos sentidos.

Entre as teorias dos filósofos gregos sobre a composição da matéria, o atomismo foi aquela cujas intuições mais se aproximaram das modernas concepções científicas.

Atomismo clássico
A teoria atomista foi desenvolvida no século V a.C. por Leucipo de Mileto e seu discípulo Demócrito de Abdera. Com extraordinária simplicidade e rigor, Demócrito conciliou as constantes mudanças postuladas por Heráclito com a unidade e imutabilidade do ser propostas por Parmênides.

Segundo Demócrito, o todo, a realidade, se compõe não só de partículas indivisíveis ou "átomos" de natureza idêntica, respeitando nisso o ente de Parmênides em sua unidade, mas também de vácuo, tese que entra em aberta contradição com a ontologia parmenídea. Ambos, ente e não-ente ou vácuo, existem desde a eternidade em mútua interação e, assim, deram origem ao movimento, o que justifica o pensamento de Heráclito. Os átomos por si só apresentam as propriedades de tamanho, forma, impenetrabilidade e movimento, dando lugar, por meio de choques entre si, a corpos visíveis. Além disso, ao contrário dos corpos macroscópicos, os átomos não podem interpenetrar-se nem dividir-se, sendo as mudanças observadas em certos fenômenos químicos e físicos atribuídas pelos atomistas gregos a associações e dissociações de átomos. Nesse sentido, o sabor salgado dos alimentos era explicado pela disposição irregular de átomos grandes e pontiagudos.

Filosoficamente, o atomismo de Demócrito pode ser considerado como o ápice da filosofia da natureza desenvolvida pelos pensadores jônios. O filósofo ateniense Epicuro, criador do epicurismo, entre os séculos IV e III a.C. e o poeta romano Lucrécio, dois séculos depois, enriqueceram o atomismo de Leucipo e Demócrito, atribuindo aos átomos a propriedade do peso e postulando sua divisão em "partes mínimas", além de uma "espontaneidade interna",  no desvio ou declinação atômica que rompia a trajetória vertical do movimento dos átomos, o que, em termos morais, explicava a liberdade do indivíduo.

Desenvolvimentos posteriores
A doutrina atomista teve pouca repercussão na Idade Média, devido à predominância das ideias de Platão e Aristóteles. No século XVII, porém, essa doutrina foi recuperada por diversos autores, como o francês Pierre Gassendi, em sua interpretação mecanicista da realidade física, e pelo alemão Gottfried Wilhelm Leibniz, que lhe deu um sentido mais metafísico em sua obra Monadologia. Também os ingleses Robert Boyle e Isaac Newton aceitaram algumas ideias da doutrina atomística, ao sustentarem que as variações macroscópicas se deviam a mudanças ocorridas na escala submacroscópica. No século XX, com base no modelo da teoria atômica, o inglês Bertrand Russell postulou o chamado "atomismo lógico", em que transpôs para a lógica os conceitos analíticos subjacentes ao atomismo clássico.

Atomismo e teoria atômica
Ao comparar-se o atomismo grego com a ciência atual, é necessário destacar que o primeiro, dada a unidade de filosofia e ciência, pretendia tanto solucionar os problemas da mutabilidade e pluralidade na natureza quanto encontrar explicações para fenômenos específicos. Já a moderna teoria atômica tem seu interesse centrado na relação entre as propriedades dos átomos e o comportamento exibido por eles nos diversos fenômenos em que estão envolvidos. Através do controle das reações nucleares, alcançou-se um novo nível, no qual os átomos são descritos como constituídos por partículas elementares, as quais podem transformar-se em energia e esta, por sua vez, em partículas.

www.klimanaturali.org

Detector de Partículas

Detector de Partículas

Detector de PartículasDetector de partículas é um instrumento de alta precisão que permite determinar a densidade e a trajetória de diferentes manifestações de radiação num meio material. Os detectores são usados tanto para contar partículas radioativas que atravessam um ponto como para rastreá-las por meio dos traços que deixam sobre um fundo gasoso ou emulsionado.

Devido a sua facilidade de construção e manutenção, o contador Geiger-Müller, ou contador Geiger, usado para monitorizar a presença de radiação, é o tipo mais comum de detector de partículas.

Os instrumentos de detecção se diferenciam entre os elétricos e os de visualização direta. No primeiro grupo se enquadram o contador Geiger e a câmara de ionização, muito usada nos grandes laboratórios de física experimental. O contador Geiger se compõe de um arame que, disposto ao longo do eixo de um cilindro metálico cheio de gás, registra e amplifica a corrente elétrica produzida pela passagem de partículas através do gás. A câmara de ionização consiste num reservatório gasoso com eletrodos de polaridades opostas. A passagem de partículas pelo gás gera íons e elétrons, captados pelos eletrodos.

A câmara de Wilson, ou câmara de nuvem, é um detector do tipo visual no qual a passagem de uma partícula através de um gás saturado produz, por condensação, uma esteira de gotas que pode ser fotografada. A análise da fotografia obtida permite conhecer a trajetória tridimensional da partícula.

www.klimanaturali.org

Astrofísica | o que é Astrofísica?

Astrofísica | o que é Astrofísica?

Astrofísica | o que é Astrofísica?

A astrofísica é a parte da astronomia que estuda o comportamento dos corpos celestes, do ponto de vista das leis físicas. A diferenciação de especialidades dentro da astronomia foi resultado do enorme impulso recebido por essa ciência com o advento de novas técnicas como a fotografia, a fotometria e a espectroscopia. Os dados obtidos pela observação ao longo dos anos foram examinados à luz de novos fundamentos científicos, como a teoria da relatividade, a mecânica quântica e a física de partículas. Os princípios estabelecidos em épocas anteriores foram confirmados e aperfeiçoados, o que tornou possível responder a numerosas questões sobre a estrutura do universo.

Até o século XIX acreditava-se que nunca seria possível determinar a composição dos astros. Hoje em dia são conhecidos não só os elementos que os constituem e os processos físicos que ocorrem em seu interior mas também o modo como esses corpos celestes se formaram e evoluíram. Uma teoria sobre a origem do universo, fundamentada em observações e em experiências, é hoje plenamente aceita pelos cientistas.

Fotometria
No século II a.C. Hiparco de Niceia classificou as estrelas em seis grupos, de acordo com seu brilho. As de primeira magnitude eram as mais brilhantes, e as de sexta, as de menor brilho. Essa classificação, no entanto, só incluía os corpos celestes perceptíveis a olho nu. Atualmente utiliza-se uma escala de valores compreendidos entre -27, que corresponde ao astro mais brilhante (o Sol), e + 23, para as estrelas de brilho menos intenso, que, não obstante, podem ser fotografadas com o auxílio de um telescópio.

A unidade de medida da intensidade luminosa é a candela (cd), que corresponde à luminosidade de um corpo negro (corpo que absorve toda a radiação incidente em sua superfície) de 1/60 cm2 de superfície, à temperatura de 1.769o C. Assim, uma candela observada a um metro de distância teria uma magnitude de aproximadamente -14. Da mesma forma, uma diferença de cinco magnitudes se obtém multiplicando a intensidade luminosa por cem, de modo que, quando a diferença é de somente uma magnitude a razão entre as intensidades é de 10,4. Se chamarmos de I1, I2 as intensidades luminosas de duas estrelas e de m1, m2 suas respectivas magnitudes, verifica-se a seguinte relação matemática:

A magnitude de uma estrela se avalia com o olho humano, sensível principalmente aos comprimentos de onda correspondentes à cor amarela, situada na zona central do espectro visível. Para avaliar a magnitude de uma estrela pode-se recorrer também a procedimentos fotográficos, com os quais se mede o escurecimento de uma placa sensível principalmente ao azul. Consegue-se uma precisão ainda maior calculando a intensidade luminosa em função da intensidade elétrica a ela correspondente, produzida por efeito fotoelétrico quando a luz incide sobre uma lâmina metálica.

O brilho ou magnitude de uma estrela observada da Terra é, na realidade, um valor aparente, que depende de sua luminosidade absoluta (energia emitida em forma radiante por unidade de tempo) e de sua localização, já que o brilho de um emissor luminoso decresce com o quadrado da distância. Assim, conhecendo-se a magnitude aparente de um astro e sua distância, pode-se calcular sua magnitude absoluta. Existe uma escala para medir a magnitude estelar, cuja unidade é o brilho de uma estrela hipotética situada a uma distância de dez parsecs (aproximadamente 3,26 anos-luz ou 30,84 x 1012 quilômetros) da Terra. A magnitude absoluta de uma estrela tem especial importância no caso daqueles astros denominados variáveis cefeidas, cuja luminosidade varia periodicamente e de forma proporcional à sua magnitude absoluta. A medição da magnitude aparente e do período dessas estrelas permite calcular a distância que as separa da Terra.

Análise espectral
Pode-se obter informação sobre as estrelas por meio de análise da luz que elas emitem. Com esse procedimento, denominado análise espectral, foi possível identificar a presença do elemento químico hélio no Sol antes mesmo que ele fosse detectado na Terra.

Fundamento
A luz visível é um tipo de radiação eletromagnética, isto é, uma variação periódica dos campos elétrico e magnético, que se propaga no espaço a uma velocidade de 300.000 km/s. Os raios ultra-violeta, os raios X e as ondas de rádio são, também, formas de radiação eletromagnética. A diferença entre elas deve-se à frequência e ao comprimento de onda do movimento ondulatório próprio de cada uma dessas radiações. O espectro eletromagnético compreende comprimentos de onda que variam de 10-11cm, para os raios gama, a vários quilômetros, para as ondas de rádio. A luz visível ocupa uma faixa estreita desse espectro e compreende comprimentos de onda que variam em torno de 5 x 10-5cm, comprimento correspondente à luz amarela. Ondas mais longas correspondem à luz vermelha e outras, mais curtas, à luz azul. O comprimento de onda e a frequência se relacionam por meio da fórmula  , em que c é a velocidade da luz (3 x 1010cm/s),   é o comprimento de onda e f é a frequência. Segundo a mecânica quântica, a luz pode ser considerada ao mesmo tempo como uma onda eletromagnética ou como um fluxo de partículas, denominadas fótons. Essas entidades materiais se deslocam a uma velocidade c e possuem uma energia E dada por E = hf, onde h é a constante de Planck (h = 6,6 x 10-27 ergs.s) e f a frequência de onda.

Os átomos são constituídos por um núcleo e um envoltório, onde se encontram os elétrons, situados em vários níveis de energia, denominados níveis quânticos. Quando um elétron se desloca de um nível de energia superior para outro, inferior, ele emite um fóton, cuja energia corresponde à diferença entre as energias daqueles dois níveis. De forma análoga, um elétron pode capturar um fóton e saltar para um nível energético superior. Assim, se os níveis energéticos de um átomo são conhecidos, pode-se calcular a frequência da luz emitida ou absorvida por ele. Por meio da análise da luz emitida também se pode determinar a natureza do átomo emissor.

Espectros
Quando a luz solar incide sobre um prisma, ela se decompõe em cores - ondas eletromagnéticas de frequências diferentes -, formando o espectro visível. Com o auxílio do espectroscópio, que permite observar um espectro, e do espectrógrafo, que registra graficamente o espectro de diferentes elementos químicos, é possível comparar a luz proveniente dos astros a espectros de elementos conhecidos e estabelecer assim a composição química desses astros.

Uma fonte luminosa pode gerar três tipos de espectro diferentes: (1) os sólidos ou líquidos incandescentes, bem como os gases sob pressão e temperatura elevadas, apresentam um espectro contínuo, constituído por ondas eletromagnéticas de todas as frequências; (2) os gases, sob pressões e temperaturas inferiores, geram um espectro formado por faixas de frequência bem definidas, correspondentes aos saltos dos elétrons entre os diversos níveis quânticos de energia (cada elemento químico caracteriza-se por uma disposição particular desse conjunto de frequências). (3) quando a luz emitida por um objeto, que por si só produziria um espectro contínuo, atravessa um gás mais frio, a luz resultante forma um espectro onde aparecem raias escuras sobre um fundo contínuo, denominadas raias de absorção. Esse terceiro caso é muito comum no estudo das estrelas, já que a luz, emitida pelas zonas mais profundas e de maior temperatura do astro deve atravessar suas camadas, mais frias, para atingir o espaço.

Temperatura de uma estrela
A partir do espectro de uma estrela é possível determinar não só a sua composição, como também a temperatura de sua superfície. Para cada frequência, a estrela emite uma onda eletromagnética de determinada intensidade. Assim, para uma certa frequência fm, a intensidade de emissão é máxima. A freqüência fm e a temperatura do emissor (T) se relacionam por meio da fórmula fm = 5,89 x 1010T, chamada lei de Wien, na qual a frequência se mede em ciclos por segundo e a temperatura em graus Kelvin (K).

Em astrofísica, a temperatura efetiva de uma estrela corresponde à de um corpo negro que emita a mesma quantidade de energia por unidade de tempo e de superfície. Pela lei de Stefan-Boltzmann é possível calcular essa temperatura, que é dada por  , onde E é a energia emitida por unidade de tempo, D é o diâmetro de estrela e s é uma constante, equivalente a 5,672 x 10-12W.cm2, K-4.

Espectros infravermelho, ultravioleta e de raios X. A atmosfera terrestre atua como um filtro e deixa passar para a superfície do planeta somente as radiações correspondentes ao espectro visível e das ondas de rádio, com comprimentos entre 1mm e 18m. Entretanto, satélites artificiais localizados no espaço recolhem e investigam radiações de outros tipos. Assim, foi possível localizar estrelas em formação, cuja temperatura ainda não lhes permitia brilhar, mas que emitiam na faixa do infravermelho. Foram também identificadas estrelas de nêutrons que emitem raios X.

Efeito Doppler
Quando uma fonte sonora se desloca em relação ao receptor, este percebe um som mais grave ou mais agudo, segundo o emissor esteja, respectivamente, se afastando ou se aproximando. Esse fenômeno, conhecido como efeito Doppler, pode ser aplicado às radiações luminosas, de acordo com investigações realizadas pelo francês Armand-Hippolyte-Louis Fizeau. De acordo com esse princípio, as raias espectrais das estrelas que se afastam da Terra deslocam-se na direção do vermelho, de menor frequência. Esse efeito tem sido utilizado para demonstrar a rotação do Sol ao redor de seu eixo e para medir a velocidade das estrelas. Dessa forma, calculando-se a velocidade das galáxias mais distantes, foi possível demonstrar a teoria da expansão geral do universo.

Radioastronomia
A atmosfera terrestre é transparente às ondas de rádio com comprimentos entre 1mm e 18m. A análise dessas ondas, provenientes do espaço exterior, é objeto de estudo da radioastronomia, a qual tem fornecido dados valiosos sobre as zonas mais afastadas do universo.

Comparado com outras estrelas, o Sol é um fraco emissor de ondas de rádio e não interfere na recepção dos sinais de rádio gerados por essas estrelas. O inverso acontece com a radiação luminosa emitida por essas fontes, que só são observadas à noite. As ondas de rádio atravessam sem dificuldade a poeira interestelar, o que não acontece com a radiação luminosa. Consequentemente, os radiotelescópios são muito mais sensíveis que os telescópios ópticos e possibilitam o estudo de zonas mais afastadas do universo.

Os radiotelescópios, como os receptores de rádio comuns, se compõem de uma antena, geralmente localizada no foco de um espelho parabólico, que concentra as ondas de rádio; um amplificador e uma fita magnética.

Uma desvantagem desses equipamentos é seu baixo poder de resolução: enquanto um telescópio óptico de cinco metros de diâmetro apresenta um limite de resolução de dois centésimos de segundo, um radiotelescópio com as mesmas dimensões tem um limite de resolução de dez graus. Esse problema pode ser resolvido, em parte, pela conexão de dois radiotelescópios a um mesmo receptor e pela análise do espectro de interferências resultantes (radiointerferômetro).

Mediante as técnicas radioastronômicas, tornou-se possível a exploração das regiões mais afastadas do universo. De modo geral, gases em turbulência emitem grandes quantidades de ondas de rádio. Assim, a atmosfera mais externa do Sol é uma importante fonte dessas ondas eletromagnéticas, o mesmo acontecendo com as atmosferas de Vênus, Júpiter e Saturno. Fora do sistema solar, os radiotelescópios possibilitam o descobrimento de resíduos de supernovas e a observação de colisões intergalácticas, além da localização de um tipo de astro denominado radiogaláxia, que emite ondas de rádio de grande intensidade.

Finalmente, com a utilização dos radiointerferômetros tornou-se possível determinar a posição dos quasares, objetos celestes cuja natureza ainda não é perfeitamente conhecida.

www.klimanaturali.org

Teoria dos Erros

Teoria dos Erros

Teoria dos ErrosA teoria dos erros é o conjunto de processos empregados para a correção dos erros cometidos na realização de uma medida ou série de medidas. As medidas das quantidades físicas são representadas por números aproximados. A diferença entre o valor obtido na medição da grandeza física e seu verdadeiro valor constitui o que se chama erro absoluto ou verdadeiro. Esse desvio (que pode ser para mais ou para menos) raramente tem aplicação, pois seu valor exato é, em geral, desconhecido e pouco expressivo, estando condicionado à escala e à sensibilidade do aparelho de medição. Assim, se uma régua for graduada em centímetros, o erro absoluto é inferior a um centímetro. Se graduada em milímetros, o erro absoluto é inferior a um milímetro.

Uma das decisões mais difíceis que um pesquisador tem de assumir é a de rejeitar resultados experimentais muito divergentes, mediante a avaliação correta dos erros envolvidos nas experiências. Tais resultados podem ocorrer por acidente ou, com maior ou menor frequência, por falhas da habilidade ou dos cuidados do pesquisador.

É o erro relativo, contudo, que pode dar ideia da precisão de uma medição. Chama-se erro relativo a relação entre o erro absoluto e o valor exato da grandeza. Se numa medida de 25cm for cometido um erro absoluto de um centímetro e numa medida de cinquenta metros for cometido um erro de dez centímetros, tem-se, no primeiro caso, um erro relativo de 1/25, e, no segundo, 1/500. Ao se multiplicar esses resultados por 100, tem-se o erro percentual de cada caso, respectivamente 4% e 0,2%, o que mostra que a segunda medida foi mais perfeita que a primeira. O erro também se pode referir ao grau de incerteza previsto numa experiência e exprime-se em quantidades que se chamam desvio padrão, desvio médio ou erro provável.

Na prática, o que em termos gerais se determina é o erro aparente, ou seja, a diferença entre o valor objetivo na medida e o valor mais provável da quantidade física considerada, pois a determinação do erro de uma medida em relação ao verdadeiro valor da grandeza é impraticável. Esse valor mais provável é, em geral, a média aritmética de diversas medições. Com ele também se obtém o erro relativo - razão entre o erro aparente e o valor mais provável da medida.

Assim, os valores encontrados nos manuais ou tabelas não são verdadeiros ou exatos, pois constituem os resultados de experiências e contêm, portanto, incertezas. Cada constante química ou física representada pelos manuais constitui o melhor valor representativo de uma série de observações divergentes.

Denomina-se discrepância a diferença entre os valores de duas medidas de uma mesma grandeza obtidos por dois experimentadores diferentes. Essa diferença é, às vezes, incorretamente designada pela palavra erro. Os erros podem ser de dois tipos: sistemáticos e acidentais. Quando os erros sistemáticos de uma medida são pequenos, a medida é dita acurada e, quando os erros acidentais ou ocasionais são pequenos, a medida é precisa.

Erros sistemáticos
São erros provenientes de causas que influem do mesmo modo em cada observação com um dado aparelho, em um conjunto de medições. Por sua natureza, são erros regulares, algumas vezes chamados erros persistentes. Em muitos casos, permanecem com o mesmo valor durante toda a pesquisa,  sendo nesse caso denominados erros constantes.

Cada medida é afetada por um grande número de variáveis e os erros causados podem decorrer dos seguintes fatores: (1) instrumentos imperfeitos: os instrumentos ou algum de seus dispositivos ou escalas usadas podem ser incorretos ou defeituosos desde a construção como, por exemplo, um relógio com adiantamento ou atraso; (2) calibração imperfeita de uma aparelhagem; (3) colocação imperfeita da escala: por qualquer motivo, a escala de um instrumento de medida, ainda que perfeitamente graduada, pode ter sido deslocada de sua posição correta; (4) mecanismo defeituoso: é impossível a construção de um instrumento absolutamente perfeito, do ponto de vista mecânico: assim, por exemplo, os braços de uma balança não são rigorosamente iguais e, em consequência das variações de temperatura ambiente, os comprimentos relativos aos braços variam continuamente; (5) perturbações externas de natureza conhecida e inevitáveis: são frequentes os casos em que os erros persistentes são incorporados por causas externas cuja natureza é corretamente interpretada, mas se tornam de impossível anulação; assim, um corpo aquecido que está sendo submetido a uma pesquisa experimental irradia calor apesar de todas as precauções, provocando consequente imprecisão nos resultados; (6) condições experimentais: uso rotineiro de instrumentos em condições experimentais diferentes das condições em que foram calibrados; (7) técnica imperfeita, que corresponde à utilização de um método baseado em equação matemática não representativa da realidade física do fenômeno.

Conhecendo-se as causas que produzem os erros sistemáticos, é sempre possível tentar a sua eliminação pela adoção de cuidados e métodos de controle. Antes de colocar um instrumento em funcionamento, deve-se aferi-lo ou calibrá-lo por meio de comparação com um padrão de confiança. Elabora-se uma curva de calibração ou uma tabela de correção, com que se podem minimizar os erros. Cada aparelho de precisão deve ser frequentemente testado. Pode-se ainda fazer a correção dos erros sistemáticos através dos ensaios em branco, assim como escolher convenientemente, sempre que possível, um processo experimental que apresente a tendência de equilibrar os erros sistemáticos apresentados pelo aparelho.

Erros acidentais
Quando a medida de certa grandeza é repetida uma série de vezes, os valores resultantes podem não coincidir. Essas diferenças ou desvios irregulares são também chamados erros experimentais ou de observação. São erros aleatórios, isto é, variações que decorrem de fatores incontroláveis. Tanto as medidas mais simples como as mais complexas são acompanhadas desses erros, que procedem de causas fortuitas e variáveis.

Somente os erros acidentais permitem a aplicação de análise estatística aos dados obtidos. Para tal, supõe-se hipoteticamente a existência de uma população ou número extremamente grande de resultados obtidos pela repetição exaustiva das medidas. Qualquer conjunto de observações é considerado como a amostragem aleatória da população de medidas. É possível, por esse meio, reduzir o efeito dos erros aleatórios e estimar a incerteza que apresentam, pela aplicação de métodos estatísticos.

www.klimanaturali.org

Teoria dos Campos

Teoria dos Campos

Teoria dos Campos

Um princípio fundamental da eletricidade é a lei de Coulomb: a força com que duas cargas elétricas se atraem ou repelem varia diretamente segundo suas grandezas e inversamente ao quadrado da distância que as separa. Esse princípio apresenta diversos inconvenientes do ponto de vista intuitivo, pois pressupõe a propagação instantânea de interações físicas e não lhes explica a natureza. Tais inconvenientes podem ser superados pelo emprego do conceito físico de campo.

A noção de campo é dada pelo conjunto de valores de qualquer grandeza física em todos os pontos do espaço. Denomina-se "campo em um ponto e no tempo t" o valor da grandeza tomada em um ponto e instante determinados. Campo designa, portanto, uma posição do espaço na qual qualquer tipo de fenômeno físico é capaz de se manifestar à distância. Assim, o campo elétrico é aquele que se origina a partir de um sistema de cargas elétricas; o campo gravitacional se estabelece a partir da distribuição de massas e o campo de forças é gerado pela ação exercida sobre um corpo, de acordo com sua posição no espaço e com sua interação com outro corpo.

Ao invés de se considerar a ação de uma partícula sobre outra, pode-se supor que uma das partículas seria responsável pela criação de um campo, atuante no espaço ao seu redor, o qual, por sua vez, interagisse com uma segunda partícula. No caso da força elétrica, as cargas produziriam um campo elétrico, designado por E, que exerceria sobre a carga q uma força dada por F = q E. Na mecânica clássica, o campo é simplesmente uma maneira de se descrever uma interação, enquanto na mecânica relativística, segundo a qual não é possível a existência de ação direta entre partículas, esse termo se aplica a uma realidade física.

Do ponto de vista matemático, o campo se refere a uma função das coordenadas de pontos do espaço e do tempo ou, analogamente, ao conjunto de valores finitos e infinitos assumidos pelas variáveis de um sistema.

Tipos de Campo
Um campo pode ser classificado como escalar (quando a função correspondente se encontra totalmente especificada por meio de um número) ou vetorial (quando, além de sua grandeza, cumpre considerar também sua direção e sentido de atuação).

Por exemplo, o campo elétrico e o gravitacional são campos vetoriais, uma vez que a cada ponto do espaço corresponde um valor do vetor campo. A distribuição de temperaturas em um condutor é um campo escalar, porquanto a temperatura é uma grandeza escalar definida por um número. O campo se chama estacionário quando não depende do tempo.

As variações de um campo escalar com a posição são descritas mediante o gradiente de campo. Assim, se o campo é representado pela notação   (x, y, z), isto é, uma função das coordenadas espaciais cartesianas x, y e z, o gradiente de   é um campo vetorial, que tem como coordenadas as três derivadas de   em relação a x, y e z, representadas pela expressão

O gradiente de   recebe a denominação de campo conservativo, enquanto a função escalar que o define é chamada de potencial de campo. Nos campos conservativos, o trabalho necessário para deslocar uma partícula ao longo de uma trajetória depende somente de seus pontos iniciais e finais e não do caminho percorrido entre eles, podendo, por isso, ser calculado pela diferença entre os valores da energia potencial em ambos os extremos.

www.klimanaturali.org

Teoria da Relatividade, Relatividade Especial e Relatividade Geral

Teoria da Relatividade, Relatividade Especial e Relatividade Geral

Teoria da Relatividade, Relatividade Especial e Relatividade Geral

Teoria da relatividade é o modelo da física que, por meio de uma concepção generalizada dos sistemas naturais, descreve o movimento de corpos submetidos a velocidades semelhantes à da luz. Enunciada fundamentalmente por Albert Einstein, no início do século XX, a teoria da relatividade suscitou ampla renovação científica ao alterar algumas ideias básicas da física clássica e oferecer uma explicação coerente e unificada para grande número de fenômenos da natureza.

As hipóteses relativistas elaboradas por Albert Einstein no início do século XX para explicar a estrutura do cosmos transcenderam o âmbito científico e, com o passar dos anos, se transformaram num símbolo paradigmático da filosofia e do modo de entender o mundo durante o que se chamou de era da relativização.

Em virtude de sua complexidade e das datas de publicação dos trabalhos de Einstein, a teoria da relatividade se distingue entre o modelo especial, ou restrito, postulado em 1905 e apoiado em alguns trabalhos precursores, e a relatividade geral, publicada por Einstein entre 1912 e 1917, que inclui a noção de campo gravitacional e procura condensar num modelo único todas as manifestações físicas do universo.

Historicamente, a teoria da relatividade ampliou as ideias existentes no momento de sua aparição e englobou as teorias clássicas como um caso particular de suas propostas. Assim, a mecânica clássica, baseada nos princípios da dinâmica de Isaac Newton, e os fundamentos da eletricidade e do magnetismo, reunidos nas leis enunciadas por James Clerk Maxwell, constituem casos particulares da teoria relativista sob as condições especiais presentes em sistemas com componentes de movimento extremamente lento em comparação com a velocidade de deslocamento da luz.

Relatividade especial Relatividade especial
Nas últimas décadas do século XIX, o acúmulo de dados extraídos de numerosas experiências da física começaram a mostrar brechas e indeterminações nos modelos científicos da época. Esses modelos eram baseados em dois pilares principais: a teoria da gravitação universal de Newton e os princípios do eletromagnetismo propostos por Michael Faraday e resumidos nas equações de Maxwell.

Ambas as concepções, a mecânica e a eletromagnética, propunham um universo com partículas e campos de força que constituíam entes rígidos, mergulhados num espaço e tempo absolutos e de dimensões invariáveis. Dentro dessa concepção, tomava-se um sistema de referência único, em relação ao qual se determinariam os movimentos de todos os corpos. Esse sistema ideal se chamou éter cósmico.

A busca sem sucesso do éter em numerosas experiências estimulou o surgimento das futuras teorias. Os americanos Albert Abraham Michelson e Edward Williams Morley, por exemplo, fizeram uma pesquisa com o objetivo de descobrir a velocidade com que a Terra se deslocava através do éter cósmico, supostamente imóvel. Michelson e Morley conseguiram medir com grande precisão a velocidade da luz, o que apoiou as concepções de Einstein e a ideia segundo a qual o deslocamento das ondas luminosas tinha velocidade constante, invariável para qualquer observador em repouso ou dotado de movimento uniforme.

A descoberta da invariabilidade da velocidade da luz foi um golpe na noção do espaço e tempo absolutos. Isso inspirou os trabalhos de George Francis Fitzgerald e Hendrik Antoon Lorentz, dos quais se deduziu um conjunto de leis matemáticas, conhecidas como transformações de Lorentz, cujos resultados incluem as noções de contração da distância e dilatação do tempo.

Noções relativistas e suas consequências. O trabalho de Einstein, publicado em 1905 pela revista Annalen der Physik, deu uma resposta consistente ao problema da relatividade espaço-temporal sugerido por Lorentz e Fitzgerald. Os postulados principais da teoria da relatividade restrita são os que se seguem.

1 - As leis da natureza não variam entre os sistemas distintos, chamados inerciais, que se movem com velocidade constante, uns em relação aos outros.

2 - Não existe um sistema de referência absoluto, e o estudo dos fenômenos físicos terá que ser feito mediante variáveis relativas que expressam leis idênticas em diferentes sistemas inerciais.

Essas hipóteses, apoiadas pelas experiências de Michelson-Morley sobre a velocidade da luz, negaram a existência do éter cósmico e revelaram um princípio que se tornou fundamental na ciência do século XX: a velocidade da luz é inatingível por qualquer partícula material, e além disso é insuperável.

As consequências diretas da teoria restrita, apoiadas em rigorosa formulação matemática, revolucionaram os postulados da ciência. De maneira geral, um objeto material com velocidade próxima à da luz sofre efeitos surpreendentes: sua massa aumenta, o espaço se contrai e o tempo se dilata. Estes dois últimos efeitos se deduzem das equações de Lorentz.

As hipóteses de Einstein, em sua teoria restrita, se completaram com a equação da equivalência entre massa e energia como uma das manifestações paralelas do mesmo fenômeno. A lei da conversão entre matéria e energia, expressa pela equação matemática E = mc2, enuncia que a massa de uma partícula submetida a altas velocidades se transforma em energia pura, segundo um fator de conversão igual ao quadrado da velocidade da luz (c) no meio em que se realiza a experiência. Obteve-se a comprovação experimental dessa equação mediante o estudo das reações nucleares, que liberam colossais quantidades de energia resultantes da perda de massa do sistema. A conversão inversa, de energia em massa, que daria lugar à materialização de campos energéticos, nunca foi detectada em lugar algum do universo, embora modernas teorias cosmológicas tenham previsto a existência de buracos brancos que atuariam como criadores de matéria.

Os sistemas de referência exclusivamente espaciais, usados nas teorias clássicas, tiveram que ser completados por uma nova variável, o tempo, para satisfazer as novas hipóteses. O alemão Hermann Minkowski definiu o espaço tetradimensional como constituído de três direções de espaço e uma de tempo. O tempo seria o quarto eixo de referência. No espaço-tempo de Minkowski puderam ser representados os fenômenos referentes às teorias relativistas.

Relatividade geral

Relatividade geral

A principal limitação da relatividade especial era sua aplicação restrita a sistemas de referência inerciais, de velocidade retilínea e constante em relação uns aos outros. A generalização das hipóteses da relatividade restrita ampliou o princípio da invariabilidade das leis da natureza a qualquer sistema, inclusive os de tipo não inercial ou dotados de uma aceleração ou velocidade variável com relação aos sistemas inerciais.

Campos gravitacionais
O objetivo de Einstein, com a globalização dos postulados relativistas, foi desenvolver um modelo de campo gravitacional no qual definiu as características dos sistemas cinemáticos e dinâmicos em condições próximas ao limite da velocidade da luz. As ideias de Einstein foram enriquecidas por trabalhos de Hermann Bondi, Sir Fred Hoyle, Thomas Gold e Ernest Pascual Jordan.

Confirmação da teoria
As hipóteses de Einstein, apesar de sua brilhante demonstração teórica, só alcançaram pleno reconhecimento internacional depois do surgimento de provas experimentais de sua validade. Entre os principais resultados que apoiaram as hipóteses relativistas se incluem: a explicação das anomalias observadas desde o século XIX nas órbitas do Planeta Mercúrio, mediante a inclusão do conceito de campo gravitacional relativista, no qual a trajetória da luz se curva na presença de fortes campos gravitacionais; a interpretação dos fenômenos das partículas atômicas lançadas em alta velocidade no interior de aceleradores como ciclotrons e similares; e a construção de teorias cosmológicas da estrutura de sistemas galáticos e estelares e da forma e origem do universo.

As equações de Einstein permitiram prever a conversão de matéria em energia nos reatores e bombas nucleares. Nos últimos anos do século XX, outras previsões de Einstein na teoria da relatividade geral eram ainda objeto de pesquisa. Entre essas previsões se incluem a existência de ondas gravitacionais e dos buracos negros, objetos formados pelo colapso de estrelas de grande massa, dos quais nem a luz conseguiria escapar. Em maio de 1994, o telescópio espacial americano Hubble detectou pela primeira vez um objeto que correspondia às características de um buraco negro superdenso, situado a cinquenta milhões de anos-luz da Terra, na galáxia gigante M87.

www.klimanaturali.org

Radiações de Van Allen

Radiações de Van Allen

Radiações de Van AllenAs radiações de Van Allen são concentrações de partículas em regiões do campo magnético terrestre situadas bem acima da atmosfera. Mais intensas sobre o equador e praticamente ausentes nos polos terrestres, foram descobertas em 1958 pelo físico americano James Van Allen, a partir de dados coletados no espaço por satélites artificiais americanos. As radiações formam dois cinturões em forma de toroide, com centro no equador. O mais interno se estende entre as altitudes de mil e cinco mil quilômetros da superfície da Terra, com intensidade máxima aos três mil quilômetros, e o segundo entre 15.000 e 25.000km. Não há intervalo entre as duas regiões, que, na verdade, fundem-se gradualmente.

Durante os períodos de intensa atividade solar, partículas eletricamente carregadas lançadas pelo Sol conseguem romper a barreira formada pelos cinturões de radiação de Van Allen, na magnetosfera terrestre, e atingem a atmosfera, produzindo fenômenos como a aurora polar e as tempestades magnéticas.

O cinturão mais interno consiste sobretudo de prótons altamente energéticos, que se originam, presumivelmente, do decaimento de nêutrons produzidos quando raios cósmicos de alta energia oriundos do exterior do sistema solar colidem com átomos e moléculas da atmosfera terrestre. Uma parte desses nêutrons é ejetada para fora da atmosfera e, ao atravessar a região do cinturão, se desintegra em prótons e elétrons. Essas partículas se movem em trajetórias espirais ao longo de linhas de força do campo magnético terrestre.

O externo contém partículas eletricamente carregadas de origem tanto atmosférica quanto solar. As últimas são principalmente íons hélio trazidos pelo vento solar (jato de partículas que emana do Sol). Os prótons desse cinturão têm energia muito mais baixa do que os do cinturão interno, e seu fluxo é muito mais intenso. As partículas mais energéticas do cinturão externo são elétrons cujas energias atingem várias centenas de milhares de elétrons-volt.

www.klimanaturali.org