Mostrando postagens com marcador Física. Mostrar todas as postagens
Mostrando postagens com marcador Física. Mostrar todas as postagens

Raios Cósmicos

Raios Cósmicos

Raios Cósmicos

Raios cósmicos são partículas energéticas que se deslocam a velocidades próximas à da luz e invadem a atmosfera terrestre, vindas do espaço interestelar. Existem dois tipos básicos de raios cósmicos: primários e secundários. Os raios cósmicos primários são formados principalmente de prótons (núcleos de hidrogênio) e partículas alfa (núcleos de hélio), além de núcleos de elementos pesados e alguns elétrons. Embora se saiba que alguns raios cósmicos primários têm origem no Sol, um eficiente acelerador, a maioria provém de fontes distantes da Terra (possivelmente de violentas explosões de estrelas, as supernovas), e as de maior energia, do espaço exterior à Via Láctea. Ainda se desconhece, no entanto, o modo como essas partículas ganham energia.

Originários do espaço interestelar, os raios cósmicos fornecem aos cientistas informações importantes sobre as condições físicas do sistema solar e do universo.

Ao penetrarem na atmosfera terrestre, os raios cósmicos primários colidem com núcleos de oxigênio e nitrogênio e produzem raios cósmicos secundários, compostos de partículas subatômicas, como elétrons, pósitrons, mésons e neutrinos, além de minúsculos "pacotes" de energia eletromagnética chamados fótons. Os raios cósmicos secundários altamente energéticos podem interagir com outros núcleos na atmosfera e gerar mais raios secundários, num efeito conhecido como chuveiro.

Raios Cósmicos

Origem. Depois que Victor Francis Hess esclareceu, em 1912, que a radiação cósmica provinha do espaço extraterrestre, a busca de uma origem para essa radiação passou a ser a principal questão a ser respondida. Inicialmente, procuraram-se fontes discretas, isto é, bem localizadas e singularizadas no espaço, tal como estrelas, quasares e supernovas (que são fontes de radiação visível), além das emissões de rádio e de raios X.

Inicialmente, os astrônomos acreditavam que todos os raios cósmicos, com exceção daqueles mais energéticos, eram produzidos por explosões de supernovas. A hipótese foi posta em dúvida, porém, por trabalhos posteriores, que questionaram se as partículas poderiam realmente ser aceleradas para atingir tão altas energias unicamente a partir da explosão de uma supernova. Questionou-se também se essas partículas, ainda que aceleradas, conseguiriam se propagar através do meio interestelar para pontos muito distantes da explosão original -- objeção válida também para outras possíveis fontes, como os pulsares. Após exaustivas pesquisas, a resposta aceita pela comunidade científica na última década do século XX era a de que não existem fontes discretas de raios cósmicos, exceto o Sol, que contribui ocasionalmente, quer modulando, quer injetando partículas que atingem a Terra.

Após a aceleração, os raios cósmicos se fragmentam em interações com o hidrogênio interestelar. Entre os fragmentos estão núcleos radioativos que permitem determinar que algumas das partículas menos energéticas levam até dez milhões de anos para viajarem de suas fontes até a Terra. A potência dessas fontes pode ser estimada a partir da idade das partículas, sua densidade energética e o volume de espaço no qual estiveram confinadas. Presumindo que esse volume seja nossa galáxia, a Via Láctea, então a energia da fonte de raios cósmicos é comparável à que é produzida por grandes explosões de estrelas, as supernovas. Os raios cósmicos podem ser, no entanto, acelerados por ondas de choque geradas subsequentemente, no meio interestelar, pela explosão da supernova, e não acelerados pela própria explosão.

Raios Cósmicos

Importância da pesquisa. O estudo de raios cósmicos começou como uma busca de conhecimento a respeito do universo e de suas origens. A pesquisa, no entanto, levou a descobertas de interesse para outras áreas do conhecimento e chegou a gerar preocupação quanto aos efeitos da radiação cósmica sobre os seres vivos.

Além disso, as altas energias dos raios cósmicos fazem deles um instrumento para o estudo do interior do núcleo atômico e da estrutura das partículas subatômicas. Numa fase anterior à invenção dos aceleradores de partículas, as experiências com raios cósmicos secundários permitiram aos cientistas descobrir muitos tipos de partículas elementares.

Raios Cósmicos

Graças ao estudo dos raios secundários, foi possível obter as primeiras evidências da criação de pares de pósitrons e elétrons e ilustrar de várias maneiras o princípio da equivalência entre massa e energia proposto por Einstein. Além disso, as colisões nucleares dos raios cósmicos na atmosfera terrestre deixa em seu rastro um número substancial de átomos radioativos -- não o bastante para modificarem de forma significativa a radioatividade natural terrestre, mas suficiente para fornecer uma fonte constante de elementos traçadores, que podem ser utilizados no estudo de vários processos de circulação, mistura e separação que ocorrem na Terra.

A primeira aplicação desses elementos traçadores foi descoberta em 1947 pelo químico americano Willard Libby e seus colaboradores, que utilizaram o isótopo radioativo mais abundante produzido pela radiação cósmica, o carbono 14, para fins de datação arqueológica e geológica.

Raios Cósmicos

Absorção | Absorção de Energia e Biológica

Absorção | Absorção de Energia e Biológica

Absorção | Absorção de Energia e Biológica
De modo geral a absorção consiste na atração exercida por uma substância sobre outra substância ou energia, seguida de retenção. Em química, as reações por meio das quais duas substâncias se combinam são exemplos de absorção. Na física, a passagem de um feixe luminoso através de um corpo provoca absorção de parte da energia luminosa pelo corpo. Os aparelhos digestivo e respiratório dos seres vivos têm por função a absorção de nutrientes extraídos do mundo exterior.

Uma esponja imersa em água aumenta de peso, um objeto exposto à luz solar registra elevação de temperatura e uma quantidade de sal diluída em água confere sabor aos alimentos cozidos na mistura. Essas alterações se devem ao fenômeno da absorção, que se verifica em processos físicos e biológicos.

Absorção de Energia. O processo de transferência energética ocorre quando uma onda luminosa ou eletromagnética atravessa um corpo. A magnitude da absorção depende das características físico-químicas do corpo absorvente e de sua espessura. No caso das radiações luminosas, os corpos que absorvem a maior parte da luz que sobre eles incide chamam-se opacos, enquanto os que se deixam atravessar sem que ocorra absorção alguma, recebem o nome de transparentes. O conceito teórico de corpo negro refere-se ao material capaz de absorver toda a radiação luminosa que sobre ele incide. As substâncias absorvem, seletivamente, apenas radiações de determinados comprimentos de onda. Assim, o vidro verde é transparente à luz verde e opaco à luz azul ou vermelha. Nesse princípio é que se baseiam os filtros ópticos.

Absorção Biológica. Nos seres vivos, a absorção ocorre principalmente nos processos de assimilação de nutrientes. A matéria que constitui os organismos vivos é delimitada por paredes cuja função é evitar que eles se misturem livremente com o ambiente. Nenhum ser vivo, no entanto, pode manter-se ativo sem trocar substâncias com o meio circundante. Esses dois imperativos se satisfazem pela interferência de membranas absorventes seletivas, que permitem a passagem das substâncias adequadas, e dos órgãos excretores, que provocam a eliminação dos elementos desnecessários ou prejudiciais.

Absorção | Absorção de Energia e Biológica

Os seres aquáticos mais simples absorvem água e nutrientes através da superfície de todo o corpo. Organismos mais complexos possuem zonas absorventes, formadas por membranas geralmente protegidas por cavidades ou canais. Nos vertebrados e na maioria dos invertebrados existem dois tipos de membranas absorventes: as que revestem o intestino e absorvem os alimentos digeridos e as que envolvem os alvéolos pulmonares ou branquiais, pelas quais o oxigênio é absorvido. Essa divisão de trabalho determinou a especialização evolutiva dos aparelhos digestivo e respiratório.

O oxigênio se encontra na atmosfera em condições de ser absorvido sem transformações. Por esse motivo, as células que constituem as paredes dos alvéolos são muito mais simples do que as do revestimento do intestino, adequadas à absorção de substâncias alimentares. Os nutrientes introduzidos no organismo devem sofrer um processo químico preparatório e para sua absorção requerem células dotadas de uma membrana externa diferenciada. Os tecidos do intestino assim constituídos formam uma superfície absorvente denominada planura estriada.

Nas plantas terrestres, o ar entra através de minúsculos orifícios, os estômatos, na superfície das folhas, e o oxigênio é absorvido pelo parênquima clorofiliano. Esse conjunto desempenha um papel equivalente ao dos pulmões. A água e os sais minerais do solo são retirados por pêlos absorventes existentes nas raízes, sendo seu papel comparável ao do revestimento do intestino dos animais superiores.

Atomismo e Teoria Atômica

Atomismo e Teoria Atômica

Atomismo e Teoria Atômica

Atomismo, no sentido lato, é qualquer doutrina que explique fenômenos complexos em termos de partículas indivisíveis. Enquanto as chamadas teorias holísticas explicam as partes em relação ao todo, o atomismo se apresenta como uma teoria analítica, pois considera as formas observáveis na natureza como um agregado de entidades menores. Os objetos e relações do mundo real diferem, pois, dos objetos do mundo que conhecemos com os nossos sentidos.

Entre as teorias dos filósofos gregos sobre a composição da matéria, o atomismo foi aquela cujas intuições mais se aproximaram das modernas concepções científicas.

Atomismo clássico
A teoria atomista foi desenvolvida no século V a.C. por Leucipo de Mileto e seu discípulo Demócrito de Abdera. Com extraordinária simplicidade e rigor, Demócrito conciliou as constantes mudanças postuladas por Heráclito com a unidade e imutabilidade do ser propostas por Parmênides.

Segundo Demócrito, o todo, a realidade, se compõe não só de partículas indivisíveis ou "átomos" de natureza idêntica, respeitando nisso o ente de Parmênides em sua unidade, mas também de vácuo, tese que entra em aberta contradição com a ontologia parmenídea. Ambos, ente e não-ente ou vácuo, existem desde a eternidade em mútua interação e, assim, deram origem ao movimento, o que justifica o pensamento de Heráclito. Os átomos por si só apresentam as propriedades de tamanho, forma, impenetrabilidade e movimento, dando lugar, por meio de choques entre si, a corpos visíveis. Além disso, ao contrário dos corpos macroscópicos, os átomos não podem interpenetrar-se nem dividir-se, sendo as mudanças observadas em certos fenômenos químicos e físicos atribuídas pelos atomistas gregos a associações e dissociações de átomos. Nesse sentido, o sabor salgado dos alimentos era explicado pela disposição irregular de átomos grandes e pontiagudos.

Filosoficamente, o atomismo de Demócrito pode ser considerado como o ápice da filosofia da natureza desenvolvida pelos pensadores jônios. O filósofo ateniense Epicuro, criador do epicurismo, entre os séculos IV e III a.C. e o poeta romano Lucrécio, dois séculos depois, enriqueceram o atomismo de Leucipo e Demócrito, atribuindo aos átomos a propriedade do peso e postulando sua divisão em "partes mínimas", além de uma "espontaneidade interna",  no desvio ou declinação atômica que rompia a trajetória vertical do movimento dos átomos, o que, em termos morais, explicava a liberdade do indivíduo.

Desenvolvimentos posteriores
A doutrina atomista teve pouca repercussão na Idade Média, devido à predominância das ideias de Platão e Aristóteles. No século XVII, porém, essa doutrina foi recuperada por diversos autores, como o francês Pierre Gassendi, em sua interpretação mecanicista da realidade física, e pelo alemão Gottfried Wilhelm Leibniz, que lhe deu um sentido mais metafísico em sua obra Monadologia. Também os ingleses Robert Boyle e Isaac Newton aceitaram algumas ideias da doutrina atomística, ao sustentarem que as variações macroscópicas se deviam a mudanças ocorridas na escala submacroscópica. No século XX, com base no modelo da teoria atômica, o inglês Bertrand Russell postulou o chamado "atomismo lógico", em que transpôs para a lógica os conceitos analíticos subjacentes ao atomismo clássico.

Atomismo e teoria atômica
Ao comparar-se o atomismo grego com a ciência atual, é necessário destacar que o primeiro, dada a unidade de filosofia e ciência, pretendia tanto solucionar os problemas da mutabilidade e pluralidade na natureza quanto encontrar explicações para fenômenos específicos. Já a moderna teoria atômica tem seu interesse centrado na relação entre as propriedades dos átomos e o comportamento exibido por eles nos diversos fenômenos em que estão envolvidos. Através do controle das reações nucleares, alcançou-se um novo nível, no qual os átomos são descritos como constituídos por partículas elementares, as quais podem transformar-se em energia e esta, por sua vez, em partículas.

www.klimanaturali.org

Detector de Partículas

Detector de Partículas

Detector de PartículasDetector de partículas é um instrumento de alta precisão que permite determinar a densidade e a trajetória de diferentes manifestações de radiação num meio material. Os detectores são usados tanto para contar partículas radioativas que atravessam um ponto como para rastreá-las por meio dos traços que deixam sobre um fundo gasoso ou emulsionado.

Devido a sua facilidade de construção e manutenção, o contador Geiger-Müller, ou contador Geiger, usado para monitorizar a presença de radiação, é o tipo mais comum de detector de partículas.

Os instrumentos de detecção se diferenciam entre os elétricos e os de visualização direta. No primeiro grupo se enquadram o contador Geiger e a câmara de ionização, muito usada nos grandes laboratórios de física experimental. O contador Geiger se compõe de um arame que, disposto ao longo do eixo de um cilindro metálico cheio de gás, registra e amplifica a corrente elétrica produzida pela passagem de partículas através do gás. A câmara de ionização consiste num reservatório gasoso com eletrodos de polaridades opostas. A passagem de partículas pelo gás gera íons e elétrons, captados pelos eletrodos.

A câmara de Wilson, ou câmara de nuvem, é um detector do tipo visual no qual a passagem de uma partícula através de um gás saturado produz, por condensação, uma esteira de gotas que pode ser fotografada. A análise da fotografia obtida permite conhecer a trajetória tridimensional da partícula.

www.klimanaturali.org

Astrofísica | o que é Astrofísica?

Astrofísica | o que é Astrofísica?

Astrofísica | o que é Astrofísica?

A astrofísica é a parte da astronomia que estuda o comportamento dos corpos celestes, do ponto de vista das leis físicas. A diferenciação de especialidades dentro da astronomia foi resultado do enorme impulso recebido por essa ciência com o advento de novas técnicas como a fotografia, a fotometria e a espectroscopia. Os dados obtidos pela observação ao longo dos anos foram examinados à luz de novos fundamentos científicos, como a teoria da relatividade, a mecânica quântica e a física de partículas. Os princípios estabelecidos em épocas anteriores foram confirmados e aperfeiçoados, o que tornou possível responder a numerosas questões sobre a estrutura do universo.

Até o século XIX acreditava-se que nunca seria possível determinar a composição dos astros. Hoje em dia são conhecidos não só os elementos que os constituem e os processos físicos que ocorrem em seu interior mas também o modo como esses corpos celestes se formaram e evoluíram. Uma teoria sobre a origem do universo, fundamentada em observações e em experiências, é hoje plenamente aceita pelos cientistas.

Fotometria
No século II a.C. Hiparco de Niceia classificou as estrelas em seis grupos, de acordo com seu brilho. As de primeira magnitude eram as mais brilhantes, e as de sexta, as de menor brilho. Essa classificação, no entanto, só incluía os corpos celestes perceptíveis a olho nu. Atualmente utiliza-se uma escala de valores compreendidos entre -27, que corresponde ao astro mais brilhante (o Sol), e + 23, para as estrelas de brilho menos intenso, que, não obstante, podem ser fotografadas com o auxílio de um telescópio.

A unidade de medida da intensidade luminosa é a candela (cd), que corresponde à luminosidade de um corpo negro (corpo que absorve toda a radiação incidente em sua superfície) de 1/60 cm2 de superfície, à temperatura de 1.769o C. Assim, uma candela observada a um metro de distância teria uma magnitude de aproximadamente -14. Da mesma forma, uma diferença de cinco magnitudes se obtém multiplicando a intensidade luminosa por cem, de modo que, quando a diferença é de somente uma magnitude a razão entre as intensidades é de 10,4. Se chamarmos de I1, I2 as intensidades luminosas de duas estrelas e de m1, m2 suas respectivas magnitudes, verifica-se a seguinte relação matemática:

A magnitude de uma estrela se avalia com o olho humano, sensível principalmente aos comprimentos de onda correspondentes à cor amarela, situada na zona central do espectro visível. Para avaliar a magnitude de uma estrela pode-se recorrer também a procedimentos fotográficos, com os quais se mede o escurecimento de uma placa sensível principalmente ao azul. Consegue-se uma precisão ainda maior calculando a intensidade luminosa em função da intensidade elétrica a ela correspondente, produzida por efeito fotoelétrico quando a luz incide sobre uma lâmina metálica.

O brilho ou magnitude de uma estrela observada da Terra é, na realidade, um valor aparente, que depende de sua luminosidade absoluta (energia emitida em forma radiante por unidade de tempo) e de sua localização, já que o brilho de um emissor luminoso decresce com o quadrado da distância. Assim, conhecendo-se a magnitude aparente de um astro e sua distância, pode-se calcular sua magnitude absoluta. Existe uma escala para medir a magnitude estelar, cuja unidade é o brilho de uma estrela hipotética situada a uma distância de dez parsecs (aproximadamente 3,26 anos-luz ou 30,84 x 1012 quilômetros) da Terra. A magnitude absoluta de uma estrela tem especial importância no caso daqueles astros denominados variáveis cefeidas, cuja luminosidade varia periodicamente e de forma proporcional à sua magnitude absoluta. A medição da magnitude aparente e do período dessas estrelas permite calcular a distância que as separa da Terra.

Análise espectral
Pode-se obter informação sobre as estrelas por meio de análise da luz que elas emitem. Com esse procedimento, denominado análise espectral, foi possível identificar a presença do elemento químico hélio no Sol antes mesmo que ele fosse detectado na Terra.

Fundamento
A luz visível é um tipo de radiação eletromagnética, isto é, uma variação periódica dos campos elétrico e magnético, que se propaga no espaço a uma velocidade de 300.000 km/s. Os raios ultra-violeta, os raios X e as ondas de rádio são, também, formas de radiação eletromagnética. A diferença entre elas deve-se à frequência e ao comprimento de onda do movimento ondulatório próprio de cada uma dessas radiações. O espectro eletromagnético compreende comprimentos de onda que variam de 10-11cm, para os raios gama, a vários quilômetros, para as ondas de rádio. A luz visível ocupa uma faixa estreita desse espectro e compreende comprimentos de onda que variam em torno de 5 x 10-5cm, comprimento correspondente à luz amarela. Ondas mais longas correspondem à luz vermelha e outras, mais curtas, à luz azul. O comprimento de onda e a frequência se relacionam por meio da fórmula  , em que c é a velocidade da luz (3 x 1010cm/s),   é o comprimento de onda e f é a frequência. Segundo a mecânica quântica, a luz pode ser considerada ao mesmo tempo como uma onda eletromagnética ou como um fluxo de partículas, denominadas fótons. Essas entidades materiais se deslocam a uma velocidade c e possuem uma energia E dada por E = hf, onde h é a constante de Planck (h = 6,6 x 10-27 ergs.s) e f a frequência de onda.

Os átomos são constituídos por um núcleo e um envoltório, onde se encontram os elétrons, situados em vários níveis de energia, denominados níveis quânticos. Quando um elétron se desloca de um nível de energia superior para outro, inferior, ele emite um fóton, cuja energia corresponde à diferença entre as energias daqueles dois níveis. De forma análoga, um elétron pode capturar um fóton e saltar para um nível energético superior. Assim, se os níveis energéticos de um átomo são conhecidos, pode-se calcular a frequência da luz emitida ou absorvida por ele. Por meio da análise da luz emitida também se pode determinar a natureza do átomo emissor.

Espectros
Quando a luz solar incide sobre um prisma, ela se decompõe em cores - ondas eletromagnéticas de frequências diferentes -, formando o espectro visível. Com o auxílio do espectroscópio, que permite observar um espectro, e do espectrógrafo, que registra graficamente o espectro de diferentes elementos químicos, é possível comparar a luz proveniente dos astros a espectros de elementos conhecidos e estabelecer assim a composição química desses astros.

Uma fonte luminosa pode gerar três tipos de espectro diferentes: (1) os sólidos ou líquidos incandescentes, bem como os gases sob pressão e temperatura elevadas, apresentam um espectro contínuo, constituído por ondas eletromagnéticas de todas as frequências; (2) os gases, sob pressões e temperaturas inferiores, geram um espectro formado por faixas de frequência bem definidas, correspondentes aos saltos dos elétrons entre os diversos níveis quânticos de energia (cada elemento químico caracteriza-se por uma disposição particular desse conjunto de frequências). (3) quando a luz emitida por um objeto, que por si só produziria um espectro contínuo, atravessa um gás mais frio, a luz resultante forma um espectro onde aparecem raias escuras sobre um fundo contínuo, denominadas raias de absorção. Esse terceiro caso é muito comum no estudo das estrelas, já que a luz, emitida pelas zonas mais profundas e de maior temperatura do astro deve atravessar suas camadas, mais frias, para atingir o espaço.

Temperatura de uma estrela
A partir do espectro de uma estrela é possível determinar não só a sua composição, como também a temperatura de sua superfície. Para cada frequência, a estrela emite uma onda eletromagnética de determinada intensidade. Assim, para uma certa frequência fm, a intensidade de emissão é máxima. A freqüência fm e a temperatura do emissor (T) se relacionam por meio da fórmula fm = 5,89 x 1010T, chamada lei de Wien, na qual a frequência se mede em ciclos por segundo e a temperatura em graus Kelvin (K).

Em astrofísica, a temperatura efetiva de uma estrela corresponde à de um corpo negro que emita a mesma quantidade de energia por unidade de tempo e de superfície. Pela lei de Stefan-Boltzmann é possível calcular essa temperatura, que é dada por  , onde E é a energia emitida por unidade de tempo, D é o diâmetro de estrela e s é uma constante, equivalente a 5,672 x 10-12W.cm2, K-4.

Espectros infravermelho, ultravioleta e de raios X. A atmosfera terrestre atua como um filtro e deixa passar para a superfície do planeta somente as radiações correspondentes ao espectro visível e das ondas de rádio, com comprimentos entre 1mm e 18m. Entretanto, satélites artificiais localizados no espaço recolhem e investigam radiações de outros tipos. Assim, foi possível localizar estrelas em formação, cuja temperatura ainda não lhes permitia brilhar, mas que emitiam na faixa do infravermelho. Foram também identificadas estrelas de nêutrons que emitem raios X.

Efeito Doppler
Quando uma fonte sonora se desloca em relação ao receptor, este percebe um som mais grave ou mais agudo, segundo o emissor esteja, respectivamente, se afastando ou se aproximando. Esse fenômeno, conhecido como efeito Doppler, pode ser aplicado às radiações luminosas, de acordo com investigações realizadas pelo francês Armand-Hippolyte-Louis Fizeau. De acordo com esse princípio, as raias espectrais das estrelas que se afastam da Terra deslocam-se na direção do vermelho, de menor frequência. Esse efeito tem sido utilizado para demonstrar a rotação do Sol ao redor de seu eixo e para medir a velocidade das estrelas. Dessa forma, calculando-se a velocidade das galáxias mais distantes, foi possível demonstrar a teoria da expansão geral do universo.

Radioastronomia
A atmosfera terrestre é transparente às ondas de rádio com comprimentos entre 1mm e 18m. A análise dessas ondas, provenientes do espaço exterior, é objeto de estudo da radioastronomia, a qual tem fornecido dados valiosos sobre as zonas mais afastadas do universo.

Comparado com outras estrelas, o Sol é um fraco emissor de ondas de rádio e não interfere na recepção dos sinais de rádio gerados por essas estrelas. O inverso acontece com a radiação luminosa emitida por essas fontes, que só são observadas à noite. As ondas de rádio atravessam sem dificuldade a poeira interestelar, o que não acontece com a radiação luminosa. Consequentemente, os radiotelescópios são muito mais sensíveis que os telescópios ópticos e possibilitam o estudo de zonas mais afastadas do universo.

Os radiotelescópios, como os receptores de rádio comuns, se compõem de uma antena, geralmente localizada no foco de um espelho parabólico, que concentra as ondas de rádio; um amplificador e uma fita magnética.

Uma desvantagem desses equipamentos é seu baixo poder de resolução: enquanto um telescópio óptico de cinco metros de diâmetro apresenta um limite de resolução de dois centésimos de segundo, um radiotelescópio com as mesmas dimensões tem um limite de resolução de dez graus. Esse problema pode ser resolvido, em parte, pela conexão de dois radiotelescópios a um mesmo receptor e pela análise do espectro de interferências resultantes (radiointerferômetro).

Mediante as técnicas radioastronômicas, tornou-se possível a exploração das regiões mais afastadas do universo. De modo geral, gases em turbulência emitem grandes quantidades de ondas de rádio. Assim, a atmosfera mais externa do Sol é uma importante fonte dessas ondas eletromagnéticas, o mesmo acontecendo com as atmosferas de Vênus, Júpiter e Saturno. Fora do sistema solar, os radiotelescópios possibilitam o descobrimento de resíduos de supernovas e a observação de colisões intergalácticas, além da localização de um tipo de astro denominado radiogaláxia, que emite ondas de rádio de grande intensidade.

Finalmente, com a utilização dos radiointerferômetros tornou-se possível determinar a posição dos quasares, objetos celestes cuja natureza ainda não é perfeitamente conhecida.

www.klimanaturali.org

Teoria dos Erros

Teoria dos Erros

Teoria dos ErrosA teoria dos erros é o conjunto de processos empregados para a correção dos erros cometidos na realização de uma medida ou série de medidas. As medidas das quantidades físicas são representadas por números aproximados. A diferença entre o valor obtido na medição da grandeza física e seu verdadeiro valor constitui o que se chama erro absoluto ou verdadeiro. Esse desvio (que pode ser para mais ou para menos) raramente tem aplicação, pois seu valor exato é, em geral, desconhecido e pouco expressivo, estando condicionado à escala e à sensibilidade do aparelho de medição. Assim, se uma régua for graduada em centímetros, o erro absoluto é inferior a um centímetro. Se graduada em milímetros, o erro absoluto é inferior a um milímetro.

Uma das decisões mais difíceis que um pesquisador tem de assumir é a de rejeitar resultados experimentais muito divergentes, mediante a avaliação correta dos erros envolvidos nas experiências. Tais resultados podem ocorrer por acidente ou, com maior ou menor frequência, por falhas da habilidade ou dos cuidados do pesquisador.

É o erro relativo, contudo, que pode dar ideia da precisão de uma medição. Chama-se erro relativo a relação entre o erro absoluto e o valor exato da grandeza. Se numa medida de 25cm for cometido um erro absoluto de um centímetro e numa medida de cinquenta metros for cometido um erro de dez centímetros, tem-se, no primeiro caso, um erro relativo de 1/25, e, no segundo, 1/500. Ao se multiplicar esses resultados por 100, tem-se o erro percentual de cada caso, respectivamente 4% e 0,2%, o que mostra que a segunda medida foi mais perfeita que a primeira. O erro também se pode referir ao grau de incerteza previsto numa experiência e exprime-se em quantidades que se chamam desvio padrão, desvio médio ou erro provável.

Na prática, o que em termos gerais se determina é o erro aparente, ou seja, a diferença entre o valor objetivo na medida e o valor mais provável da quantidade física considerada, pois a determinação do erro de uma medida em relação ao verdadeiro valor da grandeza é impraticável. Esse valor mais provável é, em geral, a média aritmética de diversas medições. Com ele também se obtém o erro relativo - razão entre o erro aparente e o valor mais provável da medida.

Assim, os valores encontrados nos manuais ou tabelas não são verdadeiros ou exatos, pois constituem os resultados de experiências e contêm, portanto, incertezas. Cada constante química ou física representada pelos manuais constitui o melhor valor representativo de uma série de observações divergentes.

Denomina-se discrepância a diferença entre os valores de duas medidas de uma mesma grandeza obtidos por dois experimentadores diferentes. Essa diferença é, às vezes, incorretamente designada pela palavra erro. Os erros podem ser de dois tipos: sistemáticos e acidentais. Quando os erros sistemáticos de uma medida são pequenos, a medida é dita acurada e, quando os erros acidentais ou ocasionais são pequenos, a medida é precisa.

Erros sistemáticos
São erros provenientes de causas que influem do mesmo modo em cada observação com um dado aparelho, em um conjunto de medições. Por sua natureza, são erros regulares, algumas vezes chamados erros persistentes. Em muitos casos, permanecem com o mesmo valor durante toda a pesquisa,  sendo nesse caso denominados erros constantes.

Cada medida é afetada por um grande número de variáveis e os erros causados podem decorrer dos seguintes fatores: (1) instrumentos imperfeitos: os instrumentos ou algum de seus dispositivos ou escalas usadas podem ser incorretos ou defeituosos desde a construção como, por exemplo, um relógio com adiantamento ou atraso; (2) calibração imperfeita de uma aparelhagem; (3) colocação imperfeita da escala: por qualquer motivo, a escala de um instrumento de medida, ainda que perfeitamente graduada, pode ter sido deslocada de sua posição correta; (4) mecanismo defeituoso: é impossível a construção de um instrumento absolutamente perfeito, do ponto de vista mecânico: assim, por exemplo, os braços de uma balança não são rigorosamente iguais e, em consequência das variações de temperatura ambiente, os comprimentos relativos aos braços variam continuamente; (5) perturbações externas de natureza conhecida e inevitáveis: são frequentes os casos em que os erros persistentes são incorporados por causas externas cuja natureza é corretamente interpretada, mas se tornam de impossível anulação; assim, um corpo aquecido que está sendo submetido a uma pesquisa experimental irradia calor apesar de todas as precauções, provocando consequente imprecisão nos resultados; (6) condições experimentais: uso rotineiro de instrumentos em condições experimentais diferentes das condições em que foram calibrados; (7) técnica imperfeita, que corresponde à utilização de um método baseado em equação matemática não representativa da realidade física do fenômeno.

Conhecendo-se as causas que produzem os erros sistemáticos, é sempre possível tentar a sua eliminação pela adoção de cuidados e métodos de controle. Antes de colocar um instrumento em funcionamento, deve-se aferi-lo ou calibrá-lo por meio de comparação com um padrão de confiança. Elabora-se uma curva de calibração ou uma tabela de correção, com que se podem minimizar os erros. Cada aparelho de precisão deve ser frequentemente testado. Pode-se ainda fazer a correção dos erros sistemáticos através dos ensaios em branco, assim como escolher convenientemente, sempre que possível, um processo experimental que apresente a tendência de equilibrar os erros sistemáticos apresentados pelo aparelho.

Erros acidentais
Quando a medida de certa grandeza é repetida uma série de vezes, os valores resultantes podem não coincidir. Essas diferenças ou desvios irregulares são também chamados erros experimentais ou de observação. São erros aleatórios, isto é, variações que decorrem de fatores incontroláveis. Tanto as medidas mais simples como as mais complexas são acompanhadas desses erros, que procedem de causas fortuitas e variáveis.

Somente os erros acidentais permitem a aplicação de análise estatística aos dados obtidos. Para tal, supõe-se hipoteticamente a existência de uma população ou número extremamente grande de resultados obtidos pela repetição exaustiva das medidas. Qualquer conjunto de observações é considerado como a amostragem aleatória da população de medidas. É possível, por esse meio, reduzir o efeito dos erros aleatórios e estimar a incerteza que apresentam, pela aplicação de métodos estatísticos.

www.klimanaturali.org

Teoria dos Campos

Teoria dos Campos

Teoria dos Campos

Um princípio fundamental da eletricidade é a lei de Coulomb: a força com que duas cargas elétricas se atraem ou repelem varia diretamente segundo suas grandezas e inversamente ao quadrado da distância que as separa. Esse princípio apresenta diversos inconvenientes do ponto de vista intuitivo, pois pressupõe a propagação instantânea de interações físicas e não lhes explica a natureza. Tais inconvenientes podem ser superados pelo emprego do conceito físico de campo.

A noção de campo é dada pelo conjunto de valores de qualquer grandeza física em todos os pontos do espaço. Denomina-se "campo em um ponto e no tempo t" o valor da grandeza tomada em um ponto e instante determinados. Campo designa, portanto, uma posição do espaço na qual qualquer tipo de fenômeno físico é capaz de se manifestar à distância. Assim, o campo elétrico é aquele que se origina a partir de um sistema de cargas elétricas; o campo gravitacional se estabelece a partir da distribuição de massas e o campo de forças é gerado pela ação exercida sobre um corpo, de acordo com sua posição no espaço e com sua interação com outro corpo.

Ao invés de se considerar a ação de uma partícula sobre outra, pode-se supor que uma das partículas seria responsável pela criação de um campo, atuante no espaço ao seu redor, o qual, por sua vez, interagisse com uma segunda partícula. No caso da força elétrica, as cargas produziriam um campo elétrico, designado por E, que exerceria sobre a carga q uma força dada por F = q E. Na mecânica clássica, o campo é simplesmente uma maneira de se descrever uma interação, enquanto na mecânica relativística, segundo a qual não é possível a existência de ação direta entre partículas, esse termo se aplica a uma realidade física.

Do ponto de vista matemático, o campo se refere a uma função das coordenadas de pontos do espaço e do tempo ou, analogamente, ao conjunto de valores finitos e infinitos assumidos pelas variáveis de um sistema.

Tipos de Campo
Um campo pode ser classificado como escalar (quando a função correspondente se encontra totalmente especificada por meio de um número) ou vetorial (quando, além de sua grandeza, cumpre considerar também sua direção e sentido de atuação).

Por exemplo, o campo elétrico e o gravitacional são campos vetoriais, uma vez que a cada ponto do espaço corresponde um valor do vetor campo. A distribuição de temperaturas em um condutor é um campo escalar, porquanto a temperatura é uma grandeza escalar definida por um número. O campo se chama estacionário quando não depende do tempo.

As variações de um campo escalar com a posição são descritas mediante o gradiente de campo. Assim, se o campo é representado pela notação   (x, y, z), isto é, uma função das coordenadas espaciais cartesianas x, y e z, o gradiente de   é um campo vetorial, que tem como coordenadas as três derivadas de   em relação a x, y e z, representadas pela expressão

O gradiente de   recebe a denominação de campo conservativo, enquanto a função escalar que o define é chamada de potencial de campo. Nos campos conservativos, o trabalho necessário para deslocar uma partícula ao longo de uma trajetória depende somente de seus pontos iniciais e finais e não do caminho percorrido entre eles, podendo, por isso, ser calculado pela diferença entre os valores da energia potencial em ambos os extremos.

www.klimanaturali.org

Arquivo