Mostrando postagens com marcador Física. Mostrar todas as postagens
Mostrando postagens com marcador Física. Mostrar todas as postagens

Fissão Nuclear

Fissão Nuclear

Fissão NuclearFissão nuclear é uma reação em que o núcleo de um átomo se fragmenta num par de produtos radioativos de massa atômica menor. Ocorre por processo natural, ou espontâneo, quando um átomo se desintegra espontaneamente para adquirir maior estabilidade interna; ou por processo induzido, no qual o núcleo captura um nêutron.

A reação de fissão nuclear foi obtida, pela primeira vez, em 1939, por Otto Hahn e Fritz Strassmann, quando pretendiam sintetizar elementos transurânicos, de número atômico superior a 92.

Urânio 238, urânio 235, plutônio, tório, protactínio, bismuto, chumbo, tálio, ouro e mercúrio são elementos físseis, ou seja, se fragmentam quando atingidos por nêutrons. No bombardeamento do U-235 com nêutrons lentos (cerca de 0,03 elétron-volt de energia), produz-se a reação de fissão, em que de dois elementos, cuja massa atômica fica compreendida entre 72 e 158, obtêm-se também nêutrons secundários, que provocam novas fissões, numa reação em cadeia capaz de produzir energia da ordem de 24.000 kWh para cada grama de U-235. Essa reação pode dar-se de forma controlada, nas usinas termonucleares, ou descontrolada, como no caso da bomba atômica.

Denomina-se massa crítica a menor quantidade de material físsil capaz de manter uma reação em cadeia. Os materiais físseis, como o urânio 235 e o plutônio 239, têm a propriedade de, ao absorverem nêutrons, fragmentarem-se em vários núcleos, simultaneamente, emitindo novos nêutrons. O processo se verifica com alta produção de energia e, para ser mantido, requer a presença de um número mínimo de átomos sob o alcance dos nêutrons de energia compatível.

No processo de fissão, os nêutrons emitidos se classificam em imediatos, por serem produzidos em tempo muito pequeno (possivelmente inferior a 10-4 segundo), os quais constituem mais de 99% do total; e retardados, que não chegam a totalizar um por cento, emitidos com intensidade decrescente durante vários segundos. Ainda que em pequena quantidade, esses nêutrons têm influência sobre o comportamento das reações nucleares mantidas por nêutrons térmicos e por essa razão desempenham importante papel nos sistemas de controle dos reatores, baseados em processos de reação em cadeia.

www.klimanaturali.org

Teoria do Caos

Teoria do Caos

Teoria do Caos
Teoria do Caos
Ao contrário do que pensavam os físicos até a década de 1980, o universo, embora governado por leis precisas, pode comportar-se de modo aleatório.

Parte da matemática que estuda o comportamento aleatório e imprevisível dos sistemas, a teoria do caos revelou um mundo inteiramente novo, onde se evidenciam as irregularidades da natureza. A ideia central da teoria do caos é a de que os comportamentos casuais são também governados por uma lei. E que pequenas alterações podem provocar mudanças drásticas, a longo prazo, em qualquer sistema, seja o clima de uma região, o movimento da bolsa de valores, a população de pássaros de um ecossistema ou o ritmo dos batimentos cardíacos.

O primeiro cientista a notar que variações mínimas podiam mudar completamente o resultado de uma experiência foi o meteorologista americano Edward Lorenz, ao sustentar que os fenômenos climáticos só poderiam ser previstos por equações que levassem em conta seu alto grau de incerteza. Para os cientistas que estudam a teoria do caos, o imprevisível se encontra em toda parte. Os relâmpagos, as gotas de chuva ou o crescimento de um embrião, por exemplo, são fenômenos de natureza caótica, porque qualquer pequena alteração pode provocar grandes mudanças num espaço maior de tempo.

A explicação mais simples da teoria do caos deve levar em consideração pelo menos três ideias: o espaço de fase, os atratores e os fractais. A primeira ideia considera que os possíveis estados de um sistema, determinados por variáveis como posição, velocidade, temperatura ou massa, podem ser representados pela posição, em um espaço multidimensional, de um ponto cujas coordenadas são determinadas pelas variáveis. Na mecânica clássica, o comportamento de um sistema dinâmico pode ser descrito geometricamente como o movimento de um atrator. Nos sistemas caóticos, esses atratores são denominados "estranhos". Os atratores estranhos têm estruturas detalhadas em todas as escalas de magnificação. Desenvolveu-se, dessa constatação, o conceito de fractal, forma geométrica complexa, que exibe estrutura detalhada e tem a propriedade de auto-similaridade -- o que, por sua vez, levou a um notável progresso no grafismo computadorizado.

www.klimanaturali.org

Partículas Subatômicas

Partículas Subatômicas

Partículas Subatômicas
Partículas subatômicas, também chamadas partículas elementares, são as unidades fundamentais da matéria e da energia. Quase todo o conhecimento sobre a existência e propriedades das partículas subatômicas foi adquirido somente a partir do final do século XIX e, desde então, já se comprovou a existência de mais de 200 partículas e estabeleceram-se inúmeras leis que governam suas inter-relações. A grande quantidade de partículas e a complexidade das equações matemáticas que predizem seu comportamento levou os cientistas a buscarem teorias unificadoras capazes de simplificar o estudo da estrutura básica do universo.

Entre as denominações escolhidas para os números quânticos que definem as partículas subatômicas conhecidas como quarks, há termos que parecem insólitos no contexto do trabalho científico. Os físicos falam em quark estranho, charmoso, do topo e do fundo. Isso dá uma idéia das propriedades singulares desses corpúsculos de dimensões inferiores às de um átomo, que constituem as menores entidades materiais conhecidas até o fim do século XX.

Estrutura Atômica e Forças Nucleares

Estrutura Atômica e Forças Nucleares

Durante séculos acreditou-se que os átomos fossem os componentes básicos da matéria. Em 1897, porém, Joseph John Thomson descobriu o elétron, a primeira partícula elementar, que atua nas reações químicas mais comuns. Pouco depois, em 1911, descobriu-se o núcleo atômico. Ficou claro, então, que o átomo era um sistema composto, formado de uma nuvem de elétrons que gira em torno de um centro minúsculo e pesado, o núcleo atômico.

Posteriormente, verificou-se que a nuvem de elétrons se compunha de diferentes estados ou níveis de energia. Os elétrons podem saltar para estados inferiores e emitir energia em forma de pacotes ou quanta de luz: os fótons. Assim, no fim da década de 1920, a teoria atômica já descrevia elétrons, núcleos e fótons como partículas elementares e concluía que elétrons e núcleos se mantinham juntos e formavam os átomos por meio da força eletromagnética existente entre eles.

No início da década de 1930, comprovou-se que o próprio núcleo se compunha de partículas ainda menores, genericamente denominadas núcleons. Alguns núcleons tinham carga de energia positiva, enquanto outros apresentavam carga nula: foram chamados, respectivamente, prótons e nêutrons. De acordo com as leis da mecânica quântica, introduzida em 1926, concluiu-se que os núcleons se mantinham juntos por meio de uma intensa força nuclear, que só atuava quando as partículas estavam separadas por distâncias ínfimas, da ordem de 10-13cm.

A mecânica quântica também permitiu explicar o fenômeno da radiação beta. Nesse tipo de radiação, o núcleo, por emissão de um elétron e de uma partícula neutra de pequena massa, sofre transição para um estado de energia mais baixa. A partícula emitida, chamada neutrino, é dificilmente detectada porque sua interação com a matéria é muito fraca.

Descoberta de novas partículas. Em meados da década de 1960, pesquisas revelaram que também os prótons e nêutrons, partículas formadoras do núcleo dos átomos, compunham-se de partículas ainda menores: os quarks. Durante a década de 1980, muitos físicos acreditavam que os quarks, juntamente com outra classe de partículas subatômicas conhecidas como léptons, constituíam os blocos construtores fundamentais de toda matéria.

Compostos de partículas com massa, carga elétrica e spin semi-inteiro (spin é a medida da rotação de uma partícula), os quarks foram divididos em seis variedades. Apenas duas delas, conhecidas como up (alto) e down (baixo), ocorrem nos prótons e nêutrons da matéria comum. Três outros tipos de quarks, qualificados de strange (estranho), charm (charme) e bottom (fundo), existem apenas em partículas instáveis, que se desintegram espontaneamente em alguns centésimos-milionésimos de segundo ou em tempo ainda menor. O sexto tipo, o top (topo), é o mais pesado dos quarks e, portanto, o que apresenta maior dificuldade para ser produzido experimentalmente. Sua existência só foi experimentalmente comprovada em 1995. O top quark existiu provavelmente somente no primeiro bilionésimo de segundo do cosmos.

As partículas formadas de quarks são chamadas genericamente de hádrons. Aquelas em que tanto o próton como o nêutron são formados por três quarks se chamam bárions. Outras partículas formadas por um quark e um antiquark denominam-se mésons.

Encontram-se igualmente vários tipos de léptons, dos quais o mais conhecido é o elétron. Outros léptons de maior massa são os múons e a partícula tau. Um terceiro grupo importante de partículas subatômicas é constituído pelos bósons. Ao contrário dos quarks e léptons, os bósons não são construtores de matéria, mas transmissores das forças fundamentais do universo: a força eletromagnética, a força gravitacional e as forças forte e fraca que atuam no átomo.

A força "eletrofraca", unificação da força fraca com a eletromagnética, se mantém porque léptons e seus neutrinos associados emitem e absorvem partículas com massa e carregadas, conhecidas como bósons W. Acredita-se que uma outra partícula chamada bóson Z, que tem massa mas é eletricamente neutra, é também substituída durante a interação.

Outros bósons incluem os glúons, transmissores da interação forte, que liga os quarks para formar os hádrons. Os glúons não têm massa e viajam à velocidade da luz. Além disso, se multiplicam ao viajarem de um quark a outro e, dessa forma, aumentam a intensidade da força que transmitem. Quanto maior o número de glúons trocados entre os quarks, maior se torna a força de ligação.

www.klimanaturali.org

Raios | Origem dos Raios e Trovões

Raios | Origem dos Raios e Trovões

Raios | Origem dos Raios e Trovões

Raio é uma descarga elétrica luminosa visível que se produz entre uma nuvem e a superfície terrestre. Atualmente sabe-se que os raios são fenômenos elétricos produzidos por diferenças de potencial na atmosfera, com energia suficiente para superar a resistência do ar. Na atmosfera da Terra e de outros planetas, como Júpiter, os raios restabelecem o equilíbrio elétrico entre as nuvens e o solo, transmitindo de modo explosivo as cargas elétricas acumuladas num determinado ponto.

Nas mitologias indo-europeias, o raio era um atributo divino, com o qual deuses poderosos, como o grego Zeus, manifestavam sua ira e fulminavam heróis e humanos que se opunham a seus desígnios. Hoje a ciência estuda os raios para proteger de seus efeitos as aeronaves e construções.

Desde a antiguidade os efeitos devastadores dos raios sobre a terra deram-lhes um aspecto mágico e ameaçador, que transparece em lendas e mitos de sociedades primitivas. Foram provavelmente os incêndios provocados por raios que deram ao homem o conhecimento e a posse do fogo.

Até o século XVIII, quando tiveram início os estudos sobre a eletricidade, ainda não havia uma explicação convincente para o fenômeno dos raios e tempestades. Foi o americano Benjamin Franklin quem comprovou a hipótese da origem elétrica dos raios. Franklin concebeu o para-raios para proteger casas e prédios da ação da eletricidade atmosférica. O dispositivo consiste numa haste metálica alta, ligada ao solo por um fio condutor de eletricidade, que atrai os raios e os canaliza para a terra a fim de evitar seus efeitos destrutivos.

Os raios são manifestações típicas das tempestades elétricas e podem ocorrer na ausência ou presença de chuvas, mas quase sempre associados a nuvens do tipo cúmulo-nimbo. Também podem se manifestar, no entanto, em nuvens do tipo nimbo-estrato, em tempestades de neve ou de areia, ou ainda em erupções vulcânicas, sempre que haja um acúmulo de cargas elétricas em nuvens de gotículas de água, cristais de gelo, poeira ou cinza vulcânica. Durante uma tempestade, a descarga elétrica pode ocorrer no interior de uma nuvem, entre nuvens, entre uma nuvem e o ar, ou entre uma nuvem e o solo. Só ao último caso dá-se o nome de raio; todos eles, porém, são chamados relâmpagos.

Trovão
Trovão
Trovão

Trovão
A passagem da descarga elétrica pelo ar provoca grandes estrondos, os trovões. Como as ondas luminosas se propagam com velocidade muito maior que as ondas sonoras, os raios sempre são vistos antes que se ouça o estrondo do trovão. O intervalo de tempo decorrido entre o raio e o trovão varia em relação direta com a distância que separa o observador do fenômeno.

Origem dos raios
As tempestades elétricas ocorrem sempre que há grande instabilidade térmica na atmosfera. Uma região atmosférica instável acentua de forma crescente e acelerada qualquer perturbação existente ao redor. Desse modo, pequenas diferenças de temperatura numa camada atmosférica criam um movimento vertical de massas de ar, já que o ar frio é mais pesado que o ar quente. Se a variação de temperatura se mantém ou aumenta nas camadas superiores, a corrente de ar ascendente se desloca a maiores velocidades, já que o ar frio dos níveis mais altos desce com grande velocidade. Em sua trajetória, as gotículas de água ou partículas de gelo imersas em ambas as massas de ar se atritam e eletrificam. Uma grande carga elétrica então se acumula nas nuvens e, se o ar circundante também estiver eletricamente carregado, podem-se produzir descargas aéreas a partir da nuvem.

As cargas no interior de uma nuvem se distribuem possivelmente da seguinte maneira: uma grande carga positiva na região mais alta, uma grande carga negativa abaixo e, na parte mais baixa, uma pequena carga positiva. O brilho do raio que parte da nuvem para o solo tem origem na neutralização das pequenas cargas positivas da parte mais baixa.

Um raio entre a nuvem e o solo envolve duas descargas. Num primeiro momento, a carga negativa passa da nuvem para o solo sem produzir muita luminosidade, mas com várias ramificações a partir da trajetória principal. Em alguns casos, especialmente quando se trata de estruturas muito altas, como torres de igreja, edifícios e grandes árvores, a primeira descarga pode partir do solo para a nuvem. Quando a descarga principal se aproxima do solo, induz uma carga oposta e concentrada no ponto de recepção, o que faz com que uma descarga positiva retorne do solo para a nuvem, seguindo a mesma trajetória. As duas descargas geralmente se encontram a uma altura de cerca de cinquenta metros do solo. Nesse ponto de junção, a nuvem entra em curto-circuito, e uma descarga negativa muito luminosa, de alta intensidade de corrente elétrica, denominada descarga de retorno, prossegue na mesma trajetória em direção ao solo.

Todo o processo é muito rápido: a descarga principal atinge o ponto de encontro ou o solo em cerca de vinte milésimos de segundo, e a descarga de retorno dura cerca de setenta milionésimos de segundo. A ocorrência típica de um raio envolve uma diferença de potencial entre a nuvem e o solo de centenas de milhões de volts, com correntes máximas da ordem de vinte mil ampères. As temperaturas na trajetória do raio chegam a 30.000 K (cerca de 27.500°C).

Em seu caminho para o solo, o raio segue linhas de mínimo potencial, tal como previsto pela teoria da eletricidade. Em cada ponto de seu trajeto, busca a direção que apresente menor resistência à passagem da corrente elétrica. É por esse motivo que o raio segue o caminho mais curto até a superfície terrestre, o que se pode observar em sua trajetória vertical, ainda que ziguezagueante. Isso explica também porque os raios atingem geralmente lugares altos, pontiagudos e ricos em material metálico, que conduzem melhor a eletricidade.

A enorme energia liberada num raio ocasiona grandes estragos em objetos que apresentem resistência à passagem de corrente elétrica, enquanto os materiais condutores transmitem a carga diretamente para a terra, sem sofrer danos. Baseando-se nesse fato, constroem-se dispositivos de proteção para resguardar pessoas, construções e amplas áreas urbanas. Isso se faz mediante a instalação de para-raios nos pontos mais elevados, como o alto de prédios e torres.

Pesquisas modernas
Na década de 1980, a Administração Nacional de Aeronáutica e Espaço (NASA) iniciou um programa de pesquisas científicas com o objetivo de desenvolver meios de proteger aeronaves e foguetes contra as descargas atmosféricas. Os cientistas criaram um método engenhoso para obrigar os raios a caírem exatamente sobre seus instrumentos de mediação. No cabo Canaveral, nos Estados Unidos, pequenos foguetes, arrastando fios metálicos presos ao solo, foram lançados contra nuvens de tempestade. Os fios serviam de condutores para as descargas elétricas. Um avião a jato F-106 também foi adaptado para voar através de temporais, com o objetivo de pesquisar a eletricidade atmosférica. Essas pesquisas permitiram desenvolver novos para-raios e sensores que detectam o acúmulo de cargas elétricas nas nuvens.

No Brasil, as pesquisas sobre raios são feitas com a ajuda de balões de sondagem lançados pelo Instituto Nacional de Pesquisas Espaciais (INPE), de São José dos Campos (SP). Devido a seu clima tropical e extenso território, o Brasil registra a maior ocorrência de raios em todo o mundo.

www.klimanaturali.org

Espectro Eletromagnético | Física

Espectro Eletromagnético | Física

Espectro Eletromagnético | Física

Entende-se por espectro eletromagnético o conjunto das várias radiações de natureza elétrica e magnética, com diferentes comprimentos de onda, desde 107 metros até 10-14 metros.

A luz visível ou espectro solar, capaz de impressionar a retina e de gerar imagens no cérebro, constitui apenas uma parte do total das radiações eletromagnéticas. À medida que o instrumental científico ganhou mais precisão, o homem teve acesso a um universo novo, em que descobriu fenômenos até então ignorados, como os raios X, a radiação ultravioleta, as ondas de rádio e de televisão ou os raios cósmicos.

Os fenômenos ondulatórios se produzem quando uma determinada partícula vibra ou oscila a partir de uma posição de equilíbrio e seu movimento se transmite pelo espaço em um meio apropriado. Uma característica desse movimento é o comprimento de onda, espaço compreendido entre dois máximos ou mínimos da onda. O comprimento de onda mede, pois, uma oscilação completa, enquanto a frequência, número de oscilações por unidade de tempo, expressa o "ritmo", ou rapidez, em que se produz a vibração. Essas duas grandezas são inversamente proporcionais entre si.

De ambos os lados do espectro da luz visível, formado por radiações de diferentes comprimentos de onda que originam as cores (vermelho, alaranjado, amarelo, verde, azul, roxo e violeta) registra-se uma série de fenômenos eletromagnéticos não captados pelos sentidos. Abaixo do vermelho, com comprimentos de onda progressivamente crescentes, estão: os raios infravermelhos, as ondas de radar e as microondas, as ondas de televisão e as de rádio. Acima do violeta, com comprimentos de onda cada vez menores e frequências crescentes estão: a radiação ultravioleta, os raios X, os raios gama e a radiação cósmica.

A maior parte dessas radiações tem múltiplas aplicações nos mais diversos campos e são o fundamento de  grande número de aparelhos e invenções tecnológicas, desde a televisão e o rádio até o radar e os sistemas baseados no infravermelho, além de constituírem ferramenta imprescindível na análise química (espectrógrafos), na investigação astronômica (espectrometria, radioastronomia etc.) ou na pesquisa médica (radiologia) e análise de materiais. Essas duas últimas aplicações utilizam a propriedade que têm os raios X de penetrar corpos opacos e impressionar chapas fotográficas.

Algumas dessas radiações, como a ultravioleta, afetam especialmente os seres vivos. Devido a sua alta frequência, interagem com a matéria biológica e nela podem acarretar alterações graves. Grande parte dos raios ultravioleta são filtrados pela camada de ozônio que circunda a Terra, evitando em grande medida seus efeitos prejudiciais.

www.klimanaturali.org

Batimento | Física

Batimento | Física

Batimento | Física

Batimento é um fenômeno que resulta da superposição de dois trens de ondas senoidais, de frequências muito próximas. Quando, além disso, as amplitudes das ondas que se superpõem são iguais, tem-se como resultado ondas de amplitudes que variam lentamente no tempo, entre um valor máximo e um valor mínimo. Cada flutuação da amplitude entre esses dois valores constitui um batimento, cuja frequência - número de batimentos por unidade de tempo - é função das frequências dos trens de ondas iniciais.

A análise dos batimentos permite determinar, com precisão, a diferença entre as frequências de dois sons. Quando forem suficientemente baixas, as frequências dos batimentos podem ser percebidas pelo ouvido humano, e essa propriedade é muito utilizada na afinação de instrumentos musicais.

Os batimentos são um fenômeno próprio das ondas elásticas, como o som, e das ondas eletromagnéticas, como as de rádio, e possuem inúmeras aplicações práticas. Assim, podem ser utilizados para sincronizar dois alternadores, bastando para isso intercalar-se entre eles uma lâmpada alimentada por eles mesmos, a qual permanecerá apagada se esses alternadores forem síncronos. No caso de alternadores trifásicos, utiliza-se um motor cujo stator recebe corrente de um deles, enquanto o rotor recebe corrente do outro. São também empregados em telegrafia sem fio, onde um pequeno número de batimentos é produzido a cada segundo, correspondendo à frequência audível.

www.klimanaturali.org

Elasticidade | Física

Elasticidade | Física

Elasticidade | Física

Denomina-se elasticidade a propriedade, apresentada por alguns materiais, de recuperarem sua forma e dimensões originais depois de removidas as forças que os deformaram.

A noção de elasticidade tornou-se indispensável à  física moderna para a compreensão das variações a que estão sujeitos os corpos submetidos à ação de forças externas, pois suas dimensões e características dependem da maneira como reagem à presença ou ausência desse estímulo.

Deformações. Há três tipos principais de deformação: os resultantes das forças de tração, de compressão e de cisalhamento. Na deformação por tração, o corpo tem uma de suas dimensões aumentada na direção em que a força se aplica; na deformação por compressão, o corpo tem essa dimensão reduzida; no caso do cisalhamento, o corpo sofre deformações causadas pelo movimento relativo das camadas paralelas existentes em sua estrutura.

Além disso, de acordo com a resposta do objeto à deformação, esta pode ser classificada como elástica, quando o corpo retorna à forma inicial; inelástica, quando, cessada a força que a produziu, o corpo não volta às dimensões originais; ou semi-elástica, quando o resultado da deformação se situa entre esses dois casos extremos.

Para a análise de uma deformação, no entanto, não basta conhecer apenas o valor da força que a produziu: também é necessário conhecer a área da superfície sobre a qual essa força atua. A relação entre a força e a área é denominada tensão deformante e exprime-se, comumente, em newtons por metro quadrado (N/m2) ou em quilograma-força por centímetro quadrado (kgf/cm2).

A relação entre a tensão deformante e a deformação produzida é denominada lei de Hooke, deduzida pela primeira vez pelo físico inglês Robert Hooke e segundo a qual deformações lineares sofridas por sólidos são diretamente proporcionais às forças que as causaram. Essa constante de proporcionalidade, conhecida como módulo de elasticidade ou módulo de Young, é função do material que constitui o corpo solicitado.

No caso de substâncias líquidas, a tensão deformante é denominada pressão hidrostática e, de acordo com o princípio de Pascal, se exerce igualmente em todas as direções. Nesse caso, a relação entre o aumento de pressão hidrostática e a resultante redução de volume chama-se módulo de elasticidade volumétrico.

A curva que representa o comportamento de determinado material submetido a esforços é conhecida como diagrama de elasticidade de um corpo dado. É construída relacionando-se os valores da deformação com os valores das respectivas tensões aplicadas. Como prevê a lei de Hooke, até um determinado valor de tensão aplicada, denominado limite de elasticidade, o corpo apresenta comportamento linear e retorna à forma original, caso a força se interrompa. Se o esforço, porém, continua a ser aplicado, o corpo passa a deformar-se plástica ou inelasticamente, até atingir seu ponto de ruptura. Quando a tensão necessária à ruptura do corpo é muito grande, diz-se que o material de que se constitui é dútil; em caso contrário, o corpo diz-se frágil.

A elevação da temperatura exerce grande influência sobre as propriedades elásticas dos corpos, pois provoca redução dos valores de limite da elasticidade e da tensão de ruptura, com o consequente aumento da fragilidade do material.

www.klimanaturali.org

Desintegração Nuclear

Desintegração Nuclear

Desintegração Nuclear

Desintegração nuclear é o processo por meio do qual o núcleo do átomo se altera de forma a provocar o aparecimento de um núcleo diferente. Essa alteração é produzida pela emissão de partículas (alfa, beta, nêutrons etc.) ou pela fissão, que produz o aparecimento de dois ou mais núcleos novos.

Buscada durante séculos pelos alquimistas, a desintegração artificial do átomo só foi realizada em laboratório na primeira metade do século XX, embora sem resultar na criação de ouro a partir de outras substâncias, conforme sonhavam os antigos pesquisadores.

Uma substância radioativa emite partículas alfa ou partículas beta, muitas vezes acompanhadas de radiações gama. Quando o núcleo de um átomo emite uma partícula alfa, o átomo se transforma, pois sua massa atômica diminui de duas unidades. Quando o núcleo emite uma partícula beta, o átomo também se transforma, mas conserva a mesma massa atômica, porém com o número atômico aumentado de uma unidade. Nessa última desintegração, a conservação da massa é apenas aproximada, pois a massa de uma partícula beta é desprezível em relação à do núcleo.

A velocidade com que uma substância radioativa se desintegra é constante, não depende das condições físicas nem químicas, mas varia com o elemento. O chamado período de semidesintegração (ou semivida), tempo necessário para que a metade dos átomos radioativos presentes numa amostra se desintegre, varia muito entre os elementos: o do rádio é de 1.620 anos, ao passo que o do tório C' é de 0,0000003 segundo.

Quando uma substância se desintegra e o átomo formado é também radioativo, haverá novas desintegrações, que se sucederão até o aparecimento de um átomo estável. O processo dá origem às famílias radioativas, também chamadas séries radioativas, das quais três famílias já estão convenientemente estudadas: a do urânio-rádio, a do tório e a do actínio. O elemento estável final dessas três famílias é o chumbo. Com a produção dos elementos transurânios foi possível estudar uma quarta família: a do netúnio, que termina num isótopo estável do bismuto.

Radiação artificial
A desintegração artificial foi realizada pela primeira vez em laboratório em 1919 por Ernest Rutherford, que conseguiu observar que os núcleos de nitrogênio, quando bombardeados por partículas alfa, produziam partículas de alta energia. Outros gases, como o gás carbônico e o oxigênio, não provocavam o aparecimento dessas partículas. Essa descoberta foi muito significativa para a física moderna, por ampliar o campo de investigação e, principalmente, por fornecer um novo instrumento de pesquisa: o elemento radioativo artificial.

Em 1932, James Chadwick prosseguiu experimentos, inicialmente realizados pelo casal Joliot-Curie, que consistiam em bombardear núcleos de berílio com partículas alfa e demonstrou que a radiação produzida constava de partículas de massa quase igual à do próton, desprovidas de carga elétrica. Assim foi descoberto o nêutron.

No mesmo ano, Carl David Anderson empregou uma câmara de neblina para estudar desintegrações produzidas por raios cósmicos e identificou uma nova partícula de massa igual à do elétron, porém de carga positiva. Essa nova partícula foi denominada pósitron. Em 1934 o casal Joliot-Curie observou que as substâncias bombardeadas continuavam a emitir radiações e a se desintegrar mesmo depois de cessar o bombardeio. Cada desintegração correspondia à emissão de um pósitron e a intensidade das radiações diminuía da mesma forma que a das substâncias radioativas naturais. Descobriu-se dessa maneira a radioatividade artificial. Depois disso, foi possível produzir isótopos radioativos dos diferentes elementos, usando como projéteis as partículas produzidas naturalmente, depois de aceleradas por máquinas do tipo cíclotron, bétatron etc. Já se conseguiu obter desintegrações produzidas pelo bombardeio com prótons, dêuterons, nêutrons e fótons de alta energia.

www.klimanaturali.org

Acelerador de Partículas

Acelerador de Partículas

Acelerador de Partículas
Acelerador de partículas
Acelerador de partículas é um dispositivo que eleva a energia das partículas subatômicas, de valores sumamente baixos até valores que se situam entre alguns milhões e vários bilhões de elétrons-volt. São aplicados na pesquisa básica das interações fundamentais, na terapia do câncer, na produção de isótopos radioativos, na radiografia industrial e na polimerização de plásticos.

O estudo das partículas elementares que constituem o núcleo atômico ganhou novo impulso com o uso do acelerador de partículas, máquina desenvolvida a partir de 1927, com base nas pesquisas do físico americano Ernest Orland Lawrence.

O primeiro acelerador de partículas foi construído na Universidade de Cambridge, Inglaterra, pelos físicos ingleses J. D. Cockcroft e E. T. S. Walton, que obtiveram a primeira reação nuclear induzida artificialmente. A partir de então, a importância dos aceleradores na pesquisa básica tornou-se comparável à dos microscópios e telescópios. Cockcroft e Walton ganharam o Prêmio Nobel de física de 1951.

De acordo com a disposição geométrica dos campos eletromagnéticos responsáveis pela aceleração das partículas, os aceleradores são classificados em dois tipos básicos: lineares e cíclicos.

Aceleradores lineares

Aceleradores lineares

Em um acelerador linear a partícula segue uma trajetória reta e sua energia final é proporcional à soma das voltagens geradas pelos mecanismos aceleradores dispostos ao longo da trajetória. Existem dois tipos de aceleradores lineares. O primeiro utiliza um campo magnético longitudinal móvel para fornecer energia cinética aos elétrons. A câmara de aceleração é um tubo de vácuo cilíndrico que funciona como um guia de ondas para o campo acelerador. As sucessivas seções aceleradoras são excitadas por um amplificador de potência de vários megawatts. Uma onda progressiva caminha no guia de ondas e, havendo sincronismo entre o movimento dos elétrons e o da onda, acelera-os até o fim do tubo. O sincronismo é assegurado quando a velocidade de fase da onda progressiva se iguala à velocidade dos elétrons. A ideia desse tipo de aceleradores é a mais antiga entre os tipos correntes, mas foi preciso aguardar o progresso da técnica da radiofrequência, ocorrido no curso da segunda guerra mundial, para a produção de reações nucleares.

O segundo tipo de aceleradores lineares utiliza ondas eletromagnéticas estacionárias para acelerar prótons. O próton tem massa aproximadamente duas mil vezes maior que a dos elétrons, o que dificulta a excitação do guia por ondas progressivas que tenham velocidade de fase igual à sua velocidade de avanço. Prótons de quatro megavolts têm cerca de dez por cento da velocidade da luz, o que já é suficiente para provocar efeitos relativísticos. Isso impossibilita o uso da mesma técnica utilizada para os elétrons. Aceleradores desse tipo são comumente usados como injetores de prótons em aceleradores cíclicos de grande energia.

Aceleradores cíclicos - Os aceleradores cíclicos são assim chamados porque a trajetória da partícula é curvada pela ação do campo magnético em uma espiral ou curva fechada aproximadamente circular. A partícula passa várias vezes pelos mecanismos aceleradores e a energia final depende da amplitude da voltagem aplicada e do número de revoluções que a partícula executa. Os aceleradores cíclicos compreendem uma grande variedade de aparelhos, dos quais os mais importantes são o cíclotron e o síncrotron.

Cíclotrons - Em um cíclotron dois eletrodos semicirculares e ocos, em forma de "D", são dispostos em uma câmara de vácuo entre os polos de um magneto. Os prótons, dêuterons ou outros íons mais pesados iniciam seu movimento no centro dos "dês". Um potencial alternado, de frequência próxima à de circulação dos íons, é aplicado entre os eletrodos, produzindo acelerações repetidas cada vez que os íons passam de um "D" para o outro. A trajetória resultante da partícula é uma série de semicírculos de raio crescente. Faz-se necessário um sistema de "focalização", para que os íons não se percam por espiralamento. Com uma pequena variação radial negativa no campo magnético, a força sobre a partícula terá uma pequena componente perpendicular ao plano do movimento, o que mantém a partícula no acelerador cada vez que ela tenta escapar. Essa componente é importante porque a trajetória total da partícula pode ser de centenas de metros ou mais. A necessidade dessa "focalização", somada ao efeito relativístico de aumento de massa das partículas, ao  aumentar sua energia, torna inevitável que surja uma diferença entre a frequência de circulação da partícula e a frequência de oscilação do potencial acelerador em uma porção considerável da trajetória. O efeito é cumulativo, aumentando a cada revolução e limitando a energia máxima da partícula.

Para superar essa limitação de energia do cíclotron, projetou-se um aparelho, o sincrocíclotron, que possibilita variar a frequência aplicada aos "dês" de acordo com as necessidades de focalização magnética e a variação relativística da massa dos íons. Sua construção foi possibilitada pela existência de órbitas estáveis em que a frequência da revolução é igual à frequência da voltagem aplicada aos "dês". Se a frequência de oscilação for diminuída, as partículas tendem a permanecer nessas órbitas, absorvendo energia dos campos elétricos dos "dês". Mantendo-se o sincronismo, as partículas ganham energia e movimentam-se em órbitas de raios crescentes até a órbita máxima permitida pelo desenho do magneto. Uma importante vantagem desse aparelho está em não existir limite no número de revoluções necessárias para a obtenção de uma dada energia.

A construção de cíclotrons de frequência elevada envolve custos astronômicos. Parte considerável desse custo deve-se à construção das peças polares do eletroímã e de seu sistema de excitação, que requerem centenas de milhares de toneladas de ferro, centenas de toneladas de tubos de cobre e um dispositivo gerador de potências extremamente oneroso.

Síncrotrons - O caminho natural para a superação dessa dificuldade consistiu em buscar uma solução que, envolvendo trajetórias de raios fixos, prescindissem de peças polares maciças para a sustentação do mecanismo de aceleração. Os aparelhos que seguiram esse caminho são conhecidos como síncrotrons. Tais máquinas, como os cíclotrons, empregam uma combinação de aceleração elétrica e confinamento magnético. O síncrotron utiliza o princípio  de estabilidade de fase para manter o sincronismo entre a frequência de revolução de partícula e o campo elétrico aplicado.

Um campo magnético deflete a partícula em uma órbita circular, e a intensidade do campo é modulada ciclicamente para manter órbitas de raio quase constante, apesar do ganho de energia. Como o campo magnético é usado para manter a órbita e não para acelerá-la, as linhas do campo magnético só são necessárias na região anular definida pela órbita. Esse campo é produzido por um magneto anular. O pouco peso e baixo custo de tal magneto, comparados com os magnetos de núcleo sólido dos cíclotrons, dão ao síncrotron uma economia significativa na produção de partículas altamente energéticas.

Os aceleradores de partículas que atingem maior energia são síncrotrons de prótons. Enquanto um síncrotron de elétrons alcança cerca de 12 GeV, um grande acelerador de prótons opera regularmente a 800 GeV. O modo de produção de ambos é similar, embora existam diferenças cruciais. A velocidade do próton não se aproxima da velocidade da luz no vácuo, a menos que sua energia exceda um gigaeletrovolt. Além disso o próton não perde uma quantidade significativa de energia por radiação. Em consequência, o limite de energia de um síncrotron de prótons é determinado pelo custo do magneto. Os elétrons, ao contrário, adquirem alta velocidade a energias relativamente baixas, e quando defletidos por campos magnéticos irradiam energia eletromagnética em um espectro contínuo na região dos raios X. Essa energia irradiada deve ser reposta pelo sistema acelerador.

Outros aparelhos são usados para acelerar partículas nos anéis de estocagem, que consistem tipicamente em um par de câmaras de vácuo anulares. Esses anéis são utilizados para armazenar feixes de partículas altamente energéticas e provocar colisões frontais entre eles. As altas energias obtidas nessas colisões permitem o estudo das interações entre as partículas fundamentais a um custo relativamente baixo e economicamente viável.

www.klimanaturali.org

Arco-Íris | Fundamentos Físico e Componentes de um Arco-Íris

Arco-Íris | Fundamentos Físico e Componentes de um Arco-Íris

Arco-Íris | Fundamentos Físico e Componentes de um Arco-Íris
Arco-íris é um fenômeno atmosférico, que consiste em uma semicircunferência constituída por faixas coloridas que contêm todas as cores do espectro visível, do vermelho, na faixa mais externa, ao violeta. O ponto focal do arco-íris, isto é, o centro a partir do qual ele se origina, está situado sobre uma reta imaginária que une a fonte luminosa ao observador.

Os fenômenos de refração, difusão e reflexão que ocorrem quando raios de luz provenientes do Sol ou da Lua incidem sobre gotículas de água em suspensão na atmosfera são os responsáveis pela formação do arco-íris.

Fundamento físico e componentes
As primeiras investigações válidas destinadas a oferecer uma explicação científica sobre a forma e a estrutura do arco-íris se devem ao italiano Marco Antonio de Dominis, que, em 1611 elaborou uma teoria depois desenvolvida e confirmada empiricamente por Descartes, em 1637. Dominis baseou seus trabalhos no estudo do desvio que uma radiação luminosa sofre ao incidir sobre uma esfera transparente, que substituía, em laboratório, as gotículas de água presentes na atmosfera.

Cada um dos componentes cromáticos da luz branca incidente apresenta um ângulo de saída diferente, o que explica a diferenciação das tonalidades do espectro. Além disso, o número de reflexões internas que ocorrem dentro de cada gota condiciona o valor dos diferentes ângulos emergentes: ao se formar um ângulo de 42o em relação à direção da luz incidente, são emitidos raios a partir dos quais é gerado um arco-íris, denominado primário, que é de maior intensidade luminosa, passível de observação em condições meteorológicas normais.

Com um ângulo de 50o, por outro lado, forma-se um arco secundário com uma sequência de cores invertida em relação ao primário, visível somente em condições climáticas estáveis. Esse segundo arco-íris aparece sobre a faixa externa do arco primário, encontrando-se separado dessa por uma faixa intermediária. A formação de um terceiro arco-íris, a partir de uma tripla reflexão interna, embora teoricamente possível, nunca foi observada.

Em determinadas condições atmosféricas, podem-se ver anéis de coloração tênue, localizados entre as faixas do arco-íris primário, denominados arcos supernumerários. Esses anéis são originados por fenômenos de interferência entre as radiações emergentes das partículas de água, após a primeira reflexão interna.

www.klimanaturali.org

Energia Nuclear

Energia Nuclear

Energia NuclearA energia nuclear é a que se obtém por processos de transformação de núcleos atômicos em outros, mediante mecanismos de fissão de núcleos pesados em fragmentos menores, ou de fusão de núcleos leves em outros maiores.

Em 16 de julho de 1945, ocorreu em Alamogordo, no estado americano de Nevada, o primeiro teste de uma bomba nuclear. A experiência prenunciou as explosões que destruiriam grande parte das cidades japonesas de Hiroxima e Nagasaki em 6 e 9 de agosto do mesmo ano. O fundamento físico de tais explosões, a energia nuclear, encontrou mais tarde vasto campo de aplicações pacíficas.

História Logo depois de anunciada a descoberta da fissão nuclear, em 1939, também se observou que o isótopo fissionável que participa da reação é o urânio-238 e que se emitem nêutrons no processo. Especulava-se na época que uma reação de fissão em cadeia poderia ser explorada como fonte de energia. No entanto, ao iniciar-se a segunda guerra mundial, em setembro de 1939, os físicos voltaram suas pesquisas para tentar usar a reação em cadeia para produzir uma bomba.

No início de 1940, o governo americano destinou recursos para uma pesquisa que mais tarde se transformou no Projeto Manhattan. Esse projeto incluía trabalhos sobre enriquecimento de urânio para obter urânio-235 em altas concentrações e também pesquisas para o desenvolvimento de reatores nucleares. Eram dois os objetivos: compreender melhor a reação em cadeia para projetar uma bomba nuclear e desenvolver uma forma de produzir um novo elemento químico, o plutônio, que, segundo se acreditava, seria físsil e poderia ser isolado quimicamente a partir do urânio.

O primeiro reator nuclear foi construído na Universidade de Chicago, sob a supervisão do físico italiano Enrico Fermi. O equipamento produziu uma reação em cadeia em 2 de dezembro de 1942. Imediatamente após a segunda guerra mundial, cientistas e engenheiros de vários outros países empreenderam pesquisas destinadas a desenvolver reatores nucleares para a produção de energia em larga escala. Em 1956, o Reino Unido inaugurou em Calder Hall a primeira usina nuclear totalmente comercial. Um ano depois, entrou em operação a primeira usina americana desse tipo.

O número de grandes usinas nucleares aumentou rapidamente em muitos países industrializados até o final da década de 1970. Depois disso, houve uma significativa redução no ritmo de utilização da energia nuclear para fins comerciais, por diversas razões: a demanda de energia elétrica ficou muito abaixo do que se esperava; o custo de construção de novas usinas nucleares era alto; a opinião pública pressionava contra a construção de usinas, principalmente depois dos catastróficos acidentes ocorridos na usina de Three Mile Island, nos Estados Unidos, e em Tchernóbil, na Ucrânia, então parte da União Soviética. Entretanto, França, Japão, Coreia do Sul e Tailândia, que dispõem de poucas alternativas energéticas, continuaram a usar a energia nuclear.

Reações nucleares Três tipos de reações nucleares produzem grandes quantidades de energia: (1) a desintegração radioativa, processo segundo o qual um núcleo se converte espontaneamente no núcleo de outro isótopo ou elemento; (2) a fissão nuclear, pela qual um núcleo pesado se divide em dois outros e libera a energia neles contida; e (3) a fusão nuclear, segundo a qual dois núcleos atômicos leves, submetidos a temperaturas elevadíssimas, reagem para formar um único núcleo, de peso maior.

Todos os reatores nucleares produzem energia a partir da reação de fissão, mas os cientistas acreditam que a fusão nuclear controlada pode originar uma fonte de energia alternativa relativamente barata de geração de eletricidade, o que ajudaria a conservar o suprimento de combustíveis fósseis do planeta, em rápido esgotamento.

Produção de energia nuclear No processo de fissão, um núcleo pesado, como o urânio, absorve um nêutron e se divide em dois fragmentos de massa aproximadamente idêntica. A reação libera grande quantidade de energia, assim como muitos nêutrons, que colidem com outros núcleos pesados e provocam sua fissão. A repetição desse processo gera uma reação em cadeia na qual vários bilhões de núcleos são fissionados numa pequena fração de segundos.

Num reator nuclear, essa série de fissões é cuidadosamente controlada, o que permite utilizar a enorme quantidade de energia liberada, que ocorre em forma de radiação e de energia cinética dos produtos da fissão lançados a altas velocidades. Boa parte dela se transforma em energia térmica quando os produtos da fissão entram em repouso. Uma porção dessa energia é usada para aquecer água e convertê-la em vapor de alta pressão, que faz funcionar uma turbina. A energia mecânica da turbina é então convertida em eletricidade por um gerador.

Além de valiosa fonte de energia elétrica para uso comercial, os reatores nucleares também servem para impelir alguns tipos de navios militares, submarinos e certas naves espaciais não-tripuladas. Outra importante aplicação dos reatores é a produção de isótopos radioativos, amplamente usados na pesquisa científica, na terapêutica e na indústria. Os isótopos são criados pelo bombardeamento de substâncias não-radioativas com os nêutrons liberados durante a fissão.

Combustível
O único material presente na natureza pronto para ser fissionado e capaz de manter uma reação em cadeia é o urânio-235. É um isótopo raro: no urânio natural, ocorre na proporção de um para aproximadamente 140 de outro isótopo, o urânio-238. Quando um nêutron lento colide com o núcleo do átomo de urânio-235, ele se torna repentinamente instável, divide-se em dois fragmentos e libera em média dois a três nêutrons. Desses nêutrons, ao menos um deve produzir outra fissão, caso se pretenda que a reação em cadeia continue. Isso é muito difícil de conseguir com o urânio natural, porque sua concentração de núcleos de urânio-235 é tão pequena que os nêutrons podem escapar do combustível nuclear sem colidir com o núcleo fissionável, ou podem se chocar com o núcleo do urânio-238 e serem absorvidos.

Para reduzir essa possibilidade, usa-se como combustível do reator o urânio enriquecido, que contém uma percentagem maior de urânio-235 do que o urânio natural. O enriquecimento se obtém por vários processos, como, por exemplo, difusão gasosa. Como os recursos de urânio-235 existentes no mundo são limitados, projetaram-se reatores regeneradores capazes de converter urânio não-fissionável e outros elementos em isótopos fissionáveis.

Moderadores
A maioria dos reatores comerciais de potência requer um moderador para reduzir a velocidade dos nêutrons, de forma a aumentar a possibilidade de que eles consigam fissionar o urânio-235. Substâncias como a água, o óxido de deutério (água pesada) e a grafita foram consideradas moderadores eficazes porque conseguem reduzir a velocidade dos nêutrons durante o processo de fissão sem reduzir muito seu número por absorção.

Barras de controle
O controle sobre a taxa de emissão de nêutrons, e portanto sobre a reação, se faz mediante a introdução no núcleo dos reatores de materiais que absorvem os nêutrons. Esses materiais, que podem ser barras de cádmio ou boro, são retirados gradualmente do núcleo do reator antes que uma reação em cadeia se inicie. Elas são reintroduzidas sempre que a série de fissões começa a se realizar a alta velocidade, o que poderia resultar na liberação de uma quantidade excessiva de energia e radiação, causando assim a fusão do núcleo.

Refrigerantes
O calor liberado pelas fissões é removido do núcleo do reator por uma substância refrigerante, que pode ser líquida ou gasosa. Os refrigerantes devem ter boas propriedades de transferência de calor, assim como fraca propriedade de absorver nêutrons. Tanto a água leve (comum) quanto a pesada são empregadas como refrigerantes, o que ocorre também com metais líquidos (sódio, por exemplo), hélio e várias outras substâncias.

Estrutura de contenção
À medida que a reação em cadeia prossegue, os produtos da fissão se acumulam no núcleo do reator. A maioria desses fragmentos é altamente radioativa e emite raios gama e nêutrons. Para proteger os operadores da usina e outras pessoas próximas da radiação desses fragmentos, e da radiação produzida diretamente pelo processo de fissão, o reator é cercado por paredes e um piso de concreto bastante espesso, que constituem a estrutura de contenção.

Rejeitos
O manipulação dos produtos radioativos da fissão é um problema mais difícil de resolver do que a contenção do núcleo do reator. Alguns desses resíduos nucleares se mantêm perigosamente radioativos por milhares de anos e, portanto, devem ser eliminados ou armazenados de forma permanente. Ainda não foi descoberto, no entanto, um método prático e seguro de tratamento desses resíduos.

Segurança
Como acontece a toda atividade humana, a produção de energia nuclear não pode ser considerada absolutamente isenta de riscos. As medidas preventivas visam, portanto, minimizar o risco de acidentes. Estudos realizados nos Estados Unidos na década de 1970 concluíram que era extremamente baixo o risco de um acidente numa usina nuclear atingir grande número de pessoas. Em 1979, porém, uma unidade da usina de Three Mile Island sofreu um grave acidente. Por uma combinação de erros de operadores da usina, associados à falha de uma válvula, a água refrigerante se perdeu e algumas partes do núcleo do reator fundiram. Grande quantidade de produtos de fissão foi liberada do reator para o interior da estrutura de contenção, que conseguiu reter a maior parte da radioatividade. A pequena quantidade que escapou teve sérias consequências.

Após as investigações, ficou claro que o elemento humano é muito mais importante como fator de segurança numa usina nuclear do que se havia reconhecido até então. Por essa razão, foram introduzidas várias mudanças no treinamento de operadores, técnicos e inspetores. Essas mudanças foram consideradas eficazes para reduzir a probabilidade de ocorrência de acidentes graves quanto o de Three Mile Island, mas aumentaram sensivelmente os custos de operação das usinas nucleares.

A questão da importância do elemento humano para o correto funcionamento das usinas nucleares voltou a ser debatida após a catástrofe de Tchernóbil, em 1986. Um dos quatro reatores da usina explodiu e pegou fogo. Antes que a situação pudesse ser controlada, 31 pessoas haviam morrido. Aproximadamente 25% do conteúdo radioativo do reator vazou, 135.000 pessoas tiveram que ser evacuadas do local e uma imensa área na vizinhança da usina foi de tal forma contaminada pela radioatividade que não pode mais ser cultivada. Na época, estimou-se que de quatro mil a quarenta mil casos de câncer resultariam desse acidente.

www.klimanaturali.org

Fotogrametria | Ciência Aplicada à Fotografia

Fotogrametria | Ciência Aplicada à Fotografia

Fotogrametria | Ciência Aplicada à Fotografia

Fotogrametria é a técnica ou ciência aplicada que se propõe definir a forma, determinar as dimensões e fixar a posição dos objetos contidos numa fotografia, por meio de medidas efetuadas sobre esta. Na base da fotogrametria encontram-se as técnicas fotográficas. Tão logo Joseph-Nicéphore Niepce e Louis-Jacques Mandé Daguerre divulgaram os princípios da reprodução fotográfica, Aimé Laussedat, oficial do corpo de engenheiros do Exército francês, deu início a pesquisas destinadas a demonstrar a aplicação dessa descoberta em levantamentos topográficos. Suas experiências foram bem sucedidas a partir de 1849, quando criou o primeiro aparelho fotogramétrico, que denominou "câmara escura topográfica", e elaborou a técnica da "fotogrametria de interseção".

Graças às modernas técnicas da fotogrametria pode-se cartografar minuciosamente não só a Terra, mas também a Lua e os planetas do sistema solar, com base em fotografias feitas a partir de satélites e sondas interplanetárias.

Evolução técnica
A técnica que se consagrou com o nome de fotogrametria, embora Laussedat, no início, a denominasse metrofotografia, evoluiu em três fases bem distintas .

A primeira etapa durou de 1850 a 1900 e caracterizou-se pelos trabalhos esparsos realizados na França por Laussedat e pelos primos Joseph e Henri Vallot, assim como na Alemanha por Albrecht Meydenbauer e Sebastian Finsterwalder, e em outros países. Com o trabalho desses pioneiros, a "fotogrametria de interseção" de Laudessat foi imitada e aperfeiçoada, apesar de sua complexidade, morosidade e risco de serem reconhecidos como dois o mesmo acidente que aparecia nos dois fotogramas de um par.

A segunda fase, de 1901 a 1914, teve início com a significativa realização de Carl Pulfrich, que pôs em prática a chamada "marca estereoscópica" ou "marca flutuante", com a qual demonstrou ser possível medir diferenças de nível e distâncias entre pontos de um modelo óptico estereoscópico. Começou então nova técnica de produção de mapas baseada em fotografias, apropriadamente chamada "estereofotogrametria". Em 1908 surgia o primeiro aparelho de traçado contínuo para planimetria e altimetria, traduzidas por curvas de nível.

Aerofotogrametria
A terceira fase, de 1915 em diante, é a da hegemonia da aerofotogrametria, em que o advento da aviação ensejou o uso de aeronaves como plataforma para a instalação de câmeras aerofotogramétricas, de eixo vertical, que eliminam os ângulos mortos inevitáveis em fotografias terrestres e realizam grande massa de estereogramas em tempos mínimos.

A partir dessas novas possibilidades, adotaram-se duas grandes divisões: (1) se as fotografias são tomadas de pontos conhecidos e elevados da superfície da Terra, a fotogrametria que nelas se fundamenta é a "fotogrametria terrestre"; (2) se as fotografias são tomadas a bordo de uma aeronave, integram a "fotografia aérea" ou "aerofotogrametria". Para um ou outro ramo de fotogrametria, o trabalho fotográfico precisa naturalmente revestir-se de características técnicas que garantam a precisão desejada nas medições efetuadas por esses sistemas.

A calibragem meticulosa da distância focal da objetiva da câmera com que as fotografias são feitas é tão imperativa quanto a incorporação, no quadro que limita o formato de cada clichê, de um dispositivo que imprima marcas na fotografia, denominadas "marcas fiduciais". Essas marcas, também devidamente calibradas, permitem não apenas conferir a estabilidade do suporte da superfície fotossensível como, principalmente, estabelecer um sistema cartesiano de coordenadas, mediante o traçado de eixos ortogonais, pelos quais se pode localizar qualquer ponto por meio de pares ordenados.

A aerofotogrametria também permite chegar a valiosas conclusões sobre a disposição de tropas e equipamento militar. Em 1962, as bases de foguetes da União Soviética em Cuba foram denunciadas por fotografias aéreas tiradas por aviões americanos.

Mosaico fotográfico
A impossibilidade de captar por meio de uma única fotografia uma área a levantar conduz à necessidade de cobri-la com diversas fotos. Estas, justapostas e cuidadosamente recortadas para facilitar a correta ligação dos acidentes mais extensos, simulando uma imagem contínua, constituem - depois de montadas numa superfície plana e rígida - o que se denomina um "mosaico aerofotográfico não controlado". Rios, estradas, cercas, renques de árvores, falhas geológicas etc. podem ser citados entre os acidentes mais extensos que requerem correta ligação.

Ortofotografia e sensores remotos
Entre os procedimentos incorporados às técnicas  fotogramétricas conta-se a "ortofotografia", que consiste na transformação diferencial de cada fotografia, eliminando-se todos os seus erros, inclusive os decorrentes do relevo do terreno, e produzindo-se nova imagem, mediante um "ortofotoscópio". Essa imagem recebe a denominação de "ortofotocarta", por ser tão precisa quanto uma carta planimétrica, da mesma área, qualquer que seja a natureza do terreno.

Outra dessas técnicas é a "aerotriangulação em bloco", que reduz significativamente o número de pontos a determinar no terreno, para apoio da restituição, que é a operação de transportar para uma folha, em escala uniforme, a representação planimétrica e altimétrica dos dados obtidos por meios estereoscópicos. Pode-se citar também a "automatização da restituição", que elimina a interferência do homem - sempre limitada por sua acuidade estereoscópica - nas operações de orientação absoluta e relativa ou na restituição propriamente dita (traçado da estereominuta), e o "sensoriamento remoto", que enseja a captação de imagens não fotográficas mas produzidas por outras radiações do espectro eletromagnético, como os raios ultravioleta, os raios infravermelhos não fotografáveis, as radiações de radar etc.

Com o uso de sensores remotos especialmente desenvolvidos para cada uma dessas faixas de radiações, amplia-se consideravelmente a gama de imagens obtidas para fins de levantamento. Merecem particular menção os imageadores ativos de radar, que detectam imagens do terreno à luz do dia ou da noite, ainda que se lhes interponha uma cobertura de nuvens. Nesse caso, a "iluminação" do terreno é produzida pelas próprias radiações que o sensor emite e volta a captar, depois de refletidas no terreno, para produzir imagens semelhantes a fotografias, embora capazes de revelar outros aspectos que a fotografia não detecta.

São aplicações de fotogrametria não apenas as cartas topográficas para todos os fins (sistemáticos, cadastrais, para projetos de engenharia etc.), como as bases topográficas das cartas temáticas e especiais. Outras aplicações dizem respeito a campos diversos da atividade humana, como a medicina, a agropecuária, a mineração, o reflorestamento e a construção civil.

www.klimanaturali.org

Aerodinâmica | Princípios Teóricos e Experimentais

Aerodinâmica | Princípios Teóricos e Experimentais

Aerodinâmica | Princípios Teóricos e Experimentais
Aerodinâmica é o ramo da ciência física que analisa os movimentos do ar e de outros fluidos gasosos, estudando as forças estabelecidas entre os corpos móveis e as massas de ar que os envolvem.

Estudos detalhados sobre a resistência oferecida pelo ar e a estabilidade de veículos em movimento são essenciais à fabricação dos automóveis modernos, dos aviões e de todos os meios de transporte que se deslocam a grandes velocidades.

Trata-se de uma disciplina científica de enorme importância prática no âmbito das indústrias militar e de transporte; de fato, seu objetivo essencial é a determinação dos princípios que controlam o movimento e a estabilidade de aviões, barcos e trens de alta velocidade, bem como aqueles aspectos relacionados ao deslocamento de projéteis e mísseis.

Além disso, as leis estabelecidas através de análises aerodinâmicas são aplicáveis também na engenharia civil, uma vez que eles regem, entre outras coisas, as forças de resistência apresentadas por pontes e demais edificações quando submetidas à ação de ventos de grande intensidade.

Princípios teóricos e experimentais

Princípios teóricos e experimentais

Os estudos aerodinâmicos têm como objetivo fundamental a manutenção, nos corpos analisados, do denominado estado de equilíbrio dinâmico, no qual as forças desenvolvidas durante seu movimento devem ser compensadas por aquelas produzidas pelas massas de ar, em cujo interior o corpo se desloca. As leis que regulam essa disciplina utilizam a análise matemática para descrever as condições ideais de voo ou de deslocamento sobre superfícies sólidas ou líquidas.

Embora o campo de aplicação da teoria aerodinâmica englobe especialidades tão distintas quanto o tratamento das resistências do ar, a ventilação de altos-fornos ou o desenho industrial de aviões, trens e automóveis, seu maior interesse está centrado na descrição das forças que intervêm no deslocamento dos corpos no ar.

Essa disciplina teve sua origem nos trabalhos de Galileu Galilei, Christiaan Huygens e Isaac Newton, os quais, por meio de diferentes experiências, estabeleceram o conceito de resistência do ar, determinando, também, sua magnitude. Esses pesquisadores concluíram que o valor dessa grandeza é proporcional ao quadrado da velocidade do corpo móvel, ao quadrado do seno do seu ângulo de inclinação, à densidade do ar e à seção do objeto perpendicular à direção da corrente de ar.

A partir dessa relação, baseada em princípios mecânicos, numerosos estudiosos desenvolveram as mais diversas teorias sobre os efeitos da viscosidade do ar e da sustentação -- força perpendicular à direção do corpo, que o sustenta em movimento --, entre outros conceitos que formaram o núcleo dos princípios aerodinâmicos.

Partindo-se do conjunto básico de leis gerais, é possível obter-se dados, os quais, por sua vez, permitem fabricar maquetes de aviões e demais veículos sobre as quais são realizados os testes que irão determinar o desenho final desses equipamentos.

Cientistas como o inglês Frederick William Lanchester e Ludwig Prandtl, físico alemão considerado o pai da aerodinâmica moderna, realizaram investigações que revolucionaram os estudos de estabilidade, sustentação e equilíbrio de corpos em voo. Seus trabalhos assentaram as bases para a solução de problemas que foram surgindo à medida que a velocidade dos veículos em geral, e em particular, dos aviões, era aumentada.

Fatores como ondas de choque, formadas pela acumulação de pressão ao ultrapassar-se a velocidade do som; as camadas -- limite, nas quais são produzidos deslocamentos de forças originadas pela viscosidade; ou os fenômenos térmicos, característicos das velocidades elevadas, são algumas das variáveis que devem ser consideradas no estudo aerodinâmico de aparelhos destinados a superar a velocidade do som.

Meios de ensaio e observação Para realizar suas experiências, a maioria dos laboratórios destinados a estabelecer os condicionamentos aerodinâmicos do projeto de meios de transporte, utiliza os denominados túneis de vento, instalações nas quais se submete uma maquete do veículo que se deseja analisar a correntes de ar forçadas, de velocidade controlada. Existem diferentes tipos de túneis de vento, classificados em túneis de circuito aberto ou fechado, e de funcionamento contínuo ou com utilização de rajadas controladas de ar.

Por outro lado, de acordo com a velocidade que se deseja obter, essas instalações podem ser classificadas ainda em: subsônicas, se as velocidades nela desenvolvidas forem inferiores à do som; supersônicas, quando estão compreendidas entre cinco e dez vezes o valor dessa velocidade; ou hipersônicas, se as forças desenvolvidas em seu interior resultam em velocidades superiores a dez vezes a do som.

Os ensaios realizados nesses túneis oferecem a possibilidade de calcular a intensidade das  forças atuantes, mediante a obtenção da resultante de suas três componentes parciais: as denominadas forças de sustentação, as de resistência ao deslocamento do veículo e aquelas associadas a esforços laterais.

Da mesma forma, essa análise permite otimizar a resistência, o desenho e a posição de cada elemento da estrutura, pela avaliação dos esforços aplicados a esse componente. A esse respeito, cabe ressaltar o interesse na visualização das correntes de saída do ar, durante o ensaio da maquete no túnel de vento. As imagens podem ser obtidas diretamente por meio de fotografias do processo, em condições adequadas de iluminação, ou mediante a análise de diagramas analíticos. Para tal, recorre-se , frequentemente ao traçado de curvas sobre um sistema de eixos cartesianos, as quais representam as forças principais que devem ser analisadas para obter as condições aerodinâmicas desejadas.

www.klimanaturali.org

Aberração Óptica

Aberração Óptica

Aberração Óptica
Aberração óptica
Por aberração se entendem certas particularidades dos sistemas ópticos, em virtude das quais as imagens produzidas não correspondem exatamente aos objetos que lhes deram origem. Ocorre em função de desvios na trajetória dos raios luminosos que deveriam convergir em determinados pontos a fim de produzir imagens perfeitas. De acordo com as causas que provocam esses fenômenos, as aberrações se classificam em diferentes tipos.

Um sistema óptico ideal, composto de uma lente biconvexa de pequena espessura e um feixe de raios luminosos paralelos, produz imagens livres de deformação. A cada ponto do objeto focalizado corresponde uma imagem puntiforme de tamanho zero. Na prática, cada ponto ocupa uma superfície finita e irregular, o que faz com que a imagem sofra desvios em relação ao objeto original.

Aberrações esféricas
As aberrações esféricas subdividem-se em aberrações no eixo e aberrações fora do eixo, ou coma. No primeiro caso, os raios luminosos que incidem nos bordos da lente não convergem no mesmo ponto que os raios centrais provenientes da mesma origem. O foco produzido pelos raios marginais se forma mais perto da lente do que o originado pelos raios centrais. A aberração esférica de raios oblíquos é a coma, assim chamada porque o ponto da imagem se apresenta em forma de cometa. Aparece em sistemas centrados de grande abertura, quando o ponto luminoso está afastado do eixo principal.

Astigmatismo
Se considerarmos um ponto luminoso fora do eixo principal e um diafragma situado no eixo, o feixe luminoso emergente dará duas focais. A distância entre a focal meridiana, ou sagital, e a focal tangencial, ou transversal, caracteriza o astigmatismo.

Distorção
A distorção resulta da diferença de amplificação proporcionada pela região central da lente e a amplificação dada pelas regiões marginais. A imagem produzida tem bordos desproporcionalmente aumentados (distorção em crescente) ou reduzidos (distorção em barrilete) em relação a seu centro.

Aberração cromática
Uma lente simples não forma apenas uma, mas uma série de imagens do objeto, desigualmente distantes da lente, uma para cada cor existente no feixe de luz que incide sobre o sistema. A não-superposição dessas imagens constitui a aberração cromática.

www.klimanaturali.org

Eletricidade | Conceitos e Evolução Histórica da Eletricidade

Eletricidade | Conceitos e Evolução Histórica da Eletricidade

Eletricidade é o fenômeno físico associado a cargas elétricas estáticas ou em movimento. Seus efeitos se observam em diversos acontecimentos naturais, como nos relâmpagos, que são faíscas elétricas de grande magnitude geradas a partir de nuvens carregadas. Modernamente, confirmou-se que a energia elétrica permite explicar grande quantidade de fenômenos físicos e químicos.

Uma das principais fontes de energia da civilização contemporânea é a energia elétrica. O princípio físico em função do qual uma das partículas atômicas, o elétron, apresenta uma carga que, por convenção, se considera de sinal negativo constitui o fundamento dessa forma de energia, que tem uma infinidade de aplicações na vida moderna.

A constituição elétrica da matéria se fundamenta numa estrutura atômica em que cada átomo é composto por uma série de partículas, cada uma com  determinada carga elétrica. Por isso se define carga elétrica como propriedade característica das partículas que constituem as substâncias e que se manifesta pela presença de forças. A carga elétrica apresenta-se somente em duas variedades, convencionalmente denominadas positiva e negativa.

Primeiras noçõesNas civilizações antigas já eram conhecidas as propriedades elétricas de alguns materiais. A palavra eletricidade deriva do vocábulo grego elektron (âmbar), como conseqüência da propriedade que tem essa substância de atrair partículas de pó ao ser atritada com fibras de lã.

O cientista inglês William Gilbert, primeiro a estudar sistematicamente a eletricidade e o magnetismo, verificou que outros materiais, além do âmbar, adquiriam, quando atritados, a propriedade de atrair outros corpos, e chamou a força observada de elétrica. Atribuiu essa eletrificação à existência de um "fluido" que, depois de removido de um corpo por fricção, deixava uma "emanação". Embora a linguagem utilizada seja curiosa, as noções de Gilbert se aproximam dos conceitos modernos, desde que a palavra fluido seja substituída por "carga", e emanação por "campo elétrico".

No século XVIII, o francês Charles François de Cisternay Du Fay comprovou a existência de dois tipos de força elétrica: uma de atração, já conhecida, e outra de repulsão. Suas observações foram depois organizadas por Benjamin Franklin, que atribuiu sinais - positivo e negativo - para distinguir os dois tipos de carga. Nessa época, já haviam sido reconhecidas duas classes de materiais: isolantes e condutores.

Foi Benjamin Franklin quem demonstrou, pela primeira vez, que o relâmpago é um fenômeno elétrico, com sua famosa experiência com uma pipa (papagaio). Ao empinar a pipa num dia de tempestade, conseguiu obter efeitos elétricos através da linha e percebeu, então, que o relâmpago resultava do desequilíbrio elétrico entre a nuvem e o solo. A partir dessa experiência, Franklin produziu o primeiro pára-raios. No final do século XVIII, importantes descobrimentos no estudo das cargas estacionárias foram conseguidos com os trabalhos de Joseph Priestley, Lord Henry Cavendish, Charles-Augustin de Coulomb e Siméon-Denis Poisson. Os caminhos estavam abertos e em poucos anos os avanços dessa ciência foram espetaculares.

Em 1800, o conde Alessandro Volta inventou a pilha elétrica, ou bateria, logo transformada por outros pesquisadores em fonte de corrente elétrica de aplicação prática. Em 1820, André-Marie Ampère demonstrou as relações entre correntes paralelas e, em 1831, Michael Faraday fez descobertas que levaram ao desenvolvimento do dínamo, do motor elétrico e do transformador.

As pesquisas sobre o poder dos materiais de conduzir energia estática, iniciadas por Cavendish em 1775, foram aprofundadas na Alemanha pelo físico Georg Simon Ohm. Publicada em 1827, a lei de Ohm até hoje orienta o desenho de projetos elétricos. James Clerk Maxwell encerrou um ciclo da história da eletricidade ao formular as equações que unificam a descrição dos comportamentos elétrico e magnético da matéria.

O aproveitamento dos novos conhecimentos na indústria e na vida cotidiana se iniciou no fim do século XIX. Em 1873, o cientista belga Zénobe Gramme demonstrou que a eletricidade pode ser transmitida de um ponto a outro através de cabos condutores aéreos. Em 1879, o americano Thomas Edison inventou a lâmpada incandescente e, dois anos depois, construiu, na cidade de Nova York, a primeira central de energia elétrica com sistema de distribuição. A eletricidade já tinha aplicação, então, no campo das comunicações, com o telégrafo e o telefone elétricos e, pouco a pouco, o saber teórico acumulado foi introduzido nas fábricas e residências.

O descobrimento do elétron por Joseph John Thomson na década de 1890 pode ser considerado o marco da passagem da ciência da eletricidade para a da eletrônica, que proporcionou um avanço tecnológico ainda mais acelerado.

Natureza elétrica da matéria

Natureza elétrica da matéria

Segundo a visão atomista do universo, todos os corpos são constituídos por partículas elementares que formam átomos. Estes, por sua vez, se enlaçam entre si para dar lugar às moléculas de cada substância. As partículas elementares são o próton e o nêutron, contidos no núcleo, e o elétron, que gira ao seu redor e descreve trajetórias conhecidas como órbitas.

A carga total do átomo é nula, ou seja, as cargas positiva e negativa se compensam porque o átomo possui o mesmo número de prótons e elétrons - partículas com a mesma carga, mas de sinais contrários. Os nêutrons não possuem carga elétrica. Quando um elétron consegue vencer a força de atração do núcleo, abandona o átomo, que fica, então, carregado positivamente. Livre, o elétron circula pelo material ou entra na configuração de outro átomo, o qual adquire uma carga global negativa. Os átomos que apresentam esse desequilíbrio de carga se denominam íons e se encontram em manifestações elétricas da matéria, como a eletrólise, que é a decomposição das substâncias por ação da corrente elétrica. A maior parte dos efeitos de condução elétrica, porém, se deve à circulação de elétrons livres no interior dos corpos. Os prótons dificilmente vencem as forças de coesão nucleares e, por isso, raras vezes provocam fenômenos de natureza elétrica fora dos átomos.

De maneira geral, diante da energia elétrica, as substâncias se comportam como condutoras ou isolantes, conforme transmitam ou não essa energia. Os corpos condutores se constituem de átomos que perdem com facilidade seus elétrons externos, enquanto as substâncias isolantes possuem estruturas atômicas mais fixas, o que impede que as correntes elétricas as utilizem como veículos de transmissão.

Os metais sólidos constituem o mais claro exemplo de materiais condutores. Os elétrons livres dos condutores metálicos se movem através dos interstícios das redes cristalinas e assemelham-se a uma nuvem. Se o metal se encontra isolado e carregado eletricamente, seus elétrons se distribuem de maneira uniforme sobre a superfície, de forma que os efeitos elétricos se anulam no interior do sólido. Um material condutor se descarrega imediatamente ao ser colocado em contato com a terra.

A eletrização de certos materiais, como o âmbar ou o vidro, se deve a sua capacidade isolante pois, com o atrito, perdem elétrons que não são facilmente substituíveis por aqueles que provêm de outros átomos. Por isso, esses materiais conservam a eletrização por um período de tempo tão mais longo quanto menor for sua capacidade de ceder elétrons.

#Eletrostática

Eletrostática

A parte da eletricidade que estuda o comportamento de cargas elétricas estáticas no espaço é conhecida pelo nome de eletrostática. Ela desenvolveu-se precocemente dentro da história da ciência e se baseia na observação das forças de atração ou repulsão que aparecem entre as substâncias com carga elétrica.

Estudos quantitativos de eletrostática foram feitos separadamente por Coulomb e Cavendish. A chamada lei de Coulomb estabelece que as forças de atração ou repulsão entre partículas carregadas são diretamente proporcionais às quantidades de carga dessas partículas e inversamente proporcionais ao quadrado da distância que as separa. Determinada de forma empírica, essa lei só é válida para cargas pontuais em repouso. A direção das forças é paralela à linha que une as cargas elétricas em questão. O sentido depende da natureza das cargas: se forem de sinais contrários, se atraem; se os sinais forem iguais, se repelem. A unidade de carga da lei de Coulomb recebe a denominação de coulomb no sistema internacional. A força se expressa em newtons e a distância, em metros.

Campo elétrico Com o desenvolvimento da eletricidade como ciência, a física moderna abandonou o conceito newtoniano de força como causa dos fenômenos e introduziu a noção de campo. A liberação das partículas passou a ser associada às diferenças de níveis energéticos e não à ação direta de forças.

Define-se campo elétrico como uma alteração introduzida no espaço pela presença de um corpo com carga elétrica, de modo que qualquer outra carga de prova localizada ao redor indicará sua presença. Por meio de curvas imaginárias, conhecidas pelo nome de linhas de campo, visualiza-se a direção da força gerada pelo corpo carregado.

As características do campo elétrico são determinadas pela distribuição de energias ao longo do espaço afetado. Se a carga de origem do campo for positiva, uma carga negativa introduzida nele se moverá, espontaneamente, pela aparição de uma atração eletrostática. Pode-se imaginar o campo como um armazém de energia causadora de possíveis movimentos. É usual medir essa energia por referência à unidade de carga, com o que se chega à definição de potencial elétrico, cuja magnitude aumenta em relação direta com a quantidade da carga geradora e inversa com a distância dessa mesma carga. A unidade de potencial elétrico é o volt, equivalente a um coulomb por metro. A diferença de potenciais elétricos entre pontos situados a diferentes distâncias da fonte do campo origina forças de atração ou repulsão orientadas em direções radiais dessa mesma fonte.

A intensidade do campo elétrico se define como a força que esse campo exerce sobre uma carga contida nele. Dessa forma, se a carga de origem for positiva, as linhas de força vão repelir a carga de prova, e ocorrerá o contrário se a carga de origem for negativa. Diz-se, portanto, que as cargas positivas são geradoras de campos magnéticos e as negativas, de sistemas de absorção ou sumidouros.

DielétricosAs substâncias dielétricas (que isolam eletricidade) se distinguem das condutoras por não possuírem cargas livres que possam mover-se através do material, ao serem submetidas a um campo elétrico. Nos dielétricos, todos os elétrons estão ligados e por isso o único movimento possível é um leve deslocamento das cargas positivas e negativas em direções opostas, geralmente pequeno em comparação com as distâncias atômicas.

Esse deslocamento, chamado polarização elétrica, atinge valores importantes em substâncias cujas moléculas já possuam um ligeiro desequilíbrio na distribuição das cargas. Nesse caso, se produz ainda uma orientação dessas moléculas no sentido do campo elétrico externo e se constituem pequenos dipolos elétricos que criam um campo característico. O campo é dito fechado quando suas linhas partem do polo positivo e chegam ao negativo.

O campo elétrico no interior das substâncias dielétricas contém uma parte, fornecida pelo próprio dielétrico em forma de polarização induzida e de reorientação de suas moléculas, que modifica o campo exterior a que está submetido. O estudo dos dielétricos adquire grande relevância na construção de dispositivos armazenadores de energia elétrica, também conhecidos como condensadores ou capacitores, os quais constam basicamente de duas placas condutoras com potencial elétrico distinto, entre as quais se intercala a substância dielétrica. Cria-se um campo elétrico entre as placas, incrementado pela polarização do dielétrico que armazena energia. A capacidade de armazenamento de um condensador se avalia mediante um coeficiente - conhecido como capacitância - que depende de suas características físicas e geométricas. Essa grandeza tem dimensões de carga por potencial elétrico e se mede comumente em faradays (coulombs por volts).

Circuitos elétricos e forças eletromotrizesDo estudo da eletrólise - intercâmbio eletrônico e energético entre substâncias químicas normalmente dissolvidas - surgiram as primeiras pilhas ou geradores de corrente, cuja aplicação em circuitos forneceu dados fundamentais sobre as propriedades elétricas e magnéticas da matéria.

Uma carga introduzida num campo elétrico recebe energia dele e se vê impelida a seguir a direção das linhas do campo. O movimento da carga é provocado físico segundo o qual todo corpo alcança o equilíbrio em seu estado de energia mínima. Portanto, a carga tende a perder a energia adquirida, ao movimentar-se para áreas menos energéticas.

Em termos elétricos, o movimento das cargas é provocado por diferenças de potencial elétrico no espaço, e as partículas carregadas se dirigem de zonas de maior para as de menor potencial. Nessa propriedade se fundamentam as pilhas e, em geral, todos os geradores de corrente, que consistem em duas placas condutoras com potenciais diferentes. A ligação dessas duas placas, chamadas eletrodos, por um fio, produz uma transferência de carga, isto é, uma corrente elétrica, ao longo do circuito. A grandeza que define uma corrente elétrica é sua intensidade, que é a quantidade de cargas que circulam através de uma seção do filamento condutor numa unidade de tempo. A unidade de intensidade da corrente é o ampère (coulomb por segundo).

Muitos físicos, entre eles Gay-Lussac e Faraday, pesquisaram as relações existentes entre a tensão e a corrente elétricas. Georg Simon Ohm estudou as correntes elétricas em circuitos fechados e concluiu que as intensidades resultantes são diretamente proporcionais à diferença de potencial fornecida pelo gerador. A constante de proporcionalidade, denominada resistência elétrica do material e medida em ohms (volts por ampères), depende das características físicas e geométricas do condutor. Nesse contexto se dispõem de diferentes recursos que permitem a regulagem e controle das grandezas elétricas. Assim, por exemplo, a ponte de Wheatstone se emprega para determinar o valor de uma resistência não conhecida e as redes elétricas constituem circuitos múltiplos formados por elementos geradores e condutores de resistências distintas.

Efeitos térmicos da eletricidade A passagem de cargas elétricas a grande velocidade através de condutores origina uma perda parcial de energia em função do atrito. Essa energia se desprende em forma de calor e, por isso, um condutor sofre aumento de temperatura quando a corrente elétrica circula através dele.

James Joule calculou as perdas de uma corrente num circuito, provocadas pelo atrito. Nesse fenômeno, denominado efeito Joule, se fundamentam algumas aplicações interessantes da eletricidade, como as resistências das estufas. O efeito também ocorre no filamento incandescente - fio muito fino de tungstênio ou material similar que emite luz quando aumenta a temperatura - utilizado nas primeiras lâmpadas de Edison e nas atuais lâmpadas elétricas.

Deve-se ao efeito Joule a baixa rentabilidade industrial do sistema de correntes contínuas, em função das elevadas perdas que se verificam. Esse problema foi solucionado com a criação de geradores de corrente alternada, nos quais a intensidade elétrica varia com o tempo.

Aplicações A principal vantagem oferecida por uma rede elétrica é a facilidade de transporte de energia a baixo custo. Diversas formas de energia, tais como a hidráulica e a nuclear, se transformam em elétricas mediante eletroímãs de orientação variável que produzem correntes alternadas. Essas correntes são conduzidas com o auxílio de cabos de alta tensão, com milhares de volts de potência.

Normalmente, a eletricidade é utilizada como fonte de energia em diversos tipos de motores com múltiplos usos, cuja enumeração seria interminável: eletrodomésticos, calefação, refrigeração de ar, televisão, rádio etc. Nos centros de telecomunicação, a corrente elétrica funciona como suporte energético codificado que viaja por linhas de condução para ser decifrado por aparelhos de telefonia, equipamentos de informática etc.

Energia elétrica -  Junto com as energias mecânica, química e térmica, a eletricidade compõe o conjunto de modalidades energéticas de uso habitual. De fato, como consequência de sua capacidade de ser transformada de forma direta em qualquer outra energia, sua facilidade de transporte e grande alcance através das linhas de alta tensão, a energia elétrica se converteu na fonte energética mais utilizada no século XX.

Ainda que a pesquisa de fontes de eletricidade tenha se voltado para campos pouco conhecidos, como o aproveitamento do movimento e da energia dos mares, as formas mais generalizadas são a hidrelétrica, obtida pela transformação mecânica da força de quedas d'água, e a térmica, constituída por centrais geradoras de energia alimentadas por combustíveis minerais sólidos e líquidos.

Desde que se passou a utilizar eletricidade como fonte energética, sua produção experimentou um crescimento vertiginoso. A importância dessa forma de energia se pode provar pelo fato de, modernamente, os países mais industrializados duplicarem o consumo de energia elétrica a cada dez anos. Entre os países de maior produção e consumo em todo o mundo estão os Estados Unidos, a Rússia, o Reino Unido e a Alemanha. Também ostentam consideráveis índices de produção os países que dispõem de importantes recursos hídricos, como o Canadá e a Noruega.

www.klimanaturali.org

Arquivo