Sejam bem-vindos!

RELAXE, APROVEITE E DELEITE-SE NESTE BLOG.

terça-feira, 25 de outubro de 2011

Pedagogia do oprimido

Paulo Freire é caracterizado com um pensador que se comprometeu, além das idéias, com a própria vida, com a própria existência; na Pedagogia do Oprimido ele nos apresenta sua experiência cativada no exílio durante cinco anos, bem como nos mostra o papel conscientizador da educação numa ação libertadora do próprio "medo da liberdade".Para Paulo Freire vivemos numa sociedade dividida em classes, sendo que os privilégios de uns impedem que a maioria usufrua dos bens produzidos e, coloca como um desses bens produzidos e necessários pata concretizar a vocação necessária do ser mais, a educação, da qual é excluída grande parte da população do Terceiro Mundo.Refere-se então a dois tipos de pedagogia: a pedagogia dos opressores, onde a educação existe como uma prática de dominação e a pedagogia do oprimido que precisa ser realizada para que surja uma educação com prática de liberdade.

fonte:http://www.webartigos.com/artigos/resumo-de-039-039-pedagogia-do-oprimido-039-039/40397/

sábado, 2 de julho de 2011

ONDAS

Classificação das ondas

Uma onda é um movimento causado por uma perturbação, e esta se propaga através de um meio.

Um exemplo de onda é tido quando joga-se uma pedra em um lago de águas calmas, onde o impacto causará uma perturbação na água, fazendo com que ondas circulares se propagem pela superfície da água.



Também existem ondas que não podemos observar a olho nu, como, por exemplo, ondas de rádio, ondas de televisão, ondas ultra-violeta e microondas.

Além destas, existem alguns tipos de ondas que conhecemos bem, mas que não identificamos normalmente, como a luz e o som.

Mas o que elas têm em comum é que todas são energias propagadas através de um meio, e este meio não acompanha a propagação.

Conforme sua natureza as ondas são classificadas em:

•Ondas Mecânicas: são ondas que necessitam de um meio material para se propagar, ou seja, sua propagação envolve o transporte de energia cinética e potencial e depende da elasticidade do meio. Por isto não é capaz de propagar-se no vácuo. Alguns exemplos são os que acontecem em molas e cordas, sons e em superfícies de líquidos.
•Ondas Eletromagnéticas: são ondas geradas por cargas elétricas oscilantes e sua propagação não depende do meio em que se encontram, podendo propagar-se no vácuo e em determinados meios materiais. Alguns exemplos são as ondas de rádio, de radar, os raios x e as microondas.
Todas as ondas eletromagnéticas tem em comum a sua velocidade de propagação no vácuo, próxima a 300000km/s, que é equivalente a 1080000000km/h.

Por que as ondas do mar quebram?

Sabendo que as ondas em geral têm como característica fundamental propagar energia sem que haja movimentação no meio, como explica-se o fenômeno de quebra das ondas do mar, causando movimentação de água, próximo à costa?

Em águas profundas as ondas do mar não transportam matéria, mas ao aproximar-se da costa, há uma brusca diminuição da profundidade onde se encontram, provocando a quebra destas ondas e causando uma movimentação de toda a massa de água e a formação de correntezas.

Após serem quebradas, as ondas do mar deixam de comportar-se como ondas.

Quanto a direção de propagação as ondas são classificadas como:

•Unidimensionais: que se propagam em apenas uma direção, como as ondas em cordas e molas esticadas;
•Bidimensionais: são aquelas que se propagam por uma superfície, como as água em um lago quando se joga uma pedra;
•Tridimensionais: são capazes de se propagar em todas as dimensões, como a luz e o som.
Quanto à direção da vibração as ondas podem ser classificadas como:

•Transversais: são as que são causadas por vibrações perpendiculares à propagação da onda, como, por exemplo, em uma corda:


•Longitudinais: são ondas causadas por vibrações com mesma direção da propagação, como as ondas sonoras.

Componentes de uma onda

Uma onda é formada por alguns componentes básicos que são:


Sendo A a amplitude da onda.

É denominado comprimento da onda, e expresso pela letra grega lambida (λ), a distância entre duas cristas ou dois vales consecutivos.

Chamamos período da onda (T) o tempo decorrido até que duas cristas ou dois vales consecutivos passem por um ponto e freqüência da onda (f) o número de cristas ou vales consecutivos que passam por um mesmo ponto, em uma determinada unidade de tempo.

Portanto, o período e a freqüência são relacionados por:

F = 1/T

OU

T = 1/F

A unidade internacionalmente utilizada para a freqüência é Hertz (Hz) sendo que 1Hz equivale à passagem de uma crista ou de um vale em 1 segundo.

Para o estudo de ondas bidimensionais e tridimensionais são necessários os conceitos de:

•frente de onda: é a fronteira da região ainda não atingida pela onda com a região já atingida;
•raio de onda: é possível definir como o raio de onda a linha que parte da fonte e é perpendicular às frentes de onda, indicando a direção e o sentido de propagação.

<

Continuem visitando.
Em breve mais informações sobre ondas.

fonte: http://www.sofisica.com.br/conteudos/Ondulatoria/Ondas/classificacao2.php

sábado, 18 de junho de 2011

Física da eletricidade


2009-09-30
Energia elétrica ou eletricidade é como se chamam os fenômenos em que estão envolvidas cargas elétricas. Ela pode ser gerada através de fontes renováveis de energia (a força das águas e dos ventos, o sol e a biomassa), ou não renováveis (combustíveis fósseis e nucleares). No Brasil, existem muitos rios. Portanto, a energia hidráulica é mais utilizada do que as outras. Mas também existem usinas termelétricas no País.

O processo de transformação da energia elétrica é parecido com o que fazia funcionar os moinhos de água. Durante muito tempo eles foram bastante utilizados para moer grãos. A água dos rios dava impulso as rodas d’água. Essas rodas, por sua vez, faziam girar as pás dos moinhos.
Nas hidroelétricas, a água dos rios, armazenada em reservatórios, faz girar enormes pás. Elas acionam grandes motores, chamados de turbinas, que são responsáveis pela geração de eletricidade. Este é um exemplo da transformação da energia hídrica em energia elétrica.



Ao ser gerada, a energia elétrica é conduzida por cabos até a subestação elevadora. Lá, transformadores elevam o valor da tensão elétrica (voltagem). Em alta voltagem, a eletricidade pode percorrer longas distâncias. Ao chegar próximo onde será consumida, a voltagem da energia é reduzida novamente, através de transformadores.
Os raios de uma tempestade, quando um deles cai sobre um animal, por exemplo, a descarga elétrica é tão forte que pode até mata-lo.

Eletricidade no Brasil

1879 – A eletricidade começou a ser usada no Brasil, na Europa e nos Estados Unidos, logo após o invento do Dínamo e da Lâmpada Elétrica. No mesmo ano, D. Pedro II inaugurou a iluminação da estrada de ferro.

1881 – A primeira iluminação externa pública do País foi inaugurada na atual Praça de República, em São Paulo.
1883 – Entrou em operação a primeira usina hidrelétrica do País, instalada na cidade de Diamantina, Minas Gerais. D. Pedro II inaugurou, na cidade de Campos, o primeiro serviço público municipal de iluminação elétrica do Brasil e da América do Sul.
1889 – Começou a funcionar a primeira hidrelétrica de grande porte no País, a Marmelos-Zero, da Companhia Mineira de Eletricidade.

1892 – Os bondes movidos à energia elétrica foram instalados de forma permanente no Rio de Janeiro.
1899 – Criação da São Paulo Light.

1903 – O primeiro texto de lei disciplinando o uso de energia elétrica no País foi aprovado pelo Congresso Nacional.
1908 – Entrou em operação a usina hidrelétrica Fontes Velha, a maior do Brasil e uma das maiores do mundo.

1937 – O presidente Getúlio Vargas inaugurou, no Rio de Janeiro, o primeiro trecho eletrificado da Estrada de Ferro da Central do Brasil.
1939 – O presidente Getúlio Vargas criou o Conselho Nacional de Águas e Energia (CNAE) para sanear os problemas de suprimento, regulamentação e tarifa referentes à indústria de energia elétrica do País.

1943 – Começaram a ser criadas várias empresas estaduais e federais como a Celg, Chesf, Cemig, Copel, Celesc, Cemat, Escelsa, Furnas, Coelba, Cemar, entre outras.

1952 – Criado o Banco Nacional de Desenvolvimento Econômico (BNDES) para atuar nas áreas de energia e transporte.

1960 – Criação do Ministério das Minas e Energia.
1961– Criação da Eletrobrás.
1963 – Começou a funcionar a usina de Furnas, permitindo interligação dos estados do Rio de Janeiro, Minas Gerais e São Paulo.
1965 – Criado o Departamento Nacional de Águas e Energia, encarregado da regulamentação dos serviços de energia elétrica no País.

1979 – Compra da Light – Serviços de Eletricidade pelo Governo Federal.

1984 – Entrada em operação da usina de Itaipu, a maior hidrelétrica do mundo.
1985 – Criação do Programa Nacional de Combate ao Desperdício de Energia Elétrica (Procel). Entrou em operação a Usina Termonuclear Angra I, primeira usina nuclear do Brasil.

1998 – O Mercado Atacadista de Energia Elétrica (MAE) foi regulamentado, consolidando a distinção entre as atividades de geração, transmissão, distribuição e comercialização de energia elétrica. Foram estabelecidas as regras de organização do Operador Nacional do Sistema Elétrico (NOS), para substituir o Grupo Coordenador para Operação Interligada (GCOI).

William Thomson


William Thomson, 1º barão Kelvin, (no Brasil é mais conhecido como Lorde Kelvin) OM, PRS, PRSE (Belfast, 26 de junho de182417 de dezembro de 1907) foi um físico-matemático e engenheiro britânico, nascido na Irlanda.

Considerado um líder nas ciências físicas do século XIX. Ele fez importantes contribuições na análise matemática da eletricidade etermodinâmica, e fez muito para unificar as disciplinas emergentes da física em sua forma moderna. Ele é amplamente conhecido por desenvolver a escala Kelvin de temperatura absoluta (onde o zero absoluto é definido como 0 K). O título de Barão Kelvin foi dado em homenagem a suas realizações.

A Física de partícula dos últimos 30 anos

Uma das alegações mais comuns de alguns livros de divulgação que tratam sobre supercordas é a de que a física de partículas esteve mais ou menos congelada do ponto de vista de novas idéias teóricas nos últimos 30 anos. Woit, Greene, Kaku são exemplos de textos com essa alegação: após a descoberta da unificação eletrofraca e dos métodos de cálculo nas chamadas teorias de calibre que aconteceram nos anos 60 e 70, pelos últimos 30 anos a física de partículas apenas viu confirmação do cenário teórico geral estabelecido, sem necessidade de novas idéias.

Isso é verdade em parte, mas não é toda a história. tongue Como eu quero mostrar neste e nos próximos posts, a física de partículas nos últimos 30 anos foi um terreno muito fértil para problemas desafiadores e grandes dificuldades teóricas, que acabaram por desenvolver uma série de novas e importantes técnicas que mudaram drasticamente a visão da física fundamental que se tinha nos anos 70. Algumas dessas idéias ainda serão testadas no LHC, e dada a situação extremamente obscura da nossa compreensão de alguns problemas da física de partículas, é bem provável que algo completamente inesperado possa surgir nos próximos anos, criando ainda mais excitação para novas idéias. grin

A descoberta das teorias efetivas


Na década de 40, Freeman Dyson descobriu que teorias de física de partículas com certas características tinham uma receita simples que permitia calcular qualquer fenômeno físico e obter uma resposta finita. As teorias que satisfazem os critérios de Dyson são chamadas de teorias renormalizáveis. Outras teorias pareciam simplesmente prever que qualquer processo físico teria probabilidade infinita de ocorrer, o que não faz sentido uma vez que nada pode ter mais que 100% de probabilidade.

O problema técnico resolvido por Dyson foi o principal motivador do desenvolvimento da teoria eletrofraca e da cromodinâmica quântica: ambas são teorias renormalizáveis. No entanto, no final dos anos 70, o gênio Steven Weinberg mostrou como fazer cálculos com qualquer teoriaem física de partículas. Ficou claro que as teorias renormalizáveis são apenas um caso particular de teorias mais gerais, e que correspondem apenas a uma primeira aproximação. As teorias mais gerais são hoje genericamente chamadas de teorias efetivas (antigamente chamadas denão-renormalizáveis).

Esta descoberta impulsionou uma série de desenvolvimentos muito importantes, em especial para a física da força nuclear forte, pois é impossível usar a QCD diretamente para estudar hádrons em baixas energias. Porém, é possível escrever teorias efetivas que descrevem hádrons mas que são intimamente relacionadas com a QCD. A relação das teorais efetivas de hádrons com a QCD é a mesma entre as teorias que descrevem a magnetização dos materiais com a física atômica: ao invés de começar do problema do movimento de N átomos, ignora-se todos os graus de liberdade dos átomos, exceto o momento magnético, e constrói-se então um modelo para a interação de N momentos magnéticos. Desse modo, foi possível durante os anos 90 fazer cálculos analíticos de propriedades dos hádrons partindo da QCD. Em especial, Mark Wise, Mikhail Voloshin e Nathan Isgur descobriram no final de 1989uma nova simetria das interações fortes, e desenvolveram uma teoria efetiva com base nesta simetria que permitiu calcular analiticamente o comportamento dos mésons que contém quarks charmed e bottom[1]. Esta teoria é conhecida como a teoria efetiva de quarks pesados (HQEFT), e antes dela pensava-se que somente cálculos numéricos complicados da QCD poderiam providenciar previsões para as propriedades dos mésons com quarks charmed e bottom. Os três receberam em 2001 o Prêmio J. J. Sakurai de Física Teórica da American Physical Society pelo desenvolvimento da teoria e suas conseqüências.

O problema da hierarquia


Um dos componentes fundamentais do modelo de unificação eletrofraca da física de partículas é a existência do chamado bóson de Higgs. No entanto, em 1979, Kenneth Wilson mostrou que a existência do bóson de Higgs constitui automaticamente um problema[2], hoje conhecido como o problema da hierarquia.
Wilson percebeu que a contribuição das partículas virtuais para a massa do bóson de Higgs é da ordem de 1019 GeV [3]. No entanto, a massa do bóson de Higgs é experimentalmente vinculada para ser da ordem de 100 GeV. A única solução é ajustar um parâmetro da teoria em mais ou menos 17 algarismos significativos para ser idêntico a contribuição das partículas virtuais:

Massa do Higgs = (parâmetro da teoria) + (partículas virtuais)

Qual a razão do parâmetro da teoria provocar um cancelamento tão perfeito da contribuição das partículas virtuais? O Modelo Padrão não tem uma resposta para essa pergunta!
Isto levou logo em 1979 Leonard Susskind [2] a propor uma alternativa a existência do bóson de Higgs, a teoria conhecida por Technicolor, que prevê a existência de uma nova força forte na Natureza. Mais tarde foi percebido que a supersimetria também resolve o problema da hierarquia, pois a contribuição de cada partícula virtual do Modelo Padrão para massa do Higgs é cancelada por uma partícula de spin diferente.
No entanto, tanto a supersimetria como Technicolor eventualmente requerem um certo ajuste arbitrário de parâmetros e simetrias discretas para poder evadir o problema da hierarquia, o que na prática não o resolve completamente, apenas o transfere para um outro lugar: a tentativa de justificar as escolhas de parâmetros nestas teorias.
Durante vários anos não surgiu nenhuma alternativa viável para supersimetria ou Technicolor, até que em 1998 Nima Arkani-Hamed, Savas Dimopoulos e Gia Dvali mostraram que se existem mais dimensões espaciais no universo então há um cenário possível que resolve o problema [4].
Se há dimensões extras no universo, então a potência irradiada por grávitons que podemos observar nas 3D é menor que a potência total irradiada, devido ao fato que parte dos grávitons se propagam nas dimensões extras. Sendo assim, é possível ajustar a constante da gravitação de Newton para trazer a escala da gravitação quântica para aproximadamente 1 TeV. Isso resolve o problema pois nesse caso a contribuição dos pares de partículas virtuais seria da ordem ~ 1 TeV, que é apenas uma ordem de grandeza diferente da massa do Higgs, ao invés de 17 ordens de grandeza.
O trabalho de Nima e Cia. abriu uma nova arena para a construção de alternativas ao Modelo Padrão. Atualmente, o mais estudado é o modelo de Randall-Sundrum[5].
Nos modelos com dimensões extras há novas partículas, pois para cada partícula há um campo associado (por exemplo, para o fóton há o campo eletromagnético) que agora pode "vibrar" em mais dimensões. As vibrações nas dimensões extras são percebidas como partículas elementares, chamadas de parceiros Kaluza-Klein. Então, por exemplo, para o campo eletromagnético há o fóton e toda uma torre de excitações Kaluza-Klein de massa ~ 1 TeV. Todas essas partículas poderiam ser, em princípio, observadas no LHC (indireta ou diretamente).
É extremamente excitante imaginar que daqui a poucos anos poderemos obter de um experimento como o LHC informação sobre algo tão fundamental como o número de dimensões que existe no universo, em especial se o resultado for que há mais do que apenas 4 [6].

Em 2001, inspirados pela descoberta dos modelos de dimensões extras, Nima, Andrew Cohen e Howard Georgi encontraram outra alternativa [7]. Eles mostraram que é possível construir um modelo onde o bóson de Higgs tem uma simetria extra que "protege" a massa de contribuições de partículas virtuais. O segredo é o que se chamasimetria de custódia, que impõe que se a massa do Higgs fosse zero então nenhuma partícula virtual poderia contribuir para a massa do Higgs. O resultado é que todas as contribuições de partículas virtuais passam a ser elas próprias proporcionais ao valor da massa do Higgs. Assim, se a massa do Higgs for da ordem de 100 GeV, todas as contribuições de partículas virtuais são também da ordem de 100 GeV, e não ocorre nenhuma catástrofe. Vários modelos foram construídos baseados nesta idéia, e eles vão sobre o nome genérico de Little Higgs.

Será que o LHC vai revelar que há supersimetria? Technicolor? Dimensões extras? Little Higgses? Ou será que o LHC vai apenas encontrar o bóson de Higgs do Modelo Padrão e nada mais? Lembremos que o que está em jogo aqui é a compreensão de o que na Naturezapermite que exista a unificação eletrofraca, i.e. como é possível que exista uma única simetria para a força fraca e o eletromagnetismo quando o fóton não possui massa mas os bósons W e Z são pesados.

E ainda há muito mais coisas curiosas para falar... Vão ficar para um próximo post! cool

Nota: terei o maior prazer em responder perguntas sobre o texto, que podem ser deixadas como comentários.

Física de partículas


A Física de partículas é um ramo da Física que estuda os constituintes elementares da matéria e da radiação, e a interação entre eles e suas aplicações. É também chamada de Física de altas energias, porque muitas partículas elementares só podem ser detectadas a energias elevadas. O elétron e o próton foram as únicas partículas aceleradas até os dias de hoje, outras nunca foram detectadas (como o gráviton) e as restantes foram detectadas através da radiação cósmica (como o méson pi e o méson mu).

A Física de partículas, estudada pela Mecânica Quântica (parte da Física Moderna), busca o fundamental, o nível mais básico da matéria e da Natureza. Todo o nosso mundo visível se fundamenta nesse nível invisível das partículas elementares. Podemos chamar de partículas elementares toda a porção indivisível da matéria, como os elétrons, os prótons, os nêutrons e outras.

Breve história

Os gregos antigos formularam dois conceitos sobre Física de Partículas. O primeiro foi formulado por Tales de Mileto e diz respeito à eletricidade. O segundo foi formulado por Demócrito e diz que toda matéria pode ser dividida até chegar em um ponto que se encontraria a parte mais fundamental e indivisível da matéria a que Demócrito deu o nome de átomo. Ele dizia que o átomo não poderia ser criado ou destruído e que toda a matéria conhecida seria formada por diversas combinações de diferentes átomos. Suas ideias se aproximavam muito dos atuais conceitos de física atômica.

As ideias de Demócrito só voltaram a ser revistas no século XIX, por Dalton. As de Tales de Mileto foram revistas a partir do século XV.

Principais partículas e antipartículas conhecidas: Elétron, pósitron, próton, antipróton, nêutron, antinêutron, neutrino, antineutrino, Mésons (pi+, pi0, pi-, mu+, mu-, k+, k-, k0), hiperons (lambda 0, sigma +, sigma 0, sigma -) e fótons.


Partículas subatômicas


A pesquisa moderna da física da partícula é focalizada nas partículas subatômicas, que têm dimensões menores que as dos átomos. Incluem constituintes atômicos tais como elétrons, prótons, e nêutrons (os prótons e os nêutrons são partículas compostas, feita de quarks), partículas produzidas por processos radiativos e de espalhamento tais como fótons, neutrinos, e múons, bem como uma larga escala de partículas exóticas.

  • Elétron: Partícula mais conhecida e mais estudada. Massa de repouso: 9,1083 x 10−31 kg, carga elétrica: − 1,602 x 10−19 C, Spin: 1/2 ħ
  • Pósitron: Já era previsto por Paul Dirac e sua existência foi confirmada em 1930-1940 pelo físico americano Anderson. Possui massa de repouso e spin iguais aos do elétron. Carga elétrica de mesmo módulo e sinal contrário.
  • Próton: É um núcleon. Possui massa 1836,12 vezes a massa do elétron. Mesmo spin e carga de sinal contrário.
  • Antipróton: Descoberto em 1955. Já se suspeitava que existissem outras antipartículas desde a descoberta do pósitron. Possui mesma massa e spin que o próton, mas carga de sinal oposto (sinal negativo).
  • Nêutron: Possui carga nula, massa 1836,65 vezes a massa do elétron e spin 1/2 ħ. Pode se desintegrar dando origem a um próton, um elétron e um neutrino apenas quando está livre (fora do núcleo).
  • Antinêutron: Possui exatamente as mesmas características do nêutron, mas organização interna diferente. Um nêutron é composto de um quark up e dois quarks down. Logo, imagina-se que o antinêutron seja formado por um antiquark up e dois antiquarks down.
  • Fótons: São chamados de quantum do campo eletromagnético. Possui massa e carga elétrica zero e spin 1 ħ.
  • Grávitons: Analogamente ao fóton, o gráviton é o quantum do campo gravitacional. Não se tem muita informação experimental sobre ele. Só existe com velocidades próximas ou iguais a c (velocidade da luz no vácuo).
  • Mésons: quer dizer, massa média. São partículas que possuem massa entre a do elétron e a do próton. Existem oito tipos de mésons:
  • Mésons pi +, - e 0, méson mu +, - , méson k+, - e 0.
  • Hiperons: Partículas de massa maior que a do próton. Pode ser dividido em seis tipos:
  • Hiperons lambda 0, hiperon sigma +, -, 0 , hiperon csi+, 0
  • Neutrinos: O neutrino surge da desintegração de um nêutron em próton e elétron. Possui massa menor que 0,000005 vezes a massa do elétron e até agora foram descobertos quatro tipos de neutrinos diferentes.
  • Interações fundamentais

São quatro as interações fundamentais:

  1. Interação gravitacional
  2. Interação eletromagnética
  3. Interações nucleares fortes: possuem natureza atrativa e repulsiva, dependendo da distância. Se estiver a uma distância d maior que 0,4 férmions, torna-se repulsiva. Possui intensidade maior que a força gravitacional e, até a uma determinada distância (raio do núcleo), maior que a eletromagnética. É responsável pela união de prótons e nêutrons no núcleo, visto que é independente da carga elétrica.
  4. Interação nuclear fraca: É mais forte que a interação gravitacional. Há uma teoria que une a interação fraca com a eletromagnética, afirmando que trata-se da mesma interação sob duas formas chamada interação eletrofraca. Foi formulada e está sendo desenvolvida uma teoria de unificação das 4 interações fundamentais conhecida como Teoria da Supergravidade.


Livros recomendados

  • O Discreto charmes das partícula elementares ( Cristina Abdala)

quinta-feira, 9 de junho de 2011

Dispersão (óptica)



A dispersão na óptica é o fenómeno que causa a separação de uma onda em várias componentes espectrais com diferentes frequências, por causa da dependência da velocidade da onda com sua frequência, ao se mudar a densidade do meio, ondas de diferentes frequências irão tomar diversos ângulos na refracção. Há dois tipos de fonte de dispersão material (influenciada pela densidade do meio) e por dispersão no guia de ondas, que por causa das soluções do modo transverso para ondas confinadas lateralmente em um guia de ondas finito, normalmente dependendo da frequência das ondas (tamanho relativo da onda, do comprimento de onda e do guia de ondas). Dispersão material em ondas electromagnéticas, a velocidade da fase de uma onda é dada pelo meio onde:

V = c/N
Onde:c é a velocidade da luz no vácuo e n é o índice de refração do meio.

Em geral, o índice de refracção é uma função da freqüência, ou alternativamente, com respeito ao comprimento de onda. O comprimento de onda depende do índice de refração do material de acordo com a fórmula. O efeito mais freqüentemente visto da dispersão é a separação da luz branca no espectro de luz por um prisma. Como um prisma é mais denso que o ambiente, para cada freqüência há um ângulo de refração diferente, como a cor branca é uma composição de todas as cores, ou a sobreposição de várias ondas de diferentes freqüências, se dá a dispersão separando cada uma dessas freqüências por um ângulo de refração diferente. Para a luz visível, e para a maioria das matérias transparentes temos: 1
fonte: http://pt.wikipedia.org/wiki/Dispers%C3%A3o_(%C3%B3ptica)

Lentes Esféricas


Lentes são dispositivos empregados em um grande número de instrumentos, tais como os óculos, a câmera fotográfica, o telescópio, o microscópio e muitos outros equipamentos de nosso cotidiano. As lentes são constituídas por um meio transparente que pode ser um vidro ou mesmo o plástico, limitado por faces curvas. Elas podem apresentar faces côncavas ou convexas.

Em razão da sua grande importância na prática diária, o estudo das lentes esféricas é muito importante para o entendimento de como se formam as imagens. Desde simples óculos até modernos e sofisticados equipamentos de observação e projeção, as lentes são largamente utilizadas. O olho humano, por exemplo, é uma verdadeira máquina fotográfica. Esse tem a capacidade de produzir a imagem de objetos externos, e essa imagem é formada sobre a retina. Quando não se enxerga bem, o problema encontra-se, na maioria das vezes, na formação da imagem, e para corrigir tal problema se faz uso dos óculos.

As lentes esféricas possuem classificações e características que diferem uma lente de outra. Elas podem ser classificadas da seguinte forma:

Lentes de bordas finas: quando as bordas são mais finas que a região central.


´
Lentes de bordas grossas: quando a região central é mais fina em relação às bordas, ou seja, nesse caso ocorre o contrário das lentes de bordas finas, veja:




As lentes esféricas podem apresentar dois comportamentos distintos com relação aos raios que incidem sobre as mesmas. Elas podem ser divergentes ou convergentes. Em uma lente convergente os raios de luz incidem sobre a lente e refratam-se de forma que as direções se convergem para o mesmo ponto. Nas lentes divergentes ocorre que os raios de luz paralelos entre si, que incidem sobre a lente, refratam-se em direções diferentes que divergem em um mesmo ponto.

A máquina fotográfica

O funcionamento de uma máquina fotográfica é muito semelhante ao olho humano. Na máquina existe um sistema denominado de objetiva. Esse sistema funciona como uma lente convergente que forma uma imagem real e invertida do objeto que está sendo fotografado. Para que se possa obter uma boa imagem, ou seja, para que ela fique bem nítida, a máquina possui um dispositivo que tem a capacidade de regular a posição da objetiva, deixando o objeto mais perto ou longe da mesma.

A luz proveniente do objeto ao entrar na câmera penetra sobre o filme, onde ocorrem reações químicas fazendo com que a imagem fique nele.

fonte: http://www.mundoeducacao.com.br/fisica/lentes-esfericas.htm

quarta-feira, 1 de junho de 2011

Grande Colisor de Hádrons - LHC

O Grande Colisor de Hádrons ou Grande Colisionador de Hadrões (português europeu) (em inglês: Large Hadron Collider - LHC) do CERN, é o maior acelerador de partículas e o de maior energia existente do mundo. Seu principal objetivo é obter dados sobre colisões de feixes de partículas, tanto de prótons a uma energia de 7 TeV (1,12 microjoules) por partícula, ou núcleos de chumbo a energia de 574 TeV (92,0 microjoules) por núcleo. O laboratório localiza-se em um túnel de 27 km de circunferência, bem como a 175 metros abaixo do nível do solo na fronteira franco-suíça, próximo a Genebra, Suíça.



História

O LHC entrou em funcionamento em 10 de Setembro de 2008.

A primeira colisão entre prótons ocorreu 30 de Março de 2010.

Interrupção no funcionamentoEm 19 de setembro de 2008, ocorreu um incidente no setor 3-4 do LHC que resultou em grande vazamento de hélio no túnel. Segundo uma nota de imprensa publicada pelo CERN no dia seguinte, foram feitas investigações preliminares que apontaram como provável causa do problema um defeito na ligação elétrica entre dois ímãs, o que causou a falha mecânica.

A Organização informou na nota que o setor teria de ser objeto de reparos, o que interromperia o funcionamento do LHC por, no mínimo, dois mesesOs reparos demorariam apenas alguns dias, mas o setor onde ocorreu o incidente deve ser esfriado para tornar possível a manutenção, consequentemente levando mais tempo.

O retorno ao funcionamento

Depois de ficar desligado por quatorze meses, o LHC foi religado na sexta-feira, dia 20 de Novembro de 2009, segundo James Gilles, porta-voz do CERN.

Os primeiros testes duram apenas uma fração de segundo, onde as partículas somente podem dar meia-volta ou uma volta em torno do anel do acelerador. A circulação de partículas no gigantesco equipamento começará em um primeiro momento em baixa energia, com 450 GeV, e quando os cientistas injetarem feixes em direções opostas se produzirão, a essa velocidade, as primeiras colisões.

A partir de então, o experimento consistirá em ir aumentando progressivamente a potência da circulação dos prótons, até chegar ao momento mais esperado e temido por alguns: as primeiras colisões de partículas a velocidade próxima à da luz, cujos primeiros cálculos apontam para que possa ocorrer dois meses após seu religamento.

Nesse momento, serão recriados os instantes posteriores ao Big Bang, o que dará informações chaves sobre a formação do universo e confirmará, ou não, a teoria da física baseada no Bóson de Higgs.

Características



Durante a construção do LHC no túnel do que foi o LEP.Instalado no túnel do anterior LEP (ver foto à direita), e depois de ter sido completamente esvaziado antes de ser preparado como LHC, tem forma circular e um perímetro de 27 quilômetros. Ao contrário dos demais aceleradores de partículas, a colisão será entre prótons (português brasileiro) ou protões (português europeu), e não entre pósitrons e elétrons (como no LEP), entre prótons e antiprótons (como no Tevatron) ou entre elétrons (português brasileiro) ou electrões (português europeu) e prótons (como no HERA). O LHC irá acelerar os feixes de prótons até atingirem 7 TeV (assim, a energia total de colisão entre dois prótons será de 14 TeV) e depois fá-los-á colidir em quatro pontos distintos. A luminosidade nominal instantânea é 1034 cm−2s−1, a que corresponde uma luminosidade integrada igual a 100 fb−1 por ano. Com esta energia e luminosidade espera-se observar o bóson de Higgs e assim confirmar o modelo padrão das partículas elementares.

Sua construção e entrada em funcionamento foram alvo de um filme da BBC sobre um possível fim do mundo, e têm gerado uma enorme polêmica na Europa.

Constituição
Instalando o CMS (compact muon solenoid) "Solenóide de Múon Compacto".Possui um túnel a 100 metros ao menos debaixo da terra na fronteira da França com a Suíça, onde os prótons serão acelerados no anel de colisão que tem cerca de 8,6 km de diâmetro.

Amplificadores serão usados para fornecer ondas de rádio que são projetadas dentro de estruturas repercussivas conhecidas como cavidades de frequência de rádio. Exatamente 1232 ímãs bipolares supercondutores de 35 toneladas e quinze metros de comprimento agirão sobre as transferências de energias dentro do LHC.

Os detectores de partículas ATLAS, ALICE, CMS e LHCb, que monitoram os resultados das colisões, possuem mais ou menos o tamanho de prédios de cinco andares (entre 10 e 25 metros de altura) e 12 500 toneladas. O LHC custou cerca de três bilhões de euros ao contribuinte europeu.

Objetivos
Um evento simulado no detector de CMS, com o aparecimento do Bóson de Higgs.Um dos principais objetivos do LHC é tentar explicar a origem da massa das partículas elementares e encontrar outras dimensões do espaço, entre outras coisas. Uma dessas experiências envolve a partícula bóson de Higgs. Caso a teoria dos campos de Higgs estiver correta, ela será descoberta pelo LHC. Procura-se também a existência da supersimetria. Experiências que investigam a massa e a fraqueza da gravidade serão um equipamento toroidal do LHC e do Solenoide de Múon Compacto (CMS). Elas irão envolver aproximadamente 2 mil físicos de 35 países e dois laboratórios autónomos — o JINR (Joint Institute for Nuclear Research) e o CERN.

Críticas e riscos

Alguns cientistas acreditam que este equipamento pode provocar uma catástrofe de dimensões cósmicas, como um buraco negro que acabaria por destruir a Terra[carece de fontes?]. Para tanto, corre um processo num tribunal do Havaí[carece de fontes?] tentando impedir a experiência, até que haja uma total comprovação de que não haja riscos. Outros acusam o CERN de não ter realizado os estudos de impacto ambiental necessários[carece de fontes?]. No entanto, apesar das alegações de uma suposta criação de um buraco negro, o que de fato poderia ocorrer seria a formação de strange quarks, possibilitando uma reação em cadeia e gerando a matéria estranha; esta possui a característica de converter a matéria ordinária em matéria estranha, logo gerando uma reação em cadeia na qual todo o planeta seria transformado em uma espécie de matéria estranha[carece de fontes?].

Apesar das alegações "catastróficas", físicos teóricos de notável reputação como Stephen Hawking e Lisa Randall afirmam que tais teorias são absurdas, e que as experiências foram meticulosamente estudadas e revisadas e estão sob controle[carece de fontes?].

Entretanto, se um buraco negro fosse produzido dentro do LHC, ele teria um tamanho milhões de vezes menor que um grão de areia, e não viveria mais de 10−27 segundos (ou 0,0000000000000000000000000001 segundo), pois por ser um buraco negro, emitiria radiação e se extinguiria.

Mas, supondo que mesmo assim ele continuasse estável, continuaria sendo inofensivo. Esse buraco negro teria sido criado à velocidade da luz (300 mil km por segundo) e continuaria a passear neste ritmo se não desaparecesse. Em menos de 1 segundo ele atravessaria as paredes do LHC e se afastaria em direção ao espaço. A única maneira de ele permanecer na Terra é se sua velocidade for diminuída a 15 km por segundo. E, supondo que isto ocorresse, ele iria para o centro da Terra, devido à gravidade, mas continuaria não sendo ameaçador. Para representar perigo, seria preciso que ele adquirisse massa, mas com o tamanho de um próton, ele passaria pela Terra sem colidir com outra partícula (não parece, mas o mundo ultramicroscópico é quase todo formado por vazio), e ele só encontraria um próton para somar à sua massa a cada 30 minutos a 200 horas. Para chegar a ter 1 miligrama, seria preciso mais tempo do que a idade atual do universo.

O cientista do MIT, Ph.D em Astrofísica pela Universidade de Bolonha, o brasileiro Gabriel Moraes Ernst, considera a teoria concernente com as principais vertentes de análise, ao considerar a aplicabilidade da transferência de pósitrons com base na massa do buraco negro gerador.



Recordes
O grande acelerador de partículas acelerou em 1 de novembro de 2009 partículas a uma velocidade nunca antes alcançada.

O LHC tornou-se o acelerador de partículas mais poderoso do mundo, ao impelir os seus dois feixes de protões a uma energia de 1,18 Tera electrão-volt (TeV).

O recorde era detido por um dos concorrentes do CERN, o Fermilab de Chicago, que conseguiu acelerar partículas a uma velocidade de 0,98 T em 2001.[9]

Em 30 de março de 2002 conseguiu-se pela primeira vez a colisão de feixes de prótons a 2 tera-elétron volts com sucesso (5,9 em cada feixe).



E datas
A ideia do Grande Colisionador de Hadrões (LHC) surgiu no princípio dos anos 80 do século XX quando o LEP Grande Colisor de Elétrons e Pósitrons, o precedente grande acelerador de CERN, ainda estava em … construção, mas os cientistas já tinham começado a pensar no 'após LEP' reutilizando o seu túnel de 27 km para aí instalar uma máquina muito mais potente.

Fazer desse projecto científico ambicioso uma realidade, veio a tornar-se uma tarefa altamente complexa. Construção civil, tecnologia na ponta do progresso, novas abordagens de armazenamento de dados informáticos e análise de dados; um grande número de pessoas trabalharam arduamente durante anos para conseguir tais resultados.

1984 : um simpósio em Lausana na Suíça marca o início oficial do projecto LHC
1989 : aparecem os primeiros embriões de colaboração
1992 : uma reunião em Évian-les-Bains, na França, marca o início das experiências LHC
1994 : o Conselho do CERN aprova a construção do LHC
1995 : é publicado o estudo da concepção técnica do LHC
2000 : chega o primeiros dos 1 232 ímanes dipolares principais, de série
2005 : realiza-se a primeira interconexão entre dois ímanes. Para realizar as 1700 interconeções do LHC, serão necessárias 123 000 operações
2006 : começo da construção do Centro de Controlo do CERN (CCC) que reúne todos as antigas salas de controlo dos aceleradores, da criogenia e da infra-extructuras.
termina a construção do maior 'refrigerador' do mundo com 27 km de linhas criogénicas para o transporte do hélio gasoso ou líquido para arrefecer os ímanes supracondutores.
termina a fabricação dos ímanes do LHC com a entrega do último dos 1 232 ímanes dipolares de 15 m de comprimento que serão utilizados para guiar os feixes assim como os 392 quadripolos de 5 ou 7 m de comprimento.
2008 : os 27 km do LHC são refrigerados a -2710C, logo a dois graus acima do zero absoluto.
as partículas circulam pela primeira vez no LHC.
dois pacotes de partículas aceleradas na cadeia de dos aceleradores do CERN são enviados nos dois sentidos de circulação do LHC - em sentidos contrários.
2009 : depois de reparado o incidente de Setembro 2008, o LHC arranca novamente e é observada a primeira colisão a 1.18 TeV em Novembro
2010 : é atingida a energia de 3.5 Tev e nesse mesmo mês de Março é assinalada a primeira colisão, a uma energia total de 7 Tev!
Referência CERN- Bulletin.
fonte: http://pt.wikipedia.org/wiki/Grande_Colisor_de_H%C3%A1drons

segunda-feira, 23 de maio de 2011

Richard Feynman


Richard Philips Feynman (Nova Iorque, 11 de maio de 1918 — Los Angeles, 15 de fevereiro de 1988) foi um renomado físico estadunidense do século XX, um dos pioneiros da eletrodinâmica quântica.

Biografia
Nasceu em Nova York e cresceu em Far Rockaway. Desde criança demonstrava facilidade com ciências e matemática. Cursou física no Instituto de Tecnologia de Massachusetts onde, graças a John Slater, Julius Stratton e Philip Morse, além de outros professores, era devidamente conceituado.

Na graduação, em colaboração com Vallarta, publicou um artigo sobre os raios cósmicos. Outro artigo foi publicado no mesmo ano, creditado somente a Feynman, versando sobre forças moleculares.

Adicionalmente a seus trabalhos sobre física teórica, Feynman foi pioneiro na área de computação quântica, introduzindo o conceito de nanotecnologia, no encontro anual da Sociedade Americana de Física, em 29 de dezembro de 1959, em sua palestra sobre o controle e manipulação da matéria em escala atômica. Defendeu a hipótese de que não existe qualquer obstáculo teórico à construção de pequenos dispositivos compostos por elementos muito pequenos, no limite atômico, nem mesmo o princípio da incerteza.

Pós graduado em Princeton, sede do Instituto de Estudos Avançados, do qual participou Albert Einstein. Lá, fica sob a supervisão de Wheeler, com o qual cria uma teoria de eletrodinâmica clássica equivalente às equações de Maxwell. No seu trabalho, desenvolve a eletrodinâmica quântica, onde utiliza o método das integrais de caminho. Participa também do projeto Manhattan.

Torna-se professor da Universidade de Cornell e em seguida do Caltech (Califórnia, USA) onde atuou como professor por 35 anos e ministrou 34 cursos, sendo 25 deles cursos de pós graduação avançados, os demais cursos eram, basicamente, introdutórios de pós graduação, salvo o curso de iniciação à física ministrado para alunos dos 1° e 2° anos durante os anos de 1961-1962 e 1962-1963, cursos que originaram uma de suas mais conceituadas obras, o Feynman Lectures on Physics publicado, originalmente, em 1963. Dois anos depois, em 1965, Feynman recebeu o Nobel de Física por seu trabalho na eletrodinâmica quântica. Concebeu, ainda, a idéia da computação quântica, e chefiou a comissão que estudou o acidente do ônibus espacial Challenger em 1986.

Contribuições à Física
A maior contribuição de Feynman à Física foi o desenvolvimento da eletrodinâmica quântica, a qual foi desenvolvida paralelamente por Julian Schwinger e Sin-Itiro Tomonaga. Nela, utiliza o método das integrais de caminho.

Na década de 1950, Feynman trabalha na teoria das interações fracas, e nos anos 1960, ele trabalhou na teoria das interações fortes.

Também trabalhou na superfluidez do hélio líquido.

Experiência no Brasil
No começo da década de 50, Feynman se interessa pela América do Sul e acaba indo lecionar como convidado de Jayme Tiomno no Centro Brasileiro de Pesquisas Físicas no Rio. Entre 1951 e 1952, Feynman passa vários meses no Brasil e sua estada é relatada no capítulo "O americano, outra vez!" do seu Livro “O senhor está brincando, Sr. Feynman!”. Entre outros assuntos ele descreve sua divertida experiência com o povo brasileiro, com a língua portuguesa e com a música (percussão e samba). No final do capítulo ele se utiliza da experiência que teve com seus alunos e suas falhas durante o aprendizado para fazer uma crítica ao método de aprendizado por meio da memorização mecânica em vez de usar o raciocínio.

fonte: http://pt.wikipedia.org/wiki/Richard_Feynman

Ensino da Física no Brasil segundo Richard Feynman


Em relação à educação no Brasil, tive uma experiência muito interessante. Eu estava dando aulas para um grupo de estudantes que se tornariam professores, uma vez que àquela época não havia muitas oportunidades no Brasil para pessoal qualificado em ciências. Esses estudantes já tinham feito muitos cursos, e esse deveria ser o curso mais avançado em eletricidade e magnetismo – equações de Maxwell, e assim por diante.

Descobri um fenômeno muito estranho: eu podia fazer uma pergunta e os alunos respondiam imediatamente. Mas quando eu fizesse a pergunta de novo – o mesmo assunto e a mesma pergunta, até onde eu conseguia –, eles simplesmente não conseguiam responder! Por exemplo, uma vez eu estava falando sobre luz polarizada e dei a eles alguns filmes polaróide.

O polaróide só passa luz cujo vetor elétrico esteja em uma determinada direção; então expliquei como se pode dizer em qual direção a luz está polarizada, baseando-se em se o polaróide é escuro ou claro.

Primeiro pegamos duas filas de polaróide e giramos até que elas deixassem passar a maior parte da luz. A partir disso, podíamos dizer que as duas fitas estavam admitindo a luz polarizada na mesma direção – o que passou por um pedaço de polaróide também poderia passar pelo outro. Mas, então, perguntei como se poderia dizer a direção absoluta da polarização a partir de um único polaróide.

Eles não faziam a menor idéia.

Eu sabia que havia um pouco de ingenuidade; então dei uma pista: “Olhe a luz refletida da baía lá fora”.

Ninguém disse nada.

Então eu disse: “Vocês já ouviram falar do Ângulo de Brewster?”

– Sim, senhor! O Ângulo de Brewster é o ângulo no qual a luz refletida de um meio com um índice de refração é completamente polarizada.

– E em que direção a luz é polarizada quando é refletida?

– A luz é polarizada perpendicular ao plano de reflexão, senhor. Mesmo hoje em dia, eu tenho de pensar; eles sabiam fácil! Eles sabiam até a tangente do ângulo igual ao índice!
Eu disse: “Bem?”

Nada ainda. Eles tinham simplesmente me dito que a luz refletida de um meio com um índice, tal como a baía lá fora, era polarizada: eles tinham me dito até em qual direção ela estava polarizada.

Eu disse: “Olhem a baía lá fora, pelo polaróide. Agora virem o polaróide”.

– “Ah! Está polarizada”!, eles disseram.

Depois de muita investigação, finalmente descobri que os estudantes tinham decorado tudo, mas não sabiam o que queria dizer. Quando eles ouviram “luz que é refletida de um meio com um índice”, eles não sabiam que isso significava um material como a água. Eles não sabiam que a “direção da luz” é a direção na qual você vê alguma coisa quando está olhando, e assim por diante. Tudo estava totalmente decorado, mas nada havia sido traduzido em palavras que fizessem sentido. Assim, se eu perguntasse: “O que é o Ângulo de Brewster?”, eu estava entrando no computador com a senha correta. Mas se eu digo: “Observe a água”, nada acontece – eles não têm nada sob o comando “Observe a água”.

Depois participei de uma palestra na faculdade de engenharia. A palestra foi assim: “Dois corpos… são considerados equivalentes… se torques iguais… produzirem… aceleração igual. Dois corpos são considerados equivalentes se torques iguais produzirem aceleração igual”. Os estudantes estavam todos sentados lá fazendo anotações e, quando o professor repetia a frase, checavam para ter certeza de que haviam anotado certo. Então eles anotavam a próxima frase, e a outra, e a outra. Eu era o único que sabia que o professor estava falando sobre objetos com o mesmo momento de inércia e era difícil descobrir isso.

Eu não conseguia ver como eles aprenderiam qualquer coisa daquilo. Ele estava falando sobre momentos de inércia, mas não se discutia quão difícil é empurrar uma porta para abrir quando se coloca muito peso do lado de fora, em comparação quando você coloca perto da dobradiça – nada!

Depois da palestra, falei com um estudante: “Vocês fizeram uma porção de anotações – o que vão fazer com elas?”

– Ah, nós as estudamos, ele diz. Nós teremos uma prova.

– E como vai ser a prova?

– Muito fácil. Eu posso dizer agora uma das questões. Ele olha em seu caderno e diz: “Quando dois corpos são equivalentes?” E a resposta é: “Dois corpos são considerados equivalentes se torques iguais produzirem aceleração igual”. Então, você vê, eles podiam passar nas provas, “aprender” essa coisa toda e não saber nada, exceto o que eles tinham decorado.

Então fui a um exame de admissão para a faculdade de engenharia. Era uma prova oral e eu tinha permissão para ouvi-la. Um dos estudantes foi absolutamente fantástico: ele respondeu tudo certinho! Os examinadores perguntaram a ele o que era diamagnetismo e ele respondeu perfeitamente. Depois eles perguntaram: “Quando a luz chega a um ângulo através de uma lâmina de material com uma determinada espessura, e um certo índice N, o que acontece com a luz?

– Ela aparece paralela a si própria, senhor – deslocada.

– E em quanto ela é deslocada?

– Eu não sei, senhor, mas posso calcular. Então, ele calculou. Ele era muito bom. Mas, a essa época, eu tinha minhas suspeitas.

Depois da prova, fui até esse brilhante jovem e expliquei que eu era dos Estados Unidos e que eu queria fazer algumas perguntas a ele que não afetariam, de forma alguma, os resultados da prova. A primeira pergunta que fiz foi: “Você pode me dar algum exemplo de uma substância diamagnética?”

– Não.

Aí eu perguntei: “Se esse livro fosse feito de vidro e eu estivesse olhando através dele alguma coisa sobre a mesa, o que aconteceria com a imagem se eu inclinasse o copo?”

– Ela seria defletida, senhor, em duas vezes o ângulo que o senhor tivesse virado o livro.

Eu disse: “Você não fez confusão com um espelho, fez?”

– Não senhor!

Ele havia acabado de me dizer na prova que a luz seria deslocada, paralela a si própria e, portanto, a imagem se moveria para um lado, mas não seria alterada por ângulo algum. Ele havia até mesmo calculado em quanto ela seria deslocada, mas não percebeu que um pedaço de vidro é um material com um índice e que o cálculo dele se aplicava à minha pergunta.

Dei um curso na faculdade de engenharia sobre métodos matemáticos na física, no qual tentei demonstrar como resolver os problemas por tentativa e erro. É algo que as pessoas geralmente não aprendem; então comecei com alguns exemplos simples para ilustrar o método. Fiquei surpreso porque apenas cerca de um entre cada dez alunos fez a tarefa. Então fiz uma grande preleção sobre realmente ter de tentar e não só ficar sentado me vendo fazer.

Depois da preleção, alguns estudantes formaram uma pequena delegação e vieram até mim, dizendo que eu não havia entendido os antecedentes deles, que eles podiam estudar sem resolver os problemas, que eles já haviam aprendido aritmética e que essa coisa toda estava abaixo do nível deles.

Então continuei a aula e, independente de quão complexo ou obviamente avançado o trabalho estivesse se tornando, eles nunca punham a mão na massa. É claro que eu já havia notado o que acontecia: eles não conseguiam fazer!

Uma outra coisa que nunca consegui que eles fizessem foi perguntas. Por fim, um estudante explicou-me: “Se eu fizer uma pergunta para o senhor durante a palestra, depois todo mundo vai ficar me dizendo: “Por que você está fazendo a gente perder tempo na aula? Nós estamos tentando aprender alguma coisa, e você o está interrompendo, fazendo perguntas”.

Era como um processo de tirar vantagens, no qual ninguém sabe o que está acontecendo e colocam os outros para baixo como se eles realmente soubessem. Eles todos fingem que sabem, e se um estudante faz uma pergunta, admitindo por um momento que as coisas estão confusas, os outros adotam uma atitude de superioridade, agindo como se nada fosse confuso, dizendo àquele estudante que ele está desperdiçando o tempo dos outros.

Expliquei a utilidade de se trabalhar em grupo, para discutir as dúvidas, analisá-las, mas eles também não faziam isso porque estariam deixando cair a máscara se tivessem de perguntar alguma coisa a outra pessoa. Era uma pena! Eles, pessoas inteligentes, faziam todo o trabalho, mas adotaram essa estranha forma de pensar, essa forma esquisita de autopropagar a “educação”, que é inútil, definitivamente inútil!

Uma palestra para as autoridades brasileiras

Ao final do ano acadêmico, os estudantes pediram-me para dar uma palestra sobre minhas experiências com o ensino no Brasil. Na palestra, haveria não só estudantes, mas também professores e oficiais do governo. Assim, prometi que diria o que quisesse. Eles disseram: “É claro. Esse é um país livre”.

Aí eu entrei, levando os livros de física elementar que eles usaram no primeiro ano de faculdade. Eles achavam esses livros bastante bons porque tinham diferentes tipos de letra – negrito para as coisas mais importantes para se decorar, mais claro para as coisas menos importantes, e assim por diante.

Imediatamente, alguém disse: “Você não vai falar sobre o livro, vai? O homem que o escreveu está aqui, e todo mundo acha que esse é um bom livro”.

– Você me prometeu que eu poderia dizer o que quisesse. O auditório estava cheio. Comecei definindo ciência como um entendimento do comportamento da natureza. Então, perguntei: “Qual um bom motivo para lecionar ciência? É claro que país algum pode considerar-se civilizado a menos que… pá, pá, pá”. Eles estavam todos concordando, porque eu sei que é assim que eles pensam.

Aí eu disse: “Isso, é claro, é absurdo, porque qual o motivo pelo qual temos de nos sentir em pé de igualdade com outro país? Nós temos de fazer as coisas por um bom motivo, uma razão sensata; não apenas porque os outros países fazem”. Depois, falei sobre a utilidade da ciência e sua contribuição para a melhoria da condição humana, e toda essa coisa – eu realmente os provoquei um pouco.
Daí eu disse: “O principal propósito da minha apresentação é provar aos senhores que não se está ensinando ciência alguma no Brasil!”

Eu os vejo se agitar, pensando: “O quê? Nenhuma ciência? Isso é loucura! Nós temos todas essas aulas”.

Então eu digo que uma das primeiras coisas a me chocar quando cheguei ao Brasil foi ver garotos da escola elementar em livrarias, comprando livros de física. Havia tantas crianças aprendendo física no Brasil, começando muito mais cedo do que as crianças nos Estados Unidos, que era estranho que não houvesse muitos físicos no Brasil – por que isso acontece? Há tantas crianças dando duro e não há resultado.

Então eu fiz a analogia com um erudito grego que ama a língua grega, que sabe que em seu país não há muitas crianças estudando grego. Mas ele vem a outro país, onde fica feliz em ver todo mundo estudando grego – mesmo as menores crianças nas escolas elementares. Ele vai ao exame de um estudante que está se formando em grego e pergunta a ele: “Quais as idéias de Sócrates sobre a relação entre a Verdade e a Beleza?” – e o estudante não consegue responder. Então ele pergunta ao estudante: “O que Sócrates disse a Platão no Terceiro Simpósio?” O estudante fica feliz e prossegue: “Disse isso, aquilo, aquilo outro” – ele conta tudo o que Sócrates disse, palavra por palavra, em um grego muito bom.

Mas, no Terceiro Simpósio, Sócrates estava falando exatamente sobre a relação entre a Verdade e a Beleza!

O que esse erudito grego descobre é que os estudantes em outro país aprendem grego aprendendo primeiro a pronunciar as letras, depois as palavras e então as sentenças e os parágrafos. Eles podem recitar, palavra por palavra, o que Sócrates disse, sem perceber que aquelas palavras gregas realmente significam algo. Para o estudante, elas não passam de sons artificiais. Ninguém jamais as traduziu em palavras que os estudantes possam entender.

Eu disse: “É assim que me parece quando vejo os senhores ensinarem ‘ciência’ para as crianças aqui no Brasil” (Uma pancada, certo?)

Então eu ergui o livro de física elementar que eles estavam usando. “Não são mencionados resultados experimentais em lugar algum desse livro, exceto em um lugar onde há uma bola, descendo um plano inclinado, onde ele diz a distância que a bola percorreu em um segundo, dois segundos, três segundos, e assim por diante. Os números têm Erros – ou seja, se você olhar, você pensa que está vendo resultados experimentais, porque os números estão um pouco acima ou um pouco abaixo dos valores teóricos. O livro fala até sobre ter de corrigir os erros experimentais – muito bem. No entanto, uma bola descendo em um plano inclinado, se realmente for feito isso, tem uma inércia para entrar em rotação e, se você fizer a experiência, produzirá cinco sétimos da resposta correta, por causa da energia extra necessária para a rotação da bola. Dessa forma, o único exemplo de ‘resultados’ experimentais é obtido de uma experiência falsa. Ninguém jogou tal bola, ou jamais teriam obtido tais resultados!”

“Descobri mais uma coisa”, eu continuei. “Ao folhear o livro aleatoriamente e ler uma sentença de uma página, posso mostrar qual é o problema – como não há ciência, mas memorização, em todos os casos. Então, tenho coragem o bastante para folhear as páginas agora em frente a este público, colocar meu dedo em uma página, ler e provar para os senhores.”

Eu fiz isso. Brrrrrrrup – coloquei meu dedo e comecei a ler: “Triboluminescência. Triboluminescência é a luz emitida quando os cristais são friccionados…”

Eu disse: “E aí, você teve alguma ciência? Não! Apenas disseram o que uma palavra significa em termos de outras palavras. Não foi dito nada sobre a natureza – quais cristais produzem luz quando você os fricciona, por que eles produzem luz? Alguém viu algum estudante ir para casa e experimentar isso? Ele não pode”.

“Mas, se em vez disso, estivesse escrito: ‘Quando você pega um torrão de açúcar e o fricciona com um par de alicates no escuro, pode-se ver um clarão azulado. Alguns outros cristais também fazem isso. Ninguém sabe o motivo. O fenômeno é chamado triboluminescência’. Aí alguém vai para casa e tenta. Nesse caso, há uma experiência da natureza.” Usei aquele exemplo para mostrar a eles, mas não faria qualquer diferença onde eu pusesse meu dedo no livro; era assim em quase toda parte.

Por fim, eu disse que não conseguia entender como alguém podia ser educado neste sistema de autopropagação, no qual as pessoas passam nas provas e ensinam os outros a passar nas provas, mas ninguém sabe nada. “No entanto”, eu disse, “devo estar errado. Há dois estudantes na minha sala que se deram muito bem, e um dos físicos que eu sei que teve sua educação toda no Brasil. Assim, deve ser possível para algumas pessoas achar seu caminho no sistema, ruim como ele é.”

Bem, depois de eu dar minha palestra, o chefe do departamento de educação em ciências levantou e disse: “O Sr. Feynman nos falou algumas coisas que são difíceis de se ouvir, mas parece que ele realmente ama a ciência e foi sincero em suas críticas. Assim sendo, acho que devemos prestar atenção a ele. Eu vim aqui sabendo que temos algumas fraquezas em nosso sistema de educação; o que aprendi é que temos um câncer!” – e sentou-se.

Isso deu liberdade a outras pessoas para falar, e houve uma grande agitação. Todo mundo estava se levantando e fazendo sugestões. Os estudantes reuniram um comitê para mimeografar as palestras, antecipadamente, e organizaram outros comitês para fazer isso e aquilo.

Então aconteceu algo que eu não esperava de forma alguma. Um dos estudantes levantou-se e disse: “Eu sou um dos dois estudantes aos quais o Sr. Feynman se referiu ao fim de seu discurso. Eu não estudei no Brasil; eu estudei na Alemanha e acabo de chegar ao Brasil”.

O outro estudante que havia se saído bem em sala de aula tinha algo semelhante a dizer. O Professor que eu havia mencionado levantouse e disse: “Estudei aqui no Brasil durante a guerra quando, felizmente, todos os professores haviam abandonado a universidade: então aprendi tudo lendo sozinho. Dessa forma, na verdade, não estudei no sistema brasileiro”.

Eu não esperava aquilo. Eu sabia que o sistema era ruim, mas 100 por cento – era terrível!

Uma vez que eu havia ido ao Brasil por um programa patrocinado pelo Governo dos Estados Unidos, o Departamento de Estado pediu me que escrevesse um relatório sobre minhas experiências no Brasil, e escrevi os principais pontos do discurso que eu havia acabado de fazer. Mais tarde descobri, por vias secretas, que a reação de alguém no Departamento de Estado foi: “Isso prova como é perigoso mandar alguém tão ingênuo para o Brasil. Pobre rapaz; ele só pode causar problemas. Ele não entendeu os problemas”. Bem pelo contrário! Acho que essa pessoa no Departamento de Estado era ingênua em pensar que, porque viu uma universidade com uma lista de cursos e descrições, era assim que era.

[Fonte: O Senhor está Brincando, Sr. Feynman? – Richard P. Feynman. Blog Ciência - a vela no escuro]