Em formação

Que variáveis ​​permitem quantificar empírica e cientificamente as tendências das curvas de aprendizagem?

Que variáveis ​​permitem quantificar empírica e cientificamente as tendências das curvas de aprendizagem?

Especificamente, estou tentando quantificar as tendências na aprendizagem de certos meios de comunicação audiovisual, e o que reuni até agora sugere que existem 4 tipos distintos, sendo linear, logarítmico (ou possivelmente assintótico), exponencial e ogiva. Como posso ir das observações qualitativas das pessoas para uma função matemática real para mostrar esses padrões para um meio específico? Será que alguém mede ... a taxa de sucesso ao longo do tempo e é isso? Ou o que?


Resposta curta
Em testes psicofísicos, geralmente são determinadas as taxas de% de acertos. Conseqüentemente, os efeitos do treinamento são frequentemente medidos pela determinação das taxas corretas. As medidas de resultado final podem ser extremamente variáveis, pois dependem das características físicas do estímulo (visual, auditivo, tátil, gustativo etc).

Fundo
As curvas de aprendizagem podem ser medidas medindo o desempenho em uma determinada tarefa.

Pelo que entendi da sua pergunta, você é:

... tentando quantificar as tendências de aprendizagem para certos meios de comunicação audiovisual ...

e você está procurando

Que medida ... a taxa de sucesso ao longo do tempo e é isso? Ou o que?

Tomando um ponto de vista pessoal aqui, tenho medido os efeitos de aprendizagem usando vários métodos auditivos, táteis e visuais psicofísico testes (embora não uma combinação deles como um teste audiovisual como você está planejando). Apresentarei alguns testes que fiz até agora para examinar os efeitos do treinamento e algumas informações básicas sobre psicofísica. Por favor, siga os links se você deseja aprender mais sobre assuntos específicos. Eu medi o seguinte, entre outros:

  • Compreensão da fala medindo o limiar de reconhecimento de fala (SRT) no ruído usando o teste Dutch Matrix (Houben & Dreschler, 2015). O SRT basicamente mostra a relação sinal-ruído em que a compreensão da fala está 50% correta. Em outras palavras, mostra quanto ruído um ouvinte pode suportar para ainda entender 50% das palavras nas frases ouvidas. Eu realizei este teste por 12 vezes em quatro sessões e dentro de assim como entre as sessões efeitos de aprendizagem foram observados, e também efeitos de treinamento dentro da corrida (observações não publicadas);
  • Vibro-tátil limiar de detecção. Basicamente, pedimos ao sujeito para responder em um sim / não tarefa se eles sentiram um estímulo e a medida de resultado foi que nível de estímulo onde a taxa correta foi de 50%. Não houve efeito de aprendizagem observado dentro e entre as sessões. Um efeito de treinamento dentro da corrida foi observado, o que pode ter sido devido a efeitos de treinamento processual (observações não publicadas);
  • Acuidade espacial tátil usando (Discriminação de 2 pontos); aqui uma pessoa foi solicitada a responder se um ou dois estímulos foram sentidos e, em seguida, novamente, um taxa de porcentagem correta (aqui: 62,5%) a pontuação foi determinada, em última análise, expressa como aquela distância onde a taxa correta foi de 62,5%. Nenhum efeito de treinamento além do aprendizado processual foi observado (Stronks et al, 2017);
  • Um vibrotátil tarefa de diferença de intensidade (JND), onde o sujeito era solicitado a indicar se conseguia sentir a diferença de intensidade de dois estímulos. Mais uma vez, as taxas corretas foram medidas e expressas como aquela intensidade em que a% de pontuações corretas igualou um certo limite (Stronks et al, 2017).
  • Acuidade visual foi medido com um tarefa de grade - novamente o percentual correto é medido, mas aí o resultado é a acuidade visual, ou seja, um ângulo de resolução onde a porcentagem correta excede um certo limite. Houve aprendizagem processual observada (observações não publicadas).

Observe que a maioria das tarefas acima foram tarefas de escolha forçada alternativa (AFC), onde o limite (% correto) depende do número de opções.

Referências
- Houben & Dreschler, Tendências Ouvir (2015); 11(19): 1-10
- Stronks et al, Órgãos Artif (2017); na imprensa


A diferença entre estatísticas descritivas e inferenciais

O campo da estatística é dividido em duas grandes divisões: descritiva e inferencial. Cada um desses segmentos é importante, oferecendo técnicas diferentes que atingem objetivos diferentes. As estatísticas descritivas descrevem o que está acontecendo em uma população ou conjunto de dados. As estatísticas inferenciais, por outro lado, permitem que os cientistas tirem conclusões de um grupo de amostra e as generalizem para uma população maior. Os dois tipos de estatísticas têm algumas diferenças importantes.


Faça uma pergunta

A primeira etapa do método científico é fazer uma pergunta, descrever um problema e identificar a área específica de interesse. O tópico deve ser estreito o suficiente para estudar dentro de uma geografia e período de tempo. “As sociedades são capazes de felicidade sustentada?” seria muito vago. A questão também deve ser ampla o suficiente para ter mérito universal. “O que os hábitos de higiene pessoal revelam sobre os valores dos alunos da XYZ High School?” seria muito estreito. Dito isso, felicidade e higiene são tópicos que valem a pena estudar. Os sociólogos não descartam nenhum tópico, mas se esforçam para enquadrar essas questões em melhores termos de pesquisa.

É por isso que os sociólogos têm o cuidado de definir seus termos. Em um estudo de higiene, por exemplo, higiene pode ser definida como "hábitos pessoais para manter a aparência física (em oposição à saúde)", e um pesquisador pode perguntar: "Como os diferentes hábitos de higiene pessoal refletem o valor cultural atribuído à aparência?" Ao formar essas questões básicas de pesquisa, os sociólogos desenvolvem uma definição operacional, isto é, eles definem o conceito em termos dos passos físicos ou concretos que dá para medi-lo objetivamente. A definição operacional identifica uma condição observável do conceito. Ao operacionalizar uma variável do conceito, todos os pesquisadores podem coletar dados de forma sistemática ou replicável.

A definição operacional deve ser válida, apropriada e significativa. E deve ser confiável, o que significa que os resultados serão quase uniformes quando testados em mais de uma pessoa. Por exemplo, "bons motoristas" podem ser definidos de várias maneiras: aqueles que usam seus indicadores de direção, aqueles que não aceleram ou aqueles que gentilmente permitem que outros se fundam. Mas esses comportamentos de direção podem ser interpretados de forma diferente por diferentes pesquisadores e podem ser difíceis de medir. Alternativamente, “um motorista que nunca recebeu uma infração de trânsito” é uma descrição específica que levará os pesquisadores a obter as mesmas informações, portanto, é uma definição operacional eficaz.


Correlação positiva e negativa

A correlação entre as variáveis ​​pode ser positiva ou negativa. A correlação positiva implica que um aumento de uma quantidade causa um aumento na outra, enquanto na correlação negativa, um aumento em uma variável causará uma diminuição na outra.

É importante entender a relação entre as variáveis ​​para tirar as conclusões corretas. Mesmo os melhores cientistas podem errar e há vários exemplos de como os estudos confundem correlação e causalidade.


Tipos de pesquisa descritiva

Algumas das formas mais comumente usadas de pesquisa descritiva utilizadas por psicólogos sociais incluem:

Pesquisas

As pesquisas são provavelmente um dos tipos de pesquisa descritiva mais usados. Essas pesquisas geralmente se baseiam em inventários de autorrelato, nos quais as pessoas preenchem questionários sobre seus próprios comportamentos ou opiniões.

A vantagem do método de pesquisa é que ele permite aos pesquisadores da psicologia social coletar uma grande quantidade de dados de forma relativamente rápida, fácil e econômica.

O Método Observacional

Isso envolve observar as pessoas e descrever seu comportamento. Às vezes referido como observação de campo, isso pode envolver a criação de um cenário em um laboratório e, em seguida, observar como as pessoas respondem ou realizar observação naturalística no próprio ambiente do sujeito.

Cada tipo de observação tem seus próprios pontos fortes e fracos. Os pesquisadores podem preferir usar métodos observacionais em um laboratório para obter maior controle sobre possíveis variáveis ​​estranhas, enquanto podem preferir usar a observação naturalística para obter maior validade ecológica. No entanto, as observações de laboratório tendem a ser mais caras e difíceis de implementar do que as observações naturalísticas.

Estudos de caso

Um estudo de caso envolve a observação aprofundada de um único indivíduo ou grupo. Os estudos de caso podem permitir aos pesquisadores obter informações sobre coisas que são muito raras ou mesmo impossíveis de reproduzir em ambientes experimentais.

O estudo de caso de Genie, uma jovem que foi terrivelmente abusada e privada de aprender a linguagem durante o período crítico, é um exemplo de como um estudo de caso pode permitir que cientistas sociais estudem fenômenos que de outra forma não poderiam reproduzir em um laboratório.


Navegue pelo esboço completo

Todo projeto experimental verdadeiro deve ter essa afirmação no centro de sua estrutura, como o objetivo final de qualquer experimento.

A hipótese é gerada por vários meios, mas geralmente é o resultado de um processo de raciocínio indutivo em que as observações levam à formação de uma teoria. Os cientistas então usam uma grande bateria de métodos dedutivos para chegar a uma hipótese que é testável, falseável e realista.

O precursor de uma hipótese é um problema de pesquisa, geralmente enquadrado como uma pergunta. Pode perguntar o que ou por que algo está acontecendo.

Por exemplo, podemos nos perguntar por que as unidades populacionais de bacalhau no Atlântico Norte estão diminuindo. A questão do problema pode ser "Por que o número de bacalhau no Atlântico Norte está diminuindo?"

Isso é uma afirmação muito ampla e não pode ser testada por nenhum meio científico razoável. É apenas uma questão provisória decorrente de revisões de literatura e intuição. Muitas pessoas pensariam que o instinto e a intuição não são científicos, mas muitos dos maiores saltos científicos foram resultado de "palpites".

A hipótese de pesquisa é uma redução do problema em algo testável e falsificável. No exemplo acima, um pesquisador pode especular que o declínio nos estoques de peixes é devido ao excesso de pesca prolongado. Os cientistas devem gerar uma hipótese realista e testável em torno da qual podem construir o experimento.

Isso pode ser uma pergunta, uma declaração ou uma declaração 'se / ou'. Alguns exemplos podem ser:

A sobrepesca afeta as unidades populacionais de bacalhau.

Se a pesca excessiva está causando um declínio no número de bacalhau, a redução da quantidade de arrastões aumentará os estoques de bacalhau.

Essas são afirmações aceitáveis ​​e todas dão ao pesquisador um foco para a construção de um experimento de pesquisa. O último exemplo formaliza as coisas e usa uma declaração 'If', medindo o efeito que a manipulação de uma variável tem sobre outra. Embora a outra seja perfeitamente aceitável, uma hipótese de pesquisa ideal deve conter uma previsão, razão pela qual as mais formais são favorecidas.

Um cientista que se fixa em provar uma hipótese de pesquisa perde sua imparcialidade e credibilidade. Os testes estatísticos muitas vezes revelam tendências, mas raramente fornecem uma resposta clara, com outros fatores afetando o resultado e influenciando os resultados.

Embora o instinto e a lógica nos digam que os estoques de peixes são afetados pela pesca excessiva, isso não é necessariamente verdade e o pesquisador deve considerar esse resultado. Talvez os fatores ambientais ou a poluição sejam efeitos causais que influenciam os estoques de peixes.

Uma hipótese deve ser testável, levando em consideração o conhecimento e as técnicas atuais, e ser realista. Se o pesquisador não tiver um orçamento multimilionário, não há sentido em gerar hipóteses complicadas. Uma hipótese deve ser verificável por meios estatísticos e analíticos, para permitir uma verificação ou falsificação.

Na verdade, uma hipótese nunca é provada, e é melhor prática usar os termos 'suportado' ou 'verificado'. Isso significa que a pesquisa mostrou que as evidências sustentavam a hipótese e outras pesquisas são construídas sobre isso.

  • Ser escrito em linguagem clara e concisa

  • Tem uma variável independente e uma dependente

  • Ser falseável - é possível provar ou refutar a afirmação?

  • Faça uma previsão ou especule sobre um resultado

  • Seja praticável - você pode medir as variáveis ​​em questão?

  • Faça uma hipótese sobre uma relação proposta entre duas variáveis, ou uma intervenção nesta relação

Uma hipótese de pesquisa, que resiste ao teste do tempo, eventualmente se torna uma teoria, como a Relatividade Geral de Einstein. Mesmo assim, como acontece com as Leis de Newton, eles ainda podem ser falsificados ou adaptados.

A hipótese de pesquisa é freqüentemente também chamada de H1 e se opõe à visão atual, chamada de hipótese nula (H0).

Considere as seguintes hipóteses. É provável que levem a pesquisas e conclusões sólidas e, se não, como podem ser melhoradas?

Adicionar mica a um composto plástico diminuirá sua viscosidade.

Aqueles que bebem uma xícara de chá verde diariamente experimentam um bem-estar aprimorado.

O olhar prolongado para os eclipses solares confere poderes extra-sensoriais.

Um declínio nos valores familiares está reduzindo a taxa de casamento.

Crianças com estilo de apego inseguro são mais propensas a se envolver em dissidência política quando adultas.

A África Subsaariana tem mais mortes devido à tuberculose porque a taxa de HIV é mais alta lá.

Esta é uma declaração de hipótese ideal. É bem formulado, claro, falsificável e, apenas por sua leitura, pode-se ter uma ideia do tipo de projeto de pesquisa que ele inspiraria.

Essa hipótese é menos clara e o problema é com a variável dependente. As xícaras de chá verde podem ser facilmente quantificadas, mas como os pesquisadores medirão o “bem-estar”? Uma hipótese melhor poderia ser: quem bebe uma xícara de chá verde diariamente apresenta níveis mais baixos de marcadores inflamatórios no sangue.

Embora essa hipótese pareça um pouco ridícula, na verdade é muito simples, falsificável e fácil de operacionalizar. O problema óbvio é que a pesquisa científica raramente se ocupa com fenômenos sobrenaturais e, pior, colocar essa pesquisa em ação provavelmente causará danos a seus participantes. Quando se trata de hipóteses, nem todas as perguntas precisam ser respondidas!

Desde que os pesquisadores tenham um método sólido para quantificar os “valores familiares”, essa hipótese não é tão ruim. No entanto, os cientistas devem estar sempre alertas para seus próprios possíveis preconceitos que se insinuam na pesquisa, e isso pode ocorrer desde o início. Tópicos normativos com elementos morais raramente são neutros. Uma hipótese melhor removerá quaisquer elementos subjetivos e contenciosos. Uma hipótese melhor: a diminuição da renda discricionária total corresponde a uma menor taxa de casamento em pessoas de 20 a 30 anos de idade.

Essa hipótese pode produzir resultados muito interessantes e úteis, mas, na prática, como os pesquisadores coletarão os dados? Mesmo que a pesquisa seja lógica, pode não ser viável no mundo real. Em vez disso, um pesquisador pode escolher fazer uma hipótese mais administrável: pontuações altas em um questionário de estilo de apego inseguro se correlacionarão com pontuações altas em um questionário de dissensão política.

Embora complexa, esta é uma boa hipótese. É falsificável, tem variáveis ​​claramente identificadas e pode ser apoiado ou rejeitado usando os métodos estatísticos corretos.


A mediana

A mediana é o valor no meio de uma distribuição de dados quando esses dados são organizados do menor para o maior valor. Esta medida de tendência central pode ser calculada para variáveis ​​que são medidas com escalas ordinais, de intervalo ou de razão.

Calcular a mediana também é bastante simples. Vamos supor que temos a seguinte lista de números: 5, 7, 10, 43, 2, 69, 31, 6, 22. Primeiro, devemos organizar os números em ordem do menor para o maior. O resultado é este: 2, 5, 6, 7, 10, 22, 31, 43, 69. A mediana é 10 porque é o número do meio exato. Existem quatro números abaixo de 10 e quatro números acima de 10.

Se sua distribuição de dados tem um número par de casos, o que significa que não há meio exato, você simplesmente ajusta ligeiramente o intervalo de dados para calcular a mediana. Por exemplo, se adicionarmos o número 87 ao final de nossa lista de números acima, teremos 10 números totais em nossa distribuição, portanto, não há um único número do meio. Nesse caso, calcula-se a média das pontuações dos dois números do meio. Em nossa nova lista, os dois números do meio são 10 e 22. Portanto, pegamos a média desses dois números: (10 + 22) / 2 = 16. Nossa mediana agora é 16.


Parte 1.2 Variação da temperatura ao longo do tempo

Objetivos de aprendizagem para esta parte

  • resumir dados em uma tabela de frequência e visualizar distribuições com gráficos de colunas
  • descrever uma distribuição usando média e variância.

Além das mudanças na temperatura média, o governo também teme que as mudanças climáticas resultem em eventos climáticos extremos mais frequentes. A ilha experimentou algumas grandes tempestades e fortes ondas de calor no passado, que causaram sérios danos e perturbações à atividade econômica.

O tempo se tornará mais extremo e variará mais como resultado das mudanças climáticas? UMA New York Times O artigo usa o mesmo conjunto de dados de temperatura que você tem usado para investigar a distribuição de temperaturas e a variabilidade da temperatura ao longo do tempo. Leia o artigo na íntegra, prestando atenção nas descrições das distribuições de temperatura.

Podemos usar a média e a mediana para descrever as distribuições e podemos usar os decis para descrever partes das distribuições. Para visualizar as distribuições, podemos usar gráficos de colunas no Planilhas Google. (Para praticar o uso desses conceitos e criar gráficos de colunas no Planilhas Google, consulte a Seção 1.3 do Economia, sociedade e políticas públicas) Agora vamos criar gráficos semelhantes de distribuições de temperatura para os New York Times artigo e veja as diferentes maneiras de resumir as distribuições.

tabela de frequência Um registro de quantas observações em um conjunto de dados têm um determinado valor, intervalo de valores ou pertencem a uma categoria específica.

Para criar um gráfico de colunas usando os dados de temperatura que temos, primeiro precisamos resumir os dados usando um tabela de frequência. Em vez de usar decis para agrupar os dados, usamos intervalos de 0,05, de modo que as anomalias de temperatura com um valor de −0,3 a −0,25 estejam em um grupo, um valor maior que −0,25 até 0,2 em outro grupo, e assim por diante . A tabela de frequência mostra quantos valores pertencem a um determinado grupo.

  1. Usando os dados mensais de junho, julho e agosto (colunas G a I em sua planilha), crie duas tabelas de frequência semelhantes à Figura 1.5 para os anos 1951-1980 e 1981-2010, respectivamente. Os valores da primeira coluna devem variar de −0,3 a 1,05, em intervalos de 0,05.

Figura 1.5 Uma tabela de frequência.

Passo a passo do Planilhas Google 1.3 Criação de uma tabela de frequência

Figura 1.6 Como criar uma tabela de frequência no Google Sheets.

Crie uma mesa

Neste exemplo, faremos uma tabela de frequência para os anos 1951-1980 nas Colunas A e B. É uma boa ideia colocar todas as tabelas em um local separado dos dados.

Crie uma mesa

Após a etapa 2, sua tabela será semelhante à Figura 1.5.

Filtre os dados

É mais fácil fazer uma tabela de frequência se você filtrou os dados para mostrar apenas os valores necessários para a tabela (os anos 1951–1980, neste caso).

Use a função FREQUENCY para preencher o resto da tabela

Agora que os dados estão filtrados, usaremos a função FREQUENCY do Planilhas Google para preencher a Coluna B. Primeiro, selecione as células que precisam ser preenchidas.

Use a função FREQUENCY para preencher o resto da tabela

Os valores nas células que você selecionou serão usados ​​para preencher a tabela de frequência.

Use a função FREQUENCY para preencher o resto da tabela

Após a etapa 11, você terá calculado a primeira entrada na coluna B.

Use a função FREQUENCY para preencher o resto da tabela

A fórmula completa será: = FREQUÊNCIA (‘1,3’! G74: 103, A3: A30). Observação: Os valores obtidos podem ser ligeiramente diferentes daqueles mostrados aqui se você estiver usando os dados mais recentes.

  1. Usando as tabelas de frequência da pergunta 1:
  • Trace dois gráficos de coluna separados para 1951-1980 e 1981-2010 para mostrar a distribuição de temperaturas, com frequência no eixo vertical e a faixa de anomalia de temperatura no eixo horizontal. Seus gráficos devem ser semelhantes aos do New York Times artigo.
  • Usando seus gráficos, descreva as semelhanças e diferenças (se houver) entre as distribuições de anomalias de temperatura em 1951–1980 e 1981–2010.

Agora usaremos nossos dados para examinar diferentes aspectos das distribuições. Primeiro, aprenderemos como usar decis para determinar quais observações são "normais" e "anormais" e, em seguida, aprenderemos como usar variância para descrever a forma de uma distribuição.

  1. o New York Times o artigo considera o terço inferior (o terço mais baixo ou mais frio) das anomalias de temperatura em 1951-1980 como "frio" e o terço superior (o terço mais alto ou mais quente) das anomalias como "quente". Em termos de decil, as temperaturas no 1º ao 3º decil são "frias" e as temperaturas no 7º ao 10º decil ou acima são "quentes" (arredondado para o decil mais próximo). Use a função PERCENTIL para determinar quais valores correspondem ao 3º e 7º decil, em todos os meses de 1951–1980.

Passo a passo do Planilhas Google 1.4 Calculando percentis

Figura 1.7 Como usar a função PERCENTILE do Planilhas Google.

Os dados

Usaremos os mesmos dados do passo a passo 1.3.

Use PERCENTILE para obter o valor para o terceiro decil

A função PERCENTIL encontrará o valor correspondente ao percentil escolhido nas células que você selecionou. O valor 0,3 refere-se ao 30º percentil, também conhecido como 3º decil.

Use PERCENTILE para obter o valor para o 7º decil

Repita a etapa 3 para calcular o valor correspondente ao 7º decil. Observação: Os valores obtidos podem ser ligeiramente diferentes daqueles mostrados aqui se você estiver usando os dados mais recentes.

  1. Com base nos valores que você encontrou na Questão 3, conte o número de anomalias que são consideradas 'quentes' em 1981–2010 e expresse isso como uma porcentagem de todas as observações de temperatura naquele período. Sua resposta sugere que estamos experimentando um clima mais quente com mais frequência em 1981–2010? (Lembre-se de que cada decil representa 10% das observações, então 30% das temperaturas foram consideradas "quentes" em 1951-1980.)

Passo a passo 1.5 do Planilhas Google Usando a função CONT.SE do Planilhas Google

Figura 1.8 Como usar a função CONT.SE do Planilhas Google.

Filtre os dados, mantendo os anos de 1981 a 2010

Estaremos usando os anos 1981-2010 apenas. Para tornar os dados mais fáceis de visualizar, filtraremos os dados de forma que apenas os anos 1981-2010 sejam visíveis.

Use CONT.SE para obter o número de células com um valor menor que o terceiro decil de 1951-1980

A função CONT.SE conta o número de células que você selecionou que satisfazem uma determinada condição (neste caso, tendo um valor menor ou igual ao valor do terceiro decil em 1951-1980).

Use CONT.SE para obter o número de células com um valor maior que o 7º decil de 1951-1980

Agora, a condição é que os valores sejam maiores ou iguais ao valor do 7º decil em 1951-1980.

Use os números obtidos para calcular as percentagens

COUNTIF nos dá números, mas para convertê-los em porcentagens, precisamos dividir os números de COUNTIF pelo número total de observações. Observação: Os valores obtidos podem ser ligeiramente diferentes daqueles mostrados aqui se você estiver usando os dados mais recentes.

  1. o New York Times O artigo discute se as temperaturas se tornaram mais variáveis ​​ao longo do tempo. Uma maneira de medir a variabilidade da temperatura é calculando a variação da distribuição da temperatura. Para cada temporada (‘DJF’, ‘MAM’, ‘JJA’ e ‘SON’):
  • Calcule a média (média) e a variância separadamente para os seguintes períodos: 1921-1950, 1951-1980 e 1981-2010.
  • Para cada estação, compare as variações em diferentes períodos e explique se a temperatura parece ou não ser mais variável em períodos posteriores.

Passo a passo do Planilhas Google 1.6 Calculando e compreendendo a variação

Figura 1.9 Como calcular a variância.

Os dados de temperatura

Esses dados são anomalias de temperatura para 1981–2010, mostrando os meses de março a maio apenas. O gráfico de colunas mostra a aparência dos dados. Cada coluna mostra quantos valores estão dentro dos intervalos mostrados no eixo horizontal. Por exemplo, a coluna mais à esquerda nos informa que 25 valores são menores que 0,3. Observação: Os valores em seu conjunto de dados podem ser ligeiramente diferentes daqueles mostrados aqui, se você estiver usando os dados mais recentes.

Dados compostos que são menos dispersos

Esses dados à direita são compostos. Neste gráfico, você pode ver que os valores estão todos muito próximos, com o menor valor sendo 0,6 e o ​​maior sendo 0,8. Comparando os gráficos, os dados reais de temperatura parecem mais dispersos do que os dados inventados.

Calculando e interpretando a variação

A fórmula mostrada calcula a variação dos dados reais de temperatura. Como esperado, é muito maior do que a variância dos dados inventados.

  1. Usando as descobertas do New York Times artigo e suas respostas às perguntas 1 a 5, discuta se a temperatura parece ser mais variável ao longo do tempo. Você aconselharia o governo a gastar mais dinheiro na mitigação dos efeitos de eventos climáticos extremos?

Conclusão

Aprender é propriedade de todos os organismos vivos. Eles podem rastrear padrões de melhoria característicos de si mesmos. Uma vez que grupos organizados podem ser vistos como entidades vivas, pode-se esperar que eles exibam aprendizado e rastreiem tais padrões. Na indústria aeronáutica, por exemplo, eles costumam fazer isso.

Esse desempenho não acontece simplesmente. É o resultado de uma busca contínua e de um esforço engenhoso. O estudo de uma série de operações que são componentes importantes das principais indústrias revela que elas traçaram padrões de melhoria com características da curva de aprendizado.

De certa forma, tais descobertas não deveriam ser surpreendentes. A competição incessante tem fornecido um incentivo contínuo para que as empresas busquem maneiras novas e melhores de fazer as coisas, e as melhorias progressivas resultantes são meramente consistentes com a experiência comum de que algo sempre pode ser feito com mais eficiência cada vez que tenta.

No entanto, descobrir esse desempenho para operações anteriormente consideradas sem resposta fornece evidências tangíveis adicionais de que o aprendizado pode ser uma característica subjacente e natural da atividade organizada. Não se limita a estender o catálogo de curvas de aprendizagem. Em vez disso, pode ajudar a criar a convicção de que tal desempenho deve ser encontrado em outro lugar e, assim, levar não apenas a examinar todas as operações para ver quais outras são suscetíveis, mas a assumir que todas as operações têm potencial de curva de aprendizado e a conceber maneiras de fazer este potencial uma realidade. Portanto, é prudente refletir o potencial de aprendizagem em planos e previsões.

Os ingredientes mais importantes no desempenho da curva de aprendizado são visão e liderança. A melhoria contínua é uma cadeia de influências que começa com a convicção de que o progresso é possível, continua com a criação de um ambiente e suporte de trabalho que o promova e resulta numa flexibilidade e vontade de mudar as práticas estabelecidas para outras mais eficientes à medida que continuamente evoluir. Aprofundar essa cadeia faz parte da prática de gestão. Conseqüentemente, a curva de aprendizado pode ser considerada a principal ferramenta de gerenciamento.

1. Miguel A. Reguero, Um estudo econômico da indústria de fuselagem militar, Base da Força Aérea Wright-Patterson, Ohio, Departamento da Força Aérea, outubro de 1957, p. 213.

2. Ver Frank J. Andress, "The Learning Curve as a Production Tool", HBR janeiro-fevereiro de 1954, p. 96

4. T. P. Wright, "Fators Affecting the Cost of Airplanes", Journal of Aeronautical Science, Fevereiro de 1936, pp. 122-128.

5. Oil and Gas Journal, publicado mensalmente.

6. Para uma discussão desses estudos, consulte "A força de crescimento que não pode ser negligenciada", Semana de negócios, 6 de agosto de 1960, p. 68

7. Richard W. Conway e Andrew Schultz, Jr., "The Manufacturing Progress Function", Journal of Industrial Engineering, Janeiro – fevereiro de 1959, p. 48

8. Glen E. Ghormley, “The Learning Curve,” Indústria Ocidental, Setembro de 1952, p. 34

9. Philip S. Skaff, "The Maintenance Challenge in a Petrochemicals Plant," ASME Petroleum Mechanical Engineering Conference, Dallas, Texas, setembro de 1956, Paper 56-PET-2, p. 9

10. Minha Vida e Trabalho (Nova York, Doubleday, Page and Company, 1932), pp. 146–147.


Correlação positiva e negativa

A correlação entre as variáveis ​​pode ser positiva ou negativa. A correlação positiva implica que um aumento de uma quantidade causa um aumento na outra, enquanto na correlação negativa, um aumento em uma variável causará uma diminuição na outra.

É importante entender a relação entre as variáveis ​​para tirar as conclusões corretas. Mesmo os melhores cientistas podem errar e há vários exemplos de como os estudos confundem correlação e causalidade.


Faça uma pergunta

A primeira etapa do método científico é fazer uma pergunta, descrever um problema e identificar a área específica de interesse. O tópico deve ser estreito o suficiente para estudar dentro de uma geografia e período de tempo. “As sociedades são capazes de felicidade sustentada?” seria muito vago. A questão também deve ser ampla o suficiente para ter mérito universal. “O que os hábitos de higiene pessoal revelam sobre os valores dos alunos da XYZ High School?” seria muito estreito. Dito isso, felicidade e higiene são tópicos que valem a pena estudar. Os sociólogos não descartam nenhum tópico, mas se esforçam para enquadrar essas questões em melhores termos de pesquisa.

É por isso que os sociólogos têm o cuidado de definir seus termos. Em um estudo de higiene, por exemplo, higiene pode ser definida como "hábitos pessoais para manter a aparência física (em oposição à saúde)", e um pesquisador pode perguntar: "Como os diferentes hábitos de higiene pessoal refletem o valor cultural atribuído à aparência?" Ao formar essas questões básicas de pesquisa, os sociólogos desenvolvem uma definição operacional, isto é, eles definem o conceito em termos dos passos físicos ou concretos que dá para medi-lo objetivamente. A definição operacional identifica uma condição observável do conceito. Ao operacionalizar uma variável do conceito, todos os pesquisadores podem coletar dados de forma sistemática ou replicável.

A definição operacional deve ser válida, apropriada e significativa. E deve ser confiável, o que significa que os resultados serão quase uniformes quando testados em mais de uma pessoa. Por exemplo, "bons motoristas" podem ser definidos de várias maneiras: aqueles que usam seus indicadores de direção, aqueles que não aceleram ou aqueles que gentilmente permitem que outros se fundam. Mas esses comportamentos de direção podem ser interpretados de forma diferente por diferentes pesquisadores e podem ser difíceis de medir. Alternativamente, “um motorista que nunca recebeu uma infração de trânsito” é uma descrição específica que levará os pesquisadores a obter as mesmas informações, portanto, é uma definição operacional eficaz.


Conclusões.

Entre os muitos desafios enfrentados pelos estudos que quantificam o comportamento estão os erros de medição nas medidas comportamentais e outras, a necessidade de formular várias equações para caracterizar o sistema comportamental e o desejo de compreender os efeitos diretos e indiretos das variáveis ​​à medida que avançam o sistema de equações. SEMs variáveis ​​latentes fornecem as ferramentas para enfrentar esses desafios. Eles têm a capacidade de permitir a quantificação e o teste das relações hipotéticas entre as variáveis ​​latentes e observadas. Eles fornecem testes de consistência e plausibilidade do modelo assumido em comparação com os dados observados. Além disso, permitem ao pesquisador analisar as relações diretas e também mediadas. Embora SEMs não possam substituir o conhecimento substantivo sólido na formulação de um modelo, eles podem fornecer informações sobre a correspondência entre o modelo e os dados, e fornecem ferramentas para rastrear ainda mais as implicações dessa estrutura.


O problema de manuseio

Passando dos problemas conceituais que afetam as tentativas atuais de usar a triagem neurogenética comportamental para os problemas práticos, os métodos em uso atualmente não se prestam à triagem de alto rendimento em larga escala. A maioria deles exige o manuseio dos assuntos durante o treinamento e os testes. Isso é duplamente indesejável. Consome grande quantidade de tempo do experimentador e do técnico na obtenção de pequenas quantidades de dados. E, isso estressa seriamente os assuntos. A maioria das linhagens de camundongos reage mal ao manuseio, embora a extensão, a duração e as manifestações do estresse de manuseio variem muito entre as linhagens. Além disso, a habilidade com que os ratos são manuseados varia muito entre os laboratórios e até mesmo entre o pessoal dentro dos laboratórios. As reações por ter sido manuseado e a expectativa de logo ser manuseado novamente podem levar muito tempo para diminuir, uma vez que o mouse foi colocado em um ambiente de teste. Essas reações ao manuseio interferem e contaminam quase todo tipo de medição e observação comportamental.


Navegue pelo esboço completo

Todo projeto experimental verdadeiro deve ter essa afirmação no centro de sua estrutura, como o objetivo final de qualquer experimento.

A hipótese é gerada por vários meios, mas geralmente é o resultado de um processo de raciocínio indutivo em que as observações levam à formação de uma teoria. Os cientistas então usam uma grande bateria de métodos dedutivos para chegar a uma hipótese que é testável, falseável e realista.

O precursor de uma hipótese é um problema de pesquisa, geralmente enquadrado como uma pergunta. Pode perguntar o que ou por que algo está acontecendo.

Por exemplo, podemos nos perguntar por que as unidades populacionais de bacalhau no Atlântico Norte estão diminuindo. A questão do problema pode ser "Por que o número de bacalhau no Atlântico Norte está diminuindo?"

Isso é uma afirmação muito ampla e não pode ser testada por nenhum meio científico razoável. É apenas uma questão provisória decorrente de revisões de literatura e intuição. Muitas pessoas pensariam que o instinto e a intuição não são científicos, mas muitos dos maiores saltos científicos foram resultado de "palpites".

A hipótese de pesquisa é uma redução do problema em algo testável e falsificável. No exemplo acima, um pesquisador pode especular que o declínio nos estoques de peixes é devido ao excesso de pesca prolongado. Os cientistas devem gerar uma hipótese realista e testável em torno da qual podem construir o experimento.

Isso pode ser uma pergunta, uma declaração ou uma declaração 'se / ou'. Alguns exemplos podem ser:

A sobrepesca afeta as unidades populacionais de bacalhau.

Se a pesca excessiva está causando um declínio no número de bacalhau, a redução da quantidade de arrastões aumentará os estoques de bacalhau.

Essas são afirmações aceitáveis ​​e todas dão ao pesquisador um foco para a construção de um experimento de pesquisa. O último exemplo formaliza as coisas e usa uma declaração 'If', medindo o efeito que a manipulação de uma variável tem sobre outra. Embora a outra seja perfeitamente aceitável, uma hipótese de pesquisa ideal deve conter uma previsão, razão pela qual as mais formais são favorecidas.

Um cientista que se fixa em provar uma hipótese de pesquisa perde sua imparcialidade e credibilidade. Os testes estatísticos muitas vezes revelam tendências, mas raramente fornecem uma resposta clara, com outros fatores afetando o resultado e influenciando os resultados.

Embora o instinto e a lógica nos digam que os estoques de peixes são afetados pela pesca excessiva, isso não é necessariamente verdade e o pesquisador deve considerar esse resultado. Talvez os fatores ambientais ou a poluição sejam efeitos causais que influenciam os estoques de peixes.

Uma hipótese deve ser testável, levando em consideração o conhecimento e as técnicas atuais, e ser realista. Se o pesquisador não tiver um orçamento multimilionário, não há sentido em gerar hipóteses complicadas. Uma hipótese deve ser verificável por meios estatísticos e analíticos, para permitir uma verificação ou falsificação.

Na verdade, uma hipótese nunca é provada, e é melhor prática usar os termos 'suportado' ou 'verificado'. Isso significa que a pesquisa mostrou que as evidências sustentavam a hipótese e outras pesquisas são construídas sobre isso.

  • Ser escrito em linguagem clara e concisa

  • Tem uma variável independente e uma dependente

  • Ser falseável - é possível provar ou refutar a afirmação?

  • Faça uma previsão ou especule sobre um resultado

  • Seja praticável - você pode medir as variáveis ​​em questão?

  • Faça uma hipótese sobre uma relação proposta entre duas variáveis, ou uma intervenção nesta relação

Uma hipótese de pesquisa, que resiste ao teste do tempo, eventualmente se torna uma teoria, como a Relatividade Geral de Einstein. Mesmo assim, como acontece com as Leis de Newton, eles ainda podem ser falsificados ou adaptados.

A hipótese de pesquisa é freqüentemente também chamada de H1 e se opõe à visão atual, chamada de hipótese nula (H0).

Considere as seguintes hipóteses. É provável que levem a pesquisas e conclusões sólidas e, se não, como podem ser melhoradas?

Adicionar mica a um composto plástico diminuirá sua viscosidade.

Aqueles que bebem uma xícara de chá verde diariamente experimentam um bem-estar aprimorado.

O olhar prolongado para os eclipses solares confere poderes extra-sensoriais.

Um declínio nos valores familiares está reduzindo a taxa de casamento.

Crianças com estilo de apego inseguro são mais propensas a se envolver em dissidência política quando adultas.

A África Subsaariana tem mais mortes devido à tuberculose porque a taxa de HIV é mais alta lá.

Esta é uma declaração de hipótese ideal. É bem formulado, claro, falsificável e, apenas por sua leitura, pode-se ter uma ideia do tipo de projeto de pesquisa que ele inspiraria.

Essa hipótese é menos clara e o problema é com a variável dependente. As xícaras de chá verde podem ser facilmente quantificadas, mas como os pesquisadores medirão o “bem-estar”? Uma hipótese melhor poderia ser: quem bebe uma xícara de chá verde diariamente apresenta níveis mais baixos de marcadores inflamatórios no sangue.

Embora essa hipótese pareça um pouco ridícula, na verdade é muito simples, falsificável e fácil de operacionalizar. O problema óbvio é que a pesquisa científica raramente se ocupa com fenômenos sobrenaturais e, pior, colocar essa pesquisa em ação provavelmente causará danos a seus participantes. Quando se trata de hipóteses, nem todas as perguntas precisam ser respondidas!

Desde que os pesquisadores tenham um método sólido para quantificar os “valores familiares”, essa hipótese não é tão ruim. No entanto, os cientistas devem estar sempre alertas para seus próprios possíveis preconceitos que se insinuam na pesquisa, e isso pode ocorrer desde o início. Tópicos normativos com elementos morais raramente são neutros. Uma hipótese melhor removerá quaisquer elementos subjetivos e contenciosos. Uma hipótese melhor: a diminuição da renda discricionária total corresponde a uma menor taxa de casamento em pessoas de 20 a 30 anos de idade.

Essa hipótese pode produzir resultados muito interessantes e úteis, mas, na prática, como os pesquisadores coletarão os dados? Mesmo que a pesquisa seja lógica, pode não ser viável no mundo real. Em vez disso, um pesquisador pode escolher fazer uma hipótese mais administrável: pontuações altas em um questionário de estilo de apego inseguro se correlacionarão com pontuações altas em um questionário de dissensão política.

Embora complexa, esta é uma boa hipótese. É falsificável, tem variáveis ​​claramente identificadas e pode ser apoiado ou rejeitado usando os métodos estatísticos corretos.


Conclusão

Aprender é propriedade de todos os organismos vivos. Eles podem rastrear padrões de melhoria característicos de si mesmos. Uma vez que grupos organizados podem ser vistos como entidades vivas, pode-se esperar que eles exibam aprendizado e rastreiem tais padrões. Na indústria aeronáutica, por exemplo, eles costumam fazer isso.

Esse desempenho não acontece simplesmente. É o resultado de uma busca contínua e de um esforço engenhoso. O estudo de uma série de operações que são componentes importantes das principais indústrias revela que elas traçaram padrões de melhoria com características da curva de aprendizado.

De certa forma, tais descobertas não deveriam ser surpreendentes. A competição incessante tem fornecido um incentivo contínuo para que as empresas busquem maneiras novas e melhores de fazer as coisas, e as melhorias progressivas resultantes são meramente consistentes com a experiência comum de que algo sempre pode ser feito com mais eficiência cada vez que tenta.

No entanto, descobrir esse desempenho para operações anteriormente consideradas sem resposta fornece evidências tangíveis adicionais de que o aprendizado pode ser uma característica subjacente e natural da atividade organizada. Não se limita a estender o catálogo de curvas de aprendizagem. Em vez disso, pode ajudar a criar a convicção de que tal desempenho deve ser encontrado em outro lugar e, assim, levar não apenas a examinar todas as operações para ver quais outras são suscetíveis, mas a assumir que todas as operações têm potencial de curva de aprendizado e a conceber maneiras de fazer este potencial uma realidade. Portanto, é prudente refletir o potencial de aprendizagem em planos e previsões.

Os ingredientes mais importantes no desempenho da curva de aprendizado são visão e liderança. A melhoria contínua é uma cadeia de influências que começa com a convicção de que o progresso é possível, continua com a criação de um ambiente e suporte de trabalho que o promova e resulta numa flexibilidade e vontade de mudar as práticas estabelecidas para outras mais eficientes à medida que continuamente evoluir. Aprofundar essa cadeia faz parte da prática de gestão. Conseqüentemente, a curva de aprendizado pode ser considerada a principal ferramenta de gerenciamento.

1. Miguel A. Reguero, Um estudo econômico da indústria de fuselagem militar, Base da Força Aérea Wright-Patterson, Ohio, Departamento da Força Aérea, outubro de 1957, p. 213.

2. Ver Frank J. Andress, "The Learning Curve as a Production Tool", HBR janeiro-fevereiro de 1954, p. 96

4. T. P. Wright, "Fators Affecting the Cost of Airplanes", Journal of Aeronautical Science, Fevereiro de 1936, pp. 122-128.

5. Oil and Gas Journal, publicado mensalmente.

6. Para uma discussão desses estudos, consulte "A força de crescimento que não pode ser negligenciada", Semana de negócios, 6 de agosto de 1960, p. 68

7. Richard W. Conway e Andrew Schultz, Jr., "The Manufacturing Progress Function", Journal of Industrial Engineering, Janeiro – fevereiro de 1959, p. 48

8. Glen E. Ghormley, “The Learning Curve,” Indústria Ocidental, Setembro de 1952, p. 34

9. Philip S. Skaff, "The Maintenance Challenge in a Petrochemicals Plant," ASME Petroleum Mechanical Engineering Conference, Dallas, Texas, setembro de 1956, Paper 56-PET-2, p. 9

10. Minha Vida e Trabalho (Nova York, Doubleday, Page and Company, 1932), pp. 146–147.


A mediana

A mediana é o valor no meio de uma distribuição de dados quando esses dados são organizados do menor para o maior valor. Esta medida de tendência central pode ser calculada para variáveis ​​que são medidas com escalas ordinais, de intervalo ou de razão.

Calcular a mediana também é bastante simples. Vamos supor que temos a seguinte lista de números: 5, 7, 10, 43, 2, 69, 31, 6, 22. Primeiro, devemos organizar os números em ordem do menor para o maior. O resultado é este: 2, 5, 6, 7, 10, 22, 31, 43, 69. A mediana é 10 porque é o número do meio exato. Existem quatro números abaixo de 10 e quatro números acima de 10.

Se sua distribuição de dados tem um número par de casos, o que significa que não há meio exato, você simplesmente ajusta ligeiramente o intervalo de dados para calcular a mediana. Por exemplo, se adicionarmos o número 87 ao final de nossa lista de números acima, teremos 10 números totais em nossa distribuição, portanto, não há um único número do meio. Nesse caso, calcula-se a média das pontuações dos dois números do meio. Em nossa nova lista, os dois números do meio são 10 e 22. Portanto, pegamos a média desses dois números: (10 + 22) / 2 = 16. Nossa mediana agora é 16.


A diferença entre estatísticas descritivas e inferenciais

O campo da estatística é dividido em duas grandes divisões: descritiva e inferencial. Cada um desses segmentos é importante, oferecendo técnicas diferentes que atingem objetivos diferentes. As estatísticas descritivas descrevem o que está acontecendo em uma população ou conjunto de dados. As estatísticas inferenciais, por outro lado, permitem que os cientistas tirem conclusões de um grupo de amostra e as generalizem para uma população maior. Os dois tipos de estatísticas têm algumas diferenças importantes.


Tipos de pesquisa descritiva

Algumas das formas mais comumente usadas de pesquisa descritiva utilizadas por psicólogos sociais incluem:

Pesquisas

As pesquisas são provavelmente um dos tipos de pesquisa descritiva mais usados. Essas pesquisas geralmente se baseiam em inventários de autorrelato, nos quais as pessoas preenchem questionários sobre seus próprios comportamentos ou opiniões.

A vantagem do método de pesquisa é que ele permite aos pesquisadores da psicologia social coletar uma grande quantidade de dados de forma relativamente rápida, fácil e econômica.

O Método Observacional

Isso envolve observar as pessoas e descrever seu comportamento. Às vezes referido como observação de campo, isso pode envolver a criação de um cenário em um laboratório e, em seguida, observar como as pessoas respondem ou realizar observação naturalística no próprio ambiente do sujeito.

Cada tipo de observação tem seus próprios pontos fortes e fracos. Os pesquisadores podem preferir usar métodos observacionais em um laboratório para obter maior controle sobre possíveis variáveis ​​estranhas, enquanto podem preferir usar a observação naturalística para obter maior validade ecológica. No entanto, as observações de laboratório tendem a ser mais caras e difíceis de implementar do que as observações naturalísticas.

Estudos de caso

Um estudo de caso envolve a observação aprofundada de um único indivíduo ou grupo. Os estudos de caso podem permitir aos pesquisadores obter informações sobre coisas que são muito raras ou mesmo impossíveis de reproduzir em ambientes experimentais.

O estudo de caso de Genie, uma jovem que foi terrivelmente abusada e privada de aprender a linguagem durante o período crítico, é um exemplo de como um estudo de caso pode permitir que cientistas sociais estudem fenômenos que de outra forma não poderiam reproduzir em um laboratório.


Parte 1.2 Variação da temperatura ao longo do tempo

Objetivos de aprendizagem para esta parte

  • resumir dados em uma tabela de frequência e visualizar distribuições com gráficos de colunas
  • descrever uma distribuição usando média e variância.

Além das mudanças na temperatura média, o governo também teme que as mudanças climáticas resultem em eventos climáticos extremos mais frequentes. A ilha experimentou algumas grandes tempestades e fortes ondas de calor no passado, que causaram sérios danos e perturbações à atividade econômica.

O tempo se tornará mais extremo e variará mais como resultado das mudanças climáticas? UMA New York Times O artigo usa o mesmo conjunto de dados de temperatura que você tem usado para investigar a distribuição de temperaturas e a variabilidade da temperatura ao longo do tempo. Leia o artigo na íntegra, prestando atenção nas descrições das distribuições de temperatura.

Podemos usar a média e a mediana para descrever as distribuições e podemos usar os decis para descrever partes das distribuições. Para visualizar as distribuições, podemos usar gráficos de colunas no Planilhas Google. (Para praticar o uso desses conceitos e criar gráficos de colunas no Planilhas Google, consulte a Seção 1.3 do Economia, sociedade e políticas públicas) Agora vamos criar gráficos semelhantes de distribuições de temperatura para os New York Times artigo e veja as diferentes maneiras de resumir as distribuições.

tabela de frequência Um registro de quantas observações em um conjunto de dados têm um determinado valor, intervalo de valores ou pertencem a uma categoria específica.

Para criar um gráfico de colunas usando os dados de temperatura que temos, primeiro precisamos resumir os dados usando um tabela de frequência. Em vez de usar decis para agrupar os dados, usamos intervalos de 0,05, de modo que as anomalias de temperatura com um valor de −0,3 a −0,25 estejam em um grupo, um valor maior que −0,25 até 0,2 em outro grupo, e assim por diante . A tabela de frequência mostra quantos valores pertencem a um determinado grupo.

  1. Usando os dados mensais de junho, julho e agosto (colunas G a I em sua planilha), crie duas tabelas de frequência semelhantes à Figura 1.5 para os anos 1951-1980 e 1981-2010, respectivamente. Os valores da primeira coluna devem variar de −0,3 a 1,05, em intervalos de 0,05.

Figura 1.5 Uma tabela de frequência.

Passo a passo do Planilhas Google 1.3 Criação de uma tabela de frequência

Figura 1.6 Como criar uma tabela de frequência no Google Sheets.

Crie uma mesa

Neste exemplo, faremos uma tabela de frequência para os anos 1951-1980 nas Colunas A e B. É uma boa ideia colocar todas as tabelas em um local separado dos dados.

Crie uma mesa

Após a etapa 2, sua tabela será semelhante à Figura 1.5.

Filtre os dados

É mais fácil fazer uma tabela de frequência se você filtrou os dados para mostrar apenas os valores necessários para a tabela (os anos 1951–1980, neste caso).

Use a função FREQUENCY para preencher o resto da tabela

Agora que os dados estão filtrados, usaremos a função FREQUENCY do Planilhas Google para preencher a Coluna B. Primeiro, selecione as células que precisam ser preenchidas.

Use a função FREQUENCY para preencher o resto da tabela

Os valores nas células que você selecionou serão usados ​​para preencher a tabela de frequência.

Use a função FREQUENCY para preencher o resto da tabela

Após a etapa 11, você terá calculado a primeira entrada na coluna B.

Use a função FREQUENCY para preencher o resto da tabela

A fórmula completa será: = FREQUÊNCIA (‘1,3’! G74: 103, A3: A30). Observação: Os valores obtidos podem ser ligeiramente diferentes daqueles mostrados aqui se você estiver usando os dados mais recentes.

  1. Usando as tabelas de frequência da pergunta 1:
  • Trace dois gráficos de coluna separados para 1951-1980 e 1981-2010 para mostrar a distribuição de temperaturas, com frequência no eixo vertical e a faixa de anomalia de temperatura no eixo horizontal. Seus gráficos devem ser semelhantes aos do New York Times artigo.
  • Usando seus gráficos, descreva as semelhanças e diferenças (se houver) entre as distribuições de anomalias de temperatura em 1951–1980 e 1981–2010.

Agora usaremos nossos dados para examinar diferentes aspectos das distribuições. Primeiro, aprenderemos como usar decis para determinar quais observações são "normais" e "anormais" e, em seguida, aprenderemos como usar variância para descrever a forma de uma distribuição.

  1. o New York Times o artigo considera o terço inferior (o terço mais baixo ou mais frio) das anomalias de temperatura em 1951-1980 como "frio" e o terço superior (o terço mais alto ou mais quente) das anomalias como "quente". Em termos de decil, as temperaturas no 1º ao 3º decil são "frias" e as temperaturas no 7º ao 10º decil ou acima são "quentes" (arredondado para o decil mais próximo). Use a função PERCENTIL para determinar quais valores correspondem ao 3º e 7º decil, em todos os meses de 1951–1980.

Passo a passo do Planilhas Google 1.4 Calculando percentis

Figura 1.7 Como usar a função PERCENTILE do Planilhas Google.

Os dados

Usaremos os mesmos dados do passo a passo 1.3.

Use PERCENTILE para obter o valor para o terceiro decil

A função PERCENTIL encontrará o valor correspondente ao percentil escolhido nas células que você selecionou. O valor 0,3 refere-se ao 30º percentil, também conhecido como 3º decil.

Use PERCENTILE para obter o valor para o 7º decil

Repita a etapa 3 para calcular o valor correspondente ao 7º decil. Observação: Os valores obtidos podem ser ligeiramente diferentes daqueles mostrados aqui se você estiver usando os dados mais recentes.

  1. Com base nos valores que você encontrou na Questão 3, conte o número de anomalias que são consideradas 'quentes' em 1981–2010 e expresse isso como uma porcentagem de todas as observações de temperatura naquele período. Sua resposta sugere que estamos experimentando um clima mais quente com mais frequência em 1981–2010? (Lembre-se de que cada decil representa 10% das observações, então 30% das temperaturas foram consideradas "quentes" em 1951-1980.)

Passo a passo 1.5 do Planilhas Google Usando a função CONT.SE do Planilhas Google

Figura 1.8 Como usar a função CONT.SE do Planilhas Google.

Filtre os dados, mantendo os anos de 1981 a 2010

Estaremos usando os anos 1981-2010 apenas. Para tornar os dados mais fáceis de visualizar, filtraremos os dados de forma que apenas os anos 1981-2010 sejam visíveis.

Use CONT.SE para obter o número de células com um valor menor que o terceiro decil de 1951-1980

A função CONT.SE conta o número de células que você selecionou que satisfazem uma determinada condição (neste caso, tendo um valor menor ou igual ao valor do terceiro decil em 1951-1980).

Use CONT.SE para obter o número de células com um valor maior que o 7º decil de 1951-1980

Agora, a condição é que os valores sejam maiores ou iguais ao valor do 7º decil em 1951-1980.

Use os números obtidos para calcular as percentagens

COUNTIF nos dá números, mas para convertê-los em porcentagens, precisamos dividir os números de COUNTIF pelo número total de observações. Observação: Os valores obtidos podem ser ligeiramente diferentes daqueles mostrados aqui se você estiver usando os dados mais recentes.

  1. o New York Times O artigo discute se as temperaturas se tornaram mais variáveis ​​ao longo do tempo. Uma maneira de medir a variabilidade da temperatura é calculando a variação da distribuição da temperatura. Para cada temporada (‘DJF’, ‘MAM’, ‘JJA’ e ‘SON’):
  • Calcule a média (média) e a variância separadamente para os seguintes períodos: 1921-1950, 1951-1980 e 1981-2010.
  • Para cada estação, compare as variações em diferentes períodos e explique se a temperatura parece ou não ser mais variável em períodos posteriores.

Passo a passo do Planilhas Google 1.6 Calculando e compreendendo a variação

Figura 1.9 Como calcular a variância.

Os dados de temperatura

Esses dados são anomalias de temperatura para 1981–2010, mostrando os meses de março a maio apenas. O gráfico de colunas mostra a aparência dos dados. Cada coluna mostra quantos valores estão dentro dos intervalos mostrados no eixo horizontal. Por exemplo, a coluna mais à esquerda nos informa que 25 valores são menores que 0,3. Observação: Os valores em seu conjunto de dados podem ser ligeiramente diferentes daqueles mostrados aqui, se você estiver usando os dados mais recentes.

Dados compostos que são menos dispersos

Esses dados à direita são compostos. Neste gráfico, você pode ver que os valores estão todos muito próximos, com o menor valor sendo 0,6 e o ​​maior sendo 0,8. Comparando os gráficos, os dados reais de temperatura parecem mais dispersos do que os dados inventados.

Calculando e interpretando a variação

A fórmula mostrada calcula a variação dos dados reais de temperatura. Como esperado, é muito maior do que a variância dos dados inventados.

  1. Usando as descobertas do New York Times artigo e suas respostas às perguntas 1 a 5, discuta se a temperatura parece ser mais variável ao longo do tempo. Você aconselharia o governo a gastar mais dinheiro na mitigação dos efeitos de eventos climáticos extremos?


Assista o vídeo: A CURVA DO APRENDIZADO COM TOBII EYE GAZE (Janeiro 2022).