Em formação

Neurociência moral

Neurociência moral

Existem muitos estudos feitos sobre como os cérebros de psicopatas e criminosos são diferentes dos cérebros de pessoas normais. por exemplo. http://www.dailymail.co.uk/sciencetech/article-2273857/Neurologist-discovers-dark-patch-inside-brains-killers-rapists.html e http://bigthink.com/going-mental/the- neurobiologia do mal

Foi feito um estudo sobre os cérebros de pessoas "boas"? Por exemplo, todas as Madre Teresa do mundo.

O motivo pelo qual estou me perguntando isso é que, se pudermos descobrir o que torna as pessoas "boas", poderemos fazer bebês GM "bons" no futuro.


Até certo ponto, concordo com você que provavelmente se faz mais no lado negativo extremo da moralidade, em parte porque isso (discutivelmente) é visto como mais anormal e a sociedade está mais interessada em consertá-lo. Tem havido um trabalho considerável sobre psicopatia e sociopatia, o que significa que a neurociência cognitiva está mais disposta a tratar essas pessoas como casos especiais. Eu suspeito que as pessoas ficariam muito mais relutantes em rotular as pessoas como "boas". Há, no entanto, um trabalho sobre como coisas como generosidade (que presumivelmente Madre Teresa e companhia estão em alta) refletem / influenciam a atividade cerebral.


Houve um artigo recente em PNAS (Marsh et al., 2014) que examinou "altruístas extraordinários" que se ofereceram para doar um rim a um estranho.

Ao contrário dos psicopatas, que tendem a mostrar sensibilidade diminuída a rostos ameaçadores, os altruístas (vs. controles saudáveis) mostraram sensibilidade elevada a esses rostos, que foi associada a maior atividade e volume na amígdala direita. Em contraste, o volume e a atividade da amígdala tendem a ser reduzidos na psicopatia. Portanto, de uma forma grosseira, o altruísmo e a psicopatia representam diferentes extremos de um espectro.


Greene cursou o ensino médio em Fort Lauderdale, no condado de Broward, na Flórida. [3] Ele cursou brevemente a Wharton School da Universidade da Pensilvânia antes de se transferir para a Universidade de Harvard. [4] Ele recebeu o título de bacharel em filosofia por Harvard em 1997, [5] seguido por um Ph.D. Doutor em filosofia pela Princeton University sob a supervisão de David Lewis e Gilbert Harman. Peter Singer também atuou em seu comitê de dissertação. Sua dissertação de 2002, A verdade terrível, horrível, nenhuma boa, muito má sobre moralidade e o que fazer a respeito, argumenta contra a linguagem moral-realista e em defesa do utilitarismo não-realista como uma estrutura melhor para resolver divergências. [6] Greene atuou como pós-doutorado em Princeton no Laboratório de Neurociência de Controle Cognitivo antes de retornar a Harvard em 2006 como professor assistente. Em 2011, ele se tornou o John and Ruth Hazel Professor Associado de Ciências Sociais. Desde 2014 é Professor de Psicologia.

Greene e seus colegas desenvolveram uma teoria de processo duplo de julgamento moral, sugerindo que os julgamentos morais são determinados tanto por respostas emocionais automáticas quanto por raciocínio consciente e controlado. Em particular, Greene argumenta que a "tensão central" na ética entre deontologia (teorias morais baseadas em direitos ou deveres) e consequencialismo (teorias baseadas em resultados) reflete as influências concorrentes desses dois tipos de processos:

Julgamentos caracteristicamente deontológicos são preferencialmente supostos por respostas emocionais automáticas, enquanto julgamentos caracteristicamente consequencialistas são preferencialmente apoiados por raciocínio consciente e processos aliados de controle cognitivo. [7]

Em um dos primeiros experimentos para sugerir um modelo de processo duplo moral, [3] Greene e colegas mostraram que as pessoas fazendo julgamentos sobre dilemas morais "pessoais" (como empurrar uma pessoa na frente de um carrinho que se aproxima para salvar cinco outros) envolveram várias regiões do cérebro associadas à emoção que não foram ativadas por julgamentos que eram mais "impessoais" (como puxar um interruptor para redirecionar um bonde de um trilho no qual mataria cinco pessoas para um trilho no qual mataria outra pessoa). [8] Eles também descobriram que para os dilemas envolvendo questões morais "pessoais", aqueles que fizeram a escolha intuitivamente desagradável tiveram tempos de reação mais longos do que aqueles que tomaram a decisão mais emocionalmente agradável.

Um estudo subsequente comparou questões morais pessoais "fáceis" para as quais os sujeitos tinham tempos de reação rápidos contra dilemas "difíceis" (como o problema da passarela) aos quais eles tinham tempos de reação lentos. [9] Ao responder aos problemas difíceis, os sujeitos exibiram atividade aumentada no córtex pré-frontal dorsolateral anterior (DLPFC) e lobos parietais inferiores - áreas associadas ao processamento cognitivo - bem como o córtex cingulado anterior - que foi implicado na detecção de erro entre duas entradas confusas, como na tarefa Stroop). Esta comparação demonstrou que problemas mais difíceis ativaram diferentes regiões do cérebro, mas não provou atividade diferencial pelo mesmo problema moral dependendo da resposta dada. Isso foi feito na segunda parte do estudo, na qual os autores mostraram que, para uma determinada questão, os sujeitos que fizeram as escolhas utilitárias tinham maior atividade no DLPFC anterior e no lobo parietal inferior direito do que os sujeitos que faziam escolhas não utilitárias .

Esses dois estudos eram correlacionais, mas outros sugeriram, desde então, um impacto causal do processamento emocional versus cognitivo nos julgamentos deontológicos versus utilitários. [10] [11] [12] Um estudo de 2008 [13] por Greene mostrou que a carga cognitiva fazia com que os sujeitos demorassem mais para responder quando faziam um julgamento moral utilitário, mas não afetava o tempo de resposta quando faziam um julgamento não utilitário , sugerindo que os processos de pensamento utilitarista exigiam esforço cognitivo extra.

O artigo de Greene de 2008 "The Secret Joke of Kant's Soul" [14] argumenta que a ética kantiana / deontológica é melhor entendida como racionalização do que como racionalismo - uma tentativa de justificar julgamentos morais intuitivos post-hoc. Vários filósofos escreveram respostas críticas. [15] [16] [17]

Baseando-se na teoria do processo duplo, bem como na psicologia evolutiva e outros trabalhos de neurociência, o livro de Greene Tribos Morais (2013) explora como nossas intuições éticas atuam no mundo moderno. [18]

Greene postula que os humanos têm uma tendência instintiva e automática de cooperar com outros em seu grupo social em cenários de tragédia dos comuns ("eu contra nós"). Por exemplo, em um jogo de investimento cooperativo, as pessoas são mais propensas a fazer o que é melhor para o grupo quando estão sob pressão de tempo ou quando estão preparadas para "seguir seu instinto" e, inversamente, a cooperação pode ser inibida por Cálculo. [19] No entanto, em questões de harmonia intergrupal ("nós contra eles"), as intuições automáticas se deparam com um problema, que Greene chama de "tragédia da moralidade do senso comum". A mesma lealdade dentro do grupo que alcança a cooperação dentro de uma comunidade leva à hostilidade entre comunidades. Em resposta, Greene propõe uma "metamoralidade" baseada em uma "moeda comum" com a qual todos os humanos podem concordar e sugere que o utilitarismo - ou como ele o chama, "pragmatismo profundo" - está à altura da tarefa. [20]

Edição de recepção

Tribos Morais recebeu várias críticas positivas. [21] [22] [23] [24]

Thomas Nagel critica o livro, sugerindo que Greene é muito rápido em concluir o utilitarismo especificamente a partir do objetivo geral de construir uma moralidade imparcial. Por exemplo, ele diz, Immanuel Kant e John Rawls oferecem outras abordagens imparciais às questões éticas. [20]

Robert Wright chama [25] a proposta de Greene para a harmonia global de ambiciosa e acrescenta: "Gosto de ambição!" Mas ele também afirma que as pessoas têm uma tendência a ver os fatos de uma forma que sirva ao seu grupo interno, mesmo que não haja discordância sobre os princípios morais subjacentes que governam as disputas. "Se realmente estamos programados para o tribalismo", explica Wright, "então talvez muito do problema tenha menos a ver com visões morais divergentes do que com o simples fato de que minha tribo é minha tribo e sua tribo é sua tribo. Greene e Paul Bloom cita estudos nos quais as pessoas foram divididas aleatoriamente em dois grupos e imediatamente favoreceram os membros de seu próprio grupo na alocação de recursos - mesmo quando sabiam que a atribuição era aleatória. " Em vez disso, Wright propõe que "nutrir as sementes do iluminismo nativas das tribos do mundo é uma aposta melhor do que tentar converter todas as tribos ao utilitarismo - tanto mais probabilidade de sucesso quanto mais eficaz se tiver".

A metamoralidade do pragmatismo profundo de Greene foi recentemente criticada por Steven Kraaijeveld e Hanno Sauer por ser baseada em argumentos conflitantes sobre a verdade moral. [26]

Greene recebeu o Prêmio Stanton de 2012 da Society for Philosophy and Psychology. [27]

Em 2013, Greene recebeu o Prêmio Roslyn Abramson, concedido anualmente ao corpo docente de Harvard "em reconhecimento à sua excelência e sensibilidade no ensino de alunos de graduação". [5]


Provas de comportamento moral em bebês

Quando vemos os primeiros sinais de moralidade em bebês pequenos, isso fornece fortes evidências das raízes evolutivas da moralidade, porque os bebês ainda não tiveram muito tempo para serem influenciados por seu ambiente. Psicólogos que estudam o desenvolvimento humano demonstraram que os bebês humanos chegam ao mundo prontos para prestar atenção e responder a estímulos sociais, como vozes e rostos, e que os bebês começam a formar relacionamentos sociais durante o primeiro ano de vida. Crianças pequenas fornecem conforto e assistência a outras crianças e adultos com problemas emocionais. Por exemplo, quando veem suas mães com dor, crianças de 18 meses mostram comportamentos reconfortantes (como abraços, tapinhas e compartilhar brinquedos). À medida que os bebês se desenvolvem e se tornam mais capazes de analisar o que está acontecendo ao seu redor, eles têm a capacidade de reconhecer quando uma pessoa em seu ambiente está tratando mal outra pessoa. Em uma idade jovem, os bebês são capazes de descobrir rapidamente se a consequência de um comportamento é boa ou ruim, sugerindo que seus genes estão envolvidos e que a experiência e o aprendizado não são as únicas causas do desenvolvimento moral. Com apenas 3 meses de idade, os bebês passam mais tempo olhando para um personagem fantoche que agiu anteriormente de uma maneira agradável do que um que agiu de forma negativa, sugerindo que os bebês preferem aqueles que & # x0201C fazem coisas boas. & # X0201D Por 6 meses de idade, essa preferência é mais forte, com as crianças não apenas olhando mais para personagens fantoches úteis e agradáveis, mas também procurando por eles [3]. Aos 12 meses de idade, os bebês começam a entender o conceito de justiça. Quando esses bebês testemunham o compartilhamento de biscoitos, eles esperam que um número igual de biscoitos seja dado a todas as pessoas envolvidas.

Em conjunto, as evidências desses estudos de laboratório nos dizem que as crianças com menos de 2 anos têm uma compreensão muito boa de quais ações irão beneficiar outras pessoas. No entanto, à medida que as crianças crescem, a expressão de sua moralidade muda. Por exemplo, enquanto os bebês parecem ver justiça como igualdade (todos deveriam receber o mesmo número de biscoitos, por exemplo), os adolescentes tendem a preferir dar mais recursos para aqueles que ainda não os têm ou para aqueles que trabalharam mais. Assim, essas tendências iniciais (na infância) são consideradas o fundamento, mas não exatamente o mesmo, da moralidade adulta. Nossos conceitos de moralidade são construídos a partir da combinação de emoções, motivações e nosso nível crescente de compreensão mental à medida que nos desenvolvemos.


Desenvolvimento da virtude moral e neurociência do desenvolvimento

As descobertas na neurociência do desenvolvimento também apóiam o modelo de desenvolvimento dos eticistas aristotélicos. Tanto a habituação precoce quanto a internalização da virtude moral, bem como o cultivo de phronesis, que modera as forças motivacionais a serem devidamente exercidas em uma determinada situação, são necessárias para a realização do propósito último da vida humana, ou seja, eudaimonia (Aristotle 2000 Wall 2003 Kristjánsson 2014), segundo a perspectiva aristotélica.

Em primeiro lugar, o estudo de lesão anterior demonstrou que a pontuação média da entrevista de julgamento moral entre pacientes com dano pré-frontal de início precoce era significativamente pior do que a de participantes normais. Este estudo propôs que os pacientes com esse dano não eram capazes de internalizar as normas morais em seu sistema de recompensa cerebral, dificultando o desenvolvimento posterior do raciocínio moral, dada a hipótese do marcador somático (Saver e Damasio 1991 Damasio 1994). Pode apoiar o ponto de vista do desenvolvimento moral aristotélico, que enfatiza a importância da habituação precoce das normas morais para a aquisição da virtude moral e eudaimonia. Claro, uma pessoa continente, que desenvolveu raciocínio moral sem habituação precoce da virtude moral, pode se comportar moralmente porque ela sabe bem o que é moralmente apropriado (Kristjánsson 2013 Fowers 2014), entretanto, porque a norma moral e a afeição não estão completamente integradas nela individualidade, eles se tornam uma espécie de imperativo externo para ela, não um traço natural, e dificilmente podem servir para seu florescimento moral e felicidade (Stocker 2003). Assim, a investigação neurocientífica corresponde a esse relato aristotélico sobre o desenvolvimento moral, que enfatiza a importância da internalização precoce da virtude moral para o desenvolvimento futuro do caráter moral, incluindo o raciocínio moral.

Em segundo lugar, estudos de desenvolvimento do cérebro mostraram que a versão aristotélica do curso de desenvolvimento moral, que consiste na habituação de normas e cultivo da sabedoria, pode ocorrer na realidade física. De acordo com essa ideia, a habituação precoce e internalização de normas morais por meio de treinamento comportamental repetitivo, seguido pelo cultivo de phronesis, são necessários para o desenvolvimento do caráter moral (Carr 2008 Kristjánsson 2014). Alguns estudos de neuroimagem demonstraram que um dos aspectos mais salientes do desenvolvimento moral no nível neural durante a primeira infância até o início da adolescência é que as regiões do cérebro associadas ao sistema motivacional e de recompensa (por exemplo, amígdala, nucleus accumbens, córtex orbitofrontal, ventral striatum), que se envolve na habituação e internalização de regras (Wilson e Rolls 2005 Blair 2007), se desenvolvem mais cedo do que as regiões associadas ao raciocínio sofisticado (Galvan et al. 2006 Hare et al. 2008 Decety et al. 2012). Este aspecto também seria apoiado por estudos de neuroimagem demonstrando que a habituação realmente influencia o mecanismo neural de afeto e motivação (Tricomi et al. 2009 Lingawi e Balleine 2012 de Wit et al. 2012). Então, em regiões correlacionadas com raciocínio baseado em prudência, autocontrole e processos auto-reflexivos sofisticados (por exemplo, córtex pré-frontal lateral, córtex cingulado posterior) (Moll et al. 2007 Buckner et al. 2008 Immordino-Yang et al. 2012 ), que correspondem ao conceito de phronesis na filosofia aristotélica, a atividade torna-se saliente além da adolescência (Casey et al. 2008 Wright et al. 2008 Harenski et al. 2012). Essa tendência de desenvolvimento do nível neural sugere que o curso de desenvolvimento moral proposto pela ética aristotélica pode realmente ocorrer no cérebro humano.

Embora não tenha havido estudos neurocientíficos que enfocassem diretamente o efeito de nível neural das intervenções educacionais morais, alguns experimentos podem lançar luz sobre essa questão. Em primeiro lugar, os programas de treinamento projetados para a habituação de certas ações, como malabarismo, induziu mielinização em regiões associadas à função (Scholz et al. 2009). Em segundo lugar, mesmo para o cultivo do raciocínio, que é mais sofisticado do que o caso da habituação, intervenções, como jogos de tabuleiro (Lee et al. 2010), exercícios de raciocínio (Mackey et al. 2012), treinamento da memória operacional (Olesen et al. . 2004 Takeuchi et al. 2010), e programas de meditação (Lazar et al. 2005), promoveram mudanças estruturais significativas nas regiões do cérebro associadas à cognição e ao raciocínio. Esses resultados apoiariam a ideia de que as formas aristotélicas de educação moral - ou seja, habituação e phronesis cultivo - na verdade influencia a estrutura do cérebro de acordo com a ideia de neuroplasticidade (LeDoux 2002) e estudos neurocientíficos anteriores que demonstram o efeito de nível neural de habituação e aprendizagem (Tricomi et al. 2009 Lingawi e Balleine 2012 de Wit et al. 2012).


A neurociência da cognição moral: dos processos duais aos sistemas dinâmicos

Revisamos pesquisas sobre as bases psicológicas e neurais da cognição moral.

A cognição moral é amplamente distribuída por todo o cérebro.

O contexto social modula a cognição moral.

Os julgamentos morais são atualizados dinamicamente com base nas novas informações.

Os modelos de cognição moral envolvem mais de dois processos.

Teorias proeminentes da moralidade integraram a filosofia com a psicologia e a biologia. Embora essa abordagem tenha sido altamente produtiva, argumentamos que ela não captura totalmente a natureza rica e dinâmica da cognição moral. Revisamos pesquisas da tradição do processo dual, em que as intuições morais são extraídas automaticamente e o raciocínio é subsequentemente desenvolvido para corrigir essas intuições iniciais. Em seguida, descrevemos como os cálculos subjacentes à cognição moral são diversos e amplamente distribuídos por todo o cérebro. Finalmente, ilustramos como o contexto social modula esses cálculos, recrutando diferentes sistemas para julgamentos morais reais (vs. hipotéticos), examinando o processo dinâmico pelo qual os julgamentos morais são atualizados. Em suma, defendemos uma mudança de processos duais para modelos de sistema dinâmico de cognição moral.


Cérebros morais: a neurociência da moralidade

Nos últimos quinze anos, tem havido um interesse significativo no estudo das estruturas cerebrais envolvidas em julgamentos morais usando novas técnicas da neurociência, como a ressonância magnética funcional (fMRI). Muitas pessoas, incluindo vários filósofos, acreditam que os resultados da neurociência têm o potencial de resolver ou pelo menos mover debates aparentemente intratáveis ​​a respeito da natureza, prática e confiabilidade dos julgamentos morais. Isso levou a uma enxurrada de atividades científicas e filosóficas, resultando no rápido crescimento do novo campo da neurociência moral. Este volu. Mais

Nos últimos quinze anos, tem havido um interesse significativo no estudo das estruturas cerebrais envolvidas em julgamentos morais usando novas técnicas da neurociência, como a ressonância magnética funcional (fMRI). Muitas pessoas, incluindo vários filósofos, acreditam que os resultados da neurociência têm o potencial de resolver ou pelo menos mover debates aparentemente intratáveis ​​a respeito da natureza, prática e confiabilidade dos julgamentos morais. Isso levou a uma enxurrada de atividades científicas e filosóficas, resultando no rápido crescimento do novo campo da neurociência moral. Este volume é o primeiro a fazer um balanço de quinze anos de pesquisa neste campo de rápido crescimento da neurociência moral e a recomendar direções futuras para a pesquisa. Ele apresenta as pesquisas mais atualizadas nesta área e apresenta uma ampla variedade de perspectivas de algumas das figuras mais significativas da filosofia, neurociência e psicologia. O volume está dividido em quatro partes. A Parte I considera como as evidências da neurociência afetam o debate sobre se os julgamentos morais são produto do raciocínio ou das emoções. A Parte II avalia a afirmação de que a evidência neurocientífica apóia a ideia de que os julgamentos consequencialistas são mais confiáveis ​​do que os julgamentos não conseqüencialistas. Parte III apresenta as últimas descobertas dos principais neurocientistas no estudo de julgamentos morais. Parte IV oferece novas maneiras de tirar lições filosóficas dos dados científicos.

Informação Bibliográfica

Data de publicação impressa: 2016 Impressão ISBN-13: 9780199357666
Publicado na Oxford Scholarship Online: setembro de 2016 DOI: 10.1093 / acprof: oso / 9780199357666.001.0001

Autores

As afiliações estão no momento da publicação impressa.

S. Matthew Liao, editor
Diretor e Professor Associado do Center for Bioethics e Professor Afiliado do Departamento de Filosofia da New York University


Notas de rodapé

Nota do Editor: Estas revisões curtas e críticas de artigos recentes no Diário, escrito exclusivamente por alunos de graduação ou pós-doutorado, tem como objetivo resumir as descobertas importantes do artigo e fornecer informações e comentários adicionais. Para obter mais informações sobre o formato e a finalidade do Journal Club, consulte http://www.jneurosci.org/misc/ifa_features.shtml.

Agradecemos a Donal Cahill, Alek Chakroff, Eveline Crone e Berna Güroğlu por seus comentários em uma versão anterior deste manuscrito.


Moralidade como mecânica de automóveis

Se você quiser encontrar mecanismos morais no cérebro, Joshua Greene, PhD, é o cara. Greene é professor de psicologia e diretor do Laboratório de Cognição Moral da Universidade de Harvard, e conduziu vários estudos usando experimentos comportamentais e fMRI para estudar o pensamento moral.

Ele descobriu que a moralidade usa as mesmas funções cognitivas que as pessoas usam para as decisões diárias. Os problemas morais envolvem razão, emoção, motivação, simulações mentais e muitas outras faculdades monótonas das quais as pessoas recorrem ao decidir o que querem comer no café da manhã ou como se sentem em relação a um novo chefe ou colega de trabalho.

“As pessoas costumam falar sobre uma faculdade moral especial, como se houvesse esse portal brilhante em nossos cérebros que faz 'woo woo' e emite julgamentos morais”, diz Geene. Mas a neurociência simplesmente não apóia isso.

Embora algumas pessoas possam relutar em abandonar a ideia de que a moralidade é uma capacidade única e distinta, Greene vê uma fresta de esperança na descoberta.

"Se pudermos entender o julgamento moral como os mesmos velhos circuitos cerebrais fazendo os mesmos velhos tipos de coisas, mas em um contexto diferente, isso realmente desmistifica o julgamento moral", diz ele. Isso poderia dar às pessoas a distância para considerar as limitações de seus próprios julgamentos morais. "Torna-se uma espécie de mecânica de automóveis, em vez de no reino da transcendência."

E considerando essas limitações, diz Greene, é exatamente como a psicologia pode oferecer algo no caminho da orientação moral.

A maioria dos psicólogos morais concorda que o papel da psicologia não é decidir quais decisões morais são as corretas. Embora os psicólogos tenham uma opinião sobre os valores morais, o mesmo acontecerá com fazendeiros, pescadores e programadores de computador, diz Patricia Churchland, PhD, uma filósofa da Universidade da Califórnia em San Diego, que estuda a interseção entre neurociência e filosofia. “A sabedoria moral não é propriedade de nenhuma profissão”, diz ela.

“Freqüentemente, os cientistas têm fatos relevantes e você deve levar esses fatos em consideração”, acrescenta ela. Mas para decidir o que é certo e quais são as nossas leis? "Então temos que nos unir, ouvir, negociar e tentar chegar a um consenso."


A neurociência da cognição moral: dos processos duais aos sistemas dinâmicos

Revisamos pesquisas sobre as bases psicológicas e neurais da cognição moral.

A cognição moral é amplamente distribuída por todo o cérebro.

O contexto social modula a cognição moral.

Os julgamentos morais são atualizados dinamicamente com base nas novas informações.

Os modelos de cognição moral envolvem mais de dois processos.

Teorias proeminentes da moralidade integraram a filosofia com a psicologia e a biologia. Embora essa abordagem tenha sido altamente generativa, argumentamos que ela não captura totalmente a natureza rica e dinâmica da cognição moral. Revisamos pesquisas da tradição do processo dual, em que as intuições morais são extraídas automaticamente e o raciocínio é subsequentemente desenvolvido para corrigir essas intuições iniciais. Em seguida, descrevemos como os cálculos subjacentes à cognição moral são diversos e amplamente distribuídos por todo o cérebro. Finalmente, ilustramos como o contexto social modula esses cálculos, recrutando diferentes sistemas para julgamentos morais reais (vs. hipotéticos), examinando o processo dinâmico pelo qual os julgamentos morais são atualizados. Em suma, defendemos uma mudança de processos duais para modelos de sistema dinâmico de cognição moral.


Moralidade como mecânica de automóveis

Se você quiser encontrar mecanismos morais no cérebro, Joshua Greene, PhD, é o cara. Greene é professor de psicologia e diretor do Laboratório de Cognição Moral da Universidade de Harvard, e conduziu vários estudos usando experimentos comportamentais e fMRI para estudar o pensamento moral.

Ele descobriu que a moralidade usa as mesmas funções cognitivas que as pessoas usam para as decisões diárias. Os problemas morais envolvem razão, emoção, motivação, simulações mentais e muitas outras faculdades monótonas das quais as pessoas recorrem ao decidir o que querem comer no café da manhã ou como se sentem em relação a um novo chefe ou colega de trabalho.

“As pessoas costumam falar sobre uma faculdade moral especial, como se houvesse esse portal brilhante em nossos cérebros que faz 'woo woo' e emite julgamentos morais”, diz Geene. Mas a neurociência simplesmente não apóia isso.

Embora algumas pessoas possam relutar em abandonar a ideia de que a moralidade é uma capacidade única e distinta, Greene vê uma fresta de esperança na descoberta.

“Se pudermos entender o julgamento moral como os mesmos velhos circuitos cerebrais fazendo os mesmos velhos tipos de coisas, mas em um contexto diferente, isso realmente desmistifica o julgamento moral”, diz ele. Isso poderia dar às pessoas a distância para considerar as limitações de seus próprios julgamentos morais. "Torna-se uma espécie de mecânica de automóveis, em vez de no reino da transcendência."

E considerando essas limitações, diz Greene, é exatamente como a psicologia pode oferecer algo no caminho da orientação moral.

A maioria dos psicólogos morais concorda que o papel da psicologia não é decidir quais decisões morais são as corretas. Embora os psicólogos tenham uma opinião sobre os valores morais, o mesmo acontecerá com fazendeiros, pescadores e programadores de computador, diz Patricia Churchland, PhD, uma filósofa da Universidade da Califórnia em San Diego, que estuda a interseção entre neurociência e filosofia. “A sabedoria moral não é propriedade de nenhuma profissão”, diz ela.

“Freqüentemente, os cientistas têm fatos relevantes e você deve levar esses fatos em consideração”, acrescenta ela. Mas para decidir o que é certo e quais são as nossas leis? "Então temos que nos unir, ouvir, negociar e tentar chegar a um consenso."


Greene cursou o ensino médio em Fort Lauderdale, no condado de Broward, na Flórida. [3] Ele cursou brevemente a Wharton School da Universidade da Pensilvânia antes de se transferir para a Universidade de Harvard. [4] Ele recebeu o diploma de bacharel em filosofia por Harvard em 1997, [5] seguido por um Ph.D. Doutor em filosofia pela Princeton University sob a supervisão de David Lewis e Gilbert Harman. Peter Singer também atuou em seu comitê de dissertação. Sua dissertação de 2002, A verdade terrível, horrível, nenhuma boa, muito má sobre moralidade e o que fazer a respeito, argumenta contra a linguagem moral-realista e em defesa do utilitarismo não-realista como uma estrutura melhor para resolver divergências. [6] Greene atuou como pós-doutorado em Princeton no Laboratório de Neurociência de Controle Cognitivo antes de retornar a Harvard em 2006 como professor assistente. Em 2011, ele se tornou o John and Ruth Hazel Professor Associado de Ciências Sociais. Desde 2014 é Professor de Psicologia.

Greene e seus colegas desenvolveram uma teoria de processo duplo de julgamento moral, sugerindo que os julgamentos morais são determinados tanto por respostas emocionais automáticas quanto por raciocínio consciente e controlado. Em particular, Greene argumenta que a "tensão central" na ética entre deontologia (teorias morais baseadas em direitos ou deveres) e consequencialismo (teorias baseadas em resultados) reflete as influências concorrentes desses dois tipos de processos:

Julgamentos caracteristicamente deontológicos são preferencialmente supostos por respostas emocionais automáticas, enquanto julgamentos caracteristicamente consequencialistas são preferencialmente apoiados por raciocínio consciente e processos aliados de controle cognitivo. [7]

Em um dos primeiros experimentos para sugerir um modelo de processo duplo moral, [3] Greene e colegas mostraram que as pessoas fazendo julgamentos sobre dilemas morais "pessoais" (como empurrar uma pessoa na frente de um carrinho que se aproxima para salvar cinco outros) envolveram várias regiões cerebrais associadas à emoção que não foram ativadas por julgamentos mais "impessoais" (como puxar um interruptor para redirecionar um bonde de um trilho no qual mataria cinco pessoas para um trilho no qual mataria outra pessoa). [8] Eles também descobriram que para os dilemas envolvendo questões morais "pessoais", aqueles que fizeram a escolha intuitivamente desagradável tiveram tempos de reação mais longos do que aqueles que tomaram a decisão mais emocionalmente agradável.

Um estudo subsequente comparou questões morais pessoais "fáceis" para as quais os sujeitos tinham tempos de reação rápidos contra dilemas "difíceis" (como o problema da passarela) aos quais eles tinham tempos de reação lentos. [9] Ao responder aos problemas difíceis, os sujeitos exibiram atividade aumentada no córtex pré-frontal dorsolateral anterior (DLPFC) e lobos parietais inferiores - áreas associadas ao processamento cognitivo - bem como o córtex cingulado anterior - que foi implicado na detecção de erro entre duas entradas confusas, como na tarefa Stroop). Esta comparação demonstrou que problemas mais difíceis ativaram diferentes regiões do cérebro, mas não provou atividade diferencial pelo mesmo problema moral dependendo da resposta dada. Isso foi feito na segunda parte do estudo, na qual os autores mostraram que, para uma determinada questão, os sujeitos que fizeram as escolhas utilitárias tinham maior atividade no DLPFC anterior e no lobo parietal inferior direito do que os sujeitos que faziam escolhas não utilitárias .

Esses dois estudos eram correlacionais, mas outros sugeriram, desde então, um impacto causal do processamento emocional versus cognitivo nos julgamentos deontológicos versus utilitários. [10] [11] [12] Um estudo de 2008 [13] por Greene mostrou que a carga cognitiva fazia com que os sujeitos demorassem mais para responder quando faziam um julgamento moral utilitário, mas não afetava o tempo de resposta quando faziam um julgamento não utilitário , sugerindo que os processos de pensamento utilitaristas exigiam esforço cognitivo extra.

O artigo de 2008 de Greene "The Secret Joke of Kant's Soul" [14] argumenta que a ética kantiana / deontológica é melhor entendida como racionalização do que racionalismo - uma tentativa de justificar julgamentos morais intuitivos post-hoc. Vários filósofos escreveram respostas críticas. [15] [16] [17]

Baseando-se na teoria do processo duplo, bem como na psicologia evolutiva e outros trabalhos de neurociência, o livro de Greene Tribos Morais (2013) explora como nossas intuições éticas atuam no mundo moderno. [18]

Greene postula que os humanos têm uma tendência instintiva e automática de cooperar com outros em seu grupo social em cenários de tragédia dos comuns ("eu contra nós"). Por exemplo, em um jogo de investimento cooperativo, as pessoas são mais propensas a fazer o que é melhor para o grupo quando estão sob pressão de tempo ou quando estão preparadas para "seguir seu instinto" e, inversamente, a cooperação pode ser inibida por Cálculo. [19] However, on questions of inter-group harmony ("us versus them"), automatic intuitions run into a problem, which Greene calls the "tragedy of commonsense morality". The same ingroup loyalty that achieves cooperation dentro de a community leads to hostility entre communities. In response, Greene proposes a "metamorality" based on a "common currency" that all humans can agree upon and suggests that utilitarianism—or as he calls it, "deep pragmatism"—is up to the task. [20]

Reception Edit

Moral Tribes received multiple positive reviews. [21] [22] [23] [24]

Thomas Nagel critiques the book by suggesting that Greene is too quick to conclude utilitarianism specifically from the general goal of constructing an impartial morality for example, he says, Immanuel Kant and John Rawls offer other impartial approaches to ethical questions. [20]

Robert Wright calls [25] Greene's proposal for global harmony ambitious and adds, "I like ambition!" But he also claims that people have a tendency to see facts in a way that serves their ingroup, even if there's no disagreement about the underlying moral principles that govern the disputes. "If indeed we're wired for tribalism", Wright explains, "then maybe much of the problem has less to do with differing moral visions than with the simple fact that my tribe is my tribe and your tribe is your tribe. Both Greene and Paul Bloom cite studies in which people were randomly divided into two groups and immediately favored members of their own group in allocating resources—even when they knew the assignment was random." Instead, Wright proposes that "nourishing the seeds of enlightenment indigenous to the world's tribes is a better bet than trying to convert all the tribes to utilitarianism—both more likely to succeed, and more effective if it does."

Greene's metamorality of deep pragmatism has recently been criticized by Steven Kraaijeveld and Hanno Sauer for being based on conflicting arguments about moral truth. [26]

Greene received the 2012 Stanton Prize from the Society for Philosophy and Psychology. [27]

In 2013, Greene was awarded the Roslyn Abramson Award, given annually to Harvard faculty "in recognition of his or her excellence and sensitivity in teaching undergraduates". [5]


Moral Brains: The Neuroscience of Morality

In the last fifteen years, there has been significant interest in studying the brain structures involved in moral judgments using novel techniques from neuroscience such as functional magnetic resonance imaging (fMRI). Many people, including a number of philosophers, believe that results from neuroscience have the potential to settle or at least move seemingly intractable debates concerning the nature, practice, and reliability of moral judgments. This has led to a flurry of scientific and philosophical activities, resulting in the rapid growth of the new field of moral neuroscience. This volu . Mais

In the last fifteen years, there has been significant interest in studying the brain structures involved in moral judgments using novel techniques from neuroscience such as functional magnetic resonance imaging (fMRI). Many people, including a number of philosophers, believe that results from neuroscience have the potential to settle or at least move seemingly intractable debates concerning the nature, practice, and reliability of moral judgments. This has led to a flurry of scientific and philosophical activities, resulting in the rapid growth of the new field of moral neuroscience. This volume is the first to take stock of fifteen years of research in this fast-growing field of moral neuroscience and to recommend future directions for research. It features the most up-to-date research in this area, and it presents a wide variety of perspectives from some of the most significant figures in philosophy, neuroscience, and psychology. The volume is divided into four parts. Part I considers how evidence from neuroscience affects the debate concerning whether moral judgments are the product of reasoning or emotions. Part II assesses the claim that neuroscientific evidence supports the idea that consequentialist judgments are more reliable than nonconsequentialist judgments. Part III presents the latest findings from leading neuroscientists on the study of moral judgments. Part IV offers new ways of drawing philosophical lessons from the scientific data.

Bibliographic Information

Print publication date: 2016 Print ISBN-13: 9780199357666
Published to Oxford Scholarship Online: September 2016 DOI:10.1093/acprof:oso/9780199357666.001.0001

Authors

Affiliations are at time of print publication.

S. Matthew Liao, editor
Director and Associate Professor of the Center for Bioethics, and Affiliated Professor in the Department of Philosophy, New York University


Development of moral virtue and developmental neuroscience

Findings in developmental neuroscience also support the developmental model of Aristotelian ethicists. Both early habituation and internalization of moral virtue, as well as cultivation of phronesis, which moderates motivational forces to be appropriately exerted in a given situation, are necessary for the achievement of the ultimate purpose of human life, that is, eudaimonia (Aristotle 2000 Wall 2003 Kristjánsson 2014), according to Aristotelian perspective.

First, the previous lesion study demonstrated that the average moral judgment interview score among patients with early-onset prefrontal damage was significantly worse than that of normal participants. This study proposed that patients with such damage were not able to internalize moral norms into their brain reward system, hindering their further development of moral reasoning, given the somatic marker hypothesis (Saver and Damasio 1991 Damasio 1994). It can support the standpoint of Aristotelian moral development, which emphasizes the importance of early habituation of moral norms for the acquisition of moral virtue and eudaimonia. Of course, a continent person, who has developed moral reasoning without early-habituation of moral virtue, can behave morally because she knows well what is morally appropriate (Kristjánsson 2013 Fowers 2014) however, because moral norm and affection are not completely integrated into her selfhood, they become a sort of external imperative for her, not a natural trait, and can hardly serve for her moral flourishing and happiness (Stocker 2003). Thus, the neuroscientific investigation corresponds to this Aristotelian account on moral development, which emphasizes the importance of early internalization of moral virtue for the future development of moral character, including moral reasoning.

Second, developmental brain studies have shown that the Aristotelian version of the moral developmental course, which consists of the habituation of norms and cultivation of wisdom, may occur in the physical reality. According to this idea, the early habituation and internalization of moral norms through repetitive behavioural training, followed by the cultivation of phronesis, are required for the development of moral character (Carr 2008 Kristjánsson 2014). Some neuroimaging studies have demonstrated that one of the most salient aspects of moral development at the neural level during early-childhood through early-adolescence is that brain regions associated with the motivational and reward system (e.g., amygdala, nucleus accumbens, orbitofrontal cortex, ventral striatum), which engages in the habituation and internalization of rules (Wilson and Rolls 2005 Blair 2007), develop earlier than regions associated with sophisticated reasoning (Galvan et al. 2006 Hare et al. 2008 Decety et al. 2012). This aspect would also be supported by neuroimaging studies demonstrating that habituation actually influences the neural mechanism of affection and motivation (Tricomi et al. 2009 Lingawi and Balleine 2012 de Wit et al. 2012). Then, in regions correlated with reasoning based on prudence, self-control, and sophisticated self-reflective processes (e.g., lateral prefrontal cortex, posterior cingulate cortex) (Moll et al. 2007 Buckner et al. 2008 Immordino-Yang et al. 2012), that correspond to the concept of phronesis in Aristotelian philosophy, the activity becomes salient beyond adolescence (Casey et al. 2008 Wright et al. 2008 Harenski et al. 2012). This neural-level developmental trend suggests that the moral developmental course proposed by Aristotelian ethics may actually occur in the human brain.

Although there have been no neuroscientific studies that directly focused on the neural-level effect of moral educational interventions, some experiments can shed light on this issue. First, training programs designed for the habituation of certain actions, such as juggling, induced myelination in regions associated with the function (Scholz et al. 2009). Second, even for the cultivation of reasoning, which is more sophisticated than the case of habituation, interventions, such as board games (Lee et al. 2010), reasoning exercises (Mackey et al. 2012), working memory training (Olesen et al. 2004 Takeuchi et al. 2010), and meditation programs (Lazar et al. 2005), promoted significant structural changes in brain regions associated with cognition and reasoning. These results would support the idea that Aristotelian ways for moral education—i.e., habituation and phronesis cultivation—actually influences the brain structure according to the idea of neuroplasticity (LeDoux 2002) and previous neuroscientific studies demonstrating the neural-level effect of habituation and learning (Tricomi et al. 2009 Lingawi and Balleine 2012 de Wit et al. 2012).


Evidence for Moral Behavior in Babies

When we see early signs of morality in young babies, this provides strong evidence for the evolutionary roots of morality, because babies have not yet had much time to be influenced by their environment. Psychologists who study human development have shown that human babies enter the world ready to pay attention and respond to social stimuli, such as voices and faces, and that babies begin forming social relationships during the first year of life. Young children provide comfort and assistance to both other children and adults in emotional distress. For instance, when they see their mothers in pain, 18-month-old toddlers show comforting behaviors (such as hugging, patting, and sharing toys). As infants develop and become more able to analyze what is going on around them, they even have the ability to recognize when a person in their environment is treating another person badly. At a young age, infants are quickly able to figure out whether the consequence of a behavior is good or bad, suggesting that their genes are involved and that experience and learning are not the only causes of moral development. At just 3 months of age, infants spend more time looking at a puppet character that has previously acted in a nice way than at one that acted in a negative way, suggesting that infants prefer those who 𠇍o good things.” By 6 months of age, this preference is stronger, with children not only looking more at helpful and nice puppet characters but also actually reaching for them [ 3 ]. By 12 months of age, infants begin to understand the concept of fairness. When these infants witness cookies being shared, they expect an equal number of cookies to be given to all of the people involved.

Taken together, evidence from these laboratory studies tells us that children under the age of 2 have a very good understanding of which actions will benefit others. However, as children get older, the expression of their morality changes. For example, while infants seem to see fairness as equality (everyone should get the same number of cookies, for example), teenagers tend to prefer giving more resources to those who do not have any already or to those who worked harder. Thus, these early tendencies (in infancy) are considered to be the foundation for, but not the exact same as, adult morality. Our concepts of morality are built from the combination of emotions, motivations, and our increasing level of mental understanding as we develop.


Notas de rodapé

Editor's Note: These short, critical reviews of recent papers in the Diário, written exclusively by graduate students or postdoctoral fellows, are intended to summarize the important findings of the paper and provide additional insight and commentary. For more information on the format and purpose of the Journal Club, please see http://www.jneurosci.org/misc/ifa_features.shtml.

We thank Donal Cahill, Alek Chakroff, Eveline Crone, and Berna Güroğlu for their comments on an earlier draft of this manuscript.


Conteúdo

The origins of moral psychology can be traced back to early philosophical works, largely concerned with moral education, such as by Plato and Aristotle in Ancient Greece, [18] [19] as well as from the Confucian tradition. [20] [21] [22] Empirical studies of moral judgment go back at least as far as the 1890s with the work of Frank Chapman Sharp, [23] coinciding with the development of psychology as a discipline separate from philosophy. Since at least 1894, philosophers and psychologists attempted to empirically evaluate the morality of an individual, [24] [25] especially attempting to distinguish adults from children in terms of their judgment, but these efforts failed because they "attempted to quantify how much morality an individual had—a notably contentious idea—rather than understand the individual's psychological representation of morality". [26] ( p284 )

In most introductory psychology courses, students learn about moral psychology by studying the psychologist Lawrence Kohlberg, [28] [29] [30] who proposed a highly influential theory of moral development, developed throughout the 1950s and 1960s. This theory was built on Piaget's observation that children develop intuitions about justice that they can later articulate. Kohlberg proposed six stages broken into 3 categories of moral reasoning that, he believed to be universal to all people in all cultures. [31] The increasing sophistication of justice-based reasoning was taken as a sign of development. Moral cognitive development, in turn, was assumed to be a necessary (but not sufficient) condition for moral action. [32]

But researchers using the Kohlberg model found a gap between what people said was most moral and actions they took. In response, Augusto Blasi proposed his self-model [ citação necessária ] that links ideas of moral judgment and action through moral commitment. Those with moral goals central to the self-concept are more likely to take moral action, as they feel a greater obligation to do so. Those who are motivated will attain a unique moral identity. [33]

Following the independent publication of a pair of landmark papers in 2001 (respectively led by Jonathan Haidt and Joshua Greene), [34] [35] there was a surge in interest in moral psychology across a broad range of subfields of psychology, with interest shifting away from developmental processes towards a greater emphasis on social, cognitive, affective and neural processes involved in moral judgment. [1] [5] [36]

Philosophers, psychologists and researchers from other fields have created various methods for studying topics in moral psychology, with empirical studies dating back to at least the 1890s. [26] The methods used in these studies include moral dilemmas such as the trolley problem, [23] [35] structured interviews and surveys as a means to study moral psychology and its development, as well as the use of economic games, [37] neuroimaging, [38] and studies of natural language use. [39]

Interview techniques Edit

In 1963, Lawrence Kohlberg presented an approach to studying differences in moral judgment by modeling evaluative diversity as reflecting a series of developmental stages (à la Jean Piaget). Lawrence Kohlberg's stages of moral development are: [40]

  1. Obedience and punishment orientation
  2. Self-interest orientation
  3. Interpersonal accord and conformity
  4. Authority and social-order maintaining orientation
  5. Social contract orientation
  6. Universal ethical principles

Stages 1 and 2 are combined into a single stage labeled "pre-conventional", and stages 5 and 6 are combined into a single stage labeled "post-conventional" for the same reason psychologists can consistently categorize subjects into the resulting four stages using the "Moral Judgement Interview" which asks subjects why they endorse the answers they do to a standard set of moral dilemmas. [29]

Survey instruments Edit

Between 1910 and 1930, in the United States and Europe, several morality tests were developed to classify subjects as either fit or unfit to make moral judgments. [26] [41] Test-takers would classify or rank standardized lists of personality traits, hypothetical actions, or pictures of hypothetical scenes. As early as 1926, catalogs of personality tests included sections specifically for morality tests, though critics persuasively argued that they merely measured intelligence or awareness of social expectations. [26]

Meanwhile, Kohlberg inspired a new series of morality tests. The Defining Issues Test (dubbed "Neo-Kohlbergian" by its constituents) scores relative preference for post-conventional justifications, [42] [43] and the Moral Judgment Test scores consistency of one's preferred justifications. [44] [45] Both treat evaluative ability as similar to IQ (hence the single score), allowing categorization by high score vs. low score.

Among the more recently developed survey measures, the Moral Foundations Questionnaire [46] is a widely used survey measure of the five moral intuitions proposed by Moral Foundations Theory: care/harm, fairness/cheating, loyalty/betrayal, authority/subversion, and sanctity/degradation. The questions ask respondents to rate various considerations in terms of how relevant they are to the respondent's moral judgments. The purpose of the questionnaire is to measure the degree to which people rely upon each of the five moral intuitions (which may coexist). The first two foundations cluster together with liberal political orientation and the latter three cluster with conservative political orientation. [47] [48] In addition to survey instruments measuring endorsement of moral foundations, a number of other contemporary survey measures exist relating to other broad taxonomies of moral values, [49] [50] [51] as well as more specific moral beliefs, [52] [53] or concerns. [54] [55]

According to Haidt, [27] the belief that morality is not innate was one of the few theoretical commitments uniting many of the prominent psychologists studying morality in the twentieth century (with some exceptions [56] [57] ). A substantial amount of research in recent decades has focused on the evolutionary origins of various aspects of morality. [58] [59] [60] [61] In Unto Others: the Evolution and Psychology of Unselfish Behavior (1998), Elliott Sober and David Sloan Wilson demonstrated that diverse moralities could evolve through group selection. [62] In particular, they dismantled the idea that natural selection will favor a homogeneous population in which all creatures care only about their own personal welfare and/or behave only in ways which advance their own personal reproduction. [63] Tim Dean has advanced the more general claim that moral diversity would evolve through frequency-dependent selection because each moral approach is vulnerable to a different set of situations which threatened our ancestors. [64]

Moral identity Edit

Moral identity refers to the importance of morality to a person's identity, typically construed as either a trait-like individual difference, or set of chronically accessible schemas. [33] [65] Moral identity is theorized to be one of the key motivational forces connecting moral reasoning to moral behavior, [65] as suggested by a 2016 meta-analysis reporting that moral identity is positively (albeit only modestly) associated with moral behavior. [66]

Moral values Edit

Psychologist Shalom Schwartz defines individual values as "conceptions of the desirable that guide the way social actors (e.g.organisational leaders, policymakers, individual persons) select actions, evaluate people an events, and explain their actions and evaluations." [67] Cultural values form the basis for social norms, laws, customs and practices. While individual values vary case by case (a result of unique life experience), the average of these values point to widely held cultural beliefs (a result of shared cultural values).

Kristiansen and Hotte [68] reviewed many research articles regarding people's values and attitudes and whether they guide behavior. With the research they reviewed and their own extension of Ajzen and Fishbein's theory of reasoned action, they conclude that value-attitude-behavior depends on the individual and their moral reasoning. Another issue that Kristiansen and Hotte discovered through their research was that individuals tended to "create" values to justify their reactions to certain situations, which they called the "value justification hypothesis". [68] Their theory is comparable to Jonathan Haidt's social intuitionist theory, [34] where individuals justify their intuitive emotions and actions through post-hoc moral reasoning.

Kristiansen and Hotte also found that independent selves had actions and behaviors that are influenced by their own thoughts and feelings, but Interdependent selves have actions, behaviors and self-concepts that were based on the thoughts and feelings of others. Westerners have two dimensions of emotions, activation and pleasantness. The Japanese have one more, the range of their interdependent relationships. Markus and Kitayama found that these two different types of values had different motives. Westerners, in their explanations, show self-bettering biases. Easterners, on the other hand, tend to focus on "other-oriented" biases. [68]

Moral foundations theory Edit

Moral foundations theory, first proposed in 2004 by Jonathan Haidt and Craig Joseph, [69] attempts to explain the origins of and variation in human moral reasoning on the basis of innate, modular foundations. Notably, moral foundations theory has been used to describe the difference between the moral foundations of political liberals and political conservatives. [70] [47] Haidt and Joseph expanded on previous research done by Shweder and his three ethics theory. [69] Shweder's theory consisted of three moral ethics: the ethics of community, autonomy, and divinity. [71] Haidt and Graham took this theory and extended it to discuss the five psychological systems that more specifically make up the three moral ethics theory. These Five Foundations of Morality and their importance vary throughout each culture and construct virtues based on their emphasized foundation. The five psychological foundations are:

  • Harm/care, which starts with the sensitivity to signs of suffering in offspring and develops into a general dislike of seeing suffering in others and the potential to feel compassion in response.
  • Fairness/reciprocity, which is developed when someone observes or engages in reciprocal interactions. This foundation is concerned with virtues related to fairness and justice.
  • Ingroup/loyalty, which constitutes recognizing, trusting, and cooperating with members of one's ingroup as well as being wary of members of other groups.
  • Authority/respect, which is how someone navigates in a hierarchal ingroups and communities.
  • Purity/sanctity, which stems from the emotion of disgust that guards the body by responding to elicitors that are biologically or culturally linked to disease transmission.

The five foundations theory are both a nativist and cultural-psychological theory. Modern moral psychology concedes that "morality is about protecting individuals" and focuses primarily on issues of justice (harm/care and fairness/reciprocity). [70] ( p99 ) Their research found that "justice and related virtues. make up half of the moral world for liberals, while justice-related concerns make up only one fifth of the moral world for conservatives". [70] ( p99 ) Liberals value harm/care and fairness/reciprocity significantly more than the other moralities, while conservatives value all five equally.

Moral virtues Edit

In 2004, D. Lapsley and D. Narvaez outlined how social cognition explains aspects of moral functioning. [72] Their social cognitive approach to personality has six critical resources of moral personality: cognition, self-processes, affective elements of personality, changing social context, lawful situational variability, and the integration of other literature. Lapsley and Narvaez suggest that moral values and actions stem from more than our virtues and are controlled by a set of self-created schemas (cognitive structures that organize related concepts and integrate past events). They claim that schemas are "fundamental to our very ability to notice dilemmas as we appraise the moral landscape" and that over time, people develop greater "moral expertise". [73]

Triune ethics theory Edit

The triune ethics meta-theory (TEM) has been proposed by Darcia Narvaez as a metatheory that highlights the relative contributions to moral development of biological inheritance (including human evolutionary adaptations), environmental influences on neurobiology, and the role of culture. [74] TET proposes three basic mindsets that shape ethical behavior: self-protectionism (a variety of types), engagement, and imagination (a variety of types that are fueld by protectionism or engagement). A mindset influences perception, affordances, and rhetorical preferences. Actions taken within a mindset become an ethic when they trump other values. Engagement and communal imagination represent optimal human functioning that are shaped by the evolved developmental niche (evolved nest) that supports optimal psychosocial neurobiological development. [75] Based on worldwide anthropological research (e.g., Hewlett and Lamb's Hunter-Gatherer Childhoods), Narvaez uses small-band hunter-gatherers as a baseline for the evolved nest and its effects.

Moral reasoning and development Edit

Moral development and reasoning are two overlapping topics of study in moral psychology that have historically received a great amount of attention, even preceding the influential work of Piaget and Kohlberg. [26] Moral reasoning refers specifically to the study of how people think about right and wrong and how they acquire and apply moral rules. [76] Moral development refers more broadly to age-related changes in thoughts and emotions that guide moral beliefs, judgments and behaviors. [77]

Kohlberg's stage theory Edit

Jean Piaget, in watching children play games, noted how their rationales for cooperation changed with experience and maturation. [78] He identified two stages, heteronomous (morality centered outside the self) and autonomous (internalized morality). Lawerence Kohlberg sought to expand Piaget's work. His cognitive developmental theory of moral reasoning dominated the field for decades. He focused on moral development as one's progression in the capacity to reason about justice. Kohlberg's interview method included hypothetical moral dilemmas or conflicts of interest (most notably, the Heinz dilemma). He proposed six stages and three levels of development (claiming that "anyone who interviewed children about dilemmas and who followed them longitudinally in time would come to our six stages and no others). [79] At the Preconventional level, the first two stages included the punishment-and-obedience orientation and the instrumental-relativist orientation. The next level, the conventional level, included the interpersonal concordance or "good boy – nice girl" orientation, along with the "law and order" orientation. Lastly, the final Postconventional level consisted of the social-contract, legalistic orientation and the universal-ethical-principle orientation. [80] According to Kohlberg, an individual is considered more cognitively mature depending on their stage of moral reasoning, which grows as they advance in education and world experience.

Critics of Kohlberg's approach (such as Carol Gilligan and Jane Attanucci) argue that there is an over-emphasis on justice and an under-emphasis on an additional perspective to moral reasoning, known as the care perspective. The justice perspective draws attention to inequality and oppression, while striving for reciprocal rights and equal respect for all. The care perspective draws attention to the ideas of detachment and abandonment, while striving for attention and response to people who need it. Care Orientation is relationally based. It has a more situational focus that is dependent on the needs of others as opposed to Justice Orientation's objectivity. [81] However, reviews by others have found that Gilligan's theory was not supported by empirical studies since orientations are individual dependent. [82] [83] In fact, in neo-Kohlbergian studies with the Defining Issues Test, females tend to get slightly higher scores than males. [84] [ página necessária ]

The attachment approach to moral judgment Edit

Aner Govrin's attachment approach to moral judgment [85] [86] [87] proposes that, through early interactions with the caregiver, the child acquires an internal representation of a system of rules that determine how right/wrong judgments are to be construed, used, and understood. By breaking moral situations down into their defining features, the attachment model of moral judgment outlines a framework for a universal moral faculty based on a universal, innate, deep structure that appears uniformly in the structure of almost all moral judgments regardless of their content.

Moral behaviour Edit

Historically, major topics of study in the domain of moral behavior have included violence and altruism, [88] [89] bystander intervention and obedience to authority (e.g., the Milgram experiment [90] and Stanford prison experiment [91] ). [1] [92] Recent research on moral behavior uses a wide range of methods, including using experience sampling to try and estimate the actual prevalence of various kinds of moral behavior in everyday life. [93] [94] Research has also focused on variation in moral behavior over time, through studies of phenomena such as moral licensing. [95] [96] Yet other studies focusing on social preferences examine various kinds of resource allocation decisions, [14] [97] or use incentivized behavioral experiments to investigate the way people weight their own interests against other people's when deciding whether to harm others, for example, by examine how willing people are to administer electric shocks to themselves vs. others in exchange for money. [98]

James Rest reviewed the literature on moral functioning and identified at least four components necessary for a moral behavior to take place: [99] [100]

  • Sensitivity – noticing and interpreting the situation
  • Reasoning and making a judgment regarding the best (most moral) option
  • Motivation (in the moment but also habitually, such as moral identity)
  • implementation—having the skills and perseverance to carry out the action

Reynolds and Ceranic researched the effects of social consensus on one's moral behavior. Depending on the level of social consensus (high vs. low), moral behaviors will require greater or lesser degrees of moral identity to motivate an individual to make a choice and endorse a behavior. Also, depending on social consensus, particular behaviors may require different levels of moral reasoning. [101]

More recent attempts to develop an integrated model of moral motivation [102] have identified at least six different levels of moral functioning, each of which has been shown to predict some type of moral or pro-social behavior: moral intuitions, moral emotions, moral virtues/vices (behavioral capacities), moral values, moral reasoning, and moral willpower. This social intuitionist model of moral motivation [103] suggests that moral behaviors are typically the product of multiple levels of moral functioning, and are usually energized by the "hotter" levels of intuition, emotion, and behavioral virtue/vice. The "cooler" levels of values, reasoning, and willpower, while still important, are proposed to be secondary to the more affect-intensive processes.

Moral behavior is also studied under the umbrella of personality psychology where it is described in terms of traits or individual differences such as self-control, agreeableness, cooperativeness and honesty/humility. [104] [105]

Regarding interventions aimed at shaping moral behavior, a 2009 meta analysis of business ethics instruction programs found that such programs have only "a minimal impact on increasing outcomes related to ethical perceptions, behavior, or awareness." [106] A 2005 meta analysis [107] suggested that positive affect can at least momentarily increase prosocial behavior (with subsequent meta analyses also showing that prosocial behavior reciprocally increases positive affect in the actor [108] [109] ).

Value-behavior consistency Edit

In looking at the relations between moral values, attitudes, and behaviors, previous research asserts that there is less correspondence between these three aspects than one might assume. [110] In fact, it seems to be more common for people to label their behaviors with a justifying value rather than having a value beforehand and then acting on it. There are some people that are more likely to act on their personal values: those low in self-monitoring and high in self-consciousness, due to the fact that they are more aware of themselves and less aware of how others may perceive them. Self-consciousness here means being literally more conscious of yourself, not fearing judgement or feeling anxiety from others. Social situations and the different categories of norms can be telling of when people may act in accordance with their values, but this still isn't concrete either. People will typically act in accordance with social, contextual and personal norms, and there is a likelihood that these norms can also follow one's moral values. Though there are certain assumptions and situations that would suggest a major value-attitude-behavior relation, there is not enough research to confirm this phenomenon.

Moral willpower Edit

Building on earlier work by Metcalfe and Mischel on delayed gratification, [111] Baumeister, Miller, and Delaney explored the notion of willpower by first defining the self as being made up of three parts: reflexive consciousness, or the person's awareness of their environment and of himself as an individual interpersonal being, which seeks to mold the self into one that will be accepted by others and executive function. [112] They stated, "[T]he self can free its actions from being determined by particular influences, especially those of which it is aware". [113] The three prevalent theories of willpower describe it as a limited supply of energy, as a cognitive process, and as a skill that is developed over time. Research has largely supported that willpower works like a "moral muscle" with a limited supply of strength that may be depleted (a process referred to as Ego depletion), conserved, or replenished, and that a single act requiring much self-control can significantly deplete the "supply" of willpower. [112] While exertion reduces the ability to engage in further acts of willpower in the short term, such exertions actually improve a person's ability to exert willpower for extended periods in the long run. [114] Additional research has been conducted that may cast doubt on the idea of ego-depletion. [115]

Moral intuitions Edit

In 2001, Jonathan Haidt introduced his social intuitionist model which claimed that with few exceptions, moral judgments are made based upon socially derived intuitions. Moral intuitions happen immediately, automatically, and unconsciously, with reasoning largely serving to generate post-hoc rationalizations to justify one's instinctual reactions. [34] He provides four arguments to doubt causal importance of reason. Firstly, Haidt argues that since there is a dual process system in the brain when making automatic evaluations or assessments, this same process must be applicable to moral judgement as well. The second argument, based on research on motivated reasoning, claims that people behave like "intuitive lawyers", searching primarily for evidence that will serve motives for social relatedness and attitudinal coherence. Thirdly, Haidt found that people have post hoc reasoning when faced with a moral situation, this a posteriori (after the fact) explanation gives the illusion of objective moral judgement but in reality is subjective to one's gut feeling. Lastly, research has shown that moral emotion has a stronger link to moral action than moral reasoning, citing Damasio's research on the somatic marker hypothesis and Batson's empathy-altruism hypothesis. [34]

Following the publication of a landmark fMRI study in 2001, [35] Joshua Greene separately proposed his dual process theory of moral judgment, according to which intuitive/emotional and deliberative processes respectively give rise to characteristically deontological and consequentialist moral judgments. A "deontologist" is someone who has rule-based morality that is mainly focused on duties and rights in contrast, a "consequentialist" is someone who believes that only the best overall consequences ultimately matter. [116]

Moral emotions Edit

Moral emotions are a variety of social emotion that are involved in forming and communicating moral judgments and decisions, and in motivating behavioral responses to one's own and others' moral behavior. [117] [118] [119] While moral reasoning has been the focus of most study of morality dating all the way back to Plato and Aristotle, the emotive side of morality was historically looked upon with disdain in early moral psychology research. [117] However, in the last 30–40 years, there has been a rise in a new front of research: moral emotions as the basis for moral behavior. [119] This development began with a focus on empathy and guilt, but has since moved on to encompass new scholarship on emotions such as anger, shame, disgust, awe, and elevation.

Moralization and moral conviction Edit

Moralization, a term introduced to moral psychology by Paul Rozin, refers to the process through which preferences are converted into values. [120] [121] [122] Relatedly, Linda Skitka and colleagues have introduced the concept of moral conviction, which refers to a "strong and absolute belief that something is right or wrong, moral or immoral." [123] [124] According to Skitka's integrated theory of moral conviction (ITMC), attitudes held with moral conviction, known as moral mandates, differ from strong but non-moral attitudes in a number of important ways. Namely, moral mandates derive their motivational force from their perceived universality, perceived objectivity, and strong ties to emotion. [125] Perceived universality refers to the notion that individuals experience moral mandates as transcending persons and cultures additionally, they are regarded as matters of fact. Regarding association with emotion, ITMC is consistent with Jonathan Haidt's social intuitionist model in stating that moral judgments are accompanied by discrete moral emotions (i.e., disgust, shame, guilt). Importantly, Skitka maintains that moral mandates are not the same thing as moral values. Whether an issue will be associated with moral conviction varies across persons.

One of the main lines of IMTC research addresses the behavioral implications of moral mandates. Individuals prefer greater social and physical distance from attitudinally dissimilar others when moral conviction was high. This effect of moral conviction could not be explained by traditional measures of attitude strength, extremity, or centrality. Skitka, Bauman, and Sargis placed participants in either attitudinally heterogeneous or homogenous groups to discuss procedures regarding two morally mandated issues, abortion and capital punishment. Those in attitudinally heterogeneous groups demonstrated the least amount of goodwill towards other group members, the least amount of cooperation, and the most tension/defensiveness. Furthermore, individuals discussing a morally mandated issue were less likely to reach a consensus compared to those discussing non-moral issues. [126]

Sociological applications Edit

Some research shows that people tend to self-segregate based on moral and political views, [127] [128] exaggerate the magnitude of moral disagreements across political divides, [129] and avoid exposure to the opinions of those with opposing political views. [130]

Normative implications Edit

Researchers have begun to debate the implications (if any) moral psychology research has for other subfields of ethics such as normative ethics and meta-ethics. [131] [132] [133] [134] [135] For example Peter Singer, citing Haidt's work on social intuitionism and Greene's dual process theory, presented an "evolutionary debunking argument" suggesting that the normative force of our moral intuitions is undermined by their being the "biological residue of our evolutionary history." [136] John Doris discusses the way in which social psychological experiments—such as the Stanford prison experiments involving the idea of situationism—call into question a key component in virtue ethics: the idea that individuals have a single, environment-independent moral character. [137] [ página necessária ] As a further example, Shaun Nichols (2004) examines how empirical data on psychopathology suggests that moral rationalism is false. [138] [ página necessária ]

Additionally, research in moral psychology is being used to inform debates in applied ethics around moral enhancement. [139] [140]

Robotics and artificial intelligence Edit

At the intersection of moral psychology and machine ethics, researchers have begun to study people's views regarding the potentially ethically significant decisions that will be made by self-driving cars. [17] [16] [141] [142]


The neuroscience of implicit moral evaluation and its relation to generosity in early childhood

Despite cultural and individual variation, humans are a judgmental bunch. There is accumulating evidence for early social and moral evaluation as shown by research with infants and children documenting the notion that some behaviors are perceived as right and others are perceived as wrong. Moreover, social interactions are governed by a concern for fairness and others' well-being. However, although generosity increases between infancy and late childhood, it is less clear what mechanisms guide this change. Early predispositions toward prosociality are thought to arise in concert with the social and cultural environment, developing into adult morality, a complex incorporation of emotional, motivational, and cognitive processes. Using EEG combined with eye tracking and behavioral sharing, we investigated, for the first time, the temporal neurodynamics of implicit moral evaluation in 3- to 5-year-old children. Results show distinct early automatic attentional (EPN) and later cognitively controlled (N2, LPP) patterns of neural response while viewing characters engaging in helping and harming behaviors. Importantly, later (LPP), but not early (EPN), waveforms predicted actual generosity. These results shed light on theories of moral development by documenting the respective contribution of automatic and cognitive neural processes underpinning social evaluation and directly link these neural computations to prosocial behavior in children.

Copyright © 2015 Elsevier Ltd. All rights reserved.

Figuras

The Chicago Moral Sensitivity Task…

The Chicago Moral Sensitivity Task (CMST) consists of short scenarios depicting two cartoon…

On the left are grand averaged ERP waveforms (1 sec) at Pz, Fz,…

Individual differences in LPP modulation…

Individual differences in LPP modulation (mean amplitude of Helping scenarios vs. mean amplitude…


Assista o vídeo: Czy dzięki nowoczesnym technologiom neuronauka wyjaśni zagadkę świadomości? Dr Paweł Boguszewski (Janeiro 2022).