Artigos

Participe da Conversa

DEBATE. Informação: de origem natural ou sobrenatural?

A informação no universo pode ser explicada por processos naturais que, em última análise, se resumem a partículas subatômicas, ou tem uma explicação que vai além do material?

Este é o tema do debate a seguir entre Chris Du-Pond (um crente) e Manuel Mendoza (um ateu).

Dada a profundidade do debate, limitar-me-ei a apresentar apenas o discurso de abertura neste artigo. O restante do debate pode ser baixado em formato PDF neste site. Abaixo, você pode deixar sua opinião na seção de comentários. Obrigado por participar!

Neste debate, apresentarei duas teses principais.

1. Temos boas razões para acreditar que a natureza é incapaz de criar novas informações de acordo com os teoremas da conservação da informação.

2. Mesmo que minha tese nº 1 falhe, ainda assim o naturalismo é falso, dada a impossibilidade de o naturalista exercer seu “pensamento livre” para demonstrar que a informação tem uma origem natural.

Para defender a afirmação nº 1, usarei o seguinte argumento lógico.

1. A informação tem uma origem sobrenatural ou uma origem natural.

2. A informação não tem origem natural.

3. Portanto, a informação tem uma origem sobrenatural.

Para apoiar a afirmação nº 2, usarei o seguinte argumento lógico:

1. Se o naturalismo for verdadeiro, a alma-mente imaterial humana não existe.

2. Se a alma-mente não existe, o livre arbítrio libertário não existe.

3. Se o livre arbítrio libertário não existe, a racionalidade e o conhecimento não existem.

4. A racionalidade e o conhecimento existem.

5. Portanto, o livre arbítrio libertário existe.

6. Portanto, a alma existe.

7. Portanto, o naturalismo é falso.

A melhor explicação para a existência da alma é Deus.

O primeiro argumento é um silogismo disjuntivo válido e o segundo tem a seguinte forma:

1. N → ¬ A

2. ¬ A → ¬ LAL

3. ¬ LAL → ¬ R & ¬ C

4. R & C

5. R & C → LAL

6. LAL → A

7. A → ¬ N

Ambos os argumentos são válidos e, se as premissas forem verdadeiras, as conclusões são necessariamente verdadeiras. Portanto, passarei a demonstrar as premissas.

Alternativamente, Manuel terá que demonstrar que uma das premissas em meus dois argumentos é inválida, uma vez que um único argumento é suficiente para mostrar que o naturalismo é falso e, portanto, incapaz de gerar informação. Mas não é só isso; Manuel não deve apenas demonstrar que meus argumentos falham, mas também terá que apresentar um argumento próprio que mostre como a informação pode ser gerada por processos naturais. Uma coisa é mostrar que a informação NÃO tem uma origem sobrenatural, eliminando dois argumentos, e outra coisa bem diferente é mostrar que a informação tem uma origem natural.

Aqui, começarei justificando as premissas da controvérsia nº 2:

De acordo com o dicionário Webster, uma definição simples de informação é:

Conhecimento obtido sobre alguém ou algo: fatos ou detalhes sobre um tópico. É definida mais detalhadamente como “a comunicação ou recepção de conhecimento ou inteligência”. O problema para o naturalista aqui é que, se o naturalismo é verdadeiro, é impossível receber ou transmitir informação, e a empreitada de obter conhecimento é uma simples ficção. Isso é demonstrado pelo argumento do “pensador livre.”

Premissa 1: Se o naturalismo é verdadeiro, a alma-mente imaterial humana não existe. Este fato é aceito pelos naturalistas, pelo que não requer justificação.

Premissa 2: Se a alma-mente não existe, o livre arbítrio libertário não existe.

Isso é equivalente a:

“Se tudo o que existe é natural, então tudo o que existe é causado por leis naturais e por efeitos além do controle humano.”

Isso é aceito por naturalistas conhecidos, como Richard Dawkins, Stephen Hawking, Sam Harris, etc.

Em um diálogo sobre determinismo científico e moralidade, Dawkins afirmou:

“Nenhum de nós diz: 'Bem, ele não teve escolha; foi determinado por suas moléculas… Mas talvez devêssemos dizer isso'”.

Quando questionado se essa perspectiva era inconsistente com o ateísmo e o naturalismo, Dawkins respondeu:

“De certa forma, sim. Mas é uma inconsistência com a qual temos que conviver, caso contrário, a vida seria intolerável.”

Dawkins admite que, para viver feliz como ateu, é preciso acreditar em uma “mentira inocente” e em um estado de autoengano.

Stephen Hawking concorda:

É difícil imaginar como o livre arbítrio pode funcionar se nosso comportamento é determinado por leis físicas, então parece que não somos nada mais do que máquinas biológicas e o livre arbítrio é uma ilusão.

Ele também afirma que nosso comportamento é determinado da mesma forma que as órbitas dos planetas.

Sam Harris se junta ao coro:

“O livre arbítrio é uma ilusão. Nossa vontade não nos pertence.”

Essa negação do livre arbítrio nos leva ao próximo ponto.

Premissa 3: Se o livre arbítrio libertário não existe, a racionalidade e o conhecimento também não existem.

Isso inclui pensamentos e a troca de informações. As decisões livres de Manuel de usar as leis da lógica e sua capacidade de analisar as informações que capturei em símbolos que seus neurônios podem decodificar nada mais são do que uma ilusão. Ideias, processamento de informações e aquisição de conhecimento são simplesmente determinados pelas leis da física e da química. Se o naturalismo é verdadeiro, não há livre arbítrio em nossas ações, incluindo a noção de que um argumento é melhor do que outro.

O determinismo praticamente se destrói: se alguém passa a acreditar que o determinismo (que todas as ações são produto de processos naturais anteriores) é verdadeiro, deve concluir que a única razão pela qual chegou a essa conclusão é porque estava determinado a fazê-lo. O naturalista deve aceitar que a razão pela qual ele aceitou o determinismo foi, por si só, determinada. No final das contas, é difícil ver como alguém pode afirmar o determinismo racionalmente, dado que tal afirmação é autodestrutiva.

A conclusão de tudo isso é que a capacidade de discernir leis da lógica ou da matemática ou de ter intenções depende do livre arbítrio, mas, dado que o livre arbítrio simplesmente não existe, a capacidade de discernir, de transmitir conhecimento e informação também não existe, porque requer o uso da vontade. Gostaria de salientar aqui que, no momento em que Manuel começar a usar sua capacidade de raciocínio para debater esse ponto, ele estará tacitamente afirmando-o (e concedendo o debate), porque para argumentar é necessário ser capaz de discernir, o que é impossível se formos robôs de carne. Se Manuel se opuser a isso, perguntarei a ele: se todos os seus pensamentos são predeterminados, então como você SABE que seus pensamentos predeterminados são verdadeiros? Tudo o que os naturalistas podem fazer é PRESUMIR que seus pensamentos predeterminados estão corretos (uma falácia de petição de princípio). E qualquer argumento baseado em uma falácia não é um argumento válido.

Premissa 4: A racionalidade e o conhecimento existem.

Além disso, quando Manuel usa suas faculdades mentais, lê os argumentos através do processamento dos SÍMBOLOS neste texto, sua mente converte os DADOS em INFORMAÇÃO, e ele usa seu livre arbítrio (ninguém o está forçando a debater) para responder, ele estará afirmando a premissa nº 4.

Portanto, se o naturalismo fosse verdadeiro, não poderíamos saber disso porque não teríamos a liberdade de processar esse tipo de informação ou qualquer outro tipo de informação.

Para mostrar que a informação tem uma origem natural, Manuel tem que raciocinar e usar seu livre arbítrio, o que elimina o naturalismo.

Vamos passar para minha primeira afirmação:

1) Temos boas razões para acreditar que a natureza é incapaz de criar novas informações de acordo com os teoremas da conservação da informação.

Para defender a afirmação nº 1, usarei o seguinte argumento lógico.

1. A informação tem uma origem sobrenatural (não material) ou uma origem natural.

2. A informação não tem uma origem natural.

3. Portanto, a informação tem uma origem sobrenatural.

Este argumento acumula as evidências do argumento anterior, tornando o naturalismo implausível.

Premissa 1: A informação tem uma origem sobrenatural ou uma origem natural. Acredito que esta premissa não é controversa, dado o princípio da exclusão dos meios.

Premissa 2: A informação não tem origem natural.

É aqui que vou desenvolver a maior parte deste argumento. Gostaria de esclarecer que meu argumento (baseado no trabalho de Dembski) incorpora princípios da matemática e da teoria probabilística aceitos por todos os departamentos universitários de ciência da computação. Manuel terá que demonstrar a razão pela qual a matemática falha uma vez que os teoremas de conservação da informação são formalmente estabelecidos.

Em Steps towards life, Manfred Eigen identifica o que considera ser o problema central enfrentado pela pesquisa sobre a origem da vida: “Nossa tarefa é encontrar um algoritmo, uma lei natural que nos leve à origem da informação”. Eigen está apenas parcialmente certo. Para determinar como a vida começou, é certamente necessário compreender a origem da informação. Mas, mesmo assim, nem o algoritmo nem as leis naturais podem produzir a informação. O grande mito da biologia evolutiva moderna é que a informação pode ser obtida do nada, sem recorrer a uma inteligência. É esse mito que procuro refutar, mas para isso terei que fornecer uma explicação sobre a informação relevante para a biologia.

A intuição fundamental subjacente à informação não é, como às vezes se pensa, a transmissão de sinais por meio de um canal de comunicação, mas sim a realização de uma possibilidade com exclusão de outras. Como diz Fred: “a teoria da informação identifica a quantidade de informação associada ou gerada pela ocorrência de um evento (ou pela realização de um estado de eventos) com a redução da incerteza, a eliminação de possibilidades, representadas por esse evento ou estado de eventos”. Sem dúvida, quando sinais são enviados através de um canal de comunicação, uma possibilidade é atualizada para excluir outras, ou seja, o sinal que foi enviado para excluir aqueles que não foram. Mas este é apenas um caso especial. A informação, em primeiro lugar, pressupõe não um meio de comunicação, mas um meio de contingência. Robert Stalnaker deixou isso claro: “o conteúdo requer contingência. Aprender algo, adquirir informação, é excluir possibilidades. Compreender a informação transmitida numa comunicação é saber quais as possibilidades que seriam excluídas pela sua veracidade”.

Para que haja informação, deve haver uma multiplicidade de possibilidades diferentes, qualquer uma das quais poderia acontecer. Quando uma dessas possibilidades acontece e as outras são descartadas, a informação é atualizada. De fato, a informação em seu sentido mais geral pode ser definida como a realização de uma possibilidade e a exclusão das outras (note que essa definição abrange tanto a informação sintática quanto a semântica).

Assim, podemos falar sobre a informação inerente a obter cem caras com uma moeda não marcada, mesmo quando esse evento nunca acontece. Não há problema nisso. Em situações contrafactuais, a definição de informação precisa ser aplicada de maneira contrafactual. Portanto, ao considerar a informação inerente a obter cem caras com uma moeda não marcada, tratamos esse evento ou possibilidade como se tivesse se concretizado. A informação precisa ser referenciada não apenas ao mundo real, mas também, por referência cruzada, a todos os mundos possíveis.

Como a informação é aplicada à biologia ou, de forma mais geral, à ciência? Para tornar a informação um conceito útil para a ciência, precisamos fazer duas coisas:

1. Ser capaz de medir a quantidade de informação.

2. Introduzir uma distinção crucial entre informação específica e não específica.

Para os teóricos da informação, a maneira mais conveniente de medir a informação é em bits. Qualquer mensagem enviada por um canal de comunicação pode ser transformada em uma sequência de zeros e uns. Por exemplo, o código ASCII usa sequências de oito zeros e uns para representar os caracteres de uma máquina de escrever, de modo que palavras e frases são sequências de sequências desses caracteres. Da mesma forma, todas as comunicações podem ser reduzidas a transmissões de sequências de zeros e uns. Dada essa redução, a maneira óbvia pela qual os teóricos da comunicação medem a informação é pelo número de bits transmitidos pelo canal de comunicação. E como o logaritmo negativo de base 2 de uma probabilidade corresponde ao número médio de bits necessários para identificar um evento dessa probabilidade, o logaritmo de base 2 é o logaritmo canônico dos teóricos da comunicação. Portanto, definimos a medida de informação (I) em um evento de probabilidade p como -log2.P.

Consideremos também que a probabilidade de quaisquer dois eventos A e B ocorrerem juntos é igual ao produto das probabilidades de A e B tomadas individualmente. Simbolicamente, P(A&B) =P(A) x P(B). Dada nossa definição logarítmica de informação, podemos afirmar que P(A&B) =P(A) x P(B) se e somente se I(A&B) =I(A) x I(B).

Mas e se os eventos A e B estiverem correlacionados? Isso pode ser definido como a informação condicional de B dada A, ou seja, I(B/A), de modo que, se A não contribui com nenhuma informação adicional, então I(B/A) = I(B). Assim, podemos deduzir:

I(A&B) = I(A) + I(B/A) (*)

A fórmula (*) é de natureza geral, reduzindo-se a I(A&B) = I(A) + I(B) quando A e B são probabilisticamente independentes (nesse caso, P(B/A) = P(B) e, portanto, I(B/A) = I(B)).

A fórmula (*) afirma que as informações em A e B juntas são as informações em A mais as informações em B que não estão em A. Portanto, a questão é determinar quanta informação adicional de B contribui para A.

Por exemplo, um programa de computador chamado A gera novas informações quando produz novos dados chamados B? Os programas de computador são totalmente determinísticos, de modo que B é totalmente determinado por A. Segue-se que P (B/A) = 1 e, portanto, I(B/A) = 0 (o logaritmo de 1 é sempre 0). A partir da fórmula (*), conclui-se que I(A&B) = I(A) e, consequentemente, a quantidade de informação em A e B juntas não é superior à quantidade de informação em A sozinha.

Isso funciona, por exemplo, com duas sequências idênticas de informação, como duas cópias idênticas de Dom Quixote? Em termos de teoria da informação, diríamos que I(B/A) = 0 e, em termos de probabilidade, que P (B/A) = 1, uma vez que a segunda cópia de Dom Quixote é totalmente redundante e não aumenta a quantidade de informação.

Para medir a informação (seu grau de complexidade), pode-se usar a seguinte fórmula: Dado um evento A com probabilidade P(A), I(A)= -log2.P(A) mede o número de bits associados à probabilidade P(A). Portanto, o grau de COMPLEXIDADE DA INFORMAÇÃO aumenta à medida que I(A) aumenta ou P(A) diminui.

Para introduzir o conceito de CONSERVAÇÃO da informação, vamos usar o exemplo de simulações como o programa WEASEL de Dawkins, ou AVIDA, ou Tierra, que visam demonstrar o paradigma neodarwinista da “introdução” da informação de forma NATURAL. O problema é que esses programas acabam contrabandeando informação para seus algoritmos, demonstrando tacitamente que a informação deve ser introduzida por um programador inteligente. Esses programas se aproveitam da ignorância sobre como a informação funciona. A informação que é INJETTADA será chamada de INFORMAÇÃO ATIVA. A informação não se materializa magicamente; ela só é produzida por uma mente inteligente ou movida de um lugar para outro por processos naturais. Mas os processos naturais e os processos darwinianos em particular não criam informação. A INFORMAÇÃO ATIVA nos permite ver esse fato:

A INFORMAÇÃO ATIVA rastreia a diferença entre uma busca cega, que chamamos de BUSCA NULA, e uma busca que faz um trabalho melhor em encontrar um alvo (T), que chamaremos de BUSCA ALTERNATIVA.

Vamos considerar uma busca pelo alvo T em um espaço de busca finito Ω. A busca por T começa sem nenhum conhecimento estrutural especial do espaço de busca que possa facilitar a localização de T. O princípio da razão insuficiente de Bernoulli se aplica e, portanto, estamos dentro do nosso direito epistêmico de supor que a distribuição de probabilidade sobre Ω é uniforme, com probabilidade de T igual a p=|T|/|Ω|, onde |*| é a cardinalidade de *.

E assim, aqui, é lógico que a probabilidade p seja tão pequena porque é uma busca cega (aleatória) por T no espaço Ω (por exemplo, uma busca aleatória por T em Ω) que é extremamente improvável que seja bem-sucedida. O sucesso exige que, em vez de uma busca aleatória ou cega, seja executada uma busca alternativa S que tenha sucesso com uma probabilidade q consideravelmente maior que p. P captura a dificuldade inerente de encontrar T cegamente, enquanto q captura a dificuldade de encontrar T com uma busca alternativa. E aqui a pergunta obrigatória é:

Como é que a busca aleatória ou cega que localiza T com probabilidade p deu origem à busca alternativa S que localiza T com probabilidade q?

No programa WEASEL de Dawkins, você começa com uma busca cega com uma probabilidade de sucesso de aproximadamente 1x10exp40. Isso é p. Ele então implementa uma busca alternativa S (o algoritmo evolutivo) cuja probabilidade de sucesso em uma dúzia de iterações é próxima a 1. Esse é q. De acordo com Dawkins, isso demonstra o poder dos processos darwinianos, quando tudo o que ele fez foi migrar o problema. Ao introduzir uma busca alternativa com probabilidade q de sucesso, Dawkins incorre em um custo de probabilidade p de encontrar a função de busca correta, que coincide (não por coincidência, aliás) com a improbabilidade original de uma busca cega para encontrar T. O problema de informação que Dawkins procurou resolver permanece sem solução. Ele simplesmente contrabandeou informações de sua mente inteligente por meio de um algoritmo mais eficiente.

Vamos formalizar esse problema matematicamente usando bases logarítmicas de medição de informação. Observe que todos os logaritmos são na base 2.

Vamos definir INFORMAÇÃO ENDÓGENA IΩ como –log(p), que mede a dificuldade inerente de uma busca cega (aleatória) no espaço Ω para localizar T.

Vamos definir a INFORMAÇÃO EXÓGENA Is como –log(q), que mede a dificuldade da busca alternativa S para localizar T.

Por fim, vamos definir a INFORMAÇÃO ATIVA I+ como a diferença entre a INFORMAÇÃO ENDÓGENA e a EXÓGENA: I+ = IΩ – Is = log(q/p). Portanto, a INFORMAÇÃO ATIVA mede a informação que deve ser adicionada (daí o sinal + em I+) a uma busca aleatória para aumentar a probabilidade de uma busca alternativa por um fator de q/p.

Programas evolutivos como WEASEL de Dawkins, AVIDA de Adami, TIERRA de Ray e EV de Schneider são todos PESQUISAS ALTERNATIVAS. Portanto, eles melhoram o padrão de pesquisa em relação a uma pesquisa aleatória, aumentando a probabilidade de sucesso na localização de um alvo T, substituindo uma pesquisa IΩ por uma pesquisa Is, ignorando a INFORMAÇÃO ATIVA I+ adicionada pelo programador.

Agora, a importância fundamental dos teoremas de PRESERVAÇÃO DE INFORMAÇÃO reside no fato de que eles demonstram formalmente o fluxo de informação aplicado externamente a uma busca para aumentar sua probabilidade de sucesso. Em outras palavras, esses teoremas demonstram que a melhoria na facilidade de busca, representada por Is que substitui IΩ, deve ser PAGA em termos de informação, e o custo é I+ = IΩ – Is.

Além disso, a INFORMAÇÃO ATIVA representa o nível ÓTIMO de informação que deve ser pago para melhorar a pesquisa.

Generalizando o caso em que uma pesquisa pode consistir em um número M de consultas, o teorema pode ser generalizado matematicamente:

PROVA: Seja Ω = {x1, x2, …, xK, xK+1, …, xM} tal que T = {x1, x2, …, xK} e seja Ω´ = {y1, y2, …, yL, yL+1, …, yN} tal que T´ = {y1, y2, …, yL}. Então p = K/M e q = L/N e |F| = MN. Usando o teorema binomial, pode-se ver que o número de funções em F que correspondem a L elementos de Ω´ em T nos elementos restantes de Ω´ em ΩT é

Image

A partir disso, por sua vez, segue-se que o número de funções F que correspondem a L ou mais elementos de Ω' em T e aos elementos restantes de Ω' em Ω'T

Image

Agora, se dividirmos essa quantidade pelo número de elementos em F, ou seja, MN, obtemos

Image

que nada mais é do que uma distribuição aleatória binomial cumulativa com parâmetros N e p. É também a probabilidade de T. Dado que a média de tal variável aleatória é Np, uma vez que q=L/N, segue-se que

Image

Segue-se então que –log(|T|/|F|) é limitado pela INFORMAÇÃO ATIVA I+ = log(q/p). E isso PROVA o teorema.

O teorema da conservação da informação demonstrado acima é provavelmente o teorema mais básico da conservação da informação. E ele mostra que, ao construir uma pesquisa alternativa que melhora uma pesquisa aleatória, é preciso pagar por essa melhoria em termos de nada menos do que INFORMAÇÃO ATIVA.

Dembski então desenvolve e DEMONSTRA MATEMATICAMENTE três TEOREMAS adicionais de CONSERVAÇÃO DE INFORMAÇÃO com suas devidas verificações.

Para os leitores, uma definição mais simples dos teoremas:

Aumentar a probabilidade de sucesso de uma busca não facilita o alcance do objetivo da busca e pode, na verdade, complicá-lo, uma vez que se considere o custo de aumentar a probabilidade de sucesso. A busca é cara, e esse custo deve ser pago em termos de informação.

A busca é bem-sucedida, não porque gera informação a partir do nada, mas porque aproveita a informação existente. A informação que leva a uma busca bem-sucedida não permite atalhos, apenas atalhos aparentes que devem ser compensados em outro lugar.

Podemos concluir, então, que as informações encontradas no material genético não podem ser criadas por processos evolutivos naturais se essas informações não existiam anteriormente. Assim, demonstrando o valor de verdade da premissa 2:

2. A informação não tem origem natural

Dada minha contingência inicial na forma de um silogismo, concluímos que a informação deve ter uma origem sobrenatural (não material).

1. A informação tem uma origem sobrenatural ou uma origem natural.

2. A informação não tem origem natural.

3. Portanto, a informação tem uma origem sobrenatural.

Para que Manuel tenha sucesso no debate, ele terá primeiro que mostrar por que minhas duas contingências são provavelmente falsas e, em vez disso, apresentar um argumento a favor da origem NATURAL da informação genética.

Obrigado a todos que acompanharam o argumento até agora.

Aqui você pode baixar o debate completo.

Escrito por:

Picture of Chris Du-Pond

Chris Du-Pond

Neste Artigo

Conteúdos Relacionados

Participe da Conversa! Explore Mais Conteúdos Relacionados!

Não me julgue – Shanda Fulbright

Não me julgue Caminhamos pela sala de aula do jardim de infância e conversamos. Ela era mãe de um dos outros meninos e, enquanto os deixávamos na escola, conversávamos sobre amenidades. Tento não falar sobre religião e política com as pessoas. Isso nunca parece terminar bem. Mas ela começou a falar sobre a igreja e […]

...

Consumismo na Igreja: Vivendo de Pão Somente – Shanda Fulbright

Consumismo na Igreja: Vivendo de Pão Somente Quando eu estava no ensino médio, minha dieta consistia em comida industrializada. Considerando que eu era uma adolescente típica, isso não é nenhuma surpresa. Meu dinheiro do almoço era gasto em bolinhos da Hostess e Dr. Pepper. Às vezes, eu dispensava o bolinho e comia sorvete de chocolate. […]

...

3 Indícios de Que Você Pode Ser Um Viciado em Emocionalismo – Shanda Fulbright

3 Indícios de Que Você Pode Ser Viciado em Emocionalismo Fui criada em uma igreja carismática. Cresci vendo pessoas correndo para o altar todos os domingos, sem vergonha de se lançarem diante de Deus, abertas ao mover do Espírito enquanto adorávamos juntos em comunidade. Quando era adolescente, eu ia para um acampamento de verão todos […]

...

Participe da
CONVERSA

Participe desse diálogo sobre fé, razão e as questões que realmente importam.