Moscou, anos 1960. Andrey Kolmogorov, já consagrado como um dos arquitetos da teoria moderna da probabilidade, publica um texto curto com uma ambição imensa: responder de forma objetiva ao que significa dizer que algo é verdadeiramente aleatório. Até então, a ideia de acaso era definida por negação — aquilo que não apresenta padrão, que não pode ser previsto, que passa em testes estatísticos. Mas essas definições giravam em círculo.
Kolmogorov propôs uma virada conceitual: o acaso não é ausência de lei; é excesso de complexidade descritiva. Uma sequência é aleatória quando não pode ser comprimida — quando o menor programa capaz de produzi-la é tão grande quanto ela própria.
Quase ao mesmo tempo, Ray Solomonoff, nos Estados Unidos, trabalhava na previsão ideal de dados, e um jovem Gregory Chaitin explorava os limites da prova matemática. Isolados, os três chegaram ao mesmo núcleo: o conteúdo profundo de um objeto é medido pelo tamanho de sua descrição mais curta.
Nascia a Teoria da Informação Algorítmica.
Três caminhos que se cruzaram
Solomonoff atacava o velho problema filosófico da indução: como prever o futuro a partir do passado sem assumir um modelo fixo do mundo? Sua resposta foi radical. Considere todas as teorias computáveis que explicam os dados observados e pese cada uma por 2−∣p∣, onde ∣p∣ é o tamanho do programa que a implementa. Teorias simples contam mais; teorias complexas, menos. A melhor previsão é uma média ponderada por simplicidade. A navalha de Occam ganhava forma matemática.
Kolmogorov, por sua vez, queria medir a complexidade de um objeto individual. Definiu a complexidade de Kolmogorov, K(x), como o tamanho do menor programa que gera a sequência x e para. Se K(x) é aproximadamente o tamanho de x, então x é incompressível — e, portanto, aleatório.
Chaitin levou a ideia para outro território: os limites do conhecimento formal. Mostrou que existem sequências cuja complexidade é tão alta que nenhum sistema formal consistente pode provar quão complexas elas são. A complexidade, em grande parte, é indemonstrável.
Predição, complexidade, incompletude: três faces da mesma descoberta.
O que K(x) realmente mede
À primeira vista, K(x) parece depender da linguagem usada. Um programa em Python não é igual a um em C. Mas o teorema da invariância resolve a tensão: entre quaisquer duas máquinas universais, as complexidades diferem no máximo por uma constante fixa. A escolha da linguagem altera detalhes, não a essência.
Importante: K(x) não mede o tempo necessário para gerar x, mas a quantidade mínima de informação necessária para descrevê-lo. Uma sequência pode ser simples de descrever e extremamente demorada de calcular. Complexidade algorítmica é sobre descrição, não sobre esforço.
Daí emerge um paradoxo curioso: as sequências mais complexas — as verdadeiramente aleatórias — são também as menos interessantes. Elas não têm estrutura, história ou teoria. A ciência, a arte e o significado vivem do lado oposto: no território onde há compressão possível.
Quando o padrão desaparece
Antes de Kolmogorov, o acaso era definido por testes estatísticos. Mas uma sequência gerada por um pequeno algoritmo pode passar por todos os testes usuais e ainda assim não ser aleatória no sentido profundo. O estatístico sueco Per Martin-Löf refinou a noção: uma sequência infinita é aleatória se todos os seus prefixos finitos têm alta complexidade de Kolmogorov.
Aleatoriedade passa a ser incompressibilidade absoluta.
É aqui que reaparece Ω, o número de Chaitin que mede a probabilidade de um programa parar. Seus dígitos formam uma sequência maximamente complexa. Ω é definível por uma regra simples, mas sua expansão binária é irredutível. Ele encarna a fusão entre lei e acaso.
Occam formalizado
A antiga máxima medieval de que a explicação mais simples é preferível ganha uma tradução precisa. Dado um conjunto de dados D, a melhor teoria é aquela que minimiza o tamanho da descrição da própria teoria mais o tamanho da descrição dos desvios residuais. Em termos modernos: modelo mais código de erro.
Essa lógica está por trás do aprendizado de máquina: modelos excessivamente complexos decoram os dados (overfitting), mas falham ao generalizar. A regularização é uma penalização explícita da complexidade.
O mesmo vale para compressão de dados. Um compressor eficiente encontra regularidades e reduz o tamanho do arquivo. Dados verdadeiramente aleatórios resistem à compressão — são próximos de sua complexidade de Kolmogorov.
Na ciência, leis elegantes como impressionam porque comprimem vastas faixas da realidade em expressões curtas. Explicar é comprimir.
Significado, arte e estrutura
Considere duas frases do mesmo tamanho: uma com sentido, outra composta de letras aleatórias. A primeira é altamente compressível porque segue padrões linguísticos; a segunda se aproxima do ruído. Isso sugere uma hipótese provocativa: significado está ligado à compressibilidade. Onde há estrutura, há possibilidade de descrição curta; onde só há acaso, não há o que entender.
A arte parece habitar um meio-termo fértil. Nem ruído puro, nem repetição trivial. Uma grande obra possui estrutura suficiente para ser reconhecida e complexidade suficiente para surpreender. A estética pode ser vista como um equilíbrio entre ordem e novidade — entre compressão e resistência à compressão.
Chaitin mostrou que, para qualquer sistema formal suficientemente rico, existe um limite L tal que o sistema não consegue provar que uma sequência tem complexidade maior que L. Em outras palavras, embora a maioria das sequências seja altamente complexa, essa complexidade é, em geral, impossível de demonstrar.
A realidade informacional é maior do que qualquer teoria capaz de descrevê-la por completo.
A sombra da simplicidade
Kolmogorov morreu em 1987, mas sua régua conceitual continua a medir muito além da matemática. A Teoria da Informação Algorítmica nos ensina que profundidade não é acúmulo de detalhes, mas poder de síntese. Leis fundamentais, boas teorias, explicações elegantes — todas são curtas em comparação com o vasto domínio que descrevem.
O acaso é o limite onde nenhuma síntese é possível. A compreensão é o território onde a compressão acontece.
Pense no genoma humano: bilhões de bases químicas. Ainda assim, a descrição das regras que transformam essa sequência em um organismo vivo é imensamente mais curta do que a lista bruta de letras. A complexidade visível esconde uma economia estrutural profunda.
A simplicidade, nesse sentido, não é superficial. É a marca daquilo que realmente explica.
Atualizado em 29 de janeiro de 2026.
Leonardo Marcondes Alves é pesquisador multidisciplinar, PhD pela VID Specialized University, Noruega.
Como citar esse texto no formato ABNT:
- Citação com autor incluído no texto: Alves (2019)
- Citação com autor não incluído no texto: (ALVES, 2019)
Na referência:
ALVES, Leonardo Marcondes. A teoria da informação algorítmica. Ensaios e Notas, 2019. Disponível em: https://ensaiosenotas.com/2019/12/29/a-teoria-da-informacao-algoritmica/. Acesso em: 29 jan. 2026.

Deixe um comentário