Unsicherheit trainiert dich

April 17, 2017

Joseph Beuys hat einmal in einem Gedicht geschrieben, man solle einen Gefährlichen zum Tee einladen. Und sich auf seine Träume freuen. Die Welt da draußen will indes, dass wir unser Leben assekurieren. Ich denke über die Ambivalenz nach. Seit Jahren habe ich nix mehr in meinen Bausparvertrag eingezahlt. Wozu. Die Geschichte lehrt: Es kommt ohnehin immer anders. Unsicherheit trainiert mich, die große Unwägbarkeit anzunehmen.

Werbung

Noch zwei Zahlen

April 14, 2017

Die Zahl 4 enthält weniger Information als 2+2, hat aber unter bestimmten Umständen eine höhere
Bedeutung. Damit ist alles gesagt.


Sieben Stiere

April 14, 2017

Was ist „komplex“? Es gibt keinen gesicherten Begriff für Komplexität. Oder doch? Es sei denn, wir nehmen den Faktor Zeit hinzu. Beispiel: Wir könnten annehmen, dass sieben Stiere genauso komplex sind wie ein Stier, da die Natur Jahrmillionen benötigte, um einen Stier hervorzubringen, aber nur ein Stier und einige willfährige Kühe notwendig sind, um daraus
schnell sieben Stiere hervorzubringen.
Ich wiederhole mich nur ungern. Was ist komplex?


Information über Bord

April 14, 2017

Wenn ich genau (!) verstehen würde, was Entropie (im Alltag) ist, könnte ich die Welt verstehen. Und mein Geist würde zu einem „Es“. Weg von einem Ich-Verständnis. Ein Beispiel. Leider komplex.
Eine Wanne, in der links heißes Wasser und rechts kaltes Wasser enthalten ist, enthält quasi vorsortierte Moleküle, so dass die exakte Beschreibung
des Aufenthaltsortes und des Impulses aller Teilchen weniger Bits an Informationen benötigt,
als die exakte Beschreibung einer durchmischten Wanne. Damit ist nachweisbar, dass Entropie ein Maß für die Menge der Information ist, die man zur Beschreibung eines Systems benötigt. Betrachtet man nicht jedes einzelne Molekül, sondern die Wanne und
ihre Temperatur, hat man eine grobe Beschreibung des Mittelwertes der Molekülbewegung.
Dann ist die Menge der nicht wahrgenommenen Information bei der durchmischten Wanne
höher, als bei der „sortierten“ Wanne, weshalb Entropie ein Maß für aussortierte Information
ist.

Es ist aber auch denkbar, einfach mehr Eierlikör zu trinken oder stundenlang zu meditieren.