Люблю лурковские статьи на околонаучную тематику. Недавно перечитала вот эту про энтропию, в частности про информационную энтропию:
http://lurkmore.to/%D0%AD%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D1%8FКонечно же, лучше всего черпать из первоисточников, но что делать, если ты ленивый, а умничать то хочется?
А теперь по теме.
Да, энтропия бывает разной. Это абстракция, которая вышла за грани одной области науки и её спокойно можно считать философским понятием. Ты, вероятно, слышал о ней в контексте тепловой смерти Вселенной и всего такого, то есть о термодинамической энтропии (ведь сейчас об этом орет весь научпоп). А она еще может быть алгоритмической, дифференциальной, топологической и, собственно, информационной.
Немного важных пунктов, которые понадобятся далее:
- Энтропия - мера неупорядоченности системы.
- Информационная энтропия - это, соответственно, мера хаотичности, непредсказуемости информации(ваш кэп:)
- Есть важный закон, который гласит о том, что в изолированной системе энтропия не уменьшается. Это все перефразированный второй закон термодинамики, кстати говоря.
Так вот, если информационная энтропия подчиняется закону неубывания, это означает, что информация никуда не исчезает и ее постоянно становится все больше. Из этого забавного предположения следует, что мы, к примеру, могли бы расшифровать синайские письмена или возобновить какие-то утраченные книги. А можно упороться еще сильнее и подумать о человеческой личности, как о совокупности информации, которая после смерти никуда не девается, раз уж информация не убывает.
Но, возникает вопрос: а что такое информация? Ты, вероятно, скажешь, что это нечто, имеющее смысл. Но, как только речь заходит о смысле, появляется портящий все субъективизм. Например, я, наблюдая самую известную картину Малевича, вижу просто черный квадрат, а кто-то находит там темноту и холод Вселенной. Как тогда информацию вообще измерять, если отталкиваться от самого смысла? Но, все гениальное просто. Классный парень Клод Шеннон, которого кстати считают отцом теории информации, просто взял и отказался искать конкретный смысл в информации и поделил ее на два класса: полезная информация - та, которая несет любой смысл и шум, который не несет в себе никакого смысла в принципе.
Вернемся же к информации, в контексте человеческой личности. Вот ты живешь, познаешь мир, в твоем мозге каждый день возникают новые связи в нейронах. Некоторые связи конечно же разрушаются, но в целом при нормальном функционировании ты наращиваешь массу информации. Но потом наступает смерть, тело разлагается, связи рушатся, нейроны меняют структуру, становясь кучкой гнили. Энтропия увеличивается, информация увеличивается. Но эта информация - просто шум, ведь связи, которые хранили в себе смысл, уничтожены. Ничего не значащий шум - вот, чем ты станешь после смерти...