|
Рис. 2 Для иллюстрации действия этой схемы рассмотрим примеры. П р и м е р 1. Композитор желает создать пьесу или симфонию. Каким-то трудно постижимым образом он слышит основную мелодию внутри себя. Это семантический уровень. Затем наигрывает услышанное на инструменте, разрабатывает иные темы и партитуру. Занятие уже более техническое — синтаксический уровень. Наконец, записывает ноты — уровень статистический. Музыкант берет его ноты и читает их (статистический уровень). Наигрывает на инструменте музыку — синтаксический уровень. Понимает настроение композитора и то, что тот хотел выразить — семантический уровень. Шлет восторженный отзыв автору и собирает друзей на музыкальный вечер — уровень обратной связи. П р и м е р 2. Программист получает задачу: вычислить на ЭВМ какую-то функцию, положим, синус какого-то угла. Он решает ее математически, разрабатывая или применяя для данного случая численный метод решения. В итоге получается алгоритм — это семантический уровень. Найденный алгоритм он излагает на алгоритмическом языке — составляет программу. Это синтаксический уровень. Редактор компьютера автоматически проверяет правильность записи программы на алгоритмическом языке. Затем после исправления синтаксических ошибок программа попадает в транслятор, где переводится на язык машинных кодов — в строго двоичные обозначения — чисто кодовый уровень. На этом уровне происходит переработка заложенных чисел по заложенным правилам и алгоритму. Затем компьютер выдает некую часть обработанной информации в заданном формате выходных данных на экран или на печать. Это снова синтаксический уровень. Работа машины на этом кончается, а программисту еще предстоит обдумать смысл полученного результата и по этому смыслу судить о правильности своего алгоритма. Если, положим, тот же синус получился больше единицы, очевидно в алгоритме имеется ошибка. Это уже семантический уровень восприятия информации, который завершается волевым решением человека: переделывать программу, или удовлетвориться результатом и считать по данной программе для других численных данных. На приведенной схеме и примерах видна роль технических приспособлений и инструментов в передаче (переработке) информации. Уровень статистический и синтаксический дают некий простор для деятельности технических средств. Машина может подправить в программе только синтаксическую ошибку. Но она ни в коем случае не может найти ошибку в самом алгоритме. Хорошо подобранный или изготовленный инструмент может оформить музыку более красочно, но безвкусную мелодию он исправить неспособен. Для исправления подобных недочетов необходим человеческий разум. Отметим также, что ни инструмент сам не дает музыки, ни компьютер сам не вырабатывает информации. Компьютер выдает ту же самую информацию, которая была в него заложена, просто в другом виде. Он многократно умножает любую ошибку алгоритма и доводит ее до абсурда. Неслучайно у пользователей вычислительных машин распространена грубоватая, но точная поговорка: машина — дура, каким бы быстродействием и памятью она ни обладала. ИНФОРМАЦИЯ И ВЕРОЯТНОСТЬМожет ли набор кодовых знаков случайно стать воспринимаемой информацией, имеющей правильный синтаксис и какую-либо семантику — смысловое значение? Рассмотрим простейший пример. Запишем возможно более простое и краткое сообщение: ВАНЯ + ТАНЯ = ЛЮБОВЬ Сообщение содержит 16 символов из расширенного русского алфавита, включающего арифметические знаки. Будем полагать, что сообщение строится случайным перебором букв, например, обезьяна лупит наугад по клавишам печатной машинки. Для простоты условимся считать такой алфавит состоящим примерно из 40 знаков. Вероятность того, что первая буква сообщения будет отгадана правильно составляет 1/40. Такова же вероятность угадывания второй и третьей и любой прочей буквы (знака). Общая вероятность будет равна произведению 16 таких вероятностей, то есть (1/40)16 = 10–25. По порядку величины эта вероятность равна тому, что у молекул целого моля газа под поршнем вдруг появится скорость, направленная в одну сторону и второе начало термодинамики будет нарушено: внутренняя энергия газа перейдет в кинетическую энергию поршня почти целиком! Вероятность такого события чрезвычайно мала. А ведь информационное сообщение нарочно выбрано самое простейшее. Отсюда следует вывод: случайным образом информация появиться не может. Ее может создать и закодировать только разум. Разум же рождающий информацию всегда идет от цели и семантики к синтаксису и коду, но не наоборот. Сначала нужно понять, что хочешь напечатать, а уже потом перебирать пальцами по клавиатуре. На это часто выдвигается такое возражение: вероятность по буквам случайно набрать данное конкретное сообщение действительно исчезающе мала. Но во-первых, мы мыслим не буквами, а понятиями, словами. Во-вторых, конкретных значащих сообщений из них можно составить также практически бесконечное количество. Какова же вероятность, что перебирая не буквы, а слова, мы случайно скажем что-то содержательное? Приводится при этом и такое сравнение. Если мы стреляем с близкого расстояния в стену, расчерченную на клетки, размером с пулю каждая, то вероятность попадания в какую- либо клетку равна единице, а вероятность попасть в данную конкретную клетку без прицеливания практически равняется нулю, потому что клеток очень много. Так и случайное построение данного конкретного сообщения маловероятно, а вероятность случайного создания любого осмысленного сообщения может быть уже вполне реальной. Приведенный пример, правда, неудачен, ибо в нем попадание в какую-либо точку стены уже заранее гарантируется. Это равнозначно тому, что все комбинации слов дают осмысленные сообщения. На самом же деле, хотя из слов можно составить невообразимое количество комбинаций, в том числе и осмысленных, но безсмысленных из них будет несравненно больше. Подобно тому, как рациональных и иррациональных чисел на отрезке бесконечно много, но "иррациональная бесконечность из них больше". Прежде, чем перейти на уровень слов, довольно сложный для расчета, прикинем, какова вероятность, что наугад взяв четыре буквы, мы получим просто любое значащее слово. Комбинаций из 32 букв по четыре штуки можно составить 324 = 220 = (210)2 = 106. Миллион вариантов! Словарь Даля, всем запасом которого в наше время не владеет ни один русский человек, содержит, 150 тысяч слов. Даже если предположить, что все они состоят ровно из четырех букв, и тогда вероятность отгадать какое-либо слово составит 1/7. На самом же деле несравненно меньше. Причем чем больше мы допустим для перебора букв или слов, чем шире возможность маневра, тем быстрее — в геометрической прогрессии — исчезает вероятность случайного попадания хотя бы в какую-нибудь клеточку нашей воображаемой стенки. В самом деле, возьмем теперь язык, довольно убогий, на 30 тысяч слов — обиход современного разговорного языка. Сколько из этих слов можно составить различных предложений длиною, положим, в четыре слова? Предлоги, артикли, междометия, как в телеграмме, не учитываем, только значащие слова. Получаем 30 0004 = 1018. А сколько из них получится не лишенных хотя бы какого-нибудь смысла? Тысячу, миллион, миллиард? Это сказать трудно, надо сидеть и перебирать варианты. Но и миллиард, если кто-то сумеет за свою жизнь досчитать до этой цифры — ничтожная капля по сравнению с названным числом. Чтобы реально говорить о ненулевой вероятности, нужно, чтобы разница между числом нужных и возможных комбинаций была хотя бы 2–3 порядка, не больше. Чем более серьезную мысль нам хочется выразить, тем больше нам приходится расширять свой язык, объем своего сообщения. При этом количество возможных комбинаций слов или букв нарастает по закону показательной или степенной функции. Такую мысль все труднее и труднее угадать случайно. Итак, "первый закон" информатики можно выразить так: информация порождается (создается) только разумом, но не случаем. Информация не возникает из ничего. Очень похоже на первое начало термодинамики: энергия не возникает из ничего. ПЕРЕДАЧА ИНФОРМАЦИИЕсть и другой важнейший закон информатики, о котором также молчит школьный учебник, но который используется во всех информационных системах. Информация, выраженная в кодах (на статистическом уровне) может храниться и передаваться на самых различных материальных носителях, только бы они были способны не терять и не искажать сам код. Значение информации совершенно не зависит от способа ее хранения и передачи: на бумаге, на дискете, в электронной памяти, в звукозаписи голоса. Можно роман "Евгений Онегин" написать гусиным пером, а можно компьютерные "стихи" хранить в самой совершенной электронной памяти — семантика информации не будет зависеть от материального носителя. Относительно любой информации, записанной любым способом на любых носителях замечено никогда не нарушаемое общее правило: при механическом копировании и хранении информация не улучшается, то есть в лучшем случае сохраняется, а в реальном она частично может утратиться, частично же — засориться случайным попаданием посторонних шумовых сигналов. Всякий, кто имел дело с кассетами и дискетами, переписанными по несколько раз, прекрасно это знает. Однако этот закон информатики часто не учитывают учащиеся и студенты, переписывая бездумно у соседа задачи или лекции. Преподаватели же опытом прекрасно знают этот закон и легко видят, кто у кого списал, а кто решал задачу самостоятельно. При переписывании у соседа легко скопировать его собственную ошибку или внести нечаянно свою, то есть информация при передаче имеет способность портиться. Древние рукописи переписывались всегда грамотными переписчиками и проверялись. Особую осторожность при этом нужно было соблюдать при переводах с одного языка на другой. До этой работы допускались люди не только в совершенстве знающие языки, но и сведущие в самих писаниях, правильно понимающие их содержание. До сих пор для перевода научных или каких-то иных специальных текстов требуются переводчики грамотные, понимающие смысл переводимого. (Это обстоятельство, кстати, сильно подпортило первое издание нашей книги, основанной во многом на иностранных источниках, которые переводились неспециалистами, что порождало иногда досадные ошибки, а чаще просто затрудняло понимание мысли автора). Нигде и никогда не наблюдалось случая, чтобы новая идея на семантическом уровне, то есть новое информационное сообщение возникло бы в результате случайной ошибки при копировании или хранении иной информации. Исключение может составлять только случай сознательной дезинформации или информационная диверсия, когда производится не опечатка, а сознательная подделка. Но опять же для этого требуется вмешательство разума. "Второе начало информодинамики", гласящее, что информация при хранении и копировании не созидается и не улучшается, к тому же стремится самопроизвольно утратиться с превращением значащего сигнала в информационный шум, — вполне сходно со вторым началом термодинамики. Оба закона таким образом на разных уровнях бытия материи выражают некую еще более общую закономерность, иллюстрируемую с помощью теории вероятностей. Эта же закономерность может быть продемонстрирована просто на рабочем столе или в доме, она же видится и в развитии общественных процессов. Любого рода беспорядок, хаос, разрушение, отсутствие структуры и организации более вероятны, и самые разные процессы — не только термодинамические — самопроизвольно идут по линии нарастания хаоса. Пресекается же хаос только разумным приложением направленной энергии. ИНФОРМАЦИЯ И СОЗИДАТЕЛЬНАЯ ДЕЯТЕЛЬНОСТЬДля того, чтобы построить дом, машину или что-то иное, для того, то есть чтобы перевести материю в более структурно организованное состояние, необходима прежде всего сама материя (материалы), затем направленная (нетепловая) энергия — механическая, электрическая, и наконец — информация. Нужен план здания, составленный целиком заранее. Нужны технические знания: как класть кирпичи или готовить раствор. Без этого дома не построишь. Случайная деятельность с предметами, когда направленная энергия прилагается к материи нецеленаправленно, способна только усилить беспорядок. Конструктор создает изделие в виде идей на семантическом уровне. Мысль свою он выражает общими расчетами, словами, эскизами. Детали этих идей могут дорабатывать его помощники. Технолог переводит эту семантику на синтаксический уровень, разрабатывая последовательность операций при изготовлении деталей и узлов. Рабочий переводит синтаксис технологии непосредственно в "код" изделия. Изделие, таким образом, несет на себе идеи конструктора, записанные по правилам информатики на особом сложном языке технологии. После изготовления изделие проверяется. Сначала контролируется изготовление частей и правильность их сборки (синтаксический уровень). Затем проверяется работоспособность каких-то подсистем (например, двигатель в самолете). Затем идет опробование всего изделия — испытательный полет самолета, к примеру. Идея возвращается к своему автору уже в воплощенном виде. Не существует ни одного изделия, которое не несло бы в себе информацию, вложенную создателем этого изделия. КОЛИЧЕСТВЕННОЕ ИЗМЕРЕНИЕ ИНФОРМАЦИИИз школьного курса вы знаете, что информацию, записанную на материальных носителях, можно измерить. Самый простейший из таких способов — число букв, или слов. Немного посложнее — биты и байты, о которых школьники уже имеют понятие. Отметим, что количество информации имеет лишь относительное значение для источника и приемника. Более важно это количество для передающей системы. Компьютеру, который хранит текст этой книги, абсолютно безразличен смысл написанного, и бумага тоже терпит все, лишь бы она вмещала все слова. И телеграфистке, и машинистке, которые копируют совершенно неважный для них текст, важны их собственные трудозатраты: количество напечатанных букв или слов. Потому, когда телеграмма написана, мы платим именно за количество слов, хотя на самом деле нас интересует "количество смысла". В известной легенде цвет корабельных парусов решил вопрос жизни и смерти героев. А ведь это был всего один бит информации! Каждый влюбленный также дорожит всего одним битом (да или нет), но это количество информации может определить множество поступков его жизни. Почему так? Потому что за этой ничтожно малой в механическом измерении информацией стоит большой смысл и большая цель, понятные лишь источнику и приемнику, и не входящие в обменное информационное сообщение, а то и вовсе недоступные для передачи через материальный носитель. Итак, содержание информации далеко не всегда определяется ее измеряемым объемом. Вообще объем информации можно измерять лишь на нижних уровнях: статистическом и отчасти на синтаксическом, но уже не на смысловом. Но и на статистическом уровне информацию можно выразить разным объемом. Наименьшая единица информации — бит, двоичный сигнал, устанавливающий разницу между да и нет, или точкой и тире. Одним таким сигналом невозможно выразить каждую букву алфавита. Потому, например, азбука Морзе все буквы выражает несколькими знаками: каждую в своей комбинации точек и тире. В компьютерах же под каждую букву (да еще и из нескольких алфавитов) или цифру, или знак препинания отведено 8 битов, то есть восемь ячеек памяти, в каждой из которых может хранится ноль или единица. Комбинация нулей и единиц для каждого знака своя, но любая содержит ровно восемь знаков, каждый из которых может быть только нулем или единицею. Всего таких комбинаций по восемь штук из двух значений бита можно составить 28 = 256, чего хватает с запасом на несколько алфавитов и разные служебные знаки и команды. Например, сочетание 00001111 — мы можем использовать для обозначения цифры 2, а для обозначения буквы Н, положим, 01010101. Нужно только всем договориться о единой системе такой кодировки, и каждый знак можно будет передавать восемью битами информации, которая именуется байтом. ИСЧИСЛЕНИЕ ИНФОРМАЦИИ И СИММЕТРИЯТеперь, чтобы записать, к примеру, слово АБРОКАДАБРА нам потребуется 11 букв или 11 байт памяти нашего компьютера. Пока не станем задаваться вопросом: много ли смысла в такой затрате памяти. Возьмем и другое, не более значащее слово, выражающее, к примеру, чувство сильного страха: ААААААААААА. Сообщение состоит тоже из 11 букв, то есть для его записи можно использовать 11 байт информации. А можно ли его выразить короче? В отличие от первого сообщения — можно. Например, в три байта: 11А. Почему это оказалось возможно? Потому что в записи второго слова есть линейная симметрия, или повторяемость. С точки зрения порядка, или вероятности случайного отгадывания каждого слова перебором букв оба слова равнозначны или равносложны. Перебирая 11 букв случайным образом для отгадывания каждого из обоих слов, мы будем располагать одним шансом из 3211. Но с точки зрения неслучайного отгадывания второе слово предпочтительнее. Нужно только один раз попасть в клавишу А на клавиатуре и задержать на ней палец. С точки зрения количества информации оба слова неравны. Первое нельзя "сжать", а второе можно. Существуют особые программы сокращения записи в компьютерах, которые по особым правилам сжимают повторяющиеся буквы или пробелы. Кроме того, для сжатия записи текста, содержащего только 32 буквы, можно каждую из них кодировать не целым байтом, не ячейкой из восьми битов, а ячейкой из пяти таких битов. Различных комбинаций из пяти нулей и единиц можно составить как раз 25 = 32, так что каждую букву можно при такой нужде закодировать лишь пятью, а не восемью битами. Это позволяет сжимать запись. Но, совершенно очевидно, что подобное сжатие возможно лишь до какого-то предела, который определяется элементами повторяемости или симметрии записи. Лучше всего сжимаются в компьютере рисунки. Для передачи, положим, черно-белого рисунка, весь он разбивается на большое мозаичное поле, каждая мелкая клеточка которого, может быть черною или белою, в зависимости от того, попадает ли на нее черная или белая часть рисунка. Занумеровав последовательность всех клеток и запомнив, которые из них черные, а какие белые, можно зашифровать рисунок цифрами. Ясно, что для хорошей передачи требуется очень мелкая мозаика, но также ясно, что в любой такой мозаике будут повторяющиеся целые строчки из точек одного цвета. Чем мельче мы возьмем мозаику, тем большая требуется память для записи рисунка, но с другой стороны, тем больше возможностей для сокращения этой записи. Если же в рисунке есть повторяющийся элемент симметрии, то есть если рисунок представляет собою орнамент, то закодировать его в информационное сообщение еще легче. Нужно просто скопировать сам повторяющийся элемент (крестик, квадратик, уголок) и указать способ "сборки" орнамента из таких элементов. Все сказанное не есть разговор праздный. Все это имеет прямое отношение к вопросу происхождения жизни. Если связи с жизнью читателю здесь пока не видно, лучше просто запомнить сказанное и немного подождать, а потом при нужде вернуться к этим страницам. ИНФОРМАЦИЯ, ТЕРМОДИНАМИКА И СТРУКТУРАИтак, в основе законов термодинамики и передачи информации лежит одно и то же общее понятие — вероятность. Все в мире стремится к максимуму вероятности, потому энтропия растет, а информация не возникает самопроизвольно и портится при передаче. Шум и хаос более вероятны, как мы уже отмечали выше. Однако между термодинамикой и информатикой должно быть при всем их сходстве некоторое качественное отличие. Еще бы, ведь об информации нельзя говорить, не восходя в конце концов к понятию разума. Информация — штука более тонкая. Противоположность беспорядку и энтропии представляет структура. Это понятие встречается и в термо- и в информо- динамике. С помощью хаотически движущихся молекул газа никакого сообщения не выразить. Надо их упорядочить, снизить энтропию, расставить элементы в каком-либо порядке. Термодинамика может решить эту проблему просто: надо газ охладить и превратить в жидкость, а затем в кристалл. В кристалле энтропия снижена и порядок (структура) уже налицо. Но много ли при этом сама структура может создать информации? Иными словами может ли не порядок, а сама информация быть следствием чисто механико-статистического процесса — снижения энтропии? Отчасти, конечно, да. Любой кристалл несет информацию о своей структуре. Но попробуем вычислить ее на примере кристалла поваренной соли. Его элементарная ячейка — кубик, в вершинах которого чередуются ионы хлора и натрия. По одному байту уйдет на запись названий этих элементов, еще один байт потребуется, чтобы изобразить куб с этими ионами в вершинах — и все! Теперь только умножайте, тиражируйте эту информацию во всех направлениях, указывая на сколько шагов и в каком направлении сдвинуть элементарную решетку — и вы получите любой кристалл в самом кратком его информационном описании. Симметрия многократно экономит информацию, как мы видели только что. А вот с молекулой ДНК или белка такой фокус не пройдет! Там для записи каждого нуклеотида или аминокислоты на своем месте потребуется свой байт информации. Там симметрии нет. А информации очень много. Конечно, и случайное нагромождение частиц, не несущее никакого смысла, для своего описания потребовало бы много информации, но в случайном нагромождении и самой структуры-то нет, а в живой клетке она безусловно есть. Белки состоят строго из известных аминокислот, а нуклеиновые кислоты — из четко определенных нуклеотидов. Иными словами, есть четко определенные буквы, четко определенные правила их комбинирования — синтаксис; цель всей работы — поддержание и воспроизведение жизни — ясна и строго выполняется. Налицо огромная информационная система, которая содержит все уровни — от цели до кодов. И для кодирования этой системы требуется огромное количество информации. Чтобы сопоставить упорядоченность кристалла и живой молекулы, Х. Росс приводит такое сравнение. Представьте себе текст Нового Завета и фразу "Бог благ", повторенную несколько тысяч раз. Оба текста занимают одну и ту же по объему книгу, обе одинаково упорядочены, но ясно что одна гораздо информативнее другой. [29]. Поэтому когда российский биофизик Блюменфельд утверждает: "Согласно физическим критериям, любая биологическая система упорядочена не больше, чем кусок горной породы того же веса" [70], то он, конечно, в чем-то прав. Энтропия камня и кошки, имеющих одну массу и одну температуру, может быть практически одинаковой, но информационное содержание у них существенно разное. Упорядоченность их на самом первом, термодинамическом уровне одного порядка (оба тела относятся к твердым, а не к жидкостям или газам), но сам факт жизни ясно указывает, что одного только параметра энтропии здесь явно недостаточно. Значит и недостаточно только термодинамических (статистических) законов для описания жизни. Ноль энтропии достигается при абсолютном нуле, но почему-то при низких температурах расцвета жизни не наступает. Там есть сверхпроводимость и сверхтекучесть (последствия низкой энтропии), но там нет сверх-информативности. Таким образом Блюменфельд совершенно неправ, сводя все биологические законы только к основным законам физики. Далее мы увидим и более конкретные примеры на эту тему. Каков же главный признак, по которому можно различить термодинамически равноупорядоченные тела или системы? Ответ таков: ИНФОРМАЦИОННАЯ СИСТЕМА ИЕРАРХИЧНАВспомним, что информация строится по уровням от цели к смыслу и ниже. Эту ступенчатую, иерархическую последовательность она сохраняет и дальше. Главная цель информационного сообщения только одна, хотя могут быть и сопутствующие, подчиненные цели. В соответствии с целью строится и прочая структура сверху вниз. Пример — компьютер. Цель — преобразование информации. Для этого нужны, как минимум, запоминающие устройства, арифметико-логическое (процессор), устройства ввода-вывода. Каждое из них для обеспечения своей частной цели должно быть сложным, например, запоминающее устройство требуется оперативное и долговременное. И так далее, строится вся довольно известная общая иерархическая блок-схема любого компьютерного устройства. То же самое и с живой клеткой. Цель — обеспечение роста и воспроизводства. Для этого требуются хранилище наследственной информации, аппарат ее использования, аппараты питания, дыхания и прочие. В каждом из них (в каждой органелле) идут свои строго определенные реакции: где синтез белков, где их распад, где изменение структуры, где копирование участка ДНК и т. д. почти до бесконечности, но все подчинено общей цели, каждый процесс контролируется во имя общей единой цели всей клетки. Получается опять же ступенчатая, пирамидальная система подчинения всех частей общему делу и устройству. А в термодинамике совсем не так. Там иерархия не нужна. Выстроились все частицы по линеечке — вот вам и минимум энтропии. Простейший синтаксис, простейший смысл и простейшая цель — сохранять кристаллическую решетку, пока тебя не нагрели. ИНФОРМАЦИЯ И ЖИВЫЕ ОРГАНИЗМЫТеперь, взглянув на живую клетку в электронный микроскоп, мы увидим потрясающее количество совершенно явно записанной информации. Школьные знания по цитологии и органической химии позволяют нам кое-что в ней понять. Хромосома (молекула ДНК) представляет собой целую книгу, написанную словами (генами), состоящими из 4-х букв — нуклеотидов, повторяющихся в разных комбинациях. Налицо уже два низших уровня информации: код и его синтаксис. Эта книга (более похожая на перфоленту) частично переписывается на другую подобную же ленту — информационную РНК, а та в свою очередь на белок, задавая его структуру. Алфавит языка белков содержит уже не 4 буквы, а 20, и каждое "слово" из трех "букв ДНК" означает одну "букву" белка — аминокислоту. Клетка обладает особым механизмом контроля за правильностью переписывания и "перевода" информации с языка ДНК на язык белка. Белок, будучи "списан" и составлен правильно, должен выполнить свою задачу в клетке: послужить катализатором какой-то другой реакции, к примеру. Смысл существования данного белка и состоит в том, чтобы он выполнил свою роль. В этом состоит семантический уровень переписанной из ДНК информации, то есть ее значение. Совокупность значений всей информации клетки в том, что она растет, воспроизводит себя и выполняет какие-то функции в организме. Это целевой уровень информации. В ХХ веке человек оказался способен прочитать буквы в книге ДНК и частично понять записанную там информацию. Это он посчитал достижением своего разума и технических возможностей. Если способность кое-что прочесть и понять предполагает разум, то как можно не видеть бесконечно превосходящий Разум Того, Кто написал все прочитанное и неизмеримо больше того, Кто составил и всю информацию, и всю систему ее кодировки?! Если мы имеем дело с информацией, то она должна подчиняться своим законам, которым подчиняется во всех человеческих — гораздо более примитивных и грубых — информационных системах. На всех уровнях мы ясно видим передаваемую информацию жизни: код, синтаксис, значение. Приемником информации может послужить человеческий разум, если он наблюдает всю картину. Если же наблюдатель-человек отсутствует, то приемником информации служит Сам ее Источник. Подобным образом и конструктор самолета, наблюдающий за испытательным полетом, сам является и источником и приемником информации. Следует отметить и колоссальную плотность информации в молекуле ДНК. Каждый из четырех нуклеотидов можно выразить двумя двоичными числами — битами: например, 00 — первый нуклеотид, 10 — второй, 01 — третий, 11 — четвертый. Число нуклеотидов в ДНК известно, известен и объем ее спирали. Мы можем рассчитать сколько бит информации содержится в единице объема "информохранилища". Для обычной молекулы ДНК эта плотность информации составляет порядка 1021 бит/куб. см., а для самых современных электронных микросхем 4х107 бит/куб. см. [48]. Разница в 13 порядков! Общая сумма информации, собранной во всех библиотеках мира оценивается в 1018 бит. Если бы эта информация была записана в молекулах ДНК, для нее хватило бы места в 1% объема булавочной головки. Если же вся эта информация была бы записана на микросхемах, то высота их, сложенных в стопку, достигла бы от земли до луны. Не является ли такая плотность такой сложной информации еще одним ярким свидетельством премудрости Творца, не только создавшего саму информацию, но и нашедшего превосходный способ компактно ее записать? ИНФОРМАЦИЯ ВНЕ МАТЕРИАЛЬНЫХ НОСИТЕЛЕЙВозникает вопрос: вся ли информация, необходимая для жизни организма, может быть передана последовательностью нуклеотидов? Притом, что все белки и все вообще вещества клетки, бесспорно ею передаются. Этот вопрос будет также рассмотрен ниже, на особом уроке. Перефразируем его в более простой форме. Любая ли вообще информация может быть выражена алфавитными кодами, то есть по сути дела — в битах и байтах? Два человека слушают одну и ту же музыку или стихи, слышат каждый звук, понимают каждое слово или мелодию. Одинаковую ли они вынесут информацию на семантическом уровне? Два школьника изучают один и тот же курс биологии в школе, рассказывают на одну и ту же "пятерку" процесс синтеза белка. Одинаковую ли информацию вынесли они из прочитанного и понятого, если один из них верующий, а другой — материалист? Мы уже отмечали, что значение информации не определяется только синтаксисом и кодом переданного сообщения. Смысл любого информационного сообщения определяется свойствами как источника, так и приемника. Но поскольку источник и приемник есть разум, а разум присущ личности, для каждой личности он совершенно особый, то здесь кончается область науки. Информатика является наукой лишь до тех пор, пока мы имеем дело с материальными носителями информации. Кодируемая и переданная материальными носителями информация объективна. Будучи записана, она уже не находится в разуме источника или приемника. Ее может воспринять любой третий наблюдатель, он может понять ее код, синтаксис, семантику (хотя бы до какой-то степени), он может сосчитать количество информации, перевести ее на другой язык или на другой носитель, и т. п. Все эти действия вполне относятся к области науки, требующей, чтобы в предметах изучения были какие-то объективные закономерности и воспроизводимость наблюдений и опытов. Но различное понимание смысла разными приемниками информации, хотя уже и не относится к области науки, не исчерпывает нашего вопроса. Как бы разные люди ни понимали красоту одной и той же музыки, музыка эта все-таки поддается нотному (а также магнитному или цифровому) кодированию и может быть воспроизведена вновь при помощи соответствующих воспроизводящих устройств. А есть ли информация вовсе не кодируемая? Ясно, что этот вопрос тем более не входит в область науки. Но нельзя сказать, что все человеческое знание ограничивается только наукой или кодируемой (выразимой словами) информацией. Религиозная жизнь и сама вера человека — в значительной степени есть информация некодируемая, невыразимая словом. Признавая, что такая информация существует, мы не будем продолжать о ней разговор, который ведем лишь в рамках науки. Мы не будем рассматривать передачу информации вне материальных носителей. Способна ли информация быть передана именно так: вообще вне синтаксиса и кода, без всякого слова, без всякого звука или чтения, чтобы семантика Источника передалась непосредственно приемнику? В обыденной жизни такого, конечно, не бывает. Но это не значит, что такой передачи мысли не бывает вообще. В конце концов, всякие откровения из мира нематериального, несмотря на их содержание, истинность или ложность, передаются именно таким образом. Иногда для обозначения такого способа информационного обмена употребляют слово "телепатия". Поскольку единственным основателем откровения, как способа передачи мыслей, является только Бог, то только Ему судить когда здесь передается истина, а когда ложь. Слово Божие учит нас, что в своем нынешнем состоянии человек практически неспособен к истинно Божественным откровениям, а чаще всего общается такими путями с миром демоническим, что, естественно, не принесет человеку ничего доброго ни в этой жизни, ни в будущей. Высказав такое краткое, предостережение читателю против всяких занятий телепатией, оставим этот предмет, как тоже не относящийся к области науки. ЗАКЛЮЧЕНИЕВооружившись кое-какими знаниями по теории информации, мы можем непосредственно перейти теперь к вопросу происхождения жизни и вообще о сущности жизни, которая, как мы увидим, совершенно не исчерпывается законами физики и химии. Забавно то обстоятельство, что биологи в своем большинстве прекрасно это понимают. Они порой рады, (чтобы немножко порисоваться на фоне физиков, умеющих почти все в своей науке математически красиво выразить, а потому справедливо гордящихся аналитическим аппаратом своей науки) подчеркнуть, что в биологии свои собственные законы, что только физикой она не исчерпывается. Но стоит чуть-чуть вдуматься, что это за законы, как мы тотчас встаем перед понятием информации, которая создается… чем? Или Кем? И тут биологи замолкают. Заветное слово сказать им нельзя. Но, запнувшись на мгновение, они бойко продолжают: впрочем, да, в биологии, конечно, законы свои, и наша наука их познает, и все прекрасно... Вот мы и посмотрим сейчас на эту прекрасную, великолепную картину. Дополнительно по данному разделу: Христианский брак и феминистское движение Православная педагогика как Общественное и Духовное явление О здоровье и добродетели. Книга для школьников 5-6 класса Пособие по Православной Аскетике для современного юношества Природоведение Как воспитать и сохранить Веру в Бога у детей Православное Міровоззрение и современное Естествознание Препятствия на пути к Евангелию Православный брак Ушинский против Спока
|
|
«Церковные Ведомости» - вне-юрисдикционное православное духовно-просветительское издание, являющееся авторским интернет-проектом. Мнения авторов публикаций могут не совпадать с точкой зрения редакции. Одной из задач издания является освещение различных мнений о современной церковной жизни, существующих среди духовенства и паствы Истинно-Православной Христиан. Редакция оставляет за собой право редактировать или сокращать публикуемые материалы. При перепечатке ссылка на «Церковные Ведомости» обязательна. |