Одним из главных принципов уникальной «системы Физтеха», заложенной в основу образования в МФТИ, является тщательный отбор одаренных и склонных к творческой работе представителей молодежи. Абитуриентами Физтеха становятся самые талантливые и высокообразованные выпускники школ всей России и десятков стран мира.

Студенческая жизнь в МФТИ насыщенна и разнообразна. Студенты активно совмещают учебную деятельность с занятиями спортом, участием в культурно-массовых мероприятиях, а также их организации. Администрация института всячески поддерживает инициативу и заботится о благополучии студентов. Так, ведется непрерывная работа по расширению студенческого городка и улучшению быта студентов.

Адрес e-mail:

Липкин А.И. "Основания современного естествознания (сокращенный вариант)"

Введение

Очень часто развитие естественных наук (в первую очередь, физики, химии, биологии) представляют себе в виде следующей, восходящей к Ф.Бэкону цепочки эмпирико-индуктивных обобщений:

 

Еще в конце 18 в. Д. Юм и И. Кант показали невозможность в рамках эмпиризма сделать это: теоретические законы типа закона тяготения Ньютона - универсальны и всеобщи, они относятся ко всем телам, в то время как эмпирическая индукция Ф.Бэкона исходит из сколь угодно большого, но конечного числа эмпирических фактов (сколько бы раз мы ни видели на озере только белых лебедей из этого нельзя вывести закон, что все лебеди белые). Эта критика эмпиристского взгляда на науку была продолжена и в 19 и в 20 вв., тем не менее этот взгляд популярен и сегодня.

Здесь развивается неэмпиристский взгляд на науку, утверждающий, что Г.Галилей (ровесник Ф.Бэкона) и И.Ньютон проложили совсем другой путь, по которому и развивается до сих пор физика и ориентирующиеся на нее другие естественные науки.

1. От геометрии Евклида к естественной науке Галилея. "Модельный взгляд": понятия "первичного идеального объекта" и "ядра раздела науки"

Ключом к пониманию структуры физики (а на нее часто ориентируются и другие естественные науки) можно, по-видимому, считать геометрию Евклида. Из этой классической математической теоретической системы Галилеем и Ньютоном было унаследовано очень многое.

Во-первых, это иерархичность. Последняя состоит в том, что в геометрии Евклида существуют исходные (первичные) понятия - точка, прямая, плоскость, из которых строятся все прочие "вторичные" идеальные объекты - геометрические фигуры. Последние легко определяются явным образом через первые (напр.: треугольник это фигура, образованная пересечением трех прямых). А вот с определением первых - точки, прямой, ... - дела обстоят не так просто. Долгое время их рассматривали как самоочевидные и неопределимые исходные понятия (сам Евклид давал определение точке как "то, что не имеет частей", а линии как "длине без ширины", что отвечало духу древнегреческой философии). Но после появления во второй половине XIX в. неэвклидовых геометрий с их весьма неочевидным определением прямой ситуация изменилась. Возникла проблема строгого определения оснований геометрии. Одно из наиболее распространенных решений этой проблемы дал в конце XIX в. Д.Гильберт: исходные (первичные) понятия геометрии - точку, прямую, расстояние, плоскость стали определять неявным образом и совместно через систему аксиом геометрии.

Аналогичную ситуацию мы имеем в классической механике и других разделах физики. Здесь тоже существуют "первичные идеальные объекты" (ПИО) - частицы, силы, поля, ..., из которых строятся модели различных явлений природы и глобальные картины мира. Динамика Ньютона рассматривает невообразимое множество механических систем, собираемых из различных тел (частиц) и приложенных к ним сил. Частицы и силы играют роль "первичных идеальных объектов", из которых собираются более сложные составные идеальные объекты - теоретические модели различных явлений природы. ПИО - важнейшие понятия каждого раздела физики - являются теми исходными "кирпичиками", из которых строятся теоретические модели различных физических явлений и физическая "картина мира". Последние выражаются через первые явным образом, а с определением "первичных идеальных объектов" дело обстоит так же как и в геометрии. В классической механике их долгое время после Ньютона рассматривали как самоочевидные и неопредилимые исходные понятия. Но после появления во второй половине XIX в. электродинамики Максвелла ситуация изменилась. Реализация антиньютонианской программы Фарадея-Максвелла поставила под вопрос казавшиеся до того большинству физиков достаточно очевидными ньютоновские определения массы, силы, частицы и ее характеристик. И здесь физика пошла по тому же пути, что и геометрия (хотя и менее осознанно), через использование неявного типа определения. Соответствующая система понятий и постулатов (аналог системы аксиом геометрии) называется нами "ядром раздела науки" - ЯРН (в данном случае - физики). Понятия "первичного идеального объекта" (ПИО) и "ядра раздела науки" (ЯРН) -- основные понятия развиваемого нами "модельного подхода" к науке.

Идея "первичного идеального объекта"  и "ядра раздела науки" логически естественна. Действительно, явное определение, примером которого может служить и статья толкового словаря, выражает новое понятие (или объект) через другие. Явное определение последних сведет их к третьим и т.д.. Этот процесс должен где-то обрываться. То на чем он обрывается будет образовывать группу "первичных" понятий (или объектов). Декарт и его последователи предлагал в качестве последних интуитивно очевидные понятия. Но математика, физика, химия работали со все более сложными понятиями и во второй половине XIX в. многие из первичных понятий уже трудно было считать очевидными. Решением возникшей проблемы стал неявный тип задания первичных понятий.

Наличие "первичных" и "вторичных" идеальных объектов требует ввести еще одно очень важное различение - фиксацию двух фаз в развитии науки: фазы создания (С) новых первичных идеальных объектов (отвечающих на вопрос " ЧТО такое эти поля, микрочастицы и т.д.?") и фазы их использования (И) для построения моделей явлений природы или картины мира (отвечающей на вопрос о том "как устроен мир?"). Это различение фиксируется в предложенном Т.Куном делении на "нормальную" и "аномальную" фазы науки и в эйнштейновском различении на "конструктивные" и "фундаментальные" ("принципиальные") теории. Нам представляется, что в истории физики (и естественной науки вообще) наличие указанных двух фаз в развитии науки отражается в споре о том, в чем задача физики: "объяснять" или "описывать" (но союз "или" здесь неверен, поскольку речь идет о двух последующих фазах).

Творцы новых разделов физики: классической механики (Галилей, Ньютон с его знаменитым тезисом "гипотез не создаю"), электродинамики (Максвелл, Герц), специальной теории относительности (Мах, ранний Эйнштейн, находившийся под сильным влиянием Маха) в своей деятельности придерживались не "объяснительной", а "описательной" установке. Это обусловлено тем, что следование "описательной" установке "развязывало руки" для создания нового "строительного материала" - "первичных идеальных объектов" и объемлющего их "ядра раздела науки", которые, как мы увидим, часто рождаются не через объяснение, а через конструктивное преобразование парадокса.

Нас интересует фаза создания нового "ядра раздела науки", в ходе которого создаются новые "первичные идеальные объекты". В центре этого процесса - теоретическая работа по созданию новых "первичных идеальных объектов" (ПИО). Опыты же, как они понимаются в эмпирической традиции, идущей от Фр.Бэкона, дают некий исходный эмпирический материал в виде "эмпирических фактов" и "эмпирических закономерностей" - "эмпирический хаос" (в древнегреческом смысле слова "хаос") типа расплывчатых, нечетких образов движения, газа и др. Из этого "хаоса" посредством, главным образом, теоретической работы галилеевского типа создаются естественнонаучные "первичные идеальные объекты" (идеальное движение ньютоновского тела в пустоте, идеальный газ, электромагнитное поле и др.). Этот же "эмпирический хаос" часто служит поставщиком тех "явлений природы", модели которых создаются из уже готовых первичных идеальных объектов (в фазе их использования).

Итак мы приходим к следующей модели создания и функционирования разделов естественной науки нового времени. Существует эмпирический материал в виде различных эмпирических явлений и закономерностей. Этот материал накапливается в науке по-бэконовски и служит сырьем для формирования развитой науки, которая использует его двумя способами. 1)При создании нового ядра раздела науки и связанных с ним новых первичных идеальных объектов это - строительный материал. Эксперимент при этом выступает как инженерное действо, воплощающее теорию-проект в конкретный материал. Здесь эмпирическая материальная реализация является приближенным воплощением первичных идеальных объектов. 2)В рамках уже созданного раздела науки накопленные в слое эмпирического материала феномены являются предметом рассмотрения и объяснения с помощью создаваемых из имеющихся первичных идеальных объектов моделей этих явлений. В этом случае уже идеальная модель выступает как приближенное изображение эмпирического явления.

При этом сам процесс скачка от накопления эмпирического материала к зрелому ядру раздела науки мы не рассматриваем. Мы, как и К.Поппер, относим его к недоступному нашему анализу процессу творчества. Мы лишь констатируем этот скачок, обращаем внимание на исходное положение дел (часто это тот или иной парадокс) и указываем некоторые черты структуры конечного положения дел (для физики весьма подробно).

Образец работы И-типа по созданию нового ПИО ("пустоты") мы находим у Г. Галилея (1564-1642) в текстах его "Бесед...", где он, решая доставшуюся ему в наследство от Аристотеля (и считавшуюся очень важной все это время) задачу об описании падения тела, закладывает основу естественной науки Нового времени. Здесь проступает фактически схема противоположная бэконовской. Не из тщательного эмпирического исследования выводит он свою теорию падения тела (измерение времени падения тел с Пизанской башни, по-видимому миф [21]). В качестве исходного пункта его построений можно принять теоретическое утверждение, что природа "стремится применить во всяких своих приспособлениях самые простые и легкие средства.... Поэтому, когда я замечаю, - говорит Г. Галилей в своих "Беседах...", - что камень, выведенный из состояния покоя и падающий со значительной высоты, приобретает все новое и новое приращение скорости, не должен ли я думать, что подобное приращение происходит в самой простой и ясной для всякого форме? Если мы внимательно всмотримся в дело, то найдем, что нет приращения более простого, чем происходящего всегда равномерно..." [13, с. 238]. Схема работы Галилея, ярко продемонстрированная в задаче о брошенном теле ("4-й день" "Бесед…"), такова: 1)задается закон движения (тела падают равномерноускоренно); 2)в результате мысленных физических экспериментов происходит создание элементов физической модели идеального движения тела в пустоте и мешающей этому идеальному движению среды. На этом этапе, фактически "по определению",  вводится взаимообусловленная пара понятий: "пустота" как такая совокупность условий, в которой галилеевское идеальное падение тела и реальное совпадают, и "среда" - то, что отклоняет реальное падение от идеального. Превращение этой еще натурфилософской модели в естественнонаучную происходит благодаря третьему шагу: 3)к созданному таким путем теоретическому построению - физической модели падения тела в пустоте - Галилей подходит как инженер к проекту, воплощая его в материал путем создания "гладких наклонных плоскостей" и других "конструктивных элементов" инженерной конструкции. Эта схема просматривается и в других разделах физики.

По сути Г. Галилей создал четкую многослойную структуру естественной науки из сочетания образцов теоретизирования, заданных в геометрии Евклида (эта тема подробно обсуждается ниже), элементов натурфилософского моделирования и инженерии позднего Возрождения. В математическим слое (Мат) он на языке пропорции v1: v2=t1:t2 зафиксировал закон равномерно-ускоренного падения тела. Затем он ввел еще один теоретический слой - "модельный слой" или слой "физических моделей" (Мод), состоящий из таких элементов как "тело", "пустота", "среда", а также измеримые величины - время, скорость, расстояние. Этот двухслойный теоретический блок (Т) дополняется третьим нетеоретическим операционным (О) блоком, содержащим две части: "приготовительную" часть < П |, включающую необходимые для приготовления самой системы и ее исходного состояния "конструктивные элементы" типа наклонных плоскостей (с их помощью в материале создается система и ее начальное состояние); "измерительную" часть |И>, включающую процедуры измерения и эталоны для измеримых величин, фигурирующих в слое "физических моделей" (Сх.1.1).

Такой же структурой:

<приготовление (П)| - описываемое теорией изменение (T) - |измерение (И)}> обладает любой эксперимент (эксперимент, в отличие от наблюдения, предполагает наличие теоретической части).

Особое место в нашей схеме занимают процедуры измерения. По своему происхождению и смыслу измерение это сравнение с эталоном - образцом измерения, фактически, является измерение расстояния с помощью эталонного метра. Процедуры измерения расположены вне теоретической части. Это практическое действие, а не объект теории в качестве явления "взаимодействия измерительного прибора с исследуемой системой". Подробнее мы это обсудим при рассмотрении квантовой механики.

Данная здесь интерпретация существенно отличается от общепринятых, смотрящих на работы Галилея сквозь призму бэконовского эмпиризма, различные варианты которого абсолютно доминируют в философии науки. То, что мне важно зафиксировать здесь - это принципиальное несовпадение между эмпиристским понятийным аппаратом, с помощью которого рассуждают О НАУКЕ, и тем как работают В НАУКЕ при создании НОВЫХ разделов науки.

2. Структура раздела физики.

Итак, перейдем к конкретизации полученной выше галилеевской модели "ядра раздела науки" (Сх. 1.1) для случая физики. Эту работу мы произведем в ходе анализа классической механики Ньютона.

Исходно, Ньютона, как и Галилея, интересовала вполне конкретная задача: построить теорию, из которой бы следовали кеплеровские законы движения планет. Решая ее, он создал свои знаменитые динамику (то, что сейчас принято называть ньютоновской или классической механикой) и теорию тяготения. Исторически это важный и интересный факт, характеризующий тип развития на "первом" этапе "классического" периода (XVII-- XVIII вв.), но нас сейчас интересует более общий логический аспект: классическая (ньютоновская) механика - первый образец систематического теоретического описания движения (хотя и самого простого из четырех, выделенных Аристотелем - движения-перемещения). Общая теоретическая схема описания движения, сложившаяся в классической механике к концу XIX в. выглядит так: движение физической системы есть переход ее во времени из одного состояния в другое.

В результате мы приходим к изображенной на сх.1.1 структуре теоретической части раздела физики ("Т-блока"), представляющей собой структурную модель описания движения. Здесь "физическая модель" состоит из остающейся тождественной самой себе физической системы A, составленной из первичных идеальных объектов (например, одна или несколько механических частиц (тел)), включающих в число своих характеристик взаимодействие между частями системы (межчастчное - в случае многочастичной системы), заданного внешнего воздействия F (T) (внешней силы и т.п.) и изменяющихся со временем (t) состояний физической системы - SА(t;F), который мы далее будем часто кратко обозначать SA(t).

Математический слой (М) состоит из "математического представления", включающего математические образы элементов физической модели М{SА(t;F)} и "уравнения движения". Последнее связывает состояния системы в различные моменты времени, определяя этим динамическое поведение физической системы и составляющих ее "первичных идеальных объектов". При этом все математические объекты связываются с эмпирическими объектами через элементы физической модели.

Уравнение движения, наряду с "диахроническими" свойствами, описывающими рассматриваемый переход из одного состояния в другое, определяет также и "синхронические" свойства системы - множество возможных ее состояний.

Все эти понятия задаются совместно и неявно в рамках ядра раздела науки, подобно тому, как задаются основные понятия геометрии в рамках системы аксиом геометрии. Кроме того, физическая система и ее исходное состояние должны иметь материальную реализацию в эмпирическом слое, а измеримые величины (расстояние, скорость, масса и т.п.), которые входят в физическую модель системы и ее состояний, должны быть обеспечены в эмпирическом слое соответствующими эталонами и процедурами сравнения с эталоном.

Изображенная на Сх. 1.1 структура, с одной стороны, представляет структуру "ядра раздела физики", в рамках которой неявно определяются соответствующие "первичные идеальные объекты" (один, как частица в механике, или несколько, как заряженная частица и электромагнитное поле в электродинамике). В этом случае физическая система содержит минимально возможное число "первичных идеальных объектов" (ПИО). Но эта же структура, с другой стороны, имеет место и при создании моделей сложных систем из многих уже определенных ПИО (в "фазе использования"). Отметим, что при таком рассмотрении на первое место выдвигается ПИО, а не "законы природы". Последним на сх.1.1 соответствует "уравнение движения", которое в "фазе использования" выступает как заданный элемент ПИО, а в "фазе создания" - как один из элементов ЯРН.

Центральным в физике является слой физических моделей (Мод). Он связан, с одной стороны, с математическим слоем, где всем элементам модельного слоя посредством определенных процедур (обозначены вертикальными стрелками внутри теоретического Т-блока) сопоставляются соответствующие математические образы. С другой стороны, слой физических моделей связан с нетеоретическим слоем эмпирического материала (вертикальные стрелки, которые могут быть рассмотрены и как двусторонние, т.е. учитывающие обратные влияния), где должны быть заданы процедуры измерения, эталоны и система отсчета (ИЭ) для всех используемых в модельном слое измеримых величин, а также прочие "конструктивные элементы", задающие систему и ее исходное состояние (П).

Конечно, математический слой нельзя изолировать от модельного слоя, они, естественно, связаны внутри теоретического Т-блока "ядра раздела науки". Но разводить их полезно, поскольку связи внутри слоев значительно сильнее, чем между слоями, и проекция всей теоретической части на модельный слой (а не математический, как у Мандельштама и др.) позволяет в модельном слое дать представление о "первичных идеальных объектах" (и составляемых из них вторичных идеальных объектах), физической системе, ее состояниях и соответствующем движении как перемещении из одного состояния в другое, и уже во вторую очередь рассматривать  характер этого движения.

Введенное выше теоретическое описание обобщенного движения-перемещения, естественно, требует введения понятий: "физическая система", "состояние физической системы", время. Самое сложное из них - последнее.

Можно дать общее понятие состояния в физике следующим образом: знание состояния физической системы в некий момент времени t означает знание ответа на все возможные в данном разделе физики вопросы о любой характеристике соответствующего движения этой системы, относящейся к этому моменту времени, а также, и в этом выражается детерминистический характер физики, любому другому моменту времени (при заданном внешнем воздействии). При этом состояние в физике однозначно связывается с одним моментом времени. Задание множества состояний, связанных с данной системой, упорядоченных во времени и параметризованных (количественно связанных) посредством уравнения движения, позволяют описывать движение как переход системы из одного состояния в другое.

Эта, сложившаяся в классической механике структура, как мы увидим, является общей для всех разделов физики.

В заключении этого пункта отметим, что в рамках эмпиристского взгляда на науку ответ на вопрос "Что такое физика (химия, биология)?" сводится к перечислению того, чем занимаются физики (химики, биологи). В данном курсе лекций развивается неэмпиристский взгляд на науку, в котором наука определяется теми типами моделей, с помощью которых она описывает окружающий мир. Для физики это, во-первых, модель движения как переход физической системы из одного состояния в другое, а во-вторых, весьма ограниченный набор общих моделей, которые лежат в основе "первичных идеальных объектов" различных разделов физики. Это, во-первых, ньютоновская модель частицы в пустоте и силы и декарто-эйлеровская модель непрерывной среды. Если к этому добавить вырастающие из последней модели силового поля и волны, то мы получим, по сути, весь спектр общих ("архетипических") моделей, используемых  в физике. При этом целостными единицами являются разделы физики, состоящие из ЯРН, задающих ПИО, и строимых из последних моделей (теорий) явлений. Наличие ЯРН задает раздел физики.

3. Механика Ньютона. Модель частицы в пустоте и силы

Классическая механика складывается вокруг "первичного идеального объекта" (ПИО) - механической частицы (материальной точки, тела) в пустоте, обладающей массой, движущейся по определенной траектории с определенной скоростью, зависящей от действующих на нее сил.

Именно понятия частицы, обладающей массой, (простейшей физической системы в классической механике  ее состояний, пустоты и силы, уравнение движения и связанные с ним математические образы составляют набор совместно определяемых понятий в рамках "ядра раздела науки"  классической механики. К ним надо еще, правда, добавить соответствующие эталоны и процедуры измерений для входящих в это "ядро раздела науки"  измеримых величин (расстоянии (положении), времени, скорости), которые задаются явным образом.

Понятие пустоты и силы во многом аналогично понятиям пустоты и среды у Галилея. Пустота связана с выделенным "естественным" движением системы (равноускоренным у Галилея и прямолинейным и равномерным у Ньютона), а сила (подобно среде Галилея) несет ответственность (является причиной) за отклонение от этого "естественного" движения. Так связаны между собой понятия частицы, пустоты и силы. С другой стороны, понятие частицы в механике неразрывно связано с понятием о соответствующем множестве состояний. Состояния, в свою очередь, связаны с уравнением движения , и с входящим в последнее понятие массы, а также математических образов частицы-системы и ее состояний. В "ядро раздела науки" здесь входит представление о движении как смене состояний.

Под состоянием частицы в механике имеется в виду значение ее координаты (x) и скорости (v). Это связано с тем, что в силу уравнений движения Ньютона (так называемых обыкновенных дифференциальных уравнений 2-го порядка) следует, что знания координаты и скорости тела в некий момент времени t достаточно, чтобы 1) ответить на вопрос о любой характеристике механического движения тела в этот момент (т.е. о производных от скорости любого порядка) и 2) во все другие моменты времени (отсюда вытекает механический детерминизм). Поэтому значения и координат и скоростей всех тел (частиц), составляющих механическую систему, отвечают приведенному выше понятию состояния физической системы в классической механике.

С величинами расстояния, времени, скорости (x,v,t) в созданной Ньютоном классической механике особых проблем не возникает ни в теоретических слоях, ни при введении процедур измерения (т.е. сравнения с эталоном). А вот о том, "что такое масса и сила и как их измерять?" во второй половине XIX в. возникают жаркие споры [16].

Начнем с  силы. Здесь Ньютон, как мы уже сказали, по сути, воспроизвел ход Галилея при введении понятия среды - сила это то, что отклоняет движение тела от равномерного и прямолинейного (постулируя это, как и Галилей):

"Закон I. Всякое тело продолжает удерживаться в своем состоянии покоя или равномерного прямолинейного движения, пока и поскольку оно не понуждается приложенными силами изменять это состояние" [38, с. 39]. "Определение IV. Приложенная сила есть действие, производимое над телом, чтобы изменить его состояние покоя или равномерного прямолинейного движения. Сила проявляется единственно только в действии и по прекращению действия в теле не остается" [38, с. 26].

Далее, как и у Галилея, Ньютоном выбирается самый простой - линейный закон связи между силой и скоростью изменения скорости (т.е. ускорением):

"Закон II. Изменение количества движения пропорционально приложенной движущей силе и происходит по направлению той прямой, по которой эта сила действует" [38, с. 40], где, согласно "Определению II", "количество движения есть мера такового, устанавливаемая пропорционально скорости и массе" [38, с. 24].

I и II законы-постулаты Ньютона почти полностью определяют силу как новую измеримую величину и позволяют ввести и эталон силы и процедуры сравнения с эталоном. Не хватает только определения коэффициента пропорциональности - массы тела и определения инерциальной системы отсчета  - той, в которой справедлив I закон Ньютона - закон инерции.

Ньютоновское определение массы, которое утверждает, что "количество материи (масса) есть мера такового, устанавливаемая пропорционально плотности и объему ее"("Определение I"), "неоднократно вызывало возражения. Многие видели в нем порочный круг... Э.Мах утверждал, например, что формулировка Ньютона равносильна констатации, что "масса есть масса", а А.Зоммерфельд называл ньютоново определение "бессодержательным".... (Но) в трактате "О тяжести и равновесии жидкостей", ... мы находим следующее определение плотности: "Тела являются более плотными: если их инерция более сильная..."" [19, с. 316-317]. Т.е. Ньютон здесь очень близко подошел к строгой процедуре определения инертной массы, которую нетрудно осуществить, используя 3-й закон-постулат Ньютона, гласящий: "Действию всегда есть равное и противоположно направленное противодействие, иначе - взаимодействие двух тел друг на друга между собою равны и направлены в противоположные стороны". Действительно, из 2-го и 3-го законов Ньютона следует закон сохранения количества движения (импульса) при столкновениях тел. Следовательно, выбрав некоторое тело в качестве эталона, сталкивая с ним другие тела и измеряя скорости тел до и после соударения, мы получаем процедуру измерения инертной массы.

Однако вследствие "развития современных фундаментальных исследований, начавшихся в середине девятнадцатого столетия... принципы механики Ньютона стали предметом критических исследований физиков, математиков и философов... (и) то, что в ньютоновской физике играло центральную роль, рассматривалось теперь как темное метафизическое понятие, которое должно быть устранено из наук" [16, с. 96-97] (аналогичные проблемы возникли с понятием силы [71, p. 200-240]).

Третий сложный вопрос - об определения инерциальной системы отсчета Ньютон обходил с помощью тезиса об абсолютном пространстве. Фактически же эта проблема решалась Ньютоном (и решается сегодня) путем введения для силы соответствующей физической модели - сила (как позже энергия) должна иметь определенную природу, определенный источник. Исходной конкретной реализацией силы для Ньютона была сила тяжести. Потом по аналогии с ней появились электрическая и магнитная силы, а также близкодействующие силы упругости и т.д. Если для всех сил удается ввести подобную физическую модель, то появляется критерий отсутствия сил и, соответственно, критерий для выяснения степени инерциальности данной системы отсчета. На этом основана довольно проработанная процедура самосогласования и вытекающая из нее последовательность практических кандидатов в инерциальные системы: земная поверхность, центр масс Солнца, система удаленных звезд. К этому следует добавить использование привычных преобразования Галилея при переходе от одной инерциальной системы (O) к другой (O'), при которых расстояния, интервалы времени, понятие одновременности не меняются, и имеет место простое сложение скоростей системы отсчета и тел (частиц).

В результате мы определили все измеримые величины в модельном слое и соответствующие им эталоны и процедуры сравнения, инерциальные системы отсчета в "операциональном" слое, определили систему и внешнее воздействие. Определив понятие силы -- внешнего воздействия на одночастичную систему, это понятие используют для построения системы взаимодействующих между собой частиц. Из частиц, межчастичных сил взаимодействия и внешних сил строится все многообразие рассматриваемых в ньютоновской механике механических систем.

Математическими образами системы служат распределение масс и сил, связанных с материальными точками в декартовой системе координат. Уравнением движения является второй закон Ньютона, а состояние определяется значениями координат и импульсов (скоростей) в произвольный момент времени.

На этом сложные вопросы оснований классической механики кончается и начинается решение задач (от школьных до тех, над которыми трудятся целые лаборатории в научно-исследовательских институтах).

4. Формирование континуальной модели: среда, поле, волны

Модель непрерывной среды является основной альтернативой ньютоновской модели частицы в пустоте. На натурфилософском уровне она была провозглашена Р.Декартом, а на естественнонаучном физическом уровне развита в гидродинамике Эйлера. Главным ее отличием от ньютоновской модели частицы в пустоте является отсутствие пустоты, фиксируемое принципом непрерывности и ориентация на взаимодействие типа близкодействия, т.е. взаимодействуют только соприкасающиеся частицы или элементы среды (а не дальнодействия, как в ньютоновской теории тяготения). Модель непрерывной среды порождает две дочерние модели - волны и поля, которые тоже являются "архетипическими" и используются для постороения ПИО в различных разделах физики.

Интересующая нас модель непрерывной среды вполне сложилась уже в гидродинамике идеальной жидкости Л.Эйлера (жидкости, лишенной вязкости и теплопроводности).

Хотя гидродинамика опирается на ньютоновскую механику - введение центрального для описания жидкости "элемента жидкости" использует уже имеющийся первичный идеальный объект ньютоновской механики - материальную частицу (тело), но ведение новых принципов (непрерывности и др.) превращают ее в новый первичный идеальный объект - жидкость, непрерывную среду, становящуюся альтернативой частице.

Главное свойство физической системы – набор ее возможных состояний. Поэтому одним из главных отличий непрерывной среды является то, что ее состояния определяются значением соответствующих величин во всех точках занимаемого системой (непрерывной средой) пространства. Т.е., если сравнить одномерное движение частицы и гипотетической однопараметрической среды, то на плоскости (p, x), где x - координата, а p -  скорость частицы или параметр среды состояние частицы будет изображаться точкой, а состояние среды - линией. В эйлеровой гидродинамике идеальной несжимаемой жидкости состояния жидкости определяются вектором скорости v (x) и скалярным давлением p(x), а уравнения движения выводятся из закона сохранения импульса и уравнения непрерывности.

Другая характерная черта - процедуры измерения основаны на использовании пробного тела. Пробное тело, с одной стороны, инородно по отношению к жидкости, чтобы выделить данную точку (при этом оно должно быть достаточно маленьким, чтобы пренебречь его возмущающим воздействием на соседние области жидкости). С другой стороны, оно отождествляется с "элементом жидкости".

Эти две черты - тип состояния и тип процедур измерения, а также принципы непрерывности и близкодействия при передаче воздействия, задают модель непрерывной среды (отметим, что при использовании (И-фаза на сх. 1.1) модели непрерывной среды не характерно построение моделей из комбинации многих сред. Как правило речь идет об одной среде, обладающей теми или иными свойствами).

Модель силового поля, формирующаяся в электродинамике Фарадея-Максвелла, очень близка гидродинамической модели Эйлера. Здесь тот же тип состояния - состояния электромагнитного поля задаются значениями электрического и магнитного поля во всех точках пространства и измеряются с помощью пробных тел (заряда и витка с током). Специфика силового поля лишь в его "невещественности", его нельзя "пощупать", оно проявляется только в виде действующих сил.

Над гидродинамической моделью непрерывной среды надстраивается модель волны.

Волны - это "изменения состояния среды (возмущения), распространяющиеся в этой среде и несущие с собой энергию. Наиболее важные и часто встречающиеся виды волн - упругие волны (в том числе звуковые - А.Л.), волны на поверхности жидкости и электромагнитные волны  .... Основное свойство всех волн, независимо от их природы, состоит в том, что в волне осуществляется перенос энергии без переноса вещества (последний может иметь место лишь как побочное явление)", -- написано в "Физическом энциклопедическом словаре" [59, с. 85].

Т.е. некий тип состояний среды представляется в виде стационарного состояния (типа гладкой поверхности воды) и особого типа нестационарной добавки (чаще всего колебательного характера), называемой волной, которая возникает во многих средах в результате локального возмущения стационарного состояния (типа брошенного в воду камня).

Но, с другой стороны, волны могут рассматриваться как системы. Причем, так же как различные механические системы собираются из частиц, так волны (это может быть одиночный импульс, цуг, состоящий из нескольких импульсов и т.д.) собираются из простейших, так называемых, "гармонических" или синусоидальных волн. Все прочие волны можно представить в виде суммы синусоидальных волн. При этом линейные волны подчиняются принципу суперпозиции, т.е. они распространяются независимо друг от друга. Т.о. "гармонические" или синусоидальные волны играют здесь роль ПИО, которые характеризуются частотой (подобно тому, как механические частицы характеризуются массой). Направление распространения гармонической волны, ее амплитуда, начальная фаза, поляризация - характеризуют ее состояние. Они меняются под действием затухания, фильтров, поляризаторов, фазовых пластин, зеркал и т.п., выступающих в роли внешних воздействий ("сил"). Вообше говоря, волны имеют передний и задний фронты (начало и конец, расстояние между которыми определяет еще один важный параметр волны - ее "длину когерентности"), а могут представлять из себя и весьма компактные образования (волновые пакеты). Т.е. волна представляет собой протяженный, но локальный (ограниченный) объект, распространяющийся в пространстве.

Поэтому многое в их поведении напоминает поведение частиц. Не случайно в течении долгого времени конкурировали волновая и корпускулярная модели распространения света. Тем не менее исходно они выступают как альтернативные модели. Специфические свойства волн, характеризующие их распространение как принципиально отличное от движения частиц, - свойства интерференции (термин, введенный Томасом Юнгом в 1803 г.)[1] и дифракции[2]. Эти свойства отличают поведение волн от поведения потока частиц, описываемого законами геометрической оптики.[3]

Модель силового поля рождается в электродинамике Максвелла, точнее Фарадея-Максвелла, поскольку основы модельного слоя были заложены Фарадеем на основе модели силовых линий, а математический слой был разработан Максвеллом. Исходя из концепции близкодействия, Фарадей перенес центр тяжести своих исследований с электрических и магнитных тел на пространство между этими телами. "Если они (линии магнитной силы) существуют, - писал он, - то не как результат последовательного расположения частиц..., но обусловлены пространством, свободным от таких материальных частиц. Магнит, помещенный в лучший вакуум... действует на магнитную иглу так же, как если бы он был окружен воздухом, водой или стеклом" (приводится по [52 б, с. 124]). "Магнитным полем, - пишет Фарадей, - можно считать любую часть пространства, через которую проходят линии магнитной силы... Свойства поля могут изменяться от места к месту по интенсивности силы, как вдоль линий, так и поперек последних"  [54 б, т.3]. Эту линию последовательно развил Дж. Максвелл. Он изначально исходит из новой модели поля, суть которой составляют "электрические силовые линии, существующие вне порождающих их зарядов. " [51, с. 153]. И над этой моделью надстроил  математический слой с помощью аналоговых гидродинамических моделей, жестко связанных со своим математическим слоем. "Формирование этого языка открывало путь к построению основ для исследования принципиально новых законов действия электрических и магнитных сил, включая физические процессы их взаимопревращения и распространения в пространстве (электромагнитных волн). … Такие физические процессы, вообще говоря, были просто бессмысленны с точки зрения понимания силы как причины ускорения материальной точки;..." [33 б, с. 265-266].

Основные новые моменты модели, унаследованные от Фарадея, - система-поле (представляющее собой заполняющую пространство среду из силовых линий), состояния которого определяются значениями напряженностей электрической и магнитной составляющих - новых измеримых величин. Важнейшим шагом на этом пути было определение процедуры измерения характеристик поля посредством пробного заряда и пробного витка с током.

5. Создание теории относительности (ТО)

Со специальной (СТО) и общей (ОТО) теорий относительности начинают отсчет "неклассического" периода в физике. Ее появление вызвало сильнейшее потрясение в умах не только физиков. Она стала достоянием культуры Новейшего времени и типичными представителями последнего. При этом в культуре ХХ в. за ней, как и за квантовой механикой, закрепился статус недоступности для простых смертных, она рассматривается как достояние узкого слоя жрецов в лице физиков-теоретиков, непосредственно занимающихся этим предметом. Такое отношение послужило благодатной почвой для возникновения многочисленных мифов, распространяющихся в общественном сознании.

Попробуем разобраться в этих вопросах.

5.1. Специальная теория относительности (СТО)

Победа антиньютонианской программы электромагнитной теории Максвелла привела к кризису господствовавший до тех пор в среде физиков ньютонианский взгляд на мир. Согласно одному из основополагающих положений последнего "всякое физическое явление можно считать изученным только тогда, когда построена его механическая модель". С механической же моделью максвелловского электромагнитного поля - эфиром дело обстояло плохо. Следствием этого стал критический анализ оснований классической механики, возникли вопросы "что такое сила?", "что такое масса?", а вместе с ними и альтернативные механики без этих понятий. С новой силой и аргументацией возродился спор XVII в. между Ньютоном и Лейбницем о существовании абсолютного пространства и времени. В физике разразился "гносеологический кризис", который по своему духу вполне отвечал атмосфере "конца века"[49]. Центральное место в этих жарких спорах принадлежит Эрнсту Маху. 

На этом фоне вызревал исходный парадокс - противоречие между максвелловской электродинамикой и классической механикой как физическими теориями. Особенно четко это противоречие сконденсировалось вокруг вопроса о распространении электромагнитных волн - квинтэссенции теории Максвелла.

Со времен Галилея существовал принцип относительности как принцип эквивалентности механических явлений во всех инерциальных (т.е. движущихся прямолинейно и равномерно) системах отсчета (например, вагон поезда, движущийся без ускорения).

В силу этого принципа механические явления не дают возможности наблюдателю, находящемуся в какой-либо из этих систем определить некое абсолютное движение, т.е. определить какая из двух систем отсчета движется "на самом деле" (напр., вагон Вашего или соседнего поезда).

Математическим выражением этого факта была инвариантность (неизменность) уравнений движения Ньютона по отношению к преобразованиям Галилея: x'=x+Vt; y'=y, z'=z, t'=t, v'=v+V, где V - скорость движения "штрихованной" системы отсчета O'x'y'z' (вагон), движущейся вдоль оси Ох "нештрихованной" системы Oxyz (перрон) с постоянной скоростью V (рис.5.1).

Электромагнитная теория Максвелла нарушала эту идиллию. "В уравнения Максвелла входит характерная скорость "c"- скорость света. Поэтому они не инвариантны относительно преобразований Галилея (в этом легко убедиться непосредственной подстановкой вместо скорости света с суммы с+V в уравнения Максвелла)" [26, т. I, с. 208]. Эйнштейн с 16 лет размышлял над вопросом, какова будет скорость света для наблюдателя, движущегося со скоростью света.

Математическим выражением этого факта является то, что уравнения Максвелла оказываются инвариантными не относительно преобразований Галилея, а относительно преобразования Лоренца. Из него следует, что при переходе из "нештрихованной" системы отсчета О в "штрихованную" систему отсчета O' длина отрезков L укорачивается (D(L)=D(L')g, g = (1—V^2/c^2)^1/2 вдоль движения (шарик сплющивается в блин), а интервалы времени удлиняются (D(t)=D(t')/g).

Специальная теория относительности (СТО) рождалась из преодоления указанного теоретического противоречия, путь разрешения которого зависел от выбора ответов на вопросы: 1)обобщать или нет принцип относительности на электромагнитные явления?; 2)если обобщать, то какие теории менять: Ньютона или Максвелла и как?

Эйнштейн на первый вопрос отвечал положительно, так же как и А.Пуанкаре (1854-1912), которого в начале века, наряду с Х.Лоренцем (1853-1928) и Эйнштейном(1879-1955), относили к отцам СТО. Что касается второго вопроса, то Эйнштейн решил менять уравнения Ньютона и, что оказалось еще более важным, процедуры измерения (в то время, как Лоренц и Пуанкаре пытались решить проблему посредством сложного взаимодействия эфира с движущимися телами).

Этот выбор лежал в основе знаменитой статьи Эйнштейна 1905 г. "К электродинамике движущихся тел", где специальная (частная) теория относительности (СТО) была сформулирована почти в полном виде.

В основе его специальной теории относительности (СТО) лежали 2 постулата:

1. Все законы физики имеют одинаковый вид во всех инерциальных системах отсчета. "... Для всех координатных систем, для которых справедливы уравнения механики, справедливы одни и те же электродинамические и оптические законы".

2. Скорость света постоянна во всех инерциальных системах отсчета.

Главные следствия СТО, сделавшие ее столь знаменитой - кинематические (т.е. связанные с изменением описания движения). Они следуют из изменения процедур измерения расстояний и времени, вытекающих из 2-го постулата. Это: 1)сокращение длин, 2)замедление времени (они описываются преобразованием Лоренца),  3)относительность одновременности событий в удаленных точках пространства и вопрос о связи пространства и времени.

Вытекающее из 1-го постулата изменение законов (уравнений) движения приводит к динамическим эффектам во главе со знаменитой формулой Эйнштейна E=mvc^2, где mv=m0 (1— v^2/c^2)^(-1/2), где  m0 - так называемая масса покоя, т.е. масса при v=0[4]. Эта формула утвердила эквивалентность массы и энергии и стала основой теоретических оценок энергии выделяемой при термоядерных реакциях.

Эйнштейн, в отличие от Лоренца, пошел, в первую очередь, по пути кинематики, а не динамики и обратился к анализу процедур измерения  расстояний, отрезков времени, одновременности (синхронизации часов). В основу этих процедур он положил не абсолютно твердое тело (эталон метра), как в классической физике, а "абсолютно твердую" скорость света[5] c.

Наиболее просто понять суть кинематических эффектов можно на примере эффекта замедления времени.

Для этого соорудим световые часы следующего типа (рис.5.1). Возьмем вместо маятника импульс света, колеблющийся с полупериодом T =L/c между двух параллельных зеркал, расположенных на фиксированном расстоянии L друг от друга. Расположим эти часы в системе О' (вагон) так, чтобы направление луча было перпендикулярно направлению скорости движения системы отсчета О'. Тогда расстояние L, будет одинаково в обеих системах отсчета, но для системы O (платформа) за полупериод зеркала сместятся по оси х на расстояние TV и луч будет двигаться по диагонали прямоугольного треугольника со сторонами L=Tc и TV.

В результате с точки зрения системы О часы в системе О' будут идти в (1-V^2/c^2)^( –1/2) раз медленнее. В силу принципа относительности такое же замедление будет и для времени отсчитываемом по часам с другим механизмом, скажем, атомным часам.

В качестве экспериментального подтверждения этого эффекта часто приводят пример распада мю-мезонов (мюонов) - элементарных частиц, приходящих к нам из космоса. Их среднее время самопроизвольного распада 2,2 x10^(-6) сек.

При таком кратком времени жизни мюоны, приходящие вместе с космическими лучами, не могут пройти больше 6000 м, даже если он двигается со скоростью света. Но хотя мюоны возникают у верхних границ атмосферы на высоте 10 км и выше, их все-таки обнаруживают в земных лабораториях. Как это может быть? Ответ состоит в том, что некоторые мюоны летят со скоростями близкими к скорости света настолько, что по часам, связанным с мюонами они живут всего лишь около 2 мксек, а с нашей - в тысячи и более раз дольше.

Но, пожалуй, центральным пунктом в СТО является эффект относительности одновременности

"Пусть человек, движущийся в космическом корабле (система О'), установил в двух концах корабля часы... Как синхронизовать ход часов?... Расположимся... посередине между часами. Из этой точки пошлем в обе стороны световые сигналы. Они будут двигаться в обе стороны с одинаковой скоростью и достигнут обоих часов в одно и то же время. Вот этот-то одновременный приход сигналов и можно применить для согласования хода часов. Положим, что человек в системе О' таким способом согласует ход часов. Посмотрим согласится ли наблюдатель в системе О, что эти часы идут одинаково... Наблюдатель в системе О сразу рассудит, что раз корабль движется, то часы на носу корабля удалились от светового сигнала и свету пришлось пройти больше половины длины корабля, прежде, чем он достиг часов; часы на корме, наоборот, двигались к световому сигналу - значит, его путь сократился.… Итак... в другой системе координат одинаковым t' отвечают разные значения t!" [56, т. 2].

В основе популярного утверждения о связи пространства и времени в теории относительности лежит тот факт, что в то время как интервалы пространства (x2 - x1) и времени (t2 - t1) зависят от системы отсчета, величина квадрата так называемого «интервала между двумя событиями» (s12)^2= c^2 (t2 - t1)^2 - (x2 - x1)^2   не зависит от системы отсчета. Именно это свойство величины s12, являющейся вектором 4-мерного пространственно-временного многообразия лежит в основе известного утверждения Г. Минковского: "Отныне пространство само по себе и время само по себе должно обратиться в фикции и лишь некоторый вид соединения обоих должен еще сохранять самостоятельность" [35, с. 167].

Это высказывание было подхвачено Эйнштейном и многими видными учеными. Но даже в 4-мерной геометрии Минковского четвертое измерение, связанное с временем, выделено (оно описывается не обычными действительными, а так называемыми «мнимыми» числами). А главное, 4-мерная геометрия Минковского - это лишь математическое представление, которое используется как более удобное (чем язык дифференциальных уравнений, использующийся в нерелятивистской мехаике) для записи нового релятивистского уравнения движения. В модельном же слое остаются прежние тела и электромагнитные поля. "Первая часть замечания Минковского, - говорит Рейхенбах - известный философ, занимавшийся логическим анализом ТО, - оказалась, к несчастью, причиной ошибочного впечатления о том, что все наглядные представления о времени как времени и о пространстве как пространстве должны "обратиться в фикции". На самом деле относительность одновременности приводит к сопряжению пространственных и временных измерений..." [46, с. 180], "изменение длины движущихся стержней наглядно представить несложно" [46, с. 180]. Исходя из сх.1.1, можно сказать, что суть дела в том, что, по крайней мере пока, в теории относительности ограничиваются разработкой новых математических представлений в математическом Мат-слое, а объявленные программы радикального изменения модельного Мод-слоя оказываются невыполненными.

Итак, в релятивистской механике (СТО) на уровне физических моделей система и состояния системы остаются те же, что и в нерелятивистской ньютоновской механике. Меняются же процедуры измерения и уравнение движение вместе с математическим представлением системы и ее состояний (последнее строится на основе 4-мерной геометрии Минковского). Это утверждение в основном можно распространить и на созданную А.Эйнштейном к 1915 г. общую теорию относительности (ОТО), где основой математического представления служит еще более сложная 4-мерная геометрия - геометрия Римана. Поэтому утверждение Л.И.Мандельштама, что название "теория относительности" лучше заменить на "теория пространства-времени" неверно. С точки зрения физической модели, ни специальная, ни общая теории относительности не являются теорией пространства-времени: специальная теории относительности (СТО) рождается как обобщение "принципа относительности", общая теории относительности (ОТО) для Эйнштейна есть дальнейшее расширение принципа относительности на системы отсчета, движущиеся ускоренно и в поле сил тяготения (для неинерциальных систем отсчета), а с точки зрения физической онтологии ОТО является релятивистской теорией тяготения, теорией гравитационного поля.

5.2. Общая теория относительности (ОТО)

Что же понимается под гравитационным полем в ОТО? Под этим именем здесь сосуществуют понятия полей двух разных типов. Первое - это математическое поле кривизны (или метрического тензора, или символов Кристоффеля) в 4-мерном пространственно-временом многообразии Римана. Это поле задает отклонение от "плоского" 4-мерного пространства-времени Минковского. Второе - это физическое ньютоно-максвелловское силовое поле, сочетающее ньютоновскую идею гравитационной силы с принципом фарадее-максвелловского близкодействия (включая использование пробных тел для измерения).

Физики-теоретики, занимающиеся ОТО, часто отождествляют гравитационное поле с первым. Мы полагаем, что это поле является лишь математическим образом второго, что вытекает из анализа постановки и решения задач, выходящих на эксперимент. В центре внимания такого анализа - границы между теоретической и нетеоретическими частями сх. 1.1, поскольку именно на них выявляется то, что относится к физической модели.

В целом процедура постановки и решения задач в ОТО выглядит следующим образом. Берут "затравочную классическую систему", которая состоит из одного или нескольких выделенных изучаемых тел (или непрерывной среды) и источников гравитационного поля ( массивных тел и прочих полей, т.е. энергий и импульсов, распределенных в обычных трехмерном пространстве и одномерном времени. При этом состояние выделенных изучаемых тел (или непрерывной среды) задается как в классической механике (или как в гидродинамике) - их положениями и импульсами в обычном 3-мерном пространстве и обычном времени, а состояние гравитационного поля определяется ускорениями и рядом пространственных производных ускорения пробного тела в различных точках пространства. Т.е. тип системы напоминает электродинамику (ср. [14, с. 143]), что естественно, поскольку модель ОТО складывалась на базе моделей Ньютона, Фарадея-Максвелла (и идеи Минковского, которые, как мы пытаемся показать, относятся не к модельному, а к математическому слою).

Затем составляют для нее соответствующие ОТО математические образы, используя язык 4-мерного пространства-времени Римана и получают нужное уравнение движения. Окончательный же результат в конце концов всегда представляют на языке движения тел в обычных трехмерном пространстве и одномерном времени.

Эту ситуацию очень красиво зафиксировал "наивный" вопрос, заданный астрофизикам на одной из конференций по астрофизике крупным геоботаником и разносторонним ученым С.В.Мейеном: "Почему вы так замечательно рассуждаете в 4-мерном пространстве- времени, но на выходе у вас всегда расстояние в мегапарсеках и время выступают отдельно?" [32].

Действительно, если обратиться к описанию таких специфичных для ОТО явлений как "гравитационный коллапс" и гравитационные волны то мы встретим следующие описания.

Гравитационный коллапс - это "процесс гидродинамического сжатия тела под действием собственных сил тяготения"[6] [59, с.137] в обычных трехмерном пространстве и одномерном времени (приблизительно то же мы найдем в [25, т.2, с. 384-385]).

Гравитационные волны - это "переменное гравитационное поле, которое излучается ускоренно движущимися массами, "отрывается" от своего источника и, подобно электромагнитному излучению, распространяется в пространстве со скоростью света" [59, с.137]. "Гравитационную волну можно рассматривать как гравитационное поле, движущееся в пространстве. Такая волна должна была бы оказывать силовое воздействие на объекты, обладающие массой" - пишет Дж. Вебер [14, с. 179]. Правда, затем он добавляет: "Физик-релятивист говорит о гравитационной волне как о распространении кривизны пространства-времени", но тут же уточняет, что "более точным было бы, по-видимому, такое определение: гравитационная волна - это возмущение гравитационного поля, распространяющегося с конечной скоростью и несущее с собой энергию". В [9], с одной стороны, "гравитационная волна" представляется как "рябь на статической кривизне" (имеется в виду кривизна в 4-мерном пространстве-времени Римана). Но когда говорят о ее источнике и конструировании прибора для регистрации в конкретном эксперименте, то речь уже идет о "распространении" в обычном пространстве и времени "градиента ускорений", источником которого являются вращающиеся (в обычном пространстве и времени) двойные звезды, а приемником - разнесенные в обычном пространстве тела, взаимное смещение, которых "вызвано переменной силой (гравитации - А.Л.)".

Приводимые в оправдание таких описаний ссылки на необходимость все измерения выражать на "классическом" языке, с нашей точки зрения, не выдерживают критики, поскольку существуют описания последовательных процедур измерения величин фигурирующих в геометрии пространства времени Римана. Потенциал человеческого языка и мысли велики и понятие "классического" исторично. Яркий пример - история формирования понятия электромагнитного поля. Неверными нам представляются и ссылки на то, что такие непоследовательные описания являются приближениями и упрощениями, поскольку точность этих описаний ничем не ограничена.

5.3. Современная космология. Пример применения существующих "первичных идеальных объектов"

Продемонстрируем насколько проще воспринимаются результаты использования уже существующих "первичных идеальных объектов", чем создания новых "первичных идеальных объектов". Сделаем это на вроде бы весьма сложной темы -- современной космологии.

Первый акт современной космологии связан со сценарием Большого взрыва. Основная его часть весьма проста, но применяемый подход вызывает непростые вопросы, поэтому мы его отложим до следующего параграфа. А здесь продемонстрируем эволюцию звезд, начиная с фазы существования межзвездного газа.

"Звезды начинают образовываться в результате развития флуктуаций плотности в исходном облаке межзвездного газа. Образовавшиеся комки вещества продолжают сжиматься под действием сил гравитации. Для того, чтобы этот процесс мог привести к образованию звезды, необходимо, чтобы масса комка была достаточно большой... На ранней стадии эволюции звезда представляет собой газовый шар, достаточно большой массы и большого размера, который продолжает сжиматься за счет гравитационных сил. При этом шар излучает энергию за счет энергии гравитации. Звезда сжимается, увеличивая среднюю плотность и температуру в центре.

Это происходит до тех пор, пока температура не поднимется настолько, что в центре звезды начнутся термоядерные реакции с выделением энергии и силы теплового давления не скомпенсируют силу гравитационного сжатия. Звезда вступает на этой стадии в наиболее длительный и спокойный период своей жизни (исходный газ, из которого образуются протозвезды, состоит примерно на три четверти из водорода и на одну четверть из гелия)...

Не очень массивная звезда на конечной стадии эволюции, когда ее ядерное топливо кончилось или почти кончилось, превращается в белого карлика, в котором гравитационные силы уравновешены холодным давлением ферми-газа электронов. Если масса больше некоторого предела, то бедый карлик становится нестабильным... (и превращается в нейтронную звезду)... Если звезда достаточно массивна, ... нейтронная звезда становится неустойчивой... Все звезды с массой больше двух солнечных масс после того, как они закончат свою эволюцию, должны начать коллапсировать (сжиматься – А.Л.) и уйти под шварцшильдовский радиус (это граница, на которой 2-я космическая скорость для данной звезды становится равной скорости света, в результате чего от нее не может убежать даже свет и она превращается в «черную дыру», из которой ничего не выходит). Внутри сферы Шварцшильда материя... остановиться не может. Что будет в самой сингулярности, неизвестно.… Во всяком случае снаружи от сколлапсировавшей звезды мы должны продолжать видеть "старое" поле тяготения Шварцшильда.… Описанный объект принято называть черной дырой. Если вблизи нее есть газ (туманность или звезда, являющаяся источником газовых потоков), то этот газ будет втягиваться в дыру, исчезая в ней. В процессе падения (аккреции) газ должен разогреться и стать источником рентгеновского излучения. Именно по такому излучению пытаются искать черные дыры" [5 II, с. 23-27] (в [63] приводится 11 таких объектов).

Не очень массивные звезды, у которых в ходе эволюции (термоядерной реакции "горения" водорода и гелия) сформировалось сверхплотное CO-ядро с массой меньше или порядка 1,4 солнечных масс взрываются, образуя вспышки так называемых "сверхновых звезд" [59, с. 656-657].

5.4. Современный космологический миф о "Большом взрыве"

Эйнштейновская общая теория относительности (ОТО) порождает два глобальных продолжения.

Одно из этих продолжений связано с общей космологией. Физики не избежали искушения применить уравнения ОТО к Вселенной в целом. И здесь их, во всяком случае Эйнштейна, ждал сюрприз. Оказалось, что решения уравнений Эйнштейна в предположении модели однородной и изотропной Вселенной нестационарны (это в 1922 г. открыл молодой советский физик А.А.Фридман) и приводят к модели расширяющейся Вселенной. Соответственно путь в обратном направлении по времени приводит, согласно законам термодинамики, к сверхплотным концентрациям энергии, при которой, согласно теории элементарных частиц, надо обращаться уже к ее моделям. Так возникла модель "Большого взрыва", которая говорит приблизительно следующее:

Вначале был взрыв. Через 0,01 с температура составляла 10^11 градусов K, что отвечает энергиям при которых не могут существовать даже атомные ядра. Это был мир фотонов и лептонов (электронов, позитронов, нейтрино) с небольшой примесью нуклонов ( протонов (p) и нейтронов (n)).

Далее температура быстро снижается и через 14 с. достигает 3х10^9 градусов K при которой электроны и позитроны начинают быстро аннигилировать и выходят из игры.

Через 3 минуты температура падает еще в 3 раза и начинают образовываться сложные атомные ядра, начиная с дейтерия (p+n). Затем из дейтерия образуется гелий. Вселенная в основном состоит из фотонов, нейтрино и антинейтрино с небольшой примесью ядерного материала.

Через несколько сот тысяч лет Вселенная остывает настолько, что появляются атомы водорода и гелия, т.е. газ. Последний под воздействием сил гравитации образует сгустки, которые затем превращаются в галактики и звезды нынешней Вселенной. Звезды первого поколения начинают свою эволюцию с теми составными элементами, которые образовались ("были изготовлены") в первые 3 минуты [10].

Такова "стандартная модель" - космологический миф ХХ в.

Возникает вопрос - не является ли это эпическое полотно, по сути, натурфилософским мифом, который вместо древних полубожественных элементов (земля, вода, воздух и огонь) использует другие - фотоны, лептоны, нуклоны..., заимствованные из физики? Основания для подобных подозрений есть. Физика, как и инженерия, предполагает ограниченную "лабораторию". Например II закон термодинамики выведен по отношению к "рабочему телу", находящемуся между холодильником и нагревателем. Подобные черты ограниченности присутствуют и во многих других разделах физики. Поэтому применение лабораторной науки ко всей Вселенной приводит к противоречию в основаниях. Наиболее очевидное проявление этого противоречия - проблема измерений. Без четкого указания процедур измерения не может быть построен ни один раздел физики. Это было специально проакцентировано Эйнштейном при создании теории относительности. Корректное введение подобных процедур для ранней квантовой стадии модели "Большого взрыва", когда нет атомов, никто не сделал. Более того, сомнительно, что к эволюции Вселенной можно подходить как к явлению, без создания новых первичных идеальных объектов.

Эти проблемы наиболее ярко просвечивают в квантовой космологии. С нашей точки зрения в подобных рассуждениях перемешаны два типа проблем, связанных с процессом измерения. Первый - указанная выше особенность Вселенной, ее "нелабораторность". Вторая группа проблем характерна для обсуждений квантовой механики вообще, типа разбираемого в следующем разделе парадокса "редукции волновой функции" и натурфилософских построений типа "многомировой интерпретации".

Современным космогоническим мифом, идущим от элементарных частиц и Большого взрыва через атомы ко всем остальным явлениям Природы кормится физикалистский пафос (лапласовского или платоновско-пифагорейского типа) построения единой теории всей Природы, разделяемый многими физиками.

6. Микромир - квантовая частица

(Более развернутый вариант можно найти в Клышко Д.Н., Липкин А.И. "О "коллапсе волновой функции", "квантовой теории измерений" и "непонимаемости" квантовой механики" //Электронный журнал "Исследовано в России", 53, стр 736-785, 2000 г. http://zhurnal.ape.relarn.ru/articles/2000/053.pdf)

Теперь обратимся к, наверное, самой сложной теме - квантовой механике, и попытаемся развеять миф о ее ненаглядности, непостижимости и немодельности.

В квантовой механике сложилась весьма парадоксальная ситуация. С одной стороны, вот уже более 60 лет она успешно решает стремительно расширяющийся круг задач. С другой, все это время не утихают споры о ее основаниях, о ее полноте, о ее интерпретации (см., напр., [20; 68; 65; 72] и др.). "Несмотря на громадные практические успехи, квантовая теория настолько противна интуиции, что, даже спустя 45 лет, сами эксперты еще не все согласны в том, что с этим делать" [68], - писал профессор ДеВитт 15 лет назад. И подобное утверждение и сейчас, и тогда, и много раньше находило и находит живой отклик в среде физиков и не физиков. Уже более 70 лет в этой развитой и эффективной науке продолжается начатый Бором и Эйнштейном спор.

По сути в квантовой механике в настоящее время сложилось два почти независимых друг от друга направления деятельности. Первое направление обеспечивает получение конкретных теоретических и экспериментальных результатов, касающихся конкретных квантовых систем. Второе направление деятельности направлено на понимание квантовой механики. Эти два направления образуют как бы два независимых потока -- "квантовая механика 1" и "квантовая механика 2", "квантовая механика естественнонаучная" и "квантовая механика философская". Такое положение дел устанавливается с конца 1920-х, когда трудами Эйнштейна, де Бройля, Гейзенберга, Шредингера, Борна, Бора, Дирака и др. были созданы основания современной квантовой механики, которые в контексте первого потока часто называют "формализмом" квантовой механики.

В центре второго потока - обсуждение многочисленных "интерпретаций" квантовой механики по разному решающих "проблемы" "редукции (коллапса) волновой функции" и связанных с ней проблем "квантовой теории измерений", а также "парадоксов" "Эйнштейна, Подольского, Розена" (ЭПР), "кота Шредингера", "телепортации" и т.п. И за эти 70 лет эти споры существенно разрослись и скорее, еще более запутались, чем прояснились. Чем объяснить столь странный феномен?

Нам видится здесь несколько причин, которые так или иначе связаны с неадекватной рефлексией того, что происходило в науке рубежа веков. Главная из них состоит в том, что средства, применявшиеся для анализа сложного процесса формирования квантовой механики оказались не вполне адекватными.

Этому способствовало то, что используемая при этом математика становилась все более сложной и все менее общедоступной, в связи с чем резко сократился круг лиц, способных свободно рассуждать на эти темы. К 1930-м гг. еще более усугубилась отмеченая еще Э.Махом ситуация, когда, ввиду усложнения как физики, так и философии, физики создают себе "домашние философии, а "философы -- "домашние физики". Последние создаются на зыбком основании разнообразных поисковых полуфилософских утверждений физиков -- творцов квантовой механики, особенно Н.Бора, над которыми стали надстраиваться философские мнения других крупных физиков. В результате возникли весьма расплывчатые облака смыслов вокруг терминов "копенгагенская интерпретация", "принцип соответствия", "принцип дополнительности", "корпускулярно-волновой дуализм" и др. Разные авторы вкладывали в них разный смысл, не всегда удосуживаясь сравнить свое понимание с другими. При этом мало кто обращался к анализу того, что реально делали и делают физики в своей успешной работе в течение этих 70 лет, как они используют, если используют, "принцип соответствия", "принцип дополнительности" Бора и другие волнующие философов и философствующих физиков понятия.

Неоднозначность и нечеткость основных формулировок и понятий, используемых в литературе по этой теме составляет одну из основных трудностей в обсуждении данных вопросов. "Дорого я бы дал за то, - говорит крупный исследователь творчества А.Эйнштейна А.Пайс, сравнивая степень четкости оснований специальной теории относительности (СТО) и квантовой механики, - чтобы иметь возможность рекомендовать то же (что и в СТО - А.Л.) в отношении квантовой теории!" [40, с. 137].

Главная цель данной главы состоит, во-первых, в четкой формулировке основных постулатов и понятий квантовой механики, исходя из физики, а не высказываний физиков. Нам представляется, что в третируемой К.Поппером "третьей группе физиков", работавших "в русле новой традиции узкого профессионализма" эти расплывчатые облака смыслов оформились в четкие процедуры и постулаты

Мы хотим показать, что постулаты Шредингера, Борна и Бора (плюс постулаты статистики Бозе-Эйнштейна и Ферми-Дирака для многочастичных систем) строго и однозначно задают физическую модель квантовой частицы, которая заменяет так называемые "интерпретации". Именно этот факт составляет суть перехода от "старой" квантовой механики  первой четверти ХХ в., где формулируется парадокс «волна-частица» (объекты квантовой механики распространяются как волны, но проявляют и характерные для частиц свойства)  к "новой", где этот парадокс разрешается.

Этот переход осуществляется в несколько шагов:

1. Постулаты Шредингера, во-первых, задают математический образ состояния физической системы в виде знаменитой "волновой функции", которую часто называют Y-функцией. Во-вторых, они задают "уравнение движения" - так называемое уравнение Шредингера:

i(h/2(pi))dY/dt= HопY, где d/dt - частная производная по времени, а Hоп - оператор гамильтона, являющийся математическим образом системы, pi-число пи.

В постулаты Шредингера следует включить и "принцип суперпозиции", гласящий, что наложение любых допустимых в данных условиях состояний физической системы является также допустимым состоянием [59]. 

2. Правила вероятностной интерпретации волновой функции (ВИВФ) Борна связывают между собой математический образ состояния системы, модельный образ состояния системы (связанный с совокупностью определенных измеримых величин) и соответствующие процедуры измерения. Именно постулаты Борна вносят вероятность в квантовую механику. Связь же состояний, задаваемая уравнением Шредингера в квантовой механике столь же детерминистична (однозначна), как и в классической механике.

Достигается это следующими действиями.

Для измеримой величины U (пусть это будет положение (х) поглощаемого фотодетектором фотона или электрона), могущей принимать значения uk =xk, вводят набор "собственных" волновых функций {ck } с "собственными значениями" {uk}. Этот набор "собственных" волновых функций используют как базис для представления волновой функции: y(x,t)=Sum k (a k c k (x,t)). Квадраты модулей коэффициентов разложения |a k |^2 задают распределение вероятностей (Pu k ) результатов измерения. Так через математический образ {c k } измеримой величины u устанавливают соответствие между значением волновой функции y, характеризующей состояние системы в математическом слое, и значениями распределения вероятностей измеримых величин, характеризующих состояние системы в модельном слое (правая стрелка на сх.1.1).

Подчеркнем, что состоянию квантовой системы в модельном слое отвечает, как правило, не определенные значения соответствующих измеримых величин, а лишь распределения вероятности этих значений. Это означает существенное изменение, по сравнению с классической физикой, процедур измерения. Если в случае классической физики достаточно было произвести по одному акту измерения на каждую измеримую величину, чтобы определить состояние системы, то в случае квантовой физики в общем случае для этого необходима достаточно длинная серия из многих актов измерения. Вероятностный характер здесь объективное свойство природы, а не результат нашего незнания.

Момент, который требует здесь понимания и обсуждения - это, в первую очередь, вероятностный тип описания состояния системы в квантовой механике.

Мы здесь вводим нестандартное определение состояния квантовой системы, опираясь на введенное выше определение. Согласно этому определению состояние физической системы определяется тем, что его знание позволяет ответить на все могущие возникнуть в данном разделе физики вопросы относительно данной физической системы. Мы полагаем, что все вопросы, которые можно задавать в квантовой механике можно относить только к распределениям вероятностей различных измеримых величин. Значения же отдельного акта измерения сопоставить с состоянием системы (если оно не приготовлено в собственном состоянии) нельзя ни до, ни после этого акта измерения.

В результате введения постулатов Шредингера и Борна, появляется возможность описания двойственного поведения квантовой частицы: волновая функция y (x,t), определяющая движение квантовой системы (переход из одного состояния в другое), распространяется как волна, а определяемые постулатами Борна процедуры учета отдельного измерения, проявляют характерное для частицы поведение (квантовая частица воздействует на прибор, например, фотопластинку, как частица).

3. Постулаты квантования Бора дают возможность перейти от «затравочной» классической модели (например, планетарной модели атома) к квантовой модели с помощью стандартной процедуры превращения гамильтониана (т.е. математического образа системы) «затравочной» классической системы в гамильтониан квантовой системы.

Теперь перейдем к обсуждению наиболее непривычных следствий, которые определяют "непонятность" квантовой механики.

Состояния каждой квантово-механической системы, как и классической, характеризуются соответствующим набором измеримых величин. Однако в квантовой механике эти величины распадаются на "взаимодополнительные". Физическим проявлением этого свойства[7] является "соотношение (или принцип) неопределенности" (СН) Гейзенберга, утверждающий, что для любого состояния системы произведение неопределенностей измерений этих величин (типа D(Х) на рис. 6.1) будет больше h/4(pi) (h - постоянная Планка, pi - число пи). Выражение "нельзя одновременно измерить две величины с любой точностью" здесь следует понимать в логическом, а не временном смысле (т.е. не в смысле, что при измерении одной величины, прибор возмущает другую). Подчеркнем, что это свойство состояния системы, которое вытекает из стандартной квантовой теории - из уравнения Шредингера и отражает типичные для волны свойства. Его не надо вводить как дополнительный к приведенным в предыдущем разделе постулатам.

Знаменитый «принцип дополнительности» Бора (ПД) возникает в рамках его спора с Эйнштейном и другими "противниками копенгагенской интерпретации" при рассмотрении определенным образом проинтерпретированных "парадоксов" "редукции (коллапса) волновой функции" и «Эйнштейна, Подольского, Розена» (ЭПР). В отличие от СН он не имеет четкой и однозначной формулировки. Поэтому мы рассмотрим два утверждения Бора, связанных с его ПД.

Во-первых, это его тезис о "неделимости" квантовых явлений, "невозможности отграничить (атомные объекты) от их взаимодействия с измерительными приборами". В реальной работе физика не встает никакой подобной проблемы различения "атомного объекта" и "измерительного прибора", ситуация здесь та же, что и в классической физике. Связано это с тем, что физики умеют приготовлять исходное состояние, теоретически описывать его изменение с помощью ВФ и дать с ее помощью ответ на все осмысленные в квантовой механике вопросы, в том числе и о распределении вероятности любой измеримой величины, имеющей отношение к данной системе (в том числе и для "взаимодополнительных" величин).

Во-вторых, очень сомнительным представляется постоянно повторяемый им его аргумент о непреходящем значении "языка классической физики" как средства коммуникации между физиками: "Любое описание природы должно быть основано на использовании представлений, введенных и определенных классической теорией" [8, т.1, с. 482] (см. также [8, т.2, с.392-393]). С нашей точки зрения под фиксацией границы между "классической" и "неклассической" механикой, введенной Бором и подхваченной другими физиками и философами, скрывается граница между теоретической и "нетеоретической" частью (схема 1), между теорией и процедурами сравнения с эталоном Эта граница действительно имеет логически необходимый статус. Но в качестве эталонов необязательны объекты классической механики. В теории элементарных частиц при определении нестабильных частиц с помощью пузырьковой камеры в качестве эталонов выступают более стабильные элементарные частицы. То же имеет место и при измерении неклассических измеримых величин, характеризующих элементарные частицы.

В итоге от "принципа дополнительности" Бора остается лишь само понятие "(взаимо)дополнительности" измеримых величин и выделенная Дж.Холтоном "тема" "исчерпывающего взаимоналожения различных описаний, включающих явно противоречащие друг другу понятия", вполне согласующаяся с упомянутым выше томографическим методом. Но этот "сухой остаток" - чрезвычайно важное свойство квантовых состояний, характеризующих их отличие от классических.

Подчеркнем еще раз, что все вышесказанное, включающее «соотношение неопределенностей» и «принип дополнительности», относится к свойствам квантовых систем и их состояний, а не является результатом "взаимодействия с прибором" при измерении. Эти свойства следуют из приведенных выше постулатов Шредингера и Борна и не являются независимыми принципами или постулатами.

Многие интенсивно обсуждаемые "парадоксы" квантовой механики связаны с проблемой измерения. Главный источник "парадоксов", связанных с измерением - игнорирование наличия в нем принципиально нетеоретического остатка. Мы рассмотрим этот вопрос на примере известного мысленного эксперимента "кошки Шредингера", где кошка сидит на бомбе (или сосуде с синильной кислотой), взрывное устройство которой запускается радиоактивным атомом и счетчиком Гейгера. Описывая с помощью волновых функций не только радиоактивный атом, запускающий "адскую машину", но и всю систему, включая кошку, Шредингер приходит к парадоксу, подробно анализируемому в [27]. Парадокс состоит в том, что, при применении к кошке квантовомеханического описания, наряду с предполагаемыми "чистыми" состояниями, отвечающими живой или мертвой кошке, согласно принципу суперпозиции что-то должно отвечать и суперпозиции волновых функций этих чистых состояний - состоянию, когда кошка "ни жива, ни мертва", что явно противоречит здравому смыслу.

Причина парадокса состоит в том, что здесь внутрь физической системы поместили весь измерительный прибор, состоящий из счетчика Гейгера, взрывателя, динамита и кошки, которые нельзя описывать волновой функцией, поскольку они относятся к операциональной части.

Для Шредингера его постановка задачи вытекает из убеждения, что "наблюдение - такой же естественный процесс, как и всякий другой, и сам по себе не может вызывать нарушения закономерного течения естественных процессов"[64, с. 81]. Основой этого убеждения является недостаточно обоснованное философское по своей сути утверждение фон Неймана, Д.Бома и др., что "если квантовая теория способна дать полное описание всего, что может произойти во вселенной, то она должна иметь возможность описать также сам процесс наблюдения через волновые функции измерительной аппаратуры и исследуемой системы. Кроме того, в принципе, квантовая теория должна описать и самого исследователя, наблюдающего явления при помощи соответствующей аппаратуры и изучающего результаты эксперимента ... через волновые функции различных атомов, составляющих этого исследователя"[7, с. 668] (то же найдем в [37, с. 307-308]). Отсюда возникают (как выше у Садбери) мифические проблемы "проведения точной границы между объективным и субъективным" в квантовой механике [15, с. 290].

Подобные утверждения являются безусловными с точки зрения позиции Лапласа (или Шредингера с его кошкой), согласно которой "поскольку все, включая человека, состоит из атомов, а атомы описываются механикой, то все действия и мысли человека можно описать с помощью механических законов". На этот мировоззренческий, а не физический довод нечего возразить, кроме того, что мы не исповедуем идеологию столь крайнего механицизма, и что системный подход выдвинул противоположный тезис, утверждающий, что система обладает свойствами, которые не сводятся к свойствам ее элементов.

Итак, мы совершенно не согласны с довольно популярным утверждением Р.Фейнмана "что квантовую механику никто не понимает, хотя многие считают, что в ней все "чисто" и очень хорошо" [1, с. 168]. С нашей точки зрения, причина непонимания, о котором говорит Р.Фейнман и др. - применение неадекватных для этого случая классических понятий. Так непонятность, даже парадоксальность "дуализма волна-частица" возникает при попытке понять квантово-механическое явление (типа поведения электрона) в логике классических понятий, где понятия частицы и волны являются альтернативными. Но с той же ситуацией мы столкнемся, если в понятиях классической ньютоновской механики попытаемся описать электромагнитную волну (с ее поперечным характером колебаний, требующим чрезвычайно твердого эфира, который мы почему-то не ощущаем) или при описании поведения тел, движущихся с околосветовыми скоростями. И это естественно: если бы в старых понятиях можно было описать новые явления, то не надо было бы создавать новые разделы физики.

"Непонятность" - это исходное состояние, которое в ходе сложной работы преобразуется в новые "первичные идеальные объекты" и разделы науки. Для квантовой механики такой исходной непонятностью стал сформулированный А.Эйнштейном, Луи де Бройлем и др. "корпускулярно-волновой дуализм", который в 1925-1926 гг. трудами Шредингера, Гейзенберга, Борна, Бора, Дирака был преобразован в новый ПИО - квантовую частицу.

7. Термодинамика и статистическая физика

Модель термодинамической системы (классический пример – газ в сосуде под поршнем) можно рассматривать как вариант модели непрерывной среды. Специфика термодинамики определяется особыми термодинамическими величинами: температурой T, количеством теплоты Q, внутренней энергией U, энтропией S[8]. Эти параметры вводятся наряду с типичными для непрерывной среды параметрами давления и плотности.

Кроме того, в равновесной термодинамике, о которой у нас и пойдет речь, рассматриваются состояния однородные и равновесные, т.е. параметры, характеризующие состояние не меняются в пространстве и времени. Равновесное термодинамическое состояние полностью характеризуется небольшим числом физических параметров состояния. Обычно такими параметрами являются температура T, объем V (или плотность) и давление p, которые связаны между собой так называемым уравнением состояния f(p,V,T) =0.  Для идеального газа это известный закон Клапейрона-Менделева pV=RT, где R=const[9].

Термодинамический процесс, т.е. переход из одного равновесного состояния в другое связан с изменением не времени, а внешнего воздействия (F на сх.1.1), выступающего в форме изменения управляющего параметра. В качестве последнего могут выступать параметры состояния (p, V или T). Другой тип воздействия связан с подводом или отводом тепла. Он регулируется 1-м и 2-м законами (началами) термодинамики, где вводятся понятия внутренней энергии U и энтропии S.

1-е начало термодинамики утверждает, что если система совершает термодинамический цикл (т.е. возвращается в конечном счете в исходное состояние), то полное количество теплоты, сообщенное системе на протяжении цикла равно совершенной ею работе. 1-е начало (закон)термодинамики есть закон сохранения энергии для систем, в которых существенную роль играют тепловые процессы.

2-му началу термодинамики Р.Клаузиус (1850) дал следующую формулировку: "Невозможен процесс, при котором теплота переходила бы самопроизвольно от тел более холодных к телам более нагретым. В глобальную "картину мира" 2-й закон термодинамики внес проблему "тепловой смерти Вселенной" (согласно 2-му закону термодинамики все системы, в том числе все части Вселенной и Вселенная в целом, стремятся к термодинамическому равновесию, в котором все выравнивается, исчезают любые неоднородности, в том числе горячее Солнце и биологическая жизнь). Эта проблема интенсивно и широко обсуждалась во второй половине XIX в.

Отличие статистической физики от термодинамики состоит в том, что в первой в слое физической модели дополнительно вводится микроскопическая модель термодинамической системы (тела-вещества). Это происходит на базе нового механического представления молекул в виде абсолютно твердых упругих шариков. На базе этой механической модели вскоре были получены основные термодинамические соотношения для идеального газа, а затем более сложных систем.

7.Синергетика как естественная наука

Типичный для синергетики процесс можно описать так. Есть исходное состояние системы, в котором можно говорить об относительно независимом поведении ее элементов-подсистем и об их состояниях. И есть переход из этого состояния в новое динамическое макросостояние, где имеем дело с сильно коррелированным поведением микроэлементов-подсистем. Особенностью этого процесса является то, что исходные факторы - среда-система, внешнее воздействие (накачка) - не имеют структуры, а результат имеет структуру, которая диктуется свойствами системы-среды. Поэтому этот процесс называется самоорганизацией, в соответствие с чем Г.Хакен ввел для науки об этих системах название синергетика (от греч. synergetikos - совместный). В синергетике возникает возможность исследования моделей эволюции как последовательного усложнения динамических структур, моделей образования порядка (структур) из хаоса и хаотического поведения простых динамических (т.е. описываемых детерминистическими, а не статистическими уравнениями движения) систем (одно из интенсивно развивающихся направлений).

Самоосознание синергетики как науки происходит в 1970-х в тесной связи с развитием теории нелинейных уравнений и возможностей их численного решения на ЭВМ, теории устойчивости и др. Синергетика формируется как сложное переплетение математики, физики, химии и др. разделов науки, развивается в виде множества параллельных, часто спорящих друг с другом частных линий.

В этом великом разнообразии, тем не менее, просматриваются основные элементы модельного слоя, которыми можно заменить весьма неопределенное "единство явлений, моделей и методов" (так синергетика характеризуется в [59]).

Основу синергетической системы составляет так называемая «нелинейная среда», т.е. среда, свойства которой зависят от происходящих в ней процессов. В математическом слое это выражается в наличии нелинейных уравнений движения. "Во всех случаях ... (эта система) составлена из множества подсистем (микро- систем или элементов - А.Л.), например, атомов, молекул, клеток" [60, с. 30]. Собственно и в статистической физике мы имеем дело с системами, "составленными из множества подсистем" (тех же атомов и молекул). Но если модели системы в статистической физике ориентируются на идеальный газ, где системообразующими являются свойства элементов, а не связей, которые считаются слабыми, то в центре модели системы в синергетике оказываются связи между элементами. Эти-то связи и задают нелинейный характер среды-системы.

Другими обязательными характеристиками синергетической системы является ее открытость, предполагающая постоянный приток энергии и/или вещества (или чего-то другого), и диссипативность, предполагающая наличие диссипации (затухания), т.е. оттока этой энергии (и т.п.) из системы.

В такой системе возникают динамические макроскопические структуры (иногда их называют заимствованным из теории колебаний и волн термином "моды", а иногда - "диссипативными структурами", подчеркивая созидательную роль диссипации в этих системах) МА(i)) - хорошо организованное (когерентное) в масштабах полной системы поведение ее микроскопических элементов-подсистем. Именно эти динамические структуры являются главным предметом рассмотрения синергетики и определяют ее специфику. Вследствие этого "акцент переносится с изучения инвариантов системы и положений равновесия на изучение состояний неустойчивости и возникновение и перестройку структур, нелинейность, открытость, катастрофы, случайность и хаос" [60, с. 14].

Для иллюстрации рассмотрим генерацию лазера. Лазер представляет собой открытую диссипативную систему: "лампа накачки" закачивает туда энергию, которая отчасти непроизводительно уходит в тепло, отчасти выходит в виде излучения лазера. Энергия накачки F здесь играет роль управляющего параметра. Пока накачка мала, система представляет собой огромное число молекул, "живущих" сами по себе и независимо переизлучающих доставшуюся им долю энергии накачки. Но при достижении некоторого "порогового значения" ситуация кардинально меняется. Все это огромное количество молекул начинает вести себя как единый коллектив, поведение которого описывается всего лишь несколькими переменными. Это новое поведение системы, сопровождающееся качественным изменением характера выходящего из лазера излучения, и есть режим генерации высоко когерентного излучения.

Динамический характер этих структур имеет принципиальное значение. В каждом из различных разделов физики, которые мы рассматривали выше, речь шла об определенном типе движения, описание которого и конституирует соответствующее ядро раздела науки. В синергетике в центре внимания оказывается не тип движения, тесно связанный с моделью системы и ее состояний, а возникновение, исчезновение или превращение динамических структур, главной характеристикой которых является форма движения.

Синергетика отличается от других разделов физики тем, что она, по сути, рассматривает изменения формы, т.е. изменения качества (в классификации Аристотеля это другой тип движения, чем движение-перемещение). Центральными ее объектами оказываются не движение физических систем, а формы движений, которые можно обнаружить в разных разделах науки, на основе разных систем. В результате физические, химические, биологические и др. модели движения играют роль конкретного материала, выступают в качестве конструктивного элемента, который на сх.1.1 относится к внетеоретическому операциональному слою (О). Наполнение формы материей (как у Аристотеля, где статуя представляется как наполнение формы-идеи материей-медью) требует фиксации определенного раздела науки с определенным типом движений и систем.

Т.о. модель синергетики как раздела науки, в центре которой стоит процесс перехода от одной динамической структуры MA (i) к другой, как бы надстраивается над различными разделами науки, поставляющими конкретные реализации открытой, диссипативной, нелинейной среды A.

Структура теоретической части синергетики аналогична структуре "Т-блока" на сх. 1.1, если состояниям SA(t) системы A сопоставить динамические структуры (моды) MA(i, hi, F) нелинейной среды-системы А, отличающиеся качественно формой (это фиксирует индекс i) и количественно  (это фиксирует значение величины "параметра порядка"hi ).

Аналогичная ситуация имеет место в теории колебаний. Новая характерная черта проявляющаяся у этого детища ХХ в., рожденного в лоне классической механики в трудах наших соотечественников Л.И.Мандельштама, Н.Д.Папалекси, А.А.Андронова, С.Э.Хайкина и др., состоит в том, что предметом его рассмотрения становятся определенные формы движения, выделяющие колебательное движение, среди других. При этом, как скоро выясняется, конкретный тип системы - носителя движения (механический, электрический, химический,...) оказывается несущественен для теории и вытесняется в "конструктивные элементы". Теория колебаний рассматривает колебательную форму любого по своему материалу движения. Колебательными же являются движения или процессы, обладающие той или иной степенью повторяемости во времени. Основными измеримыми величинами становятся амплитуда и фаза колебания, а математическими образами колебаний становятся фазовые траектории, которые стремятся к фокусам, предельным циклам и другим особым математическим объектам в фазовом пространстве. Одновременно с появлением понятия формы движения появляется целевая причинность (стремление к некоторой форме), вопросы об устойчивости и переходы от одной формы колебаний к другой. Теория колебаний усложняется, включая в себя теорию нелинейных колебаний, у истоков которой стояли А.А. Андронов и его коллеги [2], опиравшиеся на математические труды А. Пуанкаре и А.М. Ляпунова.

Математические представления синергетики с соответствующими уравнениями движения вышли из теории нелинейных колебаний и ряда разделов математики. Математическими образами динамических структур являются аттракторы - предельные для множества траекторий в фазовом пространстве множества точек, образующих "фокусы", "предельные циклы", "странные" аттракторы, ... Упорядочение мод и отвечающих им аттракторов может производиться с помощью сравнительно небольшого числа, так называемых, "параметров порядка" (h). Математическим образом возникновения новой динамической структуры-моды, определяющейся соответствующими уравнениями движения, в которые входят управляющие параметры, является бифуркация. Их появление определяется изменением так называемых "управляющих параметров" (F), в качестве которых часто выступает величина поступающей в систему энергии.

Поскольку развитие синергетики в значительной степени было связано с развитием соответствующих разделов математики (так же как развитие классической физики было тесно связано с развитием математического анализа), то авторы зачастую не выделяют модельную часть и не различают математическую и собственно синергетическую стороны рассматриваемых ими задач. Структура синергетики, наличие в ней достаточно выраженного собственного модельного слоя указывает на то, что синергетика представляет собой особую фундаментальную естественную науку, а не математику (и не совокупность заимствований из математики, физики, теории систем и др.).

9. Основные понятия химии

Попробуем теперь применить наш "модельный подход" к анализу основных понятий химии.

Утверждение -- "ХИМИЯ -- НАУКА ЭМПИРИЧЕСКАЯ!" и связанный с ним идущий от Ф.Бэкона "стандартный эмпирический взгляд" на ход развития науки: "эмпирические факты -- эмпирические законы -- теоретические законы", укоренен у химиков еще сильнее, чем у физиков. В основной для себя деятельности -- синтезе новых веществ -- химики руководствуются, в основном, различными эмпирическими законами и собственной интуицией. Естественно при этом, что попытки ответить на вопрос "Что такое химия?" идут по пути перечисления ее предметов изучения и методов, т.е. к перечислению того, чем занимаются химики. При этом возникают трудности и с определением основных понятий. "Дать строгие определения химических понятий невозможно, но можно и нужно постараться их выстроить, соотнести и придать им ясность. Сделать это тоже трудно, потому, что, во-первых, разные химики по-разному это себе представляют, а во-вторых, потому, что химия быстро меняется (каждые 10-15 лет меняется ее парадигма)," -- говорит профессор П.М.Зоркий (из устной беседы), который,  пытаясь решить эту проблему, идет по пути построения ЯВНЫХ определений КАЖДОГО понятия с последовательным внесением поправок-уточнений старых понятий при введении новых (своеобразный метод последовательных приближений) [17].

Мы же, как и в случае физики:

1) исходим из ведущей роли теоретических моделей (т.е. пытаемся определить химию не через предмет и эмпирический материал, а через тип используемых идеальных теоретических моделей);

2) предполагаем, что и здесь придется прибегнуть к совместному и неявному типу определения целой группы первичных понятий.

Но при этом нам пришлось отдельно рассматривать химию XIX в. и химию XX в.

Для химии XIX в. (химии Лавуазье и Дальтона) такая группа понятий нам представляется следующим образом.

Первая тройка состоит из понятий химических атомов, химических связей и химических соединений, где химические соединения представляют собой ансамбли определенным образом связанных между собой атомов (простейший пример -- химическая молекула, более сложные случаи см. в [17]). Самым сложным среди них является понятие химической связи, которое, с одной стороны, характеризуется типами атомов, которые связывает, с другой, не только этим. Существует удобная, но грубая классификация, согласно которой связи могут различаться друг от друга качественно (ковалентные (большинство), ионные, металлические и к ним добавляют Ван-дер-Ваальса) и количественно (валентность и др.). В отличие от атомов, число сортов которых достаточно быстро устоялось (в химических соединениях присутствует не более 80 разных сортов атомов), множество химических связей чрезвычайно велико и продолжает расти.

К этим трем понятиям добавим понятие "химического вещества". Химические вещества, с одной стороны, есть множество фрагментов, которые мы назвали "химическим соединением", а с другой стороны, оно характеризуется определенным набором свойств (т.е. мы имеем для химического вещества что-то аналогичное "генотипу" и "фенотипу" в биологии).

Именно через "химические вещества" происходит в интересующий нас период связь модельного и эмпирического слоев в химии. В определение понятия "химического вещества" входит возможность его реализации в виде "эмпирического вещества". Эмпирической материализацией "химических веществ" являются эмпирические вещества в виде жидкостей, газов или твердых тел, обладающих определенными свойствами, отличающими их друг от друга. Их приготовление и "измерение" (т.е. отождествление эмпирического вещества с определенным "химическим веществом") -- прерогатива "аналитической химии", которая, согласно одному из современных определений, является "научной дисциплиной, разрабатывающей и применяющей методы, инструменты и стратегии получения информации о составе (composition) и природе (nature) вещества в пространстве и времени" [69].

"Аналитическая химия -- наука об определении химического состава и, в некоторых степени, химического строения соединений. Алхимики 14-16 вв. впервые применили взвешивание и выполнили огромный объем экспериментальных работ по изучению свойств веществ, положив наало химическому методу анализа. В 16-17 вв. появились новые химические способы обнаружения веществ, основанные на реакциях в растворе... Родоначальником научной аналитической химии считают Р.Бойля, который ввел понятие "химического анализа".... До первой половины 19 в. аналитическая химия была основным разделом химии", -- пишет в статье "Аналитическая химия" Ю.А.Золотов [61]).

Химические вещества -- это гомогенные или гетерогенные (коллоиды и др.) вещества в различных фазах, отличающиеся друг от друга разнообразными химическими (способностью превращаться друг в друга) и нехимическими свойствами. Исходными являются последние, спектр которых весьма широк, от неопределенных, опирающихся на человеческие чувства вкуса и запаха (характерные для периода становления химии), до очень четко и точно количественно измеряемых физических свойств (превалирующих сегодня). Список свойств открыт и постоянно увеличивается. Эти свойства, так же как и характеристики типа "гомогенные (и гетерогенные) жидкости, газы и твердые тела", относятся к эмпирическому слою и задаются операционально. Они, в основном, внешне заданы по отношению к теоретической части химии. Но добавка "химически чистые" связывает их со всем обсуждаемым комплексом первичных химических понятий.

Химия стремится к установлению однозначного соответствия между набором свойств химического вещества и системой химических атомов и связей, определяющих химическое соединение (отражаемых многомерными диаграммами состав -- структура -- свойства).

Определение "химического атома" вводится с помощью взаимоопределяемых понятий "простого" и "составного" вещества. Выделяется множество "простых веществ (тел -- body)", которые а) не разлагаются на другие вещества, б) на которые разлагаются все прочие вещества.

"Вещества (химические -- А.Л.) подразделяют на элементарные (простые) вещества и соединения. Вещество, которое можно разложить на два или несколько других веществ, называют соединением. Вещество, которое нельзя разложить, называют элементарным веществом (элементом)", -- пишет в современном учебнике химии дважды нобелевский лауреат Л.Полинг [42, с.17].

"Определение "элемента" или "простого тела" дал еще Р.Бойль в 1661 г. Хотя он не назвал ни одного примера реального элемента в новом понимании, его определение было постепенно признано многими химиками XVIII в. Во второй половине XVIII в. суть этого понятия вполне адекватно изложено Макером: "Я положил, что будто бы все тела разрушены и приведены к самым простейшим их началам, дабы, узнав главные свойства сих первых начал можно было по ним исследовать различные их соединения и иметь некоторое главное познание о свойствах сложенных тел которые из соединения оных происходят". В 1787 г. Лавуазье высказал следующее определение понятия "простое тело". По его мнению, следует называть "простыми [телами] все тела, которые мы не можем разложить, которые мы получаем в последнем итоге путем химического анализа. Несомненно, настанет день, когда эти вещества, являющиеся для нас простыми, будут в свою очередь разложены.... Но наше воображение не должно опережать фактов" [57, т. I, с. 361-362]. Дальтон приводит ряд конкретных правил для выявления простых и составных тел [67, p. 167; 163, т. II, с. 45]:

"Следующие главные правила могут быть приняты в качестве руководства во всех наших исследованиях, относящихся к химическому синтезу:

1. Если возможно получить только одно соединение (combination) из двух веществ (bodies), можно предположить, что оно будет двойным, если отсутствуют какие-либо данные свидетельствующие о противном.

2. Если наблюдалось 2 соединения, следует предполагать, что они двойные и тройные

3. Если наблюдалось 3 соединения, то можно ожидать, что одно из них двойное, а два других -- тройные."

Через понятия простого и составного вещества вводятся понятия "химического атома" как минимальной порции простого вещества и химической молекулы ("составного атома" Дальтона) как минимальной порции "составного" вещества (подобно тому, как позже была введена минимальная порция электричества).

Дальтон - отец химического атомизма -- исходил из модели "физического атомизма", он начинал с исследования газовых смесей. Он утверждал, что "элементарные частицы (ultimate particles) всех однородных тел (bodies) абсолютно подобны по весу, форме и т.д. Другими словами, любая частица воды подобна другой частице воды, любая частица водорода подобна другой частице водорода и т.д." [67, p.113]. Кроме того, он конструирует модели составных атомов (молекул) из простых атомов, которые обозначает кружочками ("1 атом сорта A + 1 атом сорта B = 1 атом сорта C, бинарного; 1 атом сорта A + 2 атома сорта B = 1 атом сорта D, тернарного, ..." [67, p.163-164]). Так выглядит его теоретическая модель. Но он описывает и конкретные эмпирические процедуры для воплощения этой химической модели в эмпирический материал, т. е. Как химическими средствами распознавать простые и составные "химические тела" [67, p.167].

Существенно, что атомы бывают разных сортов (относятся к разным элементам). Следует иметь в виду, что атомы одного сорта могут давать разные соединения за счет разного набора связей (типичный пример: алмаз и графит). Одно и то же соединение может лежать в основе разных веществ ([17]).

Следующим необходимым элементом исходной системы понятий является понятие «химического превращения» одних химических соединений (и веществ) в другие (химической реакции):

{соединения (вещества)} 1 ----> {соединения (вещества)} 2. (1)

"Если определить химическую реакцию как процесс, в результате которого одно химическое соединение превращается в другое (или некоторая совокупность соединений переходит в другую совокупность), то к числу важнейших систем базисных химических индивидов целесообразно причислить многообразие химических реакций" [17].

Структура (1) в химии играет роль подобную структуре {SA(t1) -- SA(t2)} в физике. Можно для химии ввести и аналог схемы 1.1 в физике. Кроме уже введенных понятий, на схеме 8.1 горизонтальной стрелкой (как и в (1.1)) обозначено превращение химических веществ (химическая реакция) и введен слой "математических образов соединений" - М {соед-я }, под которыми имеются в виду соответствующие химические символы и правила оперирования с ними (имеющие свою длительную историю).

Элементы эмпирического слоя {эмпирич. вещества}1 и {эмпирич. вещества}2 являются аналогами "приготовительной" и "измерительной" частей эмпирической части на схеме 1.1. Их приготовление и измерение -- дело аналитической химии.

И, наконец, для того, чтобы получить замкнутую систему взаимосвязанных и совместно определяемых неявным образом основных понятий требуется ввести еще понятие "базового множества химических веществ и их превращений", с помощью которого определяются все исходные атомы и связи (поскольку открыт набор связей, постольку исторически открыт и это "базовое множество".

В результате образуется следующая замкнутая система совместно определяемых исходных химических понятий: "химические атомы" разных сортов, "химические связи", "химических соединения", "химические вещества", "эмпирические вещества", "простое" и "составное" вещества, "химическое превращение" (реакция), "базовое множество химических веществ и их превращений".

Затем, используя эти атомы и связи (отвечает И-фазе на сх.1.1) создается расширяющееся множество химических соединений и соответствующее расширяющееся множество химических веществ. Как мы уже говорили выше, этот процесс идет полуэмпирическим путем, но описывается с помощью химических атомов и связей, играющих роль ПИО химии.

Имея исходный набор химических атомов и связей можно строить разнообразные химические соединения, можно рассматривать "четыре аспекта моделирования структуры: топология в статике, топология в динамике, геометрия в статике и геометрия в динамике", изучать "не только химические реакции, но и "функциональные зависимости вида р= р(Х), где Х - по-прежнему химическое вещество, а р - какое-либо свойство. Это может быть и такое "химическое" свойство, как реакционная способность, и такое физическое свойство, как температура плавления или электропроводность...". При этом "функциональные зависимости вида р= р(Х)" или "свойства как функция природного вещества" П.М.Зоркий вообще кладет в основу определения химии как науки, как научного предмета [17]. Такой взгляд естественен, если исходить из эмпиристской философии, для которой, по сути, существует только "фаза использования".

В ХХ в. парадигма химии существенно изменилась. В основе современных химических представлений лежат предсатвления квантовой химии, возникшей сразу вслед за формированием современной квантовой механики в конце 1920-х. Она возникает в результате совмещения "физических" и "химических" атомов (и молекул). В результате этого все исходные представления химии, введенные выше начинают переопределяться явным образом через физические модели. В первую очередь это касается атома. Химический атом замещается физико-химическим атомом, точнее многоэлектронным атомом квантовой механики, рассматриваемым в контексте структуры химического соединения или превращения. Соответственно физические модели кладутся в основание явного определения химических связей (см. [42]).

Процесс этого совмещения, воспринимаемый сегодня и физиками и химиками как очевидный и не требующий обсуждения, не так прост.

"Физическая" и "химическая" атомистика происходят из близких источников: из наложения атомистической натурфилософии на физические и химические исследования разреженных газов. Этими двумя областями и занимался на рубеже XVIII и XIX вв. отец химической атомистики Дальтон. И, как утверждается в [57, II, с. 15]: "Во второй половине XVIII в. основные идеи корпускулярных теорий считались среди ученых естествоиспытателей само собой разумеющимися" и в начале XIX в. они стали главенствующими в химии. В физике же дело обстояло сложнее. Как было сказано выше, в связи с успехами модели теплорода в сер. XIX в., здесь произошел "откат" от этих представлений и атомно-молекулярные представления пробивали себе дорогу в статистической физике с большим трудом вплоть до начала ХХ в. Но к 1920-м и далее утверждение Н.А.Фигуровского опять вполне приложимо. В квантовой химии, как и во времена Дальтона, атомная (молекулярная) химия и физика пересеклись (атом квантовой механики происходит из атома в молекулярной статистической физике Больцмана). В результате образовался новый ПИО - физико-химический атом, который обладает свойствами атома в квантовой механике, но, кроме того, включен в химическое соединение (АХА) в химии. Последнее обусловливает то, что химия не сводится к физике.

Первым триумфом физической квантовой химии, стал вывод периодической таблицы Д.Менделеева из квантово-механической теории атома. Следующим достижением стала физическая электронная модель межмолекулярного взаимодействия и теория элементарных физико-химических связей, а также физическая классификация типов химической связи (ковалентная связь, ее донорно-акцепторный механизм, ее свойства; ионная связь; полярные и неполярные молекулы; металлическая связь; водородная связь, многоатомная физико-химической связь и др. [17]), начавшаяся еще до квантовой механики.

Параллельно шло формирование и развитие физической аналитической химии (спектроскопия, рентгеноанализ и т.п.) - т.е. нового типа эталонов и измерительных процедур для определения химических соединений и их компонентов.

В результате, во-первых, отпала необходимость в "базовом множестве эмпирических веществ и их превращений", поскольку теперь главные ПИО химии -- химические атомы и связи -- определяются явным образом с помощью физических понятий. С их помощью явным образом определяется понятие химического соединения (см. [17]).

Вопросы что такое атом химиков больше не волнует, что такое химическая связь -- более животрепещущий вопрос, но со стороны создания теоретической (по сути физической) модели различных связей или эмпирических и полуэмпирических законов, помогающих ориентироваться в невероятном множестве химических превращений. Сегодня атом в химии, по сути, является явно определенным, более того спектроскопические и рентгенографические методы, разработанные для физических атомов и молекул, стали основными для определения состава химических веществ, вытеснив чисто химические. Можно сказать, что появилась "физико-химическая аналитическая химия" ХХ в., сменившая химическую аналитическую химию ХIХ в.

Через так (по сути физически) определенные атомы определяются химические соединения и связи, число которых постоянно увеличивается. [17]

Но сама структура и основные понятия, введенные в 19 в. по-прежнему задают контекст и специфику химии. Физика здесь не заменяет химию а встраивается в нее. Этот тип симбиоза отличается от случая физической химии XIX в. тем, что он касается определения исходных понятий химии, а не добавок к ним.

Так выглядит химия в рамках "галилеевской" модели естественной науки. Соответственно, ответ на сакраментальный вопрос: "Что такое химия?" строится на базе описанной выше модели: химия - это наука, базовой моделью которой является модель химической реакции как взаимопревращения химических соединений (ансамблей атомов) друг в друга.

Мы здесь обозначили свой взгляд на химию, некую основную схему, в которой указано как в химии выглядят ПИО и ЯРН. Для конкретного содержательного наполнения этой схемы необходимо проанализировать под этим углом зрения конкретные разделы химии, описанные в [17] и др.

Указанная выше структура имеет философский смысл, она помогает нехимику понять, чем занимаются химики, может быть полезна для неофита, пытающегося обозреть свой предмет. В химии сегодня, по-видимому, нет серьезных проблем, связанных с осознанием своих оснований, перманентных проблем для физики с конца прошлого века.

10. Несколько слов о биологии

С биологией - одной из основных классических естественных наук дело обстоит много сложнее, чем с физикой, химией (и синергетикой).

Некоторые области современной биологии хорошо описываются "галилеевской" моделью науки. Так для биологии 1950-70 гг. характерно бурное развитие молекулярной биохимии: открытие структуры ДНК и механизмов наследственности и биосинтеза белков, рождение генной инженерии, продолжением которой является современная программа "геном человека" (2000). Эту область можно, по-видимому, рассматривать с помощью нашей модели науки как дальнейшее усложнение химии, где место химической реакции как взаимопревращения ансамблей атомов друг в друга -  занимает редупликация макромолекул или даже  надмолекулярных комплексов ("биологических машин", включающих много макромолекул). При этом, с одной стороны, происходит дальнейшее усложнения типа ансамблей атомов - вводится так называемая "вторичная структура", учитывающая форму биологических макромолекул в трехмерном пространстве. С другой стороны, в качестве исходных единиц (ПИО) наряду с биологическими макромолекулами выступают  ферментативные (каталитические) реакции - редупликация  макромолекул (т.е. создание больших молекул типа РНК по имеющемуся образцу) представляется как очень сложный комплекс ферментативных реакций.  Биомолекулярная химии 1990-х ( это нелинейная динамика "биохимических фабрик" клетки).

Эту часть биологии мы назовем "механицистской", поскольку в перечисленных  разделах биологии ответ на вопрос "что такое биология?"  сводится к перечислению соответствующих механизмов, а доминирующим образом является образ "фабрики". С этой частью биологии все более-менее понятно, ибо здесь в качестве базовых берут те или иные модели физики, химии, синергетики, которые мы рассмотрели выше.

Значительно сложнее и непонятнее обстоит дело с другой частью биологии, которую мы назовем "органицистской" (организменной), ибо центральным образом (понятием) здесь является организм [18]. Сюда мы относим: морфологию и физиологию организмов, проблемы существования видов, их эволюции (Ламарка, Дарвина, синтетическая теория эволюции, номогенез Берга, эволюция как преобразование разнообразия и др.) и систематики (от К.Линнея до Н.Вавилова), зачатков теории форм и разнообразия (Любищева, Мейена, Чайковского) [62], теории надорганизменных образований (популяций, биоценозов, биосферы), проблемы биоразнообразия и устойчивости экосистемы, проблемы сущности жизни и ее происхождения (химическая эволюция Опарина и "принцип Реди", креационизм, гипотеза панспермии и др.), где борются механицизм, пытающийся вывести живое из неживого,  и витализм, утверждающий, что живое происходит только от живого, которое было всегда. В этой области имеется масса фундаментальных проблем, по которым имеются противоположные мнения и даже принципы подхода к ним еще неясны.

Здесь проблема введения  системы основных понятий и базовых моделей не только не решена, но и не очень осознана. Об этом говорит то, что биологи "через запятую" произносят ключевые для них понятия «организм», «популяция», «орган», «функция» и т.д., а когда во второй половине ХХ в. был поднят вопрос "Существует ли теоретическая биология и что это такое?", то биологи в качестве образца оглядывались на теоретическую физику (см: [36]).

Очень ярко это проявляется в высказывании биолога Н.В. Тимофеева-Ресовского: "Теоретической биологии не было до самого последнего времени, потому что нет общих естественно-исторических биологических принципов, сравнимых с теми, которые, начиная с XVIII в., существовали в физике. Сейчас можно говорить только о двух общих принципах в биологии: ... Первый - принцип естественного отбора.... Второй (менее известен) - конвариантная редупликация..." [53, с. 64].

Т.е. здесь господствует эмпиристская бэконовская парадигма в еще большей степени, чем в физике. Ни о какой системе понятий (ЯРН) в рамках которой неявно, но строго задавались бы основные понятия (ПИО) речи не идет даже в "биологическом структурализме" [18].

Современную ситуацию в теоретической биологии один из ее видных представителей констатировал так: "Выход биологии из ее нынешней теоретической стагнации, маскируемой активным движением по замкнутым траекториям, возможен лишь путем критического пересмотра философских оснований  и теоретических постулатов биологии" [33].

А пока в этой "органицистской" биологии очень трудно сделать то, что было сделано выше для других разделов естественной науки, т.е. указать систему взаимосвязанных основных понятий.

11. Немного философии: различные взгляды на науку

Если очень кратко и схематично изобразить основные позиции в философии науки Нового времени, делая упор на спор рационализма и эмпиризма и конструктивизма и реализма, то получится следующая картина

В XVII в. мы находим четыре истока науки и философии науки Нового времени, восходящие, соответственно к Фр. Бэкону (основателю эмпиризма), Г. Галилею (основателю современной естественной науки - утверждаем мы), Р. Декарту (основателю рационализма) и оппоненту последнего - эмпирику Дж. Локку. О первых двух мы уже сказали в связи с основной темой - физикой и естественной наукой (во введении и п. 1). Две другие задают два направления в философии познания (гносеологии). Для рационалиста Декарта образцом науки была математика и, отдавая приоритет разуму, он называл в качестве источника знания постигаемые посредством интуиции "врожденные идеи", из которых методом дедукции выводились многочисленные следствия. Эмпирик Локк ориентировался на эмпирические науки и "врожденным идеям" Декарта противопоставлял метафору сознания как "чистого листа" ("tabula rasa"), которое заполняется с помощью метода эмпирической индукции. Рационалистическая метафизика доминировала в философии математики, а эмпирическая (после Локка) - абсолютно доминировала в философии естественных наук (в XVIII в. она распалась на французскую реалистическо-материалистическую (французские материалисты Ламетри, Дидро и др.) и английскую идеалистическую (Беркли, Юм)).

Поворотной точкой в метафизическом эмпиризме становится критика Юмом метода эмпирической индукции для обоснования универсальных высказываний, каковыми являлись закон причинности и формулировавшиеся уже в XVIII в. законы физики. В устах К.Поппера суть этой критики звучит так: "Согласно широко распространенному взгляду... для эмпирических наук характерно использование так называемых "индуктивных методов"... Вывод обычно называется "индуктивным", если он направлен от сингулярных высказываний (иногда называемых также "частными высказываниями") типа отчетов о результатах наблюдений или экспериментов к универсальным высказываниям типа гипотез или теорий. (Но) с логической точки зрения далеко не очевидна оправданность наших действий по выведению универсальных высказываний из сингулярных, независимо от числа последних, поскольку любое заключение, выведенное таким образом всегда может оказаться ложным. Сколько бы примеров появления белых лебедей мы ни наблюдали, все это не оправдывает заключения: "Все лебеди белые"" [43, с. 46-47]. "Индуктивное умозаключение, - пишет крупнейший логик-позитивист XIX в. Дж.Милль, - это всегда в конце концов умозаключение от частного к частному" (по [41, с. 76]).

Кантовский путь преодоления этой критики лежал через учение об априорных формах чувственности (пространство и время) и мышления (категории), которые люди, как представители рода Homo sapiens, всегда набрасывают (как сеть) на то, что ощущают и мыслят. Но в сер. XIX в. Кант вместе с вышедшей из него классической немецкой философией был отвергнут научным сообществом, в мировоззрении которого все более укреплялся сциентизм (некритическая уверенность, что наука может решить все, в том числе и философские, проблемы). Причиной тому были усложнение и специализация быстро развивавшейся естественной науки и ее прямолинейный беспроблемный рост на базе ньютонианской программы. Поэтому сложные рассуждения философов-метафизиков, особенно в исполнении немецкой классической философии, которые к тому же не давали однозначных ответов, казались ученым "заумными" и ненужными.

На этой почве вырастает позитивизм, который проходит ряд фаз: 1-й позитивизм сер. XIX в. (Конт, Спенсер, Милль), 2-й позитивизм конца XIX в. (Мах, Пуанкаре и др.), 3-й  позитивизм 1930-50 гг. (Венский кружок и др.). Общим для всех перечисленных течений были восходящий к Фр.Бэкону эмпиризм, внимание к критике Юма и неприятие "метафизики" (т.е. классической философии Нового времени от Декарта до Гегеля).

Основатель позитивизма О. Конт объявляет метафизику, после появления эмпирических наук, историческим излишеством и обращается через головы Локка и его наследников непосредственно к эмпиризму Фр. Бэкона. Но выбросить вместе с метафизикой юмовскую критику эмпиризма уже не удается. Попытки ответить на эту критику в рамках бэконовского эмпиризма идут несколькими путями.

Некоторые последователи Конта пытаются опереться непосредственно на сами "положительные" (естественные) науки, в первую очередь на эволюционную биологию Дарвина (Спенсер) и психологию (Мах). Но выбранные ими естественнонаучные концепции быстро устаревали, увлекая в забвение основанные на них философские системы.

Сам Конт, учитывая критику Юма, по сути, сводит науку к феноменологии, утверждая, что ни наука, ни философия не могут и не должны ставить вопрос о причине явлений, а только о том, "КАК" они происходят. Наука, по Конту, познает не сущности, а лишь феномены. "Основной переворот, характеризующий состояние возмужалости нашего ума, по существу, заключается в повсеместной замене недоступного определения причин... простым исследованием законов, т.е. постоянных отношений, существующих между наблюдаемыми явлениями... Мы можем действительно знать, - говорил Конт, - только различные взаимные связи,... не будучи никогда в состоянии проникнуть в тайну их образования..." [22, с.17].

Естественным продолжением этой линии являются наука как "принцип экономии мышления" Э.Маха и конвенционализм А.Пуанкаре в рамках "второго" позитивизма.

В отличие от 1-го позитивизма, 2-й позитивизм опирался не на теорию эволюции, а на психологию и был теснейшим образом связан с осмыслением естественных наук, с происходившей в физике "антиньютонианской" революцией и связанным с этим "гносеологическим кризисом в физике". Виднейшими и типичными представителями 2-го позитивизма являются Э.Мах (1838-1916) и А.Пуанкаре (1854-1912) - крупнейшие ученые и виднейшие участники этой революционной эпохи конца XIX - начала ХХ вв.

Суть антиньютонианского переворота ярко передает современник и поклонник Э.Маха В.Оствальд. "Каждый научно мыслящий человек, - говорит в 1872 г. В.Оствальд о господствовавшем до Маха "научном материализме", - от математика до практикующего врача, на вопрос, как он представляет себе мир в самом себе, скажет, что вещи состоят из движущихся атомов и что эти атомы вместе с действующими между ними силами - конечные реальности всех явлений, ... что физический мир может быть понят не иначе, как путем сведения его на "механику атомов", материя и движение являются конечными понятиями, к которым должно быть приведено все разнообразие явлений природы..." [39, с.3,5]. Но появление электродинамики нанесло мощный удар по механицизму, и он резко потерял в популярности в последней четверти XIX в.

Примыкающая к этому периоду эпоха формирования специальной теории относительности (СТО) характеризовалась колоссальным интересом к философии науки в научных и околонаучных кругах. Так первая книга А.Пуанкаре - "Наука и гипотеза" - вышла в 1902 г. в Париже тиражом 16 тыс. экземпляров и была распродана в течении нескольких дней. Люди, прочитав ее, передавали своим друзьям и знакомым. В результате в том же году с книгой ознакомились около ста тыс. человек [45, с. 526].

Лидером борьбы с механико-ньютоновским мировоззрением в эту эпоху окончания формирования теории электромагнитного поля и зарождения теории относительности и квантовой механики стал Э.Мах  Маха, как и всех позитивистов, не удовлетворяло кантовское решение поставленных Юмом гносеологических проблем, и он пытался решить их средствами современной ему психологической науки. Развивая заложенные уже у Конта возможности, Мах создает конструктивистское по сути направление, в котором научная теория предстает не как открытие, а как изобретение, и, соответственно, в качестве критерия отбора между конкурирующими теориями выступает не истина как соответствие факту (якобы существующему самому по себе), а та или иная форма эффективности".

Вслед за Беркли Мах в качестве "первой реальности" выбирает ощущения, а не внешние тела. "Вещи (тела) суть для нас сравнительно устойчивые комплексы связанных друг с другом, зависящих друг от друга чувственных ощущений" [30, с. 137]. Согласно Маху цель науки не истина (в силу ограниченности ее средств для отражения "богатой жизни вселенной" [31, с. 152]), а экономия мышления - своеобразная форма эффективности. "Самое экономное и простое выражение фактов через понятия, вот в чем оно (естествознание) признает свою цель" [31, с. 159, 156, 166].

Последнее утверждение близко родоначальнику конвенционализма

А.Пуанкаре - другому великому ученому (математику и физику) кон-

ца XIX в. А.Пуанкаре, для которого исходной проблемой было осознание следствий для научной картины мира из появления неэвклидовых геометрий, создал другую позитивистскую "домашнюю" философию для естествоиспытателей. Он утверждал, что наука "может постичь не суть вещи в себе, как думают наивные догматики, а лишь отношения между вещами", что "опыт предоставляет нам свободный выбор", и поэтому "принципы механики... - это соглашения и скрытые определения" [45, с. 8, 90]. "Я, - говорит А.Пуанкаре в докладе на Международном конгрессе физиков в Париже в 1900 г. - позволю себе сравнить науку с библиотекой, которая должна беспрерывно расширяться; но библиотекарь располагает для своих приобретений лишь ограниченными кредитами; он должен стараться не тратить их понапрасну. Такая обязанность делать приобретения лежит на экспериментальной физике, которая одна лишь в состоянии обогащать библиотеку. Что касается математической физики, то ее задача состоит в составлении каталога... Каталог, указывая библиотекарю на пробелы в его собраниях, позволяет ему дать его кредитам рациональное употребление... Итак, вот в чем значение математической (т.е. теоретической - А.Л.) физики. Она должна руководить обобщением, руководить так, чтобы от этого увеличивалась производительность науки" [45, с. 91-94].

К концу 1920-х революции в физике (в ее новых фундументальных разделах) завершились и она снова вступила в относительно спокойный этап развития. Конечно остались споры, особенно вокруг квантовой механики, но все большее число ученых обходилось без них и возвращалось к описанным выше Оствальдом "материалистическим" взглядам на окружающий мир. Революционный период в науке уходил в прошлое, и пути науки и философии науки снова начали расходиться.

Атмосферу формирования 3-го позитивизма или "неопозитивизма" определяют такие теоретические явления как: открытие новых неэвклидовых геометрий (Лобачевского, Римана) и различных систем новейшей формальной логики (Лукасевич и др.) с числом значимостей истинности более, чем две (истинно / ложно); операциональность понимания одновременности в теории относительности; принцип "наблюдаемости" Гейзенберга ("ненаблюдаемый объект не существует"); "структуралистское" понимание языка Ельмслева и гипотеза Сепира и Уорфа о том, что язык является первичным явлением, а взгляды и мировоззрение людей производны от языка; "эмпирическая социология", согласно которой наука сводится к фиксации, а затем упорядочению фактов в рамках условно принятых систем языка.

Ведущей школой неопозитивизма стал логический позитивизм, родив-

шийся в рамках Венского кружка - объединения группы венских физиков, математиков и социологов на базе семинара, руководимого М. Шликом. Его идеи интенсивно развивались также в Берлине, Варшаве и Тарту. Виднейшими представителями логического позитивизма были Р.Карнап и Г.Рейхенбах.

Этот 3-й позитивизм является наследником 2-го, он формируется под сильным влиянием Э.Маха, преподававшего в Вене. Но, в отличие от махизма, он отказывается от психологизма. Отчасти это, по-видимому, было вызвано быстрым устареванием тех психологических и биологических моделей, которые использовал 2-й позитивизм, отчасти связано с принципиальной критикой психологизма вообще со стороны неокантианцев Марбургской школы. Вместо психологии и биологии 3-й позитивизм обратился к логике.

Предшествующую возникновению этого течения обстановку Ф.Суппе описывает так: "Логический позитивизм - немецкое движение... В период между 1850 и 1880 в немецкой науке доминировал механистический материализм... К 1870-м механистический материализм стал оспариваться, главным образом, в результате развития физиологии и психологии... (В результате чего) в немецком научном сообществе механистический материализм постепенно уступил дорогу неокантианской философии науки, развитой сначала Гельмгольцем и (более основательно) Г.Когеном (H. Cohen) .… К 1900 этот тип неокантианства стал доминирующей философией немецкого научного сообщества; это было сущностью немецкого научного общего смысла, который фактически препятствовал принятию и квантовой механики, и теории относительности. Неокантианство было не единственной философией науки, принятой как реакция против механистического материализма; другая школа, которая имела существенное, но менее широко распространенное влияние в немецкой науке, происходила от Э.Маха; ее влияние было ограничено главным образом несколькими школами (особенно в Геттингене, Берлине, и в институтах общества им. Кайзера Вильгельма).... На рубеже века три философских позиции удерживались в немецком научном сообществе: механистический материализм, неокантианство, и маховский неопозитивизм, с неокантианством как наиболее принятым... А теоретическая физика шла своим путем.... В 1905 Эйнштейн опубликовал свою специальную теорию относительности (СТО), а вскоре "старая" квантовая механика встала на свой путь развития. Теория относительности и квантовая теория рассматривались как несовместимые со всеми тремя этими философиями науки... Первая немецкая поддержка для новых физик пришла от тех школ, которые симпатизировали махистскому позитивизму ... Попытки преодолеть кризис следовали в нескольких направлениях. Одно из них шло через модификации неокантианства..., наиболее серьезную попытку в этом направлении ...проделал Э.Кассирер (1910). Другой, чисто философски более влиятельный подход, исходил из расширенной и ослабленной версии маховского неопозитивизма. Последний подход развивался... в Берлине под влиянием Г.Рейхенбаха (лидера Берлинской школы) и в Вене под влиянием М.Шлика (руководителя Венского кружка). Обе группы соглашались, что Мах был прав, настаивая на проверяемости (verifiability) как критерии осмысленности для теоретических концепций, но заключали, что он ошибался в недооценке места математики... " [73, 7-12].

Принцип верификации (подтверждения) - центральное положение логического позитивизма. Он утверждал, что все те теоретические утверждения, которые не могут быть посредством логической цепочки рассуждений сведены к эмпирическим утверждениям (т.е. верифицированы) должны выбрасываться из науки как метафизические. Но сам принцип верификации опирался на язык наблюдения" (язык "протокольных предложений").

Однако в многочисленных исследованиях к середине ХХ в. было показано, что такого языка в научном познании просто не существует. "Тот слой знания (...тот язык), который выполняет в науке функцию описания эмпирических данных... всегда теоретически нагружен" [28, с.70]. "В постпозитивистский период, - говорит В. Ньютон-Смит, - ... философы крикнули хором: все наблюдения теоретически нагружены. Иными словами, нет никакого нейтрального в отношении теорий языка наблюдения" [50, с. 171].

В 1960-70-х гг. на сцену выходит постпозитивизм, который подвергает критике концепции логического позитивизма с точки зрения логики (К.Поппер) и истории науки (И.Лакатос, Т.Кун, П.Фейерабенд и др.).

К.Поппер в качестве центральной проблемы выдвинул "проблему "демаркации" - "проблему нахождения критерия, который дал бы нам в руки средства для выявления различия между эмпирическими науками, с одной стороны, и математикой, логикой и "метафизическими" системами - с другой" [43, с. 55]. "Центральной проблемой философии знания, начиная, по крайней мере, с Реформации, - говорит Поппер, - была следующая. Как возможно рассудить или оценить далеко идущие притязания конкурирующих теорий или верований?"

К.Поппер раскритиковал метод индукции и процедуры верификации как основы для решения проблемы демаркации и заменил последнюю принципом "фальсификации": теория научна, если она содержит рискованные, проверяемые на опыте высказывания, которые, в случае отрицательного результата, однозначно фальсифицируют теорию. Но из этой процедуры логически вытекает вывод, что рано или поздно существующие теории будут фальсифицированы, такая позиция получила название "фаллибилизма" (от англ. слова "ошибка"), т.е. "погрешимости". По сути, Поппер перешел от сравнения отдельных теорий к сравнению развивающегося ряда теорий (эту линию продолжит его ученик И.Лакатос), он рассматривает науку как "прогрессирующую от одной проблемы к другой (а не от теории к теории) - от менее глубокой к более глубокой проблеме". Свою позицию, противопоставляемую иррационализму и скептицизму, Поппер назвал "критическим рационализмом" (рационализм здесь употребляется, впервую очередь, в широком смысле, как антитеза иррационализму) . Эта позиция находится в непростых отношениях с вопросом об истине (термин, которого Поппер избегал в своих ранних работах). Он, вслед за логиком А.Тарским, принял в этом вопросе позицию, согласно которой он верит, что последовательность научных теорий стремится к истине (истине как соответствию фактам), но у нас нет (логических) критериев, позволяющих утверждать, что данная теория приближается к истине. Поппер верит, что последовательность фальсификаций, которым подвергает природа наши теории, обтачивает их (как море обтачивает гальку) в направлении приближения к истине.

Сегодня юмовскую критику наиболее последовательно проводит Б.С. ван Фраассен. В своем "конструктивном эмпиризме" он утверждает "взгляд, согласно которому научная деятельность является скорее конструированием, чем открытием: конструированием моделей, которые должны быть адекватны явлению, а не открытием истины, имеющей отношение к ненаблюдаемому" [74, р. 5]. "Цель науки - дать нам теории, которые являются эмпирически адекватными; и принятие теории включает, как веру, только то, что она эмпирически адекватна" [74, р. 12]. Под "эмпирической адекватностью" имеется ввиду совпадение эмпирических проявлений теоретической модели явления и самого явления. Свою позицию он противопоставляет позиции "реалистического эмпиризма" ("научного реализма"), который утверждает, что "картина мира, которую наука дает нам, является истинной картиной мира, верной в своих деталях, и сущности, постулируемые в науке, действительно существуют: наука продвигается посредством открытий, а не изобретений.... Цель науки - дать нам истинную историю о том, как выглядит мир; и принятие научной теории включает веру в то, что это есть истина"[74, р. 7-8]. Позиция ван Фраассена вызвала массу споров и возражений со стороны "реалистов" [70], но противостоящее ему множество реалистических течений скорее обороняется, чем наступает. Общим для них является утверждение, что то, против чего выступает ван Фраассен, - это "наивный" или "метафизический" реализм (очень близкий приведенному выше (в п. 1) реализму М.Планка). Современные реалисты эту позицию защищать не берутся и, не принимая крайнего конструктивизма концепции ван Фраассена, предлагают различные варианты "реформированного" реализма. Ярким представителем последних является "критический рационализм" Поппера-Лакатоса.

В основе историцистской критики Т.Куном и логического позитивизма и Поппера лежит тезис об отсутствии в реальной истории науки "решающего эксперимента" (каковыми их объявляют лишь много позже, в учебниках) или о "несоизмеримости теорий". Последний тезис утверждает, что в истории науки в революционные периоды часто наблюдаются случаи, когда сторонники двух конкурирующих теорий не могут логическими средствами доказать, что одна из теорий является более истинной или более общей, чем другая теория.

Следствием этих тезисов является переход от кумулятивных к некумулятивным моделям развития науки. "Суть кумулятивизма, - пишет науковед Е.А.Мамчур, - хорошо охарактеризовал М.Бунге. "Любая историческая последовательность научных теорий (с позиций кумулятивизма - Е.М.) является возрастающей в том смысле, что каждая новая теория включает... предшествующие теории. И в этом процессе ничто и никогда не теряется; по существу, указанная точка зрения предполагает непрерывный рост в виде аддитивной последовательности теорий, сходящихся к некоторому пределу, объединяющему все теории в единое целое". Однако к 50-м годам (время, когда стало складываться постпозитивистское направление в философии науки) такое представление о росте научного знания стало уже непопулярным. Работы историков науки, исследовавших концептуальные сдвиги, совершившиеся в период научной революции XVII в., а также аналогичные исследования новейшей революции в физике убедительно показали, что кумулятивистская схема неприложима к реальной истории науки.... Прогресс науки... сопровождается существенными потерями..." [28, с. 81]. Т.Кун резко выступил против "кумулятивной модели развития", т.е. "развития через накопления" [23, с. 18]. Исходя из анализа истории научных революций, связанных с именами Коперника, Ньютона, Лавуазье, Эйнштейна, он выдвинул свою некумулятивную модель развития науки, в центре которой стоит тезис о несоизмеримости теорий, конкурирующих между собой в период научной революции.

Основными элементами куновской модели являются взаимозависимая пара "научная парадигма" и "научное сообщество", а также деление развития науки на две фазы: "аномальную" (по сути - революционную) и "нормальную".

Научная парадигма (букв.: образец) и научное сообщество по Куну это - взаимосвязанные элементы, которые не могут существовать друг без друга. С одной стороны, научные сообщества являются носителями парадигм, с другой - парадигма - основа самоидентификации и воспроизводства научного сообщества. "Под парадигмами я подразумеваю, - говорит Т.Кун, - признанные всеми научные достижения, которые в течение определенного времени дают научному сообществу модель постановки проблем и их решений" [23, с. 11]. Парадигма "располагает обоснованными ответами на вопросы, подобные следующим: каковы фундаментальные сущности, из которых состоит универсум? Как они взаимодействуют друг с другом и с органами чувств? Какие вопросы ученый имеет право ставить в отношении таких сущностей и какие методы могут быть использованы для их решения?" Все это вводится в сознание неофита соответствующим научным сообществом в ходе получения профессионального образования [23, с. 21-22, с. 237-259].

Эту картину дополняет шокировавшее многих сведение сути "нормальной" науки к "наведению порядка" и "решению головоломок". "Именно наведением порядка, - пишет Т.Кун, - занято большинство ученых в ходе их научной деятельности. Вот это и составляет то, что я называю здесь нормальной наукой. При ближайшем рассмотрении этой деятельности... создается впечатление, будто бы природу пытаются "втиснуть" в парадигму, как в заранее сколоченную и довольно тесную коробку. Цель нормальной науки ни в коей мере не требует предсказания новых видов явлений: явления, которые не вмещаются в эту коробку[10], часто, в сущности, вообще упускаются из виду. Ученые в русле нормальной науки не ставят себе цели создания новых теорий... Напротив, исследование в нормальной науке направлено на разработку тех явлений и теорий, существование которых парадигма заведомо предполагает... Эти три класса проблем - установление значительных фактов, сопоставление фактов и теории, разработка теории - исчерпывают... поле нормальной науки, как эмпирической, так и теоретической" "[23, с. 45-46, 58]. Термин "парадигма" "тесно связан с понятием "нормальной науки", - писал Кун. - Вводя этот термин, я имел в виду, что некоторые общепринятые примеры фактического практического применения и необходимое оборудование, - все в совокупности дают нам модели, из которых возникают конкретные традиции научного исследования" [23, с. 28-29].

Научная революция или "аномальная" фаза в развитии науки состоит в смене лидирующей парадигмы. В силу несоизмеримости парадигм их конкуренция происходит как конкуренция научных сообществ и победа определяется не столько внутринаучными, сколько социокультурными или даже социально-психологическими процессами ("многие из моих обобщений касаются области социологии науки и психологии ученых", - говорит Кун [23, с. 26]). "Сами по себе наблюдения и опыт еще не могут определить специфического содержания науки, - утверждает Кун. - Формообразующим ингредиентом убеждений, которых придерживается данное научное сообщество в данное время, всегда являются личные и исторические факторы" [23, с. 21-22]. "Конкуренция между различными группами научного сообщества (т.е. между научными сообществами - А.Л.) является единственным историческим процессом, который эффективно приводит к отрицанию некоторой ранее принятой теории" [23, с. 26]. "Вынесение приговора, которое приводит ученого к отказу от ранее принятой теории, - говорит Т.Кун, - всегда основывается на чем-то большем, нежели сопоставление теории с окружающим нас миром" [23, с. 110-111]. "Вряд ли когда-либо, - вторит ему П.Фейерабенд, - теории непосредственно сопоставлялись с "фактами" или со "свидетельствами". Что является важным свидетельством, а что не является таковым, обычно определяет сама теория, а также другие дисциплины, которые можно назвать "вспомогательными науками" [55, с.118].

Эту критику учитывает И.Лакатос, который противостит скептицизму Т.Куна и П.Фейерабенда и рассматривает себя в качестве продолжателя и защитника попперовского "критического рационализма". Лакатос утверждает наличие рациональных оснований для выбора конкурирующих теорий.

И.Лакатос поддерживает тезис Куна и Фейерабенда об отсутствии "решающих экспериментов". Он показывает это на примере эксперимента Майкельсона-Морли (Майкельсон был обескуражен отсутствием должного внимания к своим результатам со стороны научного сообщества и при получении Нобелевской премии за "создание прецизионных оптических приборов, а также за спектроскопические и метрологические измерения, выполненные с их помощью" даже не обмолвился об этом эксперименте) и ряде других [24, с. 125-133]. Лакатосу близок куновский тезис о том, что "отказ от какой-либо парадигмы без замены ее другой означает отказ от науки вообще" [23, с. 107]. "Не может быть никакой фальсификации прежде, чем появится лучшая теория" - говорит Лакатос [24, с. 57]. Но Лакатоса не удовлетворяет куновское "сведение философии науки на психологию науки". Для отстаивания содержательных принципов "критического рационализма" он развивает подход Поппера: "оценке подлежит не отдельная теория, а ряд или последовательность теорий" - говорит он. Им вводится логический критерий "прогрессивного сдвига проблем"[11] (вместо куновского социально-психологического) для смены старой теории новой. "Не отдельно взятую теорию, а лишь последовательность теорий можно назвать научной или не-научной" [24, с. 56].

Если введение прогрессирующего сдвига проблем в ряду теорий дает основание надеяться на решение проблемы рационального сравнения теорий, то другим нововведением Лакатос пытается привести свой (и Поппера) "критический рационализм" в соответствие с историей науки. Он согласен с критикой Куна и Фейерабенда относительно того, что "старым" теориям весьма долго удается защищаться от новых эмпирических "опровержений". Но это, с его точки зрения, не результат несоизмеримости теорий, а следствие того, что надо рассматривать более крупные образования - "исследовательские программы" (ИП), которые состоят из "твердого ядра" и "защитного пояса" (эта модель эффективна и для описания обычных текущих научных исследований). Программа складывается из методологических правил: часть из них - это правила, указывающие каких путей исследования нужно избегать (эта часть определяет оберегаемое "неопровергаемое" "жесткое ядро" - А.Л.)..., другая часть - это правила, указывающие, какие пути надо избирать и как по ним идти (эта изменчивая часть составляет "защитный пояс" "вспомогательных гипотез", интерпретаций и т.п., с помощью которых борются с возникающими "аномалиями" - А.Л.)" [24, с. 79].

Введение "защитного пояса" и "прогрессивного сдвига проблем" (теории T1, T2,... принадлежат одной исследовательской программе, имеют общее "жесткое ядро" и отличаются на уровне "защитного пояса") позволяет Лакатосу вывести программу "критического рационализма" из под огня историцистской критики американского постпозитивизма в лице Т.Куна и П.Фейерабенда. Но выдвигаемые им критерии рациональности и цели науки, по сути, сдвигаются от классического представления об истине как соответствии реальности в сторону эффективности в переработке эмпирического материала.

В итоге современную проблемную ситуацию приближенно можно представить в виде нескольких "треугольников". Вершины одного ("историцистского") составляют Поппер, Кун, Лакатос. Вершины другого ("логицистского") "треугольника" составляют "наивные" реалисты, "реформированные" реалисты (типа Поппера и Лакатоса), конструктивисты (ван Фраассен)[12].

Подводя итоги этой, безусловно, не полной ретроспективы философских взглядов на научное познание, с одной стороны, трудно не согласиться с крупным современным западным философом науки Б. ван Фраассеном, утверждающим, что именно "эмпиризм всегда был главным философским ориентиром в изучении природы" [74, р.3]. Действительно, как мы видели, философия естественной науки со времен Локка ориентируется на указанный Фр.Бэконом путь опоры на опыт, эмпирическую реальность. К Фр. Бэкону апеллируют и представители позитивизма (от отцов-основателей до современных). С другой стороны, видно, что ни одна из предлагаемых концепций не вызывает всеобщего одобрения, не решает всех проблем.

Однако, как представляется автору, сочетание изложенной выше "галилеевской" модели естественнонаучного знания на основе понятий "первичного идеального объекта" и "ядра раздела науки", куновской модели "парадигма - сообщество" и лакатосовской модели "исследовательских программ" решает большинство перечисленных выше проблем. Эти три постпозитивистские модели имеют аналогичные (изоморфные) структуры, в которых эквивалентными элементами являются: 1) куновская "парадигма", лакатовское "жесткое ядро" и наше "ядро раздела науки"; 2) куновская "нормальная наука", лакатосовкая работа в рамках одной исследовательской программы и наш "И-тип" работы по построению моделей-теорий из заданного набора ПИО; 3) научная революция как переход к новой парадигме, вытеснение одной исследовательской программы другой, возникновение нового ядра раздела науки[13].

Эти три модели взаимодополняют друг друга. Наша модель является наиболее конкретной, но наименее общей. Она описывает уже сложившиеся зрелые разделы науки, в то время как лакатосовская и куновская модели позволяют рассматривать процесс становления разделов науки. С другой стороны, хотя и "исследовательские программы" и ЯРН возникают и функционируют внутри научных сообществ, понятия "научного сообщества" нет в явной форме ни в нашей модели, ни в модели Лакатоса. Это связано с тем, что в этих двух моделях наука представлена со стороны феноменов и идей (теорий, идеальных объектов)  в рамках "рациональной" истории [23 б, с. 455-524]. Кун же идет со стороны научных сообществ. В центре его рассмотрения оказывается процесс (и проблема) внедрения новых идей в сообщество, т.е. "реальная" история. В этом плане куновская и лакатосовская (и наша) модели оказываются не альтернативными, как полагал Лакатос, а взаимодополнительными.

Что касается спора реализма и конструктивизма, то Кун и Лакатос эту проблему прямо не обсуждали. В нашем же подходе предлагается следующее решение этой проблемы. У нас модель-теория отвечает реальным объектам, поскольку она состоит из ПИО – элементов искусственных, но реальных (как кирпичи), никаких других сущностей, кроме ПИО для описания физических явлений не существует. ПИО выступают здесь в роли аналогичной роли априорных форм Канта (но ПИО – принадлежность культуры, а не биологического вида Homo Sapiens), они (и только они) являются онтологическими сущностями в физике, химии и др. Т.о., в рамках «И-типа» работы наша позиция совпадает с реалистической, посколько ПИО реальны. Но наличие "С-типа" работы, порождающей новые ПИО, отличает ее от позиции «метафизического реализма», для которого онтологические сущности существуют независимо от человеческой культуры. В рамках С-типа работы наша позиция может быть обозначена как «конструктивный рационализм». В основе этого конструктивного рационализма лежит описанная выше «галилеевская процедура». Вообще говоря, последняя может иметь и реалистическую (платоновского типа) интерпретацию (тогда наш подход останется в силе, но будет представлять позицию «реалистического рационализма»). Но в любом случае этот подход принадлежит идущей от Г.Галилея (отличающейся от декартовской) рационалистической традиции, а не бэконовской эмпирицистской традиции.

 

Литература

1.Алексеев И.С. Деятельностная концепция познания и реальности. Избранные труды по методологии физики. М.: "РУССО, 1995.

2.Андронов А.А., Витт А.А., Хайкин С.Э. Теория колебаний. М.: Физматгиз, 1959.

3. Ахутин А. В. История принципов физического эксперимента (от античности до XVII в.). М.: Наука, 1976.

4.БаженовЛ.Б. Строение и функции естественнонаучной теории. М.: Наука, 1978.

5. Берков А.В., Кобзарев И.Ю. I.Теория тяготения Эйнштейна. Общие принципы и экспериментальные следствия. М.: МИФИ, 1989. II. Приложение теории тяготения Эйнштейна к астрофизике и космологии. М.: МИФИ, 1990.

6. Библер В.С. Кант - Галилей - Кант (разум Нового времени в парадоксах самообоснования). М:Мысль, 1991; он же. Галилей и логика мышления Нового времени. В кн.: Механика и цивилизация XVII-XIX вв. М.: Наука, 1979.

7. Бом Д. Квантовая теория. М.: Наука, 1965.

8. Бор Н.Избранные научные труды. Т. 2. М.: Наука, 1971.

9. Брагинский В.Б. Гравитационо-волновая астрономия: новые методы измерений. // Успехи физич наук, 2000, т. 170, N 7, с. 743-752.

10. Вайнберг С. Первые три минуты. Современный взгляд на происхождение Вселенной. М.: Энергоиздат, 1981.

11. Гайденко П.П. Эволюция понятия науки. М., 1980.

12. Гайденко П.П. Эволюция понятия науки (ХУII - ХУIII вв.). Формирование научных программ Нового времени. М.,Наука,1987.

13. Галилео Галилей. Избранные труды. Т.II. М.,Наука, 1964.

14. Гравитация и относительность. М.: Мир, 1965.

15. Де Бройль Луи. Революция в физике (Новая физика и кванты). М.: Атомиздат,1965.

16. Джеммер М. Понятие массы в классической и современной физике. М.: Прогресс, 1967.

17. Зоркий П.М. Критический взгляд на основные понятия химии. Журнал Российского химического общества им. Д.И.Менделеева, 1996, том 40, No 3, стр.5-25 (см. также в Internet  < http://www.chem.msu.su:8081/rus/chemhist/>.

18.Карпинская Р.С. Природа биологии и философия биологии. В кн.: Природа биологического познания. М.: Наука, 1991. С. 5-20

19. Кирсанов В.С. Научная революция XVII века. М., 1987.

20. Клышко Д.Н. Квантовая оптика: квантовые, классические и метафизические аспекты. // УФН, 1994, т. 164, N 11, с.1187-1214.

21. Койре А. Очерки истории философской мысли. М.: Прогресс, 1985.

22. Конт О. Дух позитивной философии. СПб.: Вевстник знавния, 1910.

23. Кун Т. Структура научных революций. М.: Прогресс, 1977. 23 б. Кун Т. Структура научных революций. М.: АСТ, 2001.

24. Лакатос И. Фальсификация и методология научно-исследовательских программ. М.: Медиум, 1995.

25. Ландау Л.Д., Лифшиц И.М. Теоретическая физика в 10 тт. М., 1965-1987.

26. Левич В.Г. Курс теоретической физики (в 2 тт.). М.: Наука, 1969

27. Леггетт А.Дж. Шредингеровская кошка и ее лабораторные сородичи. УФН, 1986, т.148, в.4, с.671-88.

28. Мамчур Е.А. Проблемы социально-культурной детерминации научного знания. М., Наука, 1987.

29. Мамчур Е.А., Овчинников Н.Ф., Огурцов А.П. Отечественная философия науки: предварительные итоги. М.: Наука, 1997.

30. Мах Э.. Познание и заблуждение Очерки по психологии исследования. М.:Изд. С.Скирмунта, 1909.

31. Мах Э.. Популярно-научные очерки. СПб.: Образование, 1909. .

32. Мейен С.В. Понятие времени и типология объектов (на примере геологии и биологии). В кн.: Диалектика о науках о природе и человеке. Т.1, М., 1966.

33. Мейен С.В. Логико-методологические и теоретические стереотипы в биологии. В кн.: Природа биологического познания. М.: Наука, 1991. С. 21-23.

33 б. Менцин Ю.Л. Теория электромагнитного поля: от Фарадея к Максвеллу. В кн.: Физика IX-XX вв. в общенаучном и социокультурном контекстах. Физика XIX в. М.: Наука, 1995, с. 251-279.

34. Методы научного познания и физика. М.: Наука, 1975.

35. Минковский Г. Пространство и время. - В кн.: Принцип относительности. Сб. работ по специальной теории относительности. М.: Атомиздат, 1973.

36. На пути к теоретической биологии. Т.1. Пролегомены. М., 1970.

37. Нейман фон И. Математические основы квантовой механики. М.: Наука, 1964.

38. Ньютон И. Математические начала натуральной философии. М.: Наука, 1989.

39. Оствальд В. Несосотоятельность научного материализма и его устранение.... Спб.: К.Л.Риккерт, 1896.

40. Пайс А. Научная деятельность и жизнь Альберта Эйнштейна. М.: Наука, 1989.

41. Позитивизм и наука. М.: Наука, 1975.

42. Полинг Л.,Полинг П. Химия. М.: Мир, 1978.

43. Поппер К. Логика и рост научного знания. М.: Прогресс, 1983.

44. Проблемы исследования структуры науки. Новосибирск: НГУ,1967.

45. Пуанкаре А. О науке. М.: Наука, 1983.

46. Рейхенбах Г. Философия пространства и времени. М., 1985

47. Розин В.М. Специфика и формирование естественных, технических и гуманитарных наук. Красноярск: Красноярский ун-т, 1988.

48. Садбери А Квантовая механика и физика элементарных частиц. М.: Мир, 1989..

49. Сарабьянов Д.В. Стиль модерн. Истоки, история, проблемы. М.: Искусство, 1989.

50. Современная философия науки. Хрестоматия. М.: Наука, 1994.

51. Степин В.С. Становление научной теории. Минск: БГУ, 1976

52. Теоретическое и эмпирическое в современном научном познании. М.: Наука, 1984.

52 б. Терентьев М.В. История эфира. М.: Фазис, 1999.

53. Тимофеев-Ресовский Н.В. Генетика, эволюция и теоретическая биология // Природа, 1980, № 9

54. Уизем Дж. Линейные и нелинейные волны. М: Мир, 1977.

54 б. Фарадей М. Экспериментальные исследования по электричеству. Тт. 1-3, М.: АН СССР, 1947-1959.

55. Фейерабенд П. Избранные труды по методологии науки. М.: Прогресс, 1986.

56. Фейнман Р., Лейтон Р.,Сэндс М. Фейнмановские лекции по физике. Тт. 1-9. М.: Мир, 1965.

57. Фигуровский Н.А. Очерк общей истории химии. Т.I: От древнейших времен до начала XIX в.; Т. II: Развитие классической химии в XIX столетии. М., 1979.

58. Физическая теория: (Философско-методологический анализ). М.: Наука, 1980.

59. Физический энциклопедический словарь. М.: Сов.энциклопедия, 1983.

60. Хакен Г. Синергетика. М.: Мир,1980. ) .Хакен Г. Синергетика. Иерархии неустойчивостей в самоорганизующихся системах. М.: Мир,1985. Синергетическая парадигма. М.: Прогресс-Традиция, 2000.

61. Химическая энциклопедия. Т.1. М.: Сов энц., 1988.

62. Чайковский Ю.В. Элементы эволюционной диатропики. М.: Наука, 1990.

63. Черепащук А.М. Массы черных дыр в двойных системах. // УФН, 1996, т.166, N 8; Известия ВУЗов. Радиофизика, 1998, т.41, N2, с.129

64. Шредингер Э. Новые пути в физике. Статьи и речи. М.: Наука,1971.

65. Эйнштейн А. Собрание научных трудов. М., Наука,1987.

66. Ballentine L.E. Resource letter IQM-2: Foundations of Quantum Mechanics since the Bell Inequalities.// Amer. J. of Physics, 1987, v.55, No.9, p.785-92; The Statistical Interpretation of Quantum Mechanics. // Rev. Mod. Phys.,1970, v.42, р.358-381.

67. Dalton J. New System of Chemical Philosophy. N.Y., 1963.

68. DeWitt B.S. Quantum mechanics and reality. // Phisics Today, 1970, v.23, N 9, p. 30-35; 1971, v.24, N 4, p.36.

69. Grosserbauer Fresenius Journal of Analitical Chem. 1997, v. 357, N 2, p. 133

70. Images of Science: Essays on realism and empiricism with a reply from Bas C. van Fraassen. (Churchland and Hooker (ed-s)) Chicago,1985.

71. Jammer M., Consepts of force. A study in foundations of dynamics. Cambrige (Mass.): Harvard univ. press.? 1957.

72. Stapp H.P. The Copengagen Interpretation. // Amer. J. of Physics, 1972, v.40, p.1098-1116.

73. Suppes P. The Search for Philosophic Understanding of Scientific Theories. In: The Structure of Scientific Theories (Editted with a Critical Introduction by Frederick Suppe)Urbana, Chicago, London, 1974

74. Van Fraassen Bas C. The Scientific Image . Oxf, 1980.


[1] При приходе двух совпадающих по частоте и имеющих неизменную разность фаз ("когерентных") волн в данную точку среды их действие складывается так, что в точках, куда обе волны приходят в фазе они усиливают друг друга, а в точках, куда они приходят в противофазе - ослабляют. В результате получается картина так называемых интерференционных полос. В частности, в случае пучка света, падающего перпендикулярно на экран с двумя щелями, на стоящем за ним параллельном экране максимум интенсивности будет наблюдаться в области геометрической тени (на сечении экрана плоскостью, проходящей через середину между щелями перпендикулярно экранам, и будут повторяться многократно при разности расстояний до щелей кратной длине волны). Это классический опыт по доказательству волнового (а не корпускулярного, как предполагал Ньютон) характера света.

[2] Явление огибания тела волной, из-за чего предсказываемые геометрической оптикой резкие тени размываются.

[3] К этому следует добавить, что основное современное направление в теории волн - теории нелинейных волн [54], где возникают эффекты "самодействия" и изменения частот гармонических волн, что эквивалентно их взаимопревращениям. Одним из новых интересных идеальных объектов здесь является солитон - "структурно устойчивая уединенная волна в нелинейной диспергирующей среде (за счет баланса действия эффектов нелинейности и дисперсии). Солитоны ведут себя подобно частицам: при взаимодействии между собой или с некоторыми другими возмущениями не разрушаются" [59, с. 698], но при этом проходят насквозь друг друга.

[4] В учебниках, как правило, mv – называют «зависящей от скорости инертной массой» в отличии от m0, поскольку здесь импульс p=mvv. Но последнее время физики склонны считать более физичным называть массой только неизменную характеристику частицы, совпадающую с m0, и не употреблять индексов [].

[5] В механике Галилея-Ньютона, считается, что можно сделать твердый метр, который при переносе с места на место и с платформы в движущийся поезд не меняется. В механике Эйнштейна такими свойствами наделяется скорость света.

[6] Когда ггравитационные силы столь велики, что их ничто не может уравновесить и тело под их действием сжимается в точку.

[7] В математическом слое им отвечают некоммутирующие друг с другом операторы.

[8] Часть из них вводится через соответствующие эталоны, а часть - через так называемые "начала" или законы термодинамики. К первым относятся температура и количество тепла, ко вторым - внутренняя энергия и энтропия.

[9] Идеальный газ в термодинамике - это газ, подчиняющийся уравнению Клапейрона-Менделеева. Материализацией этого идеального объекта является достаточно разреженный газ. Этот ход рассуждений повторяет приводимый в п. 1 ход рассуждений вокруг "пустоты" Галилея.

[10] Ср. с "И-типом" работы в рамках заданных ПИО.

[11] Для этого он вводит понятие "последовательности теорий T1, T2, T3, ..., 'где каждая последующая теория получена из предыдущей путем добавления к ней вспомогательных условий..., чтобы устранить некоторую аномалию... Такая последовательность теорий является теоретически прогрессивной (или "образует теоретически прогрессивный сдвиг проблем"), если каждая новая теория имеет какое-то добавочное эмпирическое содержание по сравнению с ее предшественницей, то есть предсказывает некоторые новые, ранее не ожидаемые факты... Теоретически прогрессивный ряд теорий является также и эмпирически прогрессивным..., если какая-то часть этого добавочного эмпирического содержания является подкрепленным, то есть, если каждая новая теория ведет к действительному открытию новых фактов... Назовем сдвиг проблем прогрессивным, если он и теоретически и эмпирически прогрессивен, и регрессивным - если нет" [89, с. 55].

[12] Особые полюсы составляют философствующие ученые типа А.Эйнштейна и В.Вернадского, которые не удовлетворены всем этим спектром и строят свои "домашние" и весьма эклектичные философии. Ученый "с благодарностью принимает теоретико-познавательный анализ понятий, но внешние условия, которые поставлены ему фактами переживаний, не позволяют ему при построении своего мира понятий слишком сильно ограничивать себя установками одной теоретико-познавательной системы, - говорит Эйнштейн в своем "Ответе на критику". - В таком случае он должен систематизирующему философу-гносеологу показаться своего рода беспринципным оппортунистом. Он кажется реалистом, поскольку старается представить не зависящий от актов ощущения мир; идеалистом - поскольку смотрит на понятия и на теории как на свободные изобретения человеческого духа (не выводимые логически из эмпирически данного); позитивистом - поскольку рассматривает свои понятия и теории лишь настолько обоснованными, насколько они доставляют логическое представление связей между чувственными переживаниями. Он может показаться даже платоником или пифагорейцем, поскольку рассматривает точку зрения логической простоты необходимым и действенным инструментом своего исследования"; "колебания между ... крайностями (эмпиризма и рационализма) кажутся мне неустранимыми" - говорит А.Эйштейн [65, т. 4, с. 310-311]. Но это высказывания Эйнштейна-мэтра, у которого научные революции 1905 г. уже позади. Эйнштейн - революционер начала века вряд ли мог бы состояться без философии Маха, которой бы не было, если бы Маха могла удовлетворить подобная эклектика.

 

[13] Из этого сопоставления возникает ряд поправок и уточнений к модели Куна, касающихся второстепенных ее характеристик. Во-первых, это касается его метафоры "решения головоломок", используемой для пояснения сути "нормальной науки". Следует указать на ее неадекватность. Из нашей модели для физики (и химии) видно, что ученые в рамках "нормальной науки" (при создании ВИО), занимаются не "решением головоломок" типа игры в восстановление разрезанных картинок (детские игры в пазлы), имеющих "гарантированное решение", как утверждал Кун [23 б, с. 67, 65], а  составлением разнообразных моделей явлений из ПИО (напоминающим детские игры в конструктор, где из небольшого набора элементов-деталей собираются разнообразные конструкции). Поэтому «нормальная наука» - тоже творческий процесс и ее результаты заслуженно оцениваются Нобелевскими премиями (недавний пример - Нобелевская премия 2003 г. по физике присужденная за теорию сверхпроводимости, являющуюся ВИО в рамках квантовой механики).

Другим не вполне адекватным моментом является описание процесса обучения и освоения профессии. Куновское обучение по образцам, по-видимому, имеет место при обучении "И-типу" работы - построению моделей явлений из заданных ПИО, поскольку требуемый для этого навык схематизации явлений природы не формализован. Только к этой части работы в зрелых разделах физики применим обсуждаемый Куном "способ уподоблять задачу тем, с которыми он (ученый, студент – А.Л.) уже встречался" [23 б, с. 243, 244]. Но для случаев, когда "парадигмы определяют большие области опыта" [23 б, с.171] такие как раздел науки, утверждение Куна, что основные понятия и законы для ученых существуют лишь в единстве с примерами их применения [23 б, с. 76-77], неверно. Основные понятия и законы физики, содержащиеся в данном разделе физики, можно выделить из анализа оснований данного раздела, а не из примеров деятельности представителей соответствующего сообщества.

 

Если вы заметили в тексте ошибку, выделите её и нажмите Ctrl+Enter.

© 2001-2016 Московский физико-технический институт
(государственный университет)

Техподдержка сайта

МФТИ в социальных сетях

soc-vk soc-fb soc-tw soc-li soc-li
Яндекс.Метрика