Ноль и научная революция

We use cookies. Read the Privacy and Cookie Policy

Когда в математику были введены переменные величины и когда их изменяемость была распространена до бесконечно малого и бесконечно большого, тогда и математика, вообще столь строго нравственная, совершила грехопадение… Девственное состояние абсолютной значимости, неопровержимой доказанности всего математического навсегда ушло в прошлое; наступила эра разногласий, и мы дошли до того, что большинство людей дифференцирует и интегрирует не потому, что они понимают, что они делают, а просто потому, что верят в это, так как до сих пор результат всегда получался правильный.

Фридрих Энгельс. «Анти-Дюринг»[24]

Ноль и бесконечность разрушили аристотелевскую философию, вакуум и бесконечный космос избавили Вселенную от скорлупы и от идеи о том, что природа не терпит пустоты. Древняя мудрость была отброшена, и ученые начали открывать законы, управляющие природными явлениями. Однако перед научной революцией стояла проблема ноля.

В глубине могучего нового инструмента научного мира — дифференциального и интегрального исчисления — таился парадокс. Изобретатели исчисления, Исаак Ньютон и Готфрид Вильгельм Лейбниц, создали мощнейший математический метод благодаря делению на ноль и сложению бесконечного числа нолей. Оба действия были столь же нелогичны, как сложение 1 и 1, чтобы получить 3. Дифференциальное и интегральное исчисление в своих основах отрицали математическую логику. Их принятие было актом веры. Ученые совершили этот прыжок, поскольку дифференциальное и интегральное исчисление есть язык природы. Чтобы в совершенстве понимать этот язык, наука должна была победить бесконечные ноли.