Рефераты. Реферат: Интегральное исчисление. Исторический очерк

Реферат: Интегральное исчисление. Исторический очерк

Интегральное исчисление. Исторический очерк.

Понятие интеграл непосредственно связано с интегральным исчислением – разделом математики, занимающимся изучением интегралов, их свойств и методов вычисления. Вместе с дифференциальным исчислением интегральное исчисление составляет основу математического анализа.

Истоки интегрального исчисления относятся к античному периоду развития математики и берут начало от метода исчерпывания, разработанного математиками Древней Греции.

Метод исчерпывания это набор правил для вычисления площадей и объёмов, разработка которых приписывается Евдоксу Книдскому. Дальнейшее развитие метод получил в работах Евклида, а особым искусством  и разнообразием применения метода исчерпывания славился Архимед.

Типичная схема доказательств методом исчерпывания выглядела следующим образом. Для определения величины A строилась некоторая последовательность величин С1, С2, …, Сn, … такая, что


Предполагалось также известным такое B, что


и что для любого целого K можно найти достаточно большое n, удовлетворяющее условию:


Где D – постоянно. После громоздких рассуждений из последнего выражения удавалось получить:


Как видно из приведённой схемы метод был основан на аппроксимации рассматриваемых объектов ступенчатыми фигурами или телами, составленными из простейших фигур или пространственных тел (прямоугольников, параллелепипедов, цилиндров и т.п., обозначенных последовательностью С1, С2, …, Сn, …). В этом смысле метод исчерпывания можно рассматривать как античный интегральный метод.

Кризис и упадок древнего мира привёл к забвению многих научных достижений. О методе исчерпывания вспомнили лишь в XVII веке. Это было связано с именами Исаака Ньютона , Готфрида Лейбница, Леонарда Эйлера и ряда других выдающихся учёных, положивших основу современного математического анализа.

В конце XVII и в XVIII веке все возрастающие запросы практики и других наук побуждали ученых максимально расширять область и методы исследований математики. Понятия бесконечности, движения и функциональной зависимости выдвигаются на первое место, становятся основой новых методов математики.

В конце XVII и в XVIII веке в математике и механике были получены классические результаты фундаментального значения. Основным здесь было развитие дифференциального и интегрального исчисления, теории дифференциальных уравнений, вариационного исчисления и аналитической механики.

Основные понятия и теория интегрального и дифференциального исчислений, прежде всего связь операций дифференцирования и интегрирования, а также их применения к решению прикладных задач были разработаны в конце XVII века, но основывались на идеях, сформулированных в начале XVII веке великим математиком и астрономом Иоганом Кеплером.

В ноябре 1613 года королевский математик и астролог австрийского двора И. Кеплер праздновал свадьбу. Готовясь к ней, он приобрёл несколько бочек виноградного вина. При покупке Кеплер был поражён тем, что продавец определял вместимость бочки, производя одно единственное действие - измеряя расстояние от наливного отверстия до самой дальней от него точки днища. Ведь такое измерение совершенно не учитывало форму бочки! Кеплер сразу увидел, что перед ним интереснейшая математическая задача - по нескольким измерениям вычислить вместимость бочки. Размышляя над этой задачей, он нашёл формулы не только для объёма бочек, но и для объёма самых различных тел: лимона, яблока, айвы и даже турецкой чалмы. Для каждого из тел Кеплеру приходилось создавать новые, зачастую очень хитроумные методы, что было крайне неудобно. Попытка найти достаточно общие, а, главное, простые методы решения подобных задач и привела к возникновению современного интегрального счисления. Но это уже была заслуга совсем другого математика.

Трудно найти другое имя, которое оказало бы столь сильное влияние на историю мировой науки и культуры, как Исаак Ньютон. Известный математик и историк науки Б. Л. Ван-дер-Варден пишет в своей книге “Пробуждающаяся наука”: “Каждый естествоиспытатель безусловно согласится, что механика Ньютона есть основа современной физики. Каждый астроном знает, что современная астрономия начинается с Кеплера и Ньютона. И каждый математик знает, что самим значительным н наиболее важным для физики отделом современной математики является анализ, в основе которого лежат дифференциальное и интегральное исчисления Ньютона. Следовательно, труды Ньютона являются основой огромной части точных наук нашего времени”. И не только наук: “Математика и техника влияют даже на нашу духовную жизнь, и настолько. что мы редко можем представить это себе полностью. Вслед за необычайным взлётом, которое пережило и XVII веке естествознание, последовал неизбежно рационализм XVIII века, обожествление разума, упадок религии... Кто отдает себе отчет в том, - спрашивает автор, - что с исторической точки зрения Ньютон является самой значительной фигурой XVII века?”

Исаак Ньютон родился в 1643 году. Мальчик посещал сначала сельскую школу, а в двенадцать лет его отправили учиться в ближайший город. Директор школы обратил внимание на способного мальчика и уговорил мать Ньютона отправить сына учиться в Кембриджский университет. Ньютон был принят туда в качестве бедного студента, обязанного прислуживать бакалаврам, магистрам и студентам старших курсов.

Кафедру математике в Кембридже занимал тогда молодой блестящий учёный Исаак Барроу. Он скоро стал не только учителем, но и другом Ньютона, а спустя несколько лет уступил своему великому ученику кафедру математики. К этому времени Ньютон получил уже степени бакалавра и магистра. В 1665-1667 годах Ньютон начал работать над созданием математического аппарата, с помощью которого можно было бы исследовать и выражать законы физики. Ньютон первый построил дифференциальное и интегральное исчисления (он назвал его методом флюксий). Это сразу позволило решать самые разнообразные, математические и физические, задачи. До Ньютона многие функции определялись только геометрически, так что к ним невозможно было применять алгебру и новое исчисление флюксий. Ньютон нашел новый общий метод аналитического представления функции - он ввел в математику и начал систематически применять бесконечные ряды.

Поясним эту идею Ньютона. Известно, что любое действительное число можно представить десятичной дробью - конечной или бесконечной. Так. например:


Это значит, что любое число a можно представить в виде:


где N - целая часть, а a1, a2, ... an, ... могут принимать одно из значений 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. По аналогии с таким представлением чисел Ньютон предположил, что любая функция от x, например
, может быть представлена как бесконечный многочлен или ряд, расположенный уже не по степеням
, а по степеням x:


где a1, a2, ... an, ...- коэффициенты, которые каждый раз должны быть определены. Примером такого ряда может служить известная нам геометрическая прогрессия:


Представление функции с помощью ряда очень удобно. С помощью рядов, как писал Ньютон, “удается преодолеть трудности, в другом виде представляющиеся почти неодолимыми”.

Одновременно с Ньютоном к аналогичным идеям пришёл другой выдающийся учёный - Готфрид Вильгельм Лейбниц.

Готфрид Вильгельм Лейбниц родился в Германии в г. Лейпциге в 1646 г. Любознательный мальчик уже 6 лет вел интересные беседы по истории со своим отцом, профессором Лейпцигского университета. К 12 годам он хорошо изучил латинский язык и увлёкся древнегреческим. Особенно его интересовали древние философы, и он мог подолгу размышлять о философских теориях Аристотеля или Демокрита. В 15 лет Лейбниц поступает и Лейпцигский университет, где усердно изучает право и философию. Он очень много читает, среди его любимых книг -  книги Р. Декарта, Г. Галилея, II. Кеплера и Д. Кампанеллы.

 Свои колоссальные знания но математике Лейбниц приобрел самоучкой. Через три года, окончив университет, Лейбниц покинул Лейпциг. Он был обижен отказом ученого совета университета присвоить ому степень доктора прав. Отказ объяснили тем. что Лейбниц был... слишком молод!

Началась жизнь, полная напряженного труда и многочисленных путешествии. Легко себе представить, как неудобны были путешествовать в неуклюжих каретах по тряским дорогам Европы тех времен. Лейбниц умел не терять времени даром - много удачных мыслей пришло ему и голову именно во время этих продолжительных поездок. Лейбниц отличался исключительной способностью быстро “входить” и задачу и решать ее наиболее общим способом. Размышляя над философскими и математическими вопросами, Лейбниц убедился, что самым надежным средством искать и находить истину в науке может стать математика. Всю спою сознательную жизнь он стремился выразить законы мышления, человеческую способность думать и виде математического исчисления. Для этого необходимо, учил Лейбниц, уметь обозначать любые понятия или идеи определенными символами, комбинируя их в особые формулы, и сводить правила мышления к правилам в вычислениях но этим символическим формулам. Заменяя oбычные слова четко определенными символами, Лейбниц стремился избавить наши рассуждения от всякой неопределенности и возможности ошибиться самому или вводить в заблуждение других. Если, мечтал Лейбниц. между людьми возникнут разногласия, то решаться они будут не в длинных и утомительных спорах. а так, как решаются задачи или доказываются теоремы. Спорщики возьмут в руки перья и, сказав: “Начнем вычислять” - примутся за расчеты.

Как уже отмечалось, Лейбниц одновременно с Ньютоном и независимо от него открыл основные принципы дифференциального и интегрального исчислений. Теория приобрела силу после того, как Лейбницем и Ньютоном было доказано, что дифференцирование и интегрирование - взаимно обратные операции. Об этом свойстве хороню знал и Ньютон. Но только Лейбниц увидел здесь ту замечательную возможность, которую открывает применение символического метода.

Любой человек, изучив небольшое число правил действия с символами, обозначающими операции дифференцирования и интегрирования, становится обладателем мощного математического метода. В наше время такие символы операций называют операторами. Операторы дифференцирования d( ) и интегрирования
 действуют на функции, “перерабатывая” их в другие, точно вычисляемые функции. Лейбниц разрабатывает особую алгебру действий с этими операторами. Он доказывает, что обычное число а можно выносить за знак оператора:


 Одинаковые операторы можно выносить за скобку:


или:


Сокращенно все перечисленные свойства можно выразить соотношением:


где: a и b - числа.

Операторы. которые обладают таким свойством. называются линейными. Теория линейных операторов, которую с таким успехом начал развивать, Лейбниц,. в современной математике является хорошо разработанной и полезной в приложениях теорией.

Многократное применение операторов можно принимать как степень оператора, например, для d( ):


То, что основные операторы математического анализа являются взаимно обратными Лейбниц подчёркивал своей символикой, утверждая, что в d(x) и
также взаимно обратны, как степени и корни в обычном исчислении. Употребляя так же обозначение, аналогичное обозначению a-1 числа, обратного a, причём произведение a×a-1=1. Обозначая операторы
или наоборот:


и понимая под их произведением последовательное их применение, имеем:


т. е. произведение есть “единица”, не меняющая функцию.

Однако, в подходе Ньютона-Лейбница крылось серьёзное противоречие.

Лейбниц и его последователи - братья Бернулли,  Лопиталь и другие - трактовали дифференциалы как бесконечно малые разности обычных конечных величин, как тогда говорили - “реальных” величин “низшей” математики. Поэтому они обращались с теми и другими одинаково и в исчислении применяли к первым те же приемы, которые справедливы при действиях со вторыми. Вместе с тем выяснилось, что таким образом трактуемым бесконечно малым присуще свойство, противоречащее одному основному свойству основных конечных величин: если А — конечная величина, а a — бесконечно малая, то, чтобы результат исчисления получался совершенно точным, оказалось необходимым проводить вычисления в предположении, что А+a=А.

Дифференциальное исчисление, значение которого для развития науки и техники было вне сомнений, оказалось в парадоксальном положении: чтобы его методами получить точный результат, надо было исходить из ошибочного утверждения.

Ньютон пытался обосновать дифференциальное исчисление на законах механики и понятии предела. Но ему не удалось освободить свое исчисление флюксий от недостатков, присущих дифференциальному исчислению Лейбница. В практике вычисления Ньютон, как и Лейбниц, применял принцип отбрасывания бесконечно малых.

Такая непоследовательность позволила назвать дифференциальное исчисление Лейбница–Ньютона мистическим. Этим в первую очередь подчеркивалось, что Лейбниц и Ньютон вводили в дифференциальное исчисление бесконечно малые величины метафизически, сразу полагая их существующими, без выяснения их возникновения и развития и без анализа природы их специфических свойств.

Попытки построить анализ бесконечно малых и теорию рядов в полном соответствии с основными понятиями и истинами “низшей” математики с самого начала к успешным результатам не привели. Поэтому Лейбниц и его последователи пытались оправдать принципы анализа бесконечно малых путем сравнения бесконечно малой с песчинкой, которой можно пренебречь при вычислении высоты горы, посредством ссылок на вероятность и т. п.

Другая попытка была предпринята в конце XVIII века. Известный немецкий математик Вессель предложил оставить анализ бесконечно малых в анализе в качестве “полезных вспомогательных функций”. Однако, такая трактовка широкого распространения не получила - математики знали механическое и геометрическое истолкование dx и dy.

Примерно с последней четверти XVIII века область приложений математического анализа начинает значительно перекрывать границы его обычного приложения в механике и геометрии. Ещё быстрее развертывается этот процесс в первой четверти XIX века.

Математики пытались сначала решать новые задачи методами, разработанными классиками XVIII века - Эйлером, Даламбером, Лагранжем и другими. Однако, вскоре выяснилось, что методы классиков недостаточны, что надо развивать новые, более общие и сильные методы. Выяснилось также, что недостаточность методов классиков нередко связана с узостью трактовки основных понятий, с “изгоняемым” понятием о бесконечно малом, с “исключениями”, которые раньше оставались в тени.

Поясним сказанное одним примером.

Ньютон и Лейбниц разработали две трактовки понятия обычного определенного интеграла.

Ньютон трактовал определенный интеграл как разность соответствующих значений первообразной функции:


,

где F`(x)=f(x).

Для Лейбница определенный интеграл был суммой всех бесконечно малых дифференциалов.


.

Первая трактовка отвечала технике вычисления определенных интегралов при помощи первообразной подынтегральной функции, вторая - потому, что в приложениях определенный интеграл появлялся как предел известного вида суммы (интегральной суммы).

Примерно до последней четверти XVIII века первая трактовка понятия определенного интеграла занимала господствующее положение. Этому способствовали два обстоятельства.

 К началу XVIII века были установлены правила дифференцирования всех элементарных функций и началась успешная разработка методов нахождения их первообразных (рациональных, отдельных классов иррациональных и трансцендентных функций). Благодаря этому точка зрения Ньютона вполне отвечала развитию эффективных алгоритмов интегрального исчисления.

 Непосредственное вычисление
 как предела интегральной суммы столкнулось с многими трудностями. Естественно, что это обстоятельство укреплению точки зрения Лейбница не способствовало.

Истолкование обычного определенного интеграла по Лейбницу опиралось на понятие о бесконечно малых, от которого математики XVIII века хотели освободить математический анализ. Это также способствовало укреплению точки зрения Ньютона. Факт этот хорошо подтверждался тем, как Леонард Эйлер использовал понятие об интегральной сумме. Эйлер не возражал против приближенного вычисления определенных интегралов при помощи соответствующих интегральных сумм. Но рассматривать определенный интеграл как предел интегральной суммы он не мог. В этом случае все слагаемые интегральной суммы становились бесконечно малыми, т. е., с точки зрения Эйлера, были нулями.

Историческая справка. В 1963 г. 23-летний Пауль Эйлер окончил курс теологии в Базельском университете. Но учёных теологов было в те годы больше, чем требовалось, и лишь в 1701 г. он получил официальную должность священника сиротского дома в Базеле. 19 апреля 1706 г. пастор Пауль Эйлер женился на дочери священника. А 15 апреля 1707 г. у них родился сын, названный Леонардом.

Начальное обучение будущий учёный прошел дома под руководством отца, учившегося некогда математике у Якоба Бернулли. Добрый пастор готовил старшего сына к духовной карьере, однако занимался с ним и математикой – как в качестве развлечения, так и для развития логического мышления. Мальчик увлёкся математикой, стал задавать отцу вопросы один сложнее другого.

Когда у Леонардо проявился интерес к учёбе, его направили в Базельскую латинскую гимназию – под надзор бабушки.

20 октября 1720 г. 13-летний Леонард Эйлер стал студентом факультета искусств Базельского университета: отец желал, чтобы он стал священником. Но любовь к математике, блестящая память и отличная работоспособность сына изменили эти намерения и направили Леонарда по иному пути.

Став студентом, он легко усваивал учебные предметы, отдавая предпочтение математике. И немудрено, что способный мальчик вскоре обратил на себя внимание Бернулли. Он предложил юноше читать математические мемуары, а по субботам приходить к нему домой, чтобы совместно разбирать непонятное. В доме своего учителя Эйлер познакомился и подружился с сыновьями Бернулли – Николаем и Даниилом, также увлечённо занимавшимися математикой. А 8 июня 1724г. 17-летний Леонард Эйлер произнёс по- латыни великолепную речь о сравнении философских воззрений Декарта и Ньютона -  и был удостоен учёной степени магистра (в XIX в. в большинстве университетов Западной Европы ученая степень магистра была заменена степенью доктора философии).

Эйлер отличался феноменальной работоспособностью. Он просто не мог не заниматься математикой или её приложениями. В 1735 г. Академия получила задание выполнить срочное и очень громоздкое астрономическое вычисление. Группа академиков просила на эту работу три месяца, а Эйлер взялся выполнить работу за 3 дня – и справился самостоятельно. Однако перенапряжение не прошло бесследно: он заболел и потерял зрение на правый глаз. Однако учёный отнёсся к несчастью с величайшим спокойствием: “Теперь я меньше буду отвлекаться от занятий математикой”, - философски заметил он.

До этого времени Эйлер был известен лишь узкому кругу учёных. Но двухтомное сочинение “ Механика, или наука о движении, в аналитическом изложении ”, изданное в 1736 г., принесло ему мировую славу. Эйлер блестяще применил методы математического анализа к решению проблем движения в пустоте и в сопротивляющейся среде. “Тот , кто имеет достаточные навыки в анализе, сможет всё увидеть с необычайной лёгкостью и без всякой помощи прочитает работу полностью”, - заканчивает Эйлер своё предисловие к книге.

Дух времени требовал аналитического пути развития точных наук, применения дифференциального и интегрального исчисления для описания физических явлений. Этот путь и начал прокладывать Леонард Эйлер.

Конечно, и до последней четверти XVIII века концепция Ньютона сталкивалась с трудностями. В этот период встречались элементарные функции, первообразные которых не могут быть выражены через элементарные функции. Знали математики и некоторые несобственные интегралы, в том числе и расходящиеся. Но такого рода факты были единичными и установившейся эффективной концепции интеграла нарушить не могли. Иным оказалось положение в последней четверти XVIII и особенно в начале XIX века.

С 70-х годов XVIII века решение задач аналитической механики, физики и других дисциплин потребовало значительное развитие понятия определенного интеграла. Особое значение приобретают двойные и тройные интегралы (Эйлер, Лагранж, Лаплас и др.).

Это было время, когда великие идеи Ньютона и Лейбница были опубликованы сравнительно недавно и современный математический анализ только создавался. Мощные методы, которые принесли с собой эти идеи, находили применение во всех отраслях точного знания. Применение это шло рука об руку с развитием самого анализа, часто указывая пути и направления, по которым должно развиваться новое исчисление. Это была, пожалуй, единственная по своей интенсивности эпоха математического творчества, и Эйлер был один из немногих по своей продуктивности творцов. Его "Введение в анализ бесконечно малых", "Основания дифференциального исчисления" и "Основания интегрального исчисления" были первыми трактатами, в которых уже обширный, но разрозненный материал нового анализа был объединен в цельную науку. В них был выработан тот скелет современного анализа, который сохранился и до нашего времени.

Разработка приемов вычисления двойных и тройных интегралов показала, что вычислять эти интегралы так, как вычисляли обычный определенный интеграл - при помощи неопределенного, очень трудно или даже невозможно. Поэтому математики вынуждены были сохранять концепцию Ньютона только на словах, а на деле, при решении задач точных наук, стали на путь Лейбница. Они вычисляли соответствующие интегральные суммы (в прямоугольных, цилиндрических и сферических координатах) и находили их пределы.

Короче говоря, разработка способов вычисления новых видов определенного интеграла показала, что обыкновенный, двойной и т. д. определенный интегралы должны быть обоснованы сами по себе независимо от понятия неопределенного интеграла. Но каждое слагаемое любой интегральной суммы является бесконечно малой величиной. Тем самым не только ставился вопрос о легализации ранее “изгоняемого” понятия бесконечно малого, но и о раскрытии его реального содержания и о соответствующем его использовании. Как уже указывалось, чтобы всё это сделать надо было преодолеть - обобщить, развить традиционное (Эйлерово) толкование функции и понятия предела.

В связи с этим возник вопрос о существовании пределов интегральных сумм, слагаемые которых были бы бесконечно малыми. В первой четверти XIX века понятие бесконечно малой оказалось необходимым и для изучения и сопоставления свойств непрерывных и разрывных функций. Получение основополагающих результатов связано здесь с именем Коши. “Между многими понятиями, - указывал Коши, - тесно связанными со свойствами бесконечно малых, следует поместить понятие о непрерывности и прерывности функций”. Тут же Коши дает истолкование непрерывности функции, которое более чем ясно подтверждает ясность этого его утверждения.

Новая постановка задач обоснования математического анализа ясно показывала, что дело не только в признании и применении бесконечно малых - это делали и раньше! - но прежде всего в научном истолковании их содержания и обоснованном на этом использовании их в алгоритмах математического анализа. Однако, чтобы это сделать надо было преодолеть господствовавшее в XVIII веке узкое толкование понятия предела, разработать общую теорию пределов.

Изучение разрывных функций и сопоставление их с функциями непрерывными заставило признать то, что ранее считалось невозможным: что предел, к которому стремиться последовательность значений функции, при стремлении аргумента в некоторой точке может оказаться отличным от значения функции в этой точке. Значит, предел не всегда является “последним” значением переменной, но во всех случаях предел есть число, к которому переменная приближается неограниченно. Следовательно, dx и dy не необходимо нули или “мистически” актуально бесконечно малые; бесконечно малая - это переменная, имеющая пределом нуль, причем факт этот с противоречиями и парадоксами не связан.

Коши преодолел и вторую ограничительную тенденцию в принятой до него трактовке понятия предела. Он признал, что переменная может приближаться к своему пределу не только монотонно, но и колеблясь, порой принимая значения, равные её пределу. Это обстоятельство придало теории Коши необходимую общность и исключительную гибкость. Мы до сих пор следуем пути, намеченному Огюстеном Луи Коши, с теми усовершенствованиями, которые были внесены во второй половине XIX века К. Вейерштрассом.

Работы Коши и Вейерштрасса завершили создание классического математического анализа, Тем самым подведя итог многовекового развития интегрального исчисления.

Список литературы

Большакова А. А. Три кризиса в развитии математики. Дипломная работа; Астрахань: АГПИ, 1996.

Детская энциклопедия для среднего и старшего возраста. Т.2; М.: Просвещение, 1965.

Математическая энциклопедия. Ред. Виноградова. Т.2; М.: Сов. Энциклопедия, 1979.

Фихтенгольц Г.М. Основы математического анализа. Т.1; М.: Наука, 1968.

Для подготовки данной работы были использованы материалы с сайта http://www.ed.vseved.ru/



2012 © Все права защищены
При использовании материалов активная ссылка на источник обязательна.