Личный кабинетuser
orange img orange img orange img orange img orange img
Дипломная работаРазное
Готовая работа №52430 от пользователя Федотова Надежда
book

Численное исследование многошаговых субградиентных методов для решения негладких задач высокой размерности

1 790 ₽
Файл с работой можно будет скачать в личном кабинете после покупки
like
Гарантия безопасной покупки
help

Сразу после покупки работы вы получите ссылку на скачивание файла.

Срок скачивания не ограничен по времени. Если работа не соответствует описанию у вас будет возможность отправить жалобу.

Гарантийный период 7 дней.

like
Уникальность текста выше 50%
help

Все загруженные работы имеют уникальность не менее 50% в общедоступной системе Антиплагиат.ру

file
Возможность снять с продажи
help

У покупателя есть возможность доплатить за снятие работы с продажи после покупки.

Например, если необходимо скрыть страницу с работой на сайте от третьих лиц на определенный срок.

Тариф можно выбрать на странице готовой работы после покупки.

Не подходит эта работа?
Укажите тему работы или свой e-mail, мы отправим подборку похожих работ
Нажимая на кнопку, вы соглашаетесь на обработку персональных данных

содержание

ВВЕДЕНИЕ 4
ГЛАВА 1. ПРЕДВАРИТЕЛЬНЫЕ СВЕДЕНИЯ 6
1.1. Условия экстремума задачи безусловной минимизации 6
1.2. Выпуклые функции и их свойства. Сведения из выпуклого анализа 7
1.3. Базовые субградиентов схемы выработки релаксационных procedure методов разработана безусловной состоит оптимизации точки 14
1.4. Основные позволяют понятия катета теории отличительной обучения экстремума 18
ГЛАВА 2. ОБУЧАЮЩИЕСЯ РЕЛАКСАЦИОННЫЕ СУБГРАДИЕНТНЫЕ МЕТОДЫ 23
2.1. Подход функции построения рисунке алгоритмов вектор обучения значением в является методах алгоритма сопряженных являются субградиентов затратам 24
2.2. множество Итерационный согласно метод величины решения результате множества последовательность неравенств решения на основе принципах одношагового формирования алгоритма поиска обучения множества 30
2.3. Алгоритм функции минимизации экстремума на основе точке одношагового являются алгоритма выпуклой обучения итерационные для проекция решения минимума множества началу неравенств максимума 34
2.4. формулам Связь обучения с называется методом множество сопряженных векторов градиентов рисунке 37
2.5. изложен Реализация функциях алгоритма результате минимизации значений на основе векторов одношагового алгоритме алгоритмаисленные обучения справедливо для этого решения изложенные множества предложенные неравенств решения 38
2.6. Результаты параметры главы строго 42
ГЛАВА 3. МНОГОШАГОВЫЙ МЕТОД НЕГЛАДКОЙ ОПТИМИЗАЦИИ НАОСНОВЕ ДВУХШАГОВОГО АЛГОРИТМА КАЧМАЖА следующий 43
3.1. Постановка спуска задачи универсальных 43
3.2. функция Семейство неравенств Методов вектор решения производной систем степени неравенств минимизации 51
3.3. Семейство который Субградиентных принадлежит методов выхода минимизации совокупность 55
3.4. убывания Связь одномерного с построения методом такова сопряженных остановимся градиентов методов 59
3.5. Одномерная аппроксимации минимизации функции 60
3.6. Одномерный минимума поиск определения минимума. процесс Кубическая поверхности интерполяция 61
3.7. Одномерный обучения спуск новое с кубической субградиент интерполяцией текущего 67
3.8. Алгоритм минимизации 72
3.9. Численный эксперимент 74
ЗАКЛЮЧЕНИЕ 81
ЛИТЕРАТУРА 82


Весь текст будет доступен после покупки

ВВЕДЕНИЕ

Рассматривается задача минимизации выпуклой, но не обязательно дифференцируемой функции. Начало исследований в области субградиентных методов положено в работах [1, 2], итоги которых можно найти в [3]. Существует ряд направлений построения методов негладкой оптимизации. Одно из них основано на построении и использовании приближений функции [4-6]. Ряд эффективных подходов в области негладкой оптимизации связан с изменением метрики пространства в результате операций растяжения пространства [7, 8]. Релаксационные по расстоянию до экстремума методы минимизации предложены в [9] и получили развитие в [10]. Первые релаксационные по функции РСМ предложены в [11-13].
Потребность в методах решения негладких задач минимизации большой размерности постоянно растет. В этой работе мы остановимся на многошаговых РСМ, применимых по затратам ресурсов памяти ЭВМ для решения большеразмерных задач. В случае гладких функций МСГ [3] является одним из универсальных средством решения плохо обусловленных задач высокой размерности. МСГ является многошаговым методом, оптимальным по скорости сходимости на квадратичных функциях [3]. При определенной организации метода, существующие РСМ [11-13], как и МСГ позволяют найти минимум квадратичной функции за конечное число итераций. Представляется актуальным создание подобных многошаговых универсальных средств решения негладких задач, применимых по затратам ресурсов памяти ЭВМ для решения задач минимизации высокой размерности.

Весь текст будет доступен после покупки

отрывок из работы

Глава 1. Предварительные сведения
1.1. Условия экстремума задачи безусловной минимизации
Условия экстремума являются основой, на которой строят методы решения задач оптимизации [3]. Они определяют информацию о свойствах решения. В этом разделе будут рассмотрены условия экстремума задачи минимизации без ограничений:
min f(x), x ? Rn.
Точка x* ? X называется точкой локального минимума функции f(x) , если f(x*)?f(x) ?x?S? (x*), где S? ( x*)={x ? Rn | ||x* - x|| ? ?} - ? - окрестность точки x*, ? ? 0.
Точка х* называется точкой глобального минимума функции f(x), если f(x*)? f(x) ?x ? X.
Точка х называется стационарной, если в ней выполнено условие
?f(х) = 0. (1.3.1)
Теорема 1.3.1. (Необходимое условие 1 порядка). Пусть х*- точка минимума f(x), x?Rn , и f(x) дифференцируема в х*, тогда выполняется условие стационарности (1.3.1).
Не всякая из точек, удовлетворяющих (1.3.1), является точкой минимума.
Теорема 1.3.2. (Достаточное условие 1-го порядка). Пусть f(x) - выпуклая функция, дифференцируемая в точке х*, и выполнено условие (1.3.1). Тогда х* - точка глобального минимума f ( x ) на Rn.
Теорема 1.3.3. (Необходимое условие 2-го порядка). Пусть х* - точка минимума f(x), x?Rn и f(x) дважды дифференцируется в х*. Тогда ? 2f(x*) ? 0. ^

Весь текст будет доступен после покупки

Список литературы

1. Шор Н.З. Применение метода градиентного спуска для решения сетевой транспортной задачи // Матер.научн. семинара по теорет. и прикл. вопр. кибернетики и исследования операций. Киев: Науч. советпокибернетике АН УССР, 1962.Вып. 1. С. 9–17.
2. KrutikovV.N., SamoilenkoN.S., and MeshechkinV.V. On the Properties of the Method of Minimization for Convex Functions with Relaxation on the Distance to Extremum // Automation and Remote Control, 2019, Vol. 80, No. 1, pp. 102–111.
3. Wolfe Ph. Note on a method of conjugate subgradients for minimizing nondifferentiable functions // Math. Program. 1974. Vol. 7. No. 1. P. 380–383.
4. Lemarechal C. An extension of Davidon methods to non-differentiable problems // Math. Program. Study. 1975. V. 3. P. 95–109.
5. Демьянов В.Ф., Васильев Л.В. Недифференцируемая оптимизация. М.: Наука, 1981.
6. Крутиков, В.Н. Релаксационный метод минимизации с растяжением пространства в направлении субградиента / В.Н. Крутиков, Т.В. Петрова // Экономика и мат. методы. – 2003. – Т. 39, Вып. 1. – С 33-49.
7. Крутиков, В.Н. Семейство релаксационных субградиентных методов с двухранговой коррекцией матриц метрики / В.Н. Крутиков, Т.А. Горская // Экономика и мат. методы. – 2009. – Т. 45, – №4. – С 37-80.
8. Крутиков, В. Н. Новый релаксационный метод недифференцируемой минимизации / В. Н. Крутиков, Т. В. Петрова // Мат. заметки ЯГУ. 2001. Т.8. Вып. 1. С. 50-60
9. Крутиков, В.Н. Алгоритмы обучения на основе ортогонализации последовательных векторов / В.Н. Крутиков, Я.Н. Вершинин // Вестник КемГУ. – 2012 – Вып. 2 (50). – С. 37-42.
10. Цыпкин Я. З. Основы теории обучающихся систем. М.: Наука, 1970.
11. Kacmarz S. Angendherte Auflosung von Systemen Linearer Gleichungen // Bulletin Internat Academe Polon. Sci. Lett. Gl. Sci. Math. Nat A.1937.
12. Поляк Б.Т. Один общий метод решения экстремальных задач // Докл. АН СССР. 1967. Т. 174. Вып. 1. С. 33–36.

Весь текст будет доступен после покупки

Почему студенты выбирают наш сервис?

Купить готовую работу сейчас
service icon
Работаем круглосуточно
24 часа в сутки
7 дней в неделю
service icon
Гарантия
Возврат средств в случае проблем с купленной готовой работой
service icon
Мы лидеры
LeWork является лидером по количеству опубликованных материалов для студентов
Купить готовую работу сейчас

не подошла эта работа?

В нашей базе 78761 курсовых работ – поможем найти подходящую

Ответы на часто задаваемые вопросы

Чтобы оплатить заказ на сайте, необходимо сначала пополнить баланс на этой странице - https://lework.net/addbalance

На странице пополнения баланса у вас будет возможность выбрать способ оплаты - банковская карта, электронный кошелек или другой способ.

После пополнения баланса на сайте, необходимо перейти на страницу заказа и завершить покупку, нажав соответствующую кнопку.

Если у вас возникли проблемы при пополнении баланса на сайте или остались вопросы по оплате заказа, напишите нам на support@lework.net. Мы обязательно вам поможем! 

Да, покупка готовой работы на сайте происходит через "безопасную сделку". Покупатель и Продавец финансово защищены от недобросовестных пользователей. Гарантийный срок составляет 7 дней со дня покупки готовой работы. В течение этого времени покупатель имеет право подать жалобу на странице готовой работы, если купленная работа не соответствует описанию на сайте. Рассмотрение жалобы занимает от 3 до 5 рабочих дней. 

У покупателя есть возможность снять готовую работу с продажи на сайте. Например, если необходимо скрыть страницу с работой от третьих лиц на определенный срок. Тариф можно выбрать на странице готовой работы после покупки.

Гарантийный срок составляет 7 дней со дня покупки готовой работы. В течение этого времени покупатель имеет право подать жалобу на странице готовой работы, если купленная работа не соответствует описанию на сайте. Рассмотрение жалобы занимает от 3 до 5 рабочих дней. Если администрация сайта принимает решение о возврате денежных средств, то покупатель получает уведомление в личном кабинете и на электронную почту о возврате. Средства можно потратить на покупку другой готовой работы или вывести с сайта на банковскую карту. Вывод средств можно оформить в личном кабинете, заполнив соответствущую форму.

Мы с радостью ответим на ваши вопросы по электронной почте support@lework.net

surpize-icon

Работы с похожей тематикой

stars-icon
arrowarrow

Не удалось найти материал или возникли вопросы?

Свяжитесь с нами, мы постараемся вам помочь!
Неккоректно введен e-mail
Нажимая на кнопку, вы соглашаетесь на обработку персональных данных