Ваш любимый книжный интернет-магазин
Перейти на
GlavKniga.SU
Ваш город: Алматы
Ваше местоположение – Алматы
 Да 
От вашего выбора зависит время и стоимость доставки
Корзина: пуста
Авторизация 
  Логин
  
  Пароль
  
Регистрация  Забыли пароль?

Поиск по каталогу 
(строгое соответствие)
ISBN
Фраза в названии или аннотации
Автор
Язык книги
Год издания
с по
Электронный носитель
Тип издания
Вид издания
Отрасли экономики
Отрасли знаний
Сферы деятельности
Надотраслевые технологии
Разделы каталога
худ. литературы

Stochastics Perturbations of Global Optimization. Analysis and Applications

В наличии
Местонахождение: АлматыСостояние экземпляра: новый
Бумажная
версия
Автор: Abdelkrim El Mouatasim
ISBN: 9783639666748
Год издания: 2014
Формат книги: 60×90/16 (145×215 мм)
Количество страниц: 120
Издательство: Scholars' Press
Цена: 35020 тг
Положить в корзину
Позиции в рубрикаторе
Отрасли знаний:
Код товара: 140116
Способы доставки в город Алматы *
комплектация (срок до отгрузки) не более 2 рабочих дней
Самовывоз из города Алматы (пункты самовывоза партнёра CDEK)
Курьерская доставка CDEK из города Москва
Доставка Почтой России из города Москва
      Аннотация: In this book, the global optimization of a nonconvex objective function is studied via stochastic perturbation. Stochastic perturbation is a method for the transformation of local minimization procedures in to global ones in the framework of continuous optimization. We have considered a general problem of unconstrained continuous and linear constraints optimization where the objective function may be nonsmooth. Standard meth-ods for smooth functions usually generate a descent direction by using the gradient and may be extended to nonsmooth situations by using a generalized gradient instead of the standard one whenever it is necessary. For instance, Clarke’s generalized gradients may be used at the points where the objective function is not differentiable. According to this observation, we have considered a variable metric descent method and introduced suitable affine local approximations to be used. The projected variable metric descent method is considered for continuous optimization with linear constraints, and we have considered generalized reduced gradient (GRG) for nonlinear constraints optimization where the objective function is twice differentiable.
Ключевые слова: Integer Programming, Active Set Method, Multi-objective optimization, Nonsmooth Optimization, Penalty Function, stochastic perturbation, Reduced Gradient Method and its Generalization, Nonconvex Optimization, Variable Metric Method.