Ваш любимый книжный интернет-магазин
Перейти на
GlavKniga.SU
Ваш город: Алматы
Ваше местоположение – Алматы
 Да 
От вашего выбора зависит время и стоимость доставки
Корзина: пуста
Авторизация 
  Логин
  
  Пароль
  
Регистрация  Забыли пароль?

Поиск по каталогу 
(строгое соответствие)
ISBN
Фраза в названии или аннотации
Автор
Язык книги
Год издания
с по
Электронный носитель
Тип издания
Вид издания
Отрасли экономики
Отрасли знаний
Сферы деятельности
Надотраслевые технологии
Разделы каталога
худ. литературы

A New Approach in Mathematical Theory of Communication. A New Entropy with its Application

В наличии
Местонахождение: АлматыСостояние экземпляра: новый
Бумажная
версия
Автор: Rohit Kumar Verma and Babita Verma
ISBN: 9783659480294
Год издания: 2013
Формат книги: 60×90/16 (145×215 мм)
Количество страниц: 136
Издательство: LAP LAMBERT Academic Publishing
Цена: 28328 тг
Положить в корзину
Позиции в рубрикаторе
Отрасли знаний:
Код товара: 128121
Способы доставки в город Алматы *
комплектация (срок до отгрузки) не более 2 рабочих дней
Самовывоз из города Алматы (пункты самовывоза партнёра CDEK)
Курьерская доставка CDEK из города Москва
Доставка Почтой России из города Москва
      Аннотация: We often hear,in communication engg.,that some data is lost during the message communication. The basic object of this book is to find more and more efficient channel capacity to minimize the data loss. I tried to solve so many unbalancing problems, which occures in communication engineering, and can be solved by optimization technique very easily. On the basis of entropy Rohit Kumar Verma also develop such type of mathematical models which are useful for the prediction of futuristic statistical data for making our future plan and strategy. This book covers following topics in detail : •Some generating functions for the measures of entropies and directed-divergence •Some logistic-type growth models based on measures of information •Some multivariate normal distributions based on parametric and non-parametric measures of entropies •An unorthodox parametric measures of information and corresponding measures of fuzzy information •Optimization problems for the new parametric measure of entropy in the dual space •Some inequalities on the basis of the new para-metric measure of information •The channel capacity when the non-Shannon info. measures are maximized by normal distribution.
Ключевые слова: Entropy, Differential Entropy, Gussian Channel, Directed Divergence, Channel Capacity, Multivariate Normal Distribution etc.