Видеотека
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Видеотека
Архив
Популярное видео

Поиск
RSS
Новые поступления






5-ая международная конференция по стохастическим методам 2020
24 ноября 2020 г. 16:50–17:20, г. Москва, онлайн
 


Minimum Variance and Minimum Kulback-Leibler Mean Estimation with a Known Quantile

Musoni Wilson, Zhanna Zenkova
Видеозаписи:
MP4 137.1 Mb

Количество просмотров:
Эта страница:8
Видеофайлы:4


Видео не загружается в Ваш браузер:
  1. Проверьте с Вашим администратором, что из Вашей сети разрешены исходящие соединения на порт 8080
  2. Сообщите администратору портала о данной ошибке

Аннотация: This work compares two mean estimators, MV and MKL, which incorporate information about a known quantile. MV minimizes variance and MKL minimizes Kulback-Leibler divergence. Both estimators are asymptotically equivalent and normally distributed but differ at finite sample sizes. Monte-Carlo simulation studies show that MV has higher mean squared error than MKL in the majority of simulated scenarios. Authors recommend using MKL when a quantile of an underlying distribution is known.

ОТПРАВИТЬ: VKontakte.ru FaceBook Twitter Mail.ru Livejournal Memori.ru
 
Обратная связь:
 Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2021