Ваш любимый книжный интернет-магазин
Перейти на
GlavKniga.SU
Ваш город: Алматы
Ваше местоположение – Алматы
 Да 
От вашего выбора зависит время и стоимость доставки
Корзина: пуста
Авторизация 
  Логин
  
  Пароль
  
Регистрация  Забыли пароль?

Поиск по каталогу 
(строгое соответствие)
ISBN
Фраза в названии или аннотации
Автор
Язык книги
Год издания
с по
Электронный носитель
Тип издания
Вид издания
Отрасли экономики
Отрасли знаний
Сферы деятельности
Надотраслевые технологии
Разделы каталога
худ. литературы

Community evaluation of crowd-sourced ideas. An explorative study on how to improve the prediction accuracy of crowdsourcing communities

В наличии
Местонахождение: АлматыСостояние экземпляра: новый
Бумажная
версия
Автор: Georg Terlecki-Zaniewicz
ISBN: 9783330509733
Год издания: 2017
Формат книги: 60×90/16 (145×215 мм)
Количество страниц: 92
Издательство: AV Akademikerverlag
Цена: 29185 тг
Положить в корзину
Позиции в рубрикаторе
Отрасли знаний:
Код товара: 172768
Способы доставки в город Алматы *
комплектация (срок до отгрузки) не более 2 рабочих дней
Самовывоз из города Алматы (пункты самовывоза партнёра CDEK)
Курьерская доставка CDEK из города Москва
Доставка Почтой России из города Москва
      Аннотация: In 2008, Google initiated an ideation challenge called 'Project 10 to the 100'. They asked quite openly 'What would help most?' and received more than 150,000 ideas from people all over the globe. As Google's 'Project 10 to the 100' and many other real life examples show (e.g. Cisco's 'I-Prize' or Nokia's 'Tune Remake'), the number of submissions to crowdsourcing contests can be stunning. However, the majority of submitted ideas is usually of very low quality. According to the so-called Sturgeon's (1958) law, 90% of everything is crap. Firms are often overloaded by too much 'noise' generated on crowdsourcing platforms. They face the problem of not being able to filter and select the best ideas (or only being able to do so with substantial effort). Recently, scholars have proposed that the integration of crowdsourcing communities into the evaluation process appears to be a very promising method to filter high-quality ideas. In this explorative study, Georg Terlecki-Zaniewicz analyzed eleven crowdsourcing platforms, and concluded with a framework that makes the evaluation of crowd-sourced ideas through community evaluation both more efficient and more accurate.
Ключевые слова: Crowdsourcing, Open Innovation, Idea Management, Idea Evaluation