Anatoly Levenchuk (ailev) wrote in openmeta,
Anatoly Levenchuk
ailev
openmeta

Does it help them manage their cognitive load while they are doing the problem?

Очередные попытки измерения cognitive load -- попытки выяснить, насколько учебные видео помогают студентам справиться с задачами: http://www.purdue.edu/newsroom/releases/2016/Q2/study-focuses-on-use-of-instructional-videos-to-aid-problem-solving.html Увы, тут чистый пиар, ибо изо всех результатов доступна только фраза "Taken together, the results suggest that student usage of video resources can be broadly described by several archetypes, although in this study successful problem solution was possible regardless of archetype".

Тем не менее, постановка задачи может быть разобрана:
-- дано какое-то техническое средство X (в данном случае учебное видео)
-- дан человек, пытающийся как-то управлять своей когнитивной нагрузкой (думать, отвлекаться, пользоваться техническим средством X)
-- требуется понять: техническое средство X как связано с этим управлением когнитивной нагрузкой? Разгружает, нагружает?

То есть нужно не только замерять то, что происходит в мозгах (например, ЭЭГ), но и вокруг (например, куда смотрит человек при этом, где фокус его внимания -- с точностью до того, внутрь ли себя он смотрит при этом, или таки на внешний предмет). Тут я бы добавил, что стоимость отслеживания, например, направления взгляда драматически падает (см., например, http://arxiv.org/abs/1606.05814 -- используется deep learning). Можно также в разы дешевле понимать, что происходит с жестами (http://www.purdue.edu/newsroom/releases/2016/Q2/new-tool-for-virtual-and-augmented-reality-uses-deep-learning.html тоже используется deep learning).

Дальше можно либо а) предлагать стратегию/архетип рационального использования X, либо б) менять X в сторону улучшения, либо в) говорить, что X тут вообще только мешает, а не помогает.

Увы, вся эта "объективация" дешевеет относительно медленно, и разные технологии появляются в разных местах. Думаю, что ключевая тут технология -- это комплексирование всех этих распознаваний и end-to-end learning (т.е. не отдельно глазки, отдельно ручки, отдельно энцефалограмма, а сразу всё -- примерно как человек-психопрактик моделирует в смысле нейролингвистического программирования других людей, но при этом максимально использовать априорное знание: например, про те же ключи глазного доступа. Скажем, поднять разрешение распознавания, чтобы отслеживать микросаккады).

Опять же, если речь идёт об управлении когнитивной нагрузкой "изнутри", то всё можно доставать из энцефалограммы и миограмм, а вот если речь идёт о коммуникации, то тогда нужно честно "смотреть во все глаза и слушать во все уши", ибо другого способа к нейроданным не будет, кроме как через внимание к непроизвольным микродвижениям.

Сложно всё получается и дорого. Людей сложно и дорого учить, а технику сложно и дорого закупать-разрабатывать и тоже потом учить. А бенефиты не слишком понятны: хорошие ученики и работники вполне толерантны к высокой когнитивной нагрузке, а всех плохих в хороших скоро будет проще генетически превращать, а не путём подстройки окружающей среды под их слабые возможности. Тем не менее, на костылях ходят, пока регенерации не изобрели, так и тут можно будет разрабатывать "когнитивные костыли" для не-гроссмейстеров. Ну, или "когнитивные очки", чтобы смягчить метафору.
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 0 comments